INTELIGÊNCIA ARTIFICIAL NO DIREITO: ENTRE OPORTUNIDADES E ARMADILHAS

Reserve um tempo para leitura

INTELIGÊNCIA ARTIFICIAL NO DIREITO: ENTRE OPORTUNIDADES E ARMADILHAS

A urgência de uma capacitação responsável para o uso de ferramentas que já transformam a advocacia

Por Filipe Litaiff, PhD

Em dezembro de 2024, o ministro Cristiano Zanin, do Supremo Tribunal Federal, rejeitou uma petição redigida com auxílio de inteligência artificial que continha precedentes inexistentes, aplicando multa por má-fé e encaminhando o caso à OAB¹. Não foi um caso isolado. No Tribunal de Justiça do Paraná, um desembargador classificou como “balbúrdia textual” um recurso contendo 43 jurisprudências falsas geradas por IA. Em Santa Catarina, a 5ª Câmara Criminal advertiu advogado por habeas corpus com jurisprudência inventada por algoritmos.

Estes episódios ilustram uma realidade preocupante: a inteligência artificial generativa chegou ao Direito brasileiro, mas sua adoção tem sido frequentemente irresponsável, expondo profissionais e seus clientes a riscos jurídicos e éticos graves.

A Revolução Silenciosa que Não Podemos Ignorar

Pesquisa da LexisNexis de 2023 revela um paradoxo revelador: enquanto 79% dos estrategistas empresariais consideram a IA essencial para o sucesso, apenas 15% dos advogados a utilizam de forma ativa. Simultaneamente, 57% dos clientes corporativos já esperam que seus escritórios usem IA, e 73% querem ser informados sobre esse uso.

A magistratura não está alheia a essa transformação. Tribunais brasileiros já implementam ferramentas de IA para triagem processual, análise de precedentes e até auxílio na redação de decisões. O Tribunal de Justiça de Rondônia, por exemplo, desenvolveu a inteligência artificial Sinapses, que hoje empresta expertise a todo o Judiciário nacional.

Contudo, se a tecnologia é inevitável, sua implementação adequada não é automática. Minha pesquisa de doutorado sobre a institucionalização da IA na Justiça Trabalhista brasileira evidenciou que a diferença entre sucesso e fracasso não está na ferramenta, mas na competência de quem a utiliza.

O Problema da Natureza Probabilística

O cerne da questão reside na natureza das redes neurais que sustentam os modelos de linguagem (LLMs). Quando solicitamos a três sistemas populares o prompt simples, “Se eu investir R$1000 por mês durante 30 anos com juros compostos 

de 8% ao ano, quanto terei no final?”
Podemos obter respostas díspares: R$ 1.223.459 (Claude), R$ 1.504.827 (ChatGPT) e R$ 1.408.550,55 (Gemini).
A resposta correta é R$ 1.490.359.

TextoO conteúdo gerado por IA pode estar incorreto.
Resultado Claude Sonnet 4

TextoO conteúdo gerado por IA pode estar incorreto.
Resultado no ChatGPT 3.5


Resultado no Gemni 2.5 Flash

Isso acontece porque LLMs não “calculam” – eles predizem probabilisticamente qual deveria ser a próxima palavra, baseando-se em padrões identificados durante o treinamento. Para cálculos complexos, alguns modelos executam código internamente, outros simplesmente “adivinham” baseados em dados aproximados vistos anteriormente.

Imagine as consequências desse comportamento em cálculos de indenização, correção monetária ou financiamentos imobiliários em processos judiciais.

Framework para Uso Responsável

Durante anos de experiência prática e teórica no uso dessa tecnologia, desenvolvi uma metodologia estruturada para aplicação segura e produtiva da IA generativa no Direito, ancorada em seis princípios fundamentais:

1. Não Terceirize seu Raciocínio para a Máquina
A IA deve funcionar como ferramenta de apoio, nunca como substituto do discernimento jurídico. O profissional permanece no controle integral do processo decisório.

2. Seja “Dono” do Resultado
Assuma responsabilidade total pelo conteúdo gerado. A obrigação ética e legal permanece inalterada, independentemente da ferramenta utilizada.

3. Verifique Sempre
Citações, precedentes e argumentos devem ser rigorosamente checados. Pesquisas indicam que apenas 11% dos advogados têm preocupações fundamentais adequadas com a ética da IA.

4. Reflita sobre o Processo
Adote postura reflexiva após cada interação. Questione: “Por que o sistema apresentou este resultado?” Aprenda com cada experiência.

5. Aprenda a Perguntar
A qualidade da resposta é diretamente proporcional à qualidade da pergunta. Antes de consultar a IA, defina claramente: “Qual é realmente meu problema?”

6. Conheça os Limites da Tecnologia
Modelos podem “alucinar” (fabricar casos ou fontes), possuem corte temporal de conhecimento e não compreendem realmente o Direito – apenas simulam compreensão baseada em padrões estatísticos.

DiagramaO conteúdo gerado por IA pode estar incorreto.

A Competência Como Divisor de Águas

A experiência prática demonstra que a competência em IA generativa cria duas trajetórias profissionais distintas. Profissionais abaixo da linha de competência são prejudicados pela ferramenta mal utilizada, enfrentando dependência tecnológica, erros críticos e riscos jurídicos. Aqueles acima dessa linha são impulsionados pela mesma tecnologia, experimentando maior criatividade, conhecimento, eficácia e produtividade.

Estudos da Universidade de Minnesota confirmam essa dicotomia: advogados capacitados relatam redução de 32% no tempo para elaboração de contratos e 24% para petições, além de significativo aumento na satisfação profissional pela eliminação de trabalho repetitivo.

O Desafio dos Chatbots Jurídicos Especializados

Muitos escritórios questionam se ferramentas jurídicas especializadas resolveriam os problemas. A resposta é nuançada. Estes sistemas combinam LLMs tradicionais com RAG (Retrieval-Augmented Generation) – essencialmente um “estagiário digital” que busca documentos relevantes para que a IA elabore respostas baseadas apenas nesse material.

Contudo, criar chatbots jurídicos confiáveis requer resolver simultaneamente três problemas técnicos complexos: hierarquia normativa (STF > STJ > tribunais regionais), controle temporal (jurisprudência superada versus entendimento atual) e contexto factual (distinguir “dano moral” em atraso de voo de “dano moral” em erro médico).

Mesmo com corpus jurídico especializado, esses sistemas ainda exigem usuários especializados capazes de formular perguntas adequadas, interpretar criticamente os resultados e aplicar os princípios de uso responsável.

A Urgência da Capacitação

A tecnologia está disponível e sua adoção é irreversível. O que falta é um método confiável e profissional para aplicá-la com segurança e eficiência. A diferença entre saber que a IA é importante e saber usá-la bem determina se ela se tornará vantagem competitiva ou fonte de riscos profissionais.

Para a magistratura, essa capacitação torna-se ainda mais crítica. Decisões judiciais apoiadas em IA mal utilizada podem comprometer não apenas casos individuais, mas a confiança no sistema de justiça como um todo.

A pergunta não é mais se devemos usar inteligência artificial no Direito, mas como fazê-lo com responsabilidade, competência e excelência. O futuro da prestação jurisdicional pode depender da resposta que dermos hoje a essa questão.


Filipe Litaiff é doutor em Direito, especialista em inteligência artificial aplicada ao setor jurídico e fundador da Sunyata Consultoria (https://sunyataconsulting.com/). Sua pesquisa de doutorado abordou a institucionalização da IA na Justiça Trabalhista brasileira, incluindo entrevistas com mais de 30 especialistas dentro e fora do Poder Judiciário.


¹ Fonte: “Zanin rejeita petição feita com inteligência artificial e aplica multa por má-fé”, Carta Capital, dezembro de 2024.

SUNYATA

Email:
contato@sunyataconsulting.com

Desenvolvidor por:

SUNYATA