Como a inteligência artificial fabricou julgamentos falsos em um tribunal na Índia
O uso de inteligência artificial dentro do judiciário acaba de protagonizar um dos episódios mais preocupantes dos últimos anos. Na cidade de Vijaywada, no estado de Andhra Pradesh, na Índia, uma juíza de primeira instância tomou uma decisão em uma disputa de propriedade citando quatro julgamentos anteriores como base legal para sua sentença. Até aí, tudo dentro do esperado em qualquer processo judiciário comum. O detalhe que transformou esse caso em um escândalo é que nenhum desses quatro julgamentos jamais existiu. Todos foram fabricados por uma ferramenta de IA generativa, e a juíza os utilizou sem verificar se eram reais.
Quando os réus identificaram as citações falsas e contestaram a decisão, o caso subiu rapidamente pelas instâncias judiciais. Primeiro chegou ao Tribunal Superior de Andhra Pradesh e, depois, à Suprema Corte indiana, que reagiu de forma dura e classificou a conduta não como um simples equívoco técnico, mas como um ato de má conduta com impacto direto na integridade do processo de julgamento.
O que aconteceu no caso de Andhra Pradesh
Os problemas começaram em agosto do ano passado, quando a juíza civil de primeira instância em Vijaywada emitiu uma decisão sobre um imóvel em disputa. O tribunal havia designado anteriormente um funcionário oficial para fazer uma vistoria na propriedade e apresentar um relatório. Os réus se opuseram a essa medida, mas a juíza rejeitou a objeção, fundamentando sua decisão em quatro julgamentos anteriores que, supostamente, dariam respaldo jurídico à sua posição.
O problema é que esses quatro julgamentos simplesmente não existiam. Haviam sido gerados por uma ferramenta de inteligência artificial generativa, e a juíza os incorporou à sua sentença sem fazer qualquer tipo de verificação nas bases de dados oficiais do judiciário indiano. Quando os réus desconfiaram das citações e foram checar, descobriram que nenhuma delas correspondia a casos reais. A partir daí, contestaram a decisão no Tribunal Superior do estado.
Sistemas de IA generativa são amplamente conhecidos por sua capacidade de alucinar — um termo técnico que descreve situações em que o modelo apresenta informações falsas com total convicção, chegando até a inventar fontes para dar credibilidade ao conteúdo fabricado. Esse fenômeno é particularmente perigoso no campo jurídico, onde a precisão das referências é fundamental para a validade de qualquer decisão.
A reação do Tribunal Superior e a defesa da juíza
Ao analisar o recurso dos réus, o Tribunal Superior de Andhra Pradesh reconheceu que, de fato, as citações utilizadas pela juíza eram falsas. No entanto, o tribunal adotou uma postura mais branda em relação à magistrada. Aceitou que a juíza havia cometido o erro de boa-fé e, numa decisão que gerou bastante controvérsia, manteve a sentença original do tribunal de primeira instância.
Na fundamentação, o Tribunal Superior argumentou que, embora as citações fossem inexistentes, a juíza havia aplicado os princípios corretos de direito aos fatos do caso. Segundo o tribunal, a simples menção de decisões falsas ou inexistentes na sentença não seria motivo suficiente para anular a ordem, desde que a lógica jurídica por trás dela estivesse correta.
O Tribunal Superior também solicitou um relatório da juíza que havia utilizado os julgamentos gerados por IA. Ela informou que aquela era a primeira vez que utilizava uma ferramenta de inteligência artificial e que havia acreditado que as citações eram genuínas. Afirmou que não tinha nenhuma intenção de citar erroneamente ou distorcer decisões judiciais e que o equívoco ocorreu exclusivamente por ter confiado em uma fonte automatizada.
O Tribunal Superior ainda fez um apelo para que profissionais do direito priorizassem o exercício da inteligência real sobre a inteligência artificial — uma frase que repercutiu amplamente na mídia indiana e internacional.
A Suprema Corte indiana não perdoou
Insatisfeitos com a decisão do Tribunal Superior, os réus recorreram à Suprema Corte da Índia, em Nova Délhi. E ali, a recepção foi bem diferente. Os juízes da mais alta instância do país foram severos em sua análise e não aceitaram a tese de que o episódio poderia ser tratado como um erro de boa-fé.
Na sexta-feira passada, a Suprema Corte suspendeu a decisão do tribunal de primeira instância sobre a disputa de propriedade. Em seu pronunciamento, o tribunal classificou o uso de julgamentos fabricados por IA como um ato de má conduta, e não como um simples erro de tomada de decisão. Os juízes destacaram que o caso representava uma questão de preocupação institucional considerável, não tanto pela decisão em si sobre o mérito do caso, mas pelo que revelava sobre o processo de julgamento e determinação judicial.
A Suprema Corte afirmou que julgamentos falsos gerados por inteligência artificial têm impacto direto na integridade do processo adjudicatório e anunciou que examinará o caso com mais profundidade. Para isso, emitiu notificações ao Procurador-Geral e ao Solicitor General da Índia, além do Conselho da Ordem dos Advogados do país, convocando essas autoridades a se manifestarem sobre a questão.
O problema dos julgamentos falsos não é exclusivo da Índia
Esse episódio acende um alerta global, e não é exagero dizer isso 🚨. Casos semelhantes de julgamentos falsos gerados por inteligência artificial já foram registrados em outros países, mostrando que essa é uma tendência preocupante que acompanha a popularização das ferramentas de IA generativa.
Nos Estados Unidos, dois juízes federais foram chamados a prestar explicações em outubro após o uso de ferramentas de IA resultar em erros em suas decisões. Ainda nos EUA, um advogado de Nova York ganhou notoriedade internacional quando utilizou o ChatGPT para preparar uma petição judicial e acabou citando decisões anteriores que simplesmente não existiam. O juiz responsável pelo caso aplicou sanções ao profissional e o episódio virou referência sobre os riscos do uso irresponsável de IA no campo jurídico.
Na Inglaterra, o Tribunal Superior da Inglaterra e do País de Gales emitiu um alerta em junho de 2025 para que advogados não utilizem material jurídico gerado por inteligência artificial, depois que uma série de casos apresentou decisões fictícias ou parcialmente inventadas como fundamentação. A preocupação é a mesma em todos esses países: ferramentas de IA generativa criam textos extremamente convincentes, incluindo referências jurídicas fictícias que parecem absolutamente legítimas para quem não faz uma verificação cuidadosa nas bases de dados oficiais.
Em outro caso recente na própria Índia, no mês passado, a Suprema Corte expressou preocupação com a tendência crescente de advogados utilizarem ferramentas de IA para redigir petições. O tribunal classificou a prática como absolutamente inaceitável, segundo o portal jurídico LiveLaw.
Por que a inteligência artificial fabrica informações com tanta naturalidade
É importante entender o mecanismo por trás dessas fabricações. Modelos de IA generativa funcionam prevendo qual é a próxima palavra mais provável em uma sequência de texto. Eles não consultam bancos de dados jurídicos reais, não acessam repositórios oficiais de decisões judiciais e não têm a capacidade de distinguir entre um julgamento verdadeiro e um fictício.
Quando recebem um pedido como cite julgamentos anteriores sobre disputas de propriedade na Índia, esses modelos simplesmente criam textos que se parecem com citações jurídicas reais, com nomes de tribunais, datas, números de processo e até trechos de fundamentação — tudo absolutamente inventado, mas com uma aparência extremamente convincente. Esse fenômeno, conhecido como alucinação, é uma limitação estrutural dos grandes modelos de linguagem e não pode ser resolvido apenas com prompts mais cuidadosos ou com versões mais avançadas das ferramentas.
É justamente essa naturalidade na fabricação de informações que torna o uso dessas ferramentas tão perigoso em contextos onde a precisão factual é essencial, como no judiciário, na medicina e no jornalismo.
Consequências legais e o futuro da IA no processo judiciário
As consequências legais desse tipo de episódio vão muito além de uma suspensão de sentença ou de uma multa financeira. Quando julgamentos falsos são utilizados para fundamentar decisões, pessoas reais sofrem impactos concretos. No caso indiano, os réus de uma disputa de propriedade quase perderam seus direitos com base em precedentes que nunca existiram. Se não tivessem identificado as citações falsas e contestado a decisão, a sentença teria se mantido, criando um precedente perigoso e potencialmente irreversível.
Isso mostra como a falta de verificação no uso de inteligência artificial pode comprometer direitos fundamentais e minar a confiança pública no sistema de justiça como um todo.
Diversos países já começaram a discutir regulamentações específicas para o uso de IA em contextos jurídicos:
- Estados Unidos: alguns tribunais federais passaram a exigir que advogados declarem formalmente se utilizaram ferramentas de inteligência artificial na elaboração de petições e documentos judiciais.
- União Europeia: o AI Act classifica o uso de IA no judiciário como uma aplicação de alto risco, exigindo supervisão humana rigorosa e transparência total sobre os métodos utilizados.
- Índia: no ano passado, a própria Suprema Corte publicou um documento técnico sobre inteligência artificial no judiciário indiano, listando boas práticas e diretrizes para o uso de IA por instituições judiciais, advogados e funcionários dos tribunais. O documento enfatizou a necessidade de supervisão humana e a importância de manter salvaguardas institucionais firmemente estabelecidas.
- Brasil: o Conselho Nacional de Justiça já publicou resoluções sobre o tema e tem acompanhado de perto como tribunais brasileiros estão implementando ferramentas de IA em seus fluxos de trabalho, sempre com a premissa de que a decisão final deve ser humana.
O equilíbrio entre tecnologia e responsabilidade humana
O ponto central dessa discussão não é demonizar a inteligência artificial ou sugerir que ela não tem lugar no processo judiciário. Pelo contrário, ferramentas de IA podem ajudar enormemente na organização de documentos, na triagem de processos, na pesquisa jurisprudencial e na redução dos gargalos que tornam a justiça lenta em praticamente todos os países do mundo.
O problema está no uso sem supervisão, sem verificação e sem responsabilidade. Quando um profissional do direito — seja advogado, juiz ou promotor — terceiriza a fundamentação de uma decisão para uma ferramenta que não tem compromisso com a verdade factual, as consequências podem ser devastadoras. A IA pode ser uma aliada poderosa na pesquisa e na organização de informações, mas a validação, a análise crítica e a decisão final precisam continuar sendo atribuições exclusivamente humanas.
O caso da Índia serve como um lembrete poderoso de que a tecnologia é uma ferramenta, e como toda ferramenta, seu valor depende inteiramente de quem a utiliza e de como a utiliza. A Suprema Corte indiana deixou isso claro ao tratar o episódio não como um acidente de percurso, mas como uma questão que afeta a credibilidade de todo o sistema judicial. Com a popularização cada vez maior das ferramentas de IA generativa, episódios como esse tendem a se repetir — e a resposta das instituições precisa ser proporcional ao risco que representam 🧠
