Para compartir:

Corte Suprema de India reacciona ante decisiones falsas generadas por IA: qué fue lo que realmente pasó

La Corte Suprema de India entró en colisión directa con el uso irresponsable de la Inteligencia Artificial en el poder judicial después de descubrir que una jueza de primera instancia citó decisiones que simplemente no existían. Esas decisiones fueron completamente fabricadas por una herramienta de IA.

El caso, que comenzó como una disputa de propiedad en la ciudad de Vijayawada, en el estado de Andhra Pradesh, terminó convirtiéndose en un problema institucional serio. La máxima corte del país clasificó el episodio como una cuestión de interés público y dejó claro que documentos inventados por IA no pueden tener cabida en un proceso judicial serio, bajo el riesgo de socavar la confianza en todo el sistema.

Cómo la IA entró en escena en un caso de disputa de propiedad

El punto de partida fue un proceso de disputa inmobiliaria en un tribunal civil de primera instancia en Vijayawada. La jueza responsable, una magistrada junior, necesitaba decidir sobre una impugnación presentada por los demandados respecto a un informe pericial del área en litigio, elaborado por un perito designado por la propia Justicia.

Para justificar el rechazo de la objeción de los demandados, la jueza citó cuatro decisiones anteriores, supuestamente de tribunales superiores, que respaldarían su línea de razonamiento. Solo que había un problema grave: esos precedentes no existían en ningún repositorio oficial. Eran, en la práctica, sentencias falsas generadas por IA.

Las citas tenían toda la apariencia de una decisión real: lenguaje técnico, mención a tribunales, referencias a principios jurídicos y formato típico de jurisprudencia. Pero, al ser confrontadas con las bases oficiales, simplemente desaparecían. Ningún número de expediente válido, ninguna decisión registrada. Era el clásico caso de alucinación de IA, cuando el sistema inventa contenido convincente pero totalmente desconectado de la realidad.

El papel de la jueza y el error de confiar ciegamente en la máquina

Cuando el caso fue cuestionado, la jueza explicó, en un informe al tribunal superior del estado, que había recurrido a una herramienta de Inteligencia Artificial por primera vez. Afirmó que creyó que las citas eran auténticas y que no tuvo intención de engañar a nadie. Según su relato, el error ocurrió justamente por confiar demasiado en la herramienta y no verificar las decisiones en repositorios oficiales.

El Tribunal Superior de Andhra Pradesh reconoció que las decisiones citadas eran inexistentes, pero entendió que el engaño había ocurrido de buena fe. En la visión del tribunal estatal, la fundamentación jurídica de la sentencia era correcta, aun con las citas inválidas. Por eso, decidió mantener la decisión inicial, sosteniendo que el simple uso de referencias erróneas no sería, por sí solo, motivo para anular la orden, siempre que la aplicación de la ley al caso concreto fuera adecuada.

En la práctica, el tribunal estatal adoptó un tono más tolerante: admitió el riesgo de la IA, criticó el uso irreflexivo de la tecnología, pero le ahorró a la jueza una reprimenda más severa. Y además aprovechó para dejar una frase simbólica: sería necesario ejercer la inteligencia humana por encima de la inteligencia artificial.

Reciba el mejor contenido sobre innovación en su correo electrónico.

Todas las noticias, consejos, tendencias y recursos que buscas, directamente en tu bandeja de entrada.

Al suscribirte al boletín informativo, aceptas recibir comunicaciones de Método Viral. Nos comprometemos a proteger y respetar siempre tu privacidad.

Cuando el caso llega a la Corte Suprema: la buena fe no alcanza

Los demandados no quedaron conformes y llevaron la discusión a la Corte Suprema de India. A partir de ahí, el tono cambió de manera bastante clara. En lugar de ver el problema solo como un detalle técnico, la máxima corte trató el asunto como una amenaza a la integridad del sistema de justicia.

Los magistrados clasificaron el episodio como una cuestión de grave preocupación institucional. Para la Corte Suprema, el problema central no era solo si la decisión final era correcta en el fondo, sino el proceso de adjudicación que llevó a ella. En otras palabras, de poco sirve tener un resultado aparentemente justo si el camino usado para llegar a ese resultado está sustentado en documentos falsos.

La corte dejó claro que el uso de sentencias falsas generadas por IA no podía ser tratado simplemente como un error de interpretación o un descuido técnico. Para los magistrados, esto se acerca a una conducta inadecuada, sobre todo cuando se trata de quien ocupa una función tan sensible como la de juzgar conflictos entre personas.

Decisión de la Corte Suprema: suspensión de la orden e investigación más profunda

Como respuesta inmediata, la Corte Suprema decidió suspender la orden del tribunal de primera instancia relacionada con la disputa de propiedad. En la práctica, esto significa que la decisión basada en citas inexistentes deja de producir efectos hasta que el caso sea revisado con más cuidado.

Además, la corte emitió notificaciones a autoridades clave del sistema de justicia indio, incluyendo al Procurador General y al Solicitor General del país, así como al Colegio de Abogados. La idea es involucrar a todo el ecosistema jurídico en la discusión sobre los límites y responsabilidades del uso de IA en procesos judiciales.

El mensaje es directo: el poder judicial indio no pretende normalizar decisiones basadas en contenido fabricado por algoritmos. La corte señaló que examinará de forma detallada el caso y, si es necesario, establecerá protocolos más estrictos para el uso de tecnologías de IA por jueces, abogados y funcionarios.

IA, alucinaciones y el riesgo para las decisiones judiciales

Las herramientas de Inteligencia Artificial generativa, como los modelos de lenguaje, ya forman parte del día a día de muchos profesionales. Agilizan búsquedas, ayudan a organizar información, resumen documentos y sugieren argumentos. Pero esas mismas herramientas también tienen una característica bien conocida por quienes siguen el tema: la tendencia a alucinar, es decir, presentar como hecho algo que nunca ocurrió.

En el derecho, esa alucinación puede adoptar una forma especialmente peligrosa: precedentes inventados. La herramienta genera un texto con apariencia jurídica perfecta, menciona tribunales, fechas y principios legales, pero todo fue predicho estadísticamente, no recuperado de una base oficial. Cuando el usuario no verifica lo que recibió y trata ese texto como si fuera jurisprudencia real, el error deja de ser técnico y se convierte en riesgo sistémico.

Fue exactamente eso lo que el caso de Andhra Pradesh dejó al descubierto. No se trata solo de un error cualquiera, sino de un ataque indirecto a la lógica que sostiene al poder judicial: la confianza de que las decisiones están fundamentadas en fuentes verificables, rastreables y auditables.

Responsabilidad humana por encima de la automatización

La discusión planteada por la Corte Suprema de India se conecta con un punto central en el debate global sobre IA: ¿quién es responsable del error? La tecnología puede ser sofisticada, pero la responsabilidad sigue siendo humana. En el contexto judicial, esto significa que jueces, abogados, funcionarios e incluso estudiantes de derecho que usan IA para investigación no pueden asumir que lo que arroja el sistema es verdad automática.

Algunos cuidados que históricamente siempre formaron parte de la rutina jurídica cobran aún más peso en este escenario:

  • Verificar si las decisiones citadas constan en bases oficiales de jurisprudencia;
  • Comprobar número de expediente, fecha del fallo y tribunal que dictó la decisión;
  • Leer el texto íntegro del precedente, y no solo el fragmento recortado por la herramienta;
  • Confirmar si el tribunal mencionado realmente tiene competencia sobre el tema tratado;
  • Registrar de forma transparente, cuando sea necesario, si hubo apoyo de IA en la elaboración de escritos o borradores.

Sin esa verificación, la IA deja de ser una herramienta de apoyo y pasa a actuar, en la práctica, como si fuera una fuente primaria confiable, cosa que no es. Y ese atajo puede abrir espacio para distorsiones graves, sobre todo en casos que involucran libertad, patrimonio o impacto colectivo.

La preocupación por abogados que usan IA y citas falsas

El episodio de la jueza no es un caso aislado en la visión de la Corte Suprema india. En otro fallo reciente, la corte criticó abiertamente la tendencia de abogados que utilizan IA para redactar escritos repletos de citas que no existen.

Según la cobertura de medios jurídicos locales, los magistrados calificaron esta tendencia como totalmente inadecuada. La corte expresó su preocupación por el aumento de escritos que llegan a los tribunales con referencias procesales supuestamente sólidas, pero que, al ser verificadas, resultan fabricadas por sistemas de IA.

Es decir, el problema no se limita a los magistrados. La cultura de copiar y pegar contenido generado por IA, sin verificación, también está consumiendo tiempo de los tribunales, que necesitan invertir energía en comprobar si cada cita es auténtica. Esto afecta la productividad, aumenta costos y genera fricción entre la corte y los profesionales que actúan ante ella.

No es solo en India: tribunales de todo el mundo están en alerta

La discusión sobre IA y decisiones falsas no es exclusiva de India. Otros países también han tenido que lidiar con problemas similares.

En octubre, en Estados Unidos, dos jueces federales fueron blanco de críticas después de admitir el uso de herramientas de IA en procesos que resultaron en decisiones con información errónea. Hubo cuestionamientos públicos y cobertura intensa de la prensa especializada, destacando cómo la dependencia excesiva de la automatización puede erosionar la calidad de la prestación jurisdiccional.

Herramientas que usamos a diario

En el Reino Unido, la Alta Corte de Justicia de Inglaterra y Gales emitió una alerta formal a los abogados, recomendando que no utilizaran, sin verificación, material producido por IA como base para citas de casos. El detonante fueron episodios en los que escritos contenían decisiones inexistentes o parcialmente inventadas, algo muy similar a lo que ocurrió en Andhra Pradesh.

En resumen, los tribunales están percibiendo que, sin reglas claras, la IA puede introducir un nuevo tipo de riesgo: la apariencia de autoridad sin el respaldo de la realidad. Y, en el derecho, forma sin contenido verdadero es receta segura para el conflicto.

Cómo la Corte Suprema de India intenta organizar el uso de IA

Frente a estos riesgos, la Corte Suprema india no se quedó solo en la crítica. En 2023, la corte publicó un white paper sobre IA en el poder judicial, con directrices, buenas prácticas y recomendaciones para el uso responsable de tecnología en los tribunales.

Ese documento aborda, entre otros puntos:

  • Posibles aplicaciones de IA en actividades de apoyo, como clasificación de expedientes e investigación de jurisprudencia;
  • La importancia de la supervisión humana constante en cualquier etapa en la que se utilice IA;
  • La necesidad de mantener salvaguardas institucionales firmes, evitando que las decisiones sean tercerizadas a algoritmos;
  • Orientaciones dirigidas a jueces, abogados, funcionarios y demás operadores del derecho.

El mensaje central del white paper es simple, pero poderoso: la IA puede ayudar, pero no puede decidir. La última palabra debe ser siempre de personas capaces de interpretar el contexto, evaluar consecuencias y asumir responsabilidad por lo que se está juzgando.

El caso de Vijayawada se convirtió en símbolo de un dilema que va mucho más allá de India: cómo usar la Inteligencia Artificial en los tribunales sin renunciar a algo esencial, que es la confianza en el proceso judicial y en la capacidad humana de distinguir entre lo que es un precedente real y lo que es simplemente texto bien escrito por una máquina.

Mientras la tecnología avanza, episodios como este funcionan como recordatorio de que ningún algoritmo sustituye el deber de verificar, comprobar y fundamentar con base en fuentes legítimas. Al final del día, es eso lo que mantiene en pie la credibilidad de cualquier sistema de justicia, por más moderno y digital que sea.

Imagen de Rafael

Rafael

Operaciones

Transformo los procesos internos en máquinas de entrega, garantizando que cada cliente de Viral Method reciba un servicio de primera calidad y resultados reales.

Rellena el formulario y nuestro equipo se pondrá en contacto contigo en un plazo de 24 horas.

Publicaciones relacionadas

Performance e Crescimento: Nvidia, Agentes de IA e Centros de Datos

Nvidia acelera ingresos con centros de datos, GB300 NVL72 y Rubin; eficiencia y demanda por AI Agents impulsan crecimiento y

IA y Derechos de Autor: La Corte Suprema Niega el Copyright para Creaciones Artísticas

La Corte Suprema rechazó el caso sobre obras generadas por IA; en EE.UU. solo los humanos tienen autoría reconocida —

IA revela la identidad de anónimos en las redes sociales

Anonimato vulnerable: cómo la IA moderna desenmascara perfiles en redes sociales y por qué esto amenaza tu privacidad online.

Reciba el mejor contenido sobre innovación en su correo electrónico.

Todas las noticias, consejos, tendencias y recursos que buscas, directamente en tu bandeja de entrada.

Al suscribirte al boletín informativo, aceptas recibir comunicaciones de Método Viral. Nos comprometemos a proteger y respetar siempre tu privacidad.

Rafael

Online

Atendimento

Calculadora Preço de Sites

Descubra quanto custa o site ideal para seu negócio

Páginas do Site

Quantas páginas você precisa?

4

Arraste para selecionar de 1 a 20 páginas

📄

⚡ Em apenas 2 minutos, descubra automaticamente quanto custa um site em 2026 sob medida para o seu negócio

👥 Mais de 0+ empresas já calcularam seu orçamento

Fale com um consultor

Preencha o formulário e nossa equipe entrará em contato.