1. la expansión real de la IA en el ámbito jurídico
La incorporación de inteligencia artificial en la práctica jurídica ya no es algo futuro, sino una realidad consolidada.
Un ejemplo ilustrativo es la reciente iniciativa de la Oficina Europea de Patentes (EPO), que ha decidido ampliar el uso de herramientas de IA para la elaboración de actas en procedimientos orales. Según información oficial, tras un programa piloto en aproximadamente 150 casos en 2025, el sistema permite:
- Generar transcripciones automáticas a partir de grabaciones
- Asistir en la redacción de borradores de actas
No obstante, el modelo adoptado por la EPO mantiene la intervención humana en la revisión y validación final del documento.
Estas herramientas prometen eficiencia, reducción de costes y acceso más rápido a la información.
Sin embargo, junto con estas ventajas, emerge un riesgo cada vez más relevante: las “alucinaciones” de la inteligencia artificial.
2. El problema de las “alucinaciones”
Las “alucinaciones” se producen cuando un sistema de IA genera información que parece plausible pero que es incorrecta, inexacta o completamente inventada.
En el ámbito jurídico, esto puede implicar:
- Citas de jurisprudencia inexistente
- Referencias a artículos legales incorrectos
- Interpretaciones erróneas del derecho aplicable
- Traducciones jurídicas inexactas
A diferencia de un error humano, estas respuestas pueden presentarse con una apariencia altamente convincente, lo que aumenta el riesgo de confiar en ellas sin verificación.
Las “alucinaciones” de la IA han comenzado a producir consecuencias jurídicas reales.
(1) Estados Unidos: precedentes inexistentes y sanciones judiciales
Uno de los casos más emblemáticos es el asunto Mata vs. Avianca (2023), donde los abogados presentaron escritos con jurisprudencia inexistente generada por IA. El tribunal no solo rechazó los argumentos, sino que impuso sanciones económicas a los letrados.
La utilización de la IA no exime al abogado de su deber de verificación.
(2) Australia: Deloitte y la “alucinación” en informes jurídicos
En 2025, Deloitte elaboró un informe para el gobierno australiano que contenía:
-
- citas académicas inexistentes
- citas judiciales inventadas
La firma tuvo que reembolsar parte de los honorarios tras confirmarse errores generados por la IA.
(3) Australia: sanción disciplinaria a abogado
En otro caso relevante, un abogado fue sancionado tras presentar jurisprudencia generada por IA sin verificar su existencia, siendo incapaz de identificar los casos ante el tribunal.
(4) Caso vinculado a Japón: Nippon Life vs. OpenAI (2026)
En un caso reciente especialmente relevante para los operadores japoneses, una filial estadounidense de Nippon Life Insurance Company demandó a OpenAI en EE.UU.
La demanda sostiene que ChatGPT habría proporcionado asesoramiento jurídico a una demandante e incentivado la reapertura de un litigio ya cerrado. Además, se habían generado múltiples escritos procesales sin fundamento.
Esto habría provocado costes procesales significativos para la aseguradora.
Por ello, la filial estadounidense de Nippon Life Insurance Company reclama una indemnización por los daños y perjuicios ocasionados por esta gestión, que ascienden a unos 300.000 dólares, además de solicitar el pago de 10 millones de dólares en concepto de indemnización punitiva.
Este último caso plantea una cuestión clave: ¿puede un sistema de IA incurrir en ejercicio no autorizado de la abogacía?
3. Japón: el artículo 72 de la Ley de Abogados y la IA legal
En Japón, el debate sobre el uso de la inteligencia artificial en el ámbito jurídico ha cobrado especial relevancia recientemente. El 9 de enero de 2026, el Ministerio de Justicia publicó un documento titulado “Artículo 72 de la Ley de Abogados y los servicios de legaltech basados en IA”, en el que se analiza la relación entre las herramientas de IA y la prohibición del ejercicio no autorizado de la abogacía.
El artículo 72 de la Ley de Abogados japonesa prohíbe que personas o entidades no cualificadas presten servicios jurídicos a cambio de remuneración. En este contexto, el documento no adopta una postura prohibitiva frente a la IA, sino que reconoce su potencial para mejorar la eficiencia en tareas como la revisión contractual o la gestión de información jurídica.
No obstante, también acentúa la necesidad de clarificar los criterios que permiten distinguir entre la mera provisión de información y el asesoramiento jurídico propiamente dicho. En particular, se destacan elementos como la existencia de una relación remunerada, la presencia de un conflicto o cuestión jurídica concreta, el grado de individualización del análisis y la intervención de un abogado en la supervisión del servicio.
Asimismo, el documento señala que la falta de claridad normativa puede generar un efecto disuasorio en el desarrollo de servicios innovadores, lo que evidencia la necesidad de reforzar la previsibilidad jurídica en este ámbito.
4. Conclusión: el abogado como garante en la era de la IA
La IA no solo introduce eficiencia, sino también un nuevo tipo de riesgo jurídico estructural.
El ejemplo de la EPO demuestra que la clave no está en evitar la IA, sino en integrarla correctamente con supervisión humana.
El papel del abogado no desaparece, sino que se refuerza como garante de que lo jurídicamente correcto no sea sustituido por lo aparentemente plausible.
Satoshi Minami
Vilá Abogados
Para más información, contacte con:
2 de abril de 2026