TSJN
ChatGPT se la lía a un abogado y acusa con la ley colombiana en Navarra
El TSJN abrió una pieza a un letrado que utilizó la Inteligencia Artificial en una querella y cayó sin saberlo en argumentos del código penal colombiano. Se disculpó y no ha sido sancionado


Actualizado el 12/11/2024 a las 07:35
El uso de la Inteligencia Artificial está cada vez más presente en todos los ámbitos de la vida. Pero un empleo sin supervisión puede traer problemas. Es lo que le ocurrió a un abogado navarro que utilizó Chat GPT para elaborar una querella y la herramienta le incluyó entre la jurisprudencia una cita del Tribunal Supremo que hacía referencia a un artículo del Código Penal... pero de Colombia. El error fue advertido por la Sala de lo Civil y Penal de Tribunal Superior de Justicia de Navarra, que decidió abrir una pieza separada al letrado por posible mala fe procesal. Al final, el asunto se ha archivado por lo “novedoso de la materia” y las disculpas inmediatas que presentó el abogado.
El lapsus aparecía en una querella por un posible delito de ocultamiento, alteración y/o destrucción de pruebas. El asunto fue archivado por la Sala, que decidió indagar si el abogado había incurrido en mala fe procesal (se castiga con entre 180 y 6.000 euros) por citar otro ordenamiento jurídico. En el turno de alegaciones, el letrado explicó que el fallo había sido facilitado por la inteligencia artificial, “debido a un manejo inadecuado por parte de su despacho de Chat GPT 3”. Expresó sus “más sinceras excusas” y pidió que se retirara ese párrafo por haber caído en el “completo, absoluto y grosero error” de citar el código penal colombiano.
Los magistrados exponen que el uso de las tecnologías emergentes y de la Inteligencia Artificial en los procedimientos judiciales “no está exento de importaciones consideraciones éticas y legales para garantizar un uso responsable, lo que impone una verificación adicional, puesto que la revisión y validación de los documentos legales seguirá siendo responsabilidad de los abogados”.
El TSJN cita en su auto las recomendaciones realizadas por Lay Society y el Colegio de la Abogacía Europea, así como una sentencia de Estados Unidos por el caso Avianca que impuso una multa de 5.000 euros a un letrado por el uso indebido de Chat GPT. Y todas conducen a lo mismo: los abogados deben revisar de forma cuidadosa y efectiva el contenido basado en el uso de la tecnología. Al respecto, los magistrados destacan que un estudio de enero de 2024 concluyó que las “alucinaciones jurídicas” (errores) eran “alarmantemente prevalentes” en Chat GPT.
El TSJN ha decidido no imponer ninguna sanción al abogado. Lo basa en “la singularidad del caso, el hecho de que se trate de una materia ciertamente novedosa, así como la inmediata reacción del letrado querellante excusando el error cometido”. Eso sí, los magistrados entienden que el caso puede servir de “advertencia de las implicaciones legales, deontológicas y éticas que puede plantear el uso descuidado de las nuevas tecnologías”.