Un abogado usó ChatGPT en un juicio. Ahora es él quien debe dar explicaciones a un juez por incluir citas falsas

e
23 comentarios Facebook Twitter Flipboard E-mail

Que ChatGTP es una herramienta alucinante, capaz de superar exámenes universitarios e incluso mejorar la productividad en nuestras oficinas, no es ninguna sorpresa a estas alturas. Que está lejos de ser infalible, tampoco. Steven A. Schwartz, abogado con despacho en Nueva York, acaba de comprobarlo de la peor de las formas imaginables: con un sonoro patinazo profesional que lo ha dejado en evidencia ante el juez del caso en el que trabaja y su propio cliente. No solo eso. Como revela The New York Times, incluso se enfrenta a una sanción.

Todo por fiarse en exceso de la herramienta de OpenAI.

Para entender lo que le ha ocurrido a Schwartz hay que remontarse al 27 de agosto de 2019 y un lugar que poco tiene que ver con juzgados o despachos: un avión de la aerolínea Avianca. Ese día Roberto Mata viajaba a bordo de una de las aeronaves de la firma colombiana que conectan El Salvador y Nueva York cuando, en pleno vuelo, uno de sus azafatos lo golpeó en la rodilla con un carrito metálico. Molesto con lo ocurrido, Mata decidió presentar una demanda contra Avianca.

"Se ha revelado una fuente poco fiable"

La compañía pidió al juez federal de Manhattan que desestimara el caso, pero los abogados de Mata se opusieron. Y de forma rotunda, además. Para argumentar por qué el pleito debía seguir adelante el letrado que trabajaba en el caso Mata, Steven A. Schwartz, del despacho Levidow, Levidow & Oberman, elaboró un concienzudo informe de 10 páginas en el que citaba media ocena de precedentes judiciales.

El problema es que aquella retahíla detallada de decisiones judiciales, citas y nombres tenía más de ciencia ficción que de informe legal contrastado. Cuando los abogados de Avianca se pusieron a buscar las referencias que enumeraba el escrito de Schwartz fueron incapaces de localizarlas. Ni siquiera el magistrado pudo.

Normal.

El contenido era impreciso o incluso inventado.

Más que su falta de veracidad lo llamativo del informe es quién había sido el autor. El responsable de semejante despliegue de ficción judicial no fue Schwartz —no al menos de forma directa— sino la herramienta de la que echó mano para su informe: ChatGPT. Como ha acabado reconociendo el abogado, recurrió al motor de OpenAI para agilizar su investigación legal, una decisión que, visto lo ocurrido, no ha resultado demasiado atinada. "Se ha revelado como poco fiable", admite.

Lo ocurrido es tan llamativo (y grave) que ha desplazado el foco de atención del caso de Mata vs Avianca para centrarlo directamente en el manejo que Schwartz ha hecho de la inteligencia artificial. Y sus desastrosas consecuencias, claro está.

El magistrado del caso, P. Kevin Castel, reconoce encontrarse ante "una circunstancia sin precedentes", con un informe legal salpicado de referencias erróneas: "Seis de los casos presentados parecen ser decisiones judiciales falsas, con citas falsas y referencias falsas". The New York Times detalla que ya ha fijado una audiencia para el 8 de junio en la que se discutirán las posibles sanciones.

Schwartz, un veterano con tres décadas de experiencia ejerciendo la abogacía en Nueva York, ya ha presentado una declaración jurada en la que asegura que su intención no fue engañar al tribunal ni a la aerolínea. Sencillamente, explicó, era la primera que usaba ChatGPT y pecó de exceso de confianza: "No estaba al tanto de la posibilidad de que su contenido pudiera ser falso". Es más, ya ha garantizado que nunca más confiará en la IA de OpenAI “sin una verificación total".

Por si el caso no fuera lo suficientemente rocambolesco de por sí, hay otro dato llamativo. No es solo que ChatGPT aportara nombres y citas incorrectas, es que —asegura Schwartz— incluso ofreció garantías de que su información era verídica. El abogado consultó con el chatbot la veracidad de las referencias.  Y su respuestas parecen incidir en los errores. “¿Son falsos los otros casos que proporcionó?", le pregunta Schwartz, a lo que la IA de OpenAI responde: “No, los otros casos que proporcioné son reales y se pueden encontrar en bases de datos acreditadas".

Buena respuesta. Mala información. Peor resultado.

Imagen de portada:

En Xataka: JPMorgan está creando su propio ChatGPT: uno que te dará recomendaciones de inversión

Comentarios cerrados
Inicio