Pasar al contenido principal
09/05/2024

Utilizan casos judiciales creados por ChatGPT contra Avianca

Redacción A21 / Miércoles, 31 Mayo 2023 - 01:00
El abogado aseguró que no sabía que esta tecnología podía inventar casos

Los abogados que llevan un caso contra Avianca, aerolínea colombiana, se encontraron con problemas después de citar casos judiciales inventados por ChatGPT.

Según los legisladores, el chatbot de IA inventó varios casos falsos que luego se presentaron en una asamblea judicial.

El pasajero Robert Mata inició una demanda contra Avianca el año pasado luego de afirmar que resultó herido por un carrito de servicio en un vuelo de El Salvador a Nueva York, el 27 de agosto de 2019. En esa ocasión, su representante fue Steven A. Schwartz, de la firma legal Levidow, Levidow & Oberman.

Después de que Avianca solicitó a un juez que desestimara la demanda con base en el estatuto de limitaciones, Schwartz presentó un escrito que contenía media docena de casos legales falsos.

El error se descubrió después de que los abogados de Avianca contactaron al juez Kevin Castel, alegando que ninguna de las citas falsas aparecía en las bases de datos legales.

Schwartz había confiado en ChatGPT de OpenAI para prepararse para el caso, y el LLM (modelo de lenguaje grande) es conocido por su tendencia a fabricar hechos o fuentes, denominados “alucinaciones”.

Desde entonces, Schwartz admitió, en una declaración jurada, que “lamenta mucho” haber usado ChatGPT como parte de su investigación, alegando que solo era “para complementar” su trabajo.

“Lamento mucho haber utilizado inteligencia artificial generativa para complementar la investigación legal, realizada en este documento y nunca lo haré en el futuro sin una verificación absoluta de su autenticidad”, declaró el abogado.

Este viernes, el juez emitió una orden convocando a una audiencia el próximo 8 de junio en la que Schwartz deberá explicar por qué no debería ser sancionado después de haber tratado de usar supuestos precedentes falsos.

Lo hizo un día después de que el abogado presentara una declaración jurada en la que admitió haber usado ChatGPT para preparar el escrito y reconoció que la única verificación que había llevado a cabo era preguntar a la aplicación si los casos que citaba eran reales.

Schwartz se justificó asegurando que nunca antes había usado una herramienta de este tipo y que, por tanto, “no era consciente de la posibilidad de que su contenido pudiese ser falso”, de acuerdo con información de The New York Times, MVSnoticias y Simpleflying.

Facebook comments