ChatGPT usó citas de casos falsos e incluso se creó leyes para sustentar el escrito entregado al abogado. Este, sin contrastar sus fuentes, lo utilizó en un tribunal.
Se salvó de lo peor. Un abogado estadounidense evitó ser expulsado de su carrera, pero deberá pagar 5 mil dólares en multas luego de usar a la inteligencia artificial ChatGPT para crear un escrito y presentarlo ante un tribunal.
El abogado se llama Steven Schwartz y trabaja para el bufete de abogados Levidow, Levidow & Oberman en Nueva York. Él confió en el chatbot para un documento en un caso contra la aerolínea Avianca: 6 de los precedentes que citó son casos inexactos o que nunca existieron.
ChatGPT miente
El bufete de Schwartz defiende a un hombre que acusa a la aerolínea colombiana alegando que resultó herido en un vuelo de la compañía hasta New York.
Por posible falta de tiempo, el abogado utilizó la inteligencia artificial para realizar un escrito y “citó casos inexistentes”, según el juez Kevin Castel.
En su presentación ante los juzgados, Schwartz aceptó haber usado por primera vez ChatGPT para este documento y que, por lo tanto, “no era consciente de la posibilidad de que su contenido pudiese ser falso".
"Los avances tecnológicos son comunes y no hay nada intrínsecamente inapropiado en el uso de una herramienta confiable de inteligencia artificial para obtener asistencia. Pero las reglas existentes imponen un papel de vigilancia a los abogados para garantizar la precisión de sus presentaciones. Básicamente, puede usar ChatGPT para su trabajo, pero al menos verifique sus afirmaciones”, señaló el juez. Al no hacerlo, los abogados habían "abandonado sus responsabilidades", incluso cuando defendieron las declaraciones falsas después de que el tribunal cuestionara su legitimidad.
La multa a Schwartz también aplica para su colega Peter LoDuca y todo el bufete. “Cometimos un error de buena fe al no creer que una pieza de tecnología podría estar inventando casos de la nada”, se defendió la compañía.
Alucinaciones
Precisamente, el grupo de abogados fue víctima de uno de los errores más frecuentes de las inteligencias artificiales: alucinaciones.
Los chatbots suelen pasar por momentos en los que crean su propia información o distorsionan enormemente la que tienen en internet para dar sus propias respuestas como verdaderas.
Los chatbots están entrenados en una gran cantidad de datos extraídos de Internet, aunque las fuentes no están disponibles en muchos casos. Operando como una herramienta de texto predictivo, construyen un modelo para predecir la palabra o frase más probable que vendrá después de la indicación de un usuario. Esto significa que los errores de hecho son posibles, pero la respuesta aparentemente humana a veces puede convencer a los usuarios de que la respuesta es correcta.
¿Las empresas con conscientes de este problema? Sí. OpenAI ha advertido en múltiples oportunidades sobre estas alucionaciones, incluso compartiéndoselo a las empresas que trabajan directamente con ChatGPT. Pero el error no es exclusivo de ellos. Bard, la IA de Google, pasa por lo mismo, incluso con un grado de nivel aún más peligroso.
Te recomendamos
Comparte esta noticia