Insólito: un abogado usó inteligencia artificial para escribir una demanda e inventó antecedentes legales
Un abogado de Estados Unidos utilizó el chat GPT para realizar un informe legal y la inteligencia artificial inventó contenido, lo que le provocó un severo problema para el letrado.
El Chat GPT volvió a estar en el ojo de la tormenta ya que lo utilizaron para una situación polémica en el ámbito judicial, esta vez en Estados Unidos.
Según un informe publicado por The New York Times, un abogado fue sancionado en Nueva York por utilizar este sistema para redactar un informe legal que incluía información inventada generada por el programa de inteligencia artificial.
El letrado en cuestión es Steven Schwartz, quien decidió utilizar el software de inteligencia artificial de OpenAI para redactar un informe en una demanda contra la aerolínea colombiana Avianca.
Cómo funciona “Tako”, el nuevo chatbot de Inteligencia Artificial de TikTok
El cliente alegaba haber sufrido lesiones en un vuelo con destino al Aeropuerto Internacional John F. Kennedy en Nueva York.
Según The New York Times, Avianca había solicitado al juez federal que desestimara el caso y los abogados del demandante presentaron un escrito de 10 páginas en respuesta, argumentando una serie de antecedentes.
El problema surgió cuando se descubrió que el chat había inventado más de seis casos citados en el informe.
Las mujeres creadas con inteligencia artificial llegaron a OnlyFans
Ante la revelación de su uso, Schwartz emitió una declaración explicando que había utilizado la IA de OpenAI para complementar su investigación. Uno de los principales inconvenientes de este tipo de tecnologías generadoras de contenido es la fiabilidad de la información, tanto en cuanto a la de partida como a los resultados generados.
Las consecuencias que le trajo este problema al abogado
Steven Schwartz se encontró sin salida cuando descubrió que el contenido proporcionado por Chat GPT podía ser falso.
Ante esto, el abogado compartió capturas de pantalla en las que se muestra cómo preguntó al software si los casos citados eran reales, obteniendo respuestas afirmativas del bot.
Google piensa que perderá la carrera por la inteligencia artificial
A raíz de esto, Schwartz se disculpó públicamente por utilizar el chatbot en la elaboración del documento y admitió que no verificará cada dato incluido en el futuro.
Sin embargo, el juez a cargo del caso ordenó una audiencia para el 8 de junio para evaluar posibles sanciones al abogado, describiendo esta situación como “sin precedentes”.