Abogado estadounidense podría enfrentar sanciones por utilizar ChatGPT para redactar un documento lleno de precedentes legales ficticios en caso contra Avianca
Según informa The New York Times, Steven Schwartz, abogado del demandante en un caso que se desarrolla en un tribunal de Nueva York, se encuentra en aprietos después de descubrirse que utilizó ChatGPT, una aplicación de inteligencia artificial, para redactar un documento en el cual se oponía a la solicitud de la defensa de desestimar el caso contra la aerolínea Avianca. Sin embargo, se descubrió que la IA había creado una serie de supuestos precedentes legales inexistentes.
Este hecho ha generado posibles sanciones para Schwartz, quien enfrenta críticas por utilizar una herramienta automatizada en un contexto legal y confiar en la veracidad de la información generada por la IA. El caso en cuestión trata sobre la demanda de un pasajero que alega haber sufrido una lesión al ser golpeado por un carrito de servicio durante un vuelo.
Después de que saliera a la luz que el abogado Steven Schwartz utilizó ChatGPT, el chatbot de la compañía OpenAI, para redactar un documento de diez páginas en el que citaba supuestos precedentes legales, se descubrió que todas esas referencias eran completamente falsas. El juez Kevin Castel, al percatarse de la situación, describió la presentación como "repleta de citas de casos inexistentes".
Como resultado, el juez Castel ha emitido una orden convocando a una audiencia el próximo 8 de junio, en la cual el abogado Schwartz deberá comparecer y explicar por qué no debería ser sancionado por intentar utilizar precedentes legales totalmente falsos. Esta situación inédita ha generado un gran revuelo en el caso, y Schwartz se enfrenta a las posibles consecuencias de sus acciones en el tribunal de Nueva York.
Después de presentar una declaración jurada en la que admitió haber utilizado ChatGPT para preparar el documento, el abogado Schwartz cometió el error de no verificar adecuadamente la autenticidad de los casos citados. Schwartz argumentó que nunca antes había utilizado una herramienta de este tipo y, por lo tanto, no era consciente de la posibilidad de que el contenido pudiera ser falso. Hizo hincapié en que no tenía intención de engañar al tribunal y eximió por completo a otro abogado del bufete que también podría enfrentar sanciones.
El documento, examinado por EFE, concluye con una disculpa en la que Schwartz expresa profundo pesar por haber utilizado inteligencia artificial para respaldar su investigación y promete no hacerlo nunca más sin verificar completamente su autenticidad.
Referencia: https://www.elpais.com.co/judicial/abogado-que-demando-a-avianca-uso-chatgpt-y-nada-le-salio-bien-2803.html