Abogado usó ChatGPT para juicio. Todo sale mal

Recientes

Los Obama respaldan a Kamala Harris

El viernes, el expresidente Barack Obama respaldó públicamente la campaña de la vicepresidenta Kamala Harris para la nominación presidencial demócrata, otorg...

México desmiente participación en detención de «El Mayo» Zambada

La secretaria de Seguridad y Protección Ciudadana de México, Rosa Icela Rodríguez, confirmó en la conferencia matutina del presidente Andrés Manuel López Obr...

Manifestantes destrozan instalaciones del CCH: UNAM condena el acto

La UNAM ha emitido un comunicado tras el siniestro ocurrido en la Dirección General del CCH. Afortunadamente, el incidente fue controlado sin que se registra...

Kamala Harris: La favorita de Silicon Valley para 2024

Con la vicepresidenta Kamala Harris emergiendo como la principal candidata del Partido Demócrata para las elecciones presidenciales de 2024, la industria tec...

Charlotte Dujardin expulsada de los Juegos Olímpicos

La tres veces medallista de oro olímpica, Charlotte Dujardin, se encuentra en el centro de una polémica tras ser exhibida en un video dándole latigazos a un...

Compartir

Ya es conocido que las Inteligencias Artificiales (IA) están avanzando a pasos agigantados, tanto que ha causado pavor por la creencia de que puede reemplazar varias profesiones actuales, con lo que muchas personas se quedarían sin trabajo… Parece ser que esto está lejos de ocurrir, pues un abogado decidió usar el famoso ChatGPT para la defensa en un juicio y todo le salió mal. Incluso recibirá una sanción.

Se trata de Steven Schwartz, un abogado con 30 años de «experiencia» en su firma ‘Levidow, Levidow & Oberman’, a quien se le hizo buena idea hacer uso de esta IA para defender a Roberto Mata, quien demandó a una aerolínea por lesiones.

También te puede interesar:  VIDEO | Censuran y reprimen música clásica en CDMX

Resulta que Schwartz presentó ante el juez 10 páginas con juicios de personas contra aerolíneas, con las que pretendía que el caso no fuera desestimado, sin embargo, dichos casos no existían. Sí, así como lo estás pensando, fueron creados por ChatGTP.

The New York Times mencionó que el equipo legal de la aerolínea demandada, así como el juez del caso, se dieron cuenta de que ninguna de las personas citadas en el informe presentado por el abogado, podían ser localizadas, incluso no había registros de las demandas. Fue así como Steven explicó que usó la Inteligencia… Artificial para obtener consistencia en el caso.

También te puede interesar:  Corea del Norte lanza otro misil

Aquí no termina la cosa, el abogado mencionó que no tenía idea de que el contenido podía ser falso, incluso LE PREGUNTÓ si eran reales, cosa que ChatGPT confirmó, por lo que decidió presentarlos para continuar con la defensa. O sea que fue engañado por la IA.

Para esto, el juez del caso ordenó una audiencia en junio para discutir las posibles sanciones que tendrá que afrentar Steven Schwartz por haberle creído a una inteligencia ajena a la suya.

Comentarios