Un avocat blâme ChatGPT pour de fausses citations lors d’un dépôt au tribunal

Un avocat blâme ChatGPT pour de fausses citations lors d’un dépôt au tribunal

Un avocat qui s’est appuyé sur ChatGPT pour préparer un dossier judiciaire pour son client découvre à ses dépens que l’outil d’intelligence artificielle a tendance à fabriquer des informations.

Steven Schwartz, l’avocat d’un homme qui poursuit la compagnie aérienne colombienne Avianca pour un chariot de boissons en métal qui aurait blessé son genou, fait face à une audience sur les sanctions le 8 juin après avoir admis la semaine dernière que plusieurs des cas qu’il a fournis au tribunal comme preuve de précédent ont été inventés par ChatGPT, un grand modèle de langage créé par OpenAI.

Les avocats d’Avianca ont d’abord fait part de leurs préoccupations au juge chargé de l’affaire.

“Six des cas soumis semblent être de fausses décisions judiciaires avec de fausses citations et de fausses citations internes”, a déclaré le juge de district américain P. Kevin Castel. a dit plus tôt ce mois-ci après avoir examiné la plainte d’Avianca, qualifiant la situation de “circonstance sans précédent”.

Les affaires inventées comprenaient des décisions intitulées “Varghese c. China Southern Airlines Ltd.”, “Miller c. United Airlines Inc.” et « Petersen c. Iran Air ».

Schwartz – un avocat de Levidow, Levidow & Oberman qui est licencié à New York depuis plus de 30 ans – a ensuite avoué dans un affidavit qu’il avait utilisé ChatGPT pour produire les dossiers à l’appui de son client et qu’il “ignorait la possibilité que son contenu pourrait être faux.

Peter LoDuca, un autre avocat du cabinet Schwartz, argumenté dans un affidavit séparé que “les sanctions ne sont pas appropriées dans ce cas car il n’y avait pas de mauvaise foi ni d’intention de tromper la Cour ou le défendeur”.

Les sanctions peuvent impliquer que Schwartz paie les honoraires d’avocat que l’autre partie a encourus lors de la découverte des fausses informations.

Ce n’est pas la première fois ChatGPT a des informations “hallucinées”, comme les chercheurs en intelligence artificielle se réfèrent au phénomène. Le mois dernier, Le Washington Post a rapporté sur ChatGPT mettant un professeur sur une liste de juristes qui avaient harcelé sexuellement quelqu’un, citant un article du Post qui n’existait pas.

“C’était assez effrayant”, a déclaré le professeur de droit, Jonathan Turley, dans une interview au Post. “Une allégation de ce genre est incroyablement préjudiciable.”

Leave a Reply

Your email address will not be published. Required fields are marked *

This site uses Akismet to reduce spam. Learn how your comment data is processed.

Recent News

Editor's Pick