Un avocat de New York réprimandé pour avoir utilisé ChatGPT pour rédiger un mémoire plein de “charabia”

Un avocat de New York réprimandé pour avoir utilisé ChatGPT pour rédiger un mémoire plein de “charabia”

Un juge de Manhattan a réprimandé jeudi une paire d’avocats spécialisés en dommages corporels pour avoir utilisé ChatGPT pour préparer un dossier juridique rempli de fausses affaires – l’avocat qui s’est appuyé sur la technologie jurant que c’était une erreur humiliante et qu’il avait été “dupé ” par l’IA

Steven Schwartz, avocat du cabinet d’avocats Levidow, Levidow & Oberman, a utilisé le moteur de recherche automatique pour préparer des arguments contre la compagnie aérienne colombienne Avianca dans un dossier du 1er mars.

En faisant valoir que le tribunal ne devrait pas rejeter l’affaire de son client Roberto Mata procès contre la société, qui demande une indemnisation pour une blessure qu’il a subie lors d’un vol en 2019, les avocats de Mata ont déclaré que son cas était étayé par un précédent dans Varghese contre China South Airlines Ltd, Petersen contre Iran Air. et plusieurs autres cas.

Le seul problème était que les cas n’existaient pas.

Lors d’une audience devant le tribunal fédéral de Manhattan pour déterminer si les avocats à l’origine du dossier devraient faire face à des sanctions, un Schwartz ému a déclaré que l’intelligence artificielle lui avait tiré de la poudre aux yeux et qu’il pensait qu’il utilisait un “super moteur de recherche”.

“Mon hypothèse était que j’utilisais un moteur de recherche qui cherchait [cases] auxquels je n’avais pas accès », a-t-il déclaré au tribunal, se disant « extrêmement regrettable » de ne pas avoir pris d’autres mesures pour vérifier les informations.

Lire aussi  Mme Hinch dit qu'elle "ne veut jamais quitter" la bulle de bébé alors qu'elle berce un nouveau-né

Avec certains des faux cas, il semble que Schwartz n’ait même pas lu ce que le chatbot a produit.

“Pouvons-nous convenir que c’est du charabia juridique?” un juge exaspéré Kevin Castel a interrogé Schwartz sur l’un des cas.

“Cela ne m’est jamais venu à l’esprit qu’il pourrait s’agir d’inventer des affaires”, a déclaré Schwartz dans la salle d’audience remplie de dizaines d’avocats, de procureurs et d’étudiants en droit. “J’ai continué à être dupé par ChatGPT.”

Le collègue de Schwartz, Peter LoDuca, qui a signé et déposé le faux dossier, a déclaré qu’il n’avait pas travaillé sur le contenu du dossier et qu’il ne savait pas non plus que Schwartz utilisait ChatGPT.

Cette image d'illustration montre l'application pour smartphone AI ChatGPT le 6 juin 2023.

ChatGPT, technologie IA émergente qui, selon certains experts, pourrait être aussi révolutionnaire qu’Internet, fonctionne comme un chatbot. Les utilisateurs peuvent lui demander n’importe quoi sur n’importe quoi, et il générera une réponse détaillée en quelques secondes en puisant dans une montagne de sources en ligne.

Mais comme de nombreux premiers utilisateurs en ont été témoins – et certains étudiants ont appris à la dure — pendant que le robot répond paraître réfléchi et sophistiquéils sont souvent remplis d’inexactitudes déclarées avec confiance.

Le juge Castel a déclaré que ce qui s’était passé après que Schwartz avait déposé de faux cas citant de faux cas était plus préoccupant que le dépôt initial.

“Je doute que nous serions ici aujourd’hui si le récit s’arrêtait là”, a déclaré Castel jeudi. “Ce qui s’est passé par la suite est une partie importante, une partie essentielle, de ce récit.”

Lire aussi  Californie LGMA et STOP mettent à jour la vidéo "The Why Behind Food Safety"

Lorsque les avocats de la compagnie aérienne ont déclaré en avril qu’ils n’a pas pu localiser les cas cités par SchwartzCastel a dit à l’équipe juridique de Mata de soumettre les dossiers judiciaires, incitant le cabinet de Schwartz à déposer des copies de cas imaginaires.

Le juge de district américain P. Kevin Castel est vu sur le banc d'un tribunal fédéral de Manhattan, le vendredi 12 mars 2021, à New York.

Les avocats de la compagnie aérienne ont répondu, remettant en question leur authenticité, avec Schwartz peu après avoir admis dans un dossier qu’il avait utilisé l’aide de ChatGPT pour assembler le dossier, affirmant que l’IA lui avait menti lorsqu’il avait demandé si les cas étaient exacts.

“[I]c’est un vrai cas”, a demandé l’avocat au robot, comme le montre une capture d’écran.

“Oui”, a répondu ChatGPT, lui disant que c’était “un cas réel”.

Jeudi, Schwartz, qui a déclaré que ses enfants lui avaient parlé de ChatGPT, a déclaré qu’il pensait toujours que les cas étaient légitimes lorsqu’il a soumis les fausses copies en avril.

“Je déteste continuer à dire la même chose, mais c’est la vérité, et je suis complètement transparent avec le tribunal en ce que je n’ai pas, ne pouvais pas, comprendre que ChatGPT pouvait fabriquer des cas, alors j’ai respecté l’ordonnance du tribunal et suis allé retour au seul endroit où je pouvais trouver les cas », a déclaré Schwartz.

“C’est devenu mon dernier recours.”

Le bâtiment de la Cour suprême de l'État de New York le 22 décembre 2021.

L’avocat chevronné était au bord des larmes en implorant le pardon du tribunal. Il a dit qu’il n’aurait jamais été près d’être sanctionné en 30 ans de carrière.

“Je regrette profondément mes actions dans cette affaire qui ont conduit à cette audience aujourd’hui”, a déclaré Schwartz, l’air déchiré.

“J’ai souffert à la fois professionnellement et personnellement en raison de la large publicité que ce problème a générée. Je suis à la fois gêné et humilié et extrêmement plein de remords. Dire que cela a été une expérience humiliante serait un euphémisme.

Le juge Castel rendra une décision écrite sur l’opportunité de sanctionner Schwartz, qui n’a fait aucun commentaire en quittant le tribunal.

Un avocat de Schwartz, Ronald Minkoff, a déclaré au juge que son client ne travaillait généralement pas sur des affaires fédérales et avait commis une erreur honnête à la rigueur.

“Il pensait qu’il avait affaire à un moteur de recherche standard”, a déclaré Minkoff. “Ce qu’il faisait, c’était jouer avec des munitions réelles.”

Leave a Reply

Your email address will not be published. Required fields are marked *

This site uses Akismet to reduce spam. Learn how your comment data is processed.

Recent News

Editor's Pick