Deux avocats américains condamnés à une amende pour avoir soumis de fausses citations judiciaires de ChatGPT | ChatGPT

Deux avocats américains condamnés à une amende pour avoir soumis de fausses citations judiciaires de ChatGPT |  ChatGPT

Un juge américain a infligé une amende de 5 000 $ (3 935 £) à deux avocats et à un cabinet d’avocats après de fausses citations générées par ChatGPT ont été déposées dans un dossier judiciaire.

Un juge de district de Manhattan a ordonné à Steven Schwartz, Peter LoDuca et leur cabinet d’avocats Levidow, Levidow & Oberman de payer l’amende après que des recherches juridiques fictives aient été utilisées dans une réclamation pour blessure à l’aviation.

Schwartz avait admis que ChatGPT, un chatbot qui produit des réponses textuelles plausibles aux invites humaines, avait inventé six cas auxquels il faisait référence dans un mémoire juridique dans une affaire contre la compagnie aérienne colombienne Avianca.

Le juge P Kevin Castel a déclaré dans une opinion écrite qu’il n’y avait rien de “intrinsèquement inapproprié” à utiliser l’intelligence artificielle pour aider au travail juridique, mais les avocats devaient s’assurer que leurs documents étaient exacts.

“Les progrès technologiques sont monnaie courante et il n’y a rien de fondamentalement inapproprié à utiliser un outil d’intelligence artificielle fiable pour l’assistance”, a écrit Castel. “Mais les règles existantes imposent un rôle de contrôle aux avocats pour garantir l’exactitude de leurs documents.”

Le juge a déclaré que les avocats et leur cabinet “ont abandonné leurs responsabilités lorsqu’ils ont soumis des avis judiciaires inexistants avec de fausses citations et citations créées par l’outil d’intelligence artificielle ChatGPT, puis ont continué à respecter les faux avis après que des ordonnances judiciaires ont remis leur existence en question”.

Levidow, Levidow & Oberman ont déclaré jeudi dans un communiqué que ses avocats étaient “respectueusement” en désaccord avec le tribunal selon lequel ils avaient agi de mauvaise foi. “Nous avons fait une erreur de bonne foi en ne croyant pas qu’une technologie pourrait fabriquer des étuis à partir de tissu entier”, a-t-il déclaré.

Lire aussi  L'argent liquide n'est plus roi dans un monde de paiements électroniques

Les avocats de Schwartz ont déclaré à Reuters qu’il avait refusé de commenter. LoDuca n’a pas immédiatement répondu à une demande de commentaires de Reuters, et son avocat a déclaré qu’ils réexaminaient la décision.

ChatGPT avait suggéré plusieurs cas impliquant des accidents d’aviation que Schwartz n’avait pas été en mesure de trouver par les méthodes habituelles utilisées dans son cabinet d’avocats. Plusieurs de ces cas n’étaient pas réels, des juges mal identifiés ou impliquaient des compagnies aériennes qui n’existaient pas.

Les chatbots tels que ChatGPT, développé par la firme américaine OpenAI, peut être sujet à des « hallucinations » ou à des inexactitudes. Dans un exemple, ChatGPT a faussement accusé un professeur de droit américain de harcèlement sexuel et a cité un rapport inexistant du Washington Post dans le processus. En février, une vidéo promotionnelle du rival de Google pour ChatGPT, Bard, a donné une réponse inexacte à une question sur le télescope spatial James Webb, faisant craindre que la société de recherche ait été trop hâtive dans lancer une riposte à la percée d’OpenAI.

Les chatbots sont formés sur une vaste mine de données extraites d’Internet, bien que les sources ne soient pas disponibles dans de nombreux cas. Fonctionnant comme un outil de texte prédictif, ils construisent un modèle pour prédire le mot ou la phrase le plus susceptible de venir après l’invite d’un utilisateur. Cela signifie que des erreurs factuelles sont possibles, mais la réponse d’apparence humaine peut parfois convaincre les utilisateurs que la réponse est correcte.

ignorer la promotion de la newsletter

Related News

https://std.stheadline.com/supplement/article/2605882/%E5%89%AF%E5%88%8A-%E9%A7%95%E9%A7%9B%E8%89%99-%E5 %92%8C%E8%AB%A7%E6%B1%BD%E8%BB%8A-%E9%A8%B0%E5%8B%A2Denza%E7%81%A3%E4%BB%94%E6% 97%97%E8%89%A6%E5%BA%97%E9%96%8B%E5%B9%95%E2%94%82%E4%BD%94%E5%9C%B01%E8%90% AC4%E5%8D%83%E6%96%B9%E5%91%8E%E9%A6%96%E5%B1%95%E8%B1%AA%E8%8F%AFMPV%E9%9B%BB% E5%8B%95%E8%BB%8ADenza-D9-%E5%85%A7%E8%A8%AD%E6%AF%94%E4%BA%9E%E8%BF%AABYD%E7%A7%91 %E6%8A%80%E5%B1%95%E7%A4%BA%E5%BB%B3-%E9%A6%99%E6%B8%AF%E9%A6%96%E5%B1%95% E6%96%B9%E7%A8%8B%E8%B1%B95%E5%8F%8A%E4%BB%B0%E6%9C%9BU8

Leave a Reply

Your email address will not be published. Required fields are marked *

This site uses Akismet to reduce spam. Learn how your comment data is processed.

Recent News

Editor's Pick