Le juge de la Haute Cour indienne Anoop Chitkara a statué sur des milliers d’affaires. Mais lorsqu’il a refusé la mise en liberté sous caution d’un homme accusé d’agression et de meurtre, il s’est tourné vers ChatGPT pour l’aider à justifier son raisonnement.
Il fait partie d’un nombre croissant de juges utilisant des chatbots d’intelligence artificielle (IA) pour les aider dans leurs décisions, les partisans affirmant que la technologie peut rationaliser les processus judiciaires tandis que les critiques avertissent qu’elle risque de biaiser et d’injustice.
“L’IA ne peut pas remplacer un juge. … Cependant, il a un immense potentiel en tant qu’aide dans les processus judiciaires », a déclaré M. Chitkara.
“La révolution des connaissances a commencé, et ces plateformes d’IA ont, dans certaines situations, démontré leur capacité à transformer instantanément les requêtes en résultats exceptionnels.”
Les chatbots comme ChatGPT et Google’s Bard sont des applications logicielles conçues pour imiter la conversation humaine en réponse aux questions des utilisateurs.
M. Chitkara a déclaré qu’il ne s’était pas appuyé sur ChatGPT pour l’aider à rendre sa décision dans l’affaire de 2020 devant la Haute Cour du Pendjab et de l’Haryana.
Cependant, il s’est demandé s’il s’appuyait trop sur sa propre “opinion cohérente” selon laquelle les allégations impliquant un niveau de cruauté inhabituellement élevé devraient être prises en compte contre l’octroi d’une caution, et a demandé à ChatGPT de résumer la jurisprudence sur la question.
Le ministère de la Justice n’a pas immédiatement répondu à une demande de commentaire.
L’utilisation de l’IA dans le système de justice pénale se développe rapidement dans le monde entier, de la populaire application mobile d’avocat chatbot DoNotPay aux juges robots en Estonie statuant sur les petites créances et aux juges IA dans les tribunaux chinois.
Dans la ville colombienne caribéenne de Carthagène, le juge Juan Manuel Padilla s’est également tourné vers ChatGPT pour obtenir de l’aide dans un procès dans lequel les parents d’un garçon autiste poursuivaient son fournisseur de soins de santé pour les frais et dépenses de traitement.
“[ChatGPT] génère un texte très fiable, très concret et applicable à un cas d’une manière spécifique », a déclaré M. Padilla.
Il a posé au chatbot plusieurs questions juridiques telles que la question de savoir si un enfant autiste est exempté des frais de thérapie. Il a inclus les détails dans sa décision, qui s’est prononcée en faveur de l’enfant.
Préoccupations concernant les faux résultats
Mais la fiabilité des chatbots est discutable, ont déclaré plusieurs experts juridiques et techniques.
“Certains juges essaient de trouver un moyen d’accélérer le travail – mais ils ne connaissent pas toujours les limites ou les risques”, a déclaré Juan David Gutierrez, professeur de politique publique et de données à l’Universidad del Rosario à Bogota, en Colombie.
“ChatGPT peut inventer des lois et des décisions qui n’existent pas. À mon avis, il ne devrait pas être utilisé pour quoi que ce soit d’important.
Il y a eu de nombreux exemples de chatbots qui se sont trompés d’informations ou qui ont inventé des réponses plausibles mais incorrectes – qui ont été surnommées “hallucinations” – comme l’invention d’articles fictifs et d’articles universitaires.
Lorsque ChatGPT a été testé sur ses réponses à 50 questions juridiques par Linklaters, un cabinet d’avocats mondial dont le siège est à Londres, les experts juridiques l’ont trouvé compétent dans certains domaines mais gravement insuffisant dans d’autres.
L’IA a confondu des sections de la loi de 2018 sur la protection des données et n’a pas fourni de réponses complètes sur le droit anglais des contrats.
“Si vous n’aviez pas déjà une très bonne compréhension de ce domaine du droit, il vous serait très difficile de le résoudre”, a déclaré à la Fondation Thomson Reuters l’avocat Peter Church, expert en confidentialité des données chez Linklaters.
Utilisation du chatbot “une catastrophe”
Une meilleure technologie promet un moyen de réduire l’énorme arriéré qui engorge certains systèmes juridiques.
L’Inde à elle seule comptait plus de 40 millions d’affaires en instance devant les tribunaux inférieurs l’année dernière, tandis que le Brésil avait 26 millions de nouvelles poursuites intentées rien qu’en 2020, soit plus de 6 000 par juge.
Mais l’IA risque de simplifier à l’excès des problèmes complexes et pourrait susciter des attentes irréalistes quant aux capacités de la technologie, ont écrit Dona Mathew et Urvashi Aneja du collectif de recherche Digital Futures Lab dans un rapport récent.
Les violations de la vie privée et l’exploitation des données judiciaires à des fins lucratives suscitent également des inquiétudes.
“Avec des ensembles de données biaisés et incomplets, aucun recours juridique et aucune garantie de responsabilité … ces changements peuvent entraîner des dommages systématiques tels que des menaces à l’indépendance judiciaire et la stagnation des principes juridiques”, ont-ils écrit.
Raquel Guerrero, avocate de trois journalistes boliviens accusés d’avoir publié des photos d’une victime de violence sans son autorisation, a exprimé ses inquiétudes lorsque le tribunal a consulté ChatGPT lors d’une audience en ligne en avril.
Mme Guerrero a déclaré que la plaignante avait autorisé le partage des photos en ligne, mais a ensuite nié l’avoir fait.
Les juges constitutionnels ont interrogé ChatGPT sur tout “intérêt public légitime” pour les journalistes postant en ligne des photos d’une “femme montrant des parties de son corps” sans son consentement.
ChatGPT a répondu qu’il s’agissait d’une “violation de la vie privée et de la dignité de la personne”. Les juges ont ordonné que les photos soient retirées des réseaux sociaux.
Le dossier judiciaire indique que ChatGPT ne remplace pas les décisions prises par les juristes, mais qu’il peut être utilisé comme support supplémentaire pour pouvoir “clarifier certains concepts”.
Mais Mme Guerrero a déclaré que l’utilisation du chatbot lors de l’audience était “arbitraire” et un “désastre”.
“Il ne peut pas être utilisé comme s’il s’agissait d’une calculatrice qui enlève aux juges l’obligation d’utiliser la raison et d’appliquer la justice et de l’appliquer correctement”, a déclaré Mme Guerrero, ajoutant qu’elle envisageait de déposer une plainte contre les juges pour avoir utilisé le chatbot.
« Évidemment, ChatGPT n’arrête pas d’être un robot. Si vous la posez de la bonne manière, elle répondra à ce que vous voulez entendre.
Cette histoire a été rapportée par la Fondation Thomson Reuters.
#Les #juges #utilisent #ChatGPT #lorsquils #rendent #des #décisions #qui #soulève #des #inquiétudes
2023-05-30 15:57:34