La Californie examine les avantages et les risques de l’utilisation de l’intelligence artificielle au sein du gouvernement de l’État

La Californie examine les avantages et les risques de l’utilisation de l’intelligence artificielle au sein du gouvernement de l’État

L’intelligence artificielle, capable de générer du texte, des images et d’autres contenus, pourrait contribuer à améliorer les programmes publics, mais présente également des risques, selon une étude. rapport publié mardi par le bureau du gouverneur.

L’IA générative pourrait aider à traduire rapidement les documents gouvernementaux dans plusieurs langues, à analyser les réclamations fiscales pour détecter la fraude, à résumer les commentaires du public et à répondre aux questions sur les services de l’État. Néanmoins, le déploiement de la technologie, prévient l’analyse, s’accompagne également de préoccupations concernant la confidentialité des données, la désinformation, l’équité et les préjugés.

“Lorsqu’elle est utilisée de manière éthique et transparente, GenAI a le potentiel d’améliorer considérablement les résultats de la prestation de services et d’accroître l’accès et l’utilisation des programmes gouvernementaux”, indique le rapport.

Le rapport de 34 pages, ordonné par le gouverneur Gavin Newsomdonne un aperçu de la manière dont la Californie pourrait appliquer la technologie aux programmes de l’État, alors même que les législateurs se demandent comment protéger les personnes sans entraver l’innovation.

Les inquiétudes concernant la sécurité de l’IA divisent les dirigeants technologiques. Des dirigeants tels que le milliardaire Elon Musk ont ​​tiré la sonnette d’alarme sur le fait que la technologie pourrait conduire à la destruction de la civilisation, notant que si les humains devenaient trop dépendants de l’automatisation, ils pourraient éventuellement oublie comment fonctionnent les machines. D’autres responsables technologiques ont une vision plus optimiste quant au potentiel de l’IA pour contribuer à sauver l’humanité en facilitant la lutte contre le changement climatique et les maladies.

Lire aussi  10 meilleurs bracelets Apple Watch Ultra en 2023

Dans le même temps, de grandes entreprises technologiques, notamment Google, Facebook et OpenAI, soutenu par Microsoft, se font concurrence pour développer et lancer de nouveaux outils d’IA capables de produire du contenu.

Le rapport intervient également alors que l’IA générative atteint un autre tournant majeur. La semaine dernière, le conseil d’administration du fabricant de ChatGPT, OpenAI, a licencié le PDG Sam Altman pour ne pas avoir été « toujours franc dans ses communications avec le conseil d’administration », plongeant l’entreprise et le secteur de l’IA dans le chaos.

Mardi soir, OpenAI a déclaré avoir conclu « un accord de principe » pour qu’Altman retour en tant que PDG et l’entreprise a nommé les membres d’un nouveau conseil d’administration. L’entreprise a fait face à des pressions pour réintégrer Altman de la part d’investisseurs, de dirigeants technologiques et d’employés, qui ont menacé de démissionner. OpenAI n’a pas fourni publiquement de détails sur ce qui a conduit à l’éviction surprise d’Altman, mais la société aurait désaccords sur la sécurité de l’IA tout en gagnant de l’argent. Un conseil d’administration à but non lucratif contrôle OpenAI, une structure de gouvernance inhabituelle qui a permis d’évincer le PDG.

Newsom a qualifié le rapport sur l’IA de « première étape importante », car l’État prend en compte certains des problèmes de sécurité liés à l’IA.

“Nous adoptons une approche nuancée et mesurée : comprendre les risques que pose cette technologie transformatrice tout en examinant comment tirer parti de ses avantages”, a-t-il déclaré dans un communiqué.

Les progrès de l’IA pourraient profiter à l’économie californienne. L’État abrite 35 des 50 plus grandes sociétés d’IA au monde et les données de Pitchfork indiquent que le marché de la GenAI pourrait atteindre 42,6 milliards de dollars en 2023, selon le rapport.

Lire aussi  La perche PSA1+ de Rode fonctionne également avec de petits micros et caméras

Certains des risques décrits dans le rapport incluent la diffusion de fausses informations, le fait de donner aux consommateurs des conseils médicaux dangereux et de permettre la création de produits chimiques nocifs et d’armes nucléaires. Les violations de données, la confidentialité et les préjugés sont également des préoccupations majeures, tout comme la question de savoir si l’IA supprimera des emplois.

“Compte tenu de ces risques, l’utilisation de la technologie GenAI doit toujours être évaluée pour déterminer si cet outil est nécessaire et bénéfique pour résoudre un problème par rapport au statu quo”, indique le rapport.

Alors que l’État travaille sur des lignes directrices pour l’utilisation de l’IA générative, le rapport indique qu’en attendant, les employés de l’État devraient respecter certains principes pour protéger les données des Californiens. Par exemple, les employés de l’État ne devraient pas fournir les données des Californiens à des outils d’IA générative tels que ChatGPT ou Google Bard, ni utiliser des outils non approuvés sur les appareils de l’État, indique le rapport.

L’utilisation potentielle de l’IA va au-delà du gouvernement de l’État. Les organismes chargés de l’application des lois, comme la police de Los Angeles, envisagent d’utiliser l’IA pour analyser le ton et le choix des mots des policiers. corps cam vidéos.

Les efforts de la Californie pour réglementer certains problèmes de sécurité, tels que les préjugés entourant l’IA, n’ont pas gagné beaucoup de terrain lors de la dernière session législative. Mais les législateurs ont présenté de nouveaux projets de loi pour s’attaquer à certains de ces problèmes. Le risque de l’IA à leur retour en janvier, comme protéger les travailleurs du divertissement contre le remplacement par des clones numériques.

Lire aussi  Apple dévoile de grands changements aux ordinateurs portables Macbook Pro et AirPod lors du dernier événement de lancement | Actualités scientifiques et technologiques

Pendant ce temps, les régulateurs du monde entier cherchent encore comment protéger les personnes contre les risques potentiels de l’IA. En octobre, le président Biden a publié un décret définissant les normes en matière de sûreté et de sécurité à mesure que les développeurs créent de nouveaux outils d’IA. La réglementation de l’IA a été un sujet de discussion majeur au Réunion de coopération économique Asie-Pacifique à San Francisco la semaine dernière.

Lors d’une table ronde avec des dirigeants de Google et de la société mère de Facebook, Meta, Altman a déclaré qu’il pensait que le décret de Biden était un « bon début », même s’il y avait des domaines à améliorer. Les modèles d’IA actuels, a-t-il déclaré, sont « satisfaisants » et une « réglementation lourde » n’est pas nécessaire, mais il a exprimé ses inquiétudes quant à l’avenir.

“À un moment donné, lorsque le modèle pourra produire l’équivalent de la production d’une entreprise entière, puis d’un pays entier, puis du monde entier, nous voudrons peut-être une sorte de supervision collective mondiale de cela”, a-t-il déclaré un jour avant son départ. licencié en tant que PDG d’OpenAI.

Leave a Reply

Your email address will not be published. Required fields are marked *

This site uses Akismet to reduce spam. Learn how your comment data is processed.

Recent News

Editor's Pick