Les deux tiers des Australiens disent que l’on n’en fait pas assez pour se protéger de l’IA dangereuse, alors que le ministre a appelé à agir

Les deux tiers des Australiens disent que l’on n’en fait pas assez pour se protéger de l’IA dangereuse, alors que le ministre a appelé à agir

Les deux tiers des Australiens affirment qu’il n’y a pas suffisamment de lois ou de réglementations empêchant l’utilisation abusive de l’intelligence artificielle, et moins de la moitié font confiance à l’IA pour être utilisée en toute sécurité au travail.

Un rapport du cabinet de conseil KPMG et de l’Australian Information Industry Association (AIIA), l’organisme phare de l’industrie, Les Australiens s’attendent à ce que l’IA soit réglementée et souhaitent qu’un régulateur indépendant surveille la technologie à mesure qu’elle explose dans la société en général.

“Alors que des cadres réglementaires ont été développés pour s’attaquer aux problèmes liés à la vie privée, il y a eu peu de progrès vers un cadre plus holistique qui intègre l’IA”, ont constaté les auteurs.

Les auteurs ont constaté que les Australiens étaient “sur le battage médiatique” de l’IA et étaient entrés dans le “creux de la désillusion” et ont constaté que la même incertitude se répandait dans les conversations avec l’industrie et le gouvernement, qui ne savaient pas s’il fallait aborder l’IA avec une “résistance pure et simple” ou explorer les opportunités qu’il présentait.

Le ministre de l’Industrie, Ed Husic, doit publier un examen des récents développements rapides de l’IA et de la manière dont le gouvernement devrait réagir à l’émergence de technologies telles que Chat-GPT, Midjourney et d’autres qui pourraient perturber de nombreuses industries.

Lire aussi  Comment Nikki Haley est passée d'amie à ennemie de l'aide gouvernementale à Boeing

M. Husic a été contacté pour commentaires.

M. Husic réfléchit à la manière dont le gouvernement réagira aux progrès rapides de l’IA.(ABC Nouvelles : Matt Roberts)

KPMG a estimé que l’IA pourrait créer 1,2 million de nouveaux emplois “technologiques” au cours de la prochaine décennie et 5,3 millions d’emplois supplémentaires créés par les progrès technologiques au cours de cette période – mais a noté que la plupart des Australiens pensaient que la perturbation de l’IA éliminerait plus d’emplois qu’elle n’en créerait.

L’entreprise a estimé que 370 millions de dollars ont été ajoutés à l’économie australienne chaque année par l’IA et s’attend à ce que cela puisse exploser pour atteindre plus de 315 milliards de dollars d’ici 2028, comme prévu par le CSIRO.

L’IA est déjà bien établie dans l’ensemble du gouvernement, des mines, de la santé et d’autres grandes industries et a été utilisée pour raccourcir considérablement le temps de traitement des déclarations de revenus, anticiper les feux de brousse, aider aux diagnostics à l’aide de l’imagerie médicale et détecter la fraude, entre autres choses.

Mais ces derniers mois, de nouveaux programmes puissants sont devenus accessibles au grand public, suscitant de nouvelles inquiétudes quant à l’utilisation abusive de l’IA.

Un smartphone indique Open AI devant un fond violet et vert.
Les développements rapides des outils publics d’IA ont suscité un intérêt massif de la part du public et de l’industrie.(Photo AP : Richard Drew)

Des programmes comme Chat-GPT d’Open AI, qui a récemment été connecté à Internet, lui permettant de rechercher des vols et de faire des achats, et le générateur d’images Midjourney, qui a dû interdire les invites de célébrités arrêtées après l’arrestation de photos artificielles de l’ancien président Donald Trump. sont devenus viraux, progressent à un rythme qui a pris les gouvernements du monde entier au dépourvu.

Un groupe industriel recommande un registre national de l’IA et une surveillance étroite de l’UE

L’AIIA a déclaré que l’Australie était maintenant à un point où il y avait un besoin de “lignes directrices” et de “garde-fous”, mais a noté la difficulté pour le gouvernement de réglementer l’IA car elle avait de nombreuses applications différentes.

Le groupe affirme que l’absence d’une politique spécifique sur l’IA était un obstacle majeur pour le secteur, et que bien que les lois existantes puissent être utilisées dans les cas où l’IA cause des dommages, ces lois ne garantissent pas que les technologies d’IA sont conçues ou utilisées en toute sécurité.

Il a recommandé à l’Australie de porter une attention particulière à la loi sur l’IA dans l’UE, qui, si elle était adoptée, deviendrait l’une des premières lois complètes réglementant l’IA partout dans le monde.

La loi sur l’IA garantirait la protection de l’éthique et des principes de l’IA, adopterait une approche de la réglementation fondée sur les risques qui catégorise le potentiel de la technologie à causer des dommages sociaux, et accompagnerait les lois pour créer un processus plus facile pour les victimes des technologies de l’IA d’intenter des poursuites civiles.

L’UE prévoit également de créer une base de données publique des technologies d’IA pour aider à surveiller le secteur.

S’exprimant à l’Université nationale australienne, le ministre fantôme des Communications, David Coleman, a déclaré que le gouvernement devait élaborer un plan national pour l’IA.

Nous devons veiller à ce qu’en tant que régulateurs, en tant que gouvernements, nous n’intervenions pas trop là-dessus”, a déclaré M. Coleman.

“Mais l’essentiel est que nous avons besoin d’un plan national pour faire face à ce problème car il va être immense.”

Les auteurs du rapport ont déclaré que le gouvernement fédéral devrait envisager de créer un registre national de l’IA qui suit la technologie et ses utilisations, un propriétaire responsable désigné pour ces systèmes et les risques identifiés de la technologie.

Leave a Reply

Your email address will not be published. Required fields are marked *

This site uses Akismet to reduce spam. Learn how your comment data is processed.

Recent News

Editor's Pick