Chatgpt : l’Italie bloque temporairement ChatGPT, voici pourquoi

Chatgpt : l’Italie bloque temporairement ChatGPT, voici pourquoi

ROME : l’Italie bloque temporairement le logiciel d’intelligence artificielle ChatGPT à la suite d’une violation de données alors qu’il enquêtait sur une éventuelle violation des règles strictes de protection des données de l’Union européenne, a déclaré vendredi le chien de garde de la vie privée du gouvernement.
L’autorité italienne de protection des données a déclaré qu’elle prenait des mesures provisoires “jusqu’à ce que ChatGPT respecte la vie privée”, notamment en limitant temporairement l’entreprise de traiter les données des utilisateurs italiens.
La société américaine OpenAI, qui a développé ChatGPT, n’a pas renvoyé de demande de commentaire vendredi.
Alors que certaines écoles publiques et universités du monde entier ont bloqué le site Web ChatGPT de leurs réseaux locaux en raison de problèmes de plagiat des étudiants, il n’était pas immédiatement clair quand ni comment l’Italie le bloquerait au niveau national.
Il est également peu probable que cette décision affecte les applications des entreprises qui ont déjà des licences avec OpenAI pour utiliser la même technologie qui pilote le chatbot, comme le moteur de recherche Bing de Microsoft.
Les systèmes d’IA qui alimentent ces chatbots, connus sous le nom de grands modèles de langage, sont capables d’imiter les styles d’écriture humains basés sur l’énorme quantité de livres numériques et d’écrits en ligne qu’ils ont ingérés.
L’organisme de surveillance italien a déclaré qu’OpenAI doit signaler dans les 20 jours les mesures qu’il a prises pour garantir la confidentialité des données des utilisateurs ou encourir une amende pouvant aller jusqu’à 20 millions d’euros (près de 22 millions de dollars) ou 4 % du chiffre d’affaires mondial annuel.
La déclaration de l’agence cite le règlement général sur la protection des données de l’UE et note que ChatGPT a subi une violation de données le 20 mars impliquant des “conversations d’utilisateurs” et des informations sur les paiements des abonnés.
OpenAI a annoncé plus tôt qu’il devait mettre ChatGPT hors ligne le 20 mars pour corriger un bogue qui permettait à certaines personnes de voir les titres ou les lignes d’objet de l’historique des discussions des autres utilisateurs.
“Notre enquête a également révélé que 1,2% des utilisateurs de ChatGPT Plus auraient pu voir des données personnelles révélées à un autre utilisateur”, a déclaré la société. “Nous pensons que le nombre d’utilisateurs dont les données ont été réellement révélées à quelqu’un d’autre est extrêmement faible et nous avons contacté ceux qui pourraient être concernés.”
L’organisme italien de surveillance de la vie privée a déploré l’absence de base légale pour justifier la “collecte et le traitement massifs de données personnelles” par OpenAI utilisés pour former les algorithmes de la plateforme et que l’entreprise n’informe pas les utilisateurs dont elle collecte les données.
L’agence a également déclaré que ChatGPT peut parfois générer – et stocker – de fausses informations sur des individus.
Enfin, il a noté qu’il n’y avait pas de système pour vérifier l’âge des utilisateurs, exposant les enfants à des réponses “absolument inappropriées à leur âge et à leur conscience”.
La décision du chien de garde intervient alors que les inquiétudes grandissent quant au boom de l’intelligence artificielle. Un groupe de scientifiques et de leaders de l’industrie technologique a publié mercredi une lettre appelant des entreprises telles qu’OpenAI à suspendre le développement de modèles d’IA plus puissants jusqu’à l’automne pour donner à la société le temps de peser les risques.
Le président de l’agence italienne de surveillance de la vie privée a déclaré vendredi soir à la télévision publique italienne qu’il était l’un de ceux qui avaient signé l’appel. Pasquale Stanzione a déclaré qu’il l’avait fait parce que “les objectifs poursuivis par ceux qui développent l’IA ne sont pas clairs”.
Si l’IA doit “empiéter” sur “l’autodétermination” d’une personne, alors “c’est très dangereux”, a déclaré Stanzione. Il a également décrit l’absence de filtres pour les utilisateurs de moins de 13 ans comme “plutôt grave”.
D’autres ont également fait part de leurs inquiétudes.
“Bien qu’il ne soit pas clair dans quelle mesure ces décisions seront exécutoires, le fait même qu’il semble y avoir un décalage entre la réalité technologique sur le terrain et les cadres juridiques de l’Europe” montre qu’il peut y avoir quelque chose dans l’appel de la lettre à une pause ” pour permettre à nos outils culturels de rattraper leur retard », a déclaré Nello Cristianini, professeur d’IA à l’Université de Bath.
PDG d’OpenAI basé à San Francisco, Sam Altmann, a annoncé cette semaine qu’il entreprendrait un voyage sur six continents en mai pour parler de la technologie avec les utilisateurs et les développeurs. Cela comprend un arrêt prévu à Bruxelles, où les législateurs de l’Union européenne ont négocié de nouvelles règles radicales pour limiter les outils d’IA à haut risque, ainsi que des visites à Madrid, Munich, Londres et Paris.
Le groupe européen de consommateurs BEUC a appelé jeudi les autorités de l’UE et les 27 pays membres du bloc à enquêter sur ChatGPT et les chatbots AI similaires. Le BEUC a déclaré qu’il pourrait s’écouler des années avant que la législation de l’UE sur l’IA n’entre en vigueur, les autorités doivent donc agir plus rapidement pour protéger les consommateurs des risques éventuels.
“En quelques mois seulement, nous avons assisté à une adoption massive de ChatGPT, et ce n’est que le début”, a déclaré la directrice générale adjointe Ursula Pachl.
Attendre la loi sur l’IA de l’UE “n’est pas suffisant, car de sérieuses inquiétudes grandissent quant à la manière dont ChatGPT et des chatbots similaires pourraient tromper et manipuler les gens”.

Leave a Reply

Your email address will not be published. Required fields are marked *

This site uses Akismet to reduce spam. Learn how your comment data is processed.

Recent News

Editor's Pick