Les entreprises qui développent des applications ChatGPT doivent gérer les questions de confidentialité et de sécurité sur la façon dont le bot d’intelligence artificielle gère les données potentiellement sensibles.
Le détaillant de mode en ligne allemand Zalando SE prévoit d’introduire un assistant d’achat utilisant la version entreprise de ChatGPT d’OpenAI dans les semaines à venir pour analyser les requêtes de recherche des clients. L’assistant peut, par exemple, émettre une demande de vêtements pour un certain lieu ou une certaine saison, et suggérer certains produits.
Jan Wittrodt, responsable de la confidentialité chez Zalando, a déclaré que le détaillant avait décidé de ne pas partager les données des clients pour former l’algorithme de ChatGPT. Toutes les données saisies par les utilisateurs lorsqu’ils recherchent des articles sont supprimées après 30 jours, a déclaré M. Wittrodt. Ces garanties protègent la vie privée des clients, même s’ils saisissent accidentellement des informations privées lors de l’utilisation de l’assistant, a-t-il déclaré.
“Du point de vue de la confidentialité, en réalité, l’impact n’est pas trop élevé”, a déclaré M. Wittrodt.
Inscription à la newsletter
La cyber-sécurité
Actualités, analyses et informations sur la cybersécurité de l’équipe mondiale de journalistes et de rédacteurs du -.
OpenAI a introduit plusieurs changements dans son service public ChatGPT la semaine dernière, permettant aux utilisateurs de s’inscrire s’ils souhaitent que leurs recherches soient utilisées pour former l’algorithme de l’outil. Les recherches non enregistrées sont supprimées après 30 jours. Les changements n’affectent pas le service d’entreprise disponible pour les entreprises clientes, qui disposait déjà de fonctionnalités similaires, a déclaré M. Wittrodt.
ChatGPT est dans le collimateur des régulateurs en Europe et aux États-Unis depuis ses débuts en novembre. L’administration Biden envisage de rédiger de nouvelles règles pour réglementer les outils d’IA tels que ChatGPT au milieu des critiques concernant leur utilisation potentielle à des fins de discrimination ou de désinformation nuisible.
Le régulateur italien de la protection des données a temporairement bloqué le fonctionnement de l’outil dans le pays le mois dernier, invoquant des violations du règlement général sur la protection des données de l’Union européenne, et a exigé des changements dans la façon dont OpenAI gère les données et empêche les enfants de moins de 13 ans d’utiliser le bot. Vendredi, le régulateur a annulé son interdiction temporaire, affirmant qu’OpenAI avait mis en œuvre la plupart de ses demandes, notamment en donnant plus de détails sur la manière dont il traite les informations.
Le comité européen de la protection des données, le groupe de coordination des régulateurs des 27 pays de l’Union européenne, a mis en place un groupe de travail pour examiner ChatGPT.
Le fondateur d’OpenAI, Sam Altman, a déclaré qu’il souhaitait à long terme mettre en place une structure de gouvernance mondiale qui superviserait les décisions concernant l’avenir de l’IA et réduirait progressivement le pouvoir de l’équipe de direction d’OpenAI sur sa technologie.
Le PDG d’OpenAI, Sam Altman.
Photo:
Clara Mokri pour le Wall Street Journal
Le britannique RELX PLC, qui possède l’éditeur commercial et médical Elsevier et le service d’informations juridiques LexisNexis, étudie comment il pourrait utiliser ChatGPT mais ne déploie pas encore l’outil dans aucun service, a déclaré Michael Lamb, directeur mondial de la confidentialité de RELX.
M. Lamb a déclaré qu’il existe une incertitude juridique concernant la manière dont ChatGPT utilise les données. Une législation adaptée aux risques liés à l’IA tels que les biais, l’exactitude et la discrimination est une meilleure méthode pour réglementer le domaine, par rapport au RGPD plus large de l’UE, a-t-il déclaré.
“Il s’agit de la formation globale, de l’utilisation de l’algorithme et de l’impact sur la société, qu’il s’agisse ou non de données personnelles”, a déclaré M. Lamb.
Les entreprises pourraient avoir besoin de divulguer des informations aux utilisateurs ou à toute personne dont elles collectent les données pour une application construite avec ChatGPT, a-t-il déclaré. Ceux-ci pourraient dire que le système a utilisé l’outil et que tout ce qui est produit avec lui devrait être vérifié de manière indépendante, a-t-il déclaré.
Les législateurs de l’UE devraient voter dans les mois à venir sur un projet de loi traitant de l’IA, qui limite les applications à risque telles que la technologie qui traite les données biométriques.
“Il serait malheureux de perdre les avantages de cela”, a déclaré M. Lamb.
Pour M. Wittrodt de Zalando, les récents changements d’OpenAI montrent qu’elle est prête à écouter les régulateurs et à adapter ses services. Si les régulateurs demandent des détails sur la façon dont Zalando utilise ChatGPT, il a déclaré qu’il serait en mesure d’expliquer quelles données le détaillant partage avec l’outil et comment les garanties de confidentialité s’appliquent.
Au milieu de l’examen réglementaire, les entreprises qui utilisent ou envisagent d’expérimenter ChatGPT devraient prendre des précautions telles que la rédaction de politiques visant à empêcher les employés de saisir des données sensibles ou exclusives, a déclaré Ajay Chowdhury, directeur général et associé principal du Boston Consulting Group.
Pour certaines applications, les entreprises pourraient également supprimer les données personnelles afin que tout ce qui est envoyé à ChatGPT ne puisse pas être utilisé pour identifier des personnes, a déclaré M. Chowdhury.
“Beaucoup d’entreprises ne comprennent toujours pas les risques de ces choses”, a-t-il déclaré.
Écrivez à Catherine Stupp à [email protected]
Copyright ©2022 Dow Jones & Company, Inc. Tous droits réservés. 87990cbe856818d5eddac44c7b1cdeb8