Les inquiétudes concernant ChatGPT et les dangers qu’il peut représenter pour les entreprises s’aggravent

Les inquiétudes concernant ChatGPT et les dangers qu’il peut représenter pour les entreprises s’aggravent
ChatGPT peut présenter un risque réel pour les entreprises qui utilisent le chatbot si elles ne sont pas prudentes et vigilantes
Vu Ruvic/Reuters

Des préoccupations récentes ont été soulevées concernant l’utilisation de ChatGPT et les dangers liés à l’utilisation du système de chatbot AI. Cela inclut les entreprises qui utilisent ChatGPT car elles peuvent être vulnérables aux cyberattaques en raison de la capacité de ChatGPT à produire du code, ce qui entraîne des violations de données.

La capacité de ChatGPT à aider les organisations avec des niveaux de croissance et d’efficacité l’a vu devenir un produit populaire parmi les entreprises. Le chatbot a récemment reçu de nombreux éloges du co-fondateur de Microsoft, Bill Gates, qui croit fermement à l’utilité de l’IA pour l’avenir.

La préoccupation concernant ChatGPT pour les entreprises, comme l’a révélé une enquête de Cyberhaven, est que 11 % des informations qui sont copiées et collées dans le chatbot par le personnel sont des données sensibles. L’enquête a révélé un cas inquiétant où un médecin a inséré des informations privées d’un patient dans le chatbot, les retombées de l’affaire étant encore inconnues.

Les préoccupations croissantes en matière de confidentialité concernant ChatGPT ont vu des organisations bien connues telles qu’Amazon, JP Morgan et Accenture restreindre l’utilisation du chatbot par leurs employés.

Richard Forrest, directeur juridique de la principale société britannique de violation de données, Hayes Connor, a fait part de ses réflexions sur les décisions de ChatGPT dans le paysage commercial, déclarant que “ChatGPT, et d’autres grands modèles de langage similaires (LLM), en sont encore à leurs balbutiements. Cela signifie que nous sommes en territoire inconnu en termes de conformité commerciale et de réglementations entourant leur utilisation.”

Lire aussi  Pourquoi les médias ne reflètent pas nos vrais professeurs

Il a poursuivi en ajoutant que la nature de ChatGPT “a suscité des discussions en cours sur l’intégration et la récupération des données au sein de ces systèmes. Si ces services ne disposent pas de mesures de protection et de sécurité des données appropriées, les données sensibles pourraient être involontairement compromises”.

Forrest affirme que de nombreuses personnes ne comprennent toujours pas vraiment le fonctionnement de ces technologies et leur fonctionnement, ce qui conduit à “la soumission par inadvertance d’informations privées. De plus, les interfaces elles-mêmes ne sont pas nécessairement conformes au RGPD”.

Il souligne que les entreprises dont le personnel utilise ChatGPT sans suivre la formation nécessaire pourraient “s’exposer sans le savoir à des violations de données GDPR, entraînant des amendes importantes, des atteintes à la réputation et des poursuites judiciaires”. des mesures réglementaires sont malavisées.”

Forrest pense que la responsabilité ultime incombe aux entreprises, car elles doivent “prendre des mesures pour s’assurer que des réglementations sont élaborées au sein de leur entreprise et pour éduquer les employés sur la manière dont les chatbots IA intègrent et récupèrent les données”.

Au Royaume-Uni, l’une des principales raisons des violations de données dans divers secteurs est le résultat d’une erreur humaine. L’IA étant davantage utilisée dans le paysage de l’entreprise, une formation plus approfondie est nécessaire et une priorité élevée.

En ce qui concerne la responsabilité du Royaume-Uni, Forrest estime qu’il est vital que le pays “engage des discussions pour le développement d’une approche pro-innovation de la réglementation de l’IA”.

Afin que les entreprises restent vigilantes quant aux dangers de ChatGPT en évitant les compromissions de données et les violations du RGPD, Forrest leur conseille de supposer que tout ce qui est saisi peut devenir accessible dans le domaine public. En outre, Forrest estime que les employés ne doivent pas saisir de données internes ou de code logiciel.

Lire aussi  Les ministres britanniques pourraient faire face à une contestation judiciaire concernant l'exploration pétrolière en mer du Nord | Huile

D’autres conseils de Forrest incluent de s’assurer que les accords de confidentialité sont révisés afin qu’ils couvrent l’utilisation de l’IA. Aussi, une clause explicite devrait être créée et insérée dans les contrats du personnel de l’entreprise.

Pour aider également à rester vigilant, Forrest estime que les organisations devraient organiser suffisamment de sessions de formation concernant l’utilisation de l’IA, ainsi qu’avoir une politique d’entreprise et un guide d’utilisation pour les employés.

Leave a Reply

Your email address will not be published. Required fields are marked *

This site uses Akismet to reduce spam. Learn how your comment data is processed.

Recent News

Editor's Pick