Le moment est venu de mettre en place une politique d’utilisation interne de l’IA

Le moment est venu de mettre en place une politique d’utilisation interne de l’IA

L’utilisation de intelligence artificielle (IA) dans les organisations est de plus en plus répandue, grâce à sa capacité à augmenter l’efficacité, à réduire le temps à consacrer à des tâches plus subalternes et à résoudre rapidement des problèmes complexes.

Mais, comme pour toute technologie émergente, la popularité croissante de l’IA crée une nouvelle surface d’attaque que les acteurs malveillants peuvent exploiter, introduisant ainsi de nouveaux risques et vulnérabilités dans un paysage informatique de plus en plus complexe.

Cyber-risques potentiels avec les systèmes d’IA

L’utilisation croissante des systèmes d’IA par les organisations pour une gamme d’activités (prendre de meilleures décisions, améliorer le service client, réduire les coûts, etc.) présente des problèmes potentiels. L’IA repose sur de grandes quantités de données, ce qui soulève des inquiétudes quant à la confidentialité et à la sécurité, les systèmes d’IA mal sécurisés ciblant les violations de données, entraînant un accès non autorisé, le vol ou l’utilisation abusive d’informations sensibles. Il existe également un risque que des acteurs malveillants perturbent les applications d’IA et, avec elles, les opérations commerciales.

L’utilisation de l’IA générative en elle-même peut également avoir des implications sur la sécurité des données ; les employés qui ne sont pas pleinement conscients des risques de sécurité peuvent introduire la propriété intellectuelle de l’entreprise dans une IA publique, divulguant par inadvertance des informations confidentielles ou sensibles dans le domaine public.

D’autres risques incluent la manipulation des données pour tromper l’algorithme d’IA. L’empoisonnement des données, réalisé en injectant des données malveillantes dans le modèle, peut manipuler le résultat des modèles d’apprentissage automatique, de sorte que l’IA classera mal les données et prendra de mauvaises décisions.

Lire aussi  Comment suivre vos règles en toute sécurité après Roe

Utilisation abusive possible de l’IA pour des cyberactivités malveillantes

L’IA peut également être canalisée par des acteurs de la menace pour mener des attaques d’ingénierie sociale convaincantes à grande échelle. En apprenant à repérer les modèles de comportement, il peut comprendre comment convaincre les gens qu’une vidéo, un appel téléphonique ou un e-mail est légitime, et générer du contenu de phishing pour les persuader de compromettre les réseaux et de transmettre des données sensibles (à un moment donné, les experts en sécurité ont noté AI -les e-mails de phishing générés avaient des taux d’ouverture plus élevés que ceux créés manuellement par des humains).

Les attaques telles que le déni de service, les logiciels malveillants et les rançongiciels devraient devenir plus sophistiquées avec l’utilisation (malveillante) de la technologie de l’IA. Les logiciels malveillants alimentés par l’IA, par exemple, peuvent améliorer les techniques d’évasion, automatiser les attaques et même se faire passer pour des individus.

Et les outils d’IA peuvent être utilisés pour apprendre et générer des codes malveillants à un rythme beaucoup plus rapide en utilisant les capacités d’IA génératives de Chat GPT.

De plus, l’IA peut être utilisée pour concevoir des logiciels malveillants en constante évolution afin d’éviter la détection par des outils de défense automatisés, tandis que les techniques d’IA émergentes comme les deepfakes et les voix off créer la possibilité que la reconnaissance d’image et la biométrie vocale puissent être contournées.

Se prémunir contre les attaques liées à l’IA

Protéger la surface d’attaque accrue créée par l’IA nécessite plusieurs lignes d’action, notamment des outils informatiques, l’évolution des habitudes des employés et la gouvernance des données.

Lire aussi  The Witcher saison 3 partie 1 : Que s'est-il passé au bal des mages de la fin

Des technologies telles que Informations de sécurité et gestion des événements (SIEM) amélioreront les mesures de cybersécurité d’une organisation, tandis que la mise en œuvre d’initiatives telles que des modèles de « confiance zéro », dans lesquels le trafic réseau et les applications sont constamment surveillés pour vérifier qu’ils ne sont pas nuisibles, est une bonne pratique de sécurité générale.

En raison de l’adoption rapide de l’IA, il manque encore une législation nationale et mondiale, une gouvernance et des conseils sur son utilisation, en particulier dans un environnement professionnel. Et bien que le bon sens et une compréhension générale de la sécurité informatique soient de bons points de départ, il ne suffit pas de s’y fier. Il est donc de plus en plus important que les organisations consacrent du temps et des ressources à l’élaboration de politiques internes d’utilisation et d’abus pour les employés utilisant l’IA sur le lieu de travail afin que les informations et l’intégrité soient protégées.

Ces politiques ne sont possibles qu’avec un engagement à rester informé grâce à des recherches continues et à un partage continu des connaissances ; la collaboration entre les experts en IA et les professionnels de la cybersécurité d’autres organisations est essentielle pour une approche globale et proactive de l’identification et de l’atténuation des risques liés à l’IA.

Les politiques doivent être renforcées par une bonne formation. Cela commence par des sessions régulières et le développement des compétences des cyberprofessionnels sur les risques actuels de l’IA et ceux qui pourraient émerger à l’avenir. Il est soutenu par une formation adaptée au rôle des employés dans toute l’organisation.

Lire aussi  Un alligator leucistique blanc « au-delà de la rareté » né dans un parc de reptiles de Floride | Actualités américaines

L’IA peut aussi aider…

Malgré toutes les discussions autour des nouveaux risques de sécurité introduits par l’IA, il ne faut pas oublier sa capacité à aider les organisations à protéger leurs organisations contre les cyberattaques.

La formation du personnel sur l’hygiène de la cybersécurité peut être accélérée en utilisant l’IA pour générer du contenu de formation, par exemple. Pendant ce temps, de plus en plus de logiciels de défense incluent l’IA, avec Microsoft prévoit un produit copilote de sécurité qui aideront les défenseurs à agir rapidement sur les questions liées à la sécurité.

L’IA peut également jouer un rôle important dans les tests d’intrusion en automatisant certaines tâches et en aidant les testeurs à identifier les vulnérabilités plus rapidement et avec plus de précision. Les algorithmes d’apprentissage automatique peuvent être formés sur de grands ensembles de données pour reconnaître des modèles et identifier des vulnérabilités potentielles qui peuvent ne pas être immédiatement évidentes pour les testeurs humains. Cela signifie que l’IA peut détecter et répondre aux menaces en temps réel, ainsi que repérer les modèles qui peuvent indiquer une attaque potentielle.

Une approche équilibrée

Il y a beaucoup de peur compréhensible autour de l’adoption de l’IA, et il ne fait aucun doute qu’elle augmente le niveau de risque dans de nombreux domaines. Une grande partie de sa capacité est encore inconnue, mais les professionnels de la cybersécurité doivent adopter une approche équilibrée qui les voit établir des bases de défense solides en restant informés, en adhérant aux principes de sécurité des bonnes pratiques et en mettant en œuvre des mesures de sécurité appropriées.

Leave a Reply

Your email address will not be published. Required fields are marked *

This site uses Akismet to reduce spam. Learn how your comment data is processed.

Recent News

Editor's Pick