Comment les deepfakes peuvent être utilisés au Canada par des extrémistes violents

Comment les deepfakes peuvent être utilisés au Canada par des extrémistes violents

OTTAWA –

Les extrémistes violents qui n’ont pas les moyens de mener une attaque au Canada pourraient compenser en perpétrant des canulars à l’aide de l’intelligence artificielle, selon une analyse récemment publiée.

Le rapport de mai du Centre intégré d’évaluation du terrorisme fédéral, obtenu grâce à la Loi sur l’accès à l’information, prévient qu’une telle supercherie visuelle, connue sous le nom de deepfake, constitue « une menace persistante pour la sécurité publique ».

Le rapport du centre d’évaluation a été motivé par une image de fumée noire s’élevant près du Pentagone américain, apparue le 22 mai sur les réseaux sociaux, provoquant une baisse temporaire des stocks. Les autorités ont confirmé qu’il n’y avait pas d’urgence.

Les images synthétiques, la vidéo et l’audio sont de plus en plus faciles à générer grâce à des applications pilotées par l’intelligence artificielle, permettant aux gens de diffuser de fausses informations et de semer la confusion.

Le centre, qui emploie des membres de la communauté de la sécurité et du renseignement, a prédit que les acteurs de la menace créeraient « presque certainement » de fausses images illustrant les intérêts canadiens au cours de l’année à venir, compte tenu des outils disponibles et de la prévalence de la désinformation et de la désinformation.

Le Mécanisme de réponse rapide du Canada, une unité fédérale qui surveille la manipulation et l’ingérence de l’information étrangère, a récemment souligné un tel épisode, affirmant qu’il provenait probablement du gouvernement chinois.

L’opération étrangère, qui a débuté en août, a utilisé un réseau de comptes de médias sociaux nouveaux ou piratés pour publier des commentaires et des vidéos remettant en question les normes politiques et éthiques de divers députés, en utilisant une personnalité populaire de langue chinoise au Canada, a déclaré RRM Canada. .

Lire aussi  Revue 'Twinkle Star Sprites' - Comme une étoile filante - -

L’analyse du Centre d’évaluation du terrorisme indique que les extrémistes pourraient utiliser les deepfakes pour prôner la violence, promouvoir des récits spécifiques, provoquer la panique, ternir les réputations et éroder la confiance dans le gouvernement et les institutions sociétales.

« Les canulars offrent aux extrémistes violents une technique efficace pour perturber la vie quotidienne ou pour intimider des groupes ou des individus ciblés, notamment en détournant potentiellement les ressources de sécurité de leurs tâches habituelles », indique le rapport.

« La poursuite des canulars deepfake pourrait entraîner un environnement concurrentiel entre les acteurs de la menace, dans lequel l’objectif est de provoquer des impacts croissants dans le monde réel, tels que des dommages économiques. »

Les extrémistes violents dotés de « capacités limitées » sont plus susceptibles de recourir à des canulars que les acteurs capables de mener « des actions plus directes », conclut le rapport.

« Les médias deepfakes rendront plus difficile aux autorités de réagir, de prioriser et d’enquêter sur les menaces extrémistes violentes. »

En mai, le Service canadien du renseignement de sécurité a invité des experts et des praticiens de la sécurité à un atelier pour explorer les menaces posées par ces technologies de désinformation.

Un rapport qui en a résulté, basé sur des documents présentés lors de l’événement, a déclaré que les organisations terroristes « reconnaissent sûrement » le potentiel du recours aux deepfakes dans la diffusion de la propagande et la coordination des attaques.

« Le spectre imminent des deepfakes présente une menace sans précédent pour la sécurité nationale. L’évolution et la prolifération rapides de cette technologie n’exigent rien de moins qu’une réponse résolue et globale », indique le rapport.

Lire aussi  Apple a-t-il réellement surmonté sa peur des boutons ?

Les démocraties doivent investir dans des technologies de pointe de détection des deepfakes capables de démasquer les imposteurs numériques, ainsi que de criminaliser la création et la diffusion de deepfakes, ajoute-t-il.

Cependant, la bataille contre les deepfakes ne peut être gagnée uniquement grâce à la technologie et à la législation, prévient le rapport.

« Les citoyens doivent être dotés du pouvoir de la pensée critique et de l’éducation aux médias, leur permettant ainsi de discerner la vérité de la fabrication. En favorisant une société professionnellement sceptique, informée et résiliente, les gouvernements peuvent construire un bouclier contre les effets corrosifs des deepfakes.

Pourtant, cette tâche pourrait encore s’avérer difficile.

Ce mois-ci, le Centre canadien pour la cybersécurité a souligné dans un rapport sur les menaces contre les institutions démocratiques que « la capacité de générer des deepfakes dépasse notre capacité à les détecter ».

« Les modèles de détection actuels, accessibles au public, ont du mal à faire la distinction de manière fiable entre les deepfakes et le contenu réel. »

Ce rapport de La Presse Canadienne a été publié pour la première fois le 13 décembre 2023.

Leave a Reply

Your email address will not be published. Required fields are marked *

This site uses Akismet to reduce spam. Learn how your comment data is processed.

Recent News

Editor's Pick