Les cartes Deepfake pourraient vraiment gâcher votre sens du monde

Agrandir / Une photo macro de la ville de Seattle, Washington, sur une carte.

Les images satellites montrant l’expansion des grands camps de détention au Xinjiang, en Chine, entre 2016 et 2018 ont fourni certaines des preuves les plus solides d’une répression gouvernementale contre plus d’un million de musulmans, déclenchant une condamnation et des sanctions internationales.

D’autres images aériennes – des installations nucléaires en Iran et des sites de missiles en Corée du Nord, par exemple – ont eu un impact similaire sur les événements mondiaux. Désormais, les outils de manipulation d’images rendus possibles par l’intelligence artificielle peuvent rendre plus difficile l’acceptation de telles images à leur valeur nominale.

Dans un article publié en ligne le mois dernier, le professeur de l’Université de Washington, Bo Zhao, a utilisé des techniques d’IA similaires à celles utilisées pour créer de soi-disant deepfakes afin de modifier les images satellites de plusieurs villes. Zhao et ses collègues ont échangé des caractéristiques entre des images de Seattle et de Pékin pour montrer des bâtiments là où il n’y en avait pas à Seattle et pour supprimer des structures et les remplacer par de la verdure à Pékin.

Zhao a utilisé un algorithme appelé CycleGAN pour manipuler les photos satellites. L’algorithme, développé par des chercheurs de l’UC Berkeley, a été largement utilisé pour toutes sortes de tromperies d’images. Il forme un réseau de neurones artificiels à reconnaître les caractéristiques clés de certaines images, comme un style de peinture ou les caractéristiques d’un type particulier de carte. Un autre algorithme permet alors d’affiner les performances du premier en essayant de détecter lorsqu’une image a été manipulée.

Lire aussi  La société de Musk vise à tester prochainement un implant cérébral chez l'homme

Comme pour les clips vidéo deepfake qui prétendent montrer des personnes dans des situations compromettantes, de telles images pourraient induire les gouvernements en erreur ou se répandre sur les réseaux sociaux, semant la désinformation ou le doute sur des informations visuelles réelles.

«Je pense absolument que c’est un gros problème qui ne touchera peut-être pas le citoyen moyen demain, mais qui jouera un rôle beaucoup plus important dans les coulisses au cours de la prochaine décennie», déclare Grant McKenzie, professeur adjoint de science des données spatiales à l’Université McGill au Canada. qui n’était pas impliqué dans les travaux.

«Imaginez un monde où un gouvernement d’État, ou un autre acteur, peut manipuler de manière réaliste des images pour ne montrer rien là-bas ou une mise en page différente», dit McKenzie. “Je ne suis pas tout à fait sûr de ce qui peut être fait pour l’arrêter à ce stade.”

Quelques images satellites grossièrement manipulées se sont déjà répandues de manière virale sur les réseaux sociaux, y compris une photographie prétendant montrer l’Inde illuminée pendant le festival hindou de Diwali qui a apparemment été retouchée à la main. Ce n’est peut-être qu’une question de temps avant que des images satellites bien plus sophistiquées ne soient utilisées pour, par exemple, cacher des installations d’armes ou justifier à tort une action militaire.

Gabrielle Lim, chercheuse au Shorenstein Center de la Harvard Kennedy School qui se concentre sur la manipulation des médias, affirme que les cartes peuvent être utilisées pour induire en erreur sans l’IA. Elle montre du doigt images diffusées en ligne suggérant qu’Alexandria Ocasio-Cortez n’était pas là où elle prétendait être lors de l’insurrection du Capitole le 6 janvier, ainsi que des passeports chinois montrant une région contestée de la mer de Chine méridionale faisant partie de la Chine. «Aucune technologie sophistiquée, mais elle peut atteindre des objectifs similaires», dit Lim.

Lire aussi  Pleine lune aux fraises : ce qu'il faut savoir sur la super lune

L’imagerie aérienne manipulée pourrait également avoir une importance commerciale, étant donné que ces images sont extrêmement précieuses pour la cartographie numérique, le suivi des systèmes météorologiques et l’orientation des investissements.

Les services de renseignement américains ont reconnu que les images satellitaires manipulées constituent une menace croissante. «Les adversaires peuvent utiliser des informations fausses ou manipulées pour influencer notre compréhension du monde», déclare un porte-parole de la National Geospatial-Intelligence Agency, une partie du Pentagone qui supervise la collecte, l’analyse et la distribution d’informations géospatiales.

Le porte-parole affirme que l’analyse médico-légale peut aider à identifier les images falsifiées, mais reconnaît que la montée des contrefaçons automatisées peut nécessiter de nouvelles approches. Le logiciel peut être en mesure d’identifier des signes révélateurs de manipulation, tels que des artefacts visuels ou des modifications des données d’un fichier. Mais l’IA peut apprendre à supprimer de tels signaux, créant un jeu du chat et de la souris entre les faux et les faux-observateurs.

«L’importance de connaître, de valider et de faire confiance à nos sources ne fait qu’augmenter, et la technologie a un rôle important à jouer pour y parvenir», déclare le porte-parole.

Le repérage d’images manipulées avec l’IA est devenu un domaine majeur de la recherche universitaire, industrielle et gouvernementale. Les grandes entreprises technologiques telles que Facebook, qui craignent de diffuser de la désinformation, soutiennent les efforts visant à automatiser l’identification des vidéos deepfake.

Zhao, de l’Université de Washington, prévoit d’explorer des moyens d’identifier automatiquement les images satellite deepfake. Il dit qu’étudier comment les paysages changent au fil du temps pourrait aider à signaler les caractéristiques suspectes. «Les modèles spatio-temporels seront vraiment importants», dit-il.

Lire aussi  Une startup veut construire une station spatiale pour ravitailler des satellites • -

Cependant, Zhao note que même si le gouvernement dispose de la technologie nécessaire pour repérer ces contrefaçons, le public pourrait être pris au dépourvu. «S’il y a une image satellite largement répandue dans les médias sociaux, cela pourrait être un problème», dit-il.

Cette histoire est apparue pour la première fois sur wired.com.

Leave a Reply

Your email address will not be published. Required fields are marked *

This site uses Akismet to reduce spam. Learn how your comment data is processed.

Recent News

Editor's Pick