Expliqué : Que sont les deepfakes et comment en détecter un ?

Expliqué : Que sont les deepfakes et comment en détecter un ?

Les fausses vidéos générées par l’intelligence artificielle (IA) qui peuvent facilement manipuler les utilisateurs réguliers sont désormais monnaie courante. Ces vidéos sont apparues alors que les ordinateurs modernes sont devenus beaucoup plus efficaces pour simuler la réalité. Par exemple, le cinéma moderne dépend beaucoup des décors, des décors, des personnages et même des effets visuels générés par ordinateur. Ces lieux et accessoires numériques ont remplacé les lieux physiques car ces scènes se distinguent à peine de la réalité. L’une des dernières choses courantes dans l’imagerie informatique, faux faux sont conçus en programmant l’IA pour faire ressembler une personne à une autre dans une vidéo enregistrée.
Que sont les deepfakes ?
Le terme « deepfake » est dérivé d’une forme d’intelligence artificielle appelée apprentissage en profondeur. Comme leur nom l’indique, les deepfakes utilisent l’apprentissage en profondeur faire des images de faux événements. Les algorithmes de Deep Learning peuvent apprendre par eux-mêmes à résoudre des problèmes impliquant de grands ensembles de données. Cette technologie est ensuite utilisée pour échanger des visages dans des vidéos et d’autres contenus numériques afin de créer de faux médias réalistes. De plus, les deepfakes ne se limitent pas aux vidéos, cette technologie peut être utilisée pour créer d’autres faux contenus comme des images, de l’audio, etc.
Comment travaillent-ils?
Il existe plusieurs méthodes pour créer des deepfakes, cependant, la plus courante dépend de l’utilisation de réseaux de neurones profonds qui impliquent des auto-encodeurs pour appliquer une technique d’échange de visage. Habituellement, ceux-ci sont réalisés sur une vidéo cible qui sert de base au deepfake, puis l’IA utilise une collection de clips vidéo de la personne que vous souhaitez insérer dans la cible pour remplacer la personne réelle dans la vidéo.
L’auto-encodeur est un programme d’IA d’apprentissage en profondeur qui peut étudier plusieurs clips vidéo pour comprendre à quoi ressemble une personne sous différents angles et situations. En trouvant des caractéristiques communes, il cartographie et remplace le visage de la personne par celui de la vidéo cible.
Réseaux antagonistes génératifs (GAN) sont un autre type d’apprentissage automatique qui peut être utilisé pour créer des deepfakes. Les GAN sont plus avancés car ils rendent plus difficile pour les détecteurs de deepfake de les décoder car ils utilisent plusieurs tours pour détecter et améliorer les défauts du deepfake. Les experts pensent que les deepfakes deviendront beaucoup plus sophistiqués à mesure que la technologie se développera
De nos jours, générer des deepfakes est même facile pour les débutants car plusieurs applications et logiciels aident à les créer. GitHubune communauté de développement de logiciels open source, est également un lieu où l’on peut trouver une énorme quantité de logiciels deepfake.
Comment détecter les deepfakes ?
Les utilisateurs en ligne sont également devenus plus conscients et plus aptes à détecter les fausses nouvelles. Pour que la cybersécurité s’améliore, davantage de technologies de détection de deepfake doivent émerger pour empêcher la propagation de la désinformation. Auparavant, les deepfakes étaient détectés en suivant le clignotement de la personne dans une vidéo. Lorsqu’un sujet ne clignote jamais ou clignote très fréquemment ou de manière anormale, il est possible que la vidéo soit un deepfake. Cependant, les nouveaux deepfakes ont pu surmonter ce problème. Une autre façon de détecter un deepfake consiste à surveiller la peau, les cheveux ou les visages qui peuvent sembler plus flous que l’environnement dans lequel ils sont placés et la mise au point peut sembler anormalement douce.
Parfois, les algorithmes de deepfake conservent l’éclairage des clips qui ont servi de modèles à la fausse vidéo. L’éclairage mal adapté dans la vidéo cible peut également révéler un deepfake. Si la vidéo est truquée et que l’audio d’origine n’est pas manipulé avec autant de soin, l’audio peut ne pas sembler correspondre à la personne.

Leave a Reply

Your email address will not be published. Required fields are marked *

This site uses Akismet to reduce spam. Learn how your comment data is processed.

Recent News

Editor's Pick