RCJLes DeepFakes
RCJ S3E32 - Chronique Tech -
Les Deep Fakes
Les deep fakes, nés de la fusion entre "deep learning" et "fake", sont des créations numériques où l'intelligence artificielle permet de remplacer par exemple le visage d'une personne par une autre ou de pouvoir lui donner vie en faisant parler même une personne disparue. Malgré les risques liés à cette technologie, j’y viendrai, elle offre aussi des possibilités étonnantes.
Grâce aux algorithmes d'apprentissage profond, les deepfakes analysent et combinent des milliers d'images pour créer des vidéos tout à fait convaincantes. Si cette technologie peut servir à diffuser de fausses informations ou à porter atteinte à la vie privée, elle présente également un potentiel éducatif et culturel fascinant.
En effet, les deep fakes peuvent être utilisés pour recréer des événements historiques avec un réalisme saisissant. En combinant des photos et des documents d'époque avec les techniques de l'IA, il est possible de faire revivre des moments marquants, comme des discours célèbres ou des scènes de la vie quotidienne. Ces reconstitutions peuvent offrir un aperçu unique du passé et contribuer à une meilleure compréhension de l'histoire. Ainsi pour le soulèvement de Varsovie, en reprenant en plus des autres connues, les 33 photos inédites par exemple prises par un pompier polonais, les rares vidéos en notre possession, les témoignages de survivants et avec l’aide de services comme Deep Fakes web, Zao ou Reface, on peut reconstituer l’histoire et transmettre ainsi aux plus jeunes.
Cependant, il est crucial de prendre en compte les dérives potentielles des deep fakes. Les fausses informations et la manipulation de l'opinion publique sont parmi les dangers les plus préoccupants. Des vidéos truquées peuvent être créées pour nuire à la réputation de personnalités publiques ou influencer les électeurs.
Le cyberharcèlement et l'atteinte à la vie privée sont d'autres conséquences néfastes des deep fakes. Des montages diffamatoires ou pornographiques peuvent avoir des répercussions graves pour les victimes, laissant les législations actuelles dépassées par l'évolution rapide de cette technologie.
Pour lutter contre ces menaces, des outils de détection automatique sont développés et des législations spécifiques sont en cours d'élaboration.
Parmi les outils de détection, Intel a mis au point Fakecatcher qui permet d’identifier les deep fakes vidéo avec un taux de réussite de 96 %. Pour savoir s'il s'agit d'un faux, l’algorithme parvient à repérer les subtiles différences de lumière générées par les réseaux sanguins du visage de la personne.
Nous avons pour habitude de vérifier si une information est vraie et nos sources chaque 1er avril de chaque année, avec l’importante évolution des deep fakes peut être qu’enfin nous allons les vérifier tous les jours de l’année.
A la semaine prochaine !