Les deepfakes : nouvelle technique de communication

Par le 4 novembre 2019

Les fake news, fausses informations, biaisées ou mensongères (les « infox », en français) prennent une forme bien plus redoutable aujourd’hui avec les deepfakes. Ce sont des vidéos truquées mais très réalistes qui sont dopées à l’intelligence artificielle. Elles sont de véritables outils de communication : agences et artistes jouent la carte de la provocation. Les fake news n’étaient qu’un début. Voici le temps des deepfakes.

Deepfakes

Deepfakes, qu’est-ce que c’est ?

Une vidéo deepfake prête au visage et à la voix d’une personne des propos qu’elle n’a jamais tenus. Il suffit de « greffer » numériquement, sur une vidéo authentique, le visage ou des lèvres d’une autre personne pour faire illusion. La synchronisation est parfaite. Les deepfakes permet ainsi de faire dire n’importe quoi à n’importe qui… En toute vraisemblance.

Fake et deep learning

Pourquoi le mot « deepfake » ? Parce qu’il s’agit d’un fake, associé au « deep learning » (une méthode d’apprentissage automatique en intelligence artificielle). Les technologies sont disponibles et assez au point, comme DeepFacelab pour changer un visage sur une vidéo. Une application grand public comme Zao qui met justement la réalisation d’un deepfake, avec un simple smartphone, à la portée de tous. Application Iphone la plus téléchargée en Chine en septembre 2019, Zao a aussi suscité la polémique : les utilisateurs devant abandonner tous leurs droits sur leurs photos à l’éditeur de l’application… De quoi rester prudent. Hao Li, le spécialiste chinois du deepfake déclare même que nous sommes à « 6 mois, 12 maximum, de vidéos deepfake, parfaitement réalistes » et « virtuellement indétectables« . Oui, ça fait froid dans le dos.


A lire >> Comment faire une vidéo live ?


La communication s’empare des deepfakes

Le secteur de la communication n’est pas en reste, loin de là. Elle joue la carte de la provocation. Ce deepfake met en scène Donald Trump qui annonce l’éradication du sida. Incroyable. Et pour cause : en dépit du réalisme de la vidéo, les propos de Donald Trump sont faux. Réalisé par l’agence La Chose pour Solidarité Sida, cette vidéo truquée, utilisée pour récolter des fonds pour la lutte contre le sida, a obtenu 8 millions de vues cumulées en 4 jours et 4 millions de retweet avec le hashtag #treatme4all. Cette campagne de communication préparait la 6e conférence du Fonds mondial de lutte contre le sida, la tuberculose et le paludisme, à Lyon les 9 et 10 octobre 2019. Voir le bilan complet de la campagne sur le site de La Réclame.

Vidéos trafiquées : des artistes dénoncent les dérives des géants du numérique

En mai 2019, ce sont deux artistes, Bill Posters and Daniel Howe, qui se sont appropriés une vidéo de Mark Zuckerberg pour lui faire dire de sa propre bouche (enfin presque…) :

Imaginez ça une seconde : un homme avec le contrôle total des données volées de milliards de personnes, leurs secrets, leurs vies, leur avenir. Je dois tout cela à Spectre. Spectre m’a montré que quiconque contrôle les données contrôle l’avenir

Ce deepfake détonnant préparait le lancement d’une exposition des artistes à Sheffield (G-B), dénonçant le pouvoir d’influence des géants du digital (il existe pourtant des alternatives aux GAFA). La vidéo est toujours en ligne, Instagram (qui appartient à Facebook, rappelons-le) n’ayant pas souhaité la supprimer.  

Un comédien aux 20 visages

L’artiste SHAM00K s’est associé au comédien Jim Meskimen qui récite son poème « Pity the Poor Impressionist » avec le visage changeant de vingt célèbres acteurs comme Robert De Niro, Arnold Schwarzenegger ou George Clooney. Si l’interprétation du poème revient au talent du comédien, la création du deepfake est celle de SHAM00K qui propose aussi cette vidéo explicative.

Les usages de l’hypertrucage pour la bonne cause restent l’exception… Mais la raison d’être principale des deepfakes c’est de tromper et de manipuler les internautes.


A découvrir >> 3h chrono pour acquérir les réflexes en matière de cybersécurité


Deepfakes : la vidéo mais aussi la voix

L’arnaque au président. Cette escroquerie est bien connue : soutirer de l’argent à un employé en se faisant passer par son patron. Une étape supplémentaire a été franchie dans la crédibilité de ce stratagème avec l’intelligence artificielle. La mésaventure est arrivée à un PDG du Royaume-Uni en juin 2019, quand son supposé supérieur hiérarchique allemand lui a téléphoné. Il lui a demandé de verser 220 000 euros à un tiers. Sauf que… la voix était artificielle. Mais très bien imitée.

Cet exemple illustre le potentiel criminel des deepfakes audio. La facilité avec laquelle les technologies sont mises à disposition (par exemple avec Lyrebird) augure d’un usage de plus en plus banalisé des deepfakes, aussi bien audios que vidéos. Pour le pire mais peut-être pas uniquement.

Des possibilités infinies pour communiquer

En termes de communication, on devine déjà les applications possibles pour les chatbots et le vocal. On pourra au choix faire parler les machines avec des voix familières, faire revenir celles les morts ou même créer un deepfake à partir d’une simple photo… Un algorithme d’intelligence artificielle est déjà capable de produire une vidéo d’Einstein, reconstituée à partir d’une seule photo du savant et d’un enregistrement vidéo.
On pourra même animer la seule photo connue de Raspoutine, interprétant une chanson de Beyoncé… Reste à savoir quelles limites seront données à la manipulation des visages et des voix.

Pour comprendre les enjeux et découvrir les tendances du digital, je vous propose cette formation Cegos Culture digitale

/5 - Voir tous les avis

Autre dossier sur le même thème

Laisser un commentaire

Avatar

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Abonnez-vous au blog

Afin de vous abonner et pour des raisons de sécurité, votre navigateur doit accepter les cookies et le JavaScript.