La question du mois

Le Deepfake prépare-t-il l’apocalypse de l’information ?

deepfakeLes fake news (fausses infos) ont envahi les réseaux sociaux et on ne sait plus à quel organe de presse se vouer tant l’information est manipulée, orientée, retouchée, falsifiée. Pour déjouer tous ces pièges, quelques sites, animés par des journalistes ou de simples particuliers, tentent de faire la lumière sur les contre-vérités qui circulent dans les médias en général, et sur le web en particulier. Parmi eux, citons les Décodeurs, L’envers de l’info sur franceinfo.fr (également sur le canal 27 de la télévision), ou encore le site qui débusque les intox, hoaxbuster.com. L’extension Newsguard de Microsoft dans le navigateur Edge permet aussi d’éviter de répandre de fausses informations. Mais le pire est à venir. La technologie du deepfake est en passe de révolutionner l’univers de l’information, et il sera encore plus difficile de démêler le vrai du faux d’ici peu. Voici pourquoi : cette technologie permet de coller n’importe quel visage sur n’importe quelle vidéo, et n’importe quelles paroles sur un discours enregistré (avec synchronisation du mouvement des lèvres).

Le Deepfake permet de falsifier n’importe quelle vidéo

Cette expression est une contraction de “deep learning”, une technique d’apprentissage artificiel très pointue, et de fake news. Il s’agit, par exemple, de créer de toutes pièces la vidéo d’un discours politique, de Barack Obama par exemple, grâce à un modèle virtuel de l’ancien président américain, appris sur les vidéos existantes.

C’est en octobre 2017, sur le site communautaire Reddit, qu’apparaissent les premiers deepfakes. Utilisés à l‘origine pour créer de fausses sextapes de célébrités, ces montages vidéo superposent des images (un visage souvent) sur des prises de vues réelles. Grâce à cette manipulation, Scarlett Johansson ou encore Emma Watson se sont retrouvées actrices de vidéos pornographiques falsifiées. Le phénomène s’est également étendu au revenge porn (la publication d’un contenu sexuellement explicite sans le consentement de la personne impliquée), entraînant en février 2018 la fermeture du « sujet » Reddit concerné. Depuis, la technologie s’est démocratisée. Et, dans des mains mieux intentionnées, a donné lieu à des montages facétieux. En tête, Nicolas Cage parachuté dans des rôles de cinéma qu’il n’a jamais interprétés. ( source : Telerama)

Une simple appli suffit : fakeapp.

Pour Vincent Nozick, enseignant chercheur au laboratoire d’informatique Gaspard Monge (LIGM), “Le danger est que ces deepfake soient utilisés pour influencer des élections”. En septembre dernier, des élus américains ont même demandé au gouvernement d’inscrire les deep fake sur la liste des menaces à la sécurité nationale. De fausses vidéos montrant des politiques tenir des propos agressifs ou avoir un comportement déplacé pourraient vite, en effet, ternir leur image ou engendrer des crises avant que la supercherie ne soit éventée. Ainsi, le visage du président argentin Mauricio Macri a été remplacé par celui d’Adolf Hitler, et le visage d’Angela Merkel par celui de Donald Trump.

Les dangers du deepfake

Vincent Claveau, chercheur CNRS à l’Irisa (Institut de recherche en informatique et systèmes aléatoires) estime qu’il s’agit d’un véritable changement de paradigme : « Les vidéos ne sont plus l’alpha et l’omega de la preuve. Il va falloir s’habituer. »

deepfakeCette technologie, outre la manipulation politique qu’elle permet, peut avoir d’autres conséquences. Comme l’escroquerie. “Nos conversations sur Skype pourront être manipulées sur le vif : nous croirons discuter avec un ami en qui nous avons toute confiance, alors que nous serons en contact avec un faussaire utilisant des algorithmes permettant d’imiter en direct le visage, le corps, les expressions, la voix de cette personne », assurait, aux Echos, Giorgio Patrini, le cofondateur de DeepTrace (une société italienne spécialisée dans la détection des deepfakes).

Outre ces dangers politiques et économiques, c’est toute la société de l’image qui risque de basculer dans la paranoïa. Depuis que nous avons compris que tout ce qui était écrit n’était pas vrai, et que nous avons assimilé les usages de Photoshop (logiciel de retouche d’images), nous avons appris à nous méfier. La vidéo était donc le seul gage d’une information à peu près authentique, avec la voix. Avec le deepfake, nous entrons dans une nouvelle ère, où plus rien ne sera à l’abri de la manipulation. « Ce qu’il pourrait y avoir d’inédit avec cette technologie, c’est l’étendue des usages qu’on peut lui trouver, voire la crédibilité des images produites. […] Cependant, ce qui est vraiment nouveau, c’est le fait que tout le monde puisse l’utiliser. C’est ça qui est déstabilisant. Ça affecte forcément la confiance et la fiabilité de ce qu’on peut voir en ligne. » explique Deborah Johnson, professeure émérite d’éthique appliquée au département d’ingénierie de l’université de Virginie.

Quelles solutions pour contrer les deepfakes ?

deepfake«Il faudrait mettre au point une norme, reposant sur la blockchain, permettant à quiconque de vérifier d’où vient une information, quel que soit le canal par lequel elle lui parvient (réseau social, app de messagerie comme WhatsApp, etc.)», imagine le professeur Jean-Hugues Roy, professeur de journalisme à l’Université du Québec à Montréal.

Les expérimentations se multiplient dans le monde anglo-saxon. Les applications TruePic et et Serelay permettent déjà d’authentifier un contenu dès la prise de vue pour repérer ensuite toute altération. Des chercheurs de l’Université d’Etat de New York ont développé un algorithme permettant de repérer les passages où les yeux des personnes ne clignent pas normalement.

«Si vous avez un algorithme qui décèle le non-clignement des yeux, quelqu’un va créer un algorithme qui va faire ce clignement, c’est une vraie course à l’armement!», relève Steven Meyer, fondateur de l’entreprise genevoise ZENData. L’expert en cyber-sécurité mise plus sur l’esprit critique des citoyens pour répondre au problème: «Nous avons appris que tout n’est pas vrai sur Facebook, il faut maintenant être sceptique par rapport aux vidéos et penser qu’elles peuvent être fausses.»

Caroline Janvier, de la République en marche a demandé en février 2019 à Mounir Mahjoubi, le secrétaire d’État en charge des sujets numériques, quels sont les plans de l’exécutif pour « lutter efficacement » contre ces vidéos. Car pour l’élue, il y a danger pour la qualité du débat public.

Face à cette nouvelle dérive de l’intelligence artificielle, il est plus que jamais urgent de développer notre sens critique et de renforcer nos liens humains, afin de ne pas succomber aux manipulations malveillantes de ceux qui nous prennent pour des pions sur un échiquier.

 

Partagez et likez !

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *

*

Vous pouvez utiliser ces balises et attributs HTML : <a href="" title=""> <abbr title=""> <acronym title=""> <b> <blockquote cite=""> <cite> <code> <del datetime=""> <em> <i> <q cite=""> <s> <strike> <strong>

Aimer c'est partager !