Raymond Joseph ANALYSE : Les « deepfakes » menacent la confiance du public dans les faits

Les nouvelles technologies facilitent la manipulation des vidéos et rend les résultats factices plus convaincants. Mais à quel point devriez-vous vous en préoccuper ?

Les nouvelles technologies facilitent la manipulation des vidéos et rend les résultats factices plus convaincants et plus susceptibles d’être partagés en ligne.

Mais à quel point les experts sont-ils inquiets et à quel point devriez-vous vous en préoccuper ?

Sur un ton sinistre, le PDG de Facebook, Mark Zuckerberg, se vante dans une vidéo en ligne  où il souligne que « quiconque contrôle les données contrôle l’avenir ».

Dans une autre vidéo, l’ancien président américain Barack Obama qualifie son successeur, Donald Trump, d’ « incompétent total et parfait »

Les deux vidéos sont fausses. Elles ont été conçues pour mettre en évidence les dangers que représentent de fausses vidéos mettant en scène des personnes bien connues qui disent et font des choses scandaleuses.

Bienvenue dans le monde des deepfakes – une fusion entre « apprentissage approfondi (à l’aide d’algorithmes) » et « faux » – qui utilise l’apprentissage automatique et l’intelligence artificielle pour créer de fausses vidéos.

Du monde du porno au Pentagone

Les deepfakes ont attiré l’attention du public pour la première fois en 2018. Mais, ils ont leur origine – comme pas mal de technologies couramment utilisées, telles que le commerce électronique, la diffusion en direct et les caméras vidéo – dans le monde trouble de la pornographie.

Une recherche basique sur les deepfakes sur Internet ainsi que les noms de célébrités comme Daisy Ridley, Emma Watson, Taylor Swift ou Katy Perry renvoient à de multiples liens vers une grande variété de sites Web sur la pornographie avec des femmes célèbres s’adonnant prétendument à des actes sexuels.

Le deepfake à usage pornographique, a initialement fait son apparition sur Internet en 2017. Depuis lors, la publication d’un logiciel libre a rendu relativement facile pour n’importe qui la falsification de vidéos.

Mais ce n’est pas seulement la vidéo qui peut être modifiée : un outil développé par un groupe de scientifiques peut modifier le dialogue dans une vidéo, simplement en éditant un script.

Le gouvernement des États-Unis est tellement préoccupé par les implications pour la sécurité nationale que le comité du renseignement de la Chambre des représentants a récemment tenu des auditions sur le deepfake, alors que le département de la Défense des États-Unis a intensifié ses efforts pour les combattre.

L’émergence des deepfakes a déclenché une « course aux armements » parmi les chercheurs et les techniciens, pour créer des outils permettant de lutter contre les fausses vidéos.

Les chercheurs en intelligence artificielle dépassés

Mais de nombreux chercheurs de haut niveau en intelligence artificielle se disent dépassés.

Hany Farid, professeur en sciences informatiques à l’Université de Californie à Berkeley, a déclaré au Washington Post que les chercheurs « restent à la traîne, principalement parce que nous sommes si peu nombreux ». « Probablement à hauteur de 100 contre 1 », a-t-il précisé.

Farid dirige des recherches pour développer un outil biométrique qui cartographie les données faciales. Cela inclut les particularités qui sont propres à chaque individu, comme la manière dont il bouge la tête, le corps et les mains tout en parlant. Mais c’est un travail qui prend du temps.

Bien que les deepfakes ne représentent pas encore un problème majeur, Farid a précisé que ce n’est « qu’une question de temps » avant qu’ils ne soient largement déployés en politique.

« Si vous regardez… à quel point ces fausses vidéos sont sophistiquées, convaincantes et fascinantes, ce n’est qu’une question de temps. Si ce n’est pas 2020 [les élections américaines], alors ce sera les élections suivantes ».

Mais il a dit qu’un problème plus important est la question de la confiance. « Que se passe-t-il lorsque nous entrons dans un avenir où nous ne croyons tout simplement pas à ce que nous lisons, entendons ou voyons en ligne ? Comment pouvons-nous avoir une démocratie, comment pouvons-nous nous mettre d’accord sur les faits de base de ce qui se passe dans le monde » ?

D’autres experts appellent à la prudence

L’équipe de Farid n’est que l’une des nombreuses à travers le monde travaillant à créer des outils de lutte contre les deepfakes, même si la technologie utilisée pour les fabriquer continue de s’améliorer.

Claire Wardle, responsable de la recherche chez First Draft News, une organisation visant à relever les défis liés à la confiance et à la vérité à l’ère numérique, a déclaré qu’elle n’était pas encore trop préoccupée par les deepfakes.

« Peut-être que je suis naïve, mais ce n’est pas ce qui m’inquiète du tout », écrit-elle dans un blog pour Niemann Labs.

« Les universitaires et les experts s’accordent sur le fait que nous sommes à environ quatre ans du niveau de sophistication qui pourrait causer de véritables dommages et qu’il existe actuellement une course aux armes pour la production d’outils permettant de détecter efficacement ce type de contenu ».

Ce dont elle a dit être « très inquiète », c’est « la diffusion à dose homéopathique dans la société de mèmes hyper partisans qui entraînent la division ».

« Je suis particulièrement inquiète car la plupart de ces contenus sont partagés dans des espaces fermés ou éphémères, tels que des groupes Facebook ou WhatsApp, SnapChat ou Instagram Stories. Alors que nous passons plus de temps dans ces types d’espaces en ligne, habités par nos amis les plus proches et notre famille, je pense que nous sommes encore plus sensibles à ces messages émotionnels, visuellement démesurés ».

Une escalade de la guerre de l’information

Ben Nimmo, chercheur principal en défense de l’information au Digital Forensic Research Lab à Atlantic Council, s’est fait l’écho de l’opinion de Claire Wardle. Il était à l’avant-garde des initiatives ayant abouti à démasquer l’implication russe dans les élections américaines.

« Pour le moment, nous n’avons pas vu de deepfakes utilisés », a-t-il déclaré dans une récente interview par courrier électronique.

« Le gouvernement russe a utilisé beaucoup d’imitations superficielles, comme des images manipulées, qui ont été démasquées. Les deepfakes seraient une nouvelle escalade de la guerre de l’information. Ce n’est probablement qu’une question de temps ».

Mais les deepfakes représentent néanmoins un risque, car ils pourraient amener les journalistes à commettre des erreurs, a-t-il averti.

« Les journalistes doivent être conscients du problème des deepfakes et toujours rechercher des sources qui corroborent », a-t-il déclaré.

« En fin de compte, cependant, ils devront développer une relation plus étroite avec les plateformes technologiques, qui possèdent la meilleure expertise technique et qui ont tout intérêt à ne pas se laisser submerger par du faux ».

Les journalistes doivent retourner à l’essentiel

Kyle Findlay, qui a joué un rôle clé dans l’identification des robots Twitter qui ont contribué à semer la tension raciale en Afrique du Sud, a déclaré à Africa Check : « Pour l’instant, les deepfakes contiennent des schémas statistiques qui les rendent identifiables par des machines. Avec le temps, ceux-ci pourraient être lissés par les fabricants ».

Il a déclaré que la guerre contre les deepfakes « se transformerait en une course aux armes. Au fur et à mesure que les outils de détection apparaîtront, ils seront contournés ».

« Nous devrons peut-être fournir aux journalistes des outils d’identification automatisée de la provenance des images, tels que les plug-ins que vous utilisez pour la recherche d’images inversées, afin de retracer automatiquement le circuit de partage de tous les médias jusqu’à leurs sources ».

Mais les réponses ne sont finalement pas uniquement techniques, il ne s’agit que de retourner au bon vieux journalisme.

« Traitez tout avec suspicion. Concentrez-vous sur les noms en lesquels vous avez confiance et insistez sur les traces visibles reliant les contenus que vous visualisez à ces sources fiables ».

© Copyright Africa Check 2019. Vous pouvez reproduire cet article totalement ou partiellement dans le cadre d’un reportage et /ou d’une discussion sur l’information et l’actualité, à condition d’en attribuer le crédit à “Africa Check, une organisation non partisane qui encourage la précision dans le débat public et dans les médias. Twitter @AfricaCheck_FR et fr.africacheck.org”.

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *

*

Africa Check encourage une discussion franche, ouverte et inclusive sur les sujets abordés sur son site Web. Pour que la discussion réponde à ces objectifs, nous avons établi un règlement intérieur simple pour les contributions.

Les contributions doivent:

  • Etre en relation avec le sujet de l’artcle ou de la publication
  • Être écrit en francais

Les contributions ne peuvent pas:

  • Etre dans un langage ou contenir des informations diffamatoires, obscènes, abusives, relever de la menace ou du harcèlement;
  • Encourager ou constituer un comportement illégal
  • Véhiculer un message à l’égard duquel une autre partie détient les droits, lorsque vous n’avez pas acquis ces droits;
  • Contenir des informations personnelles sur vous ou d’autres personnes qui pourraient mettre quelqu’un en danger;
  • Contenir des URL inappropriées;
  • Constituer du courrier indésirable ou de la publicité non autorisée;
  • Être soumis à plusieurs reprises comme commentaires sur le même article ou post;

En faisant une contribution, vous acceptez qu’en plus de ce règlement intérieur, vous soyez lié par les . Les conditions générales d’Africa Check peuvent être consultées sur le site Web.

*