Retour sur Africa Check

BLOG : Africa Check rejoint le programme de fact-checking de Facebook

Facebook est arrivé à un point de non-retour le 15 avril 2013. Après l’attentat du marathon de Boston, des photos du coureur Jeff Bauman, qui a perdu ses deux jambes, ont inondé le réseau social.


Supprimer ou ne pas supprimer ? Le manuel de procédures de Facebook à l’époque était clair, comme le dit le podcast Radiolab de la New York Public Radio.

Si Facebook voulait continuer à être perçue comme une entreprise de technologie neutre, la petite équipe aurait dû s'en tenir à ses règles et supprimer l'image.

Au lieu de cela, un dirigeant de Facebook "a publié une note", faisant une exception. Et donc, en jugeant ce qui est digne d'intérêt, Facebook est devenue un organe de presse, ce jour-là.

 

Un projet pour réduire la propagation des fausses nouvelles


Nous sommes au lendemain d'une soirée de célébration de l’Internet en tant que grand outil d’éducation et de facilitation de la démocratie. Au réveil, nous sommes obligés de commencer à examiner le désordre laissé par deux invités indésirables : la désinformation et l’intoxication.

Sur Facebook, on peut tomber sur un discours de haine contre la minorité Rohingya au Myanmar tout comme l'apologie de la guerre extrajudiciaire contre la drogue du président philippin Rodrigo Duterte. La plateforme a aussi été à l’origine de violations de données personnelles et d’une ingérence transfrontalière lors d'élections.

Facebook a longtemps fui son devoir d'éditeur, mais déclare désormais avoir « la responsabilité de régler les problèmes » sur sa plateforme.

Sa campagne contre les fausses informations inclut la suppression des faux comptes, le fait de fournir aux gens des éléments de contexte sur les articles qu'ils lisent, et la réduction de la propagation des fausses nouvelles.

La dernière partie est celle où notre communauté, le Réseau international de fact-checking (IFCN), entre en jeu. Et depuis le 6 novembre 2018 (4 octobre pour le bureau anglophone), Africa Check rejoint, dans cet effort collectif, 27 partenaires dans 17 pays.

 

 

Les fact-chekeurs ne suppriment pas le contenu


Dans le cadre de son programme de fact-checking par une tierce partie, Facebook permet à ses partenaires de voir des articles publics, des photos ou des vidéos que les machines de Facebook, ou des utilisateurs habituels, ont signalés comme potentiellement inexacts. (Voici comment signaler quelque chose que vous soupçonnez d'être faux.)

Les fact-checkeurs évaluent la déclaration et lui attribuent l’une des huit appréciations retenues, telles que « faux », « confus » ou « vrai ».

Si la déclaration principale se révèle inexacte, Facebook réduit la diffusion du contenu sur le réseau. Lorsque cela apparaît dans le fil d’actualités de quelqu'un, des articles connexes sont vérifiés par des fact-chekeurs. Les personnes qui ont précédemment partagé le contenu seront également informées de la publication d’articles supplémentaires.

« Nous sommes convaincus que le contenu trompeur qui se trouve en-dessous de la hiérarchie crée le juste équilibre entre encourager la liberté d'expression et promouvoir une communauté sûre et authentique », a déclaré Tessa Lyons, chef de produit à Facebook, qui s'intéresse à l'exactitude de l'information dans les fils d'actualité.

Mais il est important de noter les limites de la campagne.

Le contenu n'est pas supprimé. Si le contenu inexact a été publié par une page que vous suivez ou par un autre significatif, il sera probablement encore visible dans votre fil d'actualités. Mais vous ne le verrez probablement pas si un ancien collègue « l’aime ».

La note peut être renversée. S'il s'agit d'une véritable erreur, la personne ou l'éditeur peut corriger le contenu et faire supprimer l’attaque, comme l'appelle Facebook.

Le contenu privé, la satire et les opinions ne sont pas concernés. Dans ces cas, les fact-checkeurs évaluent le contenu signalé comme « non éligible ».

Ainsi, le pouvoir et la responsabilité ne sont pas conférés à une seule organisation. (Les organisations qui vérifient les faits doivent présenter une nouvelle demande chaque année pour pouvoir être certifiées.)

Et oui, Facebook paie les organisations qui vérifient les faits pour le travail qu’elles font. Il est tout à fait juste que l’une des plus grandes entreprises au monde indemnise les petites équipes qui l’aident à nettoyer.

 

 

Mettre l’accent sur le contenu nuisible


Le programme de fact-checking de Facebook n’est pas sans problèmes. Il y a beaucoup de fact-checkeurs mais beaucoup plus de faux contenus. Le réseau social a également été lent, voire absent, pour aider à protéger les fact-checkeurs qui, au Brésil et aux Philippines, ont été soumis à un harcèlement implacable.

Il y a ensuite des accusations de partialité, en particulier la vision à travers le "prisme partisan" de la politique américaine. Autre chose qui ne facilite pas non plus le travail : le fait que Facebook n'ait pas encore élaboré de directives sur les types d'informations inexactes qu'elle souhaite faire vérifier par ses partenaires fact-checkers.

Dès qu’Africa Check commencera à vérifier les faits pour Facebook, nous nous concentrerons sur les faux traitements médicaux, les rumeurs de faux crimes et des éléments tels que le type de contenu pouvant conduire à de mauvaises décisions et à des dommages physiques.

(Je ne peux pas m'empêcher de grincer des dents lorsque Facebook parle d'empêcher les "mauvaises personnes" de créer de "mauvaises expériences" pour les utilisateurs. Comme si le lynchage par une foule ressemblait à une simple virée nocturne.)

Le programme de fact-checking est-il une solution parfaite et permanente ? Absolument pas.

Mais le mal est fait et il est temps de trouver un remède.

J'espère avoir de vos nouvelles à [email protected].

Anim Van Wyk est rédactrice en chef du site anglophone d'Africa Check. Africa Check est une organisation non partisane et indépendante de fact-checking.

Lisez la version originale de cet article ici.

 

Republiez notre contenu gratuitement

Veuillez remplir ce formulaire pour recevoir le code de partage HTML.

Ajouter un commentaire

HTML restreint

  • Balises HTML autorisées : <a href hreflang> <em> <strong> <cite> <blockquote cite> <code> <ul type> <ol start type> <li> <dl> <dt> <dd> <h2 id> <h3 id> <h4 id> <h5 id> <h6 id>
  • Les lignes et les paragraphes vont à la ligne automatiquement.
  • Les adresses de pages web et les adresses courriel se transforment en liens automatiquement.
limite : 600 signes
Cette question sert à vérifier si vous êtes un visiteur humain ou non afin d'éviter les soumissions de pourriel (spam) automatisées.

Voulez-vous continuer à lire nos vérifications des faits ?

Nous ne vous ferons jamais payer pour des informations vérifiées et fiables. Aidez-nous à poursuivre cette voie en soutenant notre travail

S’abonner à la newsletter

Soutenir la vérification indépendante des faits en Afrique