LE DIRECT

Le fact-checking est-il vraiment utile ?

5 min
À retrouver dans l'émission

Comment aider les utilisateurs des réseaux sociaux à sortir de leur bulle ?

Sur son site Futura Nova, la BBC a organisé un vaste débat faisant intervenir de très nombreux spécialistes. Les résultats de cette enquête ont été publiés par Richard Gray sous le titre « Mensonges, propagande et fausses infos : un défi pour notre temps ».

D’abord, un constat qui vaut pour nous tous : les hoaxs les plus délirants trouvent toujours des esprits pour les relayer. Certains peuvent enflammer la toile illico. Ainsi, une rumeur faisant état de la mort du rappeur Jay Z a ainsi touché 900 000 personne sur Twitter. Sa maison de disque a aussitôt diffusé un démenti. Mais il a été vu par dix fois moins de personnes. Pendant plusieurs jours, une large partir de son public a cru décédé le mari de Beyoncé. Comme le dit Paul Resnick, un chercheur de l’Université du Michigan, autrefois, nous recevions nos informations. Aujourd’hui, nous les fabriquons. Autrefois, existaient des goulots de sélection que certaines informations franchissaient et d’autres pas. Tel n’est plus le cas. Et Kevin Kelly, co-fondateur de Wired, de résumer la situation d’un mot : « La vérité n’est plus dictée par des autorités, mais par des pairs ».

Internet, en démultipliant les sources d’information, a d’abord été perçu comme un facteur de pluralisme intellectuel et donc de progrès pour la démocratie. Mais on a vite déchanté. Certains disent des choses que nous n’aimons pas entendre. Alors, nous les supprimons, afin de demeurer dans un délicieux entre-soi, une bulle – selon l’expression qui revient souvent. 

Les gens qui ont envie de s’indigner trouvent toujours matière à le faire. Ceux qui croient à des complots sont à l’affût des preuves de l’existence d’un tel complot. Ils sélectionnent leurs informations en fonction de leurs marottes. Cela débouche sur une polarisation et une radicalisation qui n’est pas favorable à des démocraties apaisées.

La crise des sources fiables d’information pose un sérieux problème à cette même démocratie. Sans diagnostic partagé, s’appuyant sur des sources incontestables, il ne saurait y avoir de débat équilibré et honnête. Lorsque les problèmes ne sont pas correctement nommés, évalués, ils ne peuvent pas faire l’objet d’un traitement. Ou bien ils restent du ressort des seuls spécialistes. Ce qui renforce le sentiment qu’une élite de sachants s’est réservé les questions politiques fondamentales…

Ce qui est en train d’arriver, c’est que nous jugeons de plus en plus une information selon la crédibilité habituelle de sa source. Nous décryptons en fonction de ce que nous pouvons savoir des partis-pris de l’émetteur. Les institutions actives sur le Net commencent à sélectionner en fonction du degré de fiabilité. Ainsi Wikipedia a décidé de ne plus tenir compte des informations en provenance du tabloïd britannique Daily Mail. Mais Wikipedia lui-même, malgré son côté collaboratif et le contrôle croisé qu’il prétend imposer à ses collaborateurs, n’est pas sans défaut lui-même. Ainsi, les nécrologies publiées dans la presse sur l’acteur Ronnie Corbett ont souvent indiqué qu’il avait joué l’un des personnages des Télétubbies. Les rédacteurs l’avaient lu sur Wikipedia et c’était faux… 

Et qu’en est-il du fact-checking ? Est-ce efficace ?

La BBC a créé son propre service de vérification de l’information, Reality Check. Ca ne marche pas. Les gens qui relaient la rumeur sont plus nombreux que ceux qui relaient sa correction. Et ceux qui veulent continuer à croire croient malgré tous les démentis. Un exemple entre mille : une rumeur a accusé les malades du Sida en Grèce de s’être inoculé volontairement la maladie à seule fin de toucher des aides sociales. C’est monstrueux et l’OMS s’en est saisi. Mais les enquêtes, témoignages recueillis de l’Organisation Mondiale de la Santé n’ont guère fait évoluer les mentalités.

Beaucoup de compagnies du numérique misent sur l’Intelligence artificielle pour corriger les informations erronées. Ainsi IBM travaille depuis des années sur le système de correction automatique appelé Watson Al. Mais la réaction des gens a été négative, selon IBM. « Nous ne voulons pas qu’on nous dicte ce qui est vrai ou pas. » Et se pose la question des sites satiriques, comme Le Gorafi, El Manchar ou Newsthump. « L’aéroport Notre-Dame des Landes finalement remplacé par une centrale nucléaire ». Ou « « Algérie : plusieurs statues demandent l’asile culturel en Europe ». Ces blagues nous font rire. Mais l’Intelligence artificielle a-t-elle le sens de l’humour et du 2° degré ? Va-t-elle corriger ses amusantes satires, sous prétexte que ces informations « ne sont pas fondées » ? Comme dit le vice-président de Yahoo, Rohit Chandra, « plus d’humains dans la boucle, ça aiderait… ». 

Lewandoski : « une large portion du public vit dans des bulles, dans ce que nous pouvons considérer comme une réalité alternative. La vraie question, c’est comment faire éclater les bulles dans lesquelles beaucoup d’entre nous sont devenus, sans même s’en douter, prisonniers ? » En suggérant, par exemple aux moteurs de recherche et aux sites de vente en ligne de nous proposer des informations et des produits culturels en léger décalage avec ce que nous sommes censés aimer. Google le fait déjà, en permettant à des ONG de figurer haut sur ses listes de propositions. 

 ߢ�t��z���Z

L'équipe
Production

France Culture

est dans l'appli Radio France
Direct, podcasts, fictions

INSTALLER OBTENIR

Newsletter

Découvrez le meilleur de France Culture

S'abonner
À venir dans ... secondes ...par......