La question des fausses informations agite plus que jamais le débat public. La fondation Wikimedia rappelle comment la vérification a toujours été au cœur du fonctionnement de Wikipédia.
Les contributeurs de Wikipédia ont été, depuis les premiers pas de l’encyclopédie en ligne, confrontés à de fausses informations, et ont dû s’organiser et inventer des règles pour éviter qu’elles ne soient publiées sur la plate-forme. A l’heure où la question des fausses informations continue à agiter le débat public, plus de deux mois après l’élection de Donald Trump à la Maison Blanche, entretien avec Katherine Maher, directrice exécutive de la fondation Wikimedia.
Après l’élection de Donald Trump, de nombreux commentateurs ont estimé que nous étions entrés dans une ère de « post-vérité ». Wikipédia semble ne pas partager cette analyse ; pourquoi ?
Je pense que la vérité reste une chose fondamentale. Malgré tous les débats récents, la distinction entre ce qui est vrai et ce qui est faux reste – heureusement – pertinente. Ce type de débat n’est pas nouveau pour les « wikipédiens » : depuis quinze ans, ils travaillent à discerner le vrai du faux, et ils ont toujours été ouverts et transparents sur la manière dont ils le font.
Wikipédia est fondée sur la promesse qu’il y a des informations réelles, vérifiables. Même les sujets les plus controversés peuvent être présentés de manière neutre, nous en sommes convaincus, et c’est notre modèle : on donne les différents points de vue qui existent sur un sujet. Ce qui ne veut pas dire que les hoaxes [« canulars »] ne sont pas un problème important, et qu’il n’existe pas de désinformation.
Vos règles de neutralité rappellent, pour beaucoup, celles appliquées par de grands médias, comme Associated Press aux Etats-Unis…
C’est la communauté qui établit les règles de fonctionnement de Wikipédia, mais nous avons aussi appris de la manière dont fonctionnent les médias et les organisations qui font du fact-checking [« vérification des faits »]. Nous avons trois principes intangibles pour nous assurer qu’une information est exacte et qu’une page est conforme à nos standards : n’utiliser que des sources fiables ; avoir une approche neutre ; et ne pas utiliser d’informations pour lesquelles il n’existe pas de source établie.
On a vu émerger aux Etats-Unis des sites comme Breitbart, très militants, et qui publient parfois des informations fausses ; cela a-t-il changé la politique que vous appliquez en matière de sources fiables ?
Nous n’avons pas une liste prédéterminée de médias utilisables. Nous avons, en revanche, une série de questions que l’on doit se poser pour déterminer la fiabilité d’une source. Ce média publie-t-il un correctif, lorsqu’il commet une erreur ? A-t-il un regard critique sur ce qu’il publie ? Cette politique ouverte nous donne une grande flexibilité, qui est nécessaire pour un projet de la taille de Wikipédia.
Pour Wikipédia, le plus important, c’est la neutralité, ce qui n’est pas la même chose que l’objectivité. Il est très important de présenter les différentes visions d’une question sur Wikipédia. Sur des sujets importants comme le réchauffement climatique, l’encyclopédie donne, bien sûr, toutes les données, explique tous les enjeux, mais vous présente aussi, en pied de page, les controverses politiques.
Une partie de la droite américaine porte un discours anti-establishment, antimédias, qui s’étend aussi parfois à Wikipédia, accusée d’être « de gauche ». Que répondez-vous ?
Wikipédia bénéficie d’une grande confiance du public. Ça ne veut pas dire que nous ne commettons jamais d’erreur ; mais quand nous nous trompons, nous essayons d’être transparents, d’agir de manière responsable et d’expliquer comment nous corrigeons nos erreurs.
Lorsque Wikipédia a commencé, notre présupposé était que nous devions gagner la confiance du grand public. C’est pour cela que chaque article est totalement transparent : pour chacun d’entre eux, vous pouvez consulter chaque version depuis sa création, lire toutes les discussions qui ont eu lieu à son sujet. Quels ont été les désaccords ? Quelle information a été jugée trop accessoire pour figurer dans la page ? C’est au cœur de notre fonctionnement, et ce ne sont pas des algorithmes qui décident de la façon dont une information est présentée. Nous pensons que nos lecteurs sont des êtres humains intelligents, et nous leur faisons confiance pour qu’ils fassent leurs propres choix.
Il y a tellement de personnes qui améliorent Wikipédia, avec des points de vue extrêmement variés, que c’est notre meilleure arme pour mieux comprendre le monde. Et sur les sujets les plus controversés, cette diversité est encore plus importante. Mieux, une étude récente montre que, lorsque des militants venus sur Wikipédia pour modifier une page précise s’inscrivent, ils deviennent de plus en plus objectifs au fur et à mesure qu’ils participent. C’est ce qui fait la force de Wikipédia, sa capacité à rassembler les gens.
Propos recueillis par Damien Leloup