La vérité… si je veux. De la nature d’un fait à l’ère des bulles de filtrage

Rédigé le 22 décembre 2016 par: Edgar Szoc

Un fait, a-t-on coutume de dire, est plus têtu qu’un Lord-maire.C’est au fond ce proverbe aux origines floues – et en tout cas pas anglaises, que cet article vise à questionner.

À l’heure de l’effet de « bulle de filtrage » que produisent les réseaux sociaux, on est en droit de se demander si  l’affirmation du caractère obstiné de la réalité – joliment définie par Philip K. Dick comme ce qui continue à exister quand on cesse d’y croire – n’est pas en voie d’inversement : la réalité n’est plus ce qui existe en-dehors de mes croyances mais précisément ce à quoi j’ai envie de croire, et le savoir auquel mes croyances me donnent accès.

La « bulle de filtrage » (filter bubble) désigne l’enfermement cognitif que produit le fonctionnement d’Internet auprès d’un de ses utilisateurs lorsque des algorithmes sélectionnent pour lui les informations auxquelles il aura prioritairement accès. Cette sélection se fait en fonction des préférences – dûment numérisées – dont atteste son comportement préalable. Selon Eli Pariser, le créateur du concept, ce mode de fonctionnement a pour effet de ne soumettre à l’utilisateur que des opinons tendanciellement conformes à celles pour lesquelles il a manifesté de l’intérêt au préalable et, dès lors, à enclencher un cercle vicieux de confirmation des opinions et d’évitement de la dissonance cognitive. C’est ainsi, en fonction de ses « clics » précédents, qu’un internaute se verra proposer prioritairement tel résultat de recherche plutôt que tel autre par Google, ou tel « statut » et pas tel autre sur sa « ligne du temps » Facebook.

Il est à noter que, sur certains réseaux sociaux, Facebook notamment, la « décision » de faire apparaître un contenu sur l’écran de l’utilisateur ne se fonde pas exclusivement sur une dynamique évolutive informée des comportements préalables dudit utilisateur, de ses réactions ou absences de réactions à un contenu donné, mais également des comportements de ses « amis ». Accepter une demande d’amitié sur Facebook, c’est donc accepter également que les préférences et comportements de cet « ami » participent à la sélection des informations qui nous seront proposées.

Les responsables de Facebook se défendent à juste titre de tout biais idéologique dans le fonctionnement de cet algorithme Mais il est incontestable que cette somme de décisions algorithmiques individuellement neutres produisent des effets massifs de reconfiguration de l’espace public et des modalités de délibération au niveau global.

On ne s’étonnera pas qu’en la matière les premiers concernés soient aussi les premiers mécènes : Facebook a par exemple financé une recherche dont les résultats sont parus dans un numéro de la revue Science et qui semblait montrer que les effets de bulle imputés à son algorithme étaient largement exagérés[1]). Aux arguments qui y sont déployés, on pourra ajouter qu’il n’a pas fallu attendre l’apparition de Facebook pour observer des phénomènes de recherche de l’entre-soi idéologique et d’évitement de la dissonance cognitive. Que sont les journaux d’opinion – « de naguère » aurait-on presque envie d’ajouter – sinon un dispositif d’information compatible avec nos a priori idéologiques ?

Marchandisation

Que l’information soit devenue une marchandise n’a en soi rien de particulièrement neuf : ce sont les moyens technologiques mis au service de cette marchandisation qui constituent le véritable changement. Jadis, les journaux papier devaient se fier à des indicateurs aussi vagues que l’évolution du nombre d’abonnements pour tenter de détecter les attentes de leurs lecteurs afin de mieux les combler. Aujourd’hui, leurs versions Web disposent des moyens de contrôler en temps réel le succès – en termes de nombres de lecteurs, de durée de lecture, de nombre de commentaires, etc. – de chacun de leurs articles mis en ligne. Le pilotage de la ligne éditoriale peut dès lors s’effectuer de manière quasiment instantanée, en se fondant sur ces données apparemment objectives.

D’après Katharine Viner, rédactrice en chef du Guardian,cette recherche obsessionnelle du clicconstituerait une des raisons du relâchement du rapport que les medias entretiennent à la notion de vérité. La véracité ne constituerait plus aujourd’hui qu’un élément parmi d’autres – mais hélas moins mesurable que d’autres – dans le processus de valorisation d’un article de presse. Et Viner d’ajouter « Quand un fait peut se définir comme ce qu’on estime être vrai, il devient très difficile pour qui que ce soit d’établir la distinction entre les faits qui sont vrais et les ″faits″ qui ne le sont pas[2] ». Même si l’article de Viner ne cherchait pas explicitement à traiter de la montée du complotisme, ses intuitions quant à la dissolution des faits dans le marché des préférences se révèlent riches d’éclairages inquiétants.

Paradoxalement, c’est sans doute celui qui se présente sous le nom de Vincent Flibustier, concepteur du site satirique NordPresse[3] – « Le Gorafi belge » – qui, même si c’est sans doute par inadvertance, a le mieux résumé le point d’aboutissement de cette logique d’adaptation d’offre à une demande devenue enfin mesurable. La tagline qu’il a ajoutée au nom de son site (« Les informations que vous aimez bien ») incarne en effet parfaitement le rôle croissant des préférences idéologiques du lecteur dans la production de l’information par la presse dite sérieuse.

Après la vérité

Depuis 2016, de nombreux articles de presse se sont fait écho d’une inquiétude quant à l’arrivée d’une « post-truth politics », au point que le magazine The Economist en ait fait sa couverture[4]. Sans nul doute favorisée par le référendum sur le Brexit et la campagne présidentielle de Donald Trump (et son apparente imperméabilité à la dénonciation factuelle de ses mensonges), cette inquiétude trouve hélas d’autres lieux d’observation privilégiés, autrement plus dramatiques, comme celui de la  guerre en Syrie.

Si l’expression « post-truth politics » s’est répandue comme une traînée de poudre au cours de l’année 2016, sa paternité semble remonter à 2010 et pouvoir être attribuée au bloggueur David Roberts[5]. Il la définit comme « une culture politique au sein de laquelle la politique (soit l’opinion publique et les récits médiatiques sont devenus presque totalement déconnectés des politiques publiques (comprises comme le contenu de ce qui est légiféré) » (Traduction personnelle).

Une telle conception rejoint par des chemins détournés le constat-prédiction que Jean Baudrillard énonçait il y a près de trente ans à propos de la réalité contemporaine comme simulacre (Baudrillard 1981).À ceci près que la métaphore la plus adaptée pour qualifier la conception de Baudrillard était celle de la photocopieuse : à force d’être reproduits, retranscrits, renarrés, les faits racontés finissent par n’avoir plus de lien avec « la réalité telle qu’elle existe en elle-même ». À la base de ces récits éclatés, se trouvait encore une réalité factuelle commune que la transformation – notamment médiatique – finissait par obscurcir, mais qui n’en demeurait pas moins une source.

À l’heure du post-truth politics, c’est la métaphore darwinienne plutôt que celle de la photocopieuse qui s’avère adéquate : de multiples récits déconnectés ou pas des faits sont en concurrence et leur lien à une réalité factuelle établie n’est qu’un critère parmi de nombreux autres – et sans doute pas le principal – permettant de décider de leur survie et de leur diffusion.

Mais c’est non seulement en termes de diffusion, mais également de format que l’Internet et singulièrement les réseaux sociaux modifient l’élaboration de théories complotistes en les rendant accessibles presque immédiatement après la commission d’un fait. On se retrouve en l’occurrence face à ce que Bruno Latour qualifie de « révisionnisme instantané ».

L’ensemble de ces mutations ne constituent souvent que des activations par la technologie de tendances préalables. Mais il ne paraît pas extravagant d’y voir également les germes d’une reconfiguration radicale de notre rapport social à la vérité et dès lors à l’organisation du débat démocratique.

 

 


[1] Voir E. Bakshy, S. Messing et L. Adamic, « Exposure to ideologically diverse news and opinion on Facebook », in Science, mai 2015. Voir toutefois la réfutation partielle de cette étude par Eli Pariser, l’auteur du concept de « bulle de filtrage » : https://backchannel.com/facebook-published-a-big-new-study-on-the-filter-bubble-here-s-what-it-says-ef31a292da95#.r9zb06q1g.

[2] Katharine Viner, How technology disrupted the truth », The Guardian, 12 juillet 2016. (Traduction personnelle). Disponible sur : https://www.theguardian.com/media/2016/jul/12/how-technology-disrupted-the-truth.

[3] Voir http//www.nordpresse.be.

[4] The Economist, 10 septembre 2016.

[5] C’est en tout cas ce qu’affirme : http://www.huffingtonpost.co.uk/tom-jeffery/britain-needs-more-democr_b_10699898.html. On peut toutefois noter que l’auteur Ralph Keyes avait déjà introduit l’expression « Post-truth era » dans un livre éponyme.

eventIcon

Prochains évènements

10/01/2019, Formation, une organisation de BePax

Formation 12 jours : Devenez référent·e en diversité

Voir tous les évènements