La crise de la Covid-19 a donné lieu à une production médiatique intense. Mais les informations partagées, notamment en ligne, ne se valent pas. Certaines sont fiables, d'autres le sont moins. Comment faisons-nous la différence entre les deux ? Comment expliquer le décalage entre la viralité des informations et leur fiabilité ? De quels outils se munir pour y voir plus clair ?


au sommaire


    Une information est un énoncé qui prétend nous apprendre quelque chose sur le réel. Que ce soit le nombre de personnes qui étaient présentes à une manifestation ou l'efficacité d'un médicament pour une pathologie donnée, l'idée est la même, même si les méthodes d'appréhension du fait en question sont différentes. Nos petits cerveaux d'humains n'ont pas assez de ressources pour prendre des décisions rationnelles (d'un point de vue épistémique) systématiquement. Trois solutions s'offrent alors à nous : devenir expert de la question, suspendre son jugement ou se fier à des indices.

    Les auteurs d'une récente étude intitulée « Spelling Errors and Shouting Capitalization Lead to Additive Penalties to Trustworthiness of Online Health Information: Randomized Experiment With Laypersons » et publiée dans The Journal of Medical InternetInternet Research ont voulu savoir si des fautes d'orthographe et des phrases surlignées altéraient la perception de la fiabilité d'une information médicale sur Internet. Les résultats suggèrent que ces deux conditions, lorsqu'elles se retrouvent dans un même texte, poussent le lecteur à se méfier et à considérer l'information comme moins fiable. Revenons un peu en détail sur comment nous jugeons la fiabilité d'une information.

    Comment juge-t-on la fiabilité d'une information ? 

    Avant de commencer, il faut bien poser notre problème. Ici, il est sous-entendu « Comment notre cerveau juge la fiabilité d'une information ? ». Or, la question est mal posée comme nous l'explique David Simard, docteur en philosophie : « Cela part du postulatpostulat que l'étude des processus organo-physiologiques suffirait à décrire les processus de pensée. C'est un présupposé courant, qui se traduit par le fait d'attribuer au cerveau comme organe, des pensées, émotions, etc. Ce qui est ainsi confondu est le rapport entre la condition de possibilité (le cerveau) et ce qu'elle rend possible (la cognition, l'émotion, etc.), comme si ce qu'elle rend possible se réduisait totalement (sans perte) à la condition de possibilité elle-même. Juger de quelque chose s'opère dans un contexte, selon certains critères, qui vont dépendre de facteurs socioculturels et historiques. Même sur le plan organique, le cerveau ne suffit pas. Un cerveau tout seul, sans système nerveux auquel il est "raccordé", en particulier, ici, le système nerveux périphérique par lequel sont acheminés les messages nerveux sensitifs transmis par les organes des sens (et qui assurent le contact avec le milieu, donc avec la culture, le social, etc.), ne donne rien. Prenez un stylo. Pour écrire il en faut un. Pourtant, ça ne suffit pas. Écrire est autre chose que seulement avoir un stylo. Or, s'il y a autre chose, alors on ne peut réduire le processus qui consiste à porter un jugement, à l'organe ("l'outil") qui rend possible de porter un jugement (et sans lequel, assurément, il n'y a pas de jugement possible, sauf à faire dans la métaphysique de l'âme ou de l'esprit). Si on fait cette réduction, on perd cette "autre chose" qui est pourtant non moins fondamentale que l'outil pour comprendre le phénomène dont on veut rendre compte. »

    Notre cerveau et ses heuristiques peuvent facilement se faire manipuler. © KrakenImages.com, Adobe Stock
    Notre cerveau et ses heuristiques peuvent facilement se faire manipuler. © KrakenImages.com, Adobe Stock

    Prise de précaution faite, nous pouvons nous atteler à la compréhension des seuls processus cognitifs de la prise de décision dans ce qui nous intéresse ici, à savoir comment prenons-nous la décision d'accorder un gage de fiabilité à une information donnée ? « Les travaux publiés dans The Journal of Medical Internet Research sont intéressants car ils font écho à la manière dont on juge une information fiable ou non. Parce qu'on détecte un détail, une anomalie intrigante, on va augmenter notre vigilance et on ne va pas accorder la confiance escomptée à l'information », explique Emmanuel Petit, Professeur de sciences économiques à l'université de Bordeaux et auteur de l'ouvrage « Économie des émotions ».

    Mais dans ce même article, il est bien précisé qu'il existe d'innombrables paramètres qui nous poussent à accorder notre confiance ou à se méfier d'une information. « Il existe plusieurs façons de produire un jugement, d'apprendre des connaissances que l'on intègre via une information. La première forme, c'est une forme purement rationnelle : on appréhende l'ensemble des informations dont on dispose, on entreprend une hiérarchie de ces dernières, puis on effectue mentalement un calcul statistique. Cela va donner lieu à un jugement particulier, robuste », détaille Emmanuel Petit.

    Pour nos petits cerveaux d'humanoïdeshumanoïdes, faire cela à chaque fois que l'on croise une information relève de l'impossible. Intrinsèquement, notre production de jugement ne fonctionne absolument pas comme ça. Notre cerveau est un organe bayésien. « Dans l'article, il est évoqué la question des heuristiquesheuristiques, concept théorisé par Daniel Kahneman, prix Nobel d'économie. Ce sont des raccourcis mentaux, très efficace dans la vie quotidienne, mais qui peuvent souvent être pris à défaut. Pour la fiabilité d'une information, on peut faire intervenir toutes sortes d'heuristiques comme l'heuristique de disponibilité, de représentativité, affective, etc. Tout cela peut nous faire surestimer la confiance ou sous-estimer le risque associé à une information donnée », précise Emmanuel Petit.

    Les heuristiques sont donc une énorme part de ce qui produit notre jugement. Mais comme évoqué précédemment par Emmanuel Petit, elles sont sujettes à énormément de biais et de manipulations. L'économiste poursuit : « Selon les mots avec lesquels vous est présentée une information, votre heuristique peut vous faire prendre une décision complètement irrationnelle. Si on prend l'exemple du traitement d'un cancer, si on vous présente les données sous forme d'espérance de vieespérance de vie ou à l'inverse, de mortalité, votre jugement va probablement se modifier alors même que les données brutes restent inchangées. » Aussi, les heuristiques ne sont pas le seul processus via lequel nous produisons des jugements. « Le biais de confirmation est un élément très important dans la production de nos jugements. On sait que, lorsqu'on a commencé à croire en une information donnée, on a plus tendance à persévérer dans notre croyance, pour diverses raisons (être rassuré par exemple dans le cadre d'informations médicales), qu'à la remettre en question, même si on se rend compte de son caractère douteux. C'est un biais très solidesolide, bien documenté, en lien direct avec le phénomène de dissonance cognitive », souligne Emmanuel Petit.

    De plus, on constate qu'il existe une hiérarchie de codes dans notre prise de décision. « Généralement, on s'accroche au premier élément qui nous paraît important pour prendre une décision. S'il n'est pas là, on s'accroche au deuxième et ainsi de suite. Typiquement, si vous devez traverser un carrefour et qu'il y a un policier, vous allez suivre ses consignes et ne pas faire attention au reste. S'il n'est pas là, vous seriez plus attentif aux divers panneaux et marquages autour de vous. Il se dessine alors une hiérarchie des informations sur lesquels on se repose pour produire son jugement. C'est en opposition avec la rationalité parfaite dont je parlais au début qui consiste à prendre la totalité des éléments en compte et faire une pondération de ces derniers. Mais sur le plan cognitif et mnésique, cette rationalité parfaite nous est inaccessible », précise Emmanuel Petit. Bien sûr tout cela est à mettre en perspective avec le niveau de connaissance du sujet donné. Les auteurs en parlent dans leur article. Si le niveau de littératie médicale est élevé, les personnes ne prendront pas les mêmes points d'accroche pour produire leur jugement. Cependant, une question reste en suspens : le cas des contenus viraux.

    Le paradoxe des contenus viraux

    Il y a quelque chose de paradoxal dans le cas de contenus viraux, plus particulièrement d'une sous-catégorie de ces contenus : les contenus complotistes. Comment se fait-il que des informations qui, généralement, devraient allumer tous nos voyants d'alerte de fiabilité, soient autant partagées par la population ? Cela peut laisser penser intuitivement que des informations apparemment considérées comme moins fiables sont plus partagées, ce qui est étrange.

    Dans les sphères complotistes, le rapport à l'information est déjà biaisé. © Feng Yu, Adobe Stock
    Dans les sphères complotistes, le rapport à l'information est déjà biaisé. © Feng Yu, Adobe Stock

    « Mais ces informations sont considérées comme moins fiables par qui ? Par la population générale », assène Marie Peltier, essayiste belge, enseignante en histoire à l'Institut supérieur de pédagogie GaliléeGalilée de Bruxelles et spécialiste des questions sur le complotisme. « Dans les sphères complotistes, la défiance (à l'égard des médias, du politique, du discours scientifique, etc.) est présente depuis vingt ans, le rapport à l'information est donc forcément déjà biaisé. » Il semble donc que la fiabilité n'intéresse pas vraiment une sous-partie de la population, à savoir celle qui se nourrit de théories du complot. L'essayiste belge détaille : « Tout devient bon à prendre pour alimenter la défiance envers la "parole officielle" pour une personne friande de complotisme. Ces gens se demandent moins ce qui est fiable ou moins fiable que ce qui nourrit ou non leur vision du monde. »

    On assisterait alors à un biais de confirmation à grande échelle, où la véracité d'une information, son caractère factuel en somme, n'a plus grande importance pour ces personnes. Néanmoins, si nous ne sommes pas prisonniers d'un système de pensée complotiste, nous pouvons quand même nous faire manipuler par nos heuristiques. Dès lors, comment faire pour décerner au mieux le vraisemblable de l'incertain lorsqu'on est néophyte sur un sujet scientifique ? 

    Comment y voir plus clair ?

    Si nous ne sommes pas enfermés dans une logique conspirationniste, il faut donc se munir d'outils pour viser une sorte d'émancipation intellectuelle. Pour une information scientifique étant donné que c'est ce qui nous intéresse ici, plusieurs choses peuvent nous aider à y voir plus clair. Nous évoquions quelques pistes dans notre Live « La science à l'ère du sensationnel : comment ne pas se faire manipuler ? ». L'un des intervenants, Thomas Durand, est revenu plus précisément sur quatre points qui nous semblent pertinents dans un Vlog. Les voici : 

    Premier point : l'imprudence épistémique 

    C'est le fait d'affirmer des choses qu'on croit être vraies, qui sortent un petit peu de nulle part et qui ne sont pas référencées de façon précise. L'imprudence se manifeste alors dans l'absence de prise de précaution dans la communication d'une telle information.

    Deuxième point : personnaliser le sujet 

    C'est lorsqu'on considère que la science est une affaire personnelle alors qu'elle est un processus éminemment collectif. Ce sont des personnes qui confondent leur personne et leur propos. Dès lors, tout argument sur leur propos se métamorphosemétamorphose en argument contre leur personne, si bien qu'il devient impossible de débattre.

    Troisième point : le double standard 

    Quand des scientifiques tiennent beaucoup trop à leur hypothèse A, il peut leur arriver de demander beaucoup de preuves pour justifier une hypothèse B, beaucoup plus qu'il ne leur en a fallu pour justifier leur hypothèse A. Ce rapport affectif avec des hypothèses peut conduire à faire des erreurs grossières plus ou moins graves. Si supprimer l'affectaffect est impossible (et sûrement peu souhaitable, car il peut générer un moteur fort), les scientifiques étant des humains, il faut au moins s'en méfier.

    Quatrième point : le populisme scientifique 

    Cela représente une posture, une attitude qui consiste à court-circuiter le processus normal de la démarche scientifique et à aller au-devant de la population, de la presse pour délivrer une parole quasi évangélique. 

    L'auteur de ce Vlog précise que « ces indicateurs ne prouvent rien sur le contenu mais peuvent nous inviter à quelques vérifications avant de croire un orateur scientifique dont la posture se confond trop avec celle d'un gourou, d'un politique ou d'un représentant de commerce ».

    On se rend donc bien compte que ces quatre outils, certes moins familiers, semblent beaucoup plus utiles que des outils de forme comme ceux étudiés dans l'étude publiée dans The Journal of Medical Internet Research. Ce qu'il faudrait induire, reste à savoir comment le faire, c'est la compréhension et l'utilisation d'outils permettant de juger le fond d'une information à l'aide des indices les plus fiables possibles. Concernant les sciences, donc les sciences médicales, et donc la santé, les quatre points cités ci-dessus devraient se trouver dans le top dix de notre hiérarchie des indicateurs de méfiances vis-à-vis d'une information.