
Distinguer le vrai du faux lorsqu'il est question d'information scientifique peut sembler une tâche insurmontable quand on n’a pas soi-même étudié en science. Pourtant, il existe une première étape qui est à la portée de tous : être attentif à ses préjugés et à ses idées préconçues. Ce n’est pas parce qu’une nouvelle, en santé ou en alimentation par exemple, nous dit ce qu’on veut entendre qu’elle est… scientifiquement valide!
Nos biais cognitifs sont semblables à un coureur qui triche pour finir une course plus vite. C'est la raison pour laquelle on les appelle également « raccourcis mentaux ». C’est à cause d’eux qu’on partage des articles sans même les avoir lus, qu’on donne de la crédibilité à une vedette de la chanson qui s’exprime sur un sujet scientifique, qu’on commente sous le coup de l’émotion et qu’on minimise les conséquences d’un virus ou d’un événement climatique…
Pour la plupart, nous sommes davantage familiers qu’il y a 10 ans avec ce concept de « biais cognitifs », mais on a encore un peu trop tendance à ne l’appliquer qu’à la politique : si notre politicien préféré dit ce qu’on veut entendre, on sait d’instinct qu’on doit se méfier. Mais le concept des biais cognitifs s’applique aussi à n’importe quelle information. Et si on l’oublie, ça peut nous faire tomber dans le panneau de la désinformation!
C’est le psychologue et économiste Daniel Kahneman qui, avec ses collègues, a démontré, au début des années 1990, notre tendance à prendre des décisions irrationnelles dans le domaine économique. Depuis, une multitude de raccourcis mentaux, ou biais cognitifs, ont été identifiés par des chercheurs en psychologie et en sociologie. Parmi ceux-ci : le biais de confirmation, l’effet de halo, le biais de popularité et le biais émotionnel.
Le biais de confirmation
Le biais de confirmation nous pousse à favoriser l’information qui confirme nos croyances.
C’est la raison pour laquelle on peut avoir une perception brouillée de la réalité : on ne croit qu’à l’information qui nous convient, on ignore celle qui ne nous plaît pas, et on s’entoure de gens qui pensent comme nous.
Sur les réseaux sociaux, les algorithmes renforcent notre biais de confirmation en ne nous montrant que ce que nous voulons voir. Par exemple, un individu qui faisait déjà partie de groupes antivaccins avant la pandémie, allait inévitablement être exposé, pendant la crise, à davantage d’informations confirmant ses croyances et ses craintes.
L’effet de halo
L’effet de halo fait en sorte que nous avons tendance à tirer des conclusions sur une personne sur la base d'une seule de ses qualités.
Par exemple, si nous trouvons qu’une personne est belle ou qu’elle a du succès, on aura tendance à donner plus de poids à son opinion. On l’appelle aussi « effet de notoriété » ou « effet de contamination ».
L’effet de halo vaut aussi pour les spécialistes qui s’expriment en-dehors de leur champ d’expertise. Dans la revue Psychology Today en avril 2020, la psychologue Terri Apter mettait en garde contre « l’erreur halo » en temps de COVID : notre tendance à croire qu’un expert est spécialiste en tout.
Le biais de popularité
Le biais de popularité se manifeste quand on croit une affirmation parce qu’un grand nombre de personnes la considère comme vraie.
C’est ce qui nous incite, par exemple, à nous abonner à un groupe Facebook dont le sujet nous semble douteux, mais qui compte un nombre important d’abonnés : spontanément, ce grand nombre d’abonnés peut nous faire croire que le contenu doit être plus crédible que nous ne l’aurions cru, puisque tant de personnes le suivent!
Même chose avec les partages sur les réseaux sociaux : si on s’aperçoit qu’une information que l’on croyait louche a été partagée ou « likée » à de nombreuses reprises, on est plus susceptible de la partager à notre tour, sans faire les vérifications nécessaires.
Le biais de normalité
Celui-ci est un réflexe qui nous pousse à croire que notre vie se déroulera comme elle s’est toujours déroulée. C’est la raison pour laquelle on se dit souvent « ça ne peut pas m’arriver », en pensant aux cancers ou aux accidents de voiture, même si on connaît les statistiques.
C’est ce qui explique en partie la résistance qu’ont eue certaines personnes à adopter les mesures sanitaires au début de la pandémie. Ce réflexe fait en sorte que nous avons tendance à ignorer les signes avant-coureurs d’une crise et à vouloir continuer à vivre « comme d’habitude », voire à adopter des comportements dangereux pour nous ou pour les autres.
Le biais émotionnel
Ce dernier biais est une réaction émotionnelle à une situation ou à une information qui peut, du coup, perturber la prise de décision. Une personne sera ainsi encline à croire une chose qui procure un sentiment agréable, et à rejeter des réalités désagréables —indépendamment des preuves du contraire.
Certaines émotions peuvent court-circuiter plus que d’autres notre raisonnement logique. En 2018, des chercheurs du MIT ont analysé 126 000 partages Twitter de nouvelles, vraies ou fausses. Ils ont constaté que les fausses nouvelles qui suscitent des émotions fortes, comme la surprise, la peur ou le dégoût, sont plus susceptibles d’être partagées rapidement et de devenir virales que les vraies nouvelles qui suscitent des émotions plus neutres, comme l’espoir et la tristesse. Les désinformateurs qui sont conscients de ce biais vont donc tenter de jouer sur nos émotions afin de nous faire croire leurs affirmations.
Vous aimez nos billets? Abonnez-vous à notre infolettre sur la désinformation qui vous propose des outils et des ressources pour mieux vous informer lorsqu'il est question de science.
***
Notre formation « Décoder l’info scientifique » est pour vous!
Vous voulez identifier les sources fiables, évaluer la crédibilité d’un expert ou repérer les limites d’une étude scientifique, et ce même si vous n’avez pas étudié en science? Notre nouvelle formation gratuite en ligne vous permettra de mieux comprendre les particularités de l’information scientifique, repérer les pièges de la pseudoscience et maîtriser les étapes de vérification d’une information qui traite, par exemple, de santé, d’alimentation ou encore des changements climatiques.
***
Pour aller plus loin
L’épisode « Attention aux raccourcis mentaux » de notre série #Vraimentvrai, comment vérifier l’information
Cette capsule vidéo de notre série « Anatomie des fausses nouvelles » : Si ça confirme ce que je pense, ça doit être vrai !
Notre parcours sur les biais cognitifs
Notre fiche pédagogique pour les enseignants : le biais de confirmation