Introduction :
Cet article a un double but. Le premier est de répondre aux critiques de Hugo Lagouge (dit @Tranxen1 sur X) par rapport à ma conférence du 22 avril 2023 aux Rencontres de l’Esprit Critique à Toulouse, et le deuxième, pour moi bien plus intéressant puisqu’il va au-delà du cas particulier, touchant au domaine de la philosophie des sciences, sera de faire l’analyse de ce cas pour illustrer une méthode que je vais nommer la « méthode idéologique », similaire à toute forme d’idéologie marquée qui s’invite dans le domaine scientifique. Cette partie de l’analyse ne portera plus seulement sur Tranxen (ou alors comme illustration de certains points), mais sur la communauté ZEM et Sympathisant·es (ZEM&S), et encore plus généralement ce qu’on peut appeler les excès de l’extrême-gauche (nommés « wokisme » par ses détracteurs). Tranxen me demande à l’avance à plusieurs reprises d’éviter les « hommes de paille », ne pas lui faire dire ce qu’il ne dit pas, et ne pas l’amalgamer à des propos que d’autres ont tenu. Je vais bien entendu mentionner de qui je parle lorsque je critique tel ou tel affirmation ou argument, mais Tranxen ne pourra pas m’empêcher de faire un rapprochement entre ses arguments et ceux que d’autres avancent, quand il me semble que le rapprochement peut être fait.
Avertissement préliminaire de philosophie basique du langage : Dès qu’on utilise un terme désignant une collectivité, on commet des erreurs. Dès que l’on parle des Suisses, des Français, des hommes et des femmes, des gauchistes, des libéraux, « wokistes », « extrême-droite », extrême-gauche, centre, etc., etc., on parle après Wittgenstein et son exemple célèbre des ressemblances de familles concernant la catégorie des jeux, de catégories floues. Il y a des Franco-suisses qu’on peut classer dans les deux groupes, des clandestins qu’on ne sait pas trop où classer, des catégories de genre nouvelles, etc. Encore pire dans le domaine des attitudes, les gens qui composent un collectif ne partagent pas toutes et tous les mêmes avis, mais on note néanmoins une tendance à accepter le même genre de propositions (sinon on ne pourrait pas les classer, ou eux se classer dans le collectif). Ainsi, quand Tranxen parle de la « la zététique à l’ancienne », des « centristes », il commet la même approximation que quand on parle des « ZEM&S », ou de l’« extrême-gauche » ou de l’« extrême-droite ». Il est inévitable, ce n’est pas un amalgame ni un homme/femme de paille (épouvantail), que de critiquer comme un ensemble des positions politiques ou idéologiques que l’on considère voisines, même si chaque individu du collectif pourra bien sûr varier sur l’intensité de ces positions. Tranxen a écrit lui-même « je me sens proche du collectif Zet-éthique Meta-critique par exemple », ce qui fait que je le classe parmi les ZEM&S, mais dans la suite de ce texte, je séparerai ce qui vient de lui et d’autres ZEM&S. Il est heureux que tous les ZEM&S, ou encore plus les personnes d’extrême-gauche, ne partagent pas toutes et tous les mêmes opinions, pas plus que les « zététiciens à l’ancienne », ou les psychologues, ou les gens qui se définissent comme centristes. Tant mieux ou tant pis si certaines critiques que j’attribue aux ZEM&S, à l’extrême-gauche ne sont pas partagées par Tranxen, je les classe ensemble parce qu’elles participent selon moi — à tort ou à raison, chacun·e pourra en juger — de la même idéologie. Le véritable amalgame est exemplifié par le récent tweet d’un membre ZEM&S : « quand il y a deux fascistes sur une table de 145 personnes, il y a 145 fascistes autour de la table ».
Si donc Tranxen n’est pas d’accord avec mon analyse de sa critique comme exemple de cognition motivée de l’extrême-gauche (puisqu’il me demande poliment de ne pas l’analyser comme telle, par une forme de pensée magique), il pourra ne se focaliser que sur la liste des erreurs qu’il a commises dans sa critique — ce qui pourrait finalement lui être profitable — quand je le signale nommément, et il pourra ignorer le reste des points soulevés, qui sont pour moi tout aussi intéressants. Au-delà du règlement de comptes (qui pour moi est largement soldé, vous pourrez en juger si vous arrivez à la fin de ce long texte), j’en profiterai pour préciser certains aspects intéressants comme la conception de la rationalité en psychologie cognitive, la critique des sondages et/ou des recherches par questionnaire (qui doit se faire de manière scientifique et rationnelle, et pas idéologique), le risque d’irrationalité à l’extrême-gauche, etc.
La critique de Tranxen de ma conférence donnée aux REC souffre en effet de nombreux problèmes. Elle est mal informée, arrogante à la limite de la diffamation sur X (il me compare à Raoult et dit de ma conférence qu’elle est « crée un précédent dangereux » et qu’elle induirait le public en erreur en propageant « une vision à côté de la plaque de l’état du débat scientifique », et « s’apparente à de la désinformation scientifique », elle « fait dire à la littérature scientifique l’inverse de ce qu’elle dit réellement, ou au mieux [de] brasser de l’air avec » ; si Tranxen avait une large audience, je songerais à porter plainte ; je ne vais évidemment pas le faire, d’autant moins que celles et ceux qui échangent avec les ZEM&S connaissent leur ton souvent trop sûr de soi et quérulent, ce qui est d’ailleurs l’un des éléments de la présente analyse), et commet comme on le verra un grand nombre d’erreurs. Il est possible que ces erreurs soient en partie aussi dues à quelques imprécisions de ma part (toute conférence et tout propos oral, même parfois écrit, peut être ambigu ou parfois exagéré sans qu’on y prenne garde, surtout dans le domaine de la vulgarisation), mais nous verrons quel est le bilan final en termes d’erreurs des deux côtés. Nous verrons aussi que la critique de Tranxen a des points communs évidents avec ce que j’appelle ici la « méthode idéologique », typique de l’intrusion de l’idéologie dans la science :
(1) Tranxen veut montrer que les arguments que je présente dans ma conférence sont soit faux, soit relèvent d’un point de vue minoritaire dans le champ de la psychologie (dans lequel il ne travaille pas), tout simplement parce que mes arguments vont à l’encontre son idéologie. Dans sa réponse, il me demande :
« Et si la pensée critique vous intéresse, j’espère que vous ne vous arrêterez pas à une idée comme « Tranxen n’a pas aimé la conférence parce que ça va à l’encontre de son idéologie ! », parce que vous verrez que ce n’est pas le propos ».
Mais je ne vais pas « m’arrêter » à cette idée, je ne vais pas partir l’a priori que c’est vrai (ce qui serait exactement la méthode de Tranxen et autres idéologues ZEM&S et plus largement d’extrême-gauche que je dénonce). Je vais faire ce que je propose pour toute forme de connaissance, regarder ce que disent les « données » (avec mon interprétation), analyser la réponse de Tranxen et voir si cette réponse traduit un réel désir d’améliorer les résultats que j’ai présentés, de voir en quoi j’avais raison sur certains points et tort sur certains autres. Or, devinez quoi ? Il n’y a AUCUN élément dans ma conférence qui trouve grâce à ses yeux, sauf le seul « point positif : les données brutes sont accessibles » de l’une de nos études, pour montrer que j’ai en fait tort. Cela veut dire qu’il n’y a selon lui RIEN à conserver de mes 30 ans de connaissances scientifiques sur le sujet ! Alors je veux bien admettre que je suis loin d’être un génie (contrairement à d’autres qui se ridiculisent à le croire et le clamer bien haut), mais si en 30 ans de profession je n’en ai pas appris plus que Tranxen qui aborde les mêmes questions en amateur, cela vaut effectivement la comparaison avec Raoult (voire plutôt Montagnier) ! Dans une conversation sur Mastodon qu’on m’a rapportée, Tranxen transmet son blog à Marie Peltier, qui le remercie, et il commente : « les contenus comme ça qui jettent le discrédit et pourrissent les débats ça a tendance à m’énerver ». Je vais donc évaluer son propre contenu.
Si vraiment « ce n’était pas le propos », si la motivation de Tranxen était la recherche scientifique de vérité — ou du moins de ce qui est actuellement le moins vraisemblablement faux —, non seulement il ferait également une liste des éléments qu’il trouve corrects dans mon exposé (à moins qu’il n’y en ait effectivement pas, nous allons faire une revue de la littérature pour évaluer ce point), mais il publierait une liste de nombreux travaux qui complètent, voire infirment ceux que je présente, en démontrant qu’il n’y a pas plus d’irrationalité et de dogmatisme à l’extrême gauche qu’au centre (voire moins), et il produirait de même une longue liste de travaux qui montreraient que les biais cognitifs ne sont pas liés aux croyances. Au lieu de cela, il cite sur X à propos de ce 2ème point un texte : « Dedans, vous y verrez même des citations de H. Mercier qui contredisent textuellement des idées qui sont propagés par PWE », avec à l’appui une affirmation d’un chercheur du domaine, Hugo Mercier qui affirme que « le lien supposé entre une pensée analytique et l’adhésion à des croyances douteuses n’a rien de systématique ». Quand je lui réponds « je vous ferai la liste des travaux qui montrent un lien entre pensée analytique/intuitive et croyances douteuses », sentant sans doute à l’avance le vent du boulet, il rétropédale rapidement : « Moi, l’idée qu’il y a des liens entre la compétence de la pensée analytique et telle ou telle croyance, je suis plutôt d’accord, mais ma critique ne porte pas sur ça » (sa critique ne porte pas sur ça, mais il signale quand même des citations qui contredisent les idées que je propage : on ne comprend plus très bien ce qui fait partie de sa critique et ce qui n’en fait pas partie, ou plutôt on commence à très bien sentir la fragilité de sa critique pourtant vaillamment exprimée, avec ce rapide rétropédalage#1).
Ce qu’a fait Tranxen, au lieu donc d’une méthode critique constructive, éthique et respectueuse d’autrui qui consisterait à présenter les accords et désaccords basés sur un plus grand nombre d’études qui appuient son point de vue et que je n’aurais pas citées dans ma conférence, est une focalisation sur les détails des recherches que je présente pour tenter d’y trouver, en non-spécialiste, des erreurs, des détails sans importance, des mauvaises interprétations qui selon lui invalideraient le tout (on verra ci-dessous que c’est loin d’être le cas, c’est même le contraire). Et à la fin, en guise de bouquet final, sur X, il va de cette critique on le verra a posteriori assez minable (elle pourrait a priori être valable), va essayer d’insinuer que je suis un Raoult de la psychologie et que ma conférence s’apparente à de la désinformation.
C’est la caractéristique de la méthode idéologique des complotistes par exemple, qui au lieu d’enquêter et de tenter de valider la théorie du complot par une enquête professionnelle (fardeau de la preuve), vont (2) sélectionner une partie des études et données qui en apparence donnent du crédit à leur thèse et (3) tenter de trouver des failles dans la version officielle, des anomalies apparentes. Et on pourra toujours trouver de telles anomalies, qui ne sont pas forcément des indices que la version officielle est fausse (il y a quantité d’explications alternatives), et encore moins des preuves. Et leurs (mauvaises) conclusions sont ensuite postées avec force indignation en ligne, afin d’hystériser le débat. De la même manière, les militant·es antivaccins ne vont pas tenter (1) une synthèse des coûts/bénéfices des vaccins qui serait la stratégie rationnelle et scientifique, mais vont (2) sélectionner uniquement les études qui vont dans leur sens (p.ex. Jost pour Tranxen) et (3) critiquer les détails des études qui concluent à des effets positifs de la vaccination (l’analyse du W de la courbe d’une seule étude, sans citer ni sans doute connaître toutes les autres). Et à la fin, essayer de torpiller la réputation des spécialistes en suggérant qu’ils sont incompétents (ou corrompus si la première stratégie échoue), alors que c’est leur critique qui l’est.
On peut ajouter à la méthode idéologique, quelques jours plus tard au vu des réactions en ligne à mon texte, (4) l’inversion accusatoire et victimaire : Tranxen se plaint d’avoir le coeur vidé, sans doute suite à ma réponse à ses critiques virulentes, et d’autres le soutiennent, en oubliant bien sûr le même effet qu’il a délibérément causé en premier en me traitant de désinformateur et pire (Raoult), et en oubliant que sa critique aurait pu rester publiquement bien plus polie et constructive (comme elle l’a été en privé). Toutes les critiques ad personam (ignorance, arrogance, etc.) que je lui ai faites sont des réponses aux siennes, elles n’auraient jamais eu lieu sans ses propres attaques outrancières. Il faut rappeler que dans ma conférence aux REC, je mentionne juste les ZEM comme exemple pour moi d’intrusion de l’idéologie en zététique, sans aucune mention de personne ni attaque personnelle. Cette sorte de manque de métacognition sur ses propres actes s’intègre bien avec le manque de métacognition sur ses connaissances et lacunes du demi-expert (Dunning-Kruger). Il est normal de ne pas être conscient·e de ses limites, mais le fait de manquer totalement de prudence quant à ses connaissances face à des professionnels du domaine est le signe d’une forme de narcissisme très visible dans la critique idéologique.
La méthode idéologique (points 1-3) a été également décrite par Shermer (1997) à propos des créationnistes et des révisionnistes. Au lieu de produire comme en sciences une nouvelle théorie qui explique ce qu’explique l’ancienne théorie plus un nouveau contenu en partie corroboré (Lakatos), ce qui infirmerait vraiment l’ancienne théorie, ils vont se concentrer sur certains détails, erreurs, anomalies apparentes de la théorie pour penser en déduire qu’elle est fausse. Mais comme le soulignait Lakatos, toute théorie est entourée d’un « océan d’anomalies » (sinon elle expliquerait tout), ce qui contrairement au point de vue strictement poppérien, ne la réfute pas. Les créationnistes vont tenter de trouver tel ou tel cycle de reproduction tellement complexe pour tenter de montrer que l’évolution par hasard n’est pas possible (comme par exemple le cycle de la douve du foie, l’apparition de l’œil, etc.), trouver quelques cas que la théorie de l’évolution a du mal à expliquer (sans doute temporairement, on découvrira aussi dans le futur d’autres mécanismes à l’œuvre, donc ce n’est évidemment en rien une réfutation de toute la théorie), focaliser sur l’absence de preuve expérimentale de l’apparition de la vie pour argumenter que c’est impossible (alors que l’absence de preuve n’est pas preuve de l’absence), et en oubliant sciemment les milliers de phénomènes qu’explique parfaitement la théorie de l’évolution. Les révisionnistes vont aussi se concentrer sur les apparentes anomalies (erreurs inévitables dans les témoignages, les documents, etc.) pour tenter de faire croire que l’ensemble de l’holocauste n’a pas eu lieu.
L’exemple le plus extrême de la méthode idéologique que je connaisse est celui du harcèlement que le psychologue Stephan Lewandowsky a subi dans les années 2010-2018, qu’il a décrit dans un chapitre éloquent (2019). Pendant ces années, il a été harcelé par les climatosceptiques par rapport à ses recherches sur la théorie du complot qui veut que le réchauffement climatique soit une invention de la gauche. Des demi-spécialistes ont réanalysé les données de certaines études afin de tenter de montrer que les résultats étaient incorrects (sans avoir les moyens de le faire), et des interprétations complotistes de l’article lui-même sont apparues sur le net (qu’il était payé par le gouvernement). Les complotistes ont même réussi à faire rétracter un article pour de mauvaises raisons (il a été republié dans une autre revue), et ils ont également écrit des plaintes à l’université contre le chercheur (et de nombreux téléphones, en un véritable harcèlement), lequel a également reçu des menaces personnelle, et des vidéos détournées sur Youtube. Lewandowsky décrit la violence des attaques, la toxicité des négationnistes de la science. Il a pu calculer qu’un seul individu a posté environ 400 tweets en 3 ans pour tenter de le diffamer lui ou son travail, soit environ un toutes les 66 heures (toute similarité avec d’autres personnes existant ou ayant existé sur les réseaux sociaux n’est que pure coïncidence)… Des phénomènes semblables ont pu être observé pendant la pandémie de la part des militant·es antivaccins.
Précisons que je ne prétends évidemment pas que les ZEM&S sont au niveau des créationnistes, des révisionnistes, ou pratiquent le harcèlement que subissent certains scientifiques par des militants antiscience, ce qui est plutôt le cas de certain·es militant·es anti-mesures sanitaires avec qui j’ai interagi. Mais pour moi les ZEM&S se situent au tout début de ce processus : défendre une idéologie donnée dès le départ peut à un niveau extrême mener à ces dérives.
A la défense de Tranxen, il est vrai que parfois — heureusement rarement parce que la plupart des spécialistes ne sont pas des escrocs ou des incompétents —, des non-spécialistes peuvent détecter des fraudes de la part de spécialistes, comme l’ont fait « Sonic Urticant » ou Alexander Samuel (ayant tous deux une formation scientifique mais ne publiant pas dans le domaine médical) lors de la pandémie avec certains articles de Didier Raoult. Donc il faudra effectivement se poser la question à la fin de ce texte si au vu des éléments présentés, nous sommes dans une configuration plutôt comme le prétend Tranxen (a) Wagner-Egger = Raoult (narcissique et incompétent) et Tranxen = lanceur d’alerte, ou plutôt comme je vais tenter de le démontrer (b) Wagner-Egger = expert (non pas infaillible mais ayant de bonnes connaissances du domaine) et Tranxen = antivax (incompétent, narcissique et quérulent), pour reprendre la rhétorique « provoc » de Tranxen sur X. Au vu des éléments rapportés ici, il me semble qu’il n’y a guère de doutes à avoir.
Développement
Cet article a donc un double but, le premier étant de répondre aux critiques de Hugo Lagouge (dit @Tranxen1 sur X) par rapport à ma conférence du 22 avril 2023 aux Rencontres de l’Esprit Critique à Toulouse :
Propos sur lesquels nous avons ensuite réalisé un entretien avec Mr. Sam pour dissiper certains malentendus et ajouter des éléments :
Le deuxième but bien plus intéressant de ce texte, touchant au domaine de la philosophie des sciences, sera de faire l’analyse d’une méthode que je vais nommer la « méthode idéologique », similaire à toute forme d’idéologie qui fait intrusion dans le domaine scientifique.
Précisons d’où nous parlons tous les deux : Hugo Lagouge se décrit sur son profil LinkedIn comme un curieux et passionné avec des expériences multidisciplinaires en sociologie, psychologie, sciences politique et économique, en théâtre, animation et en communication. Il dit aborder une multitude de sujets avec toujours une certaine exigence critique (parce qu’il sait que toutes les expertises ne se valent pas). Je n’ai trouvé aucune publication scientifique ou autre de sa part. Ses analyses se trouvent sur son blog et dans des vidéos en ligne.
Je suis depuis 1996 assistant-doctorant puis lecteur depuis 2004 au Département de Psychologie de Fribourg, dans lequel j’enseigne la psychologie sociale et les statistiques. J’ai publié une soixantaine d’articles et de chapitres dans des revues scientifiques, des ouvrages collectifs en français et en anglais, ainsi que quelques livres. J’ai passé ma thèse de doctorat en 2003 à l’Université de Lausanne, et ma thèse d’habilitation à l’Université de Fribourg en 2020. Ma thèse portait sur les facteurs sociaux dans le fonctionnement cognitif, ma thèse d’habilitation sur les croyances complotistes, et j’ai publié 7 articles scientifiques dans des revues à comité de lecture et un livre sur les biais cognitifs.
Il apparaîtra à certains que cette simple présentation a pour but de favoriser un argument d’autorité. En réalité, comme je le défends dans un de mes livres (Bellevaut & Wagner-Egger, 2022), l’argument d’autorité est parfaitement valable, statistiquement, lorsqu’un expert s’exprime dans son domaine de compétence : De façon probabiliste (sans certitude), l’avis d’un·e expert·e dans son domaine sera en moyenne meilleur que celui d’un·e demi-spécialiste (un·e amateur·trice qui aurait beaucoup lu sur le sujet mais ne publie pas), lequel sera en moyenne meilleur (ou parfois équivalent avec l’effet de surconfiance) avec l’avis d’un·e non-spécialiste, à moins de supposer que l’acquisition de connaissances et de l’expertise n’a aucun effet sur la connaissance. L’argument d’autorité devient effectivement un biais rhétorique quand l’expert·e s’exprime hors de son domaine de compétence, avec lequel il va tenter d’influencer autrui par le fait que son aura dans son domaine ferait de lui une source fiable dans d’autres domaines (ce qui est loin d’être le cas). Je ne souligne pas cela pour suggérer que j’aurais raison — sinon j’arrêterais là et m’épargnerais la longue démonstration qui suit —, mais plutôt pour souligner que Tranxen devrait à la base faire preuve de beaucoup plus de prudence, poser des questions au lieu d’affirmer par exemple, dans sa critique.
Comme le souligne Tranxen (au passage, son pseudo est une référence sympathique à un sketch des Inconnus), il y a effectivement mieux que l’avis d’un·e expert·e, c’est celui de plusieurs expert·es, ou mieux de la majorité des expert·es — ce qu’on appelle généralement consensus scientifique. Ainsi, il se peut que mon avis d’expert soit un avis minoritaire, c’est le principal argument de Tranxen, qui le conduit je pense à rien moins que me comparer à Raoult sur X. Ce sera l’une des questions cruciales de ce débat, parce que s’il a raison, mon point de vue est effectivement problématique puisqu’il conduit le public comme il le dit à avoir une image faussée de l’état des connaissances sur le sujet, mais s’il a tort, nous revoilà avec un exemple de critiques des « semi-intellectuels déclassés et frustrés » dont parle Boltanski (2012), pour désigner les complotistes qui ont un certain niveau d’éducation, ou les communistes d’antan qui n’avaient pas fait de hautes études, mais dont l’intelligence partielle était complètement mise au service de leur idéologie (ils étaient considérés comme les plus fanatiques des communistes).
Sur la forme
Il convient d’abord de s’arrêter sur la forme, parce qu’elle participe de cette « méthode idéologique » que je vais tenter d’illustrer dans ce texte. C’est (la forme) d’ailleurs l’un des éléments qui provoque des tensions dans le milieu de la zététique, et ce pour plusieurs raisons. (1) le collectif s’appelle « Zét-Éthique Méta-critique » (ZEM), ce qui indique déjà une posture de supériorité morale et épistémique auto-attribuée. Le mot éthique suggère que la zététique traditionnelle ne l’est pas assez, tout comme « critique ». Un membre ZEM&S reposté en avril 2024 par Tranxen, nous apprend qu’il a « fini de perdre tout espoir d’améliorer le mouvement sceptique de l’intérieur »…. Il sait donc ce qui est Bien et Bon ! Bon nombre de zététiciennes et zététiciens « traditionnels » se sont plaints de la virulence des attaques, à tel point que certain·es ont tenté de le quantifier en ligne : https://www.youtube.com/watch?v=t6V1TcYp51Q, et comme dans tout débat et encore plus sur les réseaux sociaux, cela a entraîné des contre-attaques, à tel point que les deux camps s’accusent mutuellement de harcèlement, et que certaines personnes des deux bords ont dû faire des pauses temporaires ou définitives de leur activité sur X (dans le même tweet, le membre ZEM&S se plaint d’avoir été mal reçu par des zététicien·nes parce qu’il demandait des sources ; il faut bien sûr rester ouvert à la critique, donner des sources comme je vais largement le faire ici, mais cela dépend aussi du ton et de l’aspect respectueux, constructif des critiques).
On m’a objecté justement que tout le monde croit que sa position ou ses connaissances sont meilleures moralement et épistémiquement que celles des autres (sinon on ne dirait rien), mais comme pour le fait que nous avons toutes et tous des idéologies, le point crucial c’est à des degrés divers, et c’est aussi le cas pour ce sentiment de supériorité, qui risque d’être plus fort pour toute position extrême ou militante :
Toner, K., Leary, M. R., Asher, M. W., & Jongman-Sereno, K. P. (2013). Feeling superior is a bipartisan issue: Extremity (not direction) of political views predicts perceived belief superiority. Psychological Science, 24(12), 2454–2462. https://doi.org/10.1177/0956797613494848
Cette posture morale est identique à celle d’une partie de l’extrême-gauche qui se définit comme progressiste (luttant à raison contre le racisme, l’homophobie, le sexisme et toute forme de discrimination, mais avec des méthodes critiquables) ou « woke » (dans le sens éveillé), mais que ses adversaires désignent comme « wokiste » (les deux camps peuvent utiliser « Social Justice Warriors » ou SJW). Il y a une revendication de supériorité morale très forte — ce qui horripile la partie de la gauche laïque, et en fait tous les autres bords politiques — chez ce courant, et tout ce qui se situe moins « à gauche » que lui sera considéré si pas comme « fasciste », du moins « faisant le lit du fascisme ». Ce militantisme est chez Tranxen (communication personnelle) justifié par la montée de l’extrême-droite, qui est certes un problème, mais on peut légitimement se demander si combattre un extrémisme par un autre est la bonne solution, parce que les excès manifestes de cette extrême-gauche (cancel culture, victimisation excessive et sensibilité excessive à la discrimination, comme considérer comme psychophobe UN sketch humoristique avec une camisole de force, essentialisme des identités sociales, déni de la liberté d’expression comme empêcher la tenue de conférences idéologiquement opposées, plutôt que de proposer des contre-manifestations, déboulonnage des statues au lieu de les expliquer ou de les déplacer dans un musée, vouloir réécrire ou mettre à l’index les œuvres littéraires du passé, menacer de mort une humoriste qui se moque des transgenres, etc.) sont du pain béni pour l’extrême-droite, qui va sans doute pouvoir recruter des gens plus centristes que de tels excès agacent. C’est bien sûr ici une question d’opinion, mais j’avance cet argument juste pour signaler que la posture morale supérieure n’est pas gage de justification politique.
Il faut souligner à propos de la forme qu’il existe quelques recherches montrant que des stratégie militantes radicales peuvent être utiles politiquement (ou pas), mais ici je questionne l’utilité des excès doctrinaires de l’EG et pas de ces stratégies liées au militantisme politique (à toutes fins utiles certaines de ces publications, à ma connaissance) :
Feinberg, M., Willer, R., & Kovacheff, C. (2020). The activist’s dilemma: Extreme protest actions reduce popular support for social movements. Journal of Personality and Social Psychology, 119(5), 1086–1111. https://doi.org/10.1037/pspi0000230
Fritz, L., Hansmann, R., Dalimier, B. et al. (2023). Perceived impacts of the Fridays for Future climate movement on environmental concern and behaviour in Switzerland. Sustain Sci 18, 2219–2244. https://doi.org/10.1007/s11625-023-01348-7
Shuman, E., Saguy, T., van Zomeren, M., & Halperin, E. (2021). Disrupting the system constructively: Testing the effectiveness of nonnormative nonviolent collective action. Journal of Personality and Social Psychology, 121(4), 819–841. https://doi.org/10.1037/pspi0000333
Simpson, B., Willer, R., Feinberg, M. (2022). Radical flanks of social movements can increase support for moderate factions, PNAS Nexus, Volume 1, Issue 3, pgac110, https://doi.org/10.1093/pnasnexus/pgac110
La deuxième caractéristique souvent reprochée à cette fraction de l’extrême-gauche est (2) sa virulence, qui est justifiée par la probité morale décrite ci-dessus et la perception du danger de la montée de l’extrême-droite. L’accusation est bien sûr reprise en miroir par les militant·es, qui se plaignent d’un harcèlement contraire. Mes échanges avec Tranxen nous donnent une bonne occasion d’évaluer ce point. Dans ma conférence, je critique les propos idéologiques sans base empirique, ainsi que les idéologies politiques extrêmes et leur intrusion dans la sphère zététique, en citant des collectifs comme le cercle Cobalt ou les ZEM. Tranxen répond en disant que ma conférence est digne de Raoult, dangereuse et s’apparente à de la désinformation scientifique, qui plus est sur la base d’éléments on le verra largement insuffisants et d’erreurs grossières — ce qui ne pourrait se justifier si le contenu de ma conférence était effectivement problématique (ainsi qu’on va pouvoir le juger ici).
Il y a donc on le voit un hiatus sévère entre la posture soi-disant éthique défendue par les « Chevaliers Blancs » de la zététique, et leur mode de communication. Pire, je trouve très instructive la différence entre l’individu qui respecte autrui dans ses messages privés (comme Tranxen le dit, nous avons échangé poliment et constructivement dans des messages privés), et ce qu’il affiche publiquement sur son blog (ma conférence = désinformation scientifique), et de façon encore plus virulente sur X (Raoult et « précédent dangereux »). Dans ses messages privés, il me dit que « les sources [de ma conférence] sont bonnes et nombreuses », ou « sur le fond vos sources sont impeccables », et encore « Sur le fond du message final je vous rejoins : effectivement se rendre compte qu’on est impliqué sur un sujet doit nous rendre vigilant à ne pas tordre la réalité », ce qui me paraît entrer en contradiction avec le fait que je sois un Raoult de la psychologie, que ma conférence « crée un précédent dangereux », qu’elle induirait le public en erreur en propageant « une vision à côté de la plaque de l’état du débat scientifique », et qui « s’apparente à de la désinformation scientifique ». Déjà en parallèle de notre discussion privée dont je le remerciais pour le ton poli et constructif, il postait sur son compte X :
Je le rappelle de la part de quelqu’un qui a une connaissance bien plus faible que la mienne sur les biais cognitifs et les croyances en psychologie (ce qui est parfaitement normal, vu que ce n’est pas son domaine de compétences)… Je ne vois dans ce partiellement double discours pas seulement le fait que par messages directs, il est effectivement plus difficile de critiquer vertement autrui que sur les réseaux sociaux, mais également comme un symptôme de la « méthode idéologique », qui veut créer l’indignation de ses troupes par ses exagérations outrancières sur les réseaux sociaux.
J’avais déjà noté quelques outrances irrationnelles, radicales, militantes et extrémistes, de la part de la communauté ZEM&S, par exemple quand Pierre Jacquel (dont les connaissances de doctorant sur les biais cognitifs et croyances vont être évaluées ci-dessous) se permettait de critiquer publiquement mon livre (Bellevaut & Wagner-Egger, 2022) sur la base du texte de couverture (écrit par l’éditeur), en postant même un avis sur Amazon ! J’ai aussi gardé le tweet de tel ZEM traitant Thomas Durand de « tas de fumier » (sa seule défense serait si Thomas l’a insulté de la même manière et qu’il lui répondait, qu’on me transmette cette pièce à conviction), du même qui disait d’une de mes remarques portant sur la méthodologie « sa remarque hautaine est incroyablement stupide » (je demandais aux critiques de la mesure de position politique de faire une critique scientifique, à savoir proposer d’autres mesures et voir si les résultats changent, plutôt que d’opter pour la critique idéologique : « c’est une mesure insuffisante donc les résultats sont biaisés », ce qui est le propre de la méthode idéologique des antivax et autres complotistes, ces derniers me l’ont d’ailleurs faite à propos des travaux sur les croyances aux théories du complot, pour tenter de les discréditer). J’ai également sous le coude un tout récent tweet d’une sympathisante ZEM qui nous dit que « les zet de Youtube c’est une arnaque, ils ont jamais ouvert un papier scientifique sur les croyances. Il n’en ont même pas les bases ».
On l’a compris, comme pour la critique de Tranxen, je vois dans la forme de la méthode idéologique ce mélange d’arrogance, de propos complètement outranciers — certaines critiques partielles peuvent bien sûr être faites rationnellement et dans un respect minimal, comme Tranxen en privé mais pas sur les rs, et oui je vais reconnaître plus bas que moi aussi, j’ai utilisé quelques formules qui peuvent être ambiguës ou mal comprises, ce qui est parfaitement normal pour une conférence de 20 minutes —, accompagnés d’une connaissance lacunaire du domaine dont ils parlent. On peut suspecter ici un Dunning-Kruger ou biais de surconfiance, typique de la méthode idéologique :
Lackner, S., Francisco, F., Mendonça, C. et al. Intermediate levels of scientific knowledge are associated with overconfidence and negative attitudes towards science. Nat Hum Behav 7, 1490–1501 (2023). https://doi.org/10.1038/s41562-023-01677-8
Motta, M., Callaghan, T. & Sylvester, S. (2018). Knowing less but presuming more: Dunning–Kruger effects and the endorsement of anti-vaccine policy attitudes. Soc. Sci. Med. 211, 274–281.
Nicholas Light et al (2022). Knowledge overconfidence is associated with anti-consensus views on controversial scientific issues.Sci. Adv.8,eabo0038.
Vranic A, Hromatko I and Tonković M (2022) “I Did My Own Research”: Overconfidence, (Dis)trust in Science, and Endorsement of Conspiracy Theories. Front. Psychol. 13:931865.
Dernier point d’éthique concernant la forme de la critique, quand je vais personnellement sur un domaine où mes compétences sont à moitié valables (par exemple en épidémiologie, je peux comprendre les stats mais pas les variables), je pose des questions aux gens qui visiblement en savent plus que moi : Peut-on dire ceci ou cela ? D’une part, j’évite de ce fait l’arrogance et la surconfiance du débutant, et d’autre part, je reçois une réponse beaucoup plus constructive et polie (au même niveau de ma question). C’est un peu ce qui s’est passé dans les messages privés avec Tranxen où nous avons échangé des arguments, mais ses propos en ligne témoignent d’une radicalisation pour moi typique de la méthode idéologique (des extrêmes politiques et du militantisme).
Sur le fond
Mon expertise est contestée sur deux points : (1) est-ce que les extrêmes politiques sont plus irrationnelles que les positions plus centristes, et (2) dans quelle mesure est-ce que les biais cognitifs sont liés aux croyances. Nous allons donc explorer plus en détails ce que disent les études sur ces deux points. Si Tranxen et d’autres peuvent me fournir un plus grand nombre d’articles scientifiques qui montrent l’inverse, alors elles et ils auront prouvé ce qu’ils avancent, que je défends une position minoritaire, et auront prouvé également la rationalité de leur point de vue et action dans le domaine de l’esprit critique. Si par contre il ne sont pas en mesure de le faire, nous serons dans le cas d’une critique et d’une méthode que j’appelle idéologique (en plus d’être lacunaire).
Ma thèse principale : les méthodes scientifiques (quantitatives en sciences sociales) permettent d’atténuer les idéologies que nous avons toutes et tous à des degrés divers, ce qui est d’autant plus important dans le domaine des SHS où les idéologies politiques abondent.
Dans ce texte, j’utiliserai le concept d’idéologie au sens général du concept, selon le Larousse : « Système d’idées générales constituant un corps de doctrine philosophique et politique à la base d’un comportement individuel ou collectif ». Comme exemples, nous pouvons penser aux idéologies politiques (d’extrême gauche, extrême droite, de centre gauche, de centre droite, du centre, libéralisme, communisme, conservatisme, anarchisme, libertarianisme, etc.), religieuses (créationnisme, intégrisme, etc.), ésotériques (p.ex. New Age), ou complotistes (p.ex. QAnon).
La méthode commune à toute les idéologies est celle que décrit Delouvée (2015) à propos du conspirationnisme : la conclusion est donnée dès le départ, et l’on va chercher tous les éléments concordants avec cette conclusion. A l’inverse, la méthode scientifique se veut plus constructive (elle tend du moins à cet idéal), les scientifiques vont former une conclusion au terme d’une série d’études ou de décennies de recherches (méta-analyses, consensus scientifique). Hygiène Mentale en avait fait un schéma utile :
La science est par essence anti-idéologique, non pas que les scientifiques n’aient pas d’idéologie, au contraire, de nombreux scientifiques sont religieux, communistes, libéraux, etc. Ce que je dis dans ma conférence et que je précise encore dans l’entretien avec Mr. Sam — qui était fait pour dissiper certains malentendus de la courte conférence, comme le fait que je renverrais dos-à-dos extrême-gauche et extrême-droite, ce qui est le cas seulement sur certains points, mais de loin pas complètement —, c’est que nous avons toutes et tous des idéologies, et que la méthode scientifique permet de les atténuer (« les méthodes quantitatives sont un bon moyen d’échapper en partie à nos idéologies » vers 4min15), de par le recours aux données empiriques qui peuvent contredire notre idéologie, ainsi que par la confrontation sociale à d’autres expert·es et la formation d’un éventuel consensus ou opinion majoritaire. C’est le même point de vue que celui du philosophe Gaston Bachelard (1967) pour qui la méthode scientifique permet aux scientifiques de lutter contre les « obstacles épistémologiques » de la pensée naïve, et la liste qu’il donne ressemble de près à ce que l’on appelle actuellement biais cognitifs. Max Weber définissait dans « Le savant et le politique » la neutralité axiologique qui dit que la chercheuse ou le chercheur doivent dans leur travaux de recherche se montrer autant que possible sceptique ou apolitique, distant·e face à toute thèse normative — ce qui est bien sûr impossible à 100% — mais bien entendu pas forcément sur la place publique.
Je défends donc principalement l’idée que la méthode scientifique ne peut et ne doit pas seulement être utilisée dans le domaine des sciences naturelles et de l’exploration du paranormal, comme cela a été classiquement le cas pour la zététique, mais également dans le domaine social et politique. Ainsi, les hypothèses, théories, idéologies sociales et politiques ne doivent pas seulement reposer sur des arguments et des auteurs célèbres qui les soutiennent, mais également sur la confrontation à des données empiriques. Ceci constitue d’abord une critique notamment des sociologies et idéologues d’extrême gauche (ou extrême droite), qui comme par exemple Lordon (2017) ne donnent aucune donnée empirique à l’appui de leurs thèses. Certains de leurs arguments peuvent bien entendu être corrects, mais il n’y a aucun garant qu’ils le soient, autre que l’aura de l’auteur ou la force subjective perçue des arguments. Dans ce sens, les idées, théories, etc., dont certaines peuvent provenir d’une idéologie, sont bien entendu utiles et même indispensables à la démarche scientifique qui est comme on sait hypothético-déductive, mais aussi inductive, les hypothèses et théories naissent des résultats empiriques précédents, mais à titre d’hypothèses à tester. On connait bien le cas où même des idéologies religieuses ont mené à des découvertes scientifiques, lesquelles bien sûr s’opposent finalement à la doctrine religieuse de départ, comme le moine Mendel et sa découverte des lois de la génétique. L’idéologie peut donc être utile seulement si elle est empiriquement évaluée (sinon elle reste dans le domaine de l’idéologie).
La critique de Tranxen par rapport à cette thèse principale constitue sa première erreur (erreur#1), qui n’est autre que la technique de l’épouvantail classique (homme/femme de paille) dans les débats politiques et encore plus sur les réseaux sociaux, qu’il m’attribue par ailleurs (ce que nous évaluerons plus loin) :
J’avance dès les premiers mots de la conférence que (a) nous avons toutes et tous, à des degrés divers, des idéologies, y compris au centre de l’échiquier politique (à moins de 2 min : « … nos positions idéologiques, politiques existent [chez] toutes et tous… »), et que (b) la méthode scientifique même en sciences sociales permet de les atténuer. Mais également que (c) les biais et idéologies et leurs risques d’erreurs — tordre la réalité pour qu’elle s’adapte à l’idéologie, plutôt que de tenter d’inférer son idéologie à partir de la réalité — seront d’autant plus forts si nous soutenons une idéologie plus extrême ou plus radicale politiquement, puisque la conclusion que nous défendons sera d’autant plus importante pour notre identité, voire notre existence. Ainsi, l’expression « zetapo » (« zététique apolitique ») n’est qu’un épouvantail assez grossier — il faudrait écrire plutôt zetmoinpo, « zététique moins politisée ». C’est ce que reconnaissait Tranxen dans ses messages privés, et il est instructif qu’il fasse un épouvantail au lieu de relever ce point d’accord (ou alors il a changé d’avis depuis).
Un bon argument avancé par Tranxen contre ma thèse principale est l’article d’opinion très intéressant (mais pas très nouveau, ces arguments existent depuis les années 60, dès les premiers travaux de Kahneman et Tversky ou Wason, cf. Wagner-Egger 2011) de Morais et Hertwig, des spécialistes du domaine, qui affirment que les méthodes expérimentales ne sont pas neutres, en donnant l’exemple des biais cognitifs dans le raisonnement probabiliste (on ne parle cependant pas ici du raisonnement logique et de tous les autres biais cognitifs) seraient dus à un choix méthodologique, de nombreuses recherches montrant que le raisonnement probabiliste n’est pas biaisé, d’autres (celles basées sur les méthodes de Tversky et Kahneman) démontrant l’existence de biais. Morais et Hertwig défendent également l’idée qu’il y aurait eu du fait de l’utilisation plus facile de la méthodologie de Tversky et Kahneman un biais dans les recherches sur le sujet en faveur de la position pro-biais, et que donc ce courant a exagéré l’irrationalité supposée de l’être humain. Ces auteurs concluent pourtant de façon « centriste » que pour que les gens aient de meilleurs intuitions statistiques (mais pourquoi le faire s’ils en ont déjà des bonnes ? Cela veut dire qu’une part des inférences sont tout de même erronées), il faut utiliser les outils de la littérature pro-biais (« nudging »), mais aussi de la littérature anti-biais (« boosting »).
Il faut noter qu’en fait, contrairement à ce que suggère Tranxen (erreur#2), cet argument ne réfute pas ma thèse principale. Je ne dis pas que telle ou telle méthode expérimentale va toujours produire des résultats qui diminuent ou annulent nos éventuels idéologies, biais ou croyances, je dis que LES méthodes empiriques (toutes les méthodes possibles, pas une seule en particulier) concourent à lutter contre nos préconceptions. C’est bien ce qui s’est passé dans le courant des heuristiques et biais, puisque ce sont d’autres méthodes expérimentales différentes qui permettent de dire que parfois voire souvent, nos intuitions statistiques sont bonnes (je vais développer ce point plus bas à propos des biais cognitifs).
Il faut noter aussi que les recherches du courant heuristiques et biais ne sont pas idéologiquement orientées autant que le sont les affirmations idéologiques sans preuves : au départ, il n’y avait pas de volonté de montrer que les gens font des erreurs et sont irrationnels, ou même s’il y en avait une (il faudrait une étude historique sur la genèse des travaux de Kahneman &Tversky), celle-ci ne pouvait pas être supportée sans que les résultats de milliers de recherches, avec des méthodes différentes, montrent un tel résultat (et ces recherches auraient pu aboutir à montrer que les gens ne sont pas biaisés). Donc ici l’idéologie dont on parle (les humains seraient en grande partie irrationnels) est, grâce à la méthode empirique, bien moins idéologique que des propositions semblables sans aucune donnée scientifique, et d’autre part, les limites de ces méthodes peuvent être découvertes par l’utilisation d’autres méthodes qui aboutissent à des résultats différents. Une théorie basée sur de nombreuses données empiriques issues d’un petit nombre de méthodes — dont la recherche ultérieure découvrira ou non les limites en utilisant d’autres méthodes — fait partie intégrante de la méthode et du progrès scientifique.
La seule position que fragilise les arguments de Morais et Hertwig est celle qui dirait que l’être humain est fondamentalement irrationnel dans le domaine du raisonnement statistique. Mais nous discuterons plus loin à propos des biais des autres domaines où cette discussion a lieu (raisonnement logique, croyances religieuses, paranormales, complotistes, aux fake news, au bullshit, croyances antiscience, etc.).
A ce stade, définissons la rationalité, parce que Tranxen se trompe également (erreur#3) sur ce point. Dans son article de critique sur Gérald Bronner de son blog, il écrit dans un puissant élan de relativisme :
« De plus, quand GB critique les complotistes ou les propagateurs de fake-news, il a souvent un discours disant « il faut éduquer la population à l’esprit critique, pour que les gens apprennent le consensus scientifique et faire la différence entre le vrai et le faux, la croyance et le factuel ». Sur le principe, très bien ! Mais en pratique, son discours et sa manière de voir cette éducation à l’esprit critique semblent ignorer la recherche en sciences de l’éducation, en linguistique ou en épistémologie, où une séparation claire vrai/faux est dépassée depuis genre… Hume et Laplace? Probablement avant à vrai dire, mais toujours est-il que parler « Du Vrai » comme si c’était évident et facile à atteindre est très naïf. »
A mon avis, on ne peut pas parler de sciences, d’esprit critique, ou de connaissance, ou même de quoi que ce soit sans « faire la différence entre le vrai est le faux ». Que le vrai soit difficile à atteindre est ce que montre toute l’histoire des sciences, celle des biais cognitifs et des erreurs de raisonnement, mais de là à avancer l’idée qu’on ne peut pas affirmer ce qui est vrai et faux (avec bien sûr de larges zones grises), on part dans le plus pur relativisme d’extrême gauche (celui de certains sociologues des sciences, etc.). Sans parler des croyances factuelles dont il est facile de savoir si elles sont vraies ou fausses (il y a du soleil aujourd’hui), il y a des connaissances sans doute définitivement vraies — ou de façon très improbablement fausses, jamais définitivement peut-être mais une certitude à 99,999% est une quasi-certitude — dans le domaine scientifique (le corps est composé de cellules, les espèces évoluent, la Terre et les planètes sont en forme de boules, etc.). Il y a bien sûr comme le relevait Etienne Klein pendant la pandémie la recherche en cours qui est bien plus incertaine, mais les sciences nous apportent les moins mauvaises méthodes pour s’éloigner de l’erreur (le fameux « it works, bitches » de Dawkins). Donc il y a une séparation claire du (très probablement) vrai et faux, avec à l’entre-deux une grande zone grise (l’erreur de Tranxen est de penser que cette zone grise empêche de parler du vrai et du faux), et il y a des méthodes et des théories scientifiques qui sont admises pour arriver (difficilement) à séparer le faux du vrai.
Ainsi, il existe bel et bien une rationalité définie précisément en psychologie du raisonnement, que je n’ai pas eu le temps d’aborder dans ma conférence, mais que j’aborde dans l’entretien avec Mr. Sam (et dans mon livre sur les biais, Bellevaut & Wagner-Egger, 2022), et donc l’affirmation de Tranxen : « Là encore c’est un problème de ne pas définir des mots aussi polysémiques que rationnel : chacun y voit quelque chose de différent, et on a vite fait de conforter les préjugés des uns et des autres » constitue son erreur#4. Mais comme il ne travaille pas dans ce domaine, il est normal qu’il ne connaisse pas ou peu la littérature sur le raisonnement de ces 60 dernières années — il devrait néanmoins être d’autant plus prudent dans ses affirmations.
En psychologie du raisonnement, on définit très précisément la rationalité2, celle en rapport avec le Système 2 (pour moi la véritable rationalité, les autres sont des rationalités en un sens bien plus faible que l’on devrait nommer autrement, fonctions, ou justifications), qui est mesurée par l’écart entre la réponse et une théorie normative acceptée dans le domaine scientifique. Ainsi, l’arithmétique donne des réponses normativement correctes dans le domaine du calcul, la théorie des probabilités (classique ou bayésienne) dans le domaine des probabilités, la logique dans le domaine du raisonnement logique, etc. Quand on mesure la rationalité, on prend de nombreuses tâches dont la réponse correcte est acceptée — oui il peut y avoir des tâches dont la réponse correcte est contestable, on ne les prendra pas en compte. Par exemple, pour établir un jugement de contingence correct entre deux événements A et B, la réponse normative nous dit qu’il faudra prendre en compte les fréquences des quatre cases du tableau (A et B, non A et B, non B et A, non A et non B) dans le calcul. Même les critiques des biais cognitifs utilisent quantité de théories normatives dans leur étude, en ce qui concerne l’analyse statistique des résultats par exemple.
D’autre formes de rationalité ont bien entendu été proposées par les psychologues, sociologues ou économistes (rationalité axiologique, utilitariste, etc.), en psychologie on parle par exemple de rationalité1, en rapport avec le Système 1. Cette rationalité1 caractériserait les raisonnements efficaces pour (a) la survie de l’espèce (rationalité adaptative) ou (b) les buts de l’organisme au niveau psychologique ou pragmatique (Evans et Over, 1997). Ainsi, les humains pourraient très bien être irrationnels2, mais rationnels1, comme dans le cas du biais (ou heuristique) de corrélation illusoire, qui est un raisonnement scientifiquement invalide, mais qui peut assurer la survie de l’organisme (bruit = danger). Personnellement, je trouve que cette façon de parler souffre de sérieuses limitations, cela amènerait à penser que la rationalité1 est aussi importante que la rationalité2, ce qui pour moi est loin d’être le cas. Johnson-Laird a par exemple critiqué la profusion possible de rationalités, puisqu’il suffit de trouver un critère pour en inventer une (rationalité musicale, kinesthésique, linguistique, etc.), ce qui confine à la tautologie (je peux toujours trouver une forme de rationalité pour tout comportement). De plus, la rationalité2 est supérieure à toute autre forme de rationalité1 du fait que la méthode scientifique est la seule méthode qui a permis aux humains de découvrir quelque chose de vrai sur le monde. Les formes de rationalité alternatives sont bien différentes de la rationalité2, laquelle implique un raisonnement conscient, des efforts cognitifs d’apprentissage et de concentration, ainsi que des siècles de découvertes mathématiques et scientifiques. Tandis qu’un comportement lié à la survie (comme la recherche de partenaires sexuels) n’implique que certains comportements relativement automatiques ou un peu vains (comme le culte de l’apparence, la séduction, etc.), soit des aptitudes certainement moins remarquables — même si oui, la parade nuptiale du paradisier est très belle, cela n’est toutefois pas comparable au niveau épistémologique à la démonstration mathématique de la conjecture de Riemann ! De même, le fait pour un individu de satisfaire ses propres buts égoïstes (rationalité1 pragmatique) est bien moins remarquable que les raisonnements mathématiques et scientifiques. Comparer les buts et fonctions psychologiques, évolutionnistes, sociaux avec les théories scientifiques construites par un effort collectif de millions de savant·es pendant des millénaires me paraît très discutable. Je préfère dire que si certaines réponses sont irrationnelles2 (donc irrationnelles au vrai sens du terme), elles peuvent bien sûr avec des fonctions adaptatives, pragmatiques, psychologiques, sociales, politiques, etc. (mais je n’appellerais pas ces fonctions rationalités, ou alors je rappellerais la supériorité ou l’incomparabilité de la rationalité2 au niveau épistémologique si je cite d’autres formes de rationalité).
Donc oui, certaines réponses, certaines croyances sont irrationnelles2, des erreurs d’un point de vue scientifique (par exemple interpréter une coïncidence par un lien de causalité ; cela peut être le cas, mais il faut plus de preuves), et les résultats du CRT (Cognitive Reflection Test) mesurant la pensée analytique se mesurent en nombre d’erreurs : une pensée plus analytique commet moins d’erreurs, une pensée plus intuitive commet davantage d’erreurs dans cette tâche. Les croyances (paranormales, religieuses, complotistes, extrémistes) peuvent aussi être considérées comme irrationnelles, parce qu’elles reposent sur des preuves que les scientifiques jugent insuffisantes (coïncidences, intuitions, ressentis, anomalies apparentes, heuristiques « à qui profite le crime », , et elles violent des principes scientifiques très importants comme le rasoir d’Ockham et le fardeau de la preuve (qu’on peut déduire du théorème de Bayes ; Cf. Wagner-Egger, 2021, à propos des théories du complot).
Mes thèses secondaires :
Passons maintenant aux différents points de critiques de Tranxen. Le titre lui-même de son article « La recherche sur les biais pour faire disparaitre son idéologie ? » contient déjà deux erreurs (!), les fameux épouvantails très communs dans tout débat politique — sans doute plus fréquents aux extrêmes, mais il est possible que j’en fasse aussi, on le verra plus loin. J’ai déjà mentionné que je ne prétends pas « faire disparaître l’idéologie » (erreur#1), et ce n’est pas la « recherche sur les biais » (erreur#5). Je dis que la recherche quantitative (en sociologie et psychologie) dans son ensemble permet de diminuer ses a priori idéologiques, pas seulement la recherche sur les biais.
Ma thèse #1 : L’extrémisme affaiblit la rationalité.
Le texte de Tranxen est truffé d’erreurs et d’approximations. Cela commence par :
« Le propre de la psychologie politique est de croiser des positions politiques (conservatisme, attrait pour l’autorité, l’égalité, etc) et des caractéristiques psychologiques (anxiété, peur de l’inconnu, capacité d’empathie, etc). Quand en politique on parle « des extrêmes », on mélange généralement deux choses : les « gens sur les bords de l’axe gauche-droite » (analyse de leurs idées), et les « gens qui défendent leurs idées de manière trop dogmatique » (analyse de leur psychologie) ».
Personne ne mélange ces deux choses, et cette phrase suggère que c’est Tranxen qui se « mélange les pinceaux ». D’abord les études scientifiques ne « parlent » pas des extrêmes, elles définissent l’extrémisme politique par l’auto-positionnement sur l’axe politique gauche-droite : On demande aux gens de se placer eux-mêmes sur un axe allant de l’extrême-gauche (notée ci-après EG) à l’extrême-droite (notée ci-après ED) en passant par le centre, typique sur une échelle de 1 = EG à 7 = ED, en passant par le centre (4). Dissipons ici aussi une critique que m’ont fait d’autres ZEM&S : si cette mesure n’était pas pertinente (c’est en fait la plus importante, qu’elle soit suffisante ou non), les gens n’y répondraient pas, vu qu’on laisse la possibilité de ne pas répondre. Ensuite, on demande aussi ce qu’ont voté les gens aux dernières élections, ou leur intention de vote dans un futur proche. Si comme on me l’a suggéré ces mesures sont insuffisantes pour rendre compte des attitudes politiques — c’est même certain, toute science simplifie la réalité par définition, c’est le principe de base du réductionnisme, dans certaines études nous distinguons conservatisme économique et social par exemple, opur voir si cela change ou non les résultats (Nera et al., 2021) —, il ne faut pas se contenter de la méthode idéologique qui dit « vos mesures des attitudes politiques sont insuffisantes, donc vos études sont fausses », mais il faut user de la méthode scientifique. Si je pense que vos mesures sont insuffisantes, à moi le fardeau de la preuve de publier une étude similaire en ajoutant d’autres mesures qui montrent que les résultats changent. Tant que ce n’est pas fait, on garde les résultats des études actuelles (sous réserve de modifications éventuelles futures), parce que comme chacun·e sait, ce qui est avancé sans preuves peut être rejeté sans preuves.
La psychologie politique ne confond donc pas la position extrême sur l’axe gauche-droite avec les « gens qui défendent leurs idées de manière trop dogmatique » (analyse de leur psychologie) (erreur#6) : la psychologie politique fait des études quantitatives pour voir si la position politique est liée à des caractéristiques individuelles (comme le dogmatisme) ou sociales (comme le recours à des stratégies de protestation non normative comme le recours à la violence, etc.), et ensuite procède à des méta-analyses ou des synthèses des études effectuées.
Tranxen commet l’erreur#7 juste après en affirmant : « Or, les auteurs mettent plutôt en garde contre le fait de parler d’irrationalité pour qualifier certaines opinions ». Dans sa note 8, il nous parle d’abord du conservatisme dans son ensemble, alors que je parle de Rigidité mentale (dogmatisme, intolérance à l’ambiguïté et à l’incertitude, inflexibilité, manque de complexité) qui n’est pas une croyance, mais une forme de « style cognitif ». Il ne peut y avoir aucun débat sur le fait que ce style cognitif est irrationnel, comme je l’ai rappelé à propos de l’erreur#4 (il existe des normes assez précises de rationalité). Pour parler du conservatisme puisque Tranxen aborde cet autre sujet, il s’agit d’un idéologie politique qui oui peut avoir ses justifications (personnelles, politiques, sociales), mais ne rendra pas la rigidité mentale rationnelle2 (d’ailleurs la flexibilité mentale fait partie des vertus épistémiques dans le champ de l’esprit critique).
Cette question renvoie pour moi à un problème plus général de l’EG face aux notions de vérité, de rationalité dans le domaine du savoir scientifique et de la zététique, qui est que l’EG a pour ADN politique (et c’est moralement bien sûr soutenable, c’est également mon cas, mais dans les limites du savoir scientifique) de défendre les opprimés du « Système », les minorités, les femmes, les travailleurs et ouvriers, face à la discrimination, aux inégalités sociales, etc. Mais quand les recherches scientifiques montrent que ces minorités sont moins rationnelles — au sens très bien défini développé plus haut rationnelles2 — par exemple que les femmes ont pour toutes sortes de raisons sociales des croyances paranormales plus élevées que les hommes (à part en ce qui concerne les OVNIs et autres E.T., où on observe une différence inverse ; cf. Irwin, 2009), ou que les gens en bas de l’échelle sociale (plus grande précarité, dans les pays où les inégalités sociales sont plus fortes, niveau d’éducation plus bas, etc.) croient davantage aux théories du complot, cela met idéologiquement l’EG face à un dilemme « sociocognitif » : soit on fait du cherry-picking dans les études scientifiques pour ne garder que les études qui vont à l’encontre du consensus scientifique et défendre qu’il n’y a pas moins de rationalité (méthode idéologique), soit on dénie toute validité aux études en disant que c’est l’idéologie des auteurs qui s’exprime (méthode idéologique antiscience), soit encore on définit d’autres formes de rationalité pour dire qu’en un autre sens, ces gens sont rationnels (mais c’est une erreur, comme je l’ai argumenté ci-dessus une inférence peut très bien être rationnelle1 ou en un autre sens, cela ne la rendra pas rationnelle2, elle restera donc irrationnelle2). Mais la méthode scientifique, quand il s’agit d’études répétées et concordantes, nous oblige à reconnaître la validité (partielle, et souvent provisoire) de cet ensemble de recherches, et à accepter dans certains cas une relative irrationalité des minorités que l’on défend, quitte à expliquer cette irrationalité par des facteurs sociaux (il paraît évident que la domination masculine a opéré et opère toujours dans le champ scientifique, et en a rendu l’accès aux femmes difficile, etc.), mais il faut pas exclure d’autres facteurs — c’est encore une fois à la recherche et pas à l’idéologie de statuer. Il faut aussi noter que les recherches sur le complotisme ne montrent en majorité pas de différences de genre (en fait certaines études pas de différences, d’autres études une différence dans un sens et d’autres dans l’autre sens), il s’agit donc bel et bien d’études scientifiques et pas d’idéologie. Détecter certaines formes d’irrationalité ou de biais cognitifs n’est pas « élitiste », comme l’EG le reproche parfois, puisque tout le monde est victime à des degrés différents des biais ou de l’idéologie politique. Mais nier le fait qu’il existe des croyances rationnelles et irrationnelles est tout simplement antiscientifique et d’un relativisme irrationnel (les paradoxes du relativisme sont bien connus, cf. Raynaud, 2018).
Le dogmatisme, la rigidité mentale telles que définies en psychologie sont sans conteste aucun irrationnelles2 : il s’agit d’attitudes qui sont contraires à la recherche rationnelle de vérité, puisque dans ce qu’on mesure par là, il faut entendre des dimensions comme la rigidité mentale (difficulté à réviser ses croyances), intolérance à l’ambiguité, complexité cognitive faible, évitement de l’incertitude, etc. Stanovich et collègues (2016) montrent d’ailleurs que deux échelles de ce type (« deliberative thinking » et « open-minded thinking ») sont significativement liées à l’évitement d’une liste de biais cognitifs, à la pensée analytique, et négativement aux croyances antiscientifiques, paranormales et complotistes, donc à la définition de la rationalité2.
Dans la suite de son texte, Tranxen reprend ce graphique de ma conférence, auquel il ajoute une légende :
A ce point de la discussion, nous pouvons demander dorénavant à Tranxen d’appliquer surtout et en premier à lui-même ses leçons arrogantes de bonne vulgarisation, et de s’occuper des erreurs manifestes (erreur #8) que sa méconnaissance de la littérature commettent : ce graphique n’a absolument pas « été créé par PWE pour illustrer sa conférence » comme seul un cancre pourrait l’affirmer, il figure dans l’article cité de Jost et collègues, qui répondent aux commentaires sur leur méta-analyse. Alors je veux bien que ça ne change pas le fond du problème (ça va juste faire mieux accepter idéologiquement le graphique quand il vient d’une source de préférence), mais ça prouve tout de même que Tranxen n’a pas lu les 3 premiers articles du débat que je cite dans ma conférence. Je trouve assez sidérant mais révélateur le contraste entre un tel niveau d’amateurisme et la gravité des accusations contre moi…
Donc nous avons (1) la thèse (méta-analyse de Jost et al. montrant plus de rigidité à droite), (2) l’anti-thèse (réponse de Greenberg et al. qui résument les études montrant plus de rigidité aux 2 extrêmes), et (3) la synthèse de Jost et al. :
(1) Jost, J. T., Glaser, J., Kruglanski, A. W., & Sulloway, F. J. (2003). Political conservatism as motivated social cognition. Psychological Bulletin, 129(3), 339–375. https://doi.org/10.1037/0033-2909.129.3.339
Abstract
Analyzing political conservatism as motivated social cognition integrates theories of personality (authoritarianism, dogmatism-intolerance of ambiguity), epistemic and existential needs (for closure, regulatory focus, terror management), and ideological rationalization (social dominance, system justification). A meta-analysis (88 samples, 12 countries, 22,818 cases) confirms that several psychological variables predict political conservatism: death anxiety (weighted mean r=.50); system instability (.47); dogmatism-intolerance of ambiguity (.34); openness to experience (-.32); uncertainty tolerance (-.27); needs for order, structure, and closure (.26); integrative complexity (-.20); fear of threat and loss (.18); and self-esteem (-.09). The core ideology of conservatism stresses resistance to change and justification of inequality and is motivated by needs that vary situationally and dispositionally to manage uncertainty and threat.
(2) Greenberg, J., & Jonas, E. (2003). Psychological motives and political orientation–The left, the right, and the rigid: Comment on Jost et al. (2003). Psychological Bulletin, 129(3), 376–382. https://doi.org/10.1037/0033-2909.129.3.376
Abstract
Presenting an impressive model based on a large body of evidence, J. T. Jost, J. Glaser, A.W. Kruglanski, and F. J. Sulloway (2003) proposed that political conservatism uniquely serves epistemic, existential, and ideological needs driven by fears and uncertainties. The authors offer an alternative view based on conceptual considerations, historical events, features of communist ideology and practice, and additional social science research not reviewed by Jost et al. (2003). First, the authors take issue with Jost et al.’s (2003) description of the two core components of political conservatism. Second, they propose that the motives in the model are equally well served by rigid adherence to any extreme ideology regardless of whether it is right wing or left wing.
(3) Jost, J. T., Glaser, J., Kruglanski, A. W., & Sulloway, F. J. (2003). Exceptions that prove the rule–Using a theory of motivated social cognition to account for ideological incongruities and political anomalies: Reply to Greenberg and Jonas (2003). Psychological Bulletin, 129(3), 383–393. https://doi.org/10.1037/0033-2909.129.3.383
Abstract
A meta-analysis by J. T. Jost, J. Glaser, A. W. Kruglanski, and F. J. Sulloway (2003) concluded that political conservatism is partially motivated by the management of uncertainty and threat. In this reply to J. Greenberg and E. Jonas (2003), conceptual issues are clarified, numerous political anomalies are explained, and alleged counterexamples are incorporated with a dynamic model that takes into account differences between « young » and « old » movements. Studies directly pitting the rigidity-of-the-right hypothesis against the ideological extremity hypothesis demonstrate strong support for the former. Medium to large effect sizes describe relations between political conservatism and dogmatism and intolerance of ambiguity; lack of openness to experience; uncertainty avoidance; personal needs for order, structure, and closure; fear of death; and system threat.
Dans leur synthèse, Jost et al. reconnaissent que la moitié environ des études conclut à une « rigidité de la droite », et l’autre moitié au pattern c du graphique (rigidité de la droite + rigidité des extrêmes).
Ces travaux datent de 2003, et Tranxen qui les a déjà mal lus ne connait pas l’ensemble des autres travaux qui ont été menés depuis sur cette question (et encore une fois, c’est parfaitement normal, ce qui est anormal c’est sa prétention à penser connaître le domaine sans exercer la profession).
Voici une liste des travaux en plus des 3 ci-dessus qui me font faire dans ma conférence, comme synthèse des études, le pattern c de Jost et al., le U qui penche à droite (rigidité de la droite + rigidité des extrêmes) :
Bayrak, F., Dogruyol, B., Alper, S., Yilmaz, O. (2023). Multidimensional intuitive–analytic thinking style and its relation to moral concerns, epistemically suspect beliefs, and ideology. Judgment and Decision Making, 18:e42. doi:10.1017/jdm.2023.45
Brandt, M. J., & Sleegers, W. W. A. (2021). Evaluating Belief System Networks as a Theory of Political Belief System Dynamics. Personality and Social Psychology Review, 25(2), 159-185. https://doi.org/10.1177/1088868321993751
Bowes, S. M., Clark, C. J., Conway, L. G., III, Costello, T. H., Osborne, D., Tetlock, P., & van Prooijen, J. (2023, June 27). An Adversarial Collaboration on the Rigidity-of-the-Right, Rigidity-of-Extremes, or Symmetry: The Answer Depends on the Question. https://doi.org/10.31234/osf.io/4wmx2
Conway, L. G., Houck, S. C., Gornick, L. J., & Repke, M. A. (2018). Finding the Loch Ness Monster: Left-Wing Authoritarianism in the United States. Political Psychology, 39(5), 1049–1067. http://www.jstor.org/stable/45094449
Costello, T. H., Bowes, S. M., Baldwin, M. W., Malka, A., & Tasimi, A. (2023). Revisiting the rigidity-of-the-right hypothesis: A meta-analytic review. Journal of Personality and Social Psychology, 124(5), 1025–1052. https://doi.org/10.1037/pspp0000446
Costello, T. H., Bowes, S. M., Stevens, S. T., Waldman, I. D., Tasimi, A., & Lilienfeld, S. O. (2022). Clarifying the structure and nature of left-wing authoritarianism. Journal of Personality and Social Psychology, 122(1), 135–170. https://doi.org/10.1037/pspp0000341
Ditto, P. H., Liu, B. S., Clark, C. J., Wojcik, S. P., Chen, E. E., Grady, R. H., Celniker, J. B., & Zinger, J. F. (2019). At Least Bias Is Bipartisan: A Meta-Analytic Comparison of Partisan Bias in Liberals and Conservatives. Perspectives on Psychological Science, 14(2), 273-291. https://doi.org/10.1177/1745691617746796
Imhoff, R., Zimmer, F., Klein, O., António, J. H., Babinska, M., Bangerter, A., … & Van Prooijen, J. W. (2022). Conspiracy mentality and political orientation across 26 countries. Nature Human Behaviour, 6, 392-403. https://doi.org/10.1038/s41562-021-01258-7
Jost, J.T. (2017), Ideological Asymmetries and the Essence of Political Psychology. Political Psychology, 38: 167-208. https://doi.org/10.1111/pops.12407
Jost, J.T., Amodio, D.M. (2012). Political ideology as motivated social cognition: Behavioral and neuroscientific evidence. Motiv Emot 36, 55–64. https://doi.org/10.1007/s11031-011-9260-7
Jost, J. T., Nosek, B. A., & Gosling, S. D. (2008). Ideology: Its Resurgence in Social, Personality, and Political Psychology. Perspectives on Psychological Science, 3(2), 126-136. https://doi.org/10.1111/j.1745-6916.2008.00070.x
Kossowska, M., Szwed, P. & Czarnek, G. The Role of Political Ideology and Open-Minded Thinking Style in the (in)Accuracy of Factual Beliefs. Polit Behav 45, 1837–1857 (2023). https://doi.org/10.1007/s11109-022-09789-z
Krouwel, A., Kutiyski, Y., van Prooijen, J.-W., Martinsson, J., & Markstedt, E. (2017). Does Extreme Political Ideology Predict Conspiracy Beliefs, Economic Evaluations and Political Trust? Evidence From Sweden. Journal of Social and Political Psychology, 5(2), 435-462. https://doi.org/10.5964/jspp.v5i2.745
McClosky H, Chong D. Similarities and Differences Between Left-Wing and Right-Wing Radicals. British Journal of Political Science. 1985;15(3):329-363. doi:10.1017/S0007123400004221
Osborne D, Costello TH, Duckitt J, Sibley CG. The psychological causes and societal consequences of authoritarianism. Nat Rev Psychol. 2023;2(4):220-232. doi: 10.1038/s44159-023-00161-4.
Proch, J., Elad-Strenger, J. and Kessler, T. (2019), Liberalism and Conservatism, for a Change! Rethinking the Association Between Political Orientation and Relation to Societal Change. Political Psychology, 40: 877-903. https://doi.org/10.1111/pops.12559
Van Hiel, A., Onraet, E., Crowson, H. M., & Roets, A. (2016). The Relationship between Right–wing Attitudes and Cognitive Style: A Comparison of Self–report and Behavioural Measures of Rigidity and Intolerance of Ambiguity. European Journal of Personality, 30(6), 523-531. https://doi.org/10.1002/per.2082
Van Hiel, A., Onraet, E. and De Pauw, S. (2010), The Relationship Between Social-Cultural Attitudes and Behavioral Measures of Cognitive Style: A Meta-Analytic Integration of Studies. Journal of Personality, 78: 1765-1800. https://doi.org/10.1111/j.1467-6494.2010.00669.x
van Prooijen, J.-W., & Krouwel, A. P. M. (2017). Extreme Political Beliefs Predict Dogmatic Intolerance. Social Psychological and Personality Science, 8(3), 292-300. https://doi.org/10.1177/1948550616671403
Zmigrod L, Eisenberg IW, Bissett PG, Robbins TW, Poldrack RA. 2021 The cognitive and perceptual correlates of ideological attitudes: a data-driven approach. Phil. Trans. R. Soc. B 376: 20200424. https://doi.org/10.1098/rstb.2020.0424
Zmigrod, L. (2020). The role of cognitive rigidity in political ideologies: Theory, evidence, and future directions. Current Opinion in Behavioral Sciences, 34, 34–39. https://doi.org/10.1016/j.cobeha.2019.10.016
Zmigrod, L. (2022). A Psychology of Ideology: Unpacking the Psychological Structure of Ideological Thinking. Perspectives on Psychological Science, 17(4), 1072-1092. https://doi.org/10.1177/17456916211044140
Je fais mienne la conclusion d’un récent chapitre de revue de littérature de 2023 aux Oxford University Press (que Tranxen ne connaît certainement pas, vu qu’il ne le cite pas, malgré sa récence et le fait qu’il s’agit d’une synthèse au cœur du débat) :
Stern, C., & Ruisch, B. C. (2023). New Evidence on an Enduring Question: The Role of Political Ideology and Extremism in Dogmatic Thinking. In: V. Ottati & C. Stern (Eds.), Divided, Oxford University Press.
Abstract
For nearly a century, researchers have debated how people across the political spectrum differ in their psychological profiles. One particularly enduring question concerns the degree to which political conservatives (i.e., those on the right) and liberals (i.e., those on the left) differ in their degree of dogmatism. The authors review emerging evidence concerning ideological differences in dogmatic thinking, particularly cognitive rigidity and judgment (over)confidence. Partially confirming classic perspectives, they find that those on the political right (vs. left) exhibit more dogmatic thinking across many domains. Importantly, however, they identify certain circumstances under which the extremity of a person’s ideology (i.e., how strongly liberal or conservative they are) might be an equally (or perhaps even more) potent predictor of dogmatism. Lastly, they consider directions for future research that may hold promise of shedding further light on the nature of the relation between political beliefs and dogmatism.
Tranxen affirme ensuite que :
« Cette méta-analyse donc, elle s’appelle « Le conservatisme politique, une cognition sociale motivée ». Dès le titre et le résumé, on a une idée qui est quasiment absente de la conférence de PWE, celle de l’asymétrie idéologique. Cette méta-analyse supporte l’idée que les idéologies conservatrices sont adoptées en partie car elles vont satisfaire des besoins psychologiques particuliers (par exemple le besoin de contrôle)[9]. Et pour ça on va avoir différentes manières de tester le dogmatisme, mais aussi l’autoritarisme, les besoins existentiels, la rigidité, etc. Et selon les méthodes employés, certaines études attestent l’hypothèse (a) et invalident la (b)[10]. La présentation des résultats faite par Jost est donc beaucoup moins nette que ce que laisse penser PWE : l’hypothèse du « dogmatisme de droite » est loin d’être négligeable. »
Je n’ai effectivement pas abordé ce point, puisque je m’en suis tenu à une synthèse des nombreuses études ci-dessus (et je n’avais ni le temps ni la nécessité d’aller plus loin), mais Tranxen essaie d’échapper à cette importante partie des études qui indique un dogmatisme aux deux extrêmes, en invoquant l’asymétrie idéologique. Mais Tranxen ne connait pas les autres travaux qui montrent qu’il y a aussi des menaces plus fortes du côté gauche, et que donc l’asymétrie idéologique peut s’inverser si l’on tient compte des menaces « de gauche » (p.ex. liées à l’économie), comme le soulignent :
Brandt, M. J., Turner-Zwinkels, F. M., Karapirinler, B., Van Leeuwen, F., Bender, M., van Osch, Y., & Adams, B. (2021). The Association Between Threat and Politics Depends on the Type of Threat, the Political Domain, and the Country. Personality and Social Psychology Bulletin, 47(2), 324-343. https://doi.org/10.1177/0146167220946187
Bref, Tranxen n’est pas suffisamment armé pour critiquer mon point de vue autrement que de façon très superficielle, et donc finalement fausse.
Je présente l’étude de Imhoff et al. (2022) correctement comme une « méta-analyse » de 39 échantillons dans 26 pays et plus de 100’000 personnes à laquelle j’ai participé avec de nombreux collègues, pour la simple raison que les analyses sont de type méta-analyse (random-effect meta-analytic models), et le résultat est présenté comme un « forest plot », typique des méta-analyses. Cette étude 1 suggère le U qui penche à droite (l’hypothèse c additive) sur l’ensemble des pays, à la fois une tendance à plus de complotisme à droite qu’à gauche (relation linéaire) et à la fois une tendance à plus de complotisme aux extrêmes qu’au centre (relation curvilinéaire). L’étude 2 menée dans 23 pays regroupait près de 38’000 personnes, et ne montre que la relation curvilinéaire.
Notons ici l’interprétation des autrices et auteurs, très intéressante pour notre discussion, et que l’on peut considérer comme l’expression du consensus scientifique européen sur la question (presque tou·tes les spécialistes y sont ; j’ai enlevé les références citées dans ce paragraphe que vous pourrez retrouver dans l’article) :
« One way to make sense of such a U-shaped relation between political orientation and conspiracy mentality is grounded in the content-based overlap between conspiracy beliefs and worldview explanations on the political extremes. This worldview explanation is based on the notion that extreme political movements at both the left and right share a common set of features, which include a pronounced tendency to distrust and reject groups and ideas that differ from their own. The left and right extremes share a worldview that centres on Manichaean demonization of ideological outgroups, which are represented not only as wrong but as immoral and dangerous. Conspiracy theories similarly represent outgroups as evil, and are associated with Manichaean views of history as a struggle between good and evil forces vying for control of societies. Research on authoritarianism, a key antecedent of conspiracy beliefs, sometimes points to an authoritarianism symmetry hypothesis: authoritarian views in which dissent is not tolerated are observed on both the right- and left-wing extremes. Likewise, both extreme positions show an affinity to a belief in simple solutions, which is also associated with conspiracy beliefs. This worldview explanation thus suggests that the curvilinear relation in which conspiracy mentality is associated with extreme (left or right) political ideology is more or less universal across national contexts. Indeed, across time and cultures, conspiracy theories are common in the discourse of extremist fringe groups independent of ideology (extreme left, extreme right, religious fundamentalism and anti-technology) ».
La suite de la critique de Tranxen devient lunaire. Il affirme :
« Au fond les écarts ne sont pas très significatifs et avec des fortes marges d’erreurs, certains pourraient même en conclure que ça ne prédit rien. Mais j’ai un peu des doutes là-dessus, il serait prudent de dire qu’il y aurait un petit effet du positionnement politique sur le complotisme, mais que c’est dur à voir. En tout cas, l’affirmation faite par Wagner-Egger que « oui on trouve bien une courbe en U penché quand on mesure le niveau de complotisme par affinité politique » est factuellement fausse ».
Si cette affirmation est factuellement fausse, il faut que Tranxen ne se contente pas de l’affirmer en non spécialiste qui n’y connaît à peu près rien sur son blog, mais qu’il soumette un article dans la même revue en réanalysant à sa façon les données pour montrer que les conclusions des 41 auteurs professionnels du domaine et les reviewers de l’article se sont trompés (je n’ai que l’exemple des pseudo-spécialistes antivax sur Twitter qui me vient quand j’essaie de comparer cette situation avec d’autres connues…). Les résultats des analyses statistiques effectuées (et pas les intuitions de Tranxen ou d’autres) montrent plus de complotisme à droite (effet linéaire) et aux deux extrêmes (effet quadratique), donc U penché vers la droite ou schéma c de Jost pour l’étude 1, et plus de complotisme aux deux extrêmes (effet quadratique) pour l’étude 2 (relation quadratique), donc U symétrique ou schéma b de Jost. C’est donc l’erreur#9 de Tranxen, et elle est tellement monumentale que je conseille à Tranxen ne prendra plus la parole publiquement sur des questions de recherche scientifique sans demander d’avis d’au moins un·e expert·e. Si ces résultats ne plaisent pas à l’idéologie de Tranxen, ce qui tout le monde comprend bien, qu’il fasse d’autres études de cette ampleur et que ses résultats montrent qu’il y a plus de complotisme au centre et moins aux extrêmes, s’il veut participer au débat scientifique sur ce sujet. Si c’est le terme U qui semble déranger nos demi-experts Tranxen et Jacquel qui voient un W, alors au lieu de U qui penche à droite, ils peuvent ne garder que les termes techniques (linéaire = plus à droite qu’à gauche + quadratique = plus aux extrêmes qu’au centre). L’erreur grossière que commettent Tranxen et Jacquel, tout en ricanant en ligne, est que ce résultat est indépendant de tout W et petit pic central qu’ils vont observer en se focalisant sur des détails pour tenter d’invalider le tout (méthode idéologique).
La critique du W n’est pas aussi incroyablement fausse que la précédente, mais elle témoigne tout de même de la tendance de la méthode idéologique de chercher les petits détails qui invalideraient — en réalité non — la thèse générale, ainsi qu’une méconnaissance des analyses statistiques, ce qui est normal pour des gens dont ce n’est pas la profession ou qui ne publient pas d’études scientifiques, mais ce qui est bien sûr problématique, c’est leur arrogance et prétention à croire qu’avec leurs connaissances limitées, il peuvent réfuter les conclusion d’une quarantaine de professionnels du domaine, parmi les meilleurs connaisseurs des croyances complotistes en Europe (d’après nos discussions, Jacquel ne comprend tout simplement pas ce que veulent dire les analyses statistiques effectuées, il confond linéaire et courbe en V, ne sait pas que U est indiqué par une courbe quadratique ou curvilinéaire, tout en pensant comme à son habitude qu’il est un génie et que tous les autres sont stupides, l’attitude idéologique, ultra-narcissique typique des idéologues, à la Raoult ou Aberkane). L’ajustement de courbes (curve fitting) revient à tester si certaines courbes sont significativement ou non ajustées au nuage de points, et plusieurs courbes peuvent s’ajuster, et en quelque sorte s’additionner, et n’épuisent pas forcément la description du nuage. On peut donc très avoir une courbe en U (globalement plus aux extrêmes et moins au centre), plus une courbe linéaire positive (plus à droite qu’à gauche), plus encore d’autres caractéristiques (comme un petit pic sur l’une des positions centristes). Il est vrai qu’il n’y a pas d’analyses statistiques simples pour tester l’existence d’un W, mais les courbes sont d’abord testées par rapport aux hypothèses basées sur les résultats précédents. Ainsi, les autrices et auteurs de l’étude n’ont pas jugé bon de tester ou de commenter ce petit pic au centre, puisque c’est la première fois qu’on l’observe, alors que des recherches précédentes ont déjà trouvé le U symétrique ou qui penche à droite (on attend avec impatience les réanalyses ZEM&S en W de ces études) :
van Prooijen, J.-W., Krouwel, A.P., & Pollet, T. V. (2015). Political extremism predicts belief in conspiracy theories. Social Psychological and Personality Science, 6(5), 570-578. https://doi.org/10.1177/1948550614567356
Walter, A. S., & Drochon, H. (2022). Conspiracy Thinking in Europe and America: A Comparative Study. Political Studies, 70(2), 483-501. https://doi.org/10.1177/0032321720972616
Deux observations en plus : (1) les extrêmes du W restent plus élevés que le pic d’une des positions centrale. Si le sommet central du W était très fort, cela annulerait les effets linéaires et quadratiques, ce qui n’est pas le cas. (2) Il s’agit peut-être d’un artefact quand on agglomère les données de tous les pays. A l’appui de (2), j’ai les courbes des trois échantillons francophones de l’étude de Imhoff et al. (France, Suisse et Belgique) sur le CMQ (complotisme générique) plus sur les 6 TC spécifiques testées dans l’étude, ainsi que les deux échantillons IFOP représentatifs de la population en France (avec chacun 10 TC + CMQ pour l’un des deux), et le pattern que je retrouve le plus souvent dans ces plus de 40 graphiques est le U qui penche à droite (il y a parfois la relation linéaire simple, plus de complotisme à droite qu’à gauche), mais jamais de pic au centre qui dépasserait les extrêmes. Donc voici l’erreur#10 de Tranxen (oui pour le W, mais le W n’infirme pas le U qui penche à droite, c’est un très éventuel résultat qui qualifie le U et demande confirmation, le pic étant moindre qu’aux extrêmes et pas sur toutes les positions centristes).
Les analyses « two-lines technique » ne testent pas non plus le W, mais elles confirment bien la courbe en U ou plus exactement en V (plus de complotisme aux extrêmes qu’au centre, avec ou sans W) dans l’étude 1 et l’étude 2 ! Expliquons donc bien aux non experts ce que disent ces deux analyses valables pour l’étude 1 et 2 : (1) il y a une diminution linéaire significative du complotisme de l’EG au centre (malgré le petit pic), et (2) il y a une augmentation linéaire significative du centre à l’ED (malgré le petit pic). Pour réellement réfuter le U qui penche à droite, le pic central devrait être suffisamment fort pour annuler les effets linéaires et quadratiques, ainsi que rendre non significatives les deux tendances de la techniques two-lines, ce qui n’est pas le cas, sans doute parce qu’on n’observe ce pic que sur une seule des 6-7 positions centrales. Un réel complotisme de l’extrême centre serait une courbe en ^, pas en W (erreur#11) !
Mais je terminerai à la décharge de Tranxen et Jacquel, qu’on est peut-être là en présence d’un phénomène nouveau (qu’on peut garder en tête pour les prochaines recherches et analyses), il semble simplement pour le moment plus probable que ce soit un artefact (il n’apparaît pas dans les autres échantillons, certes plus petits, comme les IFOP). Une interprétation d’un tel effet à confirmer a été proposée par Florian Cova dans une discussion sur X, ce serait dû à des personnes qui se classent elles-mêmes au centre, ne voulant pas être assimilées aux extrêmes, alors que leurs attitudes les identifieraient aux extrêmes ; ceci expliquerait pourquoi quand on demande dans les sondages IFOP pour qui les gens ont voté, il n’y a pas de pic pour la position centrise « Macron ». Cette explication serait bien sûr à valider empiriquement, pour autant que l’on retrouve le petit « pic » central.
Tranxen conclut en disant que je fais une « présentation fallacieuse » de ma propre étude (je ne vais pas compter cela comme une erreur supplémentaire, disons qu’elle découle de façon logique des erreurs précédentes), ce qui à nouveau devrait le plonger dans un grand embarras de la part de quelqu’un qui se réclame de la science ou de l’esprit critique, et je serais évidemment ravi — mais peut-être trop naïf — si dans le futur il faut preuve d’un peu plus de modestie devant sa capacité à critiquer une profession qu’il n’exerce pas (ou qu’il recoure au moins à une expertise extérieure).
Tranxen nous démontre encore son manque de connaissance et d’expertise à propos des sondages IFOP, qu’il juge « bancals » ou « clairement mauvais », sans avoir bien sûr de sa vie utilisé la méthode du questionnaire d’une façon professionnelle (avec publication dans une revue scientifique). Mais c’est l’occasion ici de dénoncer les abus de la critique idéologique, et de rappeler encore une fois ce qu’est une critique rationnelle et scientifique. Il faut (1) être professionnel du domaine pour savoir dans quelle mesure telle ou telle critique est valable, et mieux, on peut (2) tester empiriquement si tel ou tel défaut supposé des mesures a un effet sur les résultats (donc prouver un biais du questionnaire, plutôt que de le suspecter sans preuves, exactement comme le font les complotistes avec les théories du complot).
Tout d’abord, il faut souligner que les questionnaires IFOP sont tout à fait comparables aux questionnaires que nous utilisons sur le complotisme. Il y a des questions sur les TC classiques (les affaires Diana, Kennedy, etc.), et dans l’un des questionnaires le CMQ que l’on utilise pour mesurer les croyances complotistes génériques (non liées à un contexte particulier, en évoquant « les gouvernements » ou « les autorités ». Des collègues et moi (et des collègues sans moi) avons utilisé et publié plusieurs études qui comprenaient ces questionnaires IFOP, qui donnent des résultats comparables aux autres échantillons et mesures (les habituelles corrélations négatives avec le niveau d’éducation, l’anomie, etc.).
La présence d’une question qui semble mal formulée selon son intuition personnelle n’est pas la preuve d’un biais qui ferait que les résultats du sondage sont faux. Nous utilisons d’ailleurs toujours des indicateurs comprenant plusieurs questions (et pas une seule) que nous agglomérons ensuite en un score, pour éviter qu’une seule question ambiguë ou mal formulée modifie les résultats. La méthode idéologique de Tranxen et cie consistera à soulever un problème potentiel (de façon non empirique, mais intuitive) pour essayer de dénigrer l’ensemble des résultats. C’est exactement la méthode des coronasceptiques, comme par exemple, la dénommée Véronique Baudoux, qui se présente comme « Médecin généraliste homéopathe depuis 24 ans », pratiquant diverses médecines alternatives (iridologie, auriculothérapie, médecine énergétique, bioénergie avec antenne de Lecher, chamanisme, channeling) qui « comblent son goût pour l’approche holistique de l’être humain ». Au nom de cette perspective globale, Véronique Baudoux s’est formée en sexologie et thérapie de couple, débouchant sur le livre « Divine Sexualité » paru aux éditions Marcel Broquet. Elle est également « conférencière et animatrice d’ateliers de développement personnel pour hommes, femmes ou couples ». Sur la base de ses lointaines études en médecine, elle s’est mise à « débunker » certains articles scientifiques sur les vaccins. J’ai échangé quelques mots sur la question du complotisme (sur lequel elle récitait évidemment des poncifs totalement faux), et quand je lui ai envoyé quelques références d’articles, elle s’est attaché à « prouver » que nos milliers d’études étaient « bidon », vu que certaines échelles contenaient par exemple des références à l’origine du COVID comme accident de laboratoire à Wuhan (ce qui n’est pas à proprement parler une théorie du complot, il n’y avait pas d’intention de disséminer le virus, mais tout de même ce que j’appelle un demi-complot, le fait de cacher l’accident). Bref, de toute façon les résultats peuvent s’analyser sans cet item et montrer les mêmes résultats, et d’autre part la croyance dans l’accident de laboratoire sans preuves sera bien évidemment corrélée avec les autres accusations de complot sans preuves suffisantes (le vaccin et les masques qui tuent, etc.).
La seule critique du premier sondage (le deuxième avait été corrigé de ce point de vue) — qui aurait pu être valable si testée empiriquement — était le fait qu’on demande l’adhésion à différentes théories du complot sans possibilité de réponse « ne sait pas », et qu’on pouvait voir qu’une partie des gens ne connaissait pas telle ou telle théorie du complot (on interrogeait sur la connaissance et sur l’adhésion). Les résultats similaires du deuxième sondage suggèrent déjà qu’il n’y a pas eu de biais majeur dans le premier, et cela peut se tester empiriquement, en enlevant les gens qui disent n’avoir jamais entendu parler de la théorie considérée. Et devinez quoi ? Cela ne change rien aux résultats sur les relations en U (mais il est par contre utile de le vérifier).
Donc finalement, les deux sondages IFOP sur deux échantillons représentatifs de la population française de plus de 1000 personnes montrent de manière congruente avec les autres échantillons le plus souvent des courbes en U penchées vers la droite, sans aucune « bosse au centre » (W), et montrent ce pattern également avec les croyances paranormales !
Tranxen conclut cette partie de manière un peu surprenante au vu de ses critiques, mais révélatrice :
« Pour résumer : on constate peut-être une forme de pensée plus rigide et conspirationniste aux extrêmes, mais pas de la même manière (plus à l’extrême droite) et surtout on ne peut pas affirmer de lien causal. Est-ce que des idées rendraient dogmatiques ou est-ce que les profils les plus conspirationnistes vont être attirés par certains milieux plus que d’autres ? Dans le premier cas, on en retiendrait qu’il est plus prudent de se rapprocher du centre, dans le second qu’il faut travailler son ouverture d’esprit pour mieux défendre ses idées. Tandis que cette première partie se termine, ces questions resteront en suspens. ».
D’abord on ne « constate pas peut-être » mais « on constate », et ensuite si c’est le constat que fait Tranxen, c’est exactement ma conclusion (« une forme de pensée plus rigide et conspirationniste aux extrêmes »), il est donc contradictoire de dire que je fais de la désinformation et de conclure la même chose que ce que j’ai dit (on ne va charitablement pas compter cela comme une nouvelle erreur de Tranxen en pensant que ma soi-disant désinformation porterait sur les autres points de ma conférence, mais c’est très bien si après avoir critiqué les analyses statistiques et les conclusions des études que j’ai présentées, il arrive à la même conclusion ; on ne comprend juste pas bien pourquoi il en fait une critique pour arriver à la même conclusion, ou plutôt, si, on comprend bien pourquoi avec l’hypothèse de la méthode idéologique). C’est un bel exemple du rétropédalage#2 (qu’il me reproche).
Son argument sur le lien causal est également une pirouette pour essayer d’esquiver le fait que sa critique tombe à l’eau, puisque je n’ai pas parlé dans ma conférence de l’aspect corrélation/causalité, donc si Tranxen veut affirmer que je me suis trompé sur des choses que je n’ai pas dites, grand bien lui fasse… Mais sinon oui, c’est une question intéressante que je n’ai pas eu le temps d’aborder et qui ne change rien aux arguments que j’ai soutenus, une corrélation peut soit s’expliquer par un lien causal dans les deux sens (le fait d’être psychologiquement plus dogmatique nous ferait adhérer aux extrêmes qui ont un style de pensée similaire, et le fait d’adhérer aux extrêmes produirait un style de pensée plus dogmatique), soit encore par un troisième facteur encore inconnu.
En conclusion de cette partie, encore quelques arguments pour celles et ceux qui pour des raisons idéologiques ne sont malgré les données empiriques massives toujours pas convaincus de la pertinence de lhypothèse de l’irrationalité aux extrêmes, il y a encore quelques éléments, comme au niveau des médias, le U qui penche à droite !
https://adfontesmedia.com/media-bias-chart-jan-2024/
Et sur d’autres mesures également, comme la radicalité ou les connaissances politiques (réfutant l’affirmation que les moins extrêmes sont dépolitisés, du moins pas en ce qui concerne leur connaissances) :
De Keersmaecker, J., Schmid, K., Sibley, C.G. et al. The association between political orientation and political knowledge in 45 nations. Sci Rep 14, 2590 (2024). https://doi.org/10.1038/s41598-024-53114-z
Lammers, J., Koch, A., Conway, P., & Brandt, M. J. (2017). The political domain appears simpler to the politically extreme than to political moderates. Social Psychological and Personality Science, 8(6), 612–622. https://doi.org/10.1177/1948550616678456
Wolfowicz, M., Litmanovitz, Y., Weisburd, D., & Hasisi B. (2021). Cognitive and behavioral radicalization: A systematic review of the putative risk and protective factors. Campbell Systematic Reviews, 17, e1174. https://doi.org/10.1002/cl2.1174
On peut enfin de façon plus informelle penser aux observations sur l’ésotérisme d’ED (https://fr.wikipedia.org/wiki/Mysticisme_nazi) et à celui de l’écologie radicale (https://tempspresents.com/2022/01/03/lirrationalisme-au-sein-de-lecologie/), à la composition des militant·es anti-mesures durant la pandémie (milieux d’ED et EG « New Age ») (https://www.24heures.ch/contre-la-loi-covid-la-reunion-de-tribus-que-tout-oppose-520124643393), etc.
Ma thèse #2 : Affirmation idéologique : La vraie cause du complotisme est sociale, les biais cognitifs sont secondaires
Tout d’abord, je reprécise ici que j’entends par « idéologique » un propos qui n’est pas forcément faux, mais qui est affirmé sans preuves empiriques, parce qu’il est conforme à l’idéologie politique ou autre de celui ou celle qui le tient.
J’admets ici une légère imprécision#1, qui n’est finalement après analyse ni une erreur ni un rétropédalage comme m’en accuse Tranxen (je l’admettrais sans problèmes si je jugeais que je m’étais trompé), la tendance idéologique que je voulais débunker ici est plus préciséement de minimiser le rôle des biais cognitifs dans la lutte contre la désinformation, jusqu’à parfois le considérer comme nul (ma formule n’est peut-être pas suffisamment claire, j’en conviens, mais c’est difficile de trouver une formule laconique). Ce dernier point vient à l’origine d’une personne qui soutient également une idéologie d’EG, Mariel Peltier, qui dans un tweet (d’autres vont dans le même sens) disait que « le complotisme [est] tout sauf un problème de méthode, […] la crise est une crise de sens, de rapport au monde avant d’être celle d’un rapport aux faits », sans autre justification que son avis personnel (alors oui, avis informé par ses connaissances, mais sans réelle confrontation avec des données empiriques). On peut trouver dans le blog des ZEM des affirmations similaires, qui semblent nier l’effet des facteurs cognitifs, comme « Dire qu’une personne fait erreur à cause de « ses biais cognitifs » ou parce qu’elle « pense mal » sans être soi-même en mesure capable de préciser davantage en quoi c’est le cas, c’est un peu comme utiliser les forces divines pour expliquer le monde ». C’est pour moi grossièrement antiscientifique et idéologique, expliquer par les biais c’est expliquer par la science, en définissant l’erreur par rapport à un modèle normatif, en la quantifiant empiriquement, en tentant de la localiser dans le cerveau ou dans l’éducation ou le milieu social, en testant si on l’observe dans toutes les cultures, etc. ; expliquer les erreurs communes comme « untel est mort du vaccin, donc le vaccin est mortel », biais de corrélation illusoire, c’est bel et bien tenter d’expliquer scientifiquement une erreur de raisonnement par un mécanisme psychologique plus général, parce que des recherches montrent un lien entre le biais de corrélation illusoire (et/ou l’erreur de conjonction) et le complotisme. Un autre ZEM&S m’a reposté dans une discussion sur les biais sur X la vidéo de Barbara Stiegler intitulée « L’idéologie des biais cognitifs », laquelle affirme que l’économie a « changé de postulat » (« rien d’autre qu’un postulat extrêmement péremptoire ») dans les années 70 en ne considérant plus les agents comme rationnels mais irrationnels — j’ajoute qu’un·e collègues membre des ZEM a ajouté à propos de cette vidéo que certains philosophes « reprennent leurs idées » (au cas où quelqu’un·e me dirait que c’est une idée de Stiegler uniquement).
Petite parenthèse ici en lien avec le chapitre précédent, cette analyse de Stiegler illustre au passage le risque de complotisme à l’EG, comme le dénonçait Popper dans « la Société ouverte et ses ennemis », à propos de certaines interprétations marxistes (« vulgar marxism »), qui voient dans tous les phénomènes psychologiques et sociaux une volonté des capitalistes à l’oeuvre (« ce que Boltanski 2012 a appelé « la malédiction de Popper ») :
« In order to make my point clear, I shall briefly describe a theory which is widely held but which assumes what I consider the very opposite of the true aim of the social sciences; I call it the ‘conspiracy theory of society’. It is the view that an explanation of a social phenomenon consists in the discovery of the men or groups who are interested in the occurrence of this phenomenon (sometimes it is a hidden interest which has first to be revealed), and who have planned and conspired to bring it about ». Popper, p. 306).
Expliquer la rationalité et l’irrationalité par la volonté des économistes est exactement l’une de ces dérives idéologiques d’EG que je dénonce ici (le complot pourrait être vrai, mais il faudrait des preuves massives, et les données empiriques ne pourraient soutenir une idéologie totalement fausse). Peut-être que le postulat de départ l’économie néo-classique d’un agent rationnel a été fait sous l’influence de l’idéologie individualiste (mais on peut quand même trouver de nombreux exemples où les êtres humains tentent de maximiser leur utilité ou profit, idéologie ou pas, dans toutes les cultures), par contre, le changement vers la conception d’un individu partiellement irrationnel ne peut être accusé d’idéologique, puisqu’il repose sur de nombreuses recherches empiriques qui auraient pu donner des résultats contraires (comme on le verra plus tard avec la rationalité écologique d’un Gigerenzer, par exemple), et qu’en plus la moitié environ des études est venue de l’étude du raisonnement logique en psychologie cognitive (recherches qui auraient également pu démontrer l’inverse).
On peut cependant trouver chez les ZEM également des affirmations plus nuancées comme celles de Tranxen, qui ne nient pas l’effet des biais, mais qui me semblent tout de même tenter de le minimiser, par exemple sur leur blog : « A force de se focaliser sur le débunkage, les fausses informations, les erreurs de raisonnement, on en vient à oublier la composante la plus essentielle [c’est moi qui souligne] de l’esprit critique: avoir toutes les informations pertinentes. Mais c’est d’autant plus difficile… qu’on ignore ce que l’on ignore ». Telle autre « ZEM&S » affirmait « La focalisation sur les biais : une vision étriquée de l’esprit critique ». Tranxen écrit dans sa réponse « Moi je pense que c’est beaucoup plus ces contextes socio-culturels qui vont être déterminants pour prédisposer au complotisme » mais « qu’il y a aussi des facteurs psychologiques qui vont aussi être déterminants », et enfin « la zététique à l’ancienne a trop voulu expliquer les phénomènes par les biais cognitifs uniquement, il faudrait élargir l’analyse aux autres facteurs ». Le blog ZEM lui-même nous dit que « réduire l’esprit critique à une attention portée à ses biais cognitifs » est « politiquement situé à droite », et qu’il est globalement faux que « les gens pensent mal ».
On voit pour moi clairement dans ces affirmations une tendance à vouloir minimiser le rôle des biais cognitifs dans l’explication des croyances infondées, et ce pour des raisons à la fois théoriques (les conceptions de l’esprit critique qui évidemment ne se cantonnent pas aux biais cognitifs), et idéologiques (comme l’écrit dit Tranxen, « Moi je pense que c’est beaucoup plus ces contextes socio-culturels qui vont être déterminants pour prédisposer au complotisme »). C’est un point de vue idéologique parce que la zététique à l’ancienne n’a jamais à ma connaissance « voulu expliquer les phénomènes par les biais cognitifs uniquement », puisque je parlais par exemple des facteurs sociaux dans les croyances il y a 3 ans à la Tronche en Biais :
Même Gérald Bronner, accusé par les ZEM de tous les maux, (j’ai fait brièvement partie de leur groupe Facebook) n’a jamais nié l’aspect social des croyances, en ayant signé cette tribune du Monde le 2 juin 2022 intitulée « Lutte contre le complotisme : N’oublions pas les causes sociales » :
Le seul exemple d’analyse qui réduisait les croyances aux biais cognitifs a été pour moi une table-ronde sur le complotisme à laquelle je participais, quand un député macroniste m’a répondu lorsque je résumais comme je le fais toujours les causes possibles du complotisme aux causes (a) sociales et politiques, (b) psychologiques, et (c) informationnelles, que les causes sociales et politiques « n’étaient pas le problème ». Alors là oui, la critique des ZEM&S et EG peut s’appliquer.
Finalement, on retrouve à nouveau ici la thèse principale de ma conférence : Plutôt que de faire de belles affirmations idéologiques ou de principe, étudions scientifiquement si le débunkage, les fausses informations, les erreurs de raisonnement permettent (1) de réduire les croyances infondées ou dangereuses et dans quelle mesure, (2) si se focaliser là-dessus nous fait réellement « oublier » les autres causes, (3) s’il y a d’autres causes, et (4) si agir sur les autres causes produit de l’effet, mais n’affirmons pas cela sans preuves parce que cela correspond à notre idéologie.
Il est vrai que d’un point de vue général que la tendance idéologique d’ED sera de focaliser sur et de préférer les causes internes, psychologiques, génétiques, etc., mais à l’opposé la tendance idéologique d’EG sera de dire que les gens ne pensent pas mal, ou que les facteurs sociaux expliquent l’essentiel des problèmes (moins graves que prévu ; on peut voir ce phénomène à l’œuvre dans certains propos d’EG antipsychiatriques qui considèrent que les maladies mentales ne sont que des constructions sociales, ce qu’elles sont sans doute en partie, il y a des modes, un certain arbitraire d’être ou non dans le DSM, mais complètement). La posture scientifique, moins idéologisée, qui se veut plus rationnelle, sera de tester l’influence de tous les facteurs possibles et imaginables, et de dire ensuite ce qui ressort principalement des recherches, avec le moins d’a priori possible (et donc plus « centriste » en un sens). C’est ce que j’essaie de faire depuis 20 ans à propos du complotisme, et les recherches montrent que les trois ensemble de causes (a, b et c) ont toutes des corroborations empiriques.
Dans les affirmations ZEM, il est donc juste de ne pas se contenter uniquement des causes psychologiques et notamment des biais cognitifs, et d’explorer d’autres causes comme celles sociales et politiques (j’utilise le mot cause pour simplifier, mais il faudrait utiliser à chaque fois « cause possible », la plupart des études étant corrélationnelles). Mais il ne faut pas minimiser les causes psychologiques (biais cognitifs et traits de personnalité comme paranoïa non clinique, schizotypie, narcissisme, machiavélisme, etc., dans le cas du complotisme).
Au niveau de liens entre biais cognitifs et croyances, les données sont très nombreuses :
https://scholar.google.ch/scholar?hl=fr&as_sdt=0%2C5&q=cognitive+bias+paranormal+beliefs&btnG=
https://scholar.google.ch/scholar?hl=fr&as_sdt=0%2C5&q=cognitive+bias+religious+beliefs&btnG=
D’après cette récente méta-analyse, le consensus scientifique actuel semble relativement clair :
Dean CE, Akhtar S, Gale TM, Irvine K, Grohmann D, Laws KR (2022) Paranormal beliefs and cognitive function: A systematic review and assessment of study quality across four decades of research. PLoS ONE 17(5): e0267360. https://doi.org/10.1371/journal.pone.0267360
Concernant le complotisme que je connais le mieux :
Et une méta-analyse concernant le lien entre pensée analytique (liée aux biais cognitifs) et complotisme :
Dans ma conférence, au lieu de faire cette longue liste de dizaines d’études qui montrent des liens entre biais cognitifs et croyances, j’ai choisi de présenter l’étude qui réfute comme j’en avais l’intention l’affirmation que « les biais n’ont pas d’importance », mais peut sembler conforter le point que j’ai annoncé (« La vraie cause du complotisme est sociale, les biais cognitifs sont secondaires ») ! Mais je dis bien « peut sembler », parce qu’en réalité, je pense qu’elle réfute tout de même cette affirmation (d’où je considère que je n’ai pas fait une erreur, ce que je reconnaîtrais volontiers, mais une imprécision#2). Mon but était de montrer que dans cette étude de Marques et al. (2021), la pensée analytique (liée aux biais cognitifs) prédit le complotisme, même en contrôlant certains facteurs sociaux comme le niveau d’éducation, le salaire, l’anomie, etc. Ainsi, la pensée analytique (et donc le fait de résister aux biais cognitifs selon le modèle des deux systèmes) est bel et bien un prédicteur robuste des croyances conspirationnistes. BunkerD et Tranxen à sa suite m’ont fait correctement remarquer qu’au niveau des tailles d’effet (RescaledRWA), les facteurs sociaux comme la méfiance, l’anomie, la désillusion ou l’âge sont plus importants que la pensée analytique. C’est vrai, sauf que Bunker et Tranxen qui ne publient pas dans ce domaine (et encore une fois, c’est normal qu’ils ne sachent pas, ils devraient juste être de ce fait moins affirmatifs) ne savent pas qu’il est parfaitement normal que des échelles attitudinales comme la méfiance, la désillusion ou l’anomie corrèlent plus fortement avec le complotisme que la pensée analytique, pour des raisons de proximité conceptuelle, parce que ce sont (1) des attitudes et (2) très proches : le complotisme accuse p.ex. les politicien·nes de cacher les raisons de ce qu’ils font, l’anomie que les officiels ne s’intéressent plus au citoyen moyen, la confiance envers notamment les institutions judiciaires, la désillusion est celle face au gouvernement ! Donc il est normal que les tailles d’effet soit élevées entre ces 4 échelles. Par contraste, la pensée analytique est mesurée par des questions piège de raisonnement, censées mesurer l’inhibition du Système 1 par le Système 2 (« If you’re running a race and you pass the person in second place, what place are you in?” intuitive answer: first; correct answer: second »). Il est donc beaucoup plus étonnant que de telles réponses prédisent significativement le complotisme, plutôt que des échelles d’attitudes très voisines.
Donc pour moi, la pensée analytique prédit davantage le complotisme qu’un facteur social avéré dans beaucoup d’autres recherches comme le niveau d’éducation (dans cette étude ce dernier est présent dans les corrélations, l’effet est faible est disparaît dans les régressions quand on contrôle les autres facteurs), et effectivement moins que le facteur social de l’âge. Une vraie confirmation empirique que les facteurs sociaux sont plus importants que les facteurs cognitifs serait pour moi de montrer que la taille d’effet est plus forte pour un indicateur social non attitudinal, comme le niveau d’éducation, la perception des inégalités sociales, la précarité (qui sont des facteurs sociaux corrélés au complotisme). Je reconnais néanmoins que les auteurs de l’article concluent qu’effectivement, comme le relève Tranxen, dans leur recherche (il faudra aussi confirmer), que les facteurs relationnels et existentiels sont plus importants que la pensée analytique pour prédire le complotisme (mais pas que ces facteurs sont « la vraie cause »). Mais ils ne mentionnent pas le genre d’objection que je fais ici. Ici on va dire que le propos de Tranxen est appuyé par des experts du domaine, même si je suis ici en désaccord avec eux, nous parlons de crtique rationnelle ici.
En tout état de cause, même si les ZEM&S veulent garder l’idée, non validée selon moi, que cette recherche montre que les facteurs sociaux seraient plus importants que les facteurs cognitifs (j’en conclus personnellement que la pensée analytique prédit de façon plus importante le complotisme que les facteurs sociaux non attitudinaux mesurés comme le niveau d’éducation, et sans doute autant que certains facteurs comme les inégalités sociales ou la précarité, même si c’est bien sûr un peu subjectif), qu’ils citent au moins cette étude ! Cela m’aurait fait moins réagir, je considèrerai qu’ils ne parlent pas sans argument empirique, mais en faisant ce qui est pour moi un abus d’interprétation), et qu’ils ne le disent pas par idéologie comme ils le faisaient avant (elles et ils peuvent me remercier de leur avoir donné une arme non idéologique pour affirmer leur propos)…
Mais ce qu’il faut conclure d’avéré et non disputable de cette recherche et des dizaines citées plus haut, c’est (1) qu’il est complètement justifié de se focaliser sur les biais, de tenter de les faire connaître, de les combattre, etc., quand on veut lutter contre la désinformation, et (2) qu’il faut arrêter d’affirmer idéologiquement que le complotisme « n’est pas une question de méthode », de dire que qu’on se focalise « trop » sur les biais, que c’est une « fausse bonne idée », que la composante « plus essentielle » de l’esprit n’est pas celle-ci. Il faut continuer le type de recherches que je présente ici, et nous pourrons juger scientifiquement bien plus tard si empiriquement, d’autres facteurs sont réellement plus importants, et ce dans quelle mesure.
L’importance de la focalisation sur les biais peut être aussi estimée de manière plus qualitative, par rapport aux — nombreux me semble-t-il, un sondage sur le sujet serait très intéressant — témoignages d’ancien·nes croyant·es dans la sphère zététique. Le fait est que l’approche par les biais est « zet-éthique », parce qu’elle ne dit pas (directement) aux gens que leurs croyances sont fausses et qu’ils sont stupides. Elle leur suggère que la pente normale de l’esprit est à une forme de pensée intuitive, qui est souvent plus ou moins correcte, mais dont tout le monde peut souffrir des erreurs de raisonnement qu’elle peut entraîner, y compris les grands savants (cf. Bachelard, la formation de l’esprit scientifique). La rationalité dans le modèle des 2 systèmes est un effort du système 2 pour surpasser les réponses du système 1 (ou les inhiber au moyen du système 3 chez Houdé, 2022), un effort et des connaissances que l’on n’apprend pas forcément à l’école (en gros l’esprit critique). C’est très déculpabilisant, et cela me semble même une sorte d’approche « entretien épistémique » empathique, puisqu’on s’intéresse à la méthode dont les gens ont acquis leurs croyances, et on essaie de leur suggérer que ça peut mener à l’erreur, et que d’autres méthodes comme les méthodes scientifiques sont meilleures, sans aborder directement le contenu de la croyance, ni les considérer comme stupides (paresseux cognitivement, oui).
Un autre élément qui justifie en plus des arguments scientifiques, de se focaliser en premier lieu sur les biais cognitifs et la pensée analytique plutôt que sur les facteurs sociaux est simplement d’ordre pragmatique : la sensibilisation aux biais cognitifs peut se faire très facilement dans les classes, dans des ateliers, etc. Les facteurs sociaux (inégalités sociales, niveau d’éducation, sentiments d’anomie, précarité, etc.) sont infiniment plus longs et difficiles à modifier. Il faut des projets politiques à long terme, comme cela a été et est encore le cas pour les droits des femmes, des minorités, etc.
Il reste bien sûr à évaluer scientifiquement l’effet des formations sur les biais cognitifs sur les croyances infondées, ce qui n’a jamais été systématiquement étudié (indirectement et mêlé à d’autres interventions dans les études de Caroti et Adam-Troian). Mais conclure comme le fait Tranxen que je suis « venu renvoyer l’image inverse de l’état actuel de la recherche » est tout simplement complètement faux et arrogant (de la part de quelqu’un qui ne participe pas à ces recherches).
Ma thèse #3 : Affirmation idéologique : Pour combattre les croyances, les biais cognitifs sont insuffisants (vision étriquée de l’esprit critique)
Comme le relève Tranxen, je parle ici de deux recherches illustratives (non publiées), mais qui répondent aux canons des publications (certains de ces travaux sont publiables et publiés). Ce sont donc des études préliminaires, mais il est bien moins idéologique et bien plus rationnel de se baser sur de telles études avec des échantillons non négligeables, plutôt que de laisser parler son avis personnel et/ou idéologique. Selon sa méthode idéologique, Tranxen semble suggérer que parce qu’on ne connait pas les détails de l’étude (notamment les échelles, qui sont tout ce qu’il y a de plus standard), alors il ne faut pas faire confiance à ces résultats, ou alors ajoute des considérations sans rapport (à nouveau « corrélation n’est pas causalité » : c’est juste, mais Tranxen oublie que pour causalité, il faut corrélation, les études corrélationnelles sont donc le premier pas). Ou encore, Tranxen essaie des critiques qui tombent à l’eau (je n’ai même pas besoin d’expliquer pourquoi…) :
« On a testé que le paranormal et le complotisme , en quoi ça nous informe sur comment « combattre les croyances [erronées] », en général ? Déjà, je me demande ce qui a été testé comme croyances complotistes ou au paranormal ».
Dans les croyances erronées qu’on étudie en psychologie et qui sont d’intérêt pour la désinformation, les plus étudiées sont le paranormal (y compris religion), le complotisme, les fake news, ou le bullshit. Il tente aussi de poser des questions qui n’ont pas de rapport avec le fait que les résultats de ces deux études parfaitement standards indiquent que les biais cognitifs ont une importance évidente dans la lutte contre les fausses croyances et la désinformation. Les nombreuses questions qu’il pose sont intéressantes pour la suite de la recherche, mais n’invalident en rien ce que j’ai présenté (on ne peut pas répondre à toutes les questions avec une recherche), et surtout ces questions ne se posent pas sans avoir les résultats présentés (alors que Tranxen semble vouloir faire cette liste de question pour dénigrer l’apport des recherches présentées : elles ne sont là que pour montrer que l’idée qu’il y a autre chose que les biais cognitifs dans les croyances est sans doute vraie et intéressante, mais ne doit pas être affirmée de façon idéologique mais empiriquement).
Je peux même pour révéler l’idéologie ZEM&S — que pensez-vous de ces recherches, fausses, inutiles, etc. ? — verser un peu de dissonance cognitive avec les articles suivants, montrant l’effet des biais cognitifs (ou pensée analytique, ce sera développé ci-dessous) sur la négation du réchauffement climatique ou dans les stéréotypes racistes :
Trémolière, B., & Djeriouat, H. (2021). Exploring the roles of analytic cognitive style, climate science literacy, illusion of knowledge, and political orientation in climate change skepticism. Journal of Environmental Psychology, 74, Article 101561, 10.1016/j.jenvp.2021.101561
John C. Blanchar, J. C., & Sparkman, D. J. (2020). Individual Differences in Miserly Thinking Predict Endorsement of Racial/Ethnic Stereotypes. Social Cognition, 38:5, 405-421.
Ma thèse #4 : Affirmation idéologique : Les biais cognitifs dépendent du contexte
Dans cette partie, je vais surtout répondre aux dizaines de tweets en quelques jours de Pierre Jacquel, qui illustre à merveille la méthode idéologique : il critique mon livre sur les biais sur la base de la seule couverture (sans savoir puisqu’il n’a jamais écrit un livre que c’est l’éditeur qui propose une accroche, qu’on va préciser évidemment dans le livre ; ce que je dis dans ce livre n’est pas faux, c’est juste limité aux biais cognitifs dont l’origine est probablement évolutionniste, liés à la détection du danger, et pas aux autres biais psychologiques et sociaux, comme je le précise évidemment dans le livre), et adopte ici la forme de méthode idéologique : il ne cherche absolument pas en quoi mon expérience de 30 ans avec les biais cognitifs pourrait avoir quelque chose de correct (j’y ai consacré une thèse de plus de 600 pages, et publié 7 articles sur ce sujet, dont celui de 2011, qui est en fait un lointain écho de ma thèse de 2003) :
Mon point de vue n’est donc pas « celui d’un psychologue social », comme tente de le réduire de façon condescendante Jacquel. Au niveau de la forme, Jacquel est du même style que Tranxen, en pire : il vient dire sur X à propos de ma conférence que je mens, que je fais de la désinformation, alors qu’il ne maîtrise pas la moitié des références que je donne ici et les analyses statistiques, et quand je lui fais remarquer qu’il n’a jamais rien publié, il me répond, comme il semble avoir coutume de le faire, qu’il a le plus haut QI qu’on puisse mesurer (déclarations du niveau bien sûr des héros Raoult et Aberkane), il montre dans nos discussions qu’il ne sait pas ce qu’on fait quand on fait des analyses statistiques de curve-fitting (linéaire et curvilinéaires ou quadratiques) tout en affirmant que ce sont nous les 41 auteurs de la recherche qui nous trompons et faisons de la désinformation, etc. Le plus savoureux est certainement qu’après quelques échanges musclés sur X, il me dit que mon accusation qu’il n’a rien publié est ad personam, alors que ses jugements à lui portent sur mes propos. Il a sans doute oublié qu’il est arrivé en affirmant que dans ma conférence je mens (alors oui cela porte sur mes propos, mais quand même un peu sur moi aussi) et que je fais de la désinformation… Le pompon de la méthode idéologique a été atteint par un défenseur des ZEM&S : prendre mes réponses à Jacquel (que j’essaie toujours de faire avec une règle de proportionnalité, si on est poli et sourcé, je réponds de même, s’il y a des jugements ad personam ou des insultes, je réponds de même), et pas les propos auxquels je réponds, et me demander si je n’ai pas des problèmes psychologiques de m’énerver, de ne pas supporter la critique, etc. C’est un joli « move » de la méthode idéologique (un peu machiavélique et pervers sur les bords, deux traits associés à la mentalité conspirationniste par ailleurs), les antivax m’ont fait le même coup durant la pandémie… Mais je vais maintenant ceci dit répondre sur le point principal, en mettant de côté le narcissisme, la surconfiance, l’outrance des critiques, encore plus difficiles à supporter quand on voit les lacunes de connaissances qui les accompagnent.
En fait Jacquel ne connaît qu’une partie de la littérature sur les biais, ce qui est parfaitement normal puisqu’il est doctorant et n’a encore aucune production scientifique. Le débat a eu lieu depuis les années 60-70 avec la découverte des biais cognitifs par Wason en psychologie cognitive et Kahneman et Tversky dans le domaine de la prise de décision. De nombreux travaux, critiques et discussions ont eu lieu (avec notamment 3 grands débat impliquant des dizaines d’auteurs dans Behavioral and Brain Sciences, par exemple), et notamment les critiques qu’il connait de Gigerenzer et collègues du courant de la rationalité écologique. Mais il ne connaît pas les travaux pourtant parmi les plus importants sur le sujet de Stanovich et collègues, ni l’ensemble des travaux sur les biais cognitifs et croyances que j’ai rappelés plus haut, ni les travaux actuels qui défendent la réalité des biais. Jacquel s’en tient à la seule position théorique qu’il semble connaître, la rationalité écologique (et c’est normal, je faisais la même chose en tant que jeune chercheur, mais ce que je ne faisais pas, c’est insulter les chercheurs qui avaient 25 ans de profession et publications derrière eux ; s’il me semblait être en désaccord, je leur demandait respectueusement leurs sources et donnait les miennes), alors qu’il y a d’autres points de vue sur les biais.
Tranxen me dit que j’ai une position qui n’est pas conforme au consensus scientifique, mais je prétends que oui, en donnant des références, par exemple ces deux ouvrages récents (2022 et 2016) parus dans des maisons d’édition prestigieuses :
Il y a bien sûr toujours un débat toujours en cours si les biais sont des erreurs de raisonnement, ou des sous-produits de processus cognitifs adaptés à certains environnements plus anciens (ou les deux !), mais débat veut dire que cela n’a pas été résolu dans un sens ni dans l’autre. Donc Jacquel peut m’opposer des arguments de rationalité écologique, mais ce n’est pas le fin mot de l’histoire, comme il le croit et le clame en me traitant de demeuré sur les réseaux sociaux…
Dès les premiers travaux sur les biais, les critiques sont apparues, et le fait qu’on parle encore de biais cognitifs après 50 ans et les nombreuses controverses qu’il y a eu est déjà pour moi un signe de leur existence (si toute la littérature était univoque, on n’utiliserait tout simplement plus ce terme) ! Moi-même, j’ai travaillé sur la tâche de sélection des 4 cartes de Wason, qu’on a surnommé la mouche drosophile du raisonnement tellement elle a été analysée et théorisée. En étudiant cette tâche, je me suis trouvé très critique envers les biais cognitifs, parce qu’il se trouve que dans la tâche de Wason, la réponse correcte est disputée entre plusieurs théories normatives (notamment la logique, les probabilités), et le biais à l’œuvre est également disputé (biais de confirmation, test positif, biais d’appariement, focalisation pragmatique, etc. ; pour moi c’était un problème d’interprétation de la règle « si…alors » en conditionnelle logique ou en biconditionnelle logique).
En résumant les centaines de pages de débats (suite aux articles de Cohen, 1981, Evans & Over, 1997, et Koehler, 1996), j’ai dans cet article de 2011 (en fait il date de ma thèse en 2003, j’ai publié 4 articles à partir de ma thèse, les premiers en 2001 et 2003, les suivants en 2007 et 2011, plus un long finalement non publié, oui je sais j’ai traîné, mais j’ai travaillé quelques années sur d’autres sujets et me suis occupé en partie de mes enfants 🙂 regroupé les critiques en 5 points :
(1) les biais recensent les erreurs, mais il y a eu une exagération en ce sens, et les réussites du raisonnement humain sont sous-évaluées, (2) les biais n’auraient pas de conséquences fâcheuses dans la vie réelle, (3) seraient dus à un manque de motivation à résoudre des problèmes d’allure mathématique, ou dont les consignes seraient en fait mal interprétées en raison de la pragmatique du langage (donc pas de véritables erreurs, mais des réinterprétations des consignes, un défaut de performance mais pas de compétence), (4) que les biais sont des artefacts de laboratoire, dus aux tâches ambiguës, artificielles ou trop abstraites, et enfin (5) que les raisonnements sont en fait corrects si on prend une autre théorie normative (parce qu’on dispose des probabilités classiques ou bayésiennes, de la logique formelle ou d’autres types de logique, etc.), et que les biais sont rationnels par rapport à une autre forme de rationalité (adaptative, pragmatique, etc.). Je ne parle pas de la dernière critique relativiste qui reviendrait à dire qu’il n’y a pas de théories normatives, alors que pour moi c’est clairement faux (toujours le « it works, bitches ») ! Ainsi, je concluais mon article en disant que c’était encore possible de reconnaître l’existence de biais cognitifs, mais il fallait répondre aux 5 objections.
Certains ZEM&S qui me disent sur les réseaux sociaux que je ne supporte pas la critique (et parfois donc avec l’outrance que je dois avoir des problèmes psys), mais en réalité une bonne critique argumentée et encore mieux empiriquement fondée me fera changer d’avis, c’est ce qui s’est passé à propos des biais. Dans ma thèse, je n’ai pas inclus l’article de Stanovich et West (2000), et je l’ai à peine cité dans mon articles de 2011, alors qu’il remet drastiquement en question les 5 critiques des biais — ce que sous-estime complètement Jacquel, qui ne peut que tenter de dénigrer de « simples corrélations », au lieu d’essayer de comprendre l’argument —, et c’est sans doute pourquoi je ne l’avais pas inclus. Donc ma critique des biais de 2011 (ou 2003), est en fait environ l’état du débat auquel en est resté Jacquel (et il n’est pas le seul).
Ce qu’ont observé Stanovich et collègues pendant les 30 dernières années, c’est de façon systématique que la plupart des tâches classiques du courant « biais et heuristiques » (Wason, Tversky et Kahneman et suivants) sont corrélées au niveau interpersonnel. Cela signifie que les mêmes personnes ont tendance à commettre ce qui est identifié (et critiqué) comme des erreurs, et d’autres à ne pas les commettre. Ce résultat est d’une importance capitale dans le débat sur la rationalité (et la réticence de Jacquel à l’admettre témoigne de sa connaissance limitée du débat, encore une fois normale pour un·e doctorant·e ; de mon côté je participe à des jurys de thèse, y compris sur les biais cognitifs comme l’effet de vérité), puisqu’il évacue en fait la critique (3) et (5). Si les réponses sont corrélées, cela signifie que les théories normatives ne sont pas arbitraires, puisque reconnues par les meilleurs raisonneurs·euses (5), il ne s’agit pas non plus d’une mécompréhension des consignes ou d’un défaut de performance généralisé (3). Même les critiques que je recensais par rapport à la tâche de sélection de Wason dans ma thèse sont à remettre fortement en cause (et c’est sans doute pour cela que je n’ai pas mentionnés ces travaux cruciaux qui remettaient en question les doutes qu’on avait sur les biais à l’époque) : comme la réponse logiquement correcte p&non-q est corrélée aux réponses correctes des autres tâches logiques et probabilistes, cela indique qu’un raisonnement rationnel peut identifier la réponse logiquement correcte (normative) à la tâche.
Il reste encore les critiques (1), (2) et (4). Les dizaines de travaux (dont ceux de Stanovich et collègues) qui montrent que les réponses corrélées de la plupart des biais corrèlent ensuite à toutes sorte de croyances irrationnelles (religieuses, complotistes, paranormales) que j’ai listés ci-dessus, et tous les travaux sur la pensée analytique, elle-même corrélée aux biais cognitifs, qui montrent qu’elle est corrélée aux croyances infondées (complotistes, paranormales, bullshit, fake news, religion, etc.), viennent massivement infirmer les critiques (2) et (4) :
Si les biais et la pensée analytique sont liés de façon répétée et robuste à toute une série de croyances irrationnelles (irrationnelles2, ou croyances infondées si on préfère), alors les mesures classiques des biais cognitifs ne sont pas des artefact de laboratoire (4), et ils ont un impact dans la vie réelle (2).
Il reste la critique (1), qui est peut-être vraie. Mais c’est une question plutôt philosophique, puisque si on prend les problèmes de raisonnement les plus faciles, alors l’être humain est rationnel, et si l’on prend les plus difficiles, la majorité d’entre eux sont irrationnels. Mais il est possible que la recherche en psychologie se soit focalisée sur les erreurs de raisonnement, et de ce fait ait surestimé la part d’irrationalité de l’être humain, comme le reconnaissent Kahneman et Tversky eux-mêmes. En psychologie, on va se centrer sur les maladies psychiques, les problèmes, etc., dans le but de les analyser et in fine le traiter, et le courant de la psychologie positive critique justement que la recherche en psychologie serait excessivement négative.
Mais ce débat, qui ne peut être évalué objectivement, — l’humain est-il fondamentalement plutôt rationnel ou irrationnel — n’est pas si important que ça. Ce qui ressort de l’observation des actions humaines, c’est que même si le raisonnement humain est en majeure partie correct, notamment dans les inférences quotidiennes, même si le cerveau humain est un organe d’une complexité extraordinaire (et la méthode scientifique encore plus), il y a dans ces actions humaines un bonne part d’irrationalité aux conséquences dramatiques. Pensons aux guerres, génocides, racisme, extrémismes religieux et politiques, mythes, inégalités sociales, réchauffement climatique et ignorance de l’écologie, désinformation et croyances dans le domaine de la santé, etc. Tous ces comportements sont en partie dus à certains biais cognitifs (catégorisation, généralisation abusive, biais de favoritisme pro-endogroupe, essentialisme pour le racisme, biais de vividité et d’optimisme pour la minimisation du réchauffement climatique, etc.), et cette irrationalité, qu’elle soit dominante ou non, a des conséquences graves : une seule décision irrationnelle dans sa vie (soigner son cancer avec du jus d’orange, aller voir une séance de bienvenue dans une secte) peut l’abréger, ou abréger celle de nombreuses autres personnes dans le cadre d’une secte :
Saposnik, G., Redelmeier, D., Ruff, C.C. et al. (2016). Cognitive biases associated with medical decisions: a systematic review. BMC Med Inform Decis Mak 16, 138. https://doi.org/10.1186/s12911-016-0377-1
Et les stéréotypes sont parmi les causes de l’hostilité, des guerres ou des nettoyages ethniques et autres génocides.
Stanovich et West résumaient en 2000 ce débat sur les heuristiques et biais de façon amusante en un combat entre les « Réformistes » (« Meliorists » : la nature humaine est au moins en grande partie, irrationnelle, et on peut tenter de remédier aux biais cognitifs et d’améliorer la rationalité humaine) et les « Panglossiens » (l’être humain est fondamentalement rationnel). Ce débat a été réactualisé ces dernières années à propos de la désinformation en ligne, entre les « Pessimistes » majoritaires (la désinformation en ligne est un problème grave, on l’a vu avec Trump, la pandémie, etc.) dont je fais partie — sauf que je considère que l’être humain a toujours été très irrationnel, internet le rend très visible et le propage un peu —, et les « Rassuristes » (les fake news ne sont pas graves, le fact-checking est inutile/inefficace, etc.).
Donc pour en revenir à ma conférence, je critique l’affirmation que je considère comme idéologique « les biais cognitifs dépendent du contexte » au sens de la critique (4) qui voudrait que les biais disparaissent dans certains contextes, quand on sort du laboratoire, ce que les travaux sur les croyances démentent. En effet, les mesures des biais depuis 15 ans ne sont plus seulement faites en laboratoire ou en présentiel, mais en ligne, les gens répondant aussi depuis chez eux sur leurs portables. Et comme argumenté plus haut, si les biais étaient contextuels, on ne trouverait pas de corrélations avec des croyances stables. Il est vrai que l’intuition et les heuristiques peuvent être utiles dans la plupart des situations de la vie quotidienne (estimer la trajectoire d’un ballon, ou certaines études de Gigerenzer qui montrent que dans certains contextes très spécifiques de grande incertitude, p.ex. jouer en bourse, une heuristique simple peut avoir autant de succès que les réflexions analytiques des experts ou des algorithmes informatiques ; Gigerenzer, 2011), mais les intuitions et heuristiques ne seront jamais utiles dans le domaine du savoir et des croyances. A défaut de mieux, la méthode empirique — essayer une plante en cas de maladie, ensuite par le biais de corrélation illusoire, si je guéris cela veut dire que la plante est efficace — peut aboutir à certains succès (on sait que les animaux les plus intelligents le font, singes, éléphants, etc.), mais au prix de combien d’échecs ? Dans aucun contexte, la méthode empirique (+ corrélation illusoire) ne sera aussi efficace que la méthode scientifique (comparaison de groupes randomisés). Donc les biais cognitifs ne seront jamais rationnels2 (d’un point de vue épistémologique), même s’ils ont une utilité psychologique et/ou sociale (et cette utilité encore une fois ne les rendra pas rationnels2).
J’en profite pour faire une petite parenthèse épistémologique qui me paraît importante. Chez certains ZEM&S comme Jacquel et Tranxen, une façon idéologique d’éviter les conséquences des corrélations observées par Stanovich et collègues, et toutes les nombreuses autres corrélations entre biais cognitifs, pensée analytique et croyances, est de tenter de les dénigrer. Tranxen semble reprocher dans sa réponse que comme les corrélations ne veulent pas dire causalité, les résultats de corrélations entre extrêmes politiques et complotisme par exemple sont insuffisants. Mais le fait que corrélation ne soit pas causalité n’enlève aucun intérêt aux études corrélationnelles. D’abord, si corrélation n’est pas causalité, causalité est corrélation, c’est pourquoi je présente les corrélats aux croyances aux théories du complot comme des causes possibles (notamment si les corrélations se répètent, ou alors il peut s’agir d’une causalité tierce, mais la présence de la corrélation permettra de la rechercher). De plus, il faut savoir que les études corrélationnelles répliquent bien mieux que les études expérimentales — qui elles seules peuvent indiquer une probable relation de causalité —, quand on parle de la crise de réplicabilité en psychologie (cf. p.ex. Delouvée & Wagner-Egger, 2022).
Je vois même les études corrélationnelles en psychologie comme une forme d’observation sans trop d’idées préconçues, un peu comme les débuts de l’astronomie où les savant·es ont d’abord relevé les mouvements des étoiles dans le ciel chaque nuit, afin d’en relever les régularités, avant toute tentative d’explication ou de théorie (bien sûr, l’observation pure n’existe pas, mais dans ces deux exemples les a priori sont minimaux). C’est bien le cas dans les études sur le complotisme, où devant cette croyance d’un nouveau type, on a lancé depuis 15 ans des centaines d’études corrélationnelles (et quelques dizaines expérimentales). La seconde étape de la recherche sera bien sûr de dépasser les corrélations pour tenter de forger des modèles et des théories, en identifiant des médiateurs, des modérateurs, en tentant d’explorer la causalité, etc. Mais cela orienté par les corrélations obsevées. Dans le cas de la recherche sur les biais et les croyances, le futur de la recherche sera par exemple concernant l’aspect neurologique, comme :
van Elk, M., Aleman, A. (2017). Brain mechanisms in religion and spirituality: An integrative predictive processing framework. Neurosci Biobehav Rev., 73:359-378.
doi: 10.1016/j.neubiorev.2016.12.031.
Et pour certains biais cognitifs liés à la survie (dont on peut raisonnablement penser qu’ils ont une part innée) comme la paréidolie :
Voss, J. L., Federmeier, K. D., Paller, K.A. (2012). The potato chip really does look like Elvis! Neural hallmarks of conceptual processing associated with finding novel shapes subjectively meaningful. Cereb Cortex, 22(10):2354-64. doi: 10.1093/cercor/bhr315.
Zhou L.-F. and Meng M. (2020) Do you see the “face”? Individual differences in face pareidolia. Journal of Pacific Rim Psychology, Volume 14, e2. https://doi.org/ 10.1017/prp.2019.27
Au passage, la paréidolie illustre très bien les éléments de notre discussion sur les biais cognitifs : même si c’est utile pour la survie (rationnel1), même si parfois le visage que l’on voit dans les buissons est bien celui d’un humain ou d’un animal, on se trompe le plus souvent (c’est sans conteste le plus souvent une erreur, irrationnel2). De plus, la paréidolie n’est pas contextuelle : elle n’apparaît pas ou ne disparaît pas selon les contextes, mais elle peut varier d’un individu à l’autre (comme l’indique l’article de Zhou & Meng, 2020).
Les travaux critiques de Gigerenzer du point de vue de la rationalité écologique — encore une fois, rationalité écologique, rationalité1, n’est pas du tout incompatible avec irrationalité2, une inférence peut parfaitement être considérée comme rationnelle1 ET irrationnelle2, l’erreur des Panglossiens est de croire que parce qu’une inférence est rationnelle1, alors elle est rationnelle, ce qui est faux ; c’est l’un des arguments les plus importants de ce texte — ne montrent pas que les biais dépendent du contexte au sens où ils apparaîtraient dans un contexte et disparaîtraient systématiquement dans un autre contexte. Alors j’avoue moins bien connaître le courant de la rationalité écologique, qu’on me donne des exemples si je me trompe (Jacquel ne m’en a donné aucun dans ce sens), mais pour moi un biais contextuel serait un biais (réel, et pas artefactuel comme peuvent l’être effectivement certaines mesures) qui est mesuré dans le contexte du laboratoire, mais qui disparaît chez les mêmes individus dans un autre contexte (par exemple, dans la vie quotidienne). L’exemple que m’a cité Jacquel, montrer que les biais disparaissent avec des incitations monétaires, n’EST PAS une indication de contextualité dans le sens où je l’entends. C’est simplement compatible avec le modèle de base duel Système1/Système2 qui est qu’en activant le Système2, celui-ci va surpasser les réponses du Système1 — je sais que les travaux récents de Pennycook, De Neys, Trémolière, Stanovich ou d’autres montrent que c’est évidemment plus compliqué que ça, mais je le rappelle, Kahneman ou Houdé le vulgarisent ainsi comme moi, et les recherches récentes n’invalident pas le modèle de base qui reste généralement valable. Les propos de Jacquel comme quoi le modèle simplifié est trop simple ne sont pas recevables en l’état (critique idéologique), il doit montrer en quoi une version plus sophistiquée du modèle invaliderait le modèle simplifié. Stanovich et al. (2016) proposent un modèle plus complexe, mais qui n’invalide pas l’idée de surpassage (override) du S1 par le S2.
La grande majorité spécialistes garde l’idée d’un fonctionnement rapide du S1 qui peut ou non être corrigé (avec efforts) par le S2 :
Et ce n’est pas que de la vulgarisation ! Olivier Houdé a depuis les années 90 réalisé des séries d’expérimentations chez l’enfant démontrant par rapport à des tâches piagétiennes comme la conservation du nombre, et prouvé entre autres par des études sur les temps de réaction ou par IRM que les réponses heuristiques relativement automatiques, simples, mais erronées devaient être inhibées par le cortex préfrontal pour arriver à la réponse correcte analytique plus difficile . Ses travaux montrant des fonctionnements similaires portent également sur la catégorisation et le raisonnement syllogistique (cf. pour un résumé, Houdé, 2022). Les travaux de l’équipe de Houdé montrent de plus qu’un entraînement à l’inhibition des heuristiques a des effets neuroscientifiques mesurables (par des méthodes variées, TEP ou IRM) à la fois chez les enfants et chez les adultes. L’entraînement à l’inhibition que Houdé considère comme la plus importante forme d’intelligence (et on peut la rapprocher de la mesure du quotient de rationalité de Stanovich et collègues) est également le fruit de nombreuses collaborations pédagogiques dans les écoles, et même de la création de jeux de société.
https://www.researchgate.net/scientific-contributions/Olivier-Houde-39469774
Le fait de donner des incitations monétaires, ou des feed-backs pour un apprentissage correctif ne remettent pas en cause l’existence du biais, mais nous indiquent plutôt comment le faire disparaître. Dans ce modèle, ce n’est pas le biais qui est contextuel, mais l’activation ou non du Système2. Donc le défaut de performance est dans ce cadre interprétable comme un manque de recours au Système2. Il peut certes paraître que cette réinterprétation permet par une hypothèse ad hoc (criticable selon Popper), de rendre compte que les mesures de biais sont variables d’un individu à l’autre, ce qui ne devrait pas être le cas si les biais sont des erreurs systématiques inscrites dans le cerveau ; ainsi, il faudra trouver dans un deuxième temps des preuves empiriques neurologiques fortes en faveur de l’existence des Systèmes 1 et 2, pour éviter l’explication ad hoc tautologique, ce qui est bien le cas de la recherche actuelle, ainsi que le résume Houdé (2022).
La contribution majeure de Gigerenzer et collègues est d’avoir montré que les erreurs observées dans certaines tâches de Kahneman et Tversky, comme la tâche de Linda à propos du biais de conjonction, disparaissent quand la question n’est pas posée en termes de probabilités, mais en termes de fréquences (« combien de personnes » plutôt que « est-il plus ou moins probable que »). Mais cela ne montre pas que le biais de conjonction serait contextuel, dans le sens où je l’entends (apparaîtrait et dispraraîtrait selon le contexte), cela montre que la question posée est peut-être trop abstraite (critique (4) des biais). Gigerenzer (2011) admet d’ailleurs que Kahneman et Tversky ont raison d’affirmer que l’esprit humain n’est pas fait pour comprendre les règles des probabilités (« Tversky and Kahneman argue, correctly I think, that our minds are not built (for whatever reason) to work by the rules of probability »). Ainsi, ce n’est pas parce qu’écologiquement, il n’était pas utile à nos ancêtres de maîtriser les lois des probabilités, et que nous maîtrisons des problèmes proches traduits de façon fréquentiste, qu’il n’y a pas de biais cognitif lié aux probabilités ! Cela veut simplement dire comme le soulignent Stanovich et al. (2016) que nos capacités mentales intuitives (heuristiques) se sont développées en adaptation à un certain environnement (perception des dangers, survie, rationalité1), mais que celles-ci ne sont plus toujours adaptées à l’environnement moderne, et au domaine du savoir qui requièrent une forme de rationalité2. Donc la première erreur est pour moi de considérer qu’il n’y a pas de biais de conjonction (parce qu’il disparaît en termes fréquentistes), et la deuxième erreur liée à cela est de méconnaître, à nouveau, les travaux de Stanovich et collègues, ainsi que les travaux sur les croyances, et de s’arrêter aux critiques du courant de la rationalité écologique. Stanovich et al. (2016) montrent que le biais de conjonction est corrélé à la plupart des autres biais cognitifs qu’ils mesurent, et Brotherton et French (2014) montrent que le biais de conjonction (version Linda, et plus encore lorsque le contenu du problème est d’ordre paranormal ou complotiste) est corrélé avec les croyances paranormales et complotistes. A nouveau, si le biais de conjonction n’était pas un biais (mais une erreur d’interprétation), il n’y aurait aucune raison qu’il corrèle avec les autres biais de raisonnement, ni avec les croyances infondées.
Le biais de conjonction est aussi l’occasion de rappeler ce que les chercheurs débutants comme Jacquel — qui croit que la rationalité écologique est un acquis, tout simplement parce qu’il a la vision du débutant qui reprend les vues de son superviseur ; ce n’est pas de la condescendance, c’est normal, j’ai aussi été dans sa situation — ou les demi-experts comme Tranxen ne peuvent savoir, c’est que le débat n’est pas clos. Si donc Gigerenzer et ses collègues (comme Hertwig) affirment que le biais de conjonction n’existe pas et qu’il s’agit d’un artefact dû à l’ambiguïté de la consigne (ce qui ne correspond d’ailleurs pas très bien à la citation ci-dessus de Gigerenzer, qui semble moins affirmatif en 2011 qu’en 1999), d’autres recherches plus récentes tendent à donner raison à Tversky et Kahneman plutôt qu’à Gigerenzer (p.ex. Moro, 2008) !
L’erreur de Jacquel se comprend d’autant mieux qu’il travaille sur le biais de surconfiance (sans commentaire…), qui a également été l’un des biais que le courant de la rationalité écologique a pu réduire voire faire disparaître en les exprimant sous forme fréquentiste (mais on vient de voir que cette prétention est fausse concernant le biais de conjonction, donc il ne faut pas non plus penser que c’est forcément acquis pour les autres). Hertwig & Gigerenzer (1999) listent la négligence des taux de base, le biais de conjonction, le biais de surconfiance, l’illusion de contrôle, et le raisonnement bayésien. Mais il faudra donc vérifier que c’est bel et bien le cas (comme Moro, 2008 avec la conjonction), et il faut souligner que ce n’est pas une disparition de ces biais dans un certain contexte, et que les erreurs de raisonnement probabiliste, qui demeurent, ne sont pas anodines (le raisonnement probabiliste est très lié à la pensée analytique, à l’évitement des biais, et aux croyances infondées). Et au regard des dizaines de biais cognitifs identifiés (Bellevaut & Wagner-Egger, 2022), voire centaines, on est assez loin d’avoir démontré empiriquement que « les biais cognitifs disparaissent dans certains contextes » ou « sont contextuels ». C’est essentiellement une question de recherche future, qui statuera sur le oui ou le non (je suis par exemple dans le jury d’une thèse qui explorera ces prochaines années si le biais de confirmation a ou non une composante dispositionnelle).
Mais les biais sont effectivement en partie contextuels dans un autre sens : variables selon le contexte culturel. Aussi importantes que les études neurologiques sont les études interculturelles, qui vont nous renseigner sur l’existence d’un biais cognitif (qui devrait être retrouvé dans toutes les cultures, sinon on devra parler de biais culturel), et des modulations de la culture (qui peuvent être interprétées en terms de Système2), comme cela a été fait à ma connaissance dans :
Choi, I., & Cha, O. (2019). Cross-Cultural Examination of the False Consensus Effect. Front. Psychol. 10:2747. doi: 10.3389/fpsyg.2019.02747
Mezulis, A. H., Abramson, L. Y., Hyde, J. S., & Hankin, B. L. (2004). Is there a universal positivity bias in attributions? A meta-analytic review of individual, developmental, and cultural differences in the self-serving attributional bias. Psychological Bulletin, 130(5), 711.
Ma-Kellams, C. (2020). Cultural Variation and Similarities in Cognitive Thinking Styles Versus Judgment Biases: A Review of Environmental Factors and Evolutionary Forces. Review of General Psychology, 24(3), 238-253. https://doi.org/10.1177/1089268019901270
Ces études concluent toutes trois à une universalité des biais et à des différences culturelles. Une autre variation « contextuelle » des biais qui peut être avancée est celle du raisonnement motivé (ou cognition motivée). Le contenu désiré ou non de la conclusion d’une inférence logique par exemple, peut bien sûr interférer avec la validité logique du raisonnement, cf. p.ex. :
Aspernäs, J., Erlandsson, A., & Nilsson, A. (2023). Motivated formal reasoning: Ideological belief bias in syllogistic reasoning across diverse political issues. Thinking & Reasoning, 29:1, 43-69.
Calvillo, D. P., Swan, A. B., & Rutchick, A. M. (2020) Ideological belief bias with political syllogisms. Thinking & Reasoning, 26:2, 291-310.
Gampa, A., Wojcik, S. P., Motyl, M., Nosek, B. A., & Ditto, P. H. (2019). (Ideo)Logical reasoning: Ideology impairs sound reasoning. Social Psychological and Personality Science, 10, 1075–1083.
Pennycook G., Cheyne J.A., Koehler D.J. & Fugelsang J.A. (2013). Belief bias during reasoning among religious believers and skeptics. Psychonomic Bulletin & Review, 20, 806–811.
Série de recherche qui confirme encore s’il le fallait que les idéologies, politiques ou autres, nuisent à la rationalité2 du raisonnement… Mais comme dans le cas de la rationalité écologique, ce n’est pas que le biais cognitif étudié disparaît quand l’idéologie de la conclusion est conforme ou non à nos a priori idéologiques, c’est plutôt l’addition d’une deuxième heuristique (le « biais de croyance ») qui s’ajoute aux heuristique du raisonnement, pouvant aboutir à des inférences correctes, mais également à des réponses fausses.
Certaines études sont le plus proches de montrer par exemple que le biais de confirmation change en fonction du contexte social (Butera et al., 2018). Mais les auteurs concluent que l’usage de la confirmation est effectivement un processus cognitif (il diminue dans certains contextes, mais n’est pas annulé), qui interagit avec des facteurs motivationnels et sociaux.
Critique de détail 1 : Tranxen nous dit en note 4 à propos du mouvement zététique que « la première association revendiquée zététique était le Cercle Zététique. Cette association a subi une série de scission parce que son président était d’extrême droite et soutenait des négationnistes. Faire ce narratif des extrémistes qui débarquent dans un milieu où les tensions politiques seraient absentes, je trouve que c’est assez discutable ». Tranxen n’a pas compris que plutôt qu’être un argument contre ma thèse (qui n’est pas que personne n’a d’idéologie, erreur#1), c’est en fait un argument en faveur de ma thèse principale, qui est demander à toutes et à tous de faire attention à leur idéologie et en donnant des résultats de recherche pour tenter de la diminuer sur les sujets notamment idéologiques ?
Critique de détail 2 : En repostant l’image d’une diapositive de ma conférence avec le titre « La photo qui a un peu suscité des inquiétudes sur le contenu de la conférence », Tranxen minimise un peu la mini « shitstorm » qui en a suivi, disant que je faisais l’équivalence entre EG et ED. Ces surréactions de la communauté ZEM&S à partir d’une donnée erratique (d’autres m’ont accusé d’irrationalité parce que sur cette diapositive, je citais Lacan, alors que bien entendu je le citais comme exemple d’une approche idéologique sans tests empiriques…) étaient déjà pour moi le signe de la méthode idéologique, celle qui surréagit sur les réseaux sociaux sans information suffisante, à l’opposé d’une méthode rationnelle et informée. Et les réactions à la conférence de 20 minutes ont été du même style idéologique (critiquer sans bien comprendre et avoir tous les éléments).
Critique de détail 3 : « Ne s’attardant pas sur les nuances, … » Effectivement, dans une conférence de 20 minutes de vulgarisation, on n’a pas le temps de s’attarder sur des nuances, ce qui serait le cas dans un séminaire donné à l’Université par exemple, où mes collègues se feraient les avocats du diable, de la part de celles et ceux qui connaissent une bonne partie de la littérature.
Critique de détail 4 : « D’une part ça renvoie une image simplement fausse de système 1 et 2,… » et « La pensée analytique est une compétence, qui n’est ni « l’absence de biais » ni « un système de pensée particulier ». Je ne donne pas d’image fausse de la théorie des deux systèmes, que je pense mieux connaître que Tranxen (il ne connait pas la version de Houdé du système 3 inhibiteur, ou des détails du modèle de Stanovich et collègues). Il est clair que dans une conférence grand public, je n’entre pas dans les détails et je vulgarise comme le font Kahneman ou Houdé. Et comme toutes les études le rappellent, c’est un « style cognitif » ou une « forme de pensée » (« cognitive/thinking style ») qui est lié à moins de biais et d’erreurs, donc plus de rationalité2. Bref, erreur #12 de Tranxen qui n’est pas spécialiste de ces questions (je suis actuellement professeur invité à Toulouse chez Patrice Terrier, avec notamment Bastien Trémolières qui collabore avec Wim de Neys, ce sont les vrais connaisseurs des théories duales en psychologie cognitive, et ce que j’affirme ici est bien conforme au consensus scientifique actuel sur le sujet ; De Neys explore il est vrai chez une minorité de gens des inférences heuristiques correctes, ce qui complexifie le modèle, mais encore une fois n’infirme pas le fonctionnement de base résumé ici ; Bastien Trémolières est en train de tester des stratégie de débiaisage sur les croyances, donc toujours ce que dit la science au lieu de l’idéologie).
Conclusion
Nous voici enfin arrivés au terme de cette longue réponse, mais qui se justifiait au vu des attaques complètement outrancières de Tranxen et Jacquel (outrancières au vu des termes utilisés, et par rapport à leur niveau de compétence). Je reconnais deux affirmations « normalement » ambigües (phrases courtes sur des diapos qu’on explicite durant la conférence), et j’ai décompté 12 erreurs assez grossières de Tranxen dans sa réponse, qui s’expliquent aisément parce qu’il s’aventure dans un domaine professionnel qui n’est pas le sien (la recherche en psychologie cognitive, sociale et politique), et une connaissance très partielle chez Jacquel.
Mais ces attaques illustrent en fait le point de vue principal de ma conférence, la présence d’excès épistémiques et relationnels, une moindre rationalité des extrêmes politiques (dogmatisme, complotisme, paranormal), et ce que je nomme après Delouvée et Hygiène Mentale la méthode idéologique. Il était normal et prévisible que ces résultats, pourtant supportés par de nombreuses données empiriques, ne leur plairaient pas pour la simple et évidente raison qu’ils se sentent appartenir à la famille politique d’extrême-gauche, et en raison de la menace que cela constitue pour l’identité sociale. Ils ont réagi de façon bien compréhensible avec la méthode de tenter d’invalider l’entier du discours déplaisant avec des attaques ad personam, à la fois grossières sur la forme et grossièrement fausses sur le fond (je fais de la désinformation, je suis incompétent, etc.), en cherchant des détails qui leur paraissent faux pour tenter de discréditer l’ensemble, sans connaître l’ensemble de la littérature (mais un seul pan, comme Jost pour Tranxen, ou la rationalité écologique pour Jacquel).
Sur la forme, je dirais que nous sommes quittes — ils m’ont accusé d’être un Raoult, je réponds qu’ils partagent selon moi des méthodes des militants antiscience à l’idéologie marquée qui s’invitent dans le débat scientifique —, et je propose désormais à Tranxen et Jacquel de quitter le terrain des attaques outrancières ad personam, pour se concentrer sur le fond des arguments, avec un respect minimum pour mes connaissances (partielles et partiales comme le sont toutes les connaissances individuelles, mais moins que les leurs apparemment), ce qu’ils auraient dû faire dès le début. Si les ZEM&S veulent un débat constructif et éviter les dramas, le harcèlement, les insultes, etc., il faut qu’ils soient attentifs à leur style de communication, et avoir un respect minimal de la personne critiquée.
Donc terminons sur le fond, et pour la suite du débat sur X ou ailleurs, nous nous en tiendrons sur ce fond (toute critique outrancière sur ma personne sera désormais bloquée, je ne perdrai pas des dizaines d’heures supplémentaires à répondre à de mauvaises attaques, je l’ai fait ici mais je ne le répéterai pas).
Voici les différentes affirmations sur lesquelles nous pouvons désormais tomber d’accord (provisoirement ou non, en fonction des nouvelles données qui seront produites scientifiquement sur les mêmes sujets) en fonction des éléments apportés dans le débat :
1) Tout le monde a à différents degrés diverses idéologies (politiques, religieuses, etc.), mais ces idéologies sont moindres au centre qu’aux extrêmes politiques (tout simplement parce que le centre fait un compromis plus ou moins équilibré, p.ex. entre politiques de gauche et de droite, demande aux religions de la modération, etc.) (Wolfowicz et al., 2021).
2) Dans le domaine politique une certaine exagération (dogmatisme, actions politiques non normatives, etc.) peut être utile pour changer les choses (les travaux de Moscovici sur les minorités, les travaux présentés ici sur le militantisme, etc.).
3) Dans le domaine de la connaissance (et donc dans le champ de la zététique), aussi et même et surtout quand on parle de sujet politiques et sociaux et pas de paranormal, il faut baser ses propos et affirmations le moins possible sur son idéologie et le plus possible sur les données empiriques (qui vont permettre déprouver nos croyances idéologiques, nos hypothèses, nos théories, etc.).
4) De nombreuses recherche montrent davantage de dogmatisme ou complotisme à droite qu’à gauche, et environ autant de recherches, voire plus récemment, montrent davantage de dogmatisme ou complotisme aux extrêmes plutôt qu’au centre (effets conjoints produisant un U asymétrique vers la droite, si on les combine en une sorte de synthèse).
5) A propos des biais cognitifs, une abondante littérature montre des liens robustes entre les différents biais (donc suggère l’existence de ce que Stanovich et collègues appellent QR, Quotient Rationnel, lié mais en partie différent du QI), des liens entre biais cognitifs et pensée analytique, et des liens entre biais cognitifs, pensée analytique et croyances infondées (complotistes, paranormales, religieuses, fake news, bullshit, antiscientifiques comme la négation du réchauffement climatique, stéréotypes, etc.).
6) La plupart des biais cognitifs peuvent être modulés par le contexte, mais ne disparaissent pas totalement (ce qui suggère des explications en partie dispositionnelles).
7) Il est donc parfaitement raisonnable que la zététique « traditionnelle » ou non s’intéresse de près aux biais cognitifs, tente de populariser le concept, et postule que travailler sur les biais peut diminuer la désinformation (il y a des études en cours sur ce point), du fait des très nombreuses et robustes corrélations entre biais et croyances infondées.
8) Il y a bien sûr d’autres facteurs à l’œuvre dans la désinformation ou l’esprit critique, les facteurs sociaux et politiques, les vertus épistémiques, etc. Mais toute affirmation à leur propos doit être faite avec l’appui de données empiriques, et non sur la base de son seul avis (plus ou moins informé, et plus ou moins idéologisé).
Et une conclusion moins consensuelle :
9) La méthode des ZEM&S est principalement idéologique, avec une conclusion posée en avance (les biais sont une approche étriquée, n’expliquent pas ou peu les croyances, etc.), des critiques sur des points de détails qui n’invalident pas le propos général (le W par rapport au U), une connaissance très partielle et partiale de la littérature (Jost pour Tranxen, rationalité écologique pour Jacquel), et des surréactions émotionnelles (peu rationnelles) à des textes de couvertures de livre, des photos de diapositive, des contenus de 20 minutes de conférence, une posture morale supérieure, etc.
Voilà je pense avoir démontré que les accusations de « Raoult », de mauvaise vulgarisation, de désinformation scientifique étaient largement plus du côté de mes critiques, qui devront à l’avenir se montrer bien plus prudents et modestes. Tranxen me propose dans un tweet de combattre le dogmatisme, et suggère avec raison que reconnaître qu’on s’est trompé est une bonne manière de le faire. Alors comme je l’ai fait pour mes deux imprécisions à expliciter, j’attends qu’il le faisse pour les 12 erreurs assez manifestes qu’il a commises dans son blog concernant tous les points importants de ma conférence.
Références
Bachelard, G. (1967). La formation de l’esprit scientifique. Paris : Vrin. [1re édition : 1938].
Bellevaut, G. & Wagner-Egger, P. (2022). Méfiez-vous de votre cerveau : 30 biais cognitifs décrits et expliqués pour moins se tromper et mieux raisonner. Lausanne : Éditions 41 (EPFL).
Boltanski, L. (2012). Énigmes et complots. Une enquête à propos d’enquêtes. Gallimard.
Brotherton, R., & French, C. C. (2014). Belief in conspiracy theories and susceptibility to the conjunction fallacy. Applied Cognitive Psychology, 28(2), 238-248. https://doi.org/10.1002/acp.2995
Butera, F., Sommet, N., & Toma, C. (2018). Confirmation as coping with competition. European Review of Social Psychology, 29(1), 299–339. https://doi.org/10.1080/10463283.2018.1539908
Delouvée, S. (2015). Répéter n’est pas croire. Sur la transmission des idées conspirationnistes. Diogène, 249‐250, 88‐98. En ligne : https://doi.org/10.3917/dio.249.008
Delouvée, S., & Wagner-Egger, P. (2022). Manuel visuel de psychologie sociale. Paris : Dunod.
Gigerenzer G. (2011), Le génie de l’intuition. Paris : Belfond.
Hertwig, R., & Gigerenzer, G. (1999). The conjunction fallacy revisited: How intelligent inferences look like reasoning errors. Journal of Behavioral Decision Making, 12, 275–305.
Houdé, O. (2022). Apprendre à résister : Pour combattre les biais cognitifs. Paris : Flammarion.
Irwin, H.J. (2009). The Psychology of Paranormal Belief. A Researcher’s Handbook. University of Hertfordshire Press.
Lewandowsky, S. (2019). In whose hands the future. In S. Lewandowsky & J. E. Uscinski (Eds.), Conspiracy theories and the people who believe them (pp. 149–177). Oxford University Press.
Lordon, F. (2017). Disqualifier pour mieux dominer : Le complotisme de l’anticomplotisme. Le Monde diplomatique, 763, 3. En ligne : https://www.monde‐diplomatique.fr/2017/10/LORDON/57960
Morais, A. S., & Hertwig, R. (2022). Experimental methods are not neutral tools. APS Observer, 35(5).
Moro, R. (2008). On the nature of the conjunction fallacy,Synthese, 171:1–24.
Nera, K., Wagner‐Egger, P., Bertin, P. & Klein, O. (2021). A power‐challenging theory of society, or a conservative mindset? Upward and downward conspiracy theories as ideologically distinct beliefs. European Journal of Social Psychology, 51(4-5), 740-757. https://doi.org/10.1002/ejsp.2769
Raynaud, D. (2018). Sociologie des controverses scientifiques. https://doi.org/10.3917/edmat.rayna.2018.01
Shermer, M. (1997). Why people believe weird things? New York : Freeman and Company.
Stanovich, K. E., & West, R. F. (2000). Individual differences in reasoning: Implications for the rationality debate? Behavioral and Brain Sciences, 23, 645-665.
Stanovich, K. E., West, R. F., & Toplak, M. E. (2016). The rationality quotient: Toward a test of rational thinking. MIT Press.
Wagner-Egger, P. (2011). Les canons de la rationalité : Essai de classification des points de vue dans le débat sur les biais cognitifs et la rationalité humaine. L’Année Psychologique, 111, 193-226.
Wagner-Egger, P. (2021). Psychologie des croyances aux théories du complot : Le bruit de la conspiration. Grenoble : Presses Universitaires de Grenoble.