Pensée critique

Science et pensée critique

Résumé

Un scientifique est-il généralement un modèle de pensée critique ?
Naïvement, j'ai longtemps cru que la réponse à cette question était "évidemment" ; étant scientifique, je dois dire que ça m'arrangeait bien.
Et puis j'ai réalisé que, pendant toute ma formation, je n'avais jamais été vraiment formé (ni même réellement sensibilisé) à cette notion de "pensée critique", ni même à la méthode scientifique[1], et que c'était des notions un peu plus subtiles que prévu.
Aujourd'hui c'est vraiment une chose qui me tient à cœur, et même si je ne suis pas sûr de pouvoir la transmettre correctement (je ne pense pas encore me l'être vraiment appropriée), je voudrais essayer de décrire les étapes et notions clés qui m'ont fait avancer sur cette question.
J'espère que ces éléments pourront aussi intéresser ceux qui, comme moi, n'ont pas eu la chance d'être familiarisés à la pensée critique ainsi qu'aux nombreux mécanismes susceptibles de fausser notre jugement.
J'ai même l'espoir un peu fou que cette réflexion puisse aider à aborder certaines questions difficiles, dont on a souvent "conscience inconsciemment" mais sans aller vraiment s'y attaquer.

Contenu

La première partie de l'article est une introduction, un peu anecdotique, sur ce qui m'a amené vers la pensée critique, où j'explique mon point de vu sur la rationalité, qui me semble être une notion importante pour contextualiser l'utilité de la pensée critique.
Je détaille ensuite la définition de la méthode scientifique, puis le lien entre pensée critique, ouverture d'esprit, et biais cognitifs, pour montrer comment on peut réagir face à des informations nouvelles.
Enfin, je discute la notion de dissonance cognitive, et comment chacun essaye de la surmonter (dans mon cas, en écrivant cet article, par exemple).
Étant encore un peu fragile sur ces notions, j'ai essayé de fournir des pistes de lecture pour donner accès aux textes de personnes qui (il faut bien le dire), ont poussé cette réflexion un peu plus loin que moi. J'espère qu'ils vous intéresseront aussi et que vous vous amuserez en vous entraînant à ce jeu de l'esprit qu'est la pensée critique.

Comment me suis-je retrouvé là ?

Pour commencer, qu'est-ce qui m'a décidé à essayer de faire un article sur la pensée critique ? Beaucoup trop de choses pour en parler ici, en fait...
En revanche, ce qui m'a amené vers la pensée critique est bien plus simple (presque basique).
Comme pas mal de gens, j'ai souvent été frustré, lors de discussions, en ayant l'impression que la personne d'en face refuse d'être rationnelle et d'entendre des arguments factuels parfaitement valides.
Bon, bien sûr maintenant je pense savoir d'où vient le problème (et il ne venait évidemment pas que de la personne d'en face), mais avant, non, et je trouvais ça extrêmement agaçant.

C'est pour ça qu'avant de rentrer dans le vif du sujet, je voudrais dire quelques mots sur cette notion d'"être rationnel".
Être rationnel c'est baser ses croyances sur ses connaissances : je crois que le Soleil va se lever demain parce que je sais comment la Terre et le Soleil interagissent, je ne crois pas aux licornes parce que je n'ai jamais eu de preuves convaincantes qu'elles existent.
Et dans le deuxième cas, a priori, ça ne voudrait pas dire que je crois que les licornes n'existent pas, je ne crois pas qu'elles existent, c'est différent. Bien sûr, il se trouve que je crois aussi que les licornes n'existent pas, mais j'arrive à cette conclusion par un raisonnement inductif distinct.
Pour plus de détails là-dessus, je vous renvoie à l'excellente vidéo d'Hygiène Mentale, qui explique ça bien mieux que moi.

Aujourd'hui, je considère qu'être rationnel ça peut être un choix : on peut choisit d'être rationnel... ou pas.
Ça dépend des sujets, des moments... il n'y a pas vraiment de règle.
En revanche ce qui est important c'est d'en avoir conscience, parce que si on est irrationnel sur un sujet, alors on ne peut pas convaincre et on ne peut pas être convaincu par des faits, d'où ces joyeux débats sans fins et souvent sans intérêt, finalement.
Le problème principal, tel que je le vois à présent, c'est qu'en général on est irrationnel sans en avoir conscience.

Moi, la rationalité c'est plutôt mon truc ; je ne peux pas forcément expliquer à 100% pourquoi je pense que c'est mieux, mais j'ai un désir presque irrépressible (irrationnel ?) d'être rationnel.
Voilà, après je conçois très bien qu'on ne soit pas rationnel sur tout, tout le temps... je suis comme tout le monde là dessus : il y a plein d'émotions parfaitement irrationnelles que je trouve tout à fait positives et souhaitables, les neurosciences ont même montré qu'elles étaient tout à fait nécessaire au processus de décision[2].

Ceci étant dit, je peux quand même justifier que dans de nombreuses situations, ça a des avantages d'être rationnel : dans un débat, par exemple, si les deux partis sont rationnels alors ils doivent, sans forcément être d'accord, arriver à des opinions compatibles... ça évite les frustrations et les étripements.
Et quand on fait de la science, évidemment, ça paraît quand même souhaitable !

Je voudrais également souligner que, pour moi, rationalité et spiritualité ne sont ni opposées, ni incompatibles.
Enfin, la rationalité doit nécessairement s'accompagner d'une grande ouverture d'esprit pour pouvoir fonctionner, on ne peut pas être rationnel en étant obtus.

Donc voilà, pour ceux qui veulent essayer d'être aussi rationnels que possible dans certaines situations, vous trouverez dans la suite les notions qui m'ont aidé à comprendre comment m'assurer que je suis en train de penser de manière critique, sans tomber dans les nombreux pièges que me tend mon propre cerveau.

Qu'est-ce que la méthode scientifique ?

Alors pour ceux qui ont choisi de continuer (merci !), on va parler un peu de méthode scientifique.
De fait, un scientifique, j'en suis un, mais j'ai été bien embêté quand, en écoutant une vidéo de Monsieur Phi sur l'épistémologie[3], j'ai essayé de définir ce qu'est la méthode scientifique avant qu'il ne donne tous les détails.
Cette réflexion s'est ensuite naturellement prolongée sur la question des nombreux biais cognitifs qui sont susceptibles de nous empêcher de bien appliquer la méthode. Alors bien sûr, avec la définition à laquelle j'étais arrivé, je n'étais pas complètement à côté de la plaque non plus, on a tous une idée relativement intuitive de ce qu'est la méthode scientifique... mais quand il faut l'écrire bien proprement et de manière un peu carrée et systématique... c'est dur !

Si ça vous amuse, je vous laisse réfléchir à votre propre définition de la méthode scientifique. Là où le bât blesse, en général, c'est dans les petits détails, mais malheureusement, quand on commence à les mettre bout-à-bout, on s'aperçoit qu'à la fin il nous manque quand même toute une partie de l'image !

En parlant d'image, vous pouvez regarder l'article de Wikipédia pour avoir une idée de tout ce qui a été dit sur la méthode scientifique, mais surtout vous pouvez regarder le 1er schéma.
Ce qui est surtout intéressant sur ce schéma, c'est tout ce qu'il manque !

  1. Comme l'explique Monsieur Phi, une nouveau modèle théorique s'appuie quasi-systématiquement sur d'autres théories et modèles préexistants: on ne teste en fait presque jamais un modèle isolément.
  2. Ensuite, il y a les prédictions ; ici, pour bien faire les choses, il faut choisir les prédictions les plus risquées, celles qui mettent vraiment la théorie à l'épreuve (pas facile quand c'est une théorie qu'on a passé beaucoup de temps à développer, et dont on voudrait très fort qu'elle soit vraie).
  3. Sous réserve que ce choix de prédictions risquées ait été fait, il faut ensuite mettre au point un protocole pour tester la théorie et ce protocole doit s'assurer que les résultats permettront bien de tester efficacement celle-ci. Mettre en place un bon protocole, c'est une science à part entière, et des personnes venant de disciplines comme la biologie, la médecine, ou les sciences sociales sont probablement mieux placées qu'un physicien comme moi pour le savoir, elles qui ont souvent recours à des outils tels que l'étude randomisée en double aveugle et doivent multiplier les expériences témoins. À noter: pour des raisons diverses, notamment techniques, il arrive souvent que le protocole doive recourir à des hypothèses simplificatrices ou supplémentaires pour être réalisable.
  4. L'expérience enfin effectuée, on accède alors aux observations. Selon l'expérience, leur valeur n'est généralement que statistique ; la plausibilité du résultat est donc probabiliste et va dépendre de la puissance statistique de l'expérience.
  5. De ces résultats, on va alors conclure sur la réfutation ou la corroboration de l'ensemble des hypothèses mises en jeu dans les parties théoriques et expérimentales. Dans le cas où l'expérience et la théorie ne concordent pas, il va alors falloir trouver ce qui cause cette différence. Le désaccord entre théorie et expérience ne permet donc généralement pas de réfuter totalement la théorie, mais, selon la vraisemblance que l'on accorde à l'une et l'autre, va faire décroître de manière correspondante leurs crédibilité respectives.

Cette longue discussion a l'inconvénient d'être bien moins synthétique et claire que le joli schéma précédent... malheureusement, l'ignorer c'est risquer de passer complètement à côté des véritables enjeux de la méthode.

Je pense que nombreux sont ceux qui, comme moi, ont déjà échafaudé une petite (ou une grande, sait-on jamais) théorie, l'ont testée, et ont vu leurs espoirs déçus.
Dans ce cas là, le premier réflexe est souvent de regarder s'il n'y a pas un problème dans la réalisation expérimentale (cette théorie est trop belle pour ne pas marcher après tout).
On va alors voir ressortir tous les biais dont notre cerveau fourmille... et qu'ils vaut mieux connaître si l'on veut avoir une chance de les éviter !

S'ouvrir l'esprit sans penser de travers

J'ai parlé en introduction de la notion de rationalité et de son lien nécessaire avec l'ouverture d'esprit.
En fait, la méthode scientifique est particulièrement dure à suivre parce qu'elle nous force à chercher à réfuter nos propres théories, alors qu'on voudrait au contraire les voir confirmer.
Ici, la notion d'ouverture d'esprit est assez simple : il faut accepter de considérer avec autant de sérieux la possibilité que la théorie ou l'expérience soient incorrectes.
Ce lien entre ouverture d'esprit, méthode scientifique et biais cognitifs me semble bien illustré dans les vidéos d'Hygiène mentale, notamment sur les deux vitesses de la pensée[4], que je recommande chaudement.

Le doute méthodique et la méthode scientifique sont donc des outils qui permettent de se forger des opinions rationnelles sur des faits.
Leur bonne utilisation nécessite de garder un esprit ouvert, pour considérer tous les arguments sans en rejeter ou accepter certains de manière arbitraire, sans pour autant tomber dans le relativisme en attribuant des probabilités égales à des arguments inégaux[5].
Si ce principe peut paraître évident, je me suis aperçu (assez tard, je dois bien l'avouer) que sa mise en pratique était loin d'être évidente, et qu'afin d'éviter le dogmatisme et la crédulité, il est particulièrement utile d'avoir conscience des différents biais cognitifs[6][7] auxquels nous sommes tous soumis.

De fait, il me semble que la connaissance de ces biais cognitifs change radicalement l'approche que l'on peut avoir de ce qu'est un bon argument. En particulier, je pense malheureusement que c'est cette connaissance des biais cognitifs qui fait que les sceptiques sont souvent considérés (à tort) comme fermés d'esprit : étant plus familier avec les nombreuses erreurs que commet son cerveau, un sceptique va considérer quantité d'arguments qui paraissent généralement valides comme très insuffisants, voire fallacieux.
Cet article étant déjà bien assez long, je me contenterai d'illustrer brièvement quelques biais et arguments fallacieux :

  • L'effet Ikéa[8] : on accorde plus de valeurs aux choses auxquelles on a contribué, d'où la difficulté d'accepter que nos propres théories soient mises en défaut.
  • Le biais de confirmation[9] : on cherche en priorité à confirmer nos idées en ignorant les faits qui les contredisent.
  • L'effet râteau[10] : on sous-estime l'irrégularité du hasard.
  • Le sophisme de l'épouvantail[11] : on prête aux "opposants" des discours caricaturaux sans avoir réellement considéré leur point de vu.
  • Et bien d'autres[12]...

Personnellement, je trouve l'exemple du "bullshitomètre" proposé dans la vidéo d'Hygiène Mentale tout à fait pertinent : il faut essayer de trouver les biais auxquels on est le plus sensible et tenter de vérifier systématiquement que l'on est pas en train d'y céder.

La dissonance cognitive

Je vais finir ce long article en parlant d'un dernier point, peut-être le plus important lorsqu'il s'agit de se confronter à de nouveaux faits ou idées : la dissonance cognitive[13] [14] [15] [16].

Tout d'abord, nous avons tous une représentation interne de qui nous sommes, et, même si nous pouvons être lucides sur certains de nos défauts, la vision que nous avons de nous-même est généralement positive (ou du moins nous nous considérons rarement comme fondamentalement mauvais).

En simplifiant et résumant (sans doute à l'excès), la dissonance cognitive est souvent une tension interne qui résulte d'une incompatibilité entre notre comportement, nos croyances, et une information ou des faits.
Cette incompatibilité nous force alors à reconsidérer la vision que nous avons de nous même.
Par exemple : je sais que les vêtements que je porte ont été en grande partie réalisés dans des pays du tiers-monde, dans des conditions généralement peu enviables, peut-être même par des enfants.
Suis-je pour le travail des enfants dans les usines de textiles ? Mhh, laissez-moi réfléchir... non. Suis-je donc une mauvaise personne ? Peut-être, mais c'est difficile à accepter, au fond de moi je reste convaincu que je ne suis pas quelqu'un de fondamentalement mauvais.

Cette exemple typique de dissonance cognitive est généralement résolu par l'une des trois méthodes suivantes :

  • Une remise en question du fait (je vérifie ou me persuade qu'il n'y a en fait pas d'enfants qui ont contribué à la fabrication de mes vêtements).
  • L'ajout de circonstances supplémentaires explicatives qui viennent minimiser ou supprimer la dissonance ("c'est le système qui veut ça, je n'ai pas la possibilité d'acheter des vêtements éthiques").
  • Un changement de comportement (mon comportement est incompatible avec mes croyances et la vision que j'ai de moi-même, donc je le change : j'arrête d'acheter ce type de vêtements).

De fait, le changement de comportement est rarement l'option choisie et l'on constate le plus souvent une rationalisation de l'acte, voire un rejet du fait (effet "retour de flamme") qui est un cas typique dans de nombreuses situations polémiques telles que le changement climatique.

Voici un petit schéma pour résumer. S'il est difficile de travailler sur la dissonance, la connaissance de ses biais cognitifs permet en revanche d'essayer de minimiser leurs effets nuisibles qui restent une des sources principales d'irrationalité.

Schéma de principe de l'assimilation de faits nouveaux.

Le mot de la fin

Voilà, j'espère que cet article ne vous aura pas paru trop long ; si il y a des retours que vous voudriez faire (surtout s'ils sont négatifs) ou des choses dont vous voudriez discuter, surtout n'hésitez pas ! (mon contact est en bas de l'article)

Pour conclure, j'espère que ce petit résumé sur les liens entre pensée critique, méthode scientifique, biais, et dissonance cognitive vous aura donné envie d'approfondir ces notions. J'espère aussi que vous irez vous amuser à découvrir toutes les erreurs qu'est capable de faire notre pauvre cerveau parce que je pense que la connaissance de nos propre limitation est capitale.

Sur ce, j'aimerais finir avec quelques pistes, si vous voulez mettre votre pensée critique à l'épreuve, où juste pour passer le temps :

  • La méthode scientifique est-elle une erreur contre-productive ? (Ne me dites pas que vous ne l'aviez pas vu venir ! Vous pouvez par exemple aller lire How Popper killed particle physics et Against Method de Feyerabend pour démarrer).
  • Quels liens entre pensée critique et démocratie ? (j'ai bien apprécié les vidéos de Lê sur le sujet, dans sa chaîne Science4All)
  • La conquête spatiale contribue-t-elle à assurer la préservation l'humanité ou risque-t-elle de causer sa perte ? (Elon Musk, Tesla[17] et la série Mars face à la pollution et aux crises énergétiques[18] [19])
  • Comment justifier l'économie actuelle ? (inégalités et conséquences sociales[20]).
  • Êtes-vous plutôt high-tech ou low-tech[21] ?
  • Comment concilier l'intelligence artificielle et l'IoT avec les crises sociales et en ressources[22] ?
  • Impact environnemental et solutions : les énergies renouvelables vont-elles changer la donne[23] [24] ?
  • Quelles stimulations sont nécessaires pour réagir au changement climatique ? [25] [26] [27]

Bonnes réflexions !

Cordialement,
Tanguy Fardet


  1. pour paraphraser la formulation de Christophe Michel, que je trouve très juste, "je me suis rendu compte que je me pensais scientifique parce que j'avais fait des études de science, mais en fait personne ne m'en a appris la méthode. À l'université on m'a appris les résultats de la méthode, formules, les conclusions, mais la méthode elle-même, jamais un prof n'a pris une heure de son temps pour me l'expliquer." ↩︎

  2. lire à ce sujet l'article de The Cut sur les travaux de Damasio (un grand merci à Valentin pour ce lien) ↩︎

  3. pour plus de détails sur la notion de théorie scientifique en epistémologie, on peut notamment démarrer avec les travaux de Karl Popper, dont voici un extrait choisi http://www.ac-grenoble.fr/PhiloSophie/logphil/textes/textesm/popper1m.htm ↩︎

  4. Daniel Kahneman, Système 1 / Système 2 : les deux vitesses de la pensée, Flammarion, coll. « Essais », (2012) ISBN: 2081211475 et 978-2081211476. ↩︎

  5. voir la notion de coût épistémique ↩︎

  6. Saposnik, Gustavo et al. "Cognitive biases associated with medical decisions: a systematic review", BMC medical informatics and decision making vol. 16,1 138. (2016). DOI: 10.1186/s12911-016-0377-1 ↩︎

  7. Ioannidis, John P A et al. "Publication and other reporting biases in cognitive sciences: detection, prevalence, and prevention", Trends in cognitive sciences vol. 18,5 (2014): 235-41. DOI 10.1016/j.tics.2014.02.010 ↩︎

  8. Norton, Michael et al. "The IKEA Effect: When Labor Leads to Love." Journal of Consumer Psychology 22, no. 3 (2012): 453-460. ↩︎

  9. Nickerson, Raymond et al. "Confirmation Bias: A Ubiquitous Phenomenon in Many Guises" Review of General Psychology vol. 2, No. 2 (1998): 175-220 ↩︎

  10. Bronner, Gérald. "Coïncidences. Les représentations sociales du hasard", Paris, Vuibert, (2007) ↩︎

  11. Walton, Douglas. "The Straw Man Fallacy" in Logic and Argumentation, Amsterdam, Royal Netherlands Academy of Arts and Sciences, North-Holland (1996): 115-128 ↩︎

  12. Pirie, Madsen. "How to Win Every Argument: The Use and Abuse of Logic", UK: Continuum International Publishing Group (2007): 155–157. ISBN 978-0-8264-9894-6. ↩︎

  13. voir aussi la vidéo de Tronche en Biais sur le sujet, ou les articles cités ci-après. ↩︎

  14. Shultz TR, Lepper MR. "Cognitive dissonance reduction as constraint satisfaction", Psychol Rev. 103,2 (1996): 219-40. ↩︎

  15. Draycott S, Dabbs A. "Cognitive dissonance. 1: An overview of the literature and its integration into theory and practice in clinical psychology.", Br J Clin Psychol. 37 (1998):341-53. ↩︎

  16. Bem, D. J. "Self-perception: An alternative interpretation of cognitive dissonance phenomena", Psychological Review, 74,3 (1967): 183-200. DOI 10.1037/h0024835. ↩︎

  17. https://www.visualcapitalist.com/extraordinary-raw-materials-in-a-tesla-model-s/ ↩︎

  18. les crises énergétiques peuvent par exemple être liée à la notion de pic pétrolier, voir https://www.connaissancedesenergies.org/fiche-pedagogique/pic-petrolier ; pour plus d'information sur les types de pétroles consommés et leur évolution probable, voir https://carnegieendowment.org/files/unconventional_oil.pdf ↩︎

  19. http://petrole.blog.lemonde.fr/2019/02/04/pic-petrolier-probable-dici-a-2025-selon-lagence-internationale-de-lenergie/ ↩︎

  20. https://www.sciencealert.com/these-two-industries-literally-kill-more-people-than-they-employ-claim-researchers et l'article scientifique https://www.mdpi.com/2076-0760/8/2/62 ↩︎

  21. pour une brève introduction à la notion de low-tech, voir https://fr.wikipedia.org/wiki/Low-tech ↩︎

  22. je vous conseille là-dessus l'excellent article du grand journal d'information "The Onion". ↩︎

  23. http://www.cea.fr/Pages/domaines-recherche/energies-renouvelables.aspx ↩︎

  24. https://quillette.com/2019/02/27/why-renewables-cant-save-the-planet/ ↩︎

  25. https://theconversation.com/what-happens-to-the-natural-world-if-all-the-insects-disappear-111886 ↩︎

  26. https://www.washingtonpost.com/climate-environment/2019/02/25/very-high-carbon-dioxide-could-suppress-cooling-clouds-climate-change-model-warns/ ↩︎

  27. Moore, Frances C. et al. "Rapidly declining remarkability of temperature anomalies may obscure public perception of climate change", PNAS (2019): DOI 10.1073/pnas.1816541116 ↩︎