samedi 2 décembre 2023

Do Physicists Assume that Electrons Exist?

Superconductor-levitation

Scientific realism was the main topic of my PhD dissertation, so I feel that I should say something on the recent debates on Twitter on the existence of electrons, between Philip Goff and Sabine Hossenfelder. Here is a quick comment.

mercredi 1 mars 2023

La neutralité de la science vis-à-vis des valeurs sociales : un idéal obsolète ?

Je me suis plongé récemment dans la lecture sur l’idéal de neutralité axiologique de la science ("value-free ideal") et ait quelque peu évolué sur ces questions. Ce post a principalement pour but de faire état de mes conclusions et de référencer les sources qui m’y ont amené.

L’idéal de neutralité axiologique:

La science vise uniquement le vrai (ou la connaissance, la compréhension, etc.), et non pas ce qui est bien ou politiquement souhaitable. Donc les scientifiques ne devraient pas faire de jugements de valeur au moment d’accepter ou de rejeter des hypothèses, mais seulement accepter les hypothèses qu’ils jugent très probablement vraies (ou apportant connaissance / compréhension) suivant des standards internes à la science, conformes à son but, indépendants du reste de la société.

Ce qu’est et n’est pas l’idéal de neutralité

(Parachute Descent)

J’entend parfois dire que l'idéal de neutralité axiologique serait mort et enterré dans la littérature philosophique contemporaine. Ce n’est pas tout à fait juste, beaucoup d’auteurs et autrices le défendent plus ou moins explicitement (des références au fil de l’article). Rappelons quelques points importants à ce titre :

  1. Il s’agit d’un idéal. Ses défenseurs n’affirment pas que la science a déjà atteint cette neutralité vis-à-vis des valeurs sociales, seulement que c’est souhaitable.

    • Donc pointer des entorses à la neutralité, des biais masculinistes en archéologie par exemple, n’est pas un argument contre l’idéal. Au contraire : le fait même de présenter une influence de valeurs sociales comme un problème pour l’objectivité semble impliquer qu’on adhère à cet idéal, et à la limite, critiquer l’idéal de neutralité pourrait empêcher de voir un problème (autre que moral) dans les biais masculinistes (cf. Stéphanie Ruphy 2006)
  2. Ceci dit, adhérer à l’idéal suppose de penser qu’il est en principe atteignable ou au moins qu’on peut s’en approcher indéfiniment (si c’est un idéal régulateur), et aussi que les scientifiques le font plus ou moins. L'idéal n'est pas non plus censé être entièrement déconnecté de la pratique scientifique.

    • Donc pointer une impossibilité de principe de s’abstenir de jugements de valeur en science, ou pointer la présence entièrement généralisée de jugements de valeur sans que les scientifiques n'estiment qu'il y a un problème particulier peut fonctionner comme argument contre l'idéal, en une certaine mesure.
  3. Mais attention, il ne faut pas confondre valeur et perspective / position sociale. Être un homme n’est pas la même chose que de défendre des valeurs masculinistes. (cf. Hannah Hilligardt 2022).

    • Donc affirmer qu’on ne peut échapper à sa position sociale, et qu’il est donc souhaitable d’intégrer des perspectives variées, par exemple des perspectives féminines en archéologie, pour combler des points aveugles dans la recherche, n’est pas en soi une négation de l’idéal de neutralité : le fait que les femmes, de par leur expérience sociale, puissent être dotées de compétences épistémiques plus difficilement accessibles aux hommes n’implique pas que ces compétences s’appuient sur des jugements de valeur.
  4. Enfin l’idéal concerne uniquement la justification des hypothèses, “en interne” pour ainsi dire. Les interactions avec le reste de la société, même quand elles participent à la production de connaissances, peuvent tout à fait être guidées par des valeurs sans enfreindre l’idéal (Helen Longino 1990 ch. 5).

    • Mettre en avant le rôle des valeurs sociales quand il s’agit de sélectionner ou financer des programmes de recherche jugés plus importants que d’autres, comme la recherche contre le cancer, ou de bannir des méthodes de collecte de données comme l’expérimentation animale, est compatible avec l’idéal de neutralité, car ça ne touche pas à la justification des hypothèses.

Ceci met la barre assez haut pour qui veut rejeter l’idéal de neutralité axiologique. On voit que ni pointer des biais à l’oeuvre en science, ni mettre en avant l’inévitabilité du positionnement social de chacun, ni faire valoir que la société a son mot à dire sur l’importance des recherches ne constituent de bons arguments contre un idéal de neutralité bien compris. Pour le rejeter, il faut argumenter que les jugements de valeurs sont en principe inévitables, non problématiques, voire souhaitables, pour l’acceptation ou le rejet d’hypothèse scientifiques en particulier. Pourquoi le penser ?

L’argument de l’imprégnation des catégories par les valeurs

Un premier argument que je trouvais initialement convaincant en faveur de l’inévitabilité des jugements de valeur est l’idée que les catégories scientifiques sont parfois imprégnées de valeurs : par exemple, ce qui compte ou non comme maladie psychologique ou comme violence domestique pourra dépendre de ce qu’on juge souhaitable ou non dans un contexte social. On trouve cette idée chez John Dupré (2007) et d’autres.

L’argument proposé par David Ludwig (2016) est assez simple pour être reproduit ici :

  • La vérité ou fausseté d’une hypothèse dépend de choix ontologiques (des choix de catégorisation).
  • Les choix ontologiques dépendent de valeurs sociales.
  • Donc la vérité des hypothèses dépend des valeurs sociales.

Mais j’avoue que l'argument ne me convainc pas pour la raison suivante : je pense que c’est la signification d’un énoncé qui dépend de choix ontologiques, et non pas la vérité d'une hypothèse. La vérité d’une hypothèse exprimée par un énoncé, une fois sa signification fixée, dépend essentiellement du monde. En ce sens, les choix ontologiques s’apparentent plutôt aux choix de programmes de recherche (quelle hypothèse tester ?) qu’à des choix sur ce qui est à accepter ou à rejeter, et on a vu que les jugements de valeurs sur ces aspects sont compatibles avec l’idéal de neutralité.

Ceci m’amène à douter, au delà de cet argument en particulier, que le fait que les catégories soient chargées de valeurs constitue réellement un problème pour l’idéal de neutralité. Il me semble en effet que la science vise généralement à rendre ses catégories précises et opérationelles, quitte parfois à introduire des termes techniques pour remplacer les termes vernaculaires trop chargés. Cette précision des catégories et opérationalisations utilisées me semble indéniablement être un idéal poursuivi par la science, un critère de bonne science dans la plupart sinon toutes les disciplines scientifiques. Et ce que ce critère de précision réalise, c’est une indépendance vis-à-vis des valeurs sociales pour l’évaluation de la vérité ou de la fausseté des hypothèses.

Pour voir ceci, prenons un exemple: une recherche sur les violences domestiques. Si l’on laisse le termes “violence domestique” imprécis, alors évaluer à quel point celles-ci sont répandues sera laissé à la discrétion des scientifiques responsables de la collecte des données. Disons que ceux-ci ont tendance à juger que certaines situations ne sont pas bien graves, et donc rechigneront à parler de violence, quand celles-ci jugeront que ces situations sont terribles, et constituent donc bien des situations de violences domestiques : les valeurs influencent directement les résultats obtenus. Si maintenant on se met autour d’une table pour décider de critères précis, alors dans l’idéal, aucune place n’est laissée aux jugements de valeurs au moment de l'interprétation des données : ceux-ci pourront considérer qu’une situation n’est pas bien grave, mais, respectant les choix faits en amont, ils devront la classer comme violente et à l’inverse pour celles-ci. La précision des catégories a bien pour effet d’éliminer les jugements de valeur (ou plutôt de les reléguer en amont de la collecte des données).

Les choix ontologiques sont-ils moraux ?

Bien sûr, la bonne manière de préciser les catégories et de les opérationaliser dépend de ce qu’on veut en faire, et donc en partie de valeurs sociales (mais aussi en partie du monde : certaines catégorisations sont plus fructueuses que d'autres). On peut considérer que les choix de catégorie font partie intégrante de la recherche, et affirmer que les valeurs ont un impact ici s'apparente à une concession faite aux détracteurs de l'idéal de neutralité. Par exemple, des scientifiques pourront publier le résultat “la violence domestique est inexistante” juste parce qu’ils ont fait des choix méthodologiques douteux, et en surface, on peut avoir l’impression que de mauvais jugements de valeurs ont directement affecté l’acceptation de l’hypothèse “la violence domestique est inexistante”, quand de meilleurs jugements de valeurs auraient permis d'aboutir à une conclusion plus censée à travers une meilleure opérationalisation de la catégorie. En ce sens, les jugements de valeurs seraient inévitables et les "bons" jugements de valeurs souhaitables en science.

Ce qu'on peut se demander ici, c'est si le fait de bien caractériser la violence domestique relève réellement du jugement de valeur. Après tout, le tort des scientifiques dans cet exemple est de proposer une compréhension idiosyncratique d'un terme qui a déjà une compréhension commune (voire également une compréhension scientifique ou juridique). Le jugement erroné me semble sémantique et non moral : ils se trompent sur ce qu'est la compréhension d'un terme, sur les normes d'usage. Cette erreur est peut-être influencée par leurs valeurs, mais remarquer ceci ne fait que renforcer l'idéal de neutralité. S'ils avaient mis de côté leur tendance à amoindrir la violence domestique, ils auraient employé une acception commune, reconnue, du terme. À ce titre, employer une conception trop libéral de la violence domestique pour arriver à la conclusion qu'elle est omniprésente serait tout aussi problématique. Ce qu'on attend d'une recherche objective, et ce qui fait d'ailleurs partie des bonnes pratiques en science, c'est un alignement sur les standards en matière de compréhension des termes, de manière à ce que le résultat de la recherche soit correctement interprété par notre communauté linguistique. Et cette alignement ne demande pas de jugement de valeur de la part des scientifiques. Le fait que ces standards ou cette compréhension commune soit chargée de valeurs n'est pas un problème pour la neutralité, puisqu'elle ne relève pas de la compétence du scientifique: il ne s'agit pas d'un aspect interne à la science.

Le seul cas où on pourrait suspecter qu'un jugement de valeur doit être émis, c'est quand les standards sont encore inexistants ou imprécis. Mais on peut suspecter que les choix faits en la matière sont principalement pragmatiques : adopter une compréhension précise, simple, facilement opérationalisable, conceptuellement cohérente, fidèle au sens commun et qu'on soupçonne fructueuse sur le plan explicatif... (ici j'entend par critère pragmatique ce que d'autres appellent "valeurs épistémiques", la raison étant qu'en tant que non-réaliste, je ne considère pas que ces critères visent le vrai, mais je considère qu'ils s'agit de critères rationnels, indépendants du contexte social). Savoir refléter de manière appropriée le sens commun peut demander une sensibilité ou une empathie, plus facilement accessible à ceux qui ont une expérience sociale particulière, mais j'y vois personnellement une compétence cognitive plutôt que morale (bien que je serais prêt à concéder que les distinctions deviennent un peu floues ici).

Dans tous les cas, le fait d'adopter des définitions précises garantie une certaine objectivité dans le résultat de la recherche : on peut trouver ce résultat peu pertinent si l’on pense que les catégories utilisées sont mal choisies, mais on ne peut le trouver faux si le travail a été correctement réalisé. Ceci est cohérent avec l'idéal de neutralité axiologique.

L’argument du risque épistémique

(Parachute Descent) - 36111529490

L’argument à l’encontre de l’idéal de neutralité qui est je pense le plus influent, le plus repris dans la littérature, et qui m’a moi même le plus convaincu est l’argument du risque épistémique.

L’idée est assez simple : pour accepter ou rejeter une hypothèse sur la base de données incertaines, il faut adopter des standards d’adéquation (par exemple une p-value à 5%, c’est à dire que la probabilité d’obtenir les données obtenues si notre hypothèse était fausse serait inférieure à 5%). Or ces standards sont arbitraires. Il dépendent essentiellement du risque qu’on est prêt à prendre : accepter une hypothèse à tort, ou bien la rejeter alors qu’elle était vraie. Et ces risques dépendent de nos valeurs, de l’importance qu’on accorde aux erreurs.

Ainsi, on adoptera des standards beaucoup plus exigeants avant de déclarer que la sangle d’un parachute est sûre que avant de déclarer que la sangle d’un sac à dos est sûre, parce que dans le second cas, l’erreur a une importance moindre. Ce qui n'a rien de problématique.

Ce qui est intéressant avec cet argument est qu’on peut facilement l’étendre. Considérer qu’une hypothèse est confirmée n’est jamais une simple affaire de statistiques. Dans le cas de la sangle du parachute, il s’agit de vérifier un ensemble de conditions variées (humidité, etc.), un ensemble de sources d’erreurs possibles. Il s’agit, en somme, de tester la robustesse de l’hypothèse vis-à-vis d’un ensemble plus ou moins large d’hypothèses concurrentes (Jonah Schupbach 2015), et de s’arrêter quand on peut croire l’hypothèse “au delà de tout doute raisonnable” (on n’ira peut-être pas jusqu’au doute métaphysique). L’étendue des hypothèses concurrentes qu’on jugera raisonnable d’envisager avant d'accepter définitivement l'hypothèse (ce qui coûte du temps et de l’argent) peut en principe dépendre de l’importance qu’on accorde à obtenir un résultat fiable, donc de nos valeurs. Ceci contredit directement l’idéal de neutralité axiologique.

Il y a un lien assez directe avec la notion classique en philosophie des sciences de sous-détermination par l’expérience (il existe toujours une infinité d’explications possibles, les données empiriques ne sont jamais pleinement déterminantes), ce qui fait que l’argument du risque épistémique est un argument potentiellement très général. Il s'applique en principe aussi bien à l'interprétation d'observations concrètes (est-ce ou non une tumeur ?) qu'à l'évaluation de théories générales (P Magnus 2018). Mais il est plus souvent employé pour l’évaluation des hypothèses ayant des applications très directes.

Contre le risque épistémique

Voilà où j’ai révisé un peu mes positions à la lecture de la littérature philosophique : je suis en fait moins convaincu qu’avant de la pertinence de cet argument, pour différentes raisons. Il y a d’abord des raisons de portée :

  • L'argument s’applique uniquement aux contextes d’incertitude et de ressources limitées. Plus on a la possibilité de réduire le risque d’erreur en produisant de nouvelles données ou des tests variés, moins le jugement de valeur devient essentiel.
  • Il ne concerne pas, au fond, ce qu’on devrait croire ou non, qui ne varie pas d'un contexte à l'autre et ne dépend pas du risque (au moins suivant les conceptions majoritaires), mais plutôt s’il faut agir ou non sur la base d’une croyance, ou la manière dont les résultats de la recherche doivent être communiqués aux décideurs dans un contexte donné (Stephen John 2015).

L'argument s’applique donc principalement, comme déjà dit, aux recherches directement appliquées ou commanditées par des institutions politiques, des contextes au sein desquels il faut prendre une décision malgré l'incertitude : par exemple, interdire ou non une substance chimique. Cette limitation de portée est quand même très problématique pour l’argument, parce que l’idéal de neutralité est bien (encore une fois) un idéal, et ici, on parle de conditions qui ne sont pas forcément des conditions idéales : quand la science est directement mise à contribution pour l’action, et manque de ressources.

En dehors de ces contextes particuliers, le risque d'erreur n’est plus vraiment évaluable parce que les résultats de la recherche peuvent être utilisée de multiples façons qu’il est difficile d’anticiper. Ce qu'on veut savoir, c'est ce qu'il faut croire, et non comment agir. Or, quand c'est le cas, on peut juger que la science a tout intérêt à maintenir des standards d’adéquation très élevés lors des tests empiriques, en augmentant notamment le nombre de tests jusqu'à obtenir des données concluantes quand c'est possible, quitte à ne pas se prononcer quand les résultats sont incertains. Il s'agit de maintenir son statut d'institution digne de confiance : un résultat validé par la science doit être fiable pour à peu près n’importe quels buts. Abaisser les standards pour des raisons politiques serait extrêmement dommageable à long terme pour sa crédibilité (Stephen John 2015 -- pour John c'est vrai même dans les contextes de décisions politiques, mais j’ai plus de doutes la dessus, cf. Kevin Elliott 2014)). Or adopter des standards systématiquement très élevés revient, dans les faits, à se rendre imperméable aux jugements de valeur, puisque les données s'avèrent alors plus décisives (au moins si l’on accepte qu’il s’agit d’un choix tri-partite: accepter, rejeter, ou ne pas se prononcer).

Outre ce problème de portée, l’argument a aussi certaines faiblesses :

  • Si l’idée est que contrairement au “wishful thinking” (accepter une hypothèse seulement parce qu’on l’aime bien), fixer les standards de risque éviterait le dogmatisme, et donc que ce serait une “bonne” influence des valeurs, c’est simplement faux : il suffit d’adopter des standards démesurément exigeants envers tout ce qui contredit nos opinions mais permissifs pour ce qui va dans leur sens pour être dogmatique (Inmaculada de Melo-Martín and Kristen Intemann 2016).
  • Pourquoi croire que les scientifiques seraient particulièrement aptes à émettre des jugements de valeurs ? (ibid) Il semble plus judicieux d’externaliser ces jugements hors de la science, et donc idéalement, le fonctionnement interne de la science devrait être indépendant des valeurs.
  • Une manière d’externaliser les jugements de valeur est pour les scientifiques de transmettre des probabilités ou degrés de confiance ou de communiquer sur la robustesse plutôt que d’accepter ou rejeter les hypothèses, et ça semble faire partie des standards pour le GIEC par exemple (Gregor Betz 2013). Il est parfois avancé que ça implique un risque épistémique “de second ordre”, mais c’est faux, au moins dans un cadre probabiliste : une incertitude d’incertitude peut toujours se ramener à une incertitude de premier ordre (Brian MacGillivray 2019 l'incertitude de second ordre mesure en quelque sorte la volatilité du jugement dans un cadre bayésien).
  • Au final, le cadre d'analyse de l'argument est assez simpliste. L’évaluation formelle du risque est complexe, c’est un métier à part entière, et ça a plus à voir avec l’évaluation des conséquences de différentes actions possibles suivant des critères objectifs qu’avec la fixation de seuils statistiques sur la base d’un jugement de valeur (ibid).

Voilà pourquoi je ne pense pas que le risque épistémique constitue une bonne raison de croire que les jugements de valeur sont souhaitables ou indispensables pour sélectionner les hypothèses. Je pense que dans l'idéal, les scientifiques devraient adopter des standards élevés et communiquer sur leur incertitude pour éviter d'avoir à faire de tels jugements.

Ceci étant dit, je suis convaincu au moins d’une chose : cette notion de risque épistémique rend très bien compte de la manière dont les résultats de la recherche scientifique sont politisés dans la société. Quand ces résultats appuient des croyances qu’on juge dangereuses (surtout si elles s’avéraient fausses), on devient extrêmement exigeant quant au niveau de preuve. Quand au contraire on pense que même si elles s’avéraient fausse, ce ne serait pas une grosse erreur de les avoir crues, on a tendance à abaisser drastiquement nos standards. Mais il me semble que l’influence sociale des résultats scientifiques est souvent surestimée dans ces contextes, que les risques sont mal évalués, et cette attitude est difficile à distinguer de la mauvaise foi ou du dogmatisme. Il me semblerait très problématique d’ériger cette prise en compte informelle du risque épistémique en norme pour la science.

Conclusion : sur quoi doit porter le débat ?

(Parachute Jumping)

Partant de là, je ne vois plus beaucoup de raison de ne pas soutenir l'idéal de neutralité axiologique de la science.

Au mieux, on pourrait s'appuyer sur la sous-détermination pour défendre que des jugements de valeur doivent avoir lieu de toute façon : on ne peut tester toutes les hypothèses possibles, il faut faire un choix, adopter une stratégie de recherche laissant de côté des hypothèses pour en privilégier d'autres. La sous-détermination par l'expérience est un constat philosophique. En pratique, cependant, la sélection d'hypothèse est fortement contrainte par le cadre conceptuel dans lequel les scientifiques travaillent. Un biologiste travaille dans le cadre de la théorie de l'évolution, et donc va se limiter aux hypothèses évolutionnistes, quand bien même il existe d'autres possibilités logiques. De même pour ce qui est des méthodes expérimentales et de l'interprétation des résultats empiriques. Voilà qui restreint déjà considérablement l'espace des possibles, et laisse peu de cas que l'expérience ne pourrait trancher. Pour ces cas indécis, il est toujours possible d'exprimer l'incertitude plutôt que de trancher, et ça semble même plus souhaitable que de faire une évaluation au doigt mouillé du manque à gagner pour la société.

Ainsi, sauf à affirmer que le fait de travailler dans un cadre théorique qui a fait ses preuves plutôt que de renverser la table à chaque nouvelle recherche relève d'un jugement de valeur et non de considérations pragmatiques ou rationnelles (ce que défend plus ou moins Longino (1996) in fine), les jugements de valeur ne semble pas foncièrement indispensables ni particulièrement souhaitables au moment de sélectionner les hypothèses en science. Je ne suis pas non plus convaincu qu'ils soient entièrement généralisés ou considérés non problématiques par les scientifiques, y compris au moment de confirmer ou rejeter les hypothèses (bien que ce point pourrait être discuté sur la base d'études concrètes). Reste la sélection des cadres théoriques eux-mêmes, mais ils sont souvent très abstraits, et j'estime que l'idées que leur adoption dépende de facteurs sociaux plutôt que de considérations rationnelles reste à démontrer.

Malgré tout la science est bien motivée par des jugements de valeurs : ceux-ci concernent les choix des recherches à mener et à financer, y compris la manière de poser les hypothèses et les tests à effectuer. Si l'on accepte ceci, on s’approche d’une position proposée comme compromis dans le débat par Greg Lusk et Kevin Elliott (2022) : selon eux, on peut accepter que les activités scientifiques sont dirigées vers des buts, dépendant de valeurs, et que l’évaluation de l’adéquation des hypothèses pour ces buts se fait indépendamment de jugements de valeurs de manière objective. Pour ma part, je n’ai pas l’impression que les défenseurs de l’idéal de neutralité aient jamais dit autre chose, quitte peut-être à ajouter que ces buts sont plus typiquement abstraits (comprendre tel phénomène dans le cadre de telle théorie) que concrets et limités (déterminer la toxicité de ce produit en très peu de temps et avec très peu d'argent).

En fait, plus je lis d'articles critiquant cet idéal de neutralité de la science, moins l'enjeu de ces critiques ne m'apparait clair. Car finalement c’est bien en amont de la justification des hypothèses que se situent les questions les plus pressantes quant aux rapports entre science et société : au niveau de la sélection et du financement des programmes de recherche. La dessus, les deux camps sont d’accord que les valeurs sociales peuvent intervenir (il est légitime de faire de la recherche contre le cancer parce que ça nous importe, personne ne l'a jamais nié), et pourtant il me semble que ce serait un problème si les scientifiques ne disposaient pas de la liberté de choisir certains programmes sans grande utilité sociale, mais scientifiquement importants, et de la possibilité d’être financés pour ça. Ce genre d’autonomie (qui n’est pas incompatible avec des financements d’utilité sociale par ailleurs) me semble tout aussi essentielle à l’intégrité de la science. Mais ces questions peuvent être finalement assez complexes sur le plan éthique, puisque les recherches ont des répercutions sociales incertaines. Et ce sont sur ces aspects que les débats de sociétés s'avèrent particulièrement houleux : faut-il chercher le gène de l'homosexualité ?

Peut-être donc que c'est sur ces aspects que les philosophes qui s'interessent aux interactions entre science et société devraient porter leur attention. Ce que nombre d'entre eux font déjà, soyons honnêtes, il ne s'agit pas d'une conclusion révolutionnaire: je pense juste que le débat sur l'idéal de neutralité en particulier n'est pas le plus pertinent. Qu'importe si la production de connaissances idéalement fiables puisse et doive se faire indépendamment des valeurs sociales ; quelles connaissances veut-on produire ? C'est là la vraie question.

mardi 25 octobre 2022

Le réalisme est-il du côté du bon sens ?

Chair-black and white drawing

Le réaliste affirme que les théories et hypothèses scientifiques sont pour la plupart vraies, au moins en approximation, et que les objets postulés par les scientifiques, les protons, les gènes et les cellules existent réellement. Si le philosophe non-réaliste nie tout ça, il contredit directement les scientifiques, n’est-ce pas ? Il est anti-science ? En quoi un philosophe serait-il légitime pour contredire ce que disent les scientifiques sans même prendre la peine de faire des expériences ? N’est-ce pas extrêmement prétentieux ?

En fait c’est un peu plus compliqué que ça. Disons que le diable est dans les détails, et en particulier dans la compréhension de “exister”, “vrai” et “réaliste”. Je vais examiner ces trois termes tour à tour.

Je souhaite défendre ici que les philosophes réalistes ont opéré, au tournant des années 80, une appropriation de ces termes qui leur ont permis d’asseoir le réalisme métaphysique sur le sens commun et de doter leur projet métaphysique du prestige généralement associé aux sciences.

Pour ma part, je considère que les projets métaphysiques qu’ils mènent, quel que soit leur intérêt par ailleurs, ne sont pas scientifiques, et qu’il est important de marquer la différence entre science et métaphysique. C’est principalement pour cette raison que je me revendique non-réaliste : non pas parce que je serais anti-science, mais parce que, fidèle en cela à une certaine tradition empiriste, je suis sceptique vis-à-vis de la métaphysique.

“Exister”

Je suis assis sur une chaise. La chaise existe-t-elle ? Au sens courant du terme, c’est indéniable. Dire “cette chaise n’existe pas” dans un contexte ordinaire reviendrait à dire que c’est une illusion d’optique, un hologramme ou une image de synthèse peut-être, mais je sais que ce n’est pas le cas : je peux la toucher, la déplacer. Cette chaise existe, donc.

Pourtant la catégorie d’objet “chaise” n’est pas une catégorie naturelle : ce n’est pas une classe d’objet qui nous est donnée par la nature. Ce qui différencie une chaise d’une non-chaise est en partie conventionnel, certains objets sont difficiles à classer, et je ne serais pas surpris que ce que l’on appelle banc, tabouret, fauteuil, chaise longue ou transat en français soient classifiés suivant des regroupements légèrement distincts dans d’autres langues (je sais sur c’est le cas de “bol” et “assiette creuse” par exemple).

Mettez vous un instant dans la tête d’un physicaliste réductionniste pur et dur (“éliminativiste”) : la seule chose qui existe vraiment dans le monde, ce sont des particules microscopiques en interaction. Diriez-vous que la chaise existe ? Vous pourriez bien le nier : cet objet n’a aucun contour précis à l’échelle microscopique qui permettrait de l’identifier à un groupe de particules en particulier, et même si c’était le cas, ce groupe de particules serait entièrement arbitraire, sans aucune règle précise pour lui associer la catégorie “chaise” hors contexte. En fin de compte, pour le réductionniste pur et dur, la chaise est une “fiction utile”, voire une “construction sociale”, pour employer une façon de parler plus controversée.

Personne n’est tenu d’être réductionniste en ce sens, mais c’est une position philosophique a priori légitime, non ? Donc il est légitime, sur le plan philosophique, de dire que les chaises n’existent pas réellement ou absolument, que ce sont des vues de l’esprit.

Est-ce à dire que le réductionniste devrait reprendre nos interlocuteurs à chaque fois qu’ils parlent de chaises ? Bien sûr que non ! En fait, il semble que ces arguments emploient le terme “exister” en un sens beaucoup plus exigeant que nous ne le faisons au quotidien. Un sens métaphysique : pour exister, il faut constituer un objet dont le découpage est parfaitement naturel, indépendant des représentations et catégories arbitraires des êtres humains. Un objet existe réellement s’il correspond au moins approximativement à un tel découpage. Différencions donc deux sens de “existence” : l’existence ordinaire et l’existence métaphysique.

“Vrai”

EB1911 Dandelion (Taraxacum officinale)

Les pissenlits sont jaunes. C’est vrai, n’est-ce pas ? Au sens courant du terme oui, c’est indéniable. Peut-être pas tous les pissenlits, certains n'ont pas de fleur, et pas tout le pissenlit, seulement ses pétales. Par ailleurs, pissenlit est un nom vernaculaire. Enfin, la distinction entre vert et jaune s’avère assez sensible à la langue ou au contexte social (apparemment certains considèrent que les balles de tennis sont vertes, d’autres qu’elles sont jaunes). Mais ne chipotons pas, la couleur des pissenlits est franchement dans la catégorie “jaune”. Disons donc que les pétales des pissenlits “véritables” sont typiquement jaunes. Dans un contexte ordinaire, le nier reviendrait à postuler une espèce d’illusion d’optique massive qui toucherait la couleur des pissenlits en particulier, quelque chose de très improbable.

Pourtant, la couleur “jaune” ne correspond pas à une propriété naturelle des objets. Un mélange de lumière verte et rouge nous donnera du jaune, mais c’est un spectre lumineux très different d’un spectre monochromatique jaune situé quelque part entre le vert et le rouge. La seule raison de mettre les deux spectres dans la même catégorie, c’est que dans des conditions normales, nos systèmes perceptifs répondent typiquement de la même façon aux deux. Mais alors tout ça est relatif à notre physiologie.

Un physicaliste pur et dur pourrait défendre que les pissenlits ne sont pas vraiment jaunes : les couleurs sont des illusions cognitive, une construction de notre cerveau. Donc “les pissenlits sont jaunes” est faux, à strictement parler, car les couleurs n’existent pas en dehors de nos têtes. C’est juste une façon utile de parler, étant donné que nos systèmes visuels sont semblables. Il y a sûrement des objections à ce type de vue, mais au moins c’est une position philosophique légitime, non ?

Est-ce à dire qu’un tel physicaliste devrait reprendre nos interlocuteurs chaque fois qu’ils attribuent des couleurs aux objets ? Bien sûr que non ! C’est juste que le physicaliste emploie “vrai” en un sens philosophique particulier : une correspondance entre nos représentations et la réalité qui ne dépendrait pas de notre constitution d’être humain, soit une notion de vérité beaucoup plus exigeante que la façon commune d’employer la locution “c’est vrai”, selon laquelle une influence du contexte ou une forme de relativité aux êtres humains n’est pas bien grave.

On pourrait donc distinguer la vérité au sens ordinaire et la vérité au sens métaphysique, la première correspondant, disons, à l’absence de doutes légitimes pour accepter une proposition dans un contexte donné, et la dernière étant une correspondance directe à la nature fondamentale de la réalité 

Et la science?

Les cellules biologiques, les gènes, les protéines, les atomes, les électrons existent-ils ? L’entropie, la température ou les forces centrifuges existent-elles ? Nos théories à leur sujet sont-elles vraies ? Au sens commun de “exister” et “vrai”, ça me semble indéniable. Mais au sens métaphysique ?   C’est sujet à débat. Un réductionniste pur et dur pourrait défendre que seuls les électrons existent dans cette liste, ou peut-être aussi les atomes et les protéines, mais pas les cellules et les gènes parce que leur composition chimique et leur découpage varie d’un contexte à l’autre et qu’il est impossible de les définir en employant uniquement le vocabulaire de la physique. Ce sont des entités fonctionnelles plutôt que réelles. Un physicaliste plus tolérant (“non réductionniste”) pourrait affirmer que tout ça existe y compris au sens métaphysique, par exemple parce que ces entités correspondent à des “motifs réels” de la nature, une manière non arbitraire de découper fonctionnellement le monde. Mais peut-être sera-t-il moins affirmatif à propos des forces centrifuges ou de l’entropie. Un non-réaliste pourrait rester sceptique : peut-être que ces “motifs fonctionnels” ne sont pas si métaphysiquement absolus, plus contextuels qu’on le pense, plutôt des “fictions utiles” donc, même si leur stabilité est bien supérieur à celle de catégories comme "jaune" ou "chaise". Il serait d’accord avec le réductionniste à propos des gènes, mais dirait qu’il en va de même des électrons, car on peut douter que notre physique actuelle soit le fin mot de l’histoire.

Chacune de ces positions a des implications pour la philosophie, en termes de programme de recherche. Pour le non-réaliste, par exemple, chercher à déterminer la nature profonde de la réalité au-delà de ce qu'en disent les scientifiques n’est pas un projet qui vaut la peine d’être poursuivi. Il est bien plus intéressant d’examiner la manière dont les scientifiques construisent leurs représentations. Pour le métaphysicien, un tel examen n’a qu’une importance marginale, puisqu’au final ces représentations sont au moins approximativement vraies métaphysiquement parlant.

Peu importe où vous vous situez dans ce débat philosophique. Mon point est le suivant : aucun de ces philosophes n’ira dire à un scientifique qui vient de publier un nouveau résultat “c’est faux ! Vous nous racontez des histoires !”. Pourquoi ? Simplement parce que les scientifiques ne sont pas des philosophes, et donc il n’y a aucune raison de charger leur discours de présupposés métaphysiques, pas plus qu’il n’y a de raison de nier que je suis assis sur une chaise rouge quand c’est le cas. Quand un biologiste dit que les gènes existent, c’est vrai, au sens ordinaire de “vrai”, ils existent, au sens ordinaire de “exister”. Les représentations des mécanismes biologiques produites par les biologistes sont acceptables au-delà de tout doute raisonnable. Là-dessus, les seuls qui ne sont pas d’accord sont ceux qui refusent d’accorder le moindre crédit aux sciences, et je m’avance peu en disant qu’on n’en trouve quasiment aucun dans les facultés de philosophie.

Ce qui est sujet à débat, c’est si on peut aller au-delà de cette notion ordinaire (et si l’on peut préciser un peu ce qu’elle recouvre, et ce que ça implique pour la notion d'objectivité). Et c’est un débat purement philosophique, non scientifique, qui n’a aucune implication sur la “bonne” manière de faire de la science, mais qui en a, par contre, sur la “bonne” manière de faire de la philosophie.

Wilson1900Fig2

“Réaliste”

Alors, me direz-vous, si presque tout le monde est prêt à dire que les théories sont vraies, au moins au sens ordinaire du terme, alors presque tout le monde est réaliste ? Tout comme on peut défendre qu’il y a deux acceptions de “vrai” ou de “exister”, on pourrait dire qu’il y a deux acceptions de “réaliste” : l’une suivant laquelle les théories scientifiques sont vraies et les entités postulées existent au sens ordinaire des termes, et l’autre au sens métaphysique. Il existerait donc trois positionnements possibles vis-à-vis de l’interprétation des théories scientifiques : la position anti-science, largement minoritaire, la position réaliste pragmatique et la position réaliste métaphysique (bien sûr c’est une simplification puisqu’on peut décliner chacune d’elles).

Seulement c’est un peu plus compliqué. Le problème, c’est que l’existence et la vérité ont acquis une connotation technique en philosophie qui correspond à ce que j’ai qualifié de compréhension métaphysique des termes.

Ainsi le réaliste métaphysique affirme typiquement que la vérité est une affaire de correspondance à une réalité indépendante de nos représentations, et que l’existence a à voir avec la référence à des objets et classes naturelles, suivant un découpage qui préexiste à nos activités. Le réalisme ainsi compris est devenu une position dominante au cours des années 1970-80 en philosophie analytique, ce notamment sous l’impulsion d’arguments de philosophie du langage (ceux de Kripke). Il s’est construit en quelque sorte sur les ruines des projets empiristes ou positivistes de la première moitié du 20e siècle. Ceux-là entretenaient des conceptions différentes de l’existence et de la vérité (la relativité de l’ontologie de Quine, par exemple, ou le vérificationnisme de Ayer). Mais ces conceptions sont passées de mode. Parfois pour de bonnes raisons. Et ce sont les conceptions métaphysiques qui ont pris le dessus. Peut-être pas pour de si bonnes raisons.

Aujourd’hui, réaliste scientifique et réaliste métaphysique sont à peu près synonymes. Mais le fait que cela relève d’une connotation technique distincte de l’usage ordinaire est souvent passé sous silence par les réalistes métaphysiques, voire explicitement nié : beaucoup de réalistes métaphysiques pensent que leur conception de la vérité et de l’existence est la seule qui vaille, la seule qui soit vraiment intuitive, et que le langage ordinaire est seulement imprécis en la matière.

Il résulte de cette façon de voir les choses que le réalisme métaphysique n’est rien de plus que du bon sens.

Le but de la science

Si l’on pense que les scientifiques utilisent “vrai” et “existe” dans leur sens métaphysique, on pense que la science, c’est finalement de la métaphysique, qu’il n’y a pas de frontière marquée entre les deux : le but de l’un comme de l’autre est de dévoiler la nature fondamentale de la réalité.

Le métaphysicien a tout intérêt à brouiller la frontière entre métaphysique et science. Quoi de mieux pour défendre la légitimité de son projet philosophique, voire pour profiter d’un peu du prestige qu’ont acquis les sciences par leurs succès empiriques (sans pour autant n’avoir participé aucunement à ces succès) que de dire que lui et les scientifiques font à peu près la même chose ? Ce faisant, il relègue au second plan (peut-être involontairement, soyons charitables) les projets alternatifs, plus sceptiques envers la métaphysique et impliquant une division plus tranchée entre elle et la science. Il risque de faire passer malgré lui ces projets sceptiques pour de l’anti-science. Mais de toute façon le métaphysicien ne croit pas beaucoup à ces projets, alors ce n’est pas bien grave.

Si au contraire on pense, comme moi, que les scientifiques utilisent ces termes de “vrai” et “existe” dans un sens ordinaire beaucoup moins chargé, alors il y a une différence importante entre science et métaphysique. Le but de la science n’est pas de produire des théories métaphysiquement vraies, mais seulement des théories suffisamment robustes pour être acceptables par tous. Le but de la métaphysique pure, c’est autre chose : “interpréter” les théories, leur attribuer une ontologie, se questionner à partir d'elles sur la nature fondamentale de la réalité, essayer d'obtenir des vérités absolues, non pas sur tel ou tel type de phénomène bien identifié, mais sur l'univers dans son ensemble. Ce n'est pas seulement rendre les théories scientifiques plus précises, mais opérer ce passage de la vérité ordinaire à la vérité absolue, à supposer qu'elle existe, donc ajouter quelque chose (une couche de vernis ontologique) aux théories.

C’est une activité qui n’est pas particulièrement connectée à la confrontation empirique, contrairement à l’activité des scientifiques, et dont on peut questionner la légitimité ou la fructuosité. En tout cas, de ce point de vue, les conclusions métaphysiques n’ont aucune incidence directe sur la validité des résultats scientifiques, même si elles impliquent la non existence de telle ou telle entité postulée par les scientifiques, puisqu’elles emploient un sens technique, philosophique, de “existence”.

L’approche pragmatique

Je ne vais pas m’étendre ici sur les raisons de préférer la seconde approche. En un mot, elles ont à voir avec la façon dont les scientifiques identifient leurs théories, quand ils disent que deux théories sont équivalentes (et donc qu’il est futile de défendre l’une plutôt que l’autre), avec l'usage des idéalisations, et plus généralement avec les normes qui régulent leur activité : elles impliquent, selon moi (et selon d’autres), que le but de la science en tant qu’institution n’est pas le même que le but de la métaphysique en tant que branche de la philosophie.

Je ne dirais pas que la métaphysique est inutile. Elle peut jouer un rôle heuristique pour l'invention de nouvelles théories. Elle peut participer à clarifier les concepts. Mais à mon sens, ce rôle est seulement heuristique ou clarificateur, et c’est un plutôt un effet secondaire. Pas besoin de croire qu’on court après la vérité pour faire la même chose (les philosophies instrumentalistes ont elles aussi participé au développement de la mécanique quantique), et il faut savoir s’arrêter au bon moment, quand les analyses cessent d’être fructueuses et d’avoir la moindre pertinence empirique. C’est ce que l’on fera naturellement si l’on est lucide sur le fait qu’on ne court pas après la vérité absolue, et si l’on cesse de mettre sur un piédestal les “critères d’évaluation non empirique” des théories pour se concentrer sur des considérations plus pragmatiques.

Bien sûr certains scientifiques (les physiciens en particulier) peuvent avoir dans l'idée qu'ils cherchent la vérité absolue, ils peuvent faire de la métaphysique, et peut-être certains le font-ils volontiers dans des ouvrages de vulgarisation, tout comme ils font parfois de l’épistémologie. Mais ce n’est pas leur activité principale, c’est-à-dire celle sur la base de laquelle ils sont évalués par leurs pairs. Cette activité principale est de développer des représentations robustes, dignes d’être acceptées, c’est-à-dire vraies au sens seulement ordinaire du terme. En effet, quand bien même ils auraient des standards d'évaluation bien plus élevés que ceux de la vie courante, ceux-ci ne sont pas transcendants.

Pour cette raison, je pense qu’il y a tromperie sur la marchandise quand on prétend que le réalisme métaphysique est du côté du bon sens, du côté de la science. 

Questions de stratégie

Il résulte de tout ceci un dilemme pour les pragmatistes qui, comme moi, pensent qu’il existe plus qu’une différence cosmétique entre ces deux conceptions de la vérité : soit ils ou elles continuent à se dire réalistes, quitte à ce qu’on leur prête des projets métaphysiques et des conceptions auxquels ils n’adhèrent pas vraiment, soit ils ou elles décident de se dire non réalistes pour marquer leur différence, quitte à ce qu’on les prenne à tort pour des antis-science.

S’il lui tient à cœur de ne pas passer pour un ou une philosophe anti-science, ou de ne pas laisser penser à tort que la philosophie peut être anti-science auprès du grand public, et s’il ne voit pas l’intérêt de générer des conflits internes entre écoles philosophiques, le pragmatiste pourra être tenté de se dire réaliste. Il ou elle poursuivra ses projets de recherche pragmatiques en mettant de côté les questions d'interprétation métaphysique qui ne l'intéressent pas vraiment. Il évitera d'aborder les questions de fond sauf si c'est vraiment nécessaire. Il pourra rappeler, si on lui demande, que son réalisme est plutôt pragmatique. Mais si la distinction n’apparaît pas clairement au non philosophe, légitimant ainsi une façon de faire de la métaphysique qu’il rejette personnellement, peu importe, c’est un mal pour un bien.

Mais si le pragmatiste a plus à cœur de se différencier, au sein de sa profession, d’un certain type de projet métaphysique qu’il juge illégitime ou futile, quitte à générer plus de débats internes, et parfois un malentendu auprès des non philosophes qui demandera de faire preuve de plus de pédagogie, il pourra se revendiquer non-réaliste.

L'idée que le réalisme métaphysique serait du côté du bon sens scientifique a tellement gagné les esprits que de nombreux philosophes préfèrent, me semble-t-il, opter pour la première stratégie : se dire réalistes alors même qu’ils défendent des conceptions plutôt pragmatistes, soit quelque chose de distinct de ce qu’on appelle consensuellement le réalisme scientifique dans la littérature spécialisée. C’est souvent ainsi que fonctionnent les positions dominantes en philosophie (mais aussi en politique) : elles s’approprient un certain usage des mots ordinaires qui rend la vie difficile aux défenseurs de positions alternatives, les mettant dans une position de dilemme : soit vous êtes avec nous, soit vous êtes contre nous (et nous, c’est le bon sens). Souvent, la position par défaut est de se rallier à la majorité.

Pour être clair, je ne pense pas qu’il s’agisse d’une stratégie intentionnelle de la part des réalistes métaphysiques. J’y vois plutôt un phénomène émergent, quelque chose d'à peu près inévitable, typique de certaines activités humaines impliquant des rapports de domination, ici dans le champ intellectuel. Et puis, les enjeux ne sont pas énormes, ce n’est que de la philosophie après tout. Juste un constat, donc. Mais le dilemme est bien là.

Pour ma part je fais plutôt partie de ceux (je pense minoritaires) qui préfèrent résister à cette injonction au bon sens réaliste et marquer leur différence avec l’approche métaphysique. Réaliste au sens pragmatique me convient sur le fond. Je crois que la plupart des théories scientifiques sont vraies, non pas parce qu'elles correspondent à la réalité, mais parce qu'elles sont acceptables au delà de tout doute raisonnable quand il est question d'interagir avec le monde. Je crois que les cellules biologiques existent, non pas parce qu'elles correspondent à un découpage parfaitement naturel, mais parce que c'est un bon découpage pour rendre compte du fonctionnement du vivant, à toutes fins utiles. Mais si on se met à se demander si l'espace-temps est relationnel ou substantiel, ou si les lois de la nature pourraient être différentes dans un autre monde possible, je commence à bailler. Et pour des raisons essentiellement stratégiques (parce que je considère que la philosophie gagnerait à s’éloigner d’une certaine façon de faire de la métaphysique déconnectée de considérations pratiques, et à être plus inclusive quand il est question d’interpréter les sciences), je préfère me dire non-réaliste et promouvoir l’anti-réalisme. Ça me demande de faire parfois un peu de pédagogie pour lever les malentendus. Mais je pense que c’est un mal pour un bien.

FlammarionWoodcut

mardi 11 octobre 2022

Relativisme et scientisme

Hier j’ai été invité à parler relativisme et scientisme chez Mr Sam. Un petit complément ici.

Le relativisme, c’est en gros l’idée qu’une affirmation peut être vraie d’un point de vue, mais pas d’un autre, et qu’il n’existe pas de point de vue neutre ou privilégié pour l’évaluer absolument. On peut être relativiste à propos des goûts esthétiques, des principes moraux ou, de manière plus controversée, à propos d’affirmations factuelles, notamment scientifiques : il y aurait “plusieurs vérités” ou plusieurs manières alternatives de voir le monde. Ça s’accompagne souvent d’une idée de conversion : adopter une façon de voir le monde nécessiterait un engagement actif ou une immersion, d’où l’impossibilité de comparer de manière neutre deux façons de voir le monde. Le relativiste à propos des sciences affirme qu’une théorie scientifique est une “façon de voir le monde” en ce sens.

L’un des arguments principaux en faveur d’un relativisme à propos des sciences est la charge théorique de l’observation, soit l’idée que les observations scientifiques ne sont pas neutres, mais toujours interprétées à la lumière de la théorie.

On peut commencer par voir comment ça marche avec la perception au sens ordinaire. Notre expérience du monde nous est elle simplement “donnée” par la perception ? Est-elle passive et neutre, indépendante de nos croyances préalables ? Pas vraiment. Vous avez tous appris à voir des lettres et des mots plutôt que de simples lignes sur un écran ou du papier par exemple. Pas besoin de faire consciemment des inférences pour lire : l’apprentissage de la lecture a directement affecté votre manière de voir le monde. Percevoir, c’est reconnaitre à quelles catégories appartiennent des objets (je vois un piano en bois, une chemise bleue), et ces catégories sont pour la plupart apprises par la pratique, sans être définies explicitement, par une immersion dans la société.

Tout ça ressemble beaucoup à une “conversion”… De l’eau au moulin du relativiste. Mais attention, ça ne veut pas dire que l’on voit juste ce que l’on veut voir ! La perception reste largement involontaire.

Ceci dit, nos intentions et cet apprentissage peuvent nous rendre sélectifs : quand on est concentré sur un objectif, on passe à côté de beaucoup de détails non pertinents. Les expériences en psychologie montrent que nos attentes peuvent introduire des biais perceptifs.

Les catégories scientifiques fonctionnent de façon similaire. Manier les concepts de la biologie évolutive, construire des modèles en physique, ça s’apprend par la pratique. Faire des mesures dans un laboratoire et les interpréter correctement aussi. Tout ça n’est pas entièrement formalisé. Une discipline scientifique, c’est aussi une certaine façon de poser les problèmes et des outils standards pour les résoudre (poser des questions en termes évolutifs en biologie). La discipline nous rend inévitablement sélectif quant aux hypothèses qui méritent ou non d’être considérées. Et entendons nous bien, tout ça est nécessaire pour avancer. On ne peut renverser la table et envisager une infinité de théories et hypothèses alternatives chaque fois que nos observations ne collent pas à nos attentes. On a besoin d’un cadre pour nous guider.

Donc en règle générale, le cadre disciplinaire n’est pas directement remis en question. Au contraire, les scientifiques peuvent essayer de le sauver quand il est mis en difficulté. Les physiciens préfèrent postuler de la matière noire pour expliquer des observations non concordantes plutôt que de construire une nouvelle physique. Et encore une fois, ce n’est pas en soi un problème : cette attitude s’avère souvent fructueuse (c’est comme ça qu’on a découvert Neptune).

Mais ça bat en brèche l’idée qu’il existerait une “méthode scientifique” universelle, foncièrement anti-dogmatique, fondée sur des observations neutres, à partir de laquelle on pourrait tous converger vers la vérité. Croire en une telle méthode universelle peut être qualifié de scientisme. En pratique, on observe plutôt que chaque cadre disciplinaire développe ses propres méthodes d’enquête empirique, ses propres méthodes d’observation.

Tout ça peut induire un doute sceptique : est-ce que le cadre dans lequel on développe les connaissances, notre “manière de voir le monde”, est la seule possible ? N’y aurait-il pas des manières de voir alternatives tout aussi valides ?

C’est ce type d’arguments qui peut être avancé par les relativistes. Le relativisme a connu un regain d’intérêt dans les années 1970-80 quand on a commencé à s’intéresser au fonctionnement réel des sciences dans toute sa complexité (histoire et sociologie des sciences) au lieu de s’en tenir à des reconstructions philosophiques abstraites d’une supposée méthode scientifique. Ces observations sont-elles suffisantes pour être relativiste ? Ou existe-t-il une voie entre scientisme et relativisme ?

Rappelons que le relativisme rejette l’existence d’une base d’évaluation neutre. Cependant, on n’a pas forcément besoin d’une méthode scientifique universelle pour servir de base neutre : pas si les cadres méthodologiques eux-mêmes peuvent être évalués par différents critères.

C’est ce qu’on fait mis en avant Lakatos, Laudan et même Kuhn (à qui l’on doit beaucoup des observations faites plus haut). Il existe des indicateurs de progrès externes, ou des valeurs épistémiques permettant de juger qu’un cadre disciplinaire est meilleur qu’un autre. Un cadre théorique peut être plus ou moins fructueux. Il peut s’embourber dans les hypothèses ad hoc pour survivre, ou au contraire nous guider vers de nouvelles applications inattendues. Et les cadres théoriques bien établis en science sont ceux qui ont fait leurs preuves. Il existe des épisodes de changements radicaux de cadres (le passage de la physique classique à la physique relativiste), ce qui laisse penser qu’en effet il existe toujours peut-être d’autres manières de “voir le monde”. Mais ces changements ne sont pas arbitraires. Ils se produisent quand les problèmes insolubles s’accumulent, et les nouvelles théories capitalisent sur le succès des anciennes en essayant de reproduire leurs prédictions. Les techniques expérimentales survivent aux changements de théories, même s’il faut les réinterpréter.

Les instruments de mesure (comme les thermomètres) ne sont peut-être pas développés indépendamment des théories (la thermodynamique). On peut parler d’ajustement mutuel. Mais ce qui est en vue, c’est une certaine stabilité et une reproductibilité : un critère de progrès externe. Tout comme apprendre à lire n’implique pas que l’on puisse voir ce que l’on veut, le fait que les observations soient interprétées n’implique pas que les théories peuvent prédire ce qu’elles veulent : l’adéquation empirique reste un critère d’adéquation externe. La société nous a appris à voir des mots plutôt que des lignes arbitraires sur du papier, mais on ne dirait pas naturellement que l’affirmation “il est écrit ‘SORTIE’ sur ce panneau” est relative à un point de vue. Il n’existe pas de “manière alternative, tout aussi valide” de lire un panneau. Les lettres et les mots sont des guides fiables pour évoluer en société. De même, on pourrait avancer que la nature a appris aux scientifiques à utiliser des catégories fiables, robustes (mais peut-être perfectibles), pour interagir avec elle. Et hormis les cas où ces catégories concernent des êtres humains, il n’y a pas de raison de penser que cette robustesse expérimentale, obtenue par des efforts considérables, dépend fortement du contexte social. Donc au final, à mon sens, une observation minutieuse de la pratique scientifique rend certainement caduque la version de scientisme décrite plus haut, mais aussi les versions les plus radicales de relativisme ou de constructivisme social.

Elle rend aussi caduque l’idée que la vision scientifique du monde ne serait ni meilleure ni pire que d’autres visions, par exemple mystiques ou religieuses : vis-à-vis des critères “externes”, ces autres visions du monde ne sont pas progressives.

On pourrait répondre que les critères de progrès invoqués (robustesse expérimentale, adéquation empirique, fructuosité…) sont en fait relatifs à un point de vue “scientiste”. Mais ça, c’est une thèse philosophique, pas quelque chose que montre l’histoire ou la sociologie des sciences. On parle d’une autre forme de relativisme. On peut en débattre philosophiquement parlant. Pour ma part, elle ne me convainc pas. Je suis “scientiste” en ce sens : je valorise ce type de progrès, je valorise la science.

Et un relativisme plus métaphysique : une espèce extraterrestre dont la constitution cognitive serait radicalement différente de la nôtre développerait-elle une science alternative ? On se rapproche de la question du réalisme. Je suis personnellement agnostique sur ce point.

Que retenir de tout ça ? Il n’existe pas une unique méthode scientifique qu’on pourrait déterminer simplement en réfléchissant depuis un fauteuil confortable. Mettre au point de bonnes méthodes pour développer la connaissance, ça s’apprend aussi par l’expérience. Ça demande un engagement, une “conversion” en quelque sorte, et on peut toujours douter que notre manière de voir le monde soit la meilleure possible. Mais on dispose au moins de critères objectifs pour considérer que certaines “façons de voir” sont meilleures que d’autres.

mardi 27 septembre 2022

Émotion contre raisonnement en éthique

Neunkircher Zoo 38

Le faible pouvoir de conviction de la raison pure

La vidéo récente de Mr Phi sur le spécisme m’a poussé à m’interroger sur mes propres conceptions de l’éthique à partir du constat suivant : le moment que je trouve le plus convaincant dans la vidéo, celui qui m’a le plus sérieusement amené à questionner mes pratiques alimentaires (globalement flexi-végétariennes pour des raisons environnementales), est le passage où sont décrites les pratiques de l’élevage intensif, comme couper la queue des cochons, accompagné d’images assez parlantes. Cette partie de la vidéo génère en moi une forme d’empathie envers les animaux, et une forme d’indignation envers les pratiques de l’industrie, et j’avoue qu’après ça, j’ai beaucoup moins envie de soutenir indirectement ces pratiques en consommant parfois de la viande issue d’élevages intensifs.

Le reste de la vidéo argumente de façon plutôt convaincante que le spécisme est une position philosophique difficilement tenable. Mais je me rend compte que le genre de réflexion que ça éveille en moi est bien distinct : ce n’est pas ça qui me fera changer de comportement alimentaire. Ce “debunking” en règle me convainc plutôt, au fond, que les arguments rationnels en éthique sont souvent à côté de la plaque : ce que les spécistes essaient de faire, c’est simplement de justifier rationnellement leurs adhésions implicite à des règles de comportement particulières (“l’élevage intensif ce n’est pas grave” ou juste “manger de la viande ce n’est pas grave”) en invoquant des théories toujours plus subtiles sur ce que seraient les normes morales absolues en la matière : peut-être qu’il faut être conscient et doté d’un langage pour être un sujet moral, etc. Et ça ne marche pas ! Ou bien ça semble très arbitraire. Mais pourquoi croire que ce type de reconstruction devrait marcher ?

Au cours de mon visionnage, il m’a semblé de plus en plus clair que l’entreprise poursuivie était vouée à l’échec non pas parce que le spécisme est faux en soi, mais plutôt parce que les sentiments moraux comme le rejet ou l’approbation de normes de comportement ne sont pas le genre de chose qu’on devrait essayer de justifier ou de rejeter en faisant appel à des principes fondamentaux hypothétiques. Ce type d'explication, légitime en science (parce qu'il est possible de vérifier les explications), n'a pas sa place en éthique. Ce ne sont pas les théories morales abstraites qui emportent l’adhésion, mais les sentiments comme l’empathie ou l’indignation, ou parfois rien de plus qu’un sentiment d’appartenance, l’envie de partager des valeurs avec d’autres et de faire ainsi communauté morale. Ce sont ces sentiments qui nous font changer nos comportements. Faire de la théorie morale à coups de principes absolus comme le font les spécistes sophistiqués, ce n’est pas justifier des comportements, c’est juste construire des systèmes autour des principes ou jugements qu’on avait déjà accepté pour d’autres raisons beaucoup plus concrètes et directes.

En somme, les arguments purement philosophiques présentés dans la vidéo ne me convainquent pas le moins du monde que les normes adoptées par les spécistes comme “on a le droit de manger de la viande” sont en soi invalides. Au mieux, ils me convainquent qu’elles sont arbitraires et (donc) égoïstes, et personnellement, je réprouve assez fortement l’arbitraire et l’égoïsme, et donc je réprouve le spécisme. Mais c’est vraiment la partie de la vidéo consacrée à l’élevage intensif qui appuie ce sentiment de réprobation de l’égoïsme vis-à-vis de la souffrance animale (je me dis : comment peuvent-ils être à ce point insensibles ?). Ou pour le dire autrement, si je suis anti-spéciste, c’est seulement au sens où j’éprouve (naturellement ou par éducation) une empathie similaire envers la souffrance animale et la souffrance humaine, et où je réprouve assez fortement ceux qui ne font pas preuve de la même empathie envers les animaux (je n’ai pas très envie de faire société avec eux). Et le constat est le même quand il s’agit de racisme ou de sexisme, avec une réprobation à vrai dire encore plus forte.

Et au fond, j’ai du mal à imaginer comment des arguments philosophiques rationnels pourraient convaincre qui que ce soit en matière d’éthique en l’absence d’une charge émotionnelle, à part peut-être des philosophes qui, à force de déformation professionnelle, entretiendraient un fort sentiment d’approbation morale envers des normes très abstraites telles que la cohérence logique, la simplicité théorique, l’unification conceptuelle et la réduction à des principes fondamentaux (c’est à dire des gens qui auraient des sentiments moraux très très bizarres !).

Gorilla in Gaia-Zoo Kerkrade

Contre l’absolutisme en éthique

À ce titre, les arguments philosophiques positifs en faveur de l’anti-spécisme, comme celui basé sur la quantité énorme d’animaux d’élevage à multiplier par la probabilité que le spécisme soit faux, ne me convainquent pas plus : encore une fois, on tente de rendre compte de sentiments moraux (une telle quantité, c’est horrible !) en faisant appel à des principes fondamentaux, ici un calcul de souffrance, et ça ne peut pas marcher : on connaît les difficultés de l’utilitarisme qui amène exactement au même type de sophistication un peu arbitraire que le spécisme.

Le problème, au fond, est que ce type de reconstruction théorique nous demande de par sa nature même d’adopter une position absolue de surplombs (considérer la quantité totale de mal dans l’univers) et alors elle perd immédiatement en pertinence vis-à-vis des sentiments moraux sur lesquels elle est basée à l’origine. En l’espèce (si je puis dire), dans le cas du spécisme, la responsabilité des acteurs, qu’ils soient consommateurs de viande, végétariens ou vegans, producteur intensif ou producteurs plus respectueux, décideurs politiques ou simples citoyens, voire riches ou pauvres, est inégalement distribuée, et ce sont leurs actes qui sont les objets ultimes de mes jugements moraux, pas la souffrance animale en tant que telle. De méme, une catastrophe naturelle peut me rendre triste, mais elle ne m’indigne pas. Ce qui ne va pas avec la souffrance animale, sur le plan moral, ce n’est donc pas la quantité de souffrance en tant que telle (bien que ça puisse être triste) : le problème moral est que cette souffrance est délibérément provoquée par certains membres de notre communauté et tolérée par la plupart des autres. Mais il n’existe personne qui soit à elle seule responsable de la situation des milliards d’animaux élevés chaque année.

Si c’était le cas, le problème moral serait en effet vite résolu : cette personne est horriblement cruelle, aucune raison d’en douter, ce même si la souffrance animale est en soi négligeable. Mais dans la situation actuelle, le nombre gigantesque d’animaux maltraités, bien sûr impactant, n’implique pas qu’il y a de meilleures ou plus de raisons d’être anti-spéciste (“au delà de tout doute raisonnable”) : il implique surtout qu’il reste énormément de monde à convaincre ! C’est une différence importante. Peut-on vraiment s’attaquer à ce problème sans voir que la responsabilité est extrêmement diluée, que donc c’est un problème moral difficile, et que la taille du problème tient avant tout au très grand nombre de personnes impliquées ? Pourquoi déconnecter ainsi le jugement moral abstrait d’une évaluation pratique de ce qu’il faut faire, et de qui doit le faire, dans notre communauté ?

Le déontologisme ne rencontre pas cette difficulté de l’utilitarisme en particulier, mais il souffre d’un problème similaire : la recherche de règles de comportement absolues finit par nous déconnecter des circonstances particulières dans lesquelles s’inscrivent nos jugements moraux. À la limite, on devrait agir suivant la règle même quand les circonstances nous font réprouver cette action. Mais pourquoi devrais-je approuver moralement l’adoption de règles intangibles ? Cette intangibilité n’est fondée sur aucun sentiment moral particulier (nous avons ici un problème similaire à celui de l’induction : la possibilité de généraliser n'est fondée sur aucune observation particulière).

Dans le cas du déontologisme comme dans celui de l'utilitarisme, on voit qu’une théorie normative qui cherche à attribuer une valeur morale objective et absolue à un état de fait ou à une action est nécessairement déconnectée de l’objet ultime de la morale, de sa vraie base. Cette base, c’est le sentiment moral, soit l’évaluation subjective d’actions intentionnelles par des agents en contexte, situés au sein d’une communauté. C’est cette évaluation subjective, en partie involontaire ou “donnée”, qui motive l’action et l’adoption de règles de comportement. Le sentiment moral est intrinsèquement normatif : il est motivant en lui-même, et non pas en vertu de quelque chose d’extérieur. Lui seul confère aux règles de comportement plus générales un pouvoir de motivation dérivé. Il n’y a donc pas lieu de théoriser sur d’hypothétiques normes ou valeurs absolues. Ça n’ajoute rien, au delà d’une satisfaction théorique, à la force de conviction de nos sentiments.

Monkey 20

Le non-cognitivisme

Tout ça pour dire que le “debunking” du spécisme de cette vidéo m’a fait pencher encore un peu plus (malgré lui je pense) vers le genre de théorie méta-éthique qui me semble le mieux rendre compte de ce qu’est vraiment la morale, à savoir le non-cognitivisme (j’avoue avoir été un temps tenté par le réalisme moral, pour avoir été influencé lors de mon cursus universitaire, mais ce penchant réaliste s’estompe avec le temps).

Le non cognitivisme consiste à dire que les énoncés évaluatifs ou normatifs n’énoncent pas des vérités ou des faussetés, mais qu’ils expriment une adhésion ou un rejet envers certaines situations et règles de comportement. Une adhésion est plus qu'une simple déclaration : c'est un engagement, celui de baser ses propres actions sur cette règle et d'en accepter les conséquences. L'expression d'adhésion a souvent, c’est important, une visée performative au sens large du terme : exprimer son adhésion a généralement pour but de convaincre son auditoire d’adopter la même attitude ou les mêmes normes. C’est un fait essentiel de la vie en société, où il est souvent question de se coordonner autour de normes communes pour vivre ensemble. La morale, ce n’est rien de plus que ça de mon point de vue : une façon de se coordonner en fonction des intérêts et sentiments moraux de chacun. Mais rechercher un bien ou un mal ou une justification absolue, c’est courir après des chimères et se déconnecter de l’action pratique.

Un reproche récurrent envers le non-cognitivisme et qu’il ne rendrait pas bien compte des discours moraux, en particulier des débats argumentés. L’objection peut être résumée ainsi : les énoncés moraux ont la même forme grammaticale que les descriptions. Ils semblent superficiellement au moins avoir une valeur de vérité. De plus on peut les combiner dans des structures logiques ou inférentielles du type “Si c’est mal de torturer un chat, alors c’est aussi mal de pousser ton petit frère à torturer un chat”. Donc sur le plan sémantique, il faudrait accepter qu’un énoncé évaluatif ou moral est porteur de vérité ou de fausseté, et non une simple “expression sentimentale”. L’inverse supposerait en quelque sorte un “deux poids deux mesures” : une interprétation spécifique des connecteurs logiques suivant qu’ils s’appliquent à des énoncés factuels ou évaluatifs.

Remarquons que c’est également le cas des jugements esthétiques (“c’est un bon film”, ou encore “Si vraiment Batman est un bon film, alors Spiderman est génial”), même si l’on a moins tendance à penser que de tels jugement sont entièrement objectifs, et qu’on pourra plus facilement y voir une expression d’appreciation.

Ma solution au problème du deux poids deux mesures est, j’avoue, assez radical : je pense qu’on peut appliquer la même analyse aux énoncés factuels. Là où un énoncé évaluatif ou normatif vise à exprimer une adhésion émotionnelle ou morale, et à convaincre l’audience de faire de même, les énoncés descriptifs visent à exprimer une adhésion envers une croyance, et à convaincre l’audience de faire de même. Quand à la structure logique ou inférentielle, il faut bien voir que les connexions logiques ou inférentielles “pures” (celles qui “préservent la vérité en vertu de la forme des énoncés”) sont des idéalisations. Dans la réalité du langage naturel, un “si … alors” exprime plutôt une forme de loi entre deux énoncés : une espèce de norme inférentielle, justement, spécifique à un certain domaine de discours, à laquelle on adhère et que l’on souhaite voir adoptée par son audience. Et une méta-norme peut très bien concerner des relations entre normes même si elles n’ont pas de valeur de vérité (“on ne peut adhérer à N1 sans adhérer à N2”). De même dans le cas descriptif : “s’il y a de l’eau, c’est qu’il a plu” viserait à faire accepter une norme inférentielle : “on ne peut croire qu’il y a de l’eau sans croire qu’il a plu” (cette façon de voir est inspirée de l'inférentialisme du philosophie Robert Brandom).

Monkey wandering at the Avani Gaborone resort

Le rôle de l’argumentation en éthique

En un sens, on peut affirmer que les énoncés qui composent un “si … alors” doivent pouvoir être porteurs de valeur de vérité (soit vrais soit faux), mais seulement au sens ou dire “c’est vrai” sert souvent simplement à exprimer son adhésion. Alors on retombe, en quelque sorte, sur une analyse traditionnelle de la logique, brouillant la distinction entre cognitivisme et non cognitivisme, car on accepte que les énoncés évaluatifs peuvent être vrais ou faux et que les règles inférentielles concernent la préservation de la vérité (c’est-à-dire de l’adhésion). Mais tout ça n’a plus rien à voir avec une notion réaliste de vérité absolue comme correspondance à une réalité indépendante du locuteur. Il s’agit plutôt d’une conception pragmatiste de la vérité.

Dans ce cadre, les sentiments moraux ou encore esthétiques (l’indignation, l’admiration, le dégoût, l’enthousiasme) jouent exactement le même rôle vis-à-vis des normes morales et esthétiques que les observations directes jouent pour les croyances théoriques : ce sont des dispositions involontaires, “données” par l’expérience, à accepter certaines propositions descriptives ou évaluatives basiques : rapport d’observation ou jugement moral. Ces propositions basiques renforcent ou affaiblissent notre adhésion envers des règles de comportement générales ou des théories. Elles peuvent être défaites par réflexion (si les conditions d’observation ne sont pas optimales dans le cas des descriptions, ou les conditions émotionnelles dans le cas des évaluations : le contexte peut biaiser ou affaiblir mes jugements, et si je le sais, je peux le corriger). Les dispositions à former des jugements perceptifs ou évaluatif peuvent aussi en une certaine mesure être inculquées par apprentissage : on peut apprendre à “voir” des lettres et des mots plutôt que de simples traits sur du papier, comme on peut apprendre à aimer un bon vin ou un bon film ou à reconnaître par empathie une situation moralement problématique. Tout ceci ne veut pas dire que l’on perçoit des “valeurs réelles”, pas plus qu’on perçoit des “couleurs réelles” indépendantes de notre constitution, seulement que le discours, qu’il soit descriptif ou évaluatif, a pour visée une certaine robustesse intersubjective en vue de la coordination sociale.

Si l’on accepte ceci, on peut comprendre que l’argumentation en éthique n’est pas entièrement inutile. Pour convaincre son interlocuteur de changer son comportement, on peut soit essayer d’éveiller directement en lui des sentiments moraux en les exprimant (“c’est dégoûtant”), ou bien on peut l’amener à douter de la robustesse de ses propres jugements en mettant en avant des circonstances non favorables ou des biais (“tu dis ça parce que tu es énervé”), ou enfin on peut s’appuyer sur des “méta-normes” plus abstraites qu’on supposera encore mieux partagées que les sentiments parfois variables d'une personne à l'autre (“il faut être cohérent”, “ne fait pas ce que tu ne voudrais pas qu’on te fasse”, “il faut considérer les conséquences de nos actes”). Par contre, faire appel à des règles de comportement hypothétiques qui expliqueraient nos sentiments moraux ("il faut maximiser la somme des plaisirs et minimiser la somme des souffrances dans le monde", "tu ne commettra pas l'adultère"), et qui, à la base, ne sont pas naturellement partagées par tous, a beaucoup moins de chance de convaincre à moins de les imposer par la force : ça revient ni plus ni moins à inculquer une doctrine.

Ceci dit il y a peut-être un fond de vérité dans les doctrines conséquentialistes ou déontologiques : après tout, ceux qui les défendent se basent souvent sur des intuitions largement partagées. Le non-cognitivisme n’est pas forcément un relativisme si l’on conçoit que certaines méta-normes très abstraites, comme la cohérence logique, une forme d’empirisme pour la formation des croyances, ou une forme de conséquentialisme et d’universalisme ou de réciprocité pour la formation des règles de comportement, sont en principe partagées par tout agent cognitif quel qu’il soit (peut-être par simple définition de ce que c’est que d’être un agent cognitif et ce qu’est la morale ou la connaissance : je serais assez tenté d’en faire des principes purement analytiques). On peut alors qualifier cela de rationalité. Mais ce type de rationalité laisse au moins une place au pluralisme, et il ne peut à lui seul fonder la morale car il tourne à vide sans une base concrète à laquelle appliquer les principes abstraits : il ne faudrait donc pas surévaluer le pouvoir de conviction de l’argumentation rationnelle ni, surtout, la couper des expériences émotionnelles qui constituent sa base.

vendredi 10 juin 2022

Fine tuning, total evidence and indexicals

This is a follow-up of the previous post.

The debate on fine tuning and multiverses hinges on complex issues related to Bayesian reasoning. An influential argument from White in particular seems to show that we cannot infer the existence of the multiverse from our evidence of fine tuning. (White’s argument is apparently the main reason Philip Goff rejects the multiverse hypothesis, since most of his examples come from this particular paper.)

The argument rests on the requirement of total evidence that White illustrates with this example: 

Suppose I’m wondering why I feel sick today, and someone suggests that perhaps Adam got drunk last night. I object that I have no reason to believe this hypothesis since Adam’s drunkenness would not raise the probability of me feeling sick. But, the reply goes, it does raise the probability that someone in the room feels sick, and we know that this is true, since we know that you feel sick, so the fact that someone in the room feels sick is evidence that Adam got drunk.

This reasoning is silly: the fact that Adam got drunk makes it more likely that someone got sick at the party, but not that it was me. Focusing on weak evidence instead of strong evidence can lead us astray in our inferences.

How is this supposed to apply to fine tuning? Our strong evidence is “our universe is fine-tuned”. From this, we infer the weak evidence “at least one universe is fine-tuned”. The multiverse hypothesis explains that at least one universe is fine-tuned: if there are many universes, the probability that at least one of them is fine-tuned is much higher than if there is only one. But according to White, this does not explain why our universe in particular is fine-tuned. Doing so would mean falling prey to an inverse gambler fallacy (see previous post).

White’s argument is fallacious, and I’ll explain why by using toy models.

Bayesianism

Let me first note that I take Bayesian inference to tell us how likely a model is given our evidence, or how much we should boost our confidence in this model. 

A model can be probabilistic, in which case it incorporates probabilistic processes. Then the model predicts that our evidence E should occur with probability p. We can use Bayes’s theorem to “inverse” this probability and infer the likelihood of the model itself given our evidence.

This rationale is not devoid of problems (it requires that we fix prior likelihoods for our models: how?), but detail will not matter much here. For the sake of this article, we can just consider the following weaker principle:

A model M1 is favoured (or “boosted”) by a piece of evidence E compared to another model M2 if M1 makes E more likely than M2 does.

[Side note]
In real scientific practice, the evidence is statistical, because we want our models to have a certain level of generality. This cannot be the case with fine-tuning: we only have one piece of evidence associated with the value of the constants of our universe. 

Strictly speaking, this is a problem for the argument for the multiverse. Why should we assign a probability space to the possible values of constants? Why not simply say that our evidence favours the model with actual constants? 

The point is that constants are primitive in a theory, but the problem of fine-tuning prompts us to explain their values, which is tantamount to speculating about what future theories would tell us about them. There is no reason to think that future theories will associate the value of physical constants with a probabilistic process (although it’s not excluded). 

I personally think that this is enough to discard the problem: just wait for a future theory before speculating. However, this is not the issue that I want to discuss here, so let us grant that there’s a problem that can be framed in a probabilistic setting.
[End side note]

Illustration

It will be easier to first illustrate the issue with a mundane case analogous to fine-tuning. This will shed light on how exactly the requirement of total evidence and the inverse gambler fallacy are involved.

Mary and John are infertile. Their only way to have children is IVF. In their case, the success rate of IVF is 10%. The law of their country stipulates that a couple can only try IVF twice, with a three-year interval between the two trials. They can try a second time even when the first trial was successful.

Let us consider three models.

In the first model, M0, Mary and John never try IVF. The model predicts with 100% chance that Mary will not get pregnant.

In the second model, M1, Mary and John only attempt IVF once. The model predicts a probability of 10% that Mary gets pregnant, and 90% that she doesn’t.

In the third model, M2, Mary and John attempted IVF twice. This gives a 1% chance that the two trials were successful, a 9% chance that only the first was, a 9% chance that only the second was, which means a total of 19% that Mary got pregnant at least once, and a 81% chance that she didn’t get pregnant at all.

Now let us consider three scenarios.

First scenario:

Mary is one of Robert’s remote relative. Robert knows the procedure that Mary has to follow to get pregnant. Robert asks Mary if she knows what it is like to be pregnant. Mary answers “oh yes, I know it first hand”. From Mary’s answer, Robert learns that Mary got pregnant at least once, but he doesn’t know if it’s once or twice.

Clearly, Robert should boost his confidence in M2, because it predicts his evidence with a 19% probability instead of a 10% one for M1. M0 is completely excluded by his evidence.

To see that Robert’s reasoning is correct, we can imagine that there are 300 situations like Robert’s in the world. In 100 of these, the relative has never performed IVF. In 100 other situations, she has performed IVF once, and in 10 out of them this relative got pregnant. In the 100 last situations, the relative has performed IVF twice, and in 19 out of them, she got pregnant. Most of the situations where the relative can say “oh yes, I know it first hand” are situations where they made two attempts, so people in Robert’s situation are right to bet that they are probably in one such situation.

Second scenario:

Alice is a doctor at the hospital. She takes care of Mary for her IVF. After a few weeks, she learns that the IVF was successful: Mary got pregnant. However, Alice has no idea whether it’s Mary’s first or second attempt. She doesn’t even know if Mary already has a child. All she knows is that this particular IVF was successful.

Should Alice conclude from the success that it’s Mary’s second attempt? After all, two attempts make success more likely. However, this would be a fallacy.

In this scenario, Alice should consider three models. The first one is M1: this is Mary’s first and only attempt. The second one is M2, complemented with the information that this is the first attempt, some kind of “you are here” sign attached to the model if you will. Call this complemented model M2. Finally, there is M2 complemented with the information that this is the second attempt, call it M2.

Note that M0 should not be considered at all: not because it will be discarded by Alice’s evidence, but because it does not apply to the case. When considering a situation, we should only take into account the models that are apt to represent the situation, and M0 is not one of them. Given that she assists to one of Mary’s attempt (this is the context), there is no more reason for Alice to consider M0 than there is to consider the quantum model of the hydrogen atom to represent the situation.

In this case, Alice’s evidence does not favour any of the three models. Indeed, the probability of success is 10% with M1, and it is also 10% with M2 or M2: 1% chance that the two trials were successful including this one, and 9% chance that only this one was.

Here we have an illustration of the requirement of total evidence. If Alice went from the strong evidence “this attempt was successful” to the weaker evidence “at least one attempt was successful”, she would mistakenly favour M2 over M1. She would be commiting an inverse gambler fallacy. She must take into account her total evidence, and therefore consider M2 and M2 instead of M2, and then, no model is boosted.

We can imagine 300 situations like Alice’s to see why her reasoning is correct. Assume that in 100 of them it is the patient’s first and only attempt, 10 of which will be successful, in 100 of them it is the patient’s first attempt among two, 10 of which will be successful, and in 100 of them it is the patient’s second attempt, 10 of them being successful as well. Successes are equally distributed in all three groups, so people in Alice’s situation have no reason to infer from success that their situation is among any of the three groups.

Note however, that there is a sense in which M2 is boosted in this scenario. When Alice first learns that Mary will attempt IVF, before learning about the outcome, she has some reason to favour the hypothesis that this is one of two attempts, simply because if Mary makes two attempts instead of one in her life, there is more chance that she will meet Alice. But then the focus is slightly different: we are not considering the narrow situation where an IVF attempt is made, but the larger situation where Mary could have decided or not to attempt IVF, could have met Alice or another doctor instead, etc. and we can suspect that more information should be taken into consideration in order to evaluate which of M0, M1 and M2 is boosted by the evidence (for example, the likelihood that Mary meet Alice instead of another doctor). In any case, the evidence of success plays no role in this context.

Third scenario:

Jane is Mary and John’s daugther. She knows about the process that her parents had to follow for her conception. However, because of dramatic circumstances, she was taken away from her parents just after her birth, so she doesn’t know how many IVF attempts her parents did, and she doesn’t even know if she has a sibling.

The question is: are we closer to the first or to the second scenario?

The fact that Jane has evidence, from her own existence, that her mother got pregnant at one specific time, following one specific conception procedure, could let us think that her situation is very close to the second scenario. However, this is a mistake.

The reason is that in the second scenario, Alice first learns that Mary wishes to attempt IFV. This sets up a context for her inferences. Then she learns that the IFV was succesful: this is her evidence. But this is not the case for Jane.

What sets up the context in Jane’s case is when she learns that her parents had to follow a particular procedure to get children, without reference to one particular IVF attempt. This context does not imply that her parents made any attempt, actually. M0 is still a possible model in this context. It is her evidence that she exists that will favour one or the other model among M0, M1 and M2.

Her evidence will discard M0: the probability of our own existence is 0% with this model. It will favour M2 over M1. Her mother probably made two attempts. This raises the probability of her own existence from 10% to 20% (the case where the two attempts are succesful in M2 makes her existence twice as likely, so we get 20% instead of 19%).

Why doesn’t Jane consider our models M2 and M2 above? Because this would be asking a different question: whether she is her mother’s first or second child. Her evidence tells her nothing about this, and indeed, none of M1, M2 and M2 is boosted in this inferential context. But it also makes sense for Jane to ask how many times her parents tried IVF, and in this inferential context, her evidence favours the hypothesis that they tried twice.

To see that Jane’s reasoning is correct, we can imagine that there are many cases like Jane’s in the world. Imagine that 100 parents never attempt IVF, 100 parents attempt IVF only once, resulting in 10 children like Jane being born, and that 100 parents attempt IVF twice, resulting in 20 children like Jane being born. Twice as many children in Jane’s situation are children from parents that made two IVF attempts instead of one. So, each of these children would be right to infer that their parents probably made two attempts, because they are more likely to be among the 20 than among the 10.

So, Jane’s case is actually closer to the first scenario, despite her knowledge that her conception occurred. Her inferential context is one where she knows that her parents followed an IVF procedure once or twice, and what she learns from her own existence is not that the first attempt was successful, nor that the second attempt was successful, but only that at least one attempt (which happens to correspond to her conception) was successful.

Back to cosmology

How can we transpose our reasoning to the problem of fine-tuning?

Consider a cosmological model with only one universe U1, with a 10% probability that there is life in this universe, and another cosmological model with two universes U1 and U2, with 10% probability for each universe to contain life. This is exactly analogous to our models M1 and M2: a universe creation event is analogous to an IVF, and the development of life in this universe is analogous to a success leading to pregnancy. U1 incorporates a single universe hypothesis, and U2 a multiverse (actually, bi-universe) hypothesis.

We are in the situation of Jane. We do not know if we have “sibling” universes. We do not know if more than one universe was created. Our only evidence is that we are in a universe with life. We know that it is our universe, this universe, just like Jane knows that she is the result of her conception. However, we have no idea, under the hypothesis that the right model is M2, whether this universe would be U1 or U2 in the model. And just like in Jane’s case, our evidence that our universe contains life favours M2 over M1.

[Side note]
If there is a disanalogy between the cosmological case and the previous case, it lies in the fact that the justification we adopted (“imagine there are 300 situations like this one…”) cannot be adopted here. There is only one multiverse.

One way around this problem is to consider 200 possible situations like ours. In 100 of them, there is only one universe, and in 10 out of them, it’s a universe with life. In the 100 other situations, there are two universes. In 18 out of them, there is one universe with life, and in 1 there are two universes with life. Any possible population of a universe with life would be right to assume that they live in a multiverse, since this is the case for 20 possible universes among 30.

Is this fallacious reasoning? Perhaps, but then any probabilistic reasoning about multiverses will be fallacious, including White’s (see the side note in the introduction). But if we accept that probabilistic reasoning makes sense in this context, we should accept that the multiverse hypothesis is boosted by our evidence.
[End side note]

White insists that we must take into account our evidence that this universe exists, and that this fact is part of our background knowledge in Bayesian inference. The way he models this in his article amounts to pointing to one of the two universes in M2 and declare “this is our universe”. In essence, White asks us to consider the model M2 as the right representant of the multiverse hypothesis instead of the model M2. And he remarks that this model is not favoured by our evidence, which is right. But M2 is not the right model.

M2 would correspond to our situation if we had some means of identifying our universe with respect to other universes in the model. This would be the case, for example, if we were there before the creation of our own universe, just like Alice was there before Mary’s pregnancy. We could have pointed to our universe and say “let’s call this one U1, and let’s see if it contains life”. Then we would have applied our two models, M1 and M2, and see that none of the models is favoured by our evidence that U1 eventually contains life.

But that’s not how it works. There might be something that identifies our universe with respect to the other ones in the multiverse (perhaps they are ordered in a time sequence, just like Mary’s IVFs) but this is not some information to which we have access. We do not have the indexical information that White thinks we have that would allow us to locate ourselves in the multiverse.

We could use models like M2 and M2 if we wanted to know “is U1 in the model our universe, or is it U2?”, in the way Jane could wonder “am I the first or the second child?”, and as expected, our evidence would not favour any of the two hypotheses. But this is not the question that we want to ask in the context of fine-tuning. What we want to know is whether there are other universes. This is why we should consider M2 as the right model of the multiverse instead of M2 or M2. The fact that our situation resembles much more that of Jane than that of Alice is enough to make this point.

The difference between M2 and M2 is that the former comes with a “you are here” sign. Scientific models rarely come with a “you are here” sign, and theoretical models never do. They aim at generality. They’re interested in types, not in particulars, and cosmology, despite its peculiar object, the universe, is no exception to the rule. It applies to the universe the same methods that worked for other types of system, thus implicitly considering that our universe is just a representant of a certain type of physical object (modelled, for example, like an infinite gas, without any specification of our own position).

Now philosophers, drawn by metaphysical considerations, may wonder which “you are here” cosmological model is favoured by our evidence, taking into account our best scientific theories. It’s always nice to see metaphysicians taking into account the outcome of science in their reflection, but it would be better if they were paying due respect to what these models aim at before asking the wrong questions. In this regard, they should acknowledge that science has never been in the business of vindicating “you are here” models.