mardi 25 octobre 2022

Le réalisme est-il du côté du bon sens ?

Chair-black and white drawing

Le réaliste affirme que les théories et hypothèses scientifiques sont pour la plupart vraies, au moins en approximation, et que les objets postulés par les scientifiques, les protons, les gènes et les cellules existent réellement. Si le philosophe non-réaliste nie tout ça, il contredit directement les scientifiques, n’est-ce pas ? Il est anti-science ? En quoi un philosophe serait-il légitime pour contredire ce que disent les scientifiques sans même prendre la peine de faire des expériences ? N’est-ce pas extrêmement prétentieux ?

En fait c’est un peu plus compliqué que ça. Disons que le diable est dans les détails, et en particulier dans la compréhension de “exister”, “vrai” et “réaliste”. Je vais examiner ces trois termes tour à tour.

Je souhaite défendre ici que les philosophes réalistes ont opéré, au tournant des années 80, une appropriation de ces termes qui leur ont permis d’asseoir le réalisme métaphysique sur le sens commun et de doter leur projet métaphysique du prestige généralement associé aux sciences.

Pour ma part, je considère que les projets métaphysiques qu’ils mènent, quel que soit leur intérêt par ailleurs, ne sont pas scientifiques, et qu’il est important de marquer la différence entre science et métaphysique. C’est principalement pour cette raison que je me revendique non-réaliste : non pas parce que je serais anti-science, mais parce que, fidèle en cela à une certaine tradition empiriste, je suis sceptique vis-à-vis de la métaphysique.

“Exister”

Je suis assis sur une chaise. La chaise existe-t-elle ? Au sens courant du terme, c’est indéniable. Dire “cette chaise n’existe pas” dans un contexte ordinaire reviendrait à dire que c’est une illusion d’optique, un hologramme ou une image de synthèse peut-être, mais je sais que ce n’est pas le cas : je peux la toucher, la déplacer. Cette chaise existe, donc.

Pourtant la catégorie d’objet “chaise” n’est pas une catégorie naturelle : ce n’est pas une classe d’objet qui nous est donnée par la nature. Ce qui différencie une chaise d’une non-chaise est en partie conventionnel, certains objets sont difficiles à classer, et je ne serais pas surpris que ce que l’on appelle banc, tabouret, fauteuil, chaise longue ou transat en français soient classifiés suivant des regroupements légèrement distincts dans d’autres langues (je sais sur c’est le cas de “bol” et “assiette creuse” par exemple).

Mettez vous un instant dans la tête d’un physicaliste réductionniste pur et dur (“éliminativiste”) : la seule chose qui existe vraiment dans le monde, ce sont des particules microscopiques en interaction. Diriez-vous que la chaise existe ? Vous pourriez bien le nier : cet objet n’a aucun contour précis à l’échelle microscopique qui permettrait de l’identifier à un groupe de particules en particulier, et même si c’était le cas, ce groupe de particules serait entièrement arbitraire, sans aucune règle précise pour lui associer la catégorie “chaise” hors contexte. En fin de compte, pour le réductionniste pur et dur, la chaise est une “fiction utile”, voire une “construction sociale”, pour employer une façon de parler plus controversée.

Personne n’est tenu d’être réductionniste en ce sens, mais c’est une position philosophique a priori légitime, non ? Donc il est légitime, sur le plan philosophique, de dire que les chaises n’existent pas réellement ou absolument, que ce sont des vues de l’esprit.

Est-ce à dire que le réductionniste devrait reprendre nos interlocuteurs à chaque fois qu’ils parlent de chaises ? Bien sûr que non ! En fait, il semble que ces arguments emploient le terme “exister” en un sens beaucoup plus exigeant que nous ne le faisons au quotidien. Un sens métaphysique : pour exister, il faut constituer un objet dont le découpage est parfaitement naturel, indépendant des représentations et catégories arbitraires des êtres humains. Un objet existe réellement s’il correspond au moins approximativement à un tel découpage. Différencions donc deux sens de “existence” : l’existence ordinaire et l’existence métaphysique.

“Vrai”

EB1911 Dandelion (Taraxacum officinale)

Les pissenlits sont jaunes. C’est vrai, n’est-ce pas ? Au sens courant du terme oui, c’est indéniable. Peut-être pas tous les pissenlits, certains n'ont pas de fleur, et pas tout le pissenlit, seulement ses pétales. Par ailleurs, pissenlit est un nom vernaculaire. Enfin, la distinction entre vert et jaune s’avère assez sensible à la langue ou au contexte social (apparemment certains considèrent que les balles de tennis sont vertes, d’autres qu’elles sont jaunes). Mais ne chipotons pas, la couleur des pissenlits est franchement dans la catégorie “jaune”. Disons donc que les pétales des pissenlits “véritables” sont typiquement jaunes. Dans un contexte ordinaire, le nier reviendrait à postuler une espèce d’illusion d’optique massive qui toucherait la couleur des pissenlits en particulier, quelque chose de très improbable.

Pourtant, la couleur “jaune” ne correspond pas à une propriété naturelle des objets. Un mélange de lumière verte et rouge nous donnera du jaune, mais c’est un spectre lumineux très different d’un spectre monochromatique jaune situé quelque part entre le vert et le rouge. La seule raison de mettre les deux spectres dans la même catégorie, c’est que dans des conditions normales, nos systèmes perceptifs répondent typiquement de la même façon aux deux. Mais alors tout ça est relatif à notre physiologie.

Un physicaliste pur et dur pourrait défendre que les pissenlits ne sont pas vraiment jaunes : les couleurs sont des illusions cognitive, une construction de notre cerveau. Donc “les pissenlits sont jaunes” est faux, à strictement parler, car les couleurs n’existent pas en dehors de nos têtes. C’est juste une façon utile de parler, étant donné que nos systèmes visuels sont semblables. Il y a sûrement des objections à ce type de vue, mais au moins c’est une position philosophique légitime, non ?

Est-ce à dire qu’un tel physicaliste devrait reprendre nos interlocuteurs chaque fois qu’ils attribuent des couleurs aux objets ? Bien sûr que non ! C’est juste que le physicaliste emploie “vrai” en un sens philosophique particulier : une correspondance entre nos représentations et la réalité qui ne dépendrait pas de notre constitution d’être humain, soit une notion de vérité beaucoup plus exigeante que la façon commune d’employer la locution “c’est vrai”, selon laquelle une influence du contexte ou une forme de relativité aux êtres humains n’est pas bien grave.

On pourrait donc distinguer la vérité au sens ordinaire et la vérité au sens métaphysique, la première correspondant, disons, à l’absence de doutes légitimes pour accepter une proposition dans un contexte donné, et la dernière étant une correspondance directe à la nature fondamentale de la réalité 

Et la science?

Les cellules biologiques, les gènes, les protéines, les atomes, les électrons existent-ils ? L’entropie, la température ou les forces centrifuges existent-elles ? Nos théories à leur sujet sont-elles vraies ? Au sens commun de “exister” et “vrai”, ça me semble indéniable. Mais au sens métaphysique ?   C’est sujet à débat. Un réductionniste pur et dur pourrait défendre que seuls les électrons existent dans cette liste, ou peut-être aussi les atomes et les protéines, mais pas les cellules et les gènes parce que leur composition chimique et leur découpage varie d’un contexte à l’autre et qu’il est impossible de les définir en employant uniquement le vocabulaire de la physique. Ce sont des entités fonctionnelles plutôt que réelles. Un physicaliste plus tolérant (“non réductionniste”) pourrait affirmer que tout ça existe y compris au sens métaphysique, par exemple parce que ces entités correspondent à des “motifs réels” de la nature, une manière non arbitraire de découper fonctionnellement le monde. Mais peut-être sera-t-il moins affirmatif à propos des forces centrifuges ou de l’entropie. Un non-réaliste pourrait rester sceptique : peut-être que ces “motifs fonctionnels” ne sont pas si métaphysiquement absolus, plus contextuels qu’on le pense, plutôt des “fictions utiles” donc, même si leur stabilité est bien supérieur à celle de catégories comme "jaune" ou "chaise". Il serait d’accord avec le réductionniste à propos des gènes, mais dirait qu’il en va de même des électrons, car on peut douter que notre physique actuelle soit le fin mot de l’histoire.

Chacune de ces positions a des implications pour la philosophie, en termes de programme de recherche. Pour le non-réaliste, par exemple, chercher à déterminer la nature profonde de la réalité au-delà de ce qu'en disent les scientifiques n’est pas un projet qui vaut la peine d’être poursuivi. Il est bien plus intéressant d’examiner la manière dont les scientifiques construisent leurs représentations. Pour le métaphysicien, un tel examen n’a qu’une importance marginale, puisqu’au final ces représentations sont au moins approximativement vraies métaphysiquement parlant.

Peu importe où vous vous situez dans ce débat philosophique. Mon point est le suivant : aucun de ces philosophes n’ira dire à un scientifique qui vient de publier un nouveau résultat “c’est faux ! Vous nous racontez des histoires !”. Pourquoi ? Simplement parce que les scientifiques ne sont pas des philosophes, et donc il n’y a aucune raison de charger leur discours de présupposés métaphysiques, pas plus qu’il n’y a de raison de nier que je suis assis sur une chaise rouge quand c’est le cas. Quand un biologiste dit que les gènes existent, c’est vrai, au sens ordinaire de “vrai”, ils existent, au sens ordinaire de “exister”. Les représentations des mécanismes biologiques produites par les biologistes sont acceptables au-delà de tout doute raisonnable. Là-dessus, les seuls qui ne sont pas d’accord sont ceux qui refusent d’accorder le moindre crédit aux sciences, et je m’avance peu en disant qu’on n’en trouve quasiment aucun dans les facultés de philosophie.

Ce qui est sujet à débat, c’est si on peut aller au-delà de cette notion ordinaire (et si l’on peut préciser un peu ce qu’elle recouvre, et ce que ça implique pour la notion d'objectivité). Et c’est un débat purement philosophique, non scientifique, qui n’a aucune implication sur la “bonne” manière de faire de la science, mais qui en a, par contre, sur la “bonne” manière de faire de la philosophie.

Wilson1900Fig2

“Réaliste”

Alors, me direz-vous, si presque tout le monde est prêt à dire que les théories sont vraies, au moins au sens ordinaire du terme, alors presque tout le monde est réaliste ? Tout comme on peut défendre qu’il y a deux acceptions de “vrai” ou de “exister”, on pourrait dire qu’il y a deux acceptions de “réaliste” : l’une suivant laquelle les théories scientifiques sont vraies et les entités postulées existent au sens ordinaire des termes, et l’autre au sens métaphysique. Il existerait donc trois positionnements possibles vis-à-vis de l’interprétation des théories scientifiques : la position anti-science, largement minoritaire, la position réaliste pragmatique et la position réaliste métaphysique (bien sûr c’est une simplification puisqu’on peut décliner chacune d’elles).

Seulement c’est un peu plus compliqué. Le problème, c’est que l’existence et la vérité ont acquis une connotation technique en philosophie qui correspond à ce que j’ai qualifié de compréhension métaphysique des termes.

Ainsi le réaliste métaphysique affirme typiquement que la vérité est une affaire de correspondance à une réalité indépendante de nos représentations, et que l’existence a à voir avec la référence à des objets et classes naturelles, suivant un découpage qui préexiste à nos activités. Le réalisme ainsi compris est devenu une position dominante au cours des années 1970-80 en philosophie analytique, ce notamment sous l’impulsion d’arguments de philosophie du langage (ceux de Kripke). Il s’est construit en quelque sorte sur les ruines des projets empiristes ou positivistes de la première moitié du 20e siècle. Ceux-là entretenaient des conceptions différentes de l’existence et de la vérité (la relativité de l’ontologie de Quine, par exemple, ou le vérificationnisme de Ayer). Mais ces conceptions sont passées de mode. Parfois pour de bonnes raisons. Et ce sont les conceptions métaphysiques qui ont pris le dessus. Peut-être pas pour de si bonnes raisons.

Aujourd’hui, réaliste scientifique et réaliste métaphysique sont à peu près synonymes. Mais le fait que cela relève d’une connotation technique distincte de l’usage ordinaire est souvent passé sous silence par les réalistes métaphysiques, voire explicitement nié : beaucoup de réalistes métaphysiques pensent que leur conception de la vérité et de l’existence est la seule qui vaille, la seule qui soit vraiment intuitive, et que le langage ordinaire est seulement imprécis en la matière.

Il résulte de cette façon de voir les choses que le réalisme métaphysique n’est rien de plus que du bon sens.

Le but de la science

Si l’on pense que les scientifiques utilisent “vrai” et “existe” dans leur sens métaphysique, on pense que la science, c’est finalement de la métaphysique, qu’il n’y a pas de frontière marquée entre les deux : le but de l’un comme de l’autre est de dévoiler la nature fondamentale de la réalité.

Le métaphysicien a tout intérêt à brouiller la frontière entre métaphysique et science. Quoi de mieux pour défendre la légitimité de son projet philosophique, voire pour profiter d’un peu du prestige qu’ont acquis les sciences par leurs succès empiriques (sans pour autant n’avoir participé aucunement à ces succès) que de dire que lui et les scientifiques font à peu près la même chose ? Ce faisant, il relègue au second plan (peut-être involontairement, soyons charitables) les projets alternatifs, plus sceptiques envers la métaphysique et impliquant une division plus tranchée entre elle et la science. Il risque de faire passer malgré lui ces projets sceptiques pour de l’anti-science. Mais de toute façon le métaphysicien ne croit pas beaucoup à ces projets, alors ce n’est pas bien grave.

Si au contraire on pense, comme moi, que les scientifiques utilisent ces termes de “vrai” et “existe” dans un sens ordinaire beaucoup moins chargé, alors il y a une différence importante entre science et métaphysique. Le but de la science n’est pas de produire des théories métaphysiquement vraies, mais seulement des théories suffisamment robustes pour être acceptables par tous. Le but de la métaphysique pure, c’est autre chose : “interpréter” les théories, leur attribuer une ontologie, se questionner à partir d'elles sur la nature fondamentale de la réalité, essayer d'obtenir des vérités absolues, non pas sur tel ou tel type de phénomène bien identifié, mais sur l'univers dans son ensemble. Ce n'est pas seulement rendre les théories scientifiques plus précises, mais opérer ce passage de la vérité ordinaire à la vérité absolue, à supposer qu'elle existe, donc ajouter quelque chose (une couche de vernis ontologique) aux théories.

C’est une activité qui n’est pas particulièrement connectée à la confrontation empirique, contrairement à l’activité des scientifiques, et dont on peut questionner la légitimité ou la fructuosité. En tout cas, de ce point de vue, les conclusions métaphysiques n’ont aucune incidence directe sur la validité des résultats scientifiques, même si elles impliquent la non existence de telle ou telle entité postulée par les scientifiques, puisqu’elles emploient un sens technique, philosophique, de “existence”.

L’approche pragmatique

Je ne vais pas m’étendre ici sur les raisons de préférer la seconde approche. En un mot, elles ont à voir avec la façon dont les scientifiques identifient leurs théories, quand ils disent que deux théories sont équivalentes (et donc qu’il est futile de défendre l’une plutôt que l’autre), avec l'usage des idéalisations, et plus généralement avec les normes qui régulent leur activité : elles impliquent, selon moi (et selon d’autres), que le but de la science en tant qu’institution n’est pas le même que le but de la métaphysique en tant que branche de la philosophie.

Je ne dirais pas que la métaphysique est inutile. Elle peut jouer un rôle heuristique pour l'invention de nouvelles théories. Elle peut participer à clarifier les concepts. Mais à mon sens, ce rôle est seulement heuristique ou clarificateur, et c’est un plutôt un effet secondaire. Pas besoin de croire qu’on court après la vérité pour faire la même chose (les philosophies instrumentalistes ont elles aussi participé au développement de la mécanique quantique), et il faut savoir s’arrêter au bon moment, quand les analyses cessent d’être fructueuses et d’avoir la moindre pertinence empirique. C’est ce que l’on fera naturellement si l’on est lucide sur le fait qu’on ne court pas après la vérité absolue, et si l’on cesse de mettre sur un piédestal les “critères d’évaluation non empirique” des théories pour se concentrer sur des considérations plus pragmatiques.

Bien sûr certains scientifiques (les physiciens en particulier) peuvent avoir dans l'idée qu'ils cherchent la vérité absolue, ils peuvent faire de la métaphysique, et peut-être certains le font-ils volontiers dans des ouvrages de vulgarisation, tout comme ils font parfois de l’épistémologie. Mais ce n’est pas leur activité principale, c’est-à-dire celle sur la base de laquelle ils sont évalués par leurs pairs. Cette activité principale est de développer des représentations robustes, dignes d’être acceptées, c’est-à-dire vraies au sens seulement ordinaire du terme. En effet, quand bien même ils auraient des standards d'évaluation bien plus élevés que ceux de la vie courante, ceux-ci ne sont pas transcendants.

Pour cette raison, je pense qu’il y a tromperie sur la marchandise quand on prétend que le réalisme métaphysique est du côté du bon sens, du côté de la science. 

Questions de stratégie

Il résulte de tout ceci un dilemme pour les pragmatistes qui, comme moi, pensent qu’il existe plus qu’une différence cosmétique entre ces deux conceptions de la vérité : soit ils ou elles continuent à se dire réalistes, quitte à ce qu’on leur prête des projets métaphysiques et des conceptions auxquels ils n’adhèrent pas vraiment, soit ils ou elles décident de se dire non réalistes pour marquer leur différence, quitte à ce qu’on les prenne à tort pour des antis-science.

S’il lui tient à cœur de ne pas passer pour un ou une philosophe anti-science, ou de ne pas laisser penser à tort que la philosophie peut être anti-science auprès du grand public, et s’il ne voit pas l’intérêt de générer des conflits internes entre écoles philosophiques, le pragmatiste pourra être tenté de se dire réaliste. Il ou elle poursuivra ses projets de recherche pragmatiques en mettant de côté les questions d'interprétation métaphysique qui ne l'intéressent pas vraiment. Il évitera d'aborder les questions de fond sauf si c'est vraiment nécessaire. Il pourra rappeler, si on lui demande, que son réalisme est plutôt pragmatique. Mais si la distinction n’apparaît pas clairement au non philosophe, légitimant ainsi une façon de faire de la métaphysique qu’il rejette personnellement, peu importe, c’est un mal pour un bien.

Mais si le pragmatiste a plus à cœur de se différencier, au sein de sa profession, d’un certain type de projet métaphysique qu’il juge illégitime ou futile, quitte à générer plus de débats internes, et parfois un malentendu auprès des non philosophes qui demandera de faire preuve de plus de pédagogie, il pourra se revendiquer non-réaliste.

L'idée que le réalisme métaphysique serait du côté du bon sens scientifique a tellement gagné les esprits que de nombreux philosophes préfèrent, me semble-t-il, opter pour la première stratégie : se dire réalistes alors même qu’ils défendent des conceptions plutôt pragmatistes, soit quelque chose de distinct de ce qu’on appelle consensuellement le réalisme scientifique dans la littérature spécialisée. C’est souvent ainsi que fonctionnent les positions dominantes en philosophie (mais aussi en politique) : elles s’approprient un certain usage des mots ordinaires qui rend la vie difficile aux défenseurs de positions alternatives, les mettant dans une position de dilemme : soit vous êtes avec nous, soit vous êtes contre nous (et nous, c’est le bon sens). Souvent, la position par défaut est de se rallier à la majorité.

Pour être clair, je ne pense pas qu’il s’agisse d’une stratégie intentionnelle de la part des réalistes métaphysiques. J’y vois plutôt un phénomène émergent, quelque chose d'à peu près inévitable, typique de certaines activités humaines impliquant des rapports de domination, ici dans le champ intellectuel. Et puis, les enjeux ne sont pas énormes, ce n’est que de la philosophie après tout. Juste un constat, donc. Mais le dilemme est bien là.

Pour ma part je fais plutôt partie de ceux (je pense minoritaires) qui préfèrent résister à cette injonction au bon sens réaliste et marquer leur différence avec l’approche métaphysique. Réaliste au sens pragmatique me convient sur le fond. Je crois que la plupart des théories scientifiques sont vraies, non pas parce qu'elles correspondent à la réalité, mais parce qu'elles sont acceptables au delà de tout doute raisonnable quand il est question d'interagir avec le monde. Je crois que les cellules biologiques existent, non pas parce qu'elles correspondent à un découpage parfaitement naturel, mais parce que c'est un bon découpage pour rendre compte du fonctionnement du vivant, à toutes fins utiles. Mais si on se met à se demander si l'espace-temps est relationnel ou substantiel, ou si les lois de la nature pourraient être différentes dans un autre monde possible, je commence à bailler. Et pour des raisons essentiellement stratégiques (parce que je considère que la philosophie gagnerait à s’éloigner d’une certaine façon de faire de la métaphysique déconnectée de considérations pratiques, et à être plus inclusive quand il est question d’interpréter les sciences), je préfère me dire non-réaliste et promouvoir l’anti-réalisme. Ça me demande de faire parfois un peu de pédagogie pour lever les malentendus. Mais je pense que c’est un mal pour un bien.

FlammarionWoodcut

mardi 11 octobre 2022

Relativisme et scientisme

Hier j’ai été invité à parler relativisme et scientisme chez Mr Sam. Un petit complément ici.

Le relativisme, c’est en gros l’idée qu’une affirmation peut être vraie d’un point de vue, mais pas d’un autre, et qu’il n’existe pas de point de vue neutre ou privilégié pour l’évaluer absolument. On peut être relativiste à propos des goûts esthétiques, des principes moraux ou, de manière plus controversée, à propos d’affirmations factuelles, notamment scientifiques : il y aurait “plusieurs vérités” ou plusieurs manières alternatives de voir le monde. Ça s’accompagne souvent d’une idée de conversion : adopter une façon de voir le monde nécessiterait un engagement actif ou une immersion, d’où l’impossibilité de comparer de manière neutre deux façons de voir le monde. Le relativiste à propos des sciences affirme qu’une théorie scientifique est une “façon de voir le monde” en ce sens.

L’un des arguments principaux en faveur d’un relativisme à propos des sciences est la charge théorique de l’observation, soit l’idée que les observations scientifiques ne sont pas neutres, mais toujours interprétées à la lumière de la théorie.

On peut commencer par voir comment ça marche avec la perception au sens ordinaire. Notre expérience du monde nous est elle simplement “donnée” par la perception ? Est-elle passive et neutre, indépendante de nos croyances préalables ? Pas vraiment. Vous avez tous appris à voir des lettres et des mots plutôt que de simples lignes sur un écran ou du papier par exemple. Pas besoin de faire consciemment des inférences pour lire : l’apprentissage de la lecture a directement affecté votre manière de voir le monde. Percevoir, c’est reconnaitre à quelles catégories appartiennent des objets (je vois un piano en bois, une chemise bleue), et ces catégories sont pour la plupart apprises par la pratique, sans être définies explicitement, par une immersion dans la société.

Tout ça ressemble beaucoup à une “conversion”… De l’eau au moulin du relativiste. Mais attention, ça ne veut pas dire que l’on voit juste ce que l’on veut voir ! La perception reste largement involontaire.

Ceci dit, nos intentions et cet apprentissage peuvent nous rendre sélectifs : quand on est concentré sur un objectif, on passe à côté de beaucoup de détails non pertinents. Les expériences en psychologie montrent que nos attentes peuvent introduire des biais perceptifs.

Les catégories scientifiques fonctionnent de façon similaire. Manier les concepts de la biologie évolutive, construire des modèles en physique, ça s’apprend par la pratique. Faire des mesures dans un laboratoire et les interpréter correctement aussi. Tout ça n’est pas entièrement formalisé. Une discipline scientifique, c’est aussi une certaine façon de poser les problèmes et des outils standards pour les résoudre (poser des questions en termes évolutifs en biologie). La discipline nous rend inévitablement sélectif quant aux hypothèses qui méritent ou non d’être considérées. Et entendons nous bien, tout ça est nécessaire pour avancer. On ne peut renverser la table et envisager une infinité de théories et hypothèses alternatives chaque fois que nos observations ne collent pas à nos attentes. On a besoin d’un cadre pour nous guider.

Donc en règle générale, le cadre disciplinaire n’est pas directement remis en question. Au contraire, les scientifiques peuvent essayer de le sauver quand il est mis en difficulté. Les physiciens préfèrent postuler de la matière noire pour expliquer des observations non concordantes plutôt que de construire une nouvelle physique. Et encore une fois, ce n’est pas en soi un problème : cette attitude s’avère souvent fructueuse (c’est comme ça qu’on a découvert Neptune).

Mais ça bat en brèche l’idée qu’il existerait une “méthode scientifique” universelle, foncièrement anti-dogmatique, fondée sur des observations neutres, à partir de laquelle on pourrait tous converger vers la vérité. Croire en une telle méthode universelle peut être qualifié de scientisme. En pratique, on observe plutôt que chaque cadre disciplinaire développe ses propres méthodes d’enquête empirique, ses propres méthodes d’observation.

Tout ça peut induire un doute sceptique : est-ce que le cadre dans lequel on développe les connaissances, notre “manière de voir le monde”, est la seule possible ? N’y aurait-il pas des manières de voir alternatives tout aussi valides ?

C’est ce type d’arguments qui peut être avancé par les relativistes. Le relativisme a connu un regain d’intérêt dans les années 1970-80 quand on a commencé à s’intéresser au fonctionnement réel des sciences dans toute sa complexité (histoire et sociologie des sciences) au lieu de s’en tenir à des reconstructions philosophiques abstraites d’une supposée méthode scientifique. Ces observations sont-elles suffisantes pour être relativiste ? Ou existe-t-il une voie entre scientisme et relativisme ?

Rappelons que le relativisme rejette l’existence d’une base d’évaluation neutre. Cependant, on n’a pas forcément besoin d’une méthode scientifique universelle pour servir de base neutre : pas si les cadres méthodologiques eux-mêmes peuvent être évalués par différents critères.

C’est ce qu’on fait mis en avant Lakatos, Laudan et même Kuhn (à qui l’on doit beaucoup des observations faites plus haut). Il existe des indicateurs de progrès externes, ou des valeurs épistémiques permettant de juger qu’un cadre disciplinaire est meilleur qu’un autre. Un cadre théorique peut être plus ou moins fructueux. Il peut s’embourber dans les hypothèses ad hoc pour survivre, ou au contraire nous guider vers de nouvelles applications inattendues. Et les cadres théoriques bien établis en science sont ceux qui ont fait leurs preuves. Il existe des épisodes de changements radicaux de cadres (le passage de la physique classique à la physique relativiste), ce qui laisse penser qu’en effet il existe toujours peut-être d’autres manières de “voir le monde”. Mais ces changements ne sont pas arbitraires. Ils se produisent quand les problèmes insolubles s’accumulent, et les nouvelles théories capitalisent sur le succès des anciennes en essayant de reproduire leurs prédictions. Les techniques expérimentales survivent aux changements de théories, même s’il faut les réinterpréter.

Les instruments de mesure (comme les thermomètres) ne sont peut-être pas développés indépendamment des théories (la thermodynamique). On peut parler d’ajustement mutuel. Mais ce qui est en vue, c’est une certaine stabilité et une reproductibilité : un critère de progrès externe. Tout comme apprendre à lire n’implique pas que l’on puisse voir ce que l’on veut, le fait que les observations soient interprétées n’implique pas que les théories peuvent prédire ce qu’elles veulent : l’adéquation empirique reste un critère d’adéquation externe. La société nous a appris à voir des mots plutôt que des lignes arbitraires sur du papier, mais on ne dirait pas naturellement que l’affirmation “il est écrit ‘SORTIE’ sur ce panneau” est relative à un point de vue. Il n’existe pas de “manière alternative, tout aussi valide” de lire un panneau. Les lettres et les mots sont des guides fiables pour évoluer en société. De même, on pourrait avancer que la nature a appris aux scientifiques à utiliser des catégories fiables, robustes (mais peut-être perfectibles), pour interagir avec elle. Et hormis les cas où ces catégories concernent des êtres humains, il n’y a pas de raison de penser que cette robustesse expérimentale, obtenue par des efforts considérables, dépend fortement du contexte social. Donc au final, à mon sens, une observation minutieuse de la pratique scientifique rend certainement caduque la version de scientisme décrite plus haut, mais aussi les versions les plus radicales de relativisme ou de constructivisme social.

Elle rend aussi caduque l’idée que la vision scientifique du monde ne serait ni meilleure ni pire que d’autres visions, par exemple mystiques ou religieuses : vis-à-vis des critères “externes”, ces autres visions du monde ne sont pas progressives.

On pourrait répondre que les critères de progrès invoqués (robustesse expérimentale, adéquation empirique, fructuosité…) sont en fait relatifs à un point de vue “scientiste”. Mais ça, c’est une thèse philosophique, pas quelque chose que montre l’histoire ou la sociologie des sciences. On parle d’une autre forme de relativisme. On peut en débattre philosophiquement parlant. Pour ma part, elle ne me convainc pas. Je suis “scientiste” en ce sens : je valorise ce type de progrès, je valorise la science.

Et un relativisme plus métaphysique : une espèce extraterrestre dont la constitution cognitive serait radicalement différente de la nôtre développerait-elle une science alternative ? On se rapproche de la question du réalisme. Je suis personnellement agnostique sur ce point.

Que retenir de tout ça ? Il n’existe pas une unique méthode scientifique qu’on pourrait déterminer simplement en réfléchissant depuis un fauteuil confortable. Mettre au point de bonnes méthodes pour développer la connaissance, ça s’apprend aussi par l’expérience. Ça demande un engagement, une “conversion” en quelque sorte, et on peut toujours douter que notre manière de voir le monde soit la meilleure possible. Mais on dispose au moins de critères objectifs pour considérer que certaines “façons de voir” sont meilleures que d’autres.

mardi 27 septembre 2022

Émotion contre raisonnement en éthique

Neunkircher Zoo 38

Le faible pouvoir de conviction de la raison pure

La vidéo récente de Mr Phi sur le spécisme m’a poussé à m’interroger sur mes propres conceptions de l’éthique à partir du constat suivant : le moment que je trouve le plus convaincant dans la vidéo, celui qui m’a le plus sérieusement amené à questionner mes pratiques alimentaires (globalement flexi-végétariennes pour des raisons environnementales), est le passage où sont décrites les pratiques de l’élevage intensif, comme couper la queue des cochons, accompagné d’images assez parlantes. Cette partie de la vidéo génère en moi une forme d’empathie envers les animaux, et une forme d’indignation envers les pratiques de l’industrie, et j’avoue qu’après ça, j’ai beaucoup moins envie de soutenir indirectement ces pratiques en consommant parfois de la viande issue d’élevages intensifs.

Le reste de la vidéo argumente de façon plutôt convaincante que le spécisme est une position philosophique difficilement tenable. Mais je me rend compte que le genre de réflexion que ça éveille en moi est bien distinct : ce n’est pas ça qui me fera changer de comportement alimentaire. Ce “debunking” en règle me convainc plutôt, au fond, que les arguments rationnels en éthique sont souvent à côté de la plaque : ce que les spécistes essaient de faire, c’est simplement de justifier rationnellement leurs adhésions implicite à des règles de comportement particulières (“l’élevage intensif ce n’est pas grave” ou juste “manger de la viande ce n’est pas grave”) en invoquant des théories toujours plus subtiles sur ce que seraient les normes morales absolues en la matière : peut-être qu’il faut être conscient et doté d’un langage pour être un sujet moral, etc. Et ça ne marche pas ! Ou bien ça semble très arbitraire. Mais pourquoi croire que ce type de reconstruction devrait marcher ?

Au cours de mon visionnage, il m’a semblé de plus en plus clair que l’entreprise poursuivie était vouée à l’échec non pas parce que le spécisme est faux en soi, mais plutôt parce que les sentiments moraux comme le rejet ou l’approbation de normes de comportement ne sont pas le genre de chose qu’on devrait essayer de justifier ou de rejeter en faisant appel à des principes fondamentaux hypothétiques. Ce type d'explication, légitime en science (parce qu'il est possible de vérifier les explications), n'a pas sa place en éthique. Ce ne sont pas les théories morales abstraites qui emportent l’adhésion, mais les sentiments comme l’empathie ou l’indignation, ou parfois rien de plus qu’un sentiment d’appartenance, l’envie de partager des valeurs avec d’autres et de faire ainsi communauté morale. Ce sont ces sentiments qui nous font changer nos comportements. Faire de la théorie morale à coups de principes absolus comme le font les spécistes sophistiqués, ce n’est pas justifier des comportements, c’est juste construire des systèmes autour des principes ou jugements qu’on avait déjà accepté pour d’autres raisons beaucoup plus concrètes et directes.

En somme, les arguments purement philosophiques présentés dans la vidéo ne me convainquent pas le moins du monde que les normes adoptées par les spécistes comme “on a le droit de manger de la viande” sont en soi invalides. Au mieux, ils me convainquent qu’elles sont arbitraires et (donc) égoïstes, et personnellement, je réprouve assez fortement l’arbitraire et l’égoïsme, et donc je réprouve le spécisme. Mais c’est vraiment la partie de la vidéo consacrée à l’élevage intensif qui appuie ce sentiment de réprobation de l’égoïsme vis-à-vis de la souffrance animale (je me dis : comment peuvent-ils être à ce point insensibles ?). Ou pour le dire autrement, si je suis anti-spéciste, c’est seulement au sens où j’éprouve (naturellement ou par éducation) une empathie similaire envers la souffrance animale et la souffrance humaine, et où je réprouve assez fortement ceux qui ne font pas preuve de la même empathie envers les animaux (je n’ai pas très envie de faire société avec eux). Et le constat est le même quand il s’agit de racisme ou de sexisme, avec une réprobation à vrai dire encore plus forte.

Et au fond, j’ai du mal à imaginer comment des arguments philosophiques rationnels pourraient convaincre qui que ce soit en matière d’éthique en l’absence d’une charge émotionnelle, à part peut-être des philosophes qui, à force de déformation professionnelle, entretiendraient un fort sentiment d’approbation morale envers des normes très abstraites telles que la cohérence logique, la simplicité théorique, l’unification conceptuelle et la réduction à des principes fondamentaux (c’est à dire des gens qui auraient des sentiments moraux très très bizarres !).

Gorilla in Gaia-Zoo Kerkrade

Contre l’absolutisme en éthique

À ce titre, les arguments philosophiques positifs en faveur de l’anti-spécisme, comme celui basé sur la quantité énorme d’animaux d’élevage à multiplier par la probabilité que le spécisme soit faux, ne me convainquent pas plus : encore une fois, on tente de rendre compte de sentiments moraux (une telle quantité, c’est horrible !) en faisant appel à des principes fondamentaux, ici un calcul de souffrance, et ça ne peut pas marcher : on connaît les difficultés de l’utilitarisme qui amène exactement au même type de sophistication un peu arbitraire que le spécisme.

Le problème, au fond, est que ce type de reconstruction théorique nous demande de par sa nature même d’adopter une position absolue de surplombs (considérer la quantité totale de mal dans l’univers) et alors elle perd immédiatement en pertinence vis-à-vis des sentiments moraux sur lesquels elle est basée à l’origine. En l’espèce (si je puis dire), dans le cas du spécisme, la responsabilité des acteurs, qu’ils soient consommateurs de viande, végétariens ou vegans, producteur intensif ou producteurs plus respectueux, décideurs politiques ou simples citoyens, voire riches ou pauvres, est inégalement distribuée, et ce sont leurs actes qui sont les objets ultimes de mes jugements moraux, pas la souffrance animale en tant que telle. De méme, une catastrophe naturelle peut me rendre triste, mais elle ne m’indigne pas. Ce qui ne va pas avec la souffrance animale, sur le plan moral, ce n’est donc pas la quantité de souffrance en tant que telle (bien que ça puisse être triste) : le problème moral est que cette souffrance est délibérément provoquée par certains membres de notre communauté et tolérée par la plupart des autres. Mais il n’existe personne qui soit à elle seule responsable de la situation des milliards d’animaux élevés chaque année.

Si c’était le cas, le problème moral serait en effet vite résolu : cette personne est horriblement cruelle, aucune raison d’en douter, ce même si la souffrance animale est en soi négligeable. Mais dans la situation actuelle, le nombre gigantesque d’animaux maltraités, bien sûr impactant, n’implique pas qu’il y a de meilleures ou plus de raisons d’être anti-spéciste (“au delà de tout doute raisonnable”) : il implique surtout qu’il reste énormément de monde à convaincre ! C’est une différence importante. Peut-on vraiment s’attaquer à ce problème sans voir que la responsabilité est extrêmement diluée, que donc c’est un problème moral difficile, et que la taille du problème tient avant tout au très grand nombre de personnes impliquées ? Pourquoi déconnecter ainsi le jugement moral abstrait d’une évaluation pratique de ce qu’il faut faire, et de qui doit le faire, dans notre communauté ?

Le déontologisme ne rencontre pas cette difficulté de l’utilitarisme en particulier, mais il souffre d’un problème similaire : la recherche de règles de comportement absolues finit par nous déconnecter des circonstances particulières dans lesquelles s’inscrivent nos jugements moraux. À la limite, on devrait agir suivant la règle même quand les circonstances nous font réprouver cette action. Mais pourquoi devrais-je approuver moralement l’adoption de règles intangibles ? Cette intangibilité n’est fondée sur aucun sentiment moral particulier (nous avons ici un problème similaire à celui de l’induction : la possibilité de généraliser n'est fondée sur aucune observation particulière).

Dans le cas du déontologisme comme dans celui de l'utilitarisme, on voit qu’une théorie normative qui cherche à attribuer une valeur morale objective et absolue à un état de fait ou à une action est nécessairement déconnectée de l’objet ultime de la morale, de sa vraie base. Cette base, c’est le sentiment moral, soit l’évaluation subjective d’actions intentionnelles par des agents en contexte, situés au sein d’une communauté. C’est cette évaluation subjective, en partie involontaire ou “donnée”, qui motive l’action et l’adoption de règles de comportement. Le sentiment moral est intrinsèquement normatif : il est motivant en lui-même, et non pas en vertu de quelque chose d’extérieur. Lui seul confère aux règles de comportement plus générales un pouvoir de motivation dérivé. Il n’y a donc pas lieu de théoriser sur d’hypothétiques normes ou valeurs absolues. Ça n’ajoute rien, au delà d’une satisfaction théorique, à la force de conviction de nos sentiments.

Monkey 20

Le non-cognitivisme

Tout ça pour dire que le “debunking” du spécisme de cette vidéo m’a fait pencher encore un peu plus (malgré lui je pense) vers le genre de théorie méta-éthique qui me semble le mieux rendre compte de ce qu’est vraiment la morale, à savoir le non-cognitivisme (j’avoue avoir été un temps tenté par le réalisme moral, pour avoir été influencé lors de mon cursus universitaire, mais ce penchant réaliste s’estompe avec le temps).

Le non cognitivisme consiste à dire que les énoncés évaluatifs ou normatifs n’énoncent pas des vérités ou des faussetés, mais qu’ils expriment une adhésion ou un rejet envers certaines situations et règles de comportement. Une adhésion est plus qu'une simple déclaration : c'est un engagement, celui de baser ses propres actions sur cette règle et d'en accepter les conséquences. L'expression d'adhésion a souvent, c’est important, une visée performative au sens large du terme : exprimer son adhésion a généralement pour but de convaincre son auditoire d’adopter la même attitude ou les mêmes normes. C’est un fait essentiel de la vie en société, où il est souvent question de se coordonner autour de normes communes pour vivre ensemble. La morale, ce n’est rien de plus que ça de mon point de vue : une façon de se coordonner en fonction des intérêts et sentiments moraux de chacun. Mais rechercher un bien ou un mal ou une justification absolue, c’est courir après des chimères et se déconnecter de l’action pratique.

Un reproche récurrent envers le non-cognitivisme et qu’il ne rendrait pas bien compte des discours moraux, en particulier des débats argumentés. L’objection peut être résumée ainsi : les énoncés moraux ont la même forme grammaticale que les descriptions. Ils semblent superficiellement au moins avoir une valeur de vérité. De plus on peut les combiner dans des structures logiques ou inférentielles du type “Si c’est mal de torturer un chat, alors c’est aussi mal de pousser ton petit frère à torturer un chat”. Donc sur le plan sémantique, il faudrait accepter qu’un énoncé évaluatif ou moral est porteur de vérité ou de fausseté, et non une simple “expression sentimentale”. L’inverse supposerait en quelque sorte un “deux poids deux mesures” : une interprétation spécifique des connecteurs logiques suivant qu’ils s’appliquent à des énoncés factuels ou évaluatifs.

Remarquons que c’est également le cas des jugements esthétiques (“c’est un bon film”, ou encore “Si vraiment Batman est un bon film, alors Spiderman est génial”), même si l’on a moins tendance à penser que de tels jugement sont entièrement objectifs, et qu’on pourra plus facilement y voir une expression d’appreciation.

Ma solution au problème du deux poids deux mesures est, j’avoue, assez radical : je pense qu’on peut appliquer la même analyse aux énoncés factuels. Là où un énoncé évaluatif ou normatif vise à exprimer une adhésion émotionnelle ou morale, et à convaincre l’audience de faire de même, les énoncés descriptifs visent à exprimer une adhésion envers une croyance, et à convaincre l’audience de faire de même. Quand à la structure logique ou inférentielle, il faut bien voir que les connexions logiques ou inférentielles “pures” (celles qui “préservent la vérité en vertu de la forme des énoncés”) sont des idéalisations. Dans la réalité du langage naturel, un “si … alors” exprime plutôt une forme de loi entre deux énoncés : une espèce de norme inférentielle, justement, spécifique à un certain domaine de discours, à laquelle on adhère et que l’on souhaite voir adoptée par son audience. Et une méta-norme peut très bien concerner des relations entre normes même si elles n’ont pas de valeur de vérité (“on ne peut adhérer à N1 sans adhérer à N2”). De même dans le cas descriptif : “s’il y a de l’eau, c’est qu’il a plu” viserait à faire accepter une norme inférentielle : “on ne peut croire qu’il y a de l’eau sans croire qu’il a plu” (cette façon de voir est inspirée de l'inférentialisme du philosophie Robert Brandom).

Monkey wandering at the Avani Gaborone resort

Le rôle de l’argumentation en éthique

En un sens, on peut affirmer que les énoncés qui composent un “si … alors” doivent pouvoir être porteurs de valeur de vérité (soit vrais soit faux), mais seulement au sens ou dire “c’est vrai” sert souvent simplement à exprimer son adhésion. Alors on retombe, en quelque sorte, sur une analyse traditionnelle de la logique, brouillant la distinction entre cognitivisme et non cognitivisme, car on accepte que les énoncés évaluatifs peuvent être vrais ou faux et que les règles inférentielles concernent la préservation de la vérité (c’est-à-dire de l’adhésion). Mais tout ça n’a plus rien à voir avec une notion réaliste de vérité absolue comme correspondance à une réalité indépendante du locuteur. Il s’agit plutôt d’une conception pragmatiste de la vérité.

Dans ce cadre, les sentiments moraux ou encore esthétiques (l’indignation, l’admiration, le dégoût, l’enthousiasme) jouent exactement le même rôle vis-à-vis des normes morales et esthétiques que les observations directes jouent pour les croyances théoriques : ce sont des dispositions involontaires, “données” par l’expérience, à accepter certaines propositions descriptives ou évaluatives basiques : rapport d’observation ou jugement moral. Ces propositions basiques renforcent ou affaiblissent notre adhésion envers des règles de comportement générales ou des théories. Elles peuvent être défaites par réflexion (si les conditions d’observation ne sont pas optimales dans le cas des descriptions, ou les conditions émotionnelles dans le cas des évaluations : le contexte peut biaiser ou affaiblir mes jugements, et si je le sais, je peux le corriger). Les dispositions à former des jugements perceptifs ou évaluatif peuvent aussi en une certaine mesure être inculquées par apprentissage : on peut apprendre à “voir” des lettres et des mots plutôt que de simples traits sur du papier, comme on peut apprendre à aimer un bon vin ou un bon film ou à reconnaître par empathie une situation moralement problématique. Tout ceci ne veut pas dire que l’on perçoit des “valeurs réelles”, pas plus qu’on perçoit des “couleurs réelles” indépendantes de notre constitution, seulement que le discours, qu’il soit descriptif ou évaluatif, a pour visée une certaine robustesse intersubjective en vue de la coordination sociale.

Si l’on accepte ceci, on peut comprendre que l’argumentation en éthique n’est pas entièrement inutile. Pour convaincre son interlocuteur de changer son comportement, on peut soit essayer d’éveiller directement en lui des sentiments moraux en les exprimant (“c’est dégoûtant”), ou bien on peut l’amener à douter de la robustesse de ses propres jugements en mettant en avant des circonstances non favorables ou des biais (“tu dis ça parce que tu es énervé”), ou enfin on peut s’appuyer sur des “méta-normes” plus abstraites qu’on supposera encore mieux partagées que les sentiments parfois variables d'une personne à l'autre (“il faut être cohérent”, “ne fait pas ce que tu ne voudrais pas qu’on te fasse”, “il faut considérer les conséquences de nos actes”). Par contre, faire appel à des règles de comportement hypothétiques qui expliqueraient nos sentiments moraux ("il faut maximiser la somme des plaisirs et minimiser la somme des souffrances dans le monde", "tu ne commettra pas l'adultère"), et qui, à la base, ne sont pas naturellement partagées par tous, a beaucoup moins de chance de convaincre à moins de les imposer par la force : ça revient ni plus ni moins à inculquer une doctrine.

Ceci dit il y a peut-être un fond de vérité dans les doctrines conséquentialistes ou déontologiques : après tout, ceux qui les défendent se basent souvent sur des intuitions largement partagées. Le non-cognitivisme n’est pas forcément un relativisme si l’on conçoit que certaines méta-normes très abstraites, comme la cohérence logique, une forme d’empirisme pour la formation des croyances, ou une forme de conséquentialisme et d’universalisme ou de réciprocité pour la formation des règles de comportement, sont en principe partagées par tout agent cognitif quel qu’il soit (peut-être par simple définition de ce que c’est que d’être un agent cognitif et ce qu’est la morale ou la connaissance : je serais assez tenté d’en faire des principes purement analytiques). On peut alors qualifier cela de rationalité. Mais ce type de rationalité laisse au moins une place au pluralisme, et il ne peut à lui seul fonder la morale car il tourne à vide sans une base concrète à laquelle appliquer les principes abstraits : il ne faudrait donc pas surévaluer le pouvoir de conviction de l’argumentation rationnelle ni, surtout, la couper des expériences émotionnelles qui constituent sa base.

vendredi 10 juin 2022

Fine tuning, total evidence and indexicals

This is a follow-up of the previous post.

The debate on fine tuning and multiverses hinges on complex issues related to Bayesian reasoning. An influential argument from White in particular seems to show that we cannot infer the existence of the multiverse from our evidence of fine tuning. (White’s argument is apparently the main reason Philip Goff rejects the multiverse hypothesis, since most of his examples come from this particular paper.)

The argument rests on the requirement of total evidence that White illustrates with this example: 

Suppose I’m wondering why I feel sick today, and someone suggests that perhaps Adam got drunk last night. I object that I have no reason to believe this hypothesis since Adam’s drunkenness would not raise the probability of me feeling sick. But, the reply goes, it does raise the probability that someone in the room feels sick, and we know that this is true, since we know that you feel sick, so the fact that someone in the room feels sick is evidence that Adam got drunk.

This reasoning is silly: the fact that Adam got drunk makes it more likely that someone got sick at the party, but not that it was me. Focusing on weak evidence instead of strong evidence can lead us astray in our inferences.

How is this supposed to apply to fine tuning? Our strong evidence is “our universe is fine-tuned”. From this, we infer the weak evidence “at least one universe is fine-tuned”. The multiverse hypothesis explains that at least one universe is fine-tuned: if there are many universes, the probability that at least one of them is fine-tuned is much higher than if there is only one. But according to White, this does not explain why our universe in particular is fine-tuned. Doing so would mean falling prey to an inverse gambler fallacy (see previous post).

White’s argument is fallacious, and I’ll explain why by using toy models.

Bayesianism

Let me first note that I take Bayesian inference to tell us how likely a model is given our evidence, or how much we should boost our confidence in this model. 

A model can be probabilistic, in which case it incorporates probabilistic processes. Then the model predicts that our evidence E should occur with probability p. We can use Bayes’s theorem to “inverse” this probability and infer the likelihood of the model itself given our evidence.

This rationale is not devoid of problems (it requires that we fix prior likelihoods for our models: how?), but detail will not matter much here. For the sake of this article, we can just consider the following weaker principle:

A model M1 is favoured (or “boosted”) by a piece of evidence E compared to another model M2 if M1 makes E more likely than M2 does.

[Side note]
In real scientific practice, the evidence is statistical, because we want our models to have a certain level of generality. This cannot be the case with fine-tuning: we only have one piece of evidence associated with the value of the constants of our universe. 

Strictly speaking, this is a problem for the argument for the multiverse. Why should we assign a probability space to the possible values of constants? Why not simply say that our evidence favours the model with actual constants? 

The point is that constants are primitive in a theory, but the problem of fine-tuning prompts us to explain their values, which is tantamount to speculating about what future theories would tell us about them. There is no reason to think that future theories will associate the value of physical constants with a probabilistic process (although it’s not excluded). 

I personally think that this is enough to discard the problem: just wait for a future theory before speculating. However, this is not the issue that I want to discuss here, so let us grant that there’s a problem that can be framed in a probabilistic setting.
[End side note]

Illustration

It will be easier to first illustrate the issue with a mundane case analogous to fine-tuning. This will shed light on how exactly the requirement of total evidence and the inverse gambler fallacy are involved.

Mary and John are infertile. Their only way to have children is IVF. In their case, the success rate of IVF is 10%. The law of their country stipulates that a couple can only try IVF twice, with a three-year interval between the two trials. They can try a second time even when the first trial was successful.

Let us consider three models.

In the first model, M0, Mary and John never try IVF. The model predicts with 100% chance that Mary will not get pregnant.

In the second model, M1, Mary and John only attempt IVF once. The model predicts a probability of 10% that Mary gets pregnant, and 90% that she doesn’t.

In the third model, M2, Mary and John attempted IVF twice. This gives a 1% chance that the two trials were successful, a 9% chance that only the first was, a 9% chance that only the second was, which means a total of 19% that Mary got pregnant at least once, and a 81% chance that she didn’t get pregnant at all.

Now let us consider three scenarios.

First scenario:

Mary is one of Robert’s remote relative. Robert knows the procedure that Mary has to follow to get pregnant. Robert asks Mary if she knows what it is like to be pregnant. Mary answers “oh yes, I know it first hand”. From Mary’s answer, Robert learns that Mary got pregnant at least once, but he doesn’t know if it’s once or twice.

Clearly, Robert should boost his confidence in M2, because it predicts his evidence with a 19% probability instead of a 10% one for M1. M0 is completely excluded by his evidence.

To see that Robert’s reasoning is correct, we can imagine that there are 300 situations like Robert’s in the world. In 100 of these, the relative has never performed IVF. In 100 other situations, she has performed IVF once, and in 10 out of them this relative got pregnant. In the 100 last situations, the relative has performed IVF twice, and in 19 out of them, she got pregnant. Most of the situations where the relative can say “oh yes, I know it first hand” are situations where they made two attempts, so people in Robert’s situation are right to bet that they are probably in one such situation.

Second scenario:

Alice is a doctor at the hospital. She takes care of Mary for her IVF. After a few weeks, she learns that the IVF was successful: Mary got pregnant. However, Alice has no idea whether it’s Mary’s first or second attempt. She doesn’t even know if Mary already has a child. All she knows is that this particular IVF was successful.

Should Alice conclude from the success that it’s Mary’s second attempt? After all, two attempts make success more likely. However, this would be a fallacy.

In this scenario, Alice should consider three models. The first one is M1: this is Mary’s first and only attempt. The second one is M2, complemented with the information that this is the first attempt, some kind of “you are here” sign attached to the model if you will. Call this complemented model M2. Finally, there is M2 complemented with the information that this is the second attempt, call it M2.

Note that M0 should not be considered at all: not because it will be discarded by Alice’s evidence, but because it does not apply to the case. When considering a situation, we should only take into account the models that are apt to represent the situation, and M0 is not one of them. Given that she assists to one of Mary’s attempt (this is the context), there is no more reason for Alice to consider M0 than there is to consider the quantum model of the hydrogen atom to represent the situation.

In this case, Alice’s evidence does not favour any of the three models. Indeed, the probability of success is 10% with M1, and it is also 10% with M2 or M2: 1% chance that the two trials were successful including this one, and 9% chance that only this one was.

Here we have an illustration of the requirement of total evidence. If Alice went from the strong evidence “this attempt was successful” to the weaker evidence “at least one attempt was successful”, she would mistakenly favour M2 over M1. She would be commiting an inverse gambler fallacy. She must take into account her total evidence, and therefore consider M2 and M2 instead of M2, and then, no model is boosted.

We can imagine 300 situations like Alice’s to see why her reasoning is correct. Assume that in 100 of them it is the patient’s first and only attempt, 10 of which will be successful, in 100 of them it is the patient’s first attempt among two, 10 of which will be successful, and in 100 of them it is the patient’s second attempt, 10 of them being successful as well. Successes are equally distributed in all three groups, so people in Alice’s situation have no reason to infer from success that their situation is among any of the three groups.

Note however, that there is a sense in which M2 is boosted in this scenario. When Alice first learns that Mary will attempt IVF, before learning about the outcome, she has some reason to favour the hypothesis that this is one of two attempts, simply because if Mary makes two attempts instead of one in her life, there is more chance that she will meet Alice. But then the focus is slightly different: we are not considering the narrow situation where an IVF attempt is made, but the larger situation where Mary could have decided or not to attempt IVF, could have met Alice or another doctor instead, etc. and we can suspect that more information should be taken into consideration in order to evaluate which of M0, M1 and M2 is boosted by the evidence (for example, the likelihood that Mary meet Alice instead of another doctor). In any case, the evidence of success plays no role in this context.

Third scenario:

Jane is Mary and John’s daugther. She knows about the process that her parents had to follow for her conception. However, because of dramatic circumstances, she was taken away from her parents just after her birth, so she doesn’t know how many IVF attempts her parents did, and she doesn’t even know if she has a sibling.

The question is: are we closer to the first or to the second scenario?

The fact that Jane has evidence, from her own existence, that her mother got pregnant at one specific time, following one specific conception procedure, could let us think that her situation is very close to the second scenario. However, this is a mistake.

The reason is that in the second scenario, Alice first learns that Mary wishes to attempt IFV. This sets up a context for her inferences. Then she learns that the IFV was succesful: this is her evidence. But this is not the case for Jane.

What sets up the context in Jane’s case is when she learns that her parents had to follow a particular procedure to get children, without reference to one particular IVF attempt. This context does not imply that her parents made any attempt, actually. M0 is still a possible model in this context. It is her evidence that she exists that will favour one or the other model among M0, M1 and M2.

Her evidence will discard M0: the probability of our own existence is 0% with this model. It will favour M2 over M1. Her mother probably made two attempts. This raises the probability of her own existence from 10% to 20% (the case where the two attempts are succesful in M2 makes her existence twice as likely, so we get 20% instead of 19%).

Why doesn’t Jane consider our models M2 and M2 above? Because this would be asking a different question: whether she is her mother’s first or second child. Her evidence tells her nothing about this, and indeed, none of M1, M2 and M2 is boosted in this inferential context. But it also makes sense for Jane to ask how many times her parents tried IVF, and in this inferential context, her evidence favours the hypothesis that they tried twice.

To see that Jane’s reasoning is correct, we can imagine that there are many cases like Jane’s in the world. Imagine that 100 parents never attempt IVF, 100 parents attempt IVF only once, resulting in 10 children like Jane being born, and that 100 parents attempt IVF twice, resulting in 20 children like Jane being born. Twice as many children in Jane’s situation are children from parents that made two IVF attempts instead of one. So, each of these children would be right to infer that their parents probably made two attempts, because they are more likely to be among the 20 than among the 10.

So, Jane’s case is actually closer to the first scenario, despite her knowledge that her conception occurred. Her inferential context is one where she knows that her parents followed an IVF procedure once or twice, and what she learns from her own existence is not that the first attempt was successful, nor that the second attempt was successful, but only that at least one attempt (which happens to correspond to her conception) was successful.

Back to cosmology

How can we transpose our reasoning to the problem of fine-tuning?

Consider a cosmological model with only one universe U1, with a 10% probability that there is life in this universe, and another cosmological model with two universes U1 and U2, with 10% probability for each universe to contain life. This is exactly analogous to our models M1 and M2: a universe creation event is analogous to an IVF, and the development of life in this universe is analogous to a success leading to pregnancy. U1 incorporates a single universe hypothesis, and U2 a multiverse (actually, bi-universe) hypothesis.

We are in the situation of Jane. We do not know if we have “sibling” universes. We do not know if more than one universe was created. Our only evidence is that we are in a universe with life. We know that it is our universe, this universe, just like Jane knows that she is the result of her conception. However, we have no idea, under the hypothesis that the right model is M2, whether this universe would be U1 or U2 in the model. And just like in Jane’s case, our evidence that our universe contains life favours M2 over M1.

[Side note]
If there is a disanalogy between the cosmological case and the previous case, it lies in the fact that the justification we adopted (“imagine there are 300 situations like this one…”) cannot be adopted here. There is only one multiverse.

One way around this problem is to consider 200 possible situations like ours. In 100 of them, there is only one universe, and in 10 out of them, it’s a universe with life. In the 100 other situations, there are two universes. In 18 out of them, there is one universe with life, and in 1 there are two universes with life. Any possible population of a universe with life would be right to assume that they live in a multiverse, since this is the case for 20 possible universes among 30.

Is this fallacious reasoning? Perhaps, but then any probabilistic reasoning about multiverses will be fallacious, including White’s (see the side note in the introduction). But if we accept that probabilistic reasoning makes sense in this context, we should accept that the multiverse hypothesis is boosted by our evidence.
[End side note]

White insists that we must take into account our evidence that this universe exists, and that this fact is part of our background knowledge in Bayesian inference. The way he models this in his article amounts to pointing to one of the two universes in M2 and declare “this is our universe”. In essence, White asks us to consider the model M2 as the right representant of the multiverse hypothesis instead of the model M2. And he remarks that this model is not favoured by our evidence, which is right. But M2 is not the right model.

M2 would correspond to our situation if we had some means of identifying our universe with respect to other universes in the model. This would be the case, for example, if we were there before the creation of our own universe, just like Alice was there before Mary’s pregnancy. We could have pointed to our universe and say “let’s call this one U1, and let’s see if it contains life”. Then we would have applied our two models, M1 and M2, and see that none of the models is favoured by our evidence that U1 eventually contains life.

But that’s not how it works. There might be something that identifies our universe with respect to the other ones in the multiverse (perhaps they are ordered in a time sequence, just like Mary’s IVFs) but this is not some information to which we have access. We do not have the indexical information that White thinks we have that would allow us to locate ourselves in the multiverse.

We could use models like M2 and M2 if we wanted to know “is U1 in the model our universe, or is it U2?”, in the way Jane could wonder “am I the first or the second child?”, and as expected, our evidence would not favour any of the two hypotheses. But this is not the question that we want to ask in the context of fine-tuning. What we want to know is whether there are other universes. This is why we should consider M2 as the right model of the multiverse instead of M2 or M2. The fact that our situation resembles much more that of Jane than that of Alice is enough to make this point.

The difference between M2 and M2 is that the former comes with a “you are here” sign. Scientific models rarely come with a “you are here” sign, and theoretical models never do. They aim at generality. They’re interested in types, not in particulars, and cosmology, despite its peculiar object, the universe, is no exception to the rule. It applies to the universe the same methods that worked for other types of system, thus implicitly considering that our universe is just a representant of a certain type of physical object (modelled, for example, like an infinite gas, without any specification of our own position).

Now philosophers, drawn by metaphysical considerations, may wonder which “you are here” cosmological model is favoured by our evidence, taking into account our best scientific theories. It’s always nice to see metaphysicians taking into account the outcome of science in their reflection, but it would be better if they were paying due respect to what these models aim at before asking the wrong questions. In this regard, they should acknowledge that science has never been in the business of vindicating “you are here” models.

dimanche 5 juin 2022

Fine-tuning and Multiverses

There has been a discussion on Twitter regarding the view, expressed by Philip Goff, that the multiverse hypothesis is not a good explanation for fine-tuning (or, as he would probably say, cannot be inferred from the fine-tuning of our universe).

Short summary of Philip’s position

The constants of our universe seem to be fine tuned for life, which would be miraculous. How can we explain this? An apparently good explanation is a multiverse hypothesis together with a selection effect. The idea is that there are many universes with different values for constants, so the fact that some of them are suitable for life is not miraculous, and of course, we happen to be in such a universe.

According to Philip, an inference to this explanation is fallacious. It is an inverse gambler fallacy: seeing a double six when entering a casino, and inferring that there were many trials. The usual response is that it is not, because of a selection effect. If we are only allowed to enter the casino when a double six is rolled, we can infer that many trials were made before we were shown one. In the case of fine-tuning, we would not exist if the constants were not right, so there is a selection effect. But according to Philip, this move is fallacious.

After discussion, he reaches this case in a document published on his website (corrected on Twitter, I report the correction). It is supposed to be analogous to the problem of fine tuning with a selection effect, and the analog of an inference to many universes would still be fallacious:

Jane3:

Jane is the product of IVF. One day she discovers that the doctor who performed the IVF which led to her existence rolled dice to see whether to fertilise the egg, determining to do so only if she rolled a double six. The doctor only adopted this procedure once. Given that she exists, Jane concludes that other different doctors must have adopted this decision procedure in the case of many other potential IVFs.

The doctor rolling a dice corresponds to our universe “choosing” its physical constants, and the double six corresponds to the values of these constants that favour life. According to Philip, the final inference is fallacious.

“Her evidence is that a double six was rolled to decide whether her conception would go ahead. How many times [other doctors] have done this with respect to other potential conceptions has no bearing on how likely a double six was to come up in the case of her conception”

So, the existence of other unviverses cannot explain why the constants of our universe are suitable for life. The intuition behind this rejection can be given by comparing with a lottery case:

Lottery:

Jane buys a lottery ticket and wins. Given that she won, Jane concludes that many other people bought a lottery ticket as well.

This inference is absurd: what other people do does not change Jane’s probability of winning the lottery. This example does not have any selection effect, but the point is that it would be irrelevant. For example:

FatalLottery:

Jane buys a lottery ticket. Her enemy will kill her in her sleep if she loses the lottery. However, she wakes up and sees that she won. Given that she won, Jane concludes that many other people bought a lottery ticket as well.

The inference is still absurd with a selection effect. But are we in such a case with fine-tuning?

On the one hand, I am not personnally convinced that fine-tuning is a real problem (because I think it’s a theory-laden problem). But on the other hand, I think that Philip is wrong: were fine-tuning a problem, the multiverse would be a solution.

I will give three problems and a diagnostic for Jane3 case. Then I will return to the gambler fallacy and selection effect, and finally, briefly discuss whether the problem should be framed in inferential or explanatory terms, because this point came up in the twitter discussion.

First Problem

A first problem with Jane3 is that it’s analogous to the standard explanation for why the earth is habitable. The dice roll is analogous to the earth “choosing” its distance to the sun, its having a big satellite that stabilises its orbit, its being of the right mass not to lose its atmosphere, and all other unlikely factors that are necessary for life. This gives us the case:

Earth:

Life is a consequence of the formation of the earth. The characteristics of the earth that make it habitable are very unlikely to occur. Given that life exists, we conclude that many other planets with different characteristics have been formed in the universe. We just happen to be on one with the right characteristics.

In this case, the inference does not seem invalid at all to me, and it’s almost if not identical to the standard explanation for why there’s life on earth that nearly everyone accepts. But in order to be coherent, Philip should conclude in this case too that:

“Our evidence is that the earth has the right conditions for us to exist. How many times the process of planet formation occurred in other solar systems has no bearing on how likely the right conditions were to come up in the case of the earth.”

So, knowing that other planets exist is of no importance, it has no bearing on our problem, because what we want to explain is why the earth in particular had the right conditions for life, and we’re not interested in other planets. Then we should reject the widely accepted explanation for why the earth is habitable.

Philip’s response is that the standard explanation for why the earth is habitable is acceptable because we already know that there are other planets. However, it would be fallacious to infer that other planets exist from the mere fact that there is life on earth. But I think that this response is not acceptable. In the lottery case, we know that other players exist, and this does not change the fact that the inference is invalid. So, either the existence of other planets has no bearing on why the earth has the right conditions for life (then the standard explanation fails), or it has (then it succeeds), and this does not depend on our knowledge that other planets exist. Rather, as I will argue, it depends on the exact question being asked and what we want to explain.

Second Problem

The second problem with Jane3 (noted by Keith Frankish in the twitter discussion) is that the fine-tuning argument for the existence of God or any kind of designer seems to be fallacious as well if we try to apply it here. But Philip accepts this argument in the case of fine tuning. Take the following case, which is just Jane3 with a different conclusion:

LoadedDice:

Jane is the product of IVF. One day she discovers that the doctor who performed the IVF which led to her existence rolled dice to see whether to fertilise the egg, determining to do so only if she rolled a double six. The doctor adopted this procedure only once. Given that she exists, Jane concludes that someone loaded the dice so that the result of the roll was a double six.

I don’t think that this argument is particularly persuasive. Jane’s existence was unlikely, but that’s no reason for her to conclude that the dice were loaded, unless we have independent reasons to assume that someone really wanted her to exist. If not, she might as well not have existed.

[Added part]
Is it somehow surprising that there was a double six given the odds? If Jane is very special, yes, otherwise, we could assume that the procedure was adopted thousands of times by other doctors before her conception, and Jane is among the few successes. For Jane to ask “why me in particular?” would be like for a lottery winner to ask “why me?”. There has to be a winner. Jane was lucky, that’s all.
[End of added part]

However, Philip accepts the argument for design in the case of fine-tuning, and I think that he is right to do so (if fine-tuning were a real problem, that is). So what goes wrong? Maybe we could adapt the case to make the design argument work.

The point where this case departs from the standard fine-tuning argument is that the stakes are low: Jane is not special, there’s no reason someone would want her in particular to exist, so there’s no reason to assume that someone loaded the dice. But God would want life to occur. If we want to get closer to a design argument, we must therefore adapt the case and raise the stakes.

JaneAndTarzan1:

Jane and Tarzan are the last humans on earth. They are the product of IVF. One day they discover that just before the apocalypse, the aliens that were in control of the earth at the time obliged the doctor that performed their IVFs to roll dice each time to see whether to fertilise the eggs, determining to do so only if they rolled a double six. The doctor only performed two IVF following this procedure. Given that they both exist, Jane and Tarzan conclude that someone loaded the dice so that the results of the roll were each time a double six.

This is now more persuasive because we would understand why someone would do that: the existence of Jane and Tarzan is desirable. And it’s unlikely that this desirable result would obtain without the trick. But what if we go back to the original multiverse argument and make the same change?

JaneAndTarzan2:

Jane and Tarzan are the last humans on earth. They are the product of IVF. One day they discover that just before the apocalypse, the aliens that were in control of the earth at the time obliged all doctors performing an IVF to roll dice each time to see whether to fertilise the eggs, determining to do so only if they rolled a double six. Doctors can only perform two IVFs in their career. Given that they exist, Jane and Tarzan conclude that many different doctors must have made trials before to succeed.

I dare say that the inference is much more plausible now, and that unless we have independent evidence that only one doctor could perform IVFs, this is the best explanation for the existence of Tarzan and Jane. It’s even better than the loaded dice explanation. Shall we object that “how many other doctors have done this with respect to other potential conceptions has no bearing on how likely a double six was to come up in the case of [their] conception”? This seems simply irrelevant: Tarzan and Jane would not exist if doctors had not tried hard.

So, not only the design argument does not seem much more persuasive than the multiverse argument in Jane3, but attempting to make it more persuasive also saves the multiverse argument.

One could think that the idea that there were many doctors, or that dices are loaded, is deduced from the premise that people at the time really wanted humanity to survive, and not from the premise that Jane and Tarzan exist. I don’t think this is right: the will of the doctors merely reinforce the inference, but it is not necessary. I will come back to this soon.

Third Problem

A third problem (noted by @ Disagreeable_I on Twitter) is that the intuitions we have in Jane3 seem to be sensible to details that are apparently irrelevant. This means that the case is not very robust, and we might suspect that it was fine-tuned (!) to make us accept a particular conclusion. We have seen with Earth and with TarzanAndJane that different alterations prompted different intuitions, but we can already see it with a case that is much closer, almost equivalent to the original:

Jane3bis:

Jane is the product of IVF.  She learns that the success of IVF depends on the co-presence of many contingent factors. Any trial has only one chance over a thousand to be successful, and gives rise to a different baby when it succeeds. A doctor can only make an IVF once, but parents can see many doctors. Given that she exists, Jane concludes that her parents saw many doctors before her conception.

This case is almost identical to the original Jane3, with the dice replaced by a more realistic probabilistic process. Another important difference is that the many trials of the conclusion concern specific parents. But although similar, the inference does not seem as problematic as before, for some reason. People born from IVF would be right to suspect that given the randomness of the process, many trials were made before the success that resulted in their existence. Why this difference?

One view mentioned before would be that it is the high stakes that explain that many trials were made, and not their existence: parents that do IVF want a child, so they are likely to make many trials. The same rationale could be given for JaneAndTarzan. But this does not do justice to the intuition that what needs to be explained is that it would have been very unlikely for Jane to came to life after only one trial, whereas her birth is no surprise if many trials were performed.

We can make another change to the case in order to remove this parasitic effect of stakes.

Infertility:

Jane is the product of natural fecondation. She learns that her father is almost infertile: any intercourse has only one chance over a thousand to result in fecondation (each intercourse resulting in fecondation will give rise to a different baby). Furthermore, Jane learns that her parents never really wanted to have a baby. Given that she exists, Jane concludes that her parents probably had many intercourses, and that one of them accidentally resulted in her fecondation.

The inference still seems valid: it would be a miracle for Jane to exist if her parents only had one intercourse, so an explanation is that they had many. And this conclusion is not reached from the fact that they really wanted a child, but only from the fact that Jane exists. Indeed, Jane only has evidence for one intercourse, the one that resulted in her existence. She has no independent reason to assume that her parents had others. Only her existence and the infertility of her father favours this hypothesis.

This case is relevantly similar to the case of fine-tuning: the laws of nature as described by contemporary physics are “almost infertile”, they need very specific constants to produce life, and yet we exist. One explanation is that there were many “intercourses” with the same laws, but different constants.

Philip argues that in this case, the relevant evidence is not Jane’s existence, but her mother’s pregnancy. There’s something right in this diagnostic: relevance matters. But it cannot be the whole story, because the mother’s pregnancy can be deduced from Jane’s existence, and so, if we can infer many trials from pregnancy, we can also infer many trials from Jane’s existence. So, why wouldn’t it work in the original case too?  Is the fact that the conclusion concerns only Jane’s parents the main difference? But then in the original case too we could infer that many trials were made by her parents, with different doctors.

The most relevant difference seems to be this: in the original case, we only assume that the weird dice procedure was adopted in the case of Jane’s birth. It could be used elsewhere, but it’s not necessary. In the last case, and, actually, in all cases where the inference seems valid, we assume that a probabilistic procedure is necessarily involved in all possible members of a relevant set of possibilities (all planet formations, all the IVF that could have occurred before the apocalypse, or all the fecondations from Jane’s parents). Actually, the sole replacement of dices with probabilities associated with IVF does this, the relevant set being IVF born children: by natural necessity, these children are subject to a random process (the set of children born from the dice procedure is more ad-hoc, whereas IVF does not have to be chancy by definition, but it happens to be).

Note in passing that in the case of fine-tuning that interests us, it seems fair to assume that the probabilistic procedure (selection of physical constants) is necessary rather than contingent, that is, that it is involved in all possible universe creations (even if there’s only one universe).

We can now see how Jane3 is specially designed to prompt anti-multiverse intuitions: it insists that the dice procedure is only contingently attached to specific instances of fecondation that have nothing else in common (not even being performed by the same doctor). My diagnostic is that this tiny difference changes the question being asked, or what is relevant for the explanation and what needs to be explained.

The Diagnostic

I will frame my diagnostic in terms of explanation, because I think that this is the appropriate setting: we are looking for an explanation to fine-tuning (I will discuss Philip’s inferentialist approach in the last section, but we can get to the same results). What happens in all our cases is that someone infers an explanation from something that seems unlikely.

An explanation is a response to a why question. A why question is generally analysed by means of a contrast class: why X rather than Y? We could add that an explanation generally takes for granted a background context C that remains fixed in counterfactual reasoning (whether X or Y is the case), some kind of “all other things being equal” clause. The explanation normally takes the form of a counterfactual: an answer “because Z” could be analysed as: “given C, if Z had not been the case, then we would have had Y instead of X (or X would have been less likely)”.

Example: “why did my house burn (rather than not)?”
Answer: “because the candle fell”, analysed as: “all else being equal (there is oxygen in the air, this is a wooden house, etc.), if the candle hadn’t fallen, your house wouldn’t have burnt”.

My diagnostic is that the contrast class is different in all cases, which is why the inference is valid in some cases and not in others. The contrast class is induced by the presentation of the case.

The original Jane3 case prompts us to ask “why does Jane exists rather than not?” (this is at least the question implicit in the objection provided by Philip), and the LoadedDice case as well. The problem with this case is that this is a weird question to ask. There is no answer to why a random process gives a certain result, no relevant counterfactual to give: it’s like that.

The Earth case prompts us to ask a different question: “why is life possible at all?” The contrast class is not “why the earth in particular has these characteristics rather than not?” but “why is there a planet with these characteristics in the universe (which happens to be the earth) rather than none?”. The right answer is “because there are many planets with different characteristics” (had it not be the case, habitable planets would probably not exist). Only then can we infer, by means of the selection effect, that the earth must be one of these possible objects, because we’re no more troubled by the impossibility of its existence.

We saw that raising the stakes makes for a more convincing case. What raising the stakes does is switching the contrast class of the explanation. In JaneAndTarzan, what interests us is no more why Jane and Tarzan in particular exist rather than not, but rather why some people (who happen to be Jane and Tarzan) exist rather than nobody. What stakes do is point to what is special about the instance we wish to explain, and this gives us the right contrast class. In the original case, Jane is only special as the person on which the case focuses. On the other hand, Jane and Tarzan are special qua last survivors of an apocalypse.

Finally, specifying that all members of a class of object must necessarily be subjected to a random procedure also gives us a potential contrast class, which are these objects. The question can then become: why is there an instance of this class rather than none? Refusing to attach a random procedure to a specific class of objects, as Jane3 does, dissuades us from using this constrast class.

Depending on what question is asked, an inference or explanation can be valid or not. If the question is “why Jane in particular exists rather than not?” then no explanation is really valid. If the question is “why an IVF born child (Jane) exists rather than none?” then many explanations become relevant: perhaps it’s God, or some kind of design, or perhaps it’s many trials, and unless we have evidence that there was only one trial, invoking God should probably be avoided (why would God want life to occur in our universe rather than in any other?). And the same goes if the question is “why do these parents have a child (Jane) rather than none?”.

Interestingly, the design explanation and the multiverse explanation are relevant for exactly the same kind of questions. The questions where they are not relevant are indexed to particular instances of random processes and their outcomes. These questions are contrived and uninteresting, the only response being “it just is, it’s random”. Philip forced us to answer this kind of uninteresting question to make his case against the multiverse, in particular because his setting implies that the random process is only contingently attached to particular instances.

The problem of fine-tuning is not this kind of uninteresting question. The process of selection of constants is presumably involved not only with our universe, but with all possible universes. We do not want to know “why this particular universe has the right constants rather than not?”. What we want to know is why a universe suitable for life is possible at all given the apparent unlikelihood of such a universe, that is, “why a universe of this kind (ours or any, really) exists rather than none”. And the multiverse hypothesis gives us an adequate explanation.

Gambler Fallacies, Selection Effects and Rigidity

What was said in the previous section can be shown by providing very abstract cases and making variations that will imply a relevant contrast class. Take for example:

Abstract1:

X is an object of type A. Instances of A are necessarily the result of a random process of type P with a very tiny probability of success. Given that X exists, we infer that many processes of type P occurred, and not just one.

The inference seems valid in this abstract setting. It doesn’t seem right to say “how many processes of type P occurred has no bearing on the likelihood of this particular instance”, because we are interested in X only as an instance of a A, and had not many processes occurred, there would probably be no object of type A. So the inference from “there is a A” to “there are many Ps” is valid.

Now moving to a case where the procedure is not necessary:

Abstract2:

X is an object of type A. Instances of A can be produced in many ways, but X in particular was the result of one specific random process of type P with a very tiny probability of producing an object of type A. Given that X exists, we infer that processes of type P occurred many times.

In this case, is the inference valid? If the contrast class is still A, then many occurrences of P do not really explain that there are As because had these occurrences not been there, there would still be other As. But I think that with this presentation, we are drawn into thinking that the relevant contrast class must be X alone. “There is a A” is not the right starting point for the inference, because there is no strong link between As and Ps. However, there is a strong link between X and an instance of P. Now the inference could be valid in the sense that many P increase the likelihood of existence of the particular P that led to X. This amounts to introducing an artificial class of objects to which X belongs: the products of instances of P, asking why there are instances of this class rather than none. But this class is ad-hoc, and the contrast class “why X exists rather than not” is more natural.

But what about the lottery case in the introduction? And what about the inverse gambler fallacy? They seem to be instances of Abstract1: my winning the lottery is an instance of lottery winning, the result of a random process of type buying a ticket with tiny probability of producing a winning. But given my winning, I do not infer that many people bought a ticket. The double six I see is an instance of successful dice roll, the result of a process of type dice roll with tiny probability of success. But given the double six, I do not infer that many dice were rolled. What goes wrong?

In these cases, the problem does not come from an induced contrast class, but from an induced background context. The fact that I bought a ticket is part of the background, it is kept fixed in the inference. So, many people buying a ticket does not change the probability of me buying a ticket. Same for the fact that I saw a dice roll just after entering the casino.

[Edited part]
What is part of the background context or not depends, I would say, on the way our relevant evidence is identified. In particular, it seems, from the lottery and casino example, that when the random process we are interested in is causally related to us (its reference is fixed) in a way that is independent of its outcome, then the existence of this process instance will be part of the background context. We rigidly refer to it, so to speak. This forces us to ask questions about this instance in particular. So, for example, I would buy a lottery ticket come what may, my causal relation to the lottery ticket is independent of whether it is a winning ticket, the outcome. The same goes for the dice roll I see in the casino. But if we add a selection effect, if I am only allowed to enter in the casino when a double six is rolled for instance, then the specific instance I see is causally related to me in a more complex way that crucially depends on its outcome, the result of the roll. The reference can be fixed only after the outcome. Then the rigid reference is not reference to the particular instance of random process, but rather to a type or a property: what is fixed “in all possible worlds” of the explanation is not the particular object that constitute my evidence, but the fact that the object, whatever it is, with which I will be in contact will correspond to a particular outcome, if I am in contact with an object at all. Not all selection effects have this result though. If someone kills me or not depending on whether I won the lottery (as in FatalLottery), or if someone shows me one particular roll only if its result is a double six, I am still causally related to a specific lottery ticket or dice roll independently of its result: this is how the instance is first identified and the reference fixed.

In the special case where I am myself the product of a random process, the reference is not fixed independently of its outcome. There can be no reference (by me) to the process prior to its outcome.

Taking this into account, we can propose the following case:

AbstractRigid:

Random processes of type P have a very tiny probability of producing an object of type A. We came to identify and be interested in a particular process p of type P by means of causal relations that are independent of the fact that p produced an object of type A. We observe that p produced X, an object of type A. Given the existence of X, we infer that many other processes of type P occurred as well, and not just p.

This is an invalid inference. Since the existence of p is part of the background context and since X is identified as the product of P, and not as any A, the contrast class that is forced upon us is “why p produced X rather than not?” and the number of instances of P becomes irrelevant. (In Abstract2, rigid reference to a process was induced by the relevant contrast class. In this case, it is the other way around.)

Abstract1 now appears to be vague, and we could amend it to reflect the fact that no particular instance of P was referred to before we could know whether it would produce an X or not.

AbstractNonRigid:

X is an object of type A. We came to identify and be interested in X by means of causal relations that crucially depend on the fact that X is a A. Instances of A are necessarily the result of a random process of type P with a very tiny probability of success. Given that X exists, we infer that many processes of type P occurred, and not just one.

In this case, the inference is valid.

The main factor of rigid reference is whether random processes are merely identified qua generators of a general class (AbstractNonRigid) or by means of reference to particular objects (AbstractRigid and Abstract2). When a process is not attached to a class of object, but only contingently to its instances, as in Jane3, the process can only be identified by means of particular objects. This is the trick Philip used because he wanted us to refer rigidly to a particular random process (to our universe), even though he had to depart from the AbstractRigid case because of some criticisms. When the random process is necessarily attached to a class of object, as in Lottery, Earth or Jane3bis, both kinds of identification are possible, but the right kind of filter effect removes rigidity.

What kind of case is the case of fine-tuning? I think that the answer is clear: it is an AbstractNonRigid case. We came to identify and be interested in our universe not by some direct acquaintance with an instance of selection of physical constants, independently of its outcome, but by acquaintance with what this universe produced after the constants were selected. Our capacity to refer to the universe crucially depends on the fact that it is suitable for life, so the right kind of selection effect is present. This excludes AbstractRigid. Furthermore, the relevant random processes are identified theoretically, qua hypothetical constants generators attached to the class of objects to which our universe belongs. They are not contingently attached to our universe in particular. This excludes an Abstract2 case.

Hence, we should not rigidly refer to our universe in our reasonning (assuming its existence in the background context), but only to the kind of properties that it features, which is what we are really interested in: life, etc. This makes it possible to concentrate on the contrast class “why is is there a universe with the right constants for life rather than none” instead of “why does this particular universe have the right constants for us to be there rather than not”. The same goes in many of the cases analysed before: JaneAndTarzan, Earth, etc.
[end of edited part]

Explanations or Inferences?

All this is framed in terms of explanations, but Philip complains that we should think in terms of inferences: from our evidence that we exist, or that the constants in our universe have such values, can we infer that there is a multiverse, using Bayesian inferences?

I should first say that I’m not convinced at all that the problem should be couched in terms of Bayesian inference. We could say that A explains B just in case prob(B|A & C) > prob(B|~A & C), but this is just an old model of explanation that has been abandoned because it suffers from the problem of relevance and from the problem of symmetry (our barometer could explain a storm with this account). Explanations are not simple deductive relations: they are better analysed by a counterfactual, as already explained.

Yet it can still be instructive to understand what is going on from a purely inferential point of view, without bothering us with these problems. For this purpose, we can take our three abstract cases. Note that in Bayesian inferences as well we have to condition on a background context (the C in the formulas of the previous paragraph). Also note that it is legitimate to deliberately remove part of our knowledge from the background, which is done for example to account for old evidence in favour of new theories.

In AbstractNonRigid, the likelihood of having a A given many processes of type P is clearly higher than if there’s only one P, so a Bayesian inference to many P is valid. The likelihood of our direct evidence X is increased as well, because the likelihood of occurrence of the particular process leading to X is increased. We should not assume that the existence of this process is part of the background context (in the fine-tuning cases, we should not assume as background that our universe exists, as is often done in the literature in order to block the multiverse hypothesis).

In AbstractRigid, the induced interpretation is that a particular instance of P, which happens to produce a X, is part of the background context (its likelihood is 1). This makes the inference from X to many processes invalid, as expected, because given that P is instantiated, other Ps will not increase the probability of our evidence.

In Abstract2, which corresponds to Philip’s Jane3, the probability of having a A can be marginally increased by many Ps, but the natural interpretation is that the process leading to X is part of the background context, so the inference from X to many Ps is invalid too for the same reasons.

So, we get the same right results. As argued in the previous section, the problem of fine-tuning is an instance of AbstractNonRigid, and therefore the inference from our evidence to the multiverse is valid.

So, despite framing the discussion in terms of explanations, I think that we can retrieve the same results by focusing on Bayesian inferences. The interest of talking in terms of explanations is only that it makes clear that before making an explanatory inference, we must assume a background context and a relevant contrast class, and these are sensitive to the kind of counterfactual/causal statement that is involved in the explanation, something that pure Bayesian inference cannot capture.