tag:blogger.com,1999:blog-29049281756564354622024-03-13T12:26:40.942+01:00Un grain de sabledans le désert de la communication de masseQuentin Ruyanthttp://www.blogger.com/profile/18395553776256376317noreply@blogger.comBlogger223125tag:blogger.com,1999:blog-2904928175656435462.post-8291139250895753072024-01-16T17:56:00.016+01:002024-01-16T18:56:15.311+01:00Réalisme moral<p>Il existe des raisons instrumentales : si je veux atteindre un but,
je dois agir de telle manière. Par exemple, si je veux que ma plante
survive, je dois l’arroser. Mais on peut dire que le “dois” de ce type
de cas dérive du fait que je “dois” atteindre mon but (faire en sorte
que ma plante survive). Ce n’est pas un devoir primitif, mais dérivé. Et
mon but est peut-être encore un moyen d’en atteindre un autre, en quel
cas il est lui aussi instrumental. Une manière de formuler la question
du réalisme moral est de se demander s’il existe des raisons ultimes,
non instrumentales, c’est-à-dire si la chaîne des raisons qu’on remonte
en se demandant “pourquoi faire cela ?” à chaque étape se termine
quelque part. Si c’est le cas (si ce n’est pas juste un “pourquoi pas”),
et si ce quelque part n’est (au moins dans certains cas) pas relatif à un agent
et à ses désirs contingents, si cette raison ultime est aussi
universelle et objective, alors on peut dire que “la vie a un sens” en quelque sorte et le réalisme moral est vrai.</p><a href="http://ungraindesable.blogspot.com/2024/01/realisme-moral.html#more">Plus d'infos »</a>Quentin Ruyanthttp://www.blogger.com/profile/18395553776256376317noreply@blogger.com0tag:blogger.com,1999:blog-2904928175656435462.post-23148368227888129042023-12-02T22:46:00.045+01:002023-12-03T12:47:51.434+01:00Do Physicists Assume that Electrons Exist?<div style="float:right"><a title="Pongkaew, CC0, via Wikimedia Commons" href="https://commons.wikimedia.org/wiki/File:Superconductor-levitation.jpg"><img width="256" alt="Superconductor-levitation" src="https://upload.wikimedia.org/wikipedia/commons/thumb/f/fa/Superconductor-levitation.jpg/256px-Superconductor-levitation.jpg"></a></div>
<p>Scientific realism was the main topic of my PhD dissertation, so I
feel that I should say something on the recent debates on Twitter on the
existence of electrons, between Philip Goff and Sabine Hossenfelder.
Here is a quick comment.</p>
<a href="http://ungraindesable.blogspot.com/2023/12/do-physicists-assume-that-electrons.html#more">Plus d'infos »</a>Quentin Ruyanthttp://www.blogger.com/profile/18395553776256376317noreply@blogger.com0tag:blogger.com,1999:blog-2904928175656435462.post-28184132392556884842023-03-01T23:05:00.066+01:002023-04-19T09:11:17.051+02:00La neutralité de la science vis-à-vis des valeurs sociales : un idéal obsolète ?<p>Je me suis plongé récemment dans la lecture sur l’idéal de neutralité
axiologique de la science ("value-free ideal") et ait quelque peu évolué sur ces questions.
Ce post a principalement pour but de faire état de mes conclusions et de
référencer les sources qui m’y ont amené.</p>
<dl>
<dt>L’idéal de neutralité axiologique:</dt>
<dd>
<p>La science vise uniquement le <em>vrai</em> (ou la connaissance, la
compréhension, etc.), et non pas ce qui est bien ou politiquement
souhaitable. Donc <strong>les scientifiques ne devraient pas faire de
jugements de valeur au moment d’accepter ou de rejeter des
hypothèses</strong>, mais seulement accepter les hypothèses qu’ils
jugent très probablement vraies (ou apportant connaissance /
compréhension) <strong>suivant des standards internes à la science,</strong> conformes à son but, <strong>
indépendants du reste de la société</strong>.</p>
</dd>
</dl>
<h2 id="ce-quest-est-nest-pas-lidéal-de-neutralité">Ce qu’est et n’est
pas l’idéal de neutralité</h2>
<div style="float: right"><a title="SMU Libraries Digital Collections, No restrictions, via Wikimedia Commons" href="https://commons.wikimedia.org/wiki/File:(Parachute_Descent).jpg"><img width="256" alt="(Parachute Descent)" src="https://upload.wikimedia.org/wikipedia/commons/thumb/5/5b/%28Parachute_Descent%29.jpg/256px-%28Parachute_Descent%29.jpg"></a></div>
<p>J’entend parfois dire que l'idéal de neutralité axiologique serait mort et enterré dans la
littérature philosophique contemporaine. Ce n’est pas tout à fait juste,
beaucoup d’auteurs et autrices le défendent plus ou moins explicitement
(des références au fil de l’article). Rappelons quelques points
importants à ce titre :</p>
<ol type="1">
<li><p>Il s’agit d’un idéal. Ses défenseurs n’affirment pas que la
science a déjà atteint cette neutralité vis-à-vis des valeurs sociales,
seulement que c’est souhaitable.</p>
<ul>
<li>Donc pointer des entorses à la neutralité, des biais masculinistes
en archéologie par exemple, n’est pas un argument contre l’idéal. Au
contraire : le fait même de présenter une influence de valeurs sociales
comme un <em>problème</em> pour l’objectivité semble impliquer qu’on
adhère à cet idéal, et à la limite, critiquer l’idéal de neutralité
pourrait empêcher de voir un problème (autre que moral) dans les biais masculinistes
(cf. <a href="https://muse.jhu.edu/article/199508/pdf">Stéphanie Ruphy
2006</a>)</li>
</ul></li>
<li><p>Ceci dit, adhérer à l’idéal suppose de penser qu’il est en
principe atteignable ou au moins qu’on peut s’en approcher indéfiniment
(si c’est un idéal régulateur), et aussi que les scientifiques le font plus ou moins. L'idéal n'est pas non plus censé être entièrement déconnecté
de la pratique scientifique.</p>
<ul>
<li>Donc pointer une impossibilité <em>de principe</em> de s’abstenir
de jugements de valeur en science, ou pointer la présence entièrement généralisée de jugements de valeur
sans que les scientifiques n'estiment qu'il y a un problème particulier peut fonctionner comme argument
contre l'idéal, en une certaine mesure.</li>
</ul></li>
<li><p>Mais attention, il ne faut pas confondre valeur et perspective /
position sociale. Être un homme n’est pas la même chose que de défendre
des valeurs masculinistes. (cf. <a
href="https://link.springer.com/article/10.1007/s13194-022-00490-w">Hannah
Hilligardt 2022</a>).</p>
<ul>
<li>Donc affirmer qu’on ne peut échapper à sa position sociale, et qu’il
est donc souhaitable d’intégrer des perspectives variées, par exemple
des perspectives féminines en archéologie, pour combler des points
aveugles dans la recherche, n’est pas en soi une négation de l’idéal de
neutralité : le fait que les femmes, de par leur expérience sociale,
puissent être dotées de compétences <em>épistémiques</em> plus
difficilement accessibles aux hommes n’implique
pas que ces compétences s’appuient sur des <em>jugements de
valeur</em>.</li>
</ul></li>
<li><p>Enfin l’idéal concerne uniquement la justification des
hypothèses, “en interne” pour ainsi dire. Les interactions avec le reste
de la société, même quand elles participent à la production de connaissances, peuvent
tout à fait être guidées par des valeurs sans enfreindre l’idéal (<a
href="https://doi.org/10.1515/9780691209753">Helen Longino 1990
ch. 5</a>).</p>
<ul>
<li>Mettre en avant le rôle des valeurs sociales quand il s’agit de
sélectionner ou financer des programmes de recherche jugés plus
importants que d’autres, comme la recherche contre le cancer, ou de bannir des méthodes de collecte de
données comme l’expérimentation animale, est compatible avec l’idéal de
neutralité, car ça ne touche pas à la justification des hypothèses.</li>
</ul></li>
</ol>
<p>Ceci met la barre assez haut pour qui veut rejeter l’idéal de
neutralité axiologique. On voit que ni pointer des biais à l’oeuvre en
science, ni mettre en avant l’inévitabilité du positionnement social de
chacun, ni faire valoir que la société a son mot à dire sur l’importance
des recherches ne constituent de bons arguments contre un idéal de
neutralité bien compris. Pour le rejeter, il faut argumenter que <em>les
jugements de valeurs sont en principe inévitables, non problématiques, voire souhaitables,
pour l’acceptation ou le rejet d’hypothèse scientifiques en particulier</em>. Pourquoi
le penser ?</p>
<h2
id="largument-de-limprégnation-des-catégories-par-les-valeurs">L’argument
de l’imprégnation des catégories par les valeurs</h2>
<p>Un premier argument que je trouvais initialement convaincant en
faveur de l’inévitabilité des jugements de valeur est l’idée que les
catégories scientifiques sont parfois imprégnées de valeurs : par
exemple, ce qui compte ou non comme maladie psychologique ou comme
violence domestique pourra dépendre de ce qu’on juge souhaitable ou non
dans un contexte social. On trouve cette idée chez <a
href="https://academic.oup.com/book/9983/chapter-abstract/157349775">John
Dupré (2007)</a> et d’autres.</p>
<p>L’argument proposé par <a
href="https://link.springer.com/article/10.1007/s10670-015-9793-3">David
Ludwig (2016)</a> est assez simple pour être reproduit ici :</p>
<ul>
<li>La vérité ou fausseté d’une hypothèse dépend de choix ontologiques
(des choix de catégorisation).</li>
<li>Les choix ontologiques dépendent de valeurs sociales.</li>
<li>Donc la vérité des hypothèses dépend des valeurs sociales.</li>
</ul>
<p>Mais j’avoue que l'argument ne me convainc pas pour la raison suivante : je
pense que c’est la signification d’un énoncé qui dépend de choix
ontologiques, et non pas la vérité d'une hypothèse.
La vérité d’une hypothèse exprimée par un énoncé, <em>une fois sa signification fixée</em>,
dépend essentiellement du monde. En ce sens, les choix ontologiques
s’apparentent plutôt aux choix de programmes de recherche (quelle
hypothèse tester ?) qu’à des choix sur ce qui est à accepter ou à
rejeter, et on a vu que les jugements de valeurs sur ces aspects sont
compatibles avec l’idéal de neutralité.</p>
<p>Ceci m’amène à douter, au delà de cet argument en particulier, que le
fait que les catégories soient chargées de valeurs constitue réellement
un problème pour l’idéal de neutralité. Il me semble en effet que
<strong>la science vise généralement à rendre ses catégories précises et
opérationelles</strong>, quitte parfois à introduire des termes
techniques pour remplacer les termes vernaculaires trop chargés. Cette
précision des catégories et opérationalisations utilisées me semble
indéniablement être un idéal poursuivi par la science, un critère de
bonne science dans la plupart sinon toutes les disciplines
scientifiques. Et ce que ce critère de précision réalise, c’est une
indépendance vis-à-vis des valeurs sociales pour <em>l’évaluation</em>
de la vérité ou de la fausseté des hypothèses.</p>
<p>Pour voir ceci, prenons un exemple: une recherche sur les violences
domestiques. Si l’on laisse le termes “violence domestique” imprécis,
alors évaluer à quel point celles-ci sont répandues sera laissé à la
discrétion des scientifiques responsables de la collecte des données.
Disons que ceux-ci ont tendance à juger que certaines situations ne sont
pas bien graves, et donc rechigneront à parler de violence, quand
celles-ci jugeront que ces situations sont terribles, et constituent
donc bien des situations de violences domestiques : les valeurs
influencent directement les résultats obtenus. Si maintenant on se met
autour d’une table pour décider de critères précis, alors <em>dans
l’idéal</em>, aucune place n’est laissée aux jugements de valeurs au moment de l'interprétation des données :
ceux-ci pourront considérer qu’une situation n’est pas bien grave, mais,
respectant les choix faits en amont, ils devront la classer comme
violente et à l’inverse pour celles-ci. La précision des catégories a
bien pour effet d’éliminer les jugements de valeur (ou plutôt de les
reléguer en amont de la collecte des données).</p>
<h2>Les choix ontologiques sont-ils moraux ?</h2>
<p>Bien sûr, la bonne manière de préciser les catégories et de les
opérationaliser dépend de ce qu’on veut en faire, et donc en partie de valeurs
sociales (mais aussi en partie du monde : certaines catégorisations sont plus fructueuses
que d'autres). On peut considérer que les choix de catégorie font partie intégrante de la recherche,
et affirmer que les valeurs ont un impact ici s'apparente à une concession faite aux
détracteurs de l'idéal de neutralité. Par exemple, des scientifiques pourront publier le résultat “la
violence domestique est inexistante” juste parce qu’ils ont fait des
choix méthodologiques douteux, et en surface, on peut avoir l’impression
que de mauvais jugements de valeurs ont directement affecté l’acceptation de l’hypothèse “la
violence domestique est inexistante”, quand de <em>meilleurs jugements de valeurs</em> auraient permis d'aboutir
à une conclusion plus censée à travers une meilleure opérationalisation de la catégorie.
En ce sens, les jugements de valeurs seraient inévitables et les "bons" jugements de valeurs souhaitables en science.
</p><p>
Ce qu'on peut se demander ici, c'est si le fait de bien caractériser la violence domestique relève
réellement du jugement de valeur. Après tout, le tort des scientifiques dans cet exemple est de proposer
une compréhension idiosyncratique d'un terme qui a déjà une compréhension commune (voire également
une compréhension scientifique ou juridique). Le jugement erroné me semble <em>sémantique</em> et non <em>moral</em> :
ils se trompent sur ce qu'est la compréhension d'un terme, sur les normes d'usage. Cette erreur est peut-être influencée par leurs valeurs,
mais remarquer ceci ne fait que renforcer l'idéal de neutralité. S'ils avaient mis de côté leur
tendance à amoindrir la violence domestique, ils auraient employé une acception commune, reconnue, du terme.
À ce titre, employer une conception trop libéral de la violence domestique pour arriver à la conclusion
qu'elle est omniprésente serait tout aussi problématique. Ce qu'on attend d'une recherche objective,
et ce qui fait d'ailleurs partie des bonnes pratiques en science, c'est un <em>alignement sur les standards</em> en matière
de compréhension des termes, de manière à ce que le résultat de la recherche soit correctement
interprété par notre communauté linguistique. Et cette alignement ne demande pas de jugement de valeur de la part des
scientifiques. Le fait que ces standards ou cette compréhension commune soit chargée de valeurs
n'est pas un problème pour la neutralité, puisqu'elle ne relève pas de la compétence du scientifique: il ne s'agit pas d'un aspect interne à la science.
</p><p>Le seul cas où on pourrait suspecter qu'un jugement de valeur doit être émis, c'est quand les standards sont encore
inexistants ou imprécis. Mais on peut suspecter que les choix faits en la matière sont principalement pragmatiques : adopter une
compréhension précise, simple, facilement opérationalisable, conceptuellement cohérente, fidèle au sens commun et qu'on soupçonne fructueuse sur
le plan explicatif... (ici j'entend par critère pragmatique ce que d'autres appellent "valeurs épistémiques", la raison étant qu'en tant que non-réaliste, je ne
considère pas que ces critères visent le vrai, mais je considère qu'ils s'agit de critères <em>rationnels</em>, indépendants du contexte social).
Savoir refléter de manière appropriée le sens commun peut demander une sensibilité ou une empathie, plus facilement accessible à ceux
qui ont une expérience sociale particulière, mais j'y vois personnellement une compétence cognitive plutôt que morale (bien
que je serais prêt à concéder que les distinctions deviennent un peu floues ici).</p><p>
Dans tous les cas, le fait d'adopter des définitions précises garantie une certaine objectivité dans le résultat de la recherche :
on peut trouver ce résultat peu pertinent si l’on pense que les catégories utilisées sont mal choisies, mais on ne
peut le trouver <em>faux</em> si le travail a été correctement réalisé. Ceci est cohérent avec l'idéal de neutralité axiologique.</p>
<h2 id="largument-du-risque-épistémique">L’argument du risque
épistémique</h2>
<div style="float: left"><a title="SMU Libraries Digital Collections, No restrictions, via Wikimedia Commons" href="https://commons.wikimedia.org/wiki/File:(Parachute_Descent)_-_36111529490.jpg"><img width="256" alt="(Parachute Descent) - 36111529490" src="https://upload.wikimedia.org/wikipedia/commons/thumb/b/b2/%28Parachute_Descent%29_-_36111529490.jpg/256px-%28Parachute_Descent%29_-_36111529490.jpg"></a></div>
<p>L’argument à l’encontre de l’idéal de neutralité qui est je pense le
plus influent, le plus repris dans la littérature, et qui m’a moi même
le plus convaincu est l’argument du risque épistémique.</p>
<p>L’idée est assez simple : pour accepter ou rejeter une hypothèse sur
la base de données incertaines, il faut adopter des standards
d’adéquation (par exemple une p-value à 5%, c’est à dire que la
probabilité d’obtenir les données obtenues si notre hypothèse était
fausse serait inférieure à 5%). Or ces standards sont arbitraires. Il
dépendent essentiellement du risque qu’on est prêt à prendre : accepter
une hypothèse à tort, ou bien la rejeter alors qu’elle était vraie. Et
ces risques dépendent de nos valeurs, de l’importance qu’on accorde aux
erreurs.</p>
<p>Ainsi, on adoptera des standards beaucoup plus exigeants avant de
déclarer que la sangle d’un parachute est sûre que avant de déclarer que
la sangle d’un sac à dos est sûre, parce que dans le second cas,
l’erreur a une importance moindre. Ce qui n'a rien de problématique.</p>
<p>Ce qui est intéressant avec cet argument est qu’on peut facilement
l’étendre. Considérer qu’une hypothèse est confirmée n’est jamais une
simple affaire de statistiques. Dans le cas de la sangle du parachute,
il s’agit de vérifier un ensemble de conditions variées (humidité,
etc.), un ensemble de sources d’erreurs possibles. Il s’agit, en somme,
de tester la robustesse de l’hypothèse vis-à-vis d’un ensemble plus ou
moins large d’hypothèses concurrentes (<a href="https://link.springer.com/chapter/10.1007/978-3-319-23015-3_23">Jonah Schupbach 2015</a>),
et de s’arrêter quand on peut croire l’hypothèse “au delà de tout doute raisonnable” (on n’ira
peut-être pas jusqu’au doute métaphysique). L’étendue des hypothèses
concurrentes qu’on jugera raisonnable d’envisager avant d'accepter définitivement l'hypothèse
(ce qui coûte du temps et de l’argent) peut en principe dépendre de l’importance qu’on accorde
à obtenir un résultat fiable, donc de nos valeurs. Ceci contredit directement l’idéal de neutralité
axiologique.</p><p>Il y a un lien assez
directe avec la notion classique en philosophie des sciences de
sous-détermination par l’expérience (il existe toujours une infinité
d’explications possibles, les données empiriques ne sont jamais
pleinement déterminantes), ce qui fait que l’argument du risque
épistémique est un argument potentiellement très général. Il s'applique en principe aussi bien
à l'interprétation d'observations concrètes (est-ce ou non une tumeur ?) qu'à l'évaluation
de théories générales (<a href="https://www.pdcnet.org/logos-episteme/content/logos-episteme_2018_0009_0004_0413_0431">P Magnus 2018</a>). Mais il est
plus souvent employé pour l’évaluation des hypothèses ayant des applications très directes.</p>
<h2 id="contre-le-risque-épistémique">Contre le risque épistémique</h2>
<p>Voilà où j’ai révisé un peu mes positions à la lecture de la
littérature philosophique : je suis en fait <em>moins convaincu
qu’avant</em> de la pertinence de cet argument, pour différentes raisons. Il y a d’abord
des raisons de portée :</p>
<ul>
<li>L'argument s’applique uniquement aux contextes d’incertitude et de ressources limitées.
Plus on a la possibilité de réduire le risque d’erreur en produisant
de nouvelles données ou des tests variés, moins le jugement de valeur
devient essentiel.</li>
<li>Il ne concerne pas, au fond, ce qu’on devrait croire ou non, qui ne varie
pas d'un contexte à l'autre et ne dépend pas du risque (au moins suivant les conceptions majoritaires), mais plutôt s’il faut agir ou non
sur la base d’une croyance, ou la manière
dont les résultats de la recherche doivent être communiqués aux décideurs dans un contexte donné (<a
href="https://link.springer.com/article/10.1007/s11229-014-0554-7">Stephen
John 2015</a>).</li>
</ul>
<p>L'argument s’applique donc principalement, comme déjà dit, aux recherches directement appliquées
ou commanditées par des institutions politiques, des contextes au sein desquels il <em>faut</em>
prendre une décision malgré l'incertitude : par exemple, interdire ou non une substance chimique.
Cette limitation de portée est quand même très problématique pour
l’argument, parce que l’idéal de neutralité est bien (encore une fois)
un idéal, et ici, on parle de conditions qui ne sont pas forcément des
conditions idéales : quand la science est directement mise à
contribution pour l’action, et manque de ressources.</p>
<p>En dehors de ces contextes particuliers, le risque d'erreur n’est plus vraiment évaluable parce que les
résultats de la recherche peuvent être utilisée de multiples façons
qu’il est difficile d’anticiper. Ce qu'on veut savoir, c'est ce qu'il faut <em>croire</em>, et non comment agir. Or, quand c'est le cas, on peut juger que la science a tout intérêt à
maintenir des standards d’adéquation très élevés lors des tests
empiriques, en augmentant notamment le nombre de tests jusqu'à obtenir des données concluantes quand c'est possible, quitte à ne pas se prononcer quand les résultats sont
incertains. Il s'agit de maintenir son statut d'institution digne de confiance :
un résultat validé par la science doit être fiable pour à peu près
n’importe quels buts. Abaisser les
standards pour des raisons politiques serait extrêmement dommageable à
long terme pour sa crédibilité (<a
href="https://link.springer.com/article/10.1007/s11229-014-0554-7">Stephen
John 2015</a> -- pour John c'est vrai même dans les contextes de décisions politiques, mais
j’ai plus de doutes la dessus, cf. <a
href="https://www.cambridge.org/core/journals/philosophy-of-science/article/abs/nonepistemic-values-and-the-multiple-goals-of-science/77246B694CE639660EFA83D50C5422EB">Kevin
Elliott 2014</a>)). Or adopter des standards systématiquement très élevés revient, dans les
faits, à se rendre imperméable aux jugements de valeur, puisque les données s'avèrent alors plus décisives (au moins si l’on
accepte qu’il s’agit d’un choix tri-partite: accepter, rejeter, ou ne
pas se prononcer).</p>
<p>Outre ce problème de portée, l’argument a aussi certaines faiblesses :</p>
<ul>
<li>Si l’idée est que contrairement au “wishful thinking” (accepter une
hypothèse seulement parce qu’on l’aime bien), fixer les standards de
risque éviterait le dogmatisme, et donc que ce serait une “bonne”
influence des valeurs, c’est simplement faux : il suffit d’adopter des
standards démesurément exigeants envers tout ce qui contredit nos opinions mais permissifs
pour ce qui va dans leur sens pour être dogmatique (<a
href="https://www.cambridge.org/core/journals/philosophy-of-science/article/abs/risk-of-using-inductive-risk-to-challenge-the-valuefree-ideal/4C9DD2B43F0832EE42E085FC414B2C98">Inmaculada
de Melo-Martín and Kristen Intemann 2016</a>).</li>
<li>Pourquoi croire que les scientifiques seraient particulièrement
aptes à émettre des jugements de valeurs ? (ibid) Il semble plus
judicieux d’externaliser ces jugements hors de la science, et donc
idéalement, le fonctionnement interne de la science devrait être
indépendant des valeurs.</li>
<li>Une manière d’externaliser les jugements de valeur est pour les
scientifiques de transmettre des probabilités ou degrés de confiance ou
de communiquer sur la robustesse plutôt que d’accepter ou rejeter les
hypothèses, et ça semble faire partie des standards pour le GIEC par
exemple (<a
href="https://link.springer.com/article/10.1007/s13194-012-0062-x">Gregor
Betz 2013</a>). Il est parfois avancé que ça implique un risque
épistémique “de second ordre”, mais c’est faux, au moins dans un cadre probabiliste : une incertitude
d’incertitude peut toujours se ramener à une incertitude de premier
ordre (<a
href="https://onlinelibrary.wiley.com/doi/10.1111/risa.13284">Brian
MacGillivray 2019</a> l'incertitude de second ordre mesure en quelque sorte la volatilité du jugement
dans un cadre bayésien).</li>
<li>Au final, le cadre d'analyse de l'argument est assez simpliste. L’évaluation formelle du risque est complexe, c’est un
métier à part entière, et ça a plus à voir avec l’évaluation
des conséquences de différentes actions possibles suivant des critères
objectifs qu’avec la fixation de seuils statistiques sur la base d’un
jugement de valeur (ibid).</li>
</ul>
<p>Voilà pourquoi je ne pense pas que le risque épistémique constitue une bonne
raison de croire que les jugements de valeur sont souhaitables ou indispensables pour
sélectionner les hypothèses. Je pense que dans l'idéal, les scientifiques devraient adopter
des standards élevés et communiquer sur leur incertitude pour éviter d'avoir à faire de tels jugements.</p>
<p>Ceci étant dit, je suis convaincu au moins d’une chose : cette notion
de risque épistémique rend très bien compte de la
manière dont les résultats de la recherche scientifique sont politisés
dans la société. Quand ces résultats appuient des croyances qu’on juge
dangereuses (surtout si elles s’avéraient fausses), on devient
extrêmement exigeant quant au niveau de preuve. Quand au contraire on
pense que même si elles s’avéraient fausse, ce ne serait pas une grosse
erreur de les avoir crues, on a tendance à abaisser drastiquement nos
standards. Mais il me semble que l’influence sociale des résultats
scientifiques est souvent surestimée dans ces contextes, que les risques
sont mal évalués, et cette attitude est difficile à distinguer de la
mauvaise foi ou du dogmatisme. Il me semblerait très problématique
d’ériger cette prise en compte informelle du risque épistémique en norme pour la science.</p>
<h2 id="quid-du-risque-épistémique-généralisé">Conclusion : sur quoi doit porter le débat ?</h2>
<div style="float: right"><a title="SMU Libraries Digital Collections, No restrictions, via Wikimedia Commons" href="https://commons.wikimedia.org/wiki/File:(Parachute_Jumping).jpg"><img width="256" alt="(Parachute Jumping)" src="https://upload.wikimedia.org/wikipedia/commons/thumb/0/0d/%28Parachute_Jumping%29.jpg/256px-%28Parachute_Jumping%29.jpg"></a></div>
<p>Partant de là, je ne vois plus beaucoup de raison de ne pas soutenir l'idéal
de neutralité axiologique de la science.</p>
<p> Au mieux, on pourrait s'appuyer sur la sous-détermination pour défendre
que des jugements de valeur doivent avoir lieu de toute façon : on ne peut tester toutes les
hypothèses possibles, il faut faire un choix, adopter une stratégie de recherche laissant de côté
des hypothèses pour en privilégier d'autres. La sous-détermination par l'expérience est un constat
philosophique. En pratique, cependant, la sélection d'hypothèse est fortement contrainte
par le cadre conceptuel dans lequel les scientifiques travaillent. Un biologiste
travaille dans le cadre de la théorie de l'évolution, et donc va se limiter aux hypothèses
évolutionnistes, quand bien même il existe d'autres possibilités logiques. De même pour ce
qui est des méthodes expérimentales et de l'interprétation des résultats empiriques. Voilà qui restreint
déjà considérablement l'espace des possibles, et laisse peu de cas que l'expérience ne pourrait trancher.
Pour ces cas indécis, il est toujours possible d'exprimer l'incertitude plutôt que de trancher, et ça semble
même plus souhaitable que de faire une évaluation au doigt mouillé du manque à gagner pour la société.</p>
<p>
Ainsi, sauf à affirmer que le fait de travailler dans un cadre théorique qui a fait ses preuves plutôt
que de renverser la table à chaque nouvelle recherche relève d'un jugement de valeur et non
de considérations pragmatiques ou rationnelles (ce que défend plus ou moins <a href="https://link.springer.com/chapter/10.1007/978-94-009-1742-2_3">Longino (1996)</a> in fine), les jugements
de valeur ne semble pas foncièrement indispensables ni particulièrement souhaitables au moment de sélectionner les hypothèses en science. Je ne suis pas non plus convaincu qu'ils soient entièrement généralisés ou considérés non problématiques par les scientifiques, y compris au moment de confirmer ou rejeter les hypothèses (bien que ce point pourrait être discuté sur la base d'études concrètes). Reste la sélection des cadres théoriques eux-mêmes, mais ils sont souvent très abstraits, et j'estime que l'idées que leur adoption dépende de facteurs sociaux plutôt que de considérations rationnelles reste à démontrer.
</p>
<p>Malgré tout la science est bien motivée par des jugements de valeurs : ceux-ci concernent les choix
des recherches à mener et à financer, y compris la manière de poser les hypothèses et les tests à effectuer.
Si l'on accepte ceci, on s’approche d’une position proposée comme compromis dans le débat par <a
href="https://link.springer.com/article/10.1007/s13194-022-00458-w">Greg
Lusk et Kevin Elliott (2022)</a> : selon eux, on peut accepter que les
activités scientifiques sont dirigées vers des buts, dépendant de
valeurs, et que l’évaluation de l’adéquation des hypothèses <em>pour ces
buts</em> se fait indépendamment de jugements de valeurs de manière objective. Pour ma part,
je n’ai pas l’impression que les défenseurs de l’idéal
de neutralité aient jamais dit autre chose, quitte peut-être à ajouter que
ces buts sont plus typiquement abstraits (comprendre tel phénomène dans le cadre de telle théorie)
que concrets et limités (déterminer la toxicité de ce produit en très peu de temps et avec très
peu d'argent).</p>
<p>En fait, plus je lis d'articles critiquant cet idéal de neutralité de la science, moins l'enjeu de ces critiques ne m'apparait clair.
Car finalement c’est bien <em>en amont</em> de la justification des hypothèses que se situent les
questions les plus pressantes quant aux rapports entre science et
société : au niveau de la sélection et du financement des programmes de
recherche. La dessus, les deux camps sont d’accord que les valeurs
sociales peuvent intervenir (il est légitime de faire de la recherche
contre le cancer <em>parce que ça nous importe</em>, personne ne l'a jamais nié), et pourtant il me
semble que ce serait un problème si les scientifiques ne disposaient pas
de la liberté de choisir certains programmes sans grande utilité
sociale, mais scientifiquement importants, et de la possibilité d’être
financés pour ça. Ce genre d’autonomie (qui n’est pas incompatible avec
des financements d’utilité sociale par ailleurs) me semble tout aussi
essentielle à l’intégrité de la science. Mais ces questions peuvent
être finalement assez complexes sur le plan éthique, puisque les recherches
ont des répercutions sociales incertaines. Et ce sont sur ces aspects que les débats de sociétés s'avèrent particulièrement houleux :
faut-il chercher le gène de l'homosexualité ?</p>
<p> Peut-être donc que c'est sur ces aspects que les philosophes qui s'interessent aux
interactions entre science et société devraient porter leur attention. Ce que nombre d'entre eux font déjà, soyons honnêtes, il ne s'agit pas d'une conclusion révolutionnaire: je pense juste que le débat sur l'idéal de neutralité en particulier n'est pas le plus pertinent. Qu'importe si la production de connaissances idéalement fiables
puisse et doive se faire indépendamment des valeurs sociales ; <em>quelles connaissances veut-on produire ?</em> C'est là la vraie question.</p>
Quentin Ruyanthttp://www.blogger.com/profile/18395553776256376317noreply@blogger.com1tag:blogger.com,1999:blog-2904928175656435462.post-37563884705188301922022-10-25T12:02:00.020+02:002022-10-25T22:24:45.498+02:00Le réalisme est-il du côté du bon sens ?<div style="float: right"><a title="NiKlein, CC BY-SA 3.0 <https://creativecommons.org/licenses/by-sa/3.0>, via Wikimedia Commons" href="https://commons.wikimedia.org/wiki/File:Chair-black_and_white_drawing.jpg"><img width="256" alt="Chair-black and white drawing" src="https://upload.wikimedia.org/wikipedia/commons/thumb/a/a5/Chair-black_and_white_drawing.jpg/256px-Chair-black_and_white_drawing.jpg"></a></div>
<p>Le réaliste affirme que les théories et hypothèses scientifiques sont pour la plupart vraies, au moins en approximation, et que les objets postulés par les scientifiques, les protons, les gènes et les cellules existent réellement. Si le philosophe non-réaliste nie tout ça, il contredit directement les scientifiques, n’est-ce pas ? Il est anti-science ? En quoi un philosophe serait-il légitime pour contredire ce que disent les scientifiques sans même prendre la peine de faire des expériences ? N’est-ce pas extrêmement prétentieux ?</p>
<p>En fait c’est un peu plus compliqué que ça. Disons que le diable est dans les détails, et en particulier dans la compréhension de “exister”, “vrai” et “réaliste”. Je vais examiner ces trois termes tour à tour.</p>
<p>Je souhaite défendre ici que les philosophes réalistes ont opéré, au tournant des années 80, une appropriation de ces termes qui leur ont permis d’asseoir le réalisme métaphysique sur le sens commun et de doter leur projet métaphysique du prestige généralement associé aux sciences.</p>
<p>Pour ma part, je considère que les projets métaphysiques qu’ils mènent, quel que soit leur intérêt par ailleurs, ne sont <em>pas</em> scientifiques, et qu’il est important de marquer la différence entre science et métaphysique. C’est principalement pour cette raison que je me revendique non-réaliste : non pas parce que je serais anti-science, mais parce que, fidèle en cela à une certaine tradition empiriste, je suis sceptique vis-à-vis de la métaphysique.</p>
<h2 id="exister">“Exister”</h2>
<p>Je suis assis sur une chaise. La chaise existe-t-elle ? Au sens courant du terme, c’est indéniable. Dire “cette chaise n’existe pas” dans un contexte ordinaire reviendrait à dire que c’est une illusion d’optique, un hologramme ou une image de synthèse peut-être, mais je sais que ce n’est pas le cas : je peux la toucher, la déplacer. Cette chaise existe, donc.</p>
<p>Pourtant la catégorie d’objet “chaise” n’est pas une catégorie naturelle : ce n’est pas une classe d’objet qui nous est donnée par la nature. Ce qui différencie une chaise d’une non-chaise est en partie conventionnel, certains objets sont difficiles à classer, et je ne serais pas surpris que ce que l’on appelle banc, tabouret, fauteuil, chaise longue ou transat en français soient classifiés suivant des regroupements légèrement distincts dans d’autres langues (je sais sur c’est le cas de “bol” et “assiette creuse” par exemple).</p>
<p>Mettez vous un instant dans la tête d’un physicaliste réductionniste pur et dur (“éliminativiste”) : la seule chose qui existe vraiment dans le monde, ce sont des particules microscopiques en interaction. Diriez-vous que la chaise existe ? Vous pourriez bien le nier : cet objet n’a aucun contour précis à l’échelle microscopique qui permettrait de l’identifier à un groupe de particules en particulier, et même si c’était le cas, ce groupe de particules serait entièrement arbitraire, sans aucune règle précise pour lui associer la catégorie “chaise” hors contexte. En fin de compte, pour le réductionniste pur et dur, la chaise est une “fiction utile”, voire une “construction sociale”, pour employer une façon de parler plus controversée.</p>
<p>Personne n’est tenu d’être réductionniste en ce sens, mais c’est une position philosophique a priori légitime, non ? Donc il est légitime, sur le plan philosophique, de dire que les chaises n’existent pas réellement ou absolument, que ce sont des vues de l’esprit.</p>
<p>Est-ce à dire que le réductionniste devrait reprendre nos interlocuteurs à chaque fois qu’ils parlent de chaises ? Bien sûr que non ! En fait, il semble que ces arguments emploient le terme “exister” en un sens beaucoup plus exigeant que nous ne le faisons au quotidien. Un sens métaphysique : pour exister, il faut constituer un objet dont le découpage est parfaitement naturel, indépendant des représentations et catégories arbitraires des êtres humains. Un objet existe <em>réellement</em> s’il correspond au moins approximativement à un tel découpage. Différencions donc deux sens de “existence” : l’existence ordinaire et l’existence métaphysique.</p>
<h2 id="vrai">“Vrai”</h2>
<div style="float: left">
<a title="AnonymousUnknown author, Public domain, via Wikimedia Commons" href="https://commons.wikimedia.org/wiki/File:EB1911_Dandelion_(Taraxacum_officinale).jpg"><img width="200" alt="EB1911 Dandelion (Taraxacum officinale)" src="https://upload.wikimedia.org/wikipedia/commons/thumb/f/f9/EB1911_Dandelion_%28Taraxacum_officinale%29.jpg/200px-EB1911_Dandelion_%28Taraxacum_officinale%29.jpg"></a></div>
<p>Les pissenlits sont jaunes. C’est vrai, n’est-ce pas ? Au sens courant du terme oui, c’est indéniable. Peut-être pas tous les pissenlits, certains n'ont pas de fleur, et pas tout le pissenlit, seulement ses pétales. Par ailleurs, pissenlit est un nom vernaculaire. Enfin, la distinction entre vert et jaune s’avère assez sensible à la langue ou au contexte social (apparemment certains considèrent que les balles de tennis sont vertes, d’autres qu’elles sont jaunes). Mais ne chipotons pas, la couleur des pissenlits est franchement dans la catégorie “jaune”. Disons donc que les pétales des pissenlits “véritables” sont typiquement jaunes. Dans un contexte ordinaire, le nier reviendrait à postuler une espèce d’illusion d’optique massive qui toucherait la couleur des pissenlits en particulier, quelque chose de très improbable.</p>
<p>Pourtant, la couleur “jaune” ne correspond pas à une propriété naturelle des objets. Un mélange de lumière verte et rouge nous donnera du jaune, mais c’est un spectre lumineux très different d’un spectre monochromatique jaune situé quelque part entre le vert et le rouge. La seule raison de mettre les deux spectres dans la même catégorie, c’est que dans des conditions normales, nos systèmes perceptifs répondent typiquement de la même façon aux deux. Mais alors tout ça est relatif à notre physiologie.</p>
<p>Un physicaliste pur et dur pourrait défendre que les pissenlits ne sont pas <em>vraiment</em> jaunes : les couleurs sont des illusions cognitive, une construction de notre cerveau. Donc “les pissenlits sont jaunes” est faux, à strictement parler, car les couleurs n’existent pas en dehors de nos têtes. C’est juste une façon utile de parler, étant donné que nos systèmes visuels sont semblables. Il y a sûrement des objections à ce type de vue, mais au moins c’est une position philosophique légitime, non ?</p>
<p>Est-ce à dire qu’un tel physicaliste devrait reprendre nos interlocuteurs chaque fois qu’ils attribuent des couleurs aux objets ? Bien sûr que non ! C’est juste que le physicaliste emploie “vrai” en un sens philosophique particulier : une correspondance entre nos représentations et la réalité qui ne dépendrait pas de notre constitution d’être humain, soit une notion de vérité beaucoup plus exigeante que la façon commune d’employer la locution “c’est vrai”, selon laquelle une influence du contexte ou une forme de relativité aux êtres humains n’est pas bien grave.</p>
<p>On pourrait donc distinguer la vérité au sens ordinaire et la vérité au sens métaphysique, la première correspondant, disons, à l’absence de doutes légitimes pour accepter une proposition dans un contexte donné, et la dernière étant une correspondance directe à la nature fondamentale de la réalité </p>
<h2 id="et-la-science">Et la science?</h2>
<p>Les cellules biologiques, les gènes, les protéines, les atomes, les électrons existent-ils ? L’entropie, la température ou les forces centrifuges existent-elles ? Nos théories à leur sujet sont-elles vraies ? Au sens commun de “exister” et “vrai”, ça me semble indéniable. Mais au sens métaphysique ? C’est sujet à débat. Un réductionniste pur et dur pourrait défendre que seuls les électrons existent dans cette liste, ou peut-être aussi les atomes et les protéines, mais pas les cellules et les gènes parce que leur composition chimique et leur découpage varie d’un contexte à l’autre et qu’il est impossible de les définir en employant uniquement le vocabulaire de la physique. Ce sont des entités fonctionnelles plutôt que réelles. Un physicaliste plus tolérant (“non réductionniste”) pourrait affirmer que tout ça existe y compris au sens métaphysique, par exemple parce que ces entités correspondent à des “motifs réels” de la nature, une manière non arbitraire de découper fonctionnellement le monde. Mais peut-être sera-t-il moins affirmatif à propos des forces centrifuges ou de l’entropie. Un non-réaliste pourrait rester sceptique : peut-être que ces “motifs fonctionnels” ne sont pas si métaphysiquement absolus, plus contextuels qu’on le pense, plutôt des “fictions utiles” donc, même si leur stabilité est bien supérieur à celle de catégories comme "jaune" ou "chaise". Il serait d’accord avec le réductionniste à propos des gènes, mais dirait qu’il en va de même des électrons, car on peut douter que notre physique actuelle soit le fin mot de l’histoire.</p>
<p>Chacune de ces positions a des implications pour la philosophie, en termes de programme de recherche. Pour le non-réaliste, par exemple, chercher à déterminer la nature profonde de la réalité au-delà de ce qu'en disent les scientifiques n’est pas un projet qui vaut la peine d’être poursuivi. Il est bien plus intéressant d’examiner la manière dont les scientifiques construisent leurs représentations. Pour le métaphysicien, un tel examen n’a qu’une importance marginale, puisqu’au final ces représentations sont au moins approximativement vraies métaphysiquement parlant.</p>
<p>Peu importe où vous vous situez dans ce débat philosophique. Mon point est le suivant : aucun de ces philosophes n’ira dire à un scientifique qui vient de publier un nouveau résultat “c’est faux ! Vous nous racontez des histoires !”. Pourquoi ? Simplement parce que les scientifiques ne sont pas des philosophes, et donc il n’y a aucune raison de charger leur discours de présupposés métaphysiques, pas plus qu’il n’y a de raison de nier que je suis assis sur une chaise rouge quand c’est le cas. Quand un biologiste dit que les gènes existent, c’est vrai, au sens ordinaire de “vrai”, ils existent, au sens ordinaire de “exister”. Les représentations des mécanismes biologiques produites par les biologistes sont acceptables au-delà de tout doute raisonnable. Là-dessus, les seuls qui ne sont pas d’accord sont ceux qui refusent d’accorder le moindre crédit aux sciences, et je m’avance peu en disant qu’on n’en trouve quasiment aucun dans les facultés de philosophie.</p>
<p>Ce qui est sujet à débat, c’est si on peut aller au-delà de cette notion ordinaire (et si l’on peut préciser un peu ce qu’elle recouvre, et ce que ça implique pour la notion d'objectivité). Et c’est un débat purement philosophique, non scientifique, qui n’a aucune implication sur la “bonne” manière de faire de la science, mais qui en a, par contre, sur la “bonne” manière de faire de la philosophie.</p>
<a title="Edmund Beecher Wilson, Public domain, via Wikimedia Commons" href="https://commons.wikimedia.org/wiki/File:Wilson1900Fig2.jpg"><img width="400" alt="Wilson1900Fig2" src="https://upload.wikimedia.org/wikipedia/commons/thumb/3/37/Wilson1900Fig2.jpg/400px-Wilson1900Fig2.jpg"></a>
<h2 id="réaliste">“Réaliste”</h2>
<p>Alors, me direz-vous, si presque tout le monde est prêt à dire que les théories sont vraies, au moins au sens ordinaire du terme, alors presque tout le monde est réaliste ? Tout comme on peut défendre qu’il y a deux acceptions de “vrai” ou de “exister”, on pourrait dire qu’il y a deux acceptions de “réaliste” : l’une suivant laquelle les théories scientifiques sont vraies et les entités postulées existent au sens ordinaire des termes, et l’autre au sens métaphysique. Il existerait donc trois positionnements possibles vis-à-vis de l’interprétation des théories scientifiques : la position anti-science, largement minoritaire, la position réaliste pragmatique et la position réaliste métaphysique (bien sûr c’est une simplification puisqu’on peut décliner chacune d’elles).</p>
<p>Seulement c’est un peu plus compliqué. Le problème, c’est que l’existence et la vérité ont acquis une connotation technique en philosophie qui correspond à ce que j’ai qualifié de compréhension métaphysique des termes.</p>
<p>Ainsi le réaliste métaphysique affirme typiquement que la vérité est une affaire de correspondance à une réalité indépendante de nos représentations, et que l’existence a à voir avec la référence à des objets et classes naturelles, suivant un découpage qui préexiste à nos activités. Le réalisme ainsi compris est devenu une position dominante au cours des années 1970-80 en philosophie analytique, ce notamment sous l’impulsion d’arguments de philosophie du langage (ceux de Kripke). Il s’est construit en quelque sorte sur les ruines des projets empiristes ou positivistes de la première moitié du 20e siècle. Ceux-là entretenaient des conceptions différentes de l’existence et de la vérité (la relativité de l’ontologie de Quine, par exemple, ou le vérificationnisme de Ayer). Mais ces conceptions sont passées de mode. Parfois pour de bonnes raisons. Et ce sont les conceptions métaphysiques qui ont pris le dessus. Peut-être pas pour de si bonnes raisons.</p>
<p>Aujourd’hui, réaliste scientifique et réaliste métaphysique sont à peu près synonymes. Mais le fait que cela relève d’une connotation technique distincte de l’usage ordinaire est souvent passé sous silence par les réalistes métaphysiques, voire explicitement nié : beaucoup de réalistes métaphysiques pensent que <em>leur</em> conception de la vérité et de l’existence est la seule qui vaille, la seule qui soit vraiment intuitive, et que le langage ordinaire est seulement imprécis en la matière.</p>
<p>Il résulte de cette façon de voir les choses que le réalisme métaphysique n’est rien de plus que du bon sens.</p>
<h2 id="le-but-de-la-science">Le but de la science</h2>
<p>Si l’on pense que les scientifiques utilisent “vrai” et “existe” dans leur sens métaphysique, on pense que la science, c’est finalement de la métaphysique, qu’il n’y a pas de frontière marquée entre les deux : le but de l’un comme de l’autre est de dévoiler la nature fondamentale de la réalité.</p>
<p>Le métaphysicien a tout intérêt à brouiller la frontière entre métaphysique et science. Quoi de mieux pour défendre la légitimité de son projet philosophique, voire pour profiter d’un peu du prestige qu’ont acquis les sciences par leurs succès empiriques (sans pour autant n’avoir participé aucunement à ces succès) que de dire que lui et les scientifiques font à peu près la même chose ? Ce faisant, il relègue au second plan (peut-être involontairement, soyons charitables) les projets alternatifs, plus sceptiques envers la métaphysique et impliquant une division plus tranchée entre elle et la science. Il risque de faire passer malgré lui ces projets sceptiques pour de l’anti-science. Mais de toute façon le métaphysicien ne croit pas beaucoup à ces projets, alors ce n’est pas bien grave.</p>
<p>Si au contraire on pense, comme moi, que les scientifiques utilisent ces termes de “vrai” et “existe” dans un sens ordinaire beaucoup moins chargé, alors il y a une différence importante entre science et métaphysique. Le but de la science n’est pas de produire des théories métaphysiquement vraies, mais seulement des théories suffisamment robustes pour être acceptables par tous. Le but de la métaphysique pure, c’est autre chose : “interpréter” les théories, leur attribuer une ontologie, se questionner à partir d'elles sur la nature fondamentale de la réalité, essayer d'obtenir des vérités absolues, non pas sur tel ou tel type de phénomène bien identifié, mais sur l'univers dans son ensemble. Ce n'est pas seulement rendre les théories scientifiques plus précises, mais opérer ce passage de la vérité ordinaire à la vérité absolue, à supposer qu'elle existe, donc <em>ajouter</em> quelque chose (une couche de vernis ontologique) aux théories.</p>
<p>C’est une activité qui n’est pas particulièrement connectée à la confrontation empirique, contrairement à l’activité des scientifiques, et dont on peut questionner la légitimité ou la fructuosité. En tout cas, de ce point de vue, les conclusions métaphysiques n’ont aucune incidence directe sur la validité des résultats scientifiques, même si elles impliquent la non existence de telle ou telle entité postulée par les scientifiques, puisqu’elles emploient un sens technique, philosophique, de “existence”.</p>
<h2 id="lapproche-pragmatique">L’approche pragmatique</h2>
<div class="separator" style="float: right"><a href="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEjljO1D8sSRIpXdd0RiNhOLeLDQiUdzkBtD-y64tLEE9IgAxiAL1oDFI7NYlnMAghqiv7qtbKESw42WUxk27alZYjCELPE4QgLAIcd9TW0TkUE3Utvl2kzT_1503Ap4-B9aR-1KyNxgvlkD8Fi2apnaCipy8tuE0hQmnKmk4_kYuhPkrDvn06bf9al-/s1224/experiment.jpg" style="display: block; padding: 1em 0; text-align: center; "><img alt="" border="0" width="320" data-original-height="896" data-original-width="1224" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEjljO1D8sSRIpXdd0RiNhOLeLDQiUdzkBtD-y64tLEE9IgAxiAL1oDFI7NYlnMAghqiv7qtbKESw42WUxk27alZYjCELPE4QgLAIcd9TW0TkUE3Utvl2kzT_1503Ap4-B9aR-1KyNxgvlkD8Fi2apnaCipy8tuE0hQmnKmk4_kYuhPkrDvn06bf9al-/s320/experiment.jpg"/></a></div>
<p>Je ne vais pas m’étendre ici sur les raisons de préférer la seconde approche. En un mot, elles ont à voir avec la façon dont les scientifiques identifient leurs théories, quand ils disent que deux théories sont équivalentes (et donc qu’il est futile de défendre l’une plutôt que l’autre), avec l'usage des idéalisations, et plus généralement avec les normes qui régulent leur activité : elles impliquent, selon moi (et selon d’autres), que le but de la science en tant qu’institution n’est pas le même que le but de la métaphysique en tant que branche de la philosophie.</p>
<p>Je ne dirais pas que la métaphysique est inutile. Elle peut jouer un rôle heuristique pour l'invention de nouvelles théories. Elle peut participer à clarifier les concepts. Mais à mon sens, ce rôle est <em>seulement</em> heuristique ou clarificateur, et c’est un plutôt un effet secondaire. Pas besoin de croire qu’on court après la vérité pour faire la même chose (les philosophies instrumentalistes ont elles aussi participé au développement de la mécanique quantique), et il faut savoir s’arrêter au bon moment, quand les analyses cessent d’être fructueuses et d’avoir la moindre pertinence empirique. C’est ce que l’on fera naturellement si l’on est lucide sur le fait qu’on ne court pas après la vérité absolue, et si l’on cesse de mettre sur un piédestal les “critères d’évaluation non empirique” des théories pour se concentrer sur des considérations plus pragmatiques.</p>
<p>Bien sûr certains scientifiques (les physiciens en particulier) peuvent avoir dans l'idée qu'ils cherchent la vérité absolue, ils peuvent faire de la métaphysique, et peut-être certains le font-ils volontiers dans des ouvrages de vulgarisation, tout comme ils font parfois de l’épistémologie. Mais ce n’est pas leur activité principale, c’est-à-dire celle sur la base de laquelle ils sont évalués par leurs pairs. Cette activité principale est de développer des représentations robustes, dignes d’être acceptées, c’est-à-dire vraies au sens seulement ordinaire du terme. En effet, quand bien même ils auraient des standards d'évaluation bien plus élevés que ceux de la vie courante, ceux-ci ne sont pas <em>transcendants</em>.</p>
<p>Pour cette raison, je pense qu’il y a tromperie sur la marchandise quand on prétend que le réalisme métaphysique est du côté du bon sens, du côté de la science. </p>
<h2 id="questions-de-stratégie">Questions de stratégie</h2>
<p>Il résulte de tout ceci un dilemme pour les pragmatistes qui, comme moi, pensent qu’il existe plus qu’une différence cosmétique entre ces deux conceptions de la vérité : soit ils ou elles continuent à se dire réalistes, quitte à ce qu’on leur prête des projets métaphysiques et des conceptions auxquels ils n’adhèrent pas vraiment, soit ils ou elles décident de se dire non réalistes pour marquer leur différence, quitte à ce qu’on les prenne à tort pour des antis-science.</p>
<p>S’il lui tient à cœur de ne pas passer pour un ou une philosophe anti-science, ou de ne pas laisser penser à tort que la philosophie peut être anti-science auprès du grand public, et s’il ne voit pas l’intérêt de générer des conflits internes entre écoles philosophiques, le pragmatiste pourra être tenté de se dire réaliste. Il ou elle poursuivra ses projets de recherche pragmatiques en mettant de côté les questions d'interprétation métaphysique qui ne l'intéressent pas vraiment. Il évitera d'aborder les questions de fond sauf si c'est vraiment nécessaire. Il pourra rappeler, si on lui demande, que son réalisme est plutôt pragmatique. Mais si la distinction n’apparaît pas clairement au non philosophe, légitimant ainsi une façon de faire de la métaphysique qu’il rejette personnellement, peu importe, c’est un mal pour un bien.</p>
<p>Mais si le pragmatiste a plus à cœur de se différencier, au sein de sa profession, d’un certain type de projet métaphysique qu’il juge illégitime ou futile, quitte à générer plus de débats internes, et parfois un malentendu auprès des non philosophes qui demandera de faire preuve de plus de pédagogie, il pourra se revendiquer non-réaliste.</p>
<p>L'idée que le réalisme métaphysique serait du côté du bon sens scientifique a tellement gagné les esprits que de nombreux philosophes préfèrent, me semble-t-il, opter pour la première stratégie : se dire réalistes alors même qu’ils défendent des conceptions plutôt pragmatistes, soit quelque chose de distinct de ce qu’on appelle consensuellement le réalisme scientifique dans la littérature spécialisée. C’est souvent ainsi que fonctionnent les positions dominantes en philosophie (mais aussi en politique) : elles s’approprient un certain usage des mots ordinaires qui rend la vie difficile aux défenseurs de positions alternatives, les mettant dans une position de dilemme : soit vous êtes avec nous, soit vous êtes contre nous (et nous, c’est le bon sens). Souvent, la position par défaut est de se rallier à la majorité. </p>
<p>Pour être clair, je ne pense pas qu’il s’agisse d’une stratégie intentionnelle de la part des réalistes métaphysiques. J’y vois plutôt un phénomène émergent, quelque chose d'à peu près inévitable, typique de certaines activités humaines impliquant des rapports de domination, ici dans le champ intellectuel. Et puis, les enjeux ne sont pas énormes, ce n’est que de la philosophie après tout. Juste un constat, donc. Mais le dilemme est bien là.</p>
<p>Pour ma part je fais plutôt partie de ceux (je pense minoritaires) qui préfèrent résister à cette injonction au bon sens réaliste et marquer leur différence avec l’approche métaphysique. Réaliste au sens pragmatique me convient sur le fond. Je crois que la plupart des théories scientifiques sont vraies, non pas parce qu'elles correspondent à la réalité, mais parce qu'elles sont acceptables au delà de tout doute raisonnable quand il est question d'interagir avec le monde. Je crois que les cellules biologiques existent, non pas parce qu'elles correspondent à un découpage parfaitement naturel, mais parce que c'est un bon découpage pour rendre compte du fonctionnement du vivant, à toutes fins utiles. Mais si on se met à se demander si l'espace-temps est relationnel ou substantiel, ou si les lois de la nature pourraient être différentes dans un autre monde possible, je commence à bailler. Et pour des raisons essentiellement stratégiques (parce que je considère que la philosophie gagnerait à s’éloigner d’une certaine façon de faire de la métaphysique déconnectée de considérations pratiques, et à être plus inclusive quand il est question d’interpréter les sciences), je préfère me dire non-réaliste et promouvoir l’anti-réalisme. Ça me demande de faire parfois un peu de pédagogie pour lever les malentendus. Mais je pense que c’est un mal pour un bien.</p>
<a title="AnonymousUnknown author, Public domain, via Wikimedia Commons" href="https://commons.wikimedia.org/wiki/File:FlammarionWoodcut.jpg"><img width="400" alt="FlammarionWoodcut" src="https://upload.wikimedia.org/wikipedia/commons/thumb/d/dd/FlammarionWoodcut.jpg/400px-FlammarionWoodcut.jpg"></a></div>
Quentin Ruyanthttp://www.blogger.com/profile/18395553776256376317noreply@blogger.com0tag:blogger.com,1999:blog-2904928175656435462.post-63430883337323849732022-10-11T12:06:00.001+02:002022-10-11T12:06:09.042+02:00Relativisme et scientisme<p>Hier j’ai été invité à parler relativisme et scientisme chez Mr Sam. Un petit complément ici.</p>
<p>Le relativisme, c’est en gros l’idée qu’une affirmation peut être vraie d’un point de vue, mais pas d’un autre, et qu’il n’existe pas de point de vue neutre ou privilégié pour l’évaluer absolument. On peut être relativiste à propos des goûts esthétiques, des principes moraux ou, de manière plus controversée, à propos d’affirmations factuelles, notamment scientifiques : il y aurait “plusieurs vérités” ou plusieurs manières alternatives de voir le monde. Ça s’accompagne souvent d’une idée de <em>conversion</em> : adopter une façon de voir le monde nécessiterait un engagement actif ou une immersion, d’où l’impossibilité de comparer de manière neutre deux façons de voir le monde. Le relativiste à propos des sciences affirme qu’une théorie scientifique est une “façon de voir le monde” en ce sens.</p>
<p>L’un des arguments principaux en faveur d’un relativisme à propos des sciences est la charge théorique de l’observation, soit l’idée que les observations scientifiques ne sont pas neutres, mais toujours interprétées à la lumière de la théorie.</p>
<p>On peut commencer par voir comment ça marche avec la perception au sens ordinaire. Notre expérience du monde nous est elle simplement “donnée” par la perception ? Est-elle passive et neutre, indépendante de nos croyances préalables ? Pas vraiment. Vous avez tous appris à voir des lettres et des mots plutôt que de simples lignes sur un écran ou du papier par exemple. Pas besoin de faire consciemment des inférences pour lire : l’apprentissage de la lecture a directement affecté votre manière de voir le monde. Percevoir, c’est reconnaitre à quelles catégories appartiennent des objets (je vois un piano en bois, une chemise bleue), et ces catégories sont pour la plupart apprises par la pratique, sans être définies explicitement, par une immersion dans la société.</p>
<p>Tout ça ressemble beaucoup à une “conversion”… De l’eau au moulin du relativiste. Mais attention, ça ne veut pas dire que l’on voit juste ce que l’on veut voir ! La perception reste largement involontaire.</p>
<p>Ceci dit, nos intentions et cet apprentissage peuvent nous rendre sélectifs : quand on est concentré sur un objectif, on passe à côté de beaucoup de détails non pertinents. Les expériences en psychologie montrent que nos attentes peuvent introduire des biais perceptifs.</p>
<p>Les catégories scientifiques fonctionnent de façon similaire. Manier les concepts de la biologie évolutive, construire des modèles en physique, ça s’apprend par la pratique. Faire des mesures dans un laboratoire et les interpréter correctement aussi. Tout ça n’est pas entièrement formalisé. Une discipline scientifique, c’est aussi une certaine façon de poser les problèmes et des outils standards pour les résoudre (poser des questions en termes évolutifs en biologie). La discipline nous rend inévitablement sélectif quant aux hypothèses qui méritent ou non d’être considérées. Et entendons nous bien, tout ça est nécessaire pour avancer. On ne peut renverser la table et envisager une infinité de théories et hypothèses alternatives chaque fois que nos observations ne collent pas à nos attentes. On a besoin d’un cadre pour nous guider.</p>
<p>Donc en règle générale, le cadre disciplinaire n’est pas directement remis en question. Au contraire, les scientifiques peuvent essayer de le sauver quand il est mis en difficulté. Les physiciens préfèrent postuler de la matière noire pour expliquer des observations non concordantes plutôt que de construire une nouvelle physique. Et encore une fois, ce n’est pas en soi un problème : cette attitude s’avère souvent fructueuse (c’est comme ça qu’on a découvert Neptune).</p>
<p>Mais ça bat en brèche l’idée qu’il existerait une “méthode scientifique” universelle, foncièrement anti-dogmatique, fondée sur des observations neutres, à partir de laquelle on pourrait tous converger vers la vérité. Croire en une telle méthode universelle peut être qualifié de scientisme. En pratique, on observe plutôt que chaque cadre disciplinaire développe ses propres méthodes d’enquête empirique, ses propres méthodes d’observation.</p>
<p>Tout ça peut induire un doute sceptique : est-ce que le cadre dans lequel on développe les connaissances, notre “manière de voir le monde”, est la seule possible ? N’y aurait-il pas des manières de voir alternatives tout aussi valides ?</p>
<p>C’est ce type d’arguments qui peut être avancé par les relativistes. Le relativisme a connu un regain d’intérêt dans les années 1970-80 quand on a commencé à s’intéresser au fonctionnement réel des sciences dans toute sa complexité (histoire et sociologie des sciences) au lieu de s’en tenir à des reconstructions philosophiques abstraites d’une supposée méthode scientifique. Ces observations sont-elles suffisantes pour être relativiste ? Ou existe-t-il une voie entre scientisme et relativisme ?</p>
<p>Rappelons que le relativisme rejette l’existence d’une base d’évaluation neutre. Cependant, on n’a pas forcément besoin d’une méthode scientifique universelle pour servir de base neutre : pas si les cadres méthodologiques eux-mêmes peuvent être évalués par différents critères.</p>
<p>C’est ce qu’on fait mis en avant Lakatos, Laudan et même Kuhn (à qui l’on doit beaucoup des observations faites plus haut). Il existe des indicateurs de progrès externes, ou des valeurs épistémiques permettant de juger qu’un cadre disciplinaire est meilleur qu’un autre. Un cadre théorique peut être plus ou moins fructueux. Il peut s’embourber dans les hypothèses ad hoc pour survivre, ou au contraire nous guider vers de nouvelles applications inattendues. Et les cadres théoriques bien établis en science sont ceux qui ont fait leurs preuves. Il existe des épisodes de changements radicaux de cadres (le passage de la physique classique à la physique relativiste), ce qui laisse penser qu’en effet il existe toujours peut-être d’autres manières de “voir le monde”. Mais ces changements ne sont pas arbitraires. Ils se produisent quand les problèmes insolubles s’accumulent, et les nouvelles théories capitalisent sur le succès des anciennes en essayant de reproduire leurs prédictions. Les techniques expérimentales survivent aux changements de théories, même s’il faut les réinterpréter.</p>
<p>Les instruments de mesure (comme les thermomètres) ne sont peut-être pas développés indépendamment des théories (la thermodynamique). On peut parler d’ajustement mutuel. Mais ce qui est en vue, c’est une certaine stabilité et une reproductibilité : un critère de progrès externe. Tout comme apprendre à lire n’implique pas que l’on puisse voir ce que l’on veut, le fait que les observations soient interprétées n’implique pas que les théories peuvent prédire ce qu’elles veulent : l’adéquation empirique reste un critère d’adéquation externe. La société nous a appris à voir des mots plutôt que des lignes arbitraires sur du papier, mais on ne dirait pas naturellement que l’affirmation “il est écrit ‘SORTIE’ sur ce panneau” est relative à un point de vue. Il n’existe pas de “manière alternative, tout aussi valide” de lire un panneau. Les lettres et les mots sont des guides fiables pour évoluer en société. De même, on pourrait avancer que la nature a appris aux scientifiques à utiliser des catégories fiables, robustes (mais peut-être perfectibles), pour interagir avec elle. Et hormis les cas où ces catégories concernent des êtres humains, il n’y a pas de raison de penser que cette robustesse expérimentale, obtenue par des efforts considérables, dépend fortement du contexte social. Donc au final, à mon sens, une observation minutieuse de la pratique scientifique rend certainement caduque la version de scientisme décrite plus haut, mais aussi les versions les plus radicales de relativisme ou de constructivisme social.</p>
<p>Elle rend aussi caduque l’idée que la vision scientifique du monde ne serait ni meilleure ni pire que d’autres visions, par exemple mystiques ou religieuses : vis-à-vis des critères “externes”, ces autres visions du monde ne sont pas progressives.</p>
<p>On pourrait répondre que les critères de progrès invoqués (robustesse expérimentale, adéquation empirique, fructuosité…) sont en fait relatifs à un point de vue “scientiste”. Mais ça, c’est une thèse philosophique, pas quelque chose que montre l’histoire ou la sociologie des sciences. On parle d’une autre forme de relativisme. On peut en débattre philosophiquement parlant. Pour ma part, elle ne me convainc pas. Je suis “scientiste” en ce sens : je valorise ce type de progrès, je valorise la science.</p>
<p>Et un relativisme plus métaphysique : une espèce extraterrestre dont la constitution cognitive serait radicalement différente de la nôtre développerait-elle une science alternative ? On se rapproche de la question du réalisme. Je suis personnellement agnostique sur ce point.</p>
<p>Que retenir de tout ça ? Il n’existe pas une unique méthode scientifique qu’on pourrait déterminer simplement en réfléchissant depuis un fauteuil confortable. Mettre au point de bonnes méthodes pour développer la connaissance, ça s’apprend aussi par l’expérience. Ça demande un engagement, une “conversion” en quelque sorte, et on peut toujours douter que notre manière de voir le monde soit la meilleure possible. Mais on dispose au moins de critères objectifs pour considérer que certaines “façons de voir” sont meilleures que d’autres.</p>
Quentin Ruyanthttp://www.blogger.com/profile/18395553776256376317noreply@blogger.com0tag:blogger.com,1999:blog-2904928175656435462.post-2489248335803447382022-09-27T12:07:00.019+02:002022-09-28T10:32:54.290+02:00Émotion contre raisonnement en éthique<a title="Thomas Hummel, CC BY-SA 4.0 <https://creativecommons.org/licenses/by-sa/4.0>, via Wikimedia Commons" href="https://commons.wikimedia.org/wiki/File:Neunkircher_Zoo_38.jpg"><img width="512" alt="Neunkircher Zoo 38" src="https://upload.wikimedia.org/wikipedia/commons/thumb/7/72/Neunkircher_Zoo_38.jpg/512px-Neunkircher_Zoo_38.jpg"></a>
<h2 id="le-faible-pouvoir-de-conviction-de-la-raison-pure">Le faible pouvoir de conviction de la raison pure</h2>
<p>La <a href="https://www.youtube.com/watch?v=VlWvnhSiuck"> vidéo récente de Mr Phi sur le spécisme</a> m’a poussé à m’interroger sur mes propres conceptions de l’éthique à partir du constat suivant : le moment que je trouve le plus convaincant dans la vidéo, celui qui m’a le plus sérieusement amené à questionner mes pratiques alimentaires (globalement flexi-végétariennes pour des raisons environnementales), est le passage où sont décrites les pratiques de l’élevage intensif, comme couper la queue des cochons, accompagné d’images assez parlantes. Cette partie de la vidéo génère en moi une forme d’empathie envers les animaux, et une forme d’indignation envers les pratiques de l’industrie, et j’avoue qu’après ça, j’ai beaucoup moins envie de soutenir indirectement ces pratiques en consommant parfois de la viande issue d’élevages intensifs.</p>
<p>Le reste de la vidéo argumente de façon plutôt convaincante que le spécisme est une position philosophique difficilement tenable. Mais je me rend compte que le genre de réflexion que ça éveille en moi est bien distinct : ce n’est pas ça qui me fera changer de comportement alimentaire. Ce “debunking” en règle me convainc plutôt, au fond, que les arguments rationnels en éthique sont souvent à côté de la plaque : ce que les spécistes essaient de faire, c’est simplement de justifier rationnellement leurs adhésions implicite à des règles de comportement particulières (“l’élevage intensif ce n’est pas grave” ou juste “manger de la viande ce n’est pas grave”) en invoquant des théories toujours plus subtiles sur ce que seraient les normes morales absolues en la matière : peut-être qu’il faut être conscient et doté d’un langage pour être un sujet moral, etc. Et ça ne marche pas ! Ou bien ça semble très arbitraire. Mais pourquoi croire que ce type de reconstruction devrait marcher ?</p>
<p>Au cours de mon visionnage, il m’a semblé de plus en plus clair que l’entreprise poursuivie était vouée à l’échec non pas parce que le spécisme est faux en soi, mais plutôt parce que les sentiments moraux comme le rejet ou l’approbation de normes de comportement ne sont pas le genre de chose qu’on devrait essayer de justifier ou de rejeter en faisant appel à des principes fondamentaux hypothétiques. Ce type d'explication, légitime en science (parce qu'il est possible de vérifier les explications), n'a pas sa place en éthique. Ce ne sont pas les théories morales abstraites qui emportent l’adhésion, mais les sentiments comme l’empathie ou l’indignation, ou parfois rien de plus qu’un sentiment d’appartenance, l’envie de partager des valeurs avec d’autres et de faire ainsi communauté morale. Ce sont ces sentiments qui nous font changer nos comportements. Faire de la théorie morale à coups de principes absolus comme le font les spécistes sophistiqués, ce n’est pas justifier des comportements, c’est juste construire des systèmes autour des principes ou jugements qu’on avait déjà accepté pour d’autres raisons beaucoup plus concrètes et directes.</p>
<p>En somme, les arguments purement philosophiques présentés dans la vidéo ne me convainquent pas le moins du monde que les normes adoptées par les spécistes comme “on a le droit de manger de la viande” sont en soi invalides. Au mieux, ils me convainquent qu’elles sont arbitraires et (donc) égoïstes, et personnellement, je réprouve assez fortement l’arbitraire et l’égoïsme, et donc je réprouve le spécisme. Mais c’est vraiment la partie de la vidéo consacrée à l’élevage intensif qui appuie ce sentiment de réprobation de l’égoïsme vis-à-vis de la souffrance animale (je me dis : comment peuvent-ils être à ce point insensibles ?). Ou pour le dire autrement, si je suis anti-spéciste, c’est seulement au sens où j’éprouve (naturellement ou par éducation) une empathie similaire envers la souffrance animale et la souffrance humaine, et où je réprouve assez fortement ceux qui ne font pas preuve de la même empathie envers les animaux (je n’ai pas très envie de faire société avec eux). Et le constat est le même quand il s’agit de racisme ou de sexisme, avec une réprobation à vrai dire encore plus forte.</p>
<p>Et au fond, j’ai du mal à imaginer comment des arguments philosophiques rationnels pourraient convaincre qui que ce soit en matière d’éthique en l’absence d’une charge émotionnelle, à part peut-être des philosophes qui, à force de déformation professionnelle, entretiendraient un fort sentiment d’approbation morale envers des normes très abstraites telles que la cohérence logique, la simplicité théorique, l’unification conceptuelle et la réduction à des principes fondamentaux (c’est à dire des gens qui auraient des sentiments moraux très très bizarres !).</p>
<a title="Quikks, CC BY-SA 4.0 <https://creativecommons.org/licenses/by-sa/4.0>, via Wikimedia Commons" href="https://commons.wikimedia.org/wiki/File:Gorilla_in_Gaia-Zoo_Kerkrade.jpg"><img width="512" alt="Gorilla in Gaia-Zoo Kerkrade" src="https://upload.wikimedia.org/wikipedia/commons/thumb/f/f0/Gorilla_in_Gaia-Zoo_Kerkrade.jpg/512px-Gorilla_in_Gaia-Zoo_Kerkrade.jpg"></a>
<h2 id="contre-labsolutisme-en-éthique">Contre l’absolutisme en éthique</h2>
<p>À ce titre, les arguments philosophiques positifs en faveur de l’anti-spécisme, comme celui basé sur la quantité énorme d’animaux d’élevage à multiplier par la probabilité que le spécisme soit faux, ne me convainquent pas plus : encore une fois, on tente de rendre compte de sentiments moraux (une telle quantité, c’est horrible !) en faisant appel à des principes fondamentaux, ici un calcul de souffrance, et ça ne peut pas marcher : on connaît les difficultés de l’utilitarisme qui amène exactement au même type de sophistication un peu arbitraire que le spécisme.</p>
<p>Le problème, au fond, est que ce type de reconstruction théorique nous demande de par sa nature même d’adopter une position absolue de surplombs (considérer la quantité totale de mal dans l’univers) et alors elle perd immédiatement en pertinence vis-à-vis des sentiments moraux sur lesquels elle est basée à l’origine. En l’espèce (si je puis dire), dans le cas du spécisme, la responsabilité des acteurs, qu’ils soient consommateurs de viande, végétariens ou vegans, producteur intensif ou producteurs plus respectueux, décideurs politiques ou simples citoyens, voire riches ou pauvres, est inégalement distribuée, et ce sont leurs actes qui sont les objets ultimes de mes jugements moraux, pas la souffrance animale en tant que telle. De méme, une catastrophe naturelle peut me rendre triste, mais elle ne m’indigne pas. Ce qui ne va pas avec la souffrance animale, sur le plan moral, ce n’est donc pas la quantité de souffrance en tant que telle (bien que ça puisse être triste) : le problème moral est que cette souffrance est délibérément provoquée par certains membres de notre communauté et tolérée par la plupart des autres. Mais il n’existe personne qui soit à elle seule responsable de la situation des milliards d’animaux élevés chaque année.</p>
<p>Si c’était le cas, le problème moral serait en effet vite résolu : cette personne est horriblement cruelle, aucune raison d’en douter, ce même si la souffrance animale est en soi négligeable. Mais dans la situation actuelle, le nombre gigantesque d’animaux maltraités, bien sûr impactant, n’implique pas qu’il y a de meilleures ou plus de raisons d’être anti-spéciste (“au delà de tout doute raisonnable”) : il implique surtout qu’il reste énormément de monde à convaincre ! C’est une différence importante. Peut-on vraiment s’attaquer à ce problème sans voir que la responsabilité est extrêmement diluée, que donc c’est un problème moral difficile, et que la taille du problème tient avant tout au très grand nombre de personnes impliquées ? Pourquoi déconnecter ainsi le jugement moral abstrait d’une évaluation pratique de ce qu’il faut faire, et de qui doit le faire, dans notre communauté ?</p>
<p>Le déontologisme ne rencontre pas cette difficulté de l’utilitarisme en particulier, mais il souffre d’un problème similaire : la recherche de règles de comportement absolues finit par nous déconnecter des circonstances particulières dans lesquelles s’inscrivent nos jugements moraux. À la limite, on devrait agir suivant la règle même quand les circonstances nous font réprouver cette action. Mais pourquoi devrais-je approuver moralement l’adoption de règles intangibles ? Cette intangibilité n’est fondée sur aucun sentiment moral particulier (nous avons ici un problème similaire à celui de l’induction : la possibilité de généraliser n'est fondée sur aucune observation particulière).</p>
<p>Dans le cas du déontologisme comme dans celui de l'utilitarisme, on voit qu’une théorie normative qui cherche à attribuer une valeur morale objective et absolue à un état de fait ou à une action est nécessairement déconnectée de l’objet ultime de la morale, de sa vraie base. Cette base, c’est le sentiment moral, soit l’évaluation subjective d’actions intentionnelles par des agents en contexte, situés au sein d’une communauté. C’est cette évaluation subjective, en partie involontaire ou “donnée”, qui motive l’action et l’adoption de règles de comportement. Le sentiment moral est intrinsèquement normatif : il est motivant en lui-même, et non pas en vertu de quelque chose d’extérieur. Lui seul confère aux règles de comportement plus générales un pouvoir de motivation dérivé. Il n’y a donc pas lieu de théoriser sur d’hypothétiques normes ou valeurs absolues. Ça n’ajoute rien, au delà d’une satisfaction théorique, à la force de conviction de nos sentiments.</p>
<a title="Whistleswhite, CC BY-SA 4.0 <https://creativecommons.org/licenses/by-sa/4.0>, via Wikimedia Commons" href="https://commons.wikimedia.org/wiki/File:Monkey_20.jpg"><img width="512" alt="Monkey 20" src="https://upload.wikimedia.org/wikipedia/commons/thumb/5/58/Monkey_20.jpg/512px-Monkey_20.jpg"></a>
<h2 id="le-non-cognitivisme">Le non-cognitivisme</h2>
<p>Tout ça pour dire que le “debunking” du spécisme de cette vidéo m’a fait pencher encore un peu plus (malgré lui je pense) vers le genre de théorie méta-éthique qui me semble le mieux rendre compte de ce qu’est vraiment la morale, à savoir le non-cognitivisme (j’avoue avoir été un temps tenté par le réalisme moral, pour avoir été influencé lors de mon cursus universitaire, mais ce penchant réaliste s’estompe avec le temps).</p>
<p>Le non cognitivisme consiste à dire que les énoncés évaluatifs ou normatifs n’énoncent pas des vérités ou des faussetés, mais qu’ils expriment une adhésion ou un rejet envers certaines situations et règles de comportement. Une adhésion est plus qu'une simple déclaration : c'est un engagement, celui de baser ses propres actions sur cette règle et d'en accepter les conséquences. L'expression d'adhésion a souvent, c’est important, une visée performative au sens large du terme : exprimer son adhésion a généralement pour but de convaincre son auditoire d’adopter la même attitude ou les mêmes normes. C’est un fait essentiel de la vie en société, où il est souvent question de se coordonner autour de normes communes pour vivre ensemble. La morale, ce n’est rien de plus que ça de mon point de vue : une façon de se coordonner en fonction des intérêts et sentiments moraux de chacun. Mais rechercher un bien ou un mal ou une justification absolue, c’est courir après des chimères et se déconnecter de l’action pratique.</p>
<p>Un reproche récurrent envers le non-cognitivisme et qu’il ne rendrait pas bien compte des discours moraux, en particulier des débats argumentés. L’objection peut être résumée ainsi : les énoncés moraux ont la même forme grammaticale que les descriptions. Ils semblent superficiellement au moins avoir une valeur de vérité. De plus on peut les combiner dans des structures logiques ou inférentielles du type “Si c’est mal de torturer un chat, alors c’est aussi mal de pousser ton petit frère à torturer un chat”. Donc sur le plan sémantique, il faudrait accepter qu’un énoncé évaluatif ou moral est porteur de vérité ou de fausseté, et non une simple “expression sentimentale”. L’inverse supposerait en quelque sorte un “deux poids deux mesures” : une interprétation spécifique des connecteurs logiques suivant qu’ils s’appliquent à des énoncés factuels ou évaluatifs.</p>
<p>Remarquons que c’est également le cas des jugements esthétiques (“c’est un bon film”, ou encore “Si vraiment Batman est un bon film, alors Spiderman est génial”), même si l’on a moins tendance à penser que de tels jugement sont entièrement objectifs, et qu’on pourra plus facilement y voir une expression d’appreciation.</p>
<p>Ma solution au problème du deux poids deux mesures est, j’avoue, assez radical : je pense qu’on peut appliquer la même analyse aux énoncés factuels. Là où un énoncé évaluatif ou normatif vise à exprimer une adhésion émotionnelle ou morale, et à convaincre l’audience de faire de même, les énoncés descriptifs visent à exprimer une adhésion envers une croyance, et à convaincre l’audience de faire de même. Quand à la structure logique ou inférentielle, il faut bien voir que les connexions logiques ou inférentielles “pures” (celles qui “préservent la vérité en vertu de la forme des énoncés”) sont des idéalisations. Dans la réalité du langage naturel, un “si … alors” exprime plutôt une forme de loi entre deux énoncés : une espèce de norme inférentielle, justement, spécifique à un certain domaine de discours, à laquelle on adhère et que l’on souhaite voir adoptée par son audience. Et une méta-norme peut très bien concerner des relations entre normes même si elles n’ont pas de valeur de vérité (“on ne peut adhérer à N1 sans adhérer à N2”). De même dans le cas descriptif : “s’il y a de l’eau, c’est qu’il a plu” viserait à faire accepter une norme inférentielle : “on ne peut croire qu’il y a de l’eau sans croire qu’il a plu” (cette façon de voir est inspirée de l'inférentialisme du philosophie Robert Brandom).</p>
<a title="Ttakhwiri, CC BY-SA 4.0 <https://creativecommons.org/licenses/by-sa/4.0>, via Wikimedia Commons" href="https://commons.wikimedia.org/wiki/File:Monkey_wandering_at_the_Avani_Gaborone_resort.jpg"><img width="512" alt="Monkey wandering at the Avani Gaborone resort" src="https://upload.wikimedia.org/wikipedia/commons/thumb/3/36/Monkey_wandering_at_the_Avani_Gaborone_resort.jpg/512px-Monkey_wandering_at_the_Avani_Gaborone_resort.jpg"></a>
<h2 id="le-rôle-de-largumentation-en-éthique">Le rôle de l’argumentation en éthique</h2>
<p>En un sens, on peut affirmer que les énoncés qui composent un “si … alors” doivent pouvoir être porteurs de valeur de vérité (soit vrais soit faux), mais seulement au sens ou dire “c’est vrai” sert souvent simplement à exprimer son adhésion. Alors on retombe, en quelque sorte, sur une analyse traditionnelle de la logique, brouillant la distinction entre cognitivisme et non cognitivisme, car on accepte que les énoncés évaluatifs peuvent être vrais ou faux et que les règles inférentielles concernent la préservation de la vérité (c’est-à-dire de l’adhésion). Mais tout ça n’a plus rien à voir avec une notion réaliste de vérité absolue comme correspondance à une réalité indépendante du locuteur. Il s’agit plutôt d’une conception pragmatiste de la vérité.</p>
<p>Dans ce cadre, les sentiments moraux ou encore esthétiques (l’indignation, l’admiration, le dégoût, l’enthousiasme) jouent exactement le même rôle vis-à-vis des normes morales et esthétiques que les observations directes jouent pour les croyances théoriques : ce sont des dispositions involontaires, “données” par l’expérience, à accepter certaines propositions descriptives ou évaluatives basiques : rapport d’observation ou jugement moral. Ces propositions basiques renforcent ou affaiblissent notre adhésion envers des règles de comportement générales ou des théories. Elles peuvent être défaites par réflexion (si les conditions d’observation ne sont pas optimales dans le cas des descriptions, ou les conditions émotionnelles dans le cas des évaluations : le contexte peut biaiser ou affaiblir mes jugements, et si je le sais, je peux le corriger). Les dispositions à former des jugements perceptifs ou évaluatif peuvent aussi en une certaine mesure être inculquées par apprentissage : on peut apprendre à “voir” des lettres et des mots plutôt que de simples traits sur du papier, comme on peut apprendre à aimer un bon vin ou un bon film ou à reconnaître par empathie une situation moralement problématique. Tout ceci ne veut pas dire que l’on perçoit des “valeurs réelles”, pas plus qu’on perçoit des “couleurs réelles” indépendantes de notre constitution, seulement que le discours, qu’il soit descriptif ou évaluatif, a pour visée une certaine robustesse intersubjective en vue de la coordination sociale.</p>
<p>Si l’on accepte ceci, on peut comprendre que l’argumentation en éthique n’est pas entièrement inutile. Pour convaincre son interlocuteur de changer son comportement, on peut soit essayer d’éveiller directement en lui des sentiments moraux en les exprimant (“c’est dégoûtant”), ou bien on peut l’amener à douter de la robustesse de ses propres jugements en mettant en avant des circonstances non favorables ou des biais (“tu dis ça parce que tu es énervé”), ou enfin on peut s’appuyer sur des “méta-normes” plus abstraites qu’on supposera encore mieux partagées que les sentiments parfois variables d'une personne à l'autre (“il faut être cohérent”, “ne fait pas ce que tu ne voudrais pas qu’on te fasse”, “il faut considérer les conséquences de nos actes”). Par contre, faire appel à des règles de comportement hypothétiques qui <em>expliqueraient</em> nos sentiments moraux ("il faut maximiser la somme des plaisirs et minimiser la somme des souffrances dans le monde", "tu ne commettra pas l'adultère"), et qui, à la base, ne sont pas naturellement partagées par tous, a beaucoup moins de chance de convaincre à moins de les imposer par la force : ça revient ni plus ni moins à inculquer une doctrine.</p>
<p>Ceci dit il y a peut-être un fond de vérité dans les doctrines conséquentialistes ou déontologiques : après tout, ceux qui les défendent se basent souvent sur des intuitions largement partagées. Le non-cognitivisme n’est pas forcément un relativisme si l’on conçoit que certaines méta-normes très abstraites, comme la cohérence logique, une forme d’empirisme pour la formation des croyances, ou une forme de conséquentialisme et d’universalisme ou de réciprocité pour la formation des règles de comportement, sont en principe partagées par tout agent cognitif quel qu’il soit (peut-être par simple définition de ce que c’est que d’être un agent cognitif et ce qu’est la morale ou la connaissance : je serais assez tenté d’en faire des principes purement analytiques). On peut alors qualifier cela de rationalité. Mais ce type de rationalité laisse au moins une place au pluralisme, et il ne peut à lui seul fonder la morale car il tourne à vide sans une base concrète à laquelle appliquer les principes abstraits : il ne faudrait donc pas surévaluer le pouvoir de conviction de l’argumentation rationnelle ni, surtout, la couper des expériences émotionnelles qui constituent sa base.</p>Quentin Ruyanthttp://www.blogger.com/profile/18395553776256376317noreply@blogger.com0tag:blogger.com,1999:blog-2904928175656435462.post-26963464319898123302022-06-10T13:34:00.020+02:002022-06-10T15:52:41.316+02:00Fine tuning, total evidence and indexicals<p>This is a follow-up of the <a href="http://ungraindesable.blogspot.com/2022/06/fine-tuning-and-multiverses.html">previous post</a>.</p>
<p>The debate on fine tuning and multiverses hinges on complex issues related to Bayesian reasoning. An <a href="http://web.mit.edu/rog/www/papers/fine_tuning.pdf">influential argument from White</a> in particular seems to show that we cannot infer the existence of the multiverse from our evidence of fine tuning. (White’s argument is apparently the main reason Philip Goff rejects the multiverse hypothesis, since most of his examples come from this particular paper.)</p>
<p>The argument rests on the requirement of total evidence that White illustrates with this example: </p>
<blockquote>
<p>Suppose I’m wondering why I feel sick today, and someone suggests that perhaps Adam got drunk last night. I object that I have no reason to believe this hypothesis since Adam’s drunkenness would not raise the probability of me feeling sick. But, the reply goes, it does raise the probability that someone in the room feels sick, and we know that this is true, since we know that you feel sick, so the fact that someone in the room feels sick is evidence that Adam got drunk.</p>
</blockquote>
<p>This reasoning is silly: the fact that Adam got drunk makes it more likely that someone got sick at the party, but not that it was me. Focusing on weak evidence instead of strong evidence can lead us astray in our inferences.</p>
<p>How is this supposed to apply to fine tuning? Our strong evidence is “our universe is fine-tuned”. From this, we infer the weak evidence “at least one universe is fine-tuned”. The multiverse hypothesis explains that at least one universe is fine-tuned: if there are many universes, the probability that at least one of them is fine-tuned is much higher than if there is only one. But according to White, this does not explain why our universe in particular is fine-tuned. Doing so would mean falling prey to an inverse gambler fallacy (see previous post).</p>
<p>White’s argument is fallacious, and I’ll explain why by using toy models.</p>
<h2 id="bayesianism">Bayesianism</h2>
<p>Let me first note that I take Bayesian inference to tell us how likely a model is given our evidence, or how much we should boost our confidence in this model. </p>
<p>A model can be probabilistic, in which case it incorporates probabilistic processes. Then the model predicts that our evidence <span class="math inline"><em>E</em></span> should occur with probability <span class="math inline"><em>p</em></span>. We can use Bayes’s theorem to “inverse” this probability and infer the likelihood of the model itself given our evidence.</p>
<p>This rationale is not devoid of problems (it requires that we fix prior likelihoods for our models: how?), but detail will not matter much here. For the sake of this article, we can just consider the following weaker principle:</p>
<blockquote>
<p>A model <span class="math inline"><em>M</em><sub>1</sub></span> is favoured (or “boosted”) by a piece of evidence <span class="math inline"><em>E</em></span> compared to another model <span class="math inline"><em>M</em><sub>2</sub></span> if <span class="math inline"><em>M</em><sub>1</sub></span> makes <span class="math inline"><em>E</em></span> more likely than <span class="math inline"><em>M</em><sub>2</sub></span> does.</p>
</blockquote>
<p>[Side note]<br />
In real scientific practice, the evidence is statistical, because we want our models to have a certain level of generality. This cannot be the case with fine-tuning: we only have one piece of evidence associated with the value of the constants of our universe. </p>
<p>Strictly speaking, this is a problem for the argument for the multiverse. Why should we assign a probability space to the possible values of constants? Why not simply say that our evidence favours the model with actual constants? </p>
<p>The point is that constants are primitive in a theory, but the problem of fine-tuning prompts us to explain their values, which is tantamount to speculating about what future theories would tell us about them. There is no reason to think that future theories will associate the value of physical constants with a probabilistic process (although it’s not excluded). </p>
<p>I personally think that this is enough to discard the problem: just wait for a future theory before speculating. However, this is not the issue that I want to discuss here, so let us grant that there’s a problem that can be framed in a probabilistic setting.<br />
[End side note]</p>
<h2 id="illustration">Illustration</h2>
<p>It will be easier to first illustrate the issue with a mundane case analogous to fine-tuning. This will shed light on how exactly the requirement of total evidence and the inverse gambler fallacy are involved.</p>
<blockquote>
<p>Mary and John are infertile. Their only way to have children is IVF. In their case, the success rate of IVF is 10%. The law of their country stipulates that a couple can only try IVF twice, with a three-year interval between the two trials. They can try a second time even when the first trial was successful.</p>
</blockquote>
<p>Let us consider three models.</p>
<p>In the first model, <span class="math inline"><em>M</em><sub>0</sub></span>, Mary and John never try IVF. The model predicts with 100% chance that Mary will not get pregnant.</p>
<p>In the second model, <span class="math inline"><em>M</em><sub>1</sub></span>, Mary and John only attempt IVF once. The model predicts a probability of 10% that Mary gets pregnant, and 90% that she doesn’t.</p>
<p>In the third model, <span class="math inline"><em>M</em><sub>2</sub></span>, Mary and John attempted IVF twice. This gives a 1% chance that the two trials were successful, a 9% chance that only the first was, a 9% chance that only the second was, which means a total of 19% that Mary got pregnant at least once, and a 81% chance that she didn’t get pregnant at all.</p>
<p>Now let us consider three scenarios.</p>
<dl>
<dt>First scenario:</dt>
<dd><p>Mary is one of Robert’s remote relative. Robert knows the procedure that Mary has to follow to get pregnant. Robert asks Mary if she knows what it is like to be pregnant. Mary answers “oh yes, I know it first hand”. From Mary’s answer, Robert learns that Mary got pregnant at least once, but he doesn’t know if it’s once or twice.</p>
</dd>
</dl>
<p>Clearly, Robert should boost his confidence in <span class="math inline"><em>M</em><sub>2</sub></span>, because it predicts his evidence with a 19% probability instead of a 10% one for <span class="math inline"><em>M</em><sub>1</sub></span>. <span class="math inline"><em>M</em><sub>0</sub></span> is completely excluded by his evidence.</p>
<p>To see that Robert’s reasoning is correct, we can imagine that there are 300 situations like Robert’s in the world. In 100 of these, the relative has never performed IVF. In 100 other situations, she has performed IVF once, and in 10 out of them this relative got pregnant. In the 100 last situations, the relative has performed IVF twice, and in 19 out of them, she got pregnant. Most of the situations where the relative can say “oh yes, I know it first hand” are situations where they made two attempts, so people in Robert’s situation are right to bet that they are probably in one such situation.</p>
<dl>
<dt>Second scenario:</dt>
<dd><p>Alice is a doctor at the hospital. She takes care of Mary for her IVF. After a few weeks, she learns that the IVF was successful: Mary got pregnant. However, Alice has no idea whether it’s Mary’s first or second attempt. She doesn’t even know if Mary already has a child. All she knows is that this particular IVF was successful.</p>
</dd>
</dl>
<p>Should Alice conclude from the success that it’s Mary’s second attempt? After all, two attempts make success more likely. However, this would be a fallacy.</p>
<p>In this scenario, Alice should consider three models. The first one is <span class="math inline"><em>M</em><sub>1</sub></span>: this is Mary’s first and only attempt. The second one is <span class="math inline"><em>M</em><sub>2</sub></span>, complemented with the information that <em>this</em> is the first attempt, some kind of “you are here” sign attached to the model if you will. Call this complemented model <span class="math inline"><em>M</em><sub>2</sub>′</span>. Finally, there is <span class="math inline"><em>M</em><sub>2</sub></span> complemented with the information that <em>this</em> is the second attempt, call it <span class="math inline"><em>M</em><sub>2</sub>″</span>.</p>
<p>Note that <span class="math inline"><em>M</em><sub>0</sub></span> should not be considered at all: not because it will be discarded by Alice’s evidence, but because it does not apply to the case. When considering a situation, we should only take into account the models that are apt to represent the situation, and <span class="math inline"><em>M</em><sub>0</sub></span> is not one of them. Given that she assists to one of Mary’s attempt (this is the context), there is no more reason for Alice to consider <span class="math inline"><em>M</em><sub>0</sub></span> than there is to consider the quantum model of the hydrogen atom to represent the situation.</p>
<p>In this case, Alice’s evidence does not favour any of the three models. Indeed, the probability of success is 10% with <span class="math inline"><em>M</em><sub>1</sub></span>, and it is also 10% with <span class="math inline"><em>M</em><sub>2</sub>′</span> or <span class="math inline"><em>M</em><sub>2</sub>″</span>: 1% chance that the two trials were successful including <em>this</em> one, and 9% chance that only <em>this</em> one was.</p>
<p>Here we have an illustration of the requirement of total evidence. If Alice went from the strong evidence “this attempt was successful” to the weaker evidence “at least one attempt was successful”, she would mistakenly favour <span class="math inline"><em>M</em><sub>2</sub></span> over <span class="math inline"><em>M</em><sub>1</sub></span>. She would be commiting an inverse gambler fallacy. She must take into account her total evidence, and therefore consider <span class="math inline"><em>M</em><sub>2</sub>′</span> and <span class="math inline"><em>M</em><sub>2</sub>″</span> instead of <span class="math inline"><em>M</em><sub>2</sub></span>, and then, no model is boosted.</p>
<p>We can imagine 300 situations like Alice’s to see why her reasoning is correct. Assume that in 100 of them it is the patient’s first and only attempt, 10 of which will be successful, in 100 of them it is the patient’s first attempt among two, 10 of which will be successful, and in 100 of them it is the patient’s second attempt, 10 of them being successful as well. Successes are equally distributed in all three groups, so people in Alice’s situation have no reason to infer from success that their situation is among any of the three groups.</p>
<p>Note however, that there is a sense in which <span class="math inline"><em>M</em><sub>2</sub></span> is boosted in this scenario. When Alice first learns that Mary will attempt IVF, <em>before</em> learning about the outcome, she has some reason to favour the hypothesis that this is one of two attempts, simply because if Mary makes two attempts instead of one in her life, there is more chance that she will meet Alice. But then the focus is slightly different: we are not considering the narrow situation where an IVF attempt is made, but the larger situation where Mary could have decided or not to attempt IVF, could have met Alice or another doctor instead, etc. and we can suspect that more information should be taken into consideration in order to evaluate which of <span class="math inline"><em>M</em><sub>0</sub></span>, <span class="math inline"><em>M</em><sub>1</sub></span> and <span class="math inline"><em>M</em><sub>2</sub></span> is boosted by the evidence (for example, the likelihood that Mary meet Alice instead of another doctor). In any case, the evidence of success plays no role in this context.</p>
<dl>
<dt>Third scenario:</dt>
<dd><p>Jane is Mary and John’s daugther. She knows about the process that her parents had to follow for her conception. However, because of dramatic circumstances, she was taken away from her parents just after her birth, so she doesn’t know how many IVF attempts her parents did, and she doesn’t even know if she has a sibling.</p>
</dd>
</dl>
<p>The question is: are we closer to the first or to the second scenario?</p>
<p>The fact that Jane has evidence, from her own existence, that her mother got pregnant at one specific time, following one specific conception procedure, could let us think that her situation is very close to the second scenario. However, this is a mistake.</p>
<p>The reason is that in the second scenario, Alice first learns that Mary wishes to attempt IFV. This sets up a context for her inferences. Then she learns that the IFV was succesful: this is her evidence. But this is not the case for Jane.</p>
<p>What sets up the context in Jane’s case is when she learns that her parents had to follow a particular procedure to get children, without reference to one particular IVF attempt. This context does not imply that her parents made any attempt, actually. <span class="math inline"><em>M</em><sub>0</sub></span> is still a possible model in this context. It is her evidence that she exists that will favour one or the other model among <span class="math inline"><em>M</em><sub>0</sub></span>, <span class="math inline"><em>M</em><sub>1</sub></span> and <span class="math inline"><em>M</em><sub>2</sub></span>.</p>
<p>Her evidence will discard <span class="math inline"><em>M</em><sub>0</sub></span>: the probability of our own existence is 0% with this model. It will favour <span class="math inline"><em>M</em><sub>2</sub></span> over <span class="math inline"><em>M</em><sub>1</sub></span>. Her mother probably made two attempts. This raises the probability of her own existence from 10% to 20% (the case where the two attempts are succesful in <span class="math inline"><em>M</em><sub>2</sub></span> makes her existence twice as likely, so we get 20% instead of 19%).</p>
<p>Why doesn’t Jane consider our models <span class="math inline"><em>M</em><sub>2</sub>′</span> and <span class="math inline"><em>M</em><sub>2</sub>″</span> above? Because this would be asking a different question: whether she is her mother’s first or second child. Her evidence tells her nothing about this, and indeed, none of <span class="math inline"><em>M</em><sub>1</sub></span>, <span class="math inline"><em>M</em><sub>2</sub>′</span> and <span class="math inline"><em>M</em><sub>2</sub>″</span> is boosted in this inferential context. But it also makes sense for Jane to ask how many times her parents tried IVF, and in this inferential context, her evidence favours the hypothesis that they tried twice.</p>
<p>To see that Jane’s reasoning is correct, we can imagine that there are many cases like Jane’s in the world. Imagine that 100 parents never attempt IVF, 100 parents attempt IVF only once, resulting in 10 children like Jane being born, and that 100 parents attempt IVF twice, resulting in 20 children like Jane being born. Twice as many children in Jane’s situation are children from parents that made two IVF attempts instead of one. So, each of these children would be right to infer that their parents probably made two attempts, because they are more likely to be among the 20 than among the 10.</p>
<p>So, Jane’s case is actually closer to the first scenario, despite her knowledge that <em>her</em> conception occurred. Her inferential context is one where she knows that her parents followed an IVF procedure once or twice, and what she learns from her own existence is <em>not</em> that the first attempt was successful, nor that the second attempt was successful, but only that <em>at least one attempt</em> (which happens to correspond to <em>her</em> conception) was successful.</p>
<h2 id="back-to-cosmology">Back to cosmology</h2>
<p>How can we transpose our reasoning to the problem of fine-tuning?</p>
<p>Consider a cosmological model with only one universe <span class="math inline"><em>U</em><sub>1</sub></span>, with a 10% probability that there is life in this universe, and another cosmological model with two universes <span class="math inline"><em>U</em><sub>1</sub></span> and <span class="math inline"><em>U</em><sub>2</sub></span>, with 10% probability for each universe to contain life. This is exactly analogous to our models <span class="math inline"><em>M</em><sub>1</sub></span> and <span class="math inline"><em>M</em><sub>2</sub></span>: a universe creation event is analogous to an IVF, and the development of life in this universe is analogous to a success leading to pregnancy. <span class="math inline"><em>U</em><sub>1</sub></span> incorporates a single universe hypothesis, and <span class="math inline"><em>U</em><sub>2</sub></span> a multiverse (actually, bi-universe) hypothesis.</p>
<p>We are in the situation of Jane. We do not know if we have “sibling” universes. We do not know if more than one universe was created. Our only evidence is that we are in a universe with life. We know that it is <em>our</em> universe, <em>this</em> universe, just like Jane knows that she is the result of <em>her</em> conception. However, we have no idea, under the hypothesis that the right model is <span class="math inline"><em>M</em><sub>2</sub></span>, whether this universe would be <span class="math inline"><em>U</em><sub>1</sub></span> or <span class="math inline"><em>U</em><sub>2</sub></span> in the model. And just like in Jane’s case, our evidence that <em>our</em> universe contains life favours <span class="math inline"><em>M</em><sub>2</sub></span> over <span class="math inline"><em>M</em><sub>1</sub></span>.</p>
<p>[Side note]<br />
If there is a disanalogy between the cosmological case and the previous case, it lies in the fact that the justification we adopted (“imagine there are 300 situations like this one…”) cannot be adopted here. There is only one multiverse.</p>
<p>One way around this problem is to consider 200 <em>possible</em> situations like ours. In 100 of them, there is only one universe, and in 10 out of them, it’s a universe with life. In the 100 other situations, there are two universes. In 18 out of them, there is one universe with life, and in 1 there are two universes with life. Any possible population of a universe with life would be right to assume that they live in a multiverse, since this is the case for 20 possible universes among 30.</p>
<p>Is this fallacious reasoning? Perhaps, but then any probabilistic reasoning about multiverses will be fallacious, including White’s (see the side note in the introduction). But if we accept that probabilistic reasoning makes sense in this context, we should accept that the multiverse hypothesis is boosted by our evidence.<br />
[End side note]</p>
<p>White insists that we must take into account our evidence that <em>this</em> universe exists, and that this fact is part of our background knowledge in Bayesian inference. The way he models this in his article amounts to pointing to one of the two universes in <span class="math inline"><em>M</em><sub>2</sub></span> and declare “this is our universe”. In essence, White asks us to consider the model <span class="math inline"><em>M</em><sub>2</sub>′</span> as the right representant of the multiverse hypothesis instead of the model <span class="math inline"><em>M</em><sub>2</sub></span>. And he remarks that this model is not favoured by our evidence, which is right. But <span class="math inline"><em>M</em><sub>2</sub>′</span> is not the right model.</p>
<p><span class="math inline"><em>M</em><sub>2</sub>′</span> would correspond to our situation if we had some means of identifying our universe with respect to other universes in the model. This would be the case, for example, if we were there before the creation of our own universe, just like Alice was there before Mary’s pregnancy. We could have pointed to our universe and say “let’s call this one <span class="math inline"><em>U</em><sub>1</sub></span>, and let’s see if it contains life”. Then we would have applied our two models, <span class="math inline"><em>M</em><sub>1</sub></span> and <span class="math inline"><em>M</em><sub>2</sub>′</span>, and see that none of the models is favoured by our evidence that <span class="math inline"><em>U</em><sub>1</sub></span> eventually contains life.</p>
<p>But that’s not how it works. There might be something that identifies our universe with respect to the other ones in the multiverse (perhaps they are ordered in a time sequence, just like Mary’s IVFs) but this is not some information to which we have access. We do not have the indexical information that White thinks we have that would allow us to locate ourselves in the multiverse.</p>
<p>We could use models like <span class="math inline"><em>M</em><sub>2</sub>′</span> and <span class="math inline"><em>M</em><sub>2</sub>″</span> if we wanted to know “is <span class="math inline"><em>U</em><sub>1</sub></span> in the model <em>our</em> universe, or is it <span class="math inline"><em>U</em><sub>2</sub></span>?”, in the way Jane could wonder “am I the first or the second child?”, and as expected, our evidence would not favour any of the two hypotheses. But this is not the question that we want to ask in the context of fine-tuning. What we want to know is whether there are other universes. This is why we should consider <span class="math inline"><em>M</em><sub>2</sub></span> as the right model of the multiverse instead of <span class="math inline"><em>M</em><sub>2</sub>′</span> or <span class="math inline"><em>M</em><sub>2</sub>″</span>. The fact that our situation resembles much more that of Jane than that of Alice is enough to make this point.</p>
<p>The difference between <span class="math inline"><em>M</em><sub>2</sub>′</span> and <span class="math inline"><em>M</em><sub>2</sub></span> is that the former comes with a “you are here” sign. Scientific models rarely come with a “you are here” sign, and theoretical models never do. They aim at generality. They’re interested in types, not in particulars, and cosmology, despite its peculiar object, the universe, is no exception to the rule. It applies to the universe the same methods that worked for other types of system, thus implicitly considering that our universe is just a representant of a certain <em>type</em> of physical object (modelled, for example, like an infinite gas, without any specification of our own position).</p>
<p>Now philosophers, drawn by metaphysical considerations, may wonder which “you are here” cosmological model is favoured by our evidence, taking into account our best scientific theories. It’s always nice to see metaphysicians taking into account the outcome of science in their reflection, but it would be better if they were paying due respect to what these models aim at before asking the wrong questions. In this regard, they should acknowledge that science has never been in the business of vindicating “you are here” models.</p>Quentin Ruyanthttp://www.blogger.com/profile/18395553776256376317noreply@blogger.com0tag:blogger.com,1999:blog-2904928175656435462.post-53080995991870598932022-06-05T13:13:00.032+02:002022-06-06T14:06:05.246+02:00Fine-tuning and Multiverses<p>There has been a <a href="https://twitter.com/keithfrankish/status/1532813332041945089?s=20&t=KlgvRw_8WKQLbAQVQHUzzw">discussion on Twitter</a> regarding the view, expressed by Philip Goff, that the multiverse hypothesis is not a good explanation for fine-tuning (or, as he would probably say, cannot be inferred from the fine-tuning of our universe).</p>
<h2 id="short-summary-of-philips-position">Short summary of Philip’s position</h2>
<p>The constants of our universe seem to be fine tuned for life, which would be miraculous. How can we explain this? An apparently good explanation is a multiverse hypothesis together with a selection effect. The idea is that there are many universes with different values for constants, so the fact that some of them are suitable for life is not miraculous, and of course, we happen to be in such a universe.</p>
<p>According to Philip, an inference to this explanation is fallacious. It is an inverse gambler fallacy: seeing a double six when entering a casino, and inferring that there were many trials. The usual response is that it is not, because of a selection effect. If we are only allowed to enter the casino when a double six is rolled, we can infer that many trials were made before we were shown one. In the case of fine-tuning, we would not exist if the constants were not right, so there is a selection effect. But according to Philip, this move is fallacious.</p>
<p>After discussion, he reaches this case in a <a href="https://www.philipgoffphilosophy.com/uploads/1/4/4/4/14443634/is_the_fine-tuning_evidence_for_a_multiverse_.pdf">document published on his website</a> (corrected on Twitter, I report the correction). It is supposed to be analogous to the problem of fine tuning with a selection effect, and the analog of an inference to many universes would still be fallacious:</p>
<dl>
<dt>Jane3:</dt>
<dd><p>Jane is the product of IVF. One day she discovers that the doctor who performed the IVF which led to her existence rolled dice to see whether to fertilise the egg, determining to do so only if she rolled a double six. The doctor only adopted this procedure once. Given that she exists, Jane concludes that other different doctors must have adopted this decision procedure in the case of many other potential IVFs.</p>
</dd>
</dl>
<p>The doctor rolling a dice corresponds to our universe “choosing” its physical constants, and the double six corresponds to the values of these constants that favour life. According to Philip, the final inference is fallacious.</p>
<blockquote>
<p>“Her evidence is that a double six was rolled to decide whether her conception would go ahead. How many times [other doctors] have done this with respect to other potential conceptions has no bearing on how likely a double six was to come up in the case of her conception”</p>
</blockquote>
<p>So, the existence of other unviverses cannot explain why the constants of our universe are suitable for life. The intuition behind this rejection can be given by comparing with a lottery case:</p>
<dl>
<dt>Lottery:</dt>
<dd><p>Jane buys a lottery ticket and wins. Given that she won, Jane concludes that many other people bought a lottery ticket as well.</p>
</dd>
</dl>
<p>This inference is absurd: what other people do does not change Jane’s probability of winning the lottery. This example does not have any selection effect, but the point is that it would be irrelevant. For example:</p>
<dl>
<dt>FatalLottery:</dt>
<dd><p>Jane buys a lottery ticket. Her enemy will kill her in her sleep if she loses the lottery. However, she wakes up and sees that she won. Given that she won, Jane concludes that many other people bought a lottery ticket as well.</p>
</dd>
</dl>
<p>The inference is still absurd with a selection effect. But are we in such a case with fine-tuning?</p>
<p>On the one hand, I am not personnally convinced that fine-tuning is a real problem (because I think it’s a theory-laden problem). But on the other hand, I think that Philip is wrong: were fine-tuning a problem, the multiverse would be a solution.</p>
<p>I will give three problems and a diagnostic for <em>Jane3</em> case. Then I will return to the gambler fallacy and selection effect, and finally, briefly discuss whether the problem should be framed in inferential or explanatory terms, because this point came up in the twitter discussion.</p>
<h2 id="first-problem">First Problem</h2>
<p>A first problem with <em>Jane3</em> is that it’s analogous to the standard explanation for why the earth is habitable. The dice roll is analogous to the earth “choosing” its distance to the sun, its having a big satellite that stabilises its orbit, its being of the right mass not to lose its atmosphere, and all other unlikely factors that are necessary for life. This gives us the case:</p>
<dl>
<dt>Earth:</dt>
<dd><p>Life is a consequence of the formation of the earth. The characteristics of the earth that make it habitable are very unlikely to occur. Given that life exists, we conclude that many other planets with different characteristics have been formed in the universe. We just happen to be on one with the right characteristics.</p>
</dd>
</dl>
<p>In this case, the inference does not seem invalid at all to me, and it’s almost if not identical to the standard explanation for why there’s life on earth that nearly everyone accepts. But in order to be coherent, Philip should conclude in this case too that:</p>
<blockquote>
<p>“Our evidence is that the earth has the right conditions for us to exist. How many times the process of planet formation occurred in other solar systems has no bearing on how likely the right conditions were to come up in the case of the earth.”</p>
</blockquote>
<p>So, knowing that other planets exist is of no importance, it has no bearing on our problem, because what we want to explain is why the earth in particular had the right conditions for life, and we’re not interested in other planets. Then we should reject the widely accepted explanation for why the earth is habitable.</p>
<p>Philip’s response is that the standard explanation for why the earth is habitable is acceptable because we already know that there are other planets. However, it would be fallacious to infer that other planets exist from the mere fact that there is life on earth. But I think that this response is not acceptable. In the lottery case, we know that other players exist, and this does not change the fact that the inference is invalid. So, <strong>either the existence of other planets has no bearing on why the earth has the right conditions for life (then the standard explanation fails), or it has (then it succeeds), and this does not depend on our knowledge that other planets exist</strong>. Rather, as I will argue, it depends on the exact question being asked and what we want to explain.</p>
<h2 id="second-problem">Second Problem</h2>
<p>The second problem with <em>Jane3</em> (noted by Keith Frankish in the twitter discussion) is that the fine-tuning argument for the existence of God or any kind of designer seems to be fallacious as well if we try to apply it here. But Philip accepts this argument in the case of fine tuning. Take the following case, which is just <em>Jane3</em> with a different conclusion:</p>
<dl>
<dt>LoadedDice:</dt>
<dd><p>Jane is the product of IVF. One day she discovers that the doctor who performed the IVF which led to her existence rolled dice to see whether to fertilise the egg, determining to do so only if she rolled a double six. The doctor adopted this procedure only once. Given that she exists, Jane concludes that someone loaded the dice so that the result of the roll was a double six.</p>
</dd>
</dl>
<p>I don’t think that this argument is particularly persuasive. Jane’s existence was unlikely, but that’s no reason for her to conclude that the dice were loaded, unless we have independent reasons to assume that someone really wanted her to exist. If not, she might as well not have existed.</p>
<p>[Added part]<br />
Is it somehow surprising that there was a double six given the odds? If Jane is very special, yes, otherwise, we could assume that the procedure was adopted thousands of times by other doctors before her conception, and Jane is among the few successes. For Jane to ask “why me in particular?” would be like for a lottery winner to ask “why me?”. There has to be a winner. Jane was lucky, that’s all.<br />
[End of added part]</p>
<p>However, Philip accepts the argument for design in the case of fine-tuning, and I think that he is right to do so (if fine-tuning were a real problem, that is). So what goes wrong? Maybe we could adapt the case to make the design argument work.</p>
<p>The point where this case departs from the standard fine-tuning argument is that the stakes are low: Jane is not special, there’s no reason someone would want her in particular to exist, so there’s no reason to assume that someone loaded the dice. But God would want life to occur. If we want to get closer to a design argument, we must therefore adapt the case and raise the stakes.</p>
<dl>
<dt>JaneAndTarzan1:</dt>
<dd><p>Jane and Tarzan are the last humans on earth. They are the product of IVF. One day they discover that just before the apocalypse, the aliens that were in control of the earth at the time obliged the doctor that performed their IVFs to roll dice each time to see whether to fertilise the eggs, determining to do so only if they rolled a double six. The doctor only performed two IVF following this procedure. Given that they both exist, Jane and Tarzan conclude that someone loaded the dice so that the results of the roll were each time a double six.</p>
</dd>
</dl>
<p>This is now more persuasive because we would understand why someone would do that: the existence of Jane and Tarzan is desirable. And it’s unlikely that this desirable result would obtain without the trick. But what if we go back to the original multiverse argument and make the same change?</p>
<dl>
<dt>JaneAndTarzan2:</dt>
<dd><p>Jane and Tarzan are the last humans on earth. They are the product of IVF. One day they discover that just before the apocalypse, the aliens that were in control of the earth at the time obliged all doctors performing an IVF to roll dice each time to see whether to fertilise the eggs, determining to do so only if they rolled a double six. Doctors can only perform two IVFs in their career. Given that they exist, Jane and Tarzan conclude that many different doctors must have made trials before to succeed.</p>
</dd>
</dl>
<p>I dare say that the inference is much more plausible now, and that unless we have independent evidence that only one doctor could perform IVFs, this is the best explanation for the existence of Tarzan and Jane. It’s even better than the loaded dice explanation. Shall we object that “how many other doctors have done this with respect to other potential conceptions has no bearing on how likely a double six was to come up in the case of [their] conception”? This seems simply irrelevant: Tarzan and Jane would not exist if doctors had not tried hard.</p>
<p>So, <strong>not only the design argument does not seem much more persuasive than the multiverse argument in <em>Jane3</em>, but attempting to make it more persuasive also saves the multiverse argument</strong>.</p>
<p>One could think that the idea that there were many doctors, or that dices are loaded, is deduced from the premise that people at the time really wanted humanity to survive, and not from the premise that Jane and Tarzan exist. I don’t think this is right: the will of the doctors merely reinforce the inference, but it is not necessary. I will come back to this soon.</p>
<h2 id="third-problem">Third Problem</h2>
<p>A third problem (noted by @ Disagreeable_I on Twitter) is that the intuitions we have in <em>Jane3</em> seem to be sensible to details that are apparently irrelevant. This means that the case is not very robust, and we might suspect that it was fine-tuned (!) to make us accept a particular conclusion. We have seen with <em>Earth</em> and with <em>TarzanAndJane</em> that different alterations prompted different intuitions, but we can already see it with a case that is much closer, almost equivalent to the original:</p>
<dl>
<dt>Jane3bis:</dt>
<dd><p>Jane is the product of IVF. She learns that the success of IVF depends on the co-presence of many contingent factors. Any trial has only one chance over a thousand to be successful, and gives rise to a different baby when it succeeds. A doctor can only make an IVF once, but parents can see many doctors. Given that she exists, Jane concludes that her parents saw many doctors before her conception.</p>
</dd>
</dl>
<p>This case is almost identical to the original <em>Jane3</em>, with the dice replaced by a more realistic probabilistic process. Another important difference is that the many trials of the conclusion concern specific parents. But although similar, the inference does not seem as problematic as before, for some reason. People born from IVF would be right to suspect that given the randomness of the process, many trials were made before the success that resulted in their existence. Why this difference?</p>
<p>One view mentioned before would be that it is the high stakes that explain that many trials were made, and not their existence: parents that do IVF want a child, so they are likely to make many trials. The same rationale could be given for <em>JaneAndTarzan</em>. But this does not do justice to the intuition that what needs to be explained is that it would have been very unlikely for Jane to came to life after only one trial, whereas her birth is no surprise if many trials were performed.</p>
<p>We can make another change to the case in order to remove this parasitic effect of stakes.</p>
<dl>
<dt>Infertility:</dt>
<dd><p>Jane is the product of natural fecondation. She learns that her father is almost infertile: any intercourse has only one chance over a thousand to result in fecondation (each intercourse resulting in fecondation will give rise to a different baby). Furthermore, Jane learns that her parents never really wanted to have a baby. Given that she exists, Jane concludes that her parents probably had many intercourses, and that one of them accidentally resulted in her fecondation.</p>
</dd>
</dl>
<p>The inference still seems valid: it would be a miracle for Jane to exist if her parents only had one intercourse, so an explanation is that they had many. And this conclusion is not reached from the fact that they really wanted a child, but only from the fact that Jane exists. Indeed, Jane only has evidence for one intercourse, the one that resulted in her existence. She has no independent reason to assume that her parents had others. Only her existence and the infertility of her father favours this hypothesis.</p>
<p>This case is relevantly similar to the case of fine-tuning: the laws of nature as described by contemporary physics are “almost infertile”, they need very specific constants to produce life, and yet we exist. One explanation is that there were many “intercourses” with the same laws, but different constants.</p>
<p>Philip argues that in this case, the relevant evidence is not Jane’s existence, but her mother’s pregnancy. There’s something right in this diagnostic: relevance matters. But it cannot be the whole story, because the mother’s pregnancy can be deduced from Jane’s existence, and so, <strong>if we can infer many trials from pregnancy, we can also infer many trials from Jane’s existence</strong>. So, why wouldn’t it work in the original case too? Is the fact that the conclusion concerns only Jane’s parents the main difference? But then in the original case too we could infer that many trials were made by her parents, with different doctors.</p>
<p>The most relevant difference seems to be this: in the original case, we only assume that the weird dice procedure was adopted in the case of Jane’s birth. It could be used elsewhere, but it’s not necessary. In the last case, and, actually, <strong>in all cases where the inference seems valid, we assume that a probabilistic procedure is necessarily involved in all possible members of a relevant set of possibilities</strong> (all planet formations, all the IVF that could have occurred before the apocalypse, or all the fecondations from Jane’s parents). Actually, the sole replacement of dices with probabilities associated with IVF does this, the relevant set being IVF born children: by natural necessity, these children are subject to a random process (the set of children born from the dice procedure is more ad-hoc, whereas IVF does not have to be chancy by definition, but it happens to be).</p>
<p>Note in passing that in the case of fine-tuning that interests us, it seems fair to assume that the probabilistic procedure (selection of physical constants) is necessary rather than contingent, that is, that it is involved in all possible universe creations (even if there’s only one universe).</p>
<p>We can now see how <em>Jane3</em> is specially designed to prompt anti-multiverse intuitions: it insists that the dice procedure is only contingently attached to specific instances of fecondation that have nothing else in common (not even being performed by the same doctor). My diagnostic is that this tiny difference changes the question being asked, or what is relevant for the explanation and what needs to be explained.</p>
<h2 id="the-diagnostic">The Diagnostic</h2>
<p>I will frame my diagnostic in terms of explanation, because I think that this is the appropriate setting: we are looking for an explanation to fine-tuning (I will discuss Philip’s inferentialist approach in the last section, but we can get to the same results). What happens in all our cases is that someone infers an explanation from something that seems unlikely.</p>
<p>An explanation is a response to a why question. A why question is generally analysed by means of a contrast class: why X rather than Y? We could add that an explanation generally takes for granted a background context C that remains fixed in counterfactual reasoning (whether X or Y is the case), some kind of “all other things being equal” clause. The explanation normally takes the form of a counterfactual: an answer “because Z” could be analysed as: “given C, if Z had not been the case, then we would have had Y instead of X (or X would have been less likely)”.</p>
<blockquote>
<p>Example: “why did my house burn (rather than not)?”<br />
Answer: “because the candle fell”, analysed as: “all else being equal (there is oxygen in the air, this is a wooden house, etc.), if the candle hadn’t fallen, your house wouldn’t have burnt”.</p>
</blockquote>
<p>My diagnostic is that the contrast class is different in all cases, which is why the inference is valid in some cases and not in others. The contrast class is induced by the presentation of the case.</p>
<p>The original <em>Jane3</em> case prompts us to ask “why does Jane exists rather than not?” (this is at least the question implicit in the objection provided by Philip), and the <em>LoadedDice</em> case as well. The problem with this case is that this is a weird question to ask. There is no answer to why a random process gives a certain result, no relevant counterfactual to give: it’s like that.</p>
<p>The <em>Earth</em> case prompts us to ask a different question: “why is life possible at all?” The contrast class is <em>not</em> “why the earth in particular has these characteristics rather than not?” but “why is there a planet with these characteristics in the universe (which happens to be the earth) rather than none?”. The right answer is “because there are many planets with different characteristics” (had it not be the case, habitable planets would probably not exist). Only then can we infer, by means of the selection effect, that the earth must be one of these possible objects, because we’re no more troubled by the impossibility of its existence.</p>
<p>We saw that raising the stakes makes for a more convincing case. What raising the stakes does is switching the contrast class of the explanation. In <em>JaneAndTarzan</em>, what interests us is no more why Jane and Tarzan in particular exist rather than not, but rather why some people (who happen to be Jane and Tarzan) exist rather than nobody. What stakes do is <strong>point to what is special about the instance we wish to explain</strong>, and this gives us the right contrast class. In the original case, Jane is only special as the person on which the case focuses. On the other hand, Jane and Tarzan are special qua last survivors of an apocalypse.</p>
<p>Finally, specifying that all members of a class of object must necessarily be subjected to a random procedure also gives us a potential contrast class, which are these objects. The question can then become: why is there an instance of this class rather than none? Refusing to attach a random procedure to a specific class of objects, as <em>Jane3</em> does, dissuades us from using this constrast class.</p>
<p>Depending on what question is asked, an inference or explanation can be valid or not. If the question is “why Jane in particular exists rather than not?” then no explanation is really valid. If the question is “why an IVF born child (Jane) exists rather than none?” then many explanations become relevant: perhaps it’s God, or some kind of design, or perhaps it’s many trials, and unless we have evidence that there was only one trial, invoking God should probably be avoided (why would God want life to occur in <em>our</em> universe rather than in any other?). And the same goes if the question is “why do these parents have a child (Jane) rather than none?”.</p>
<p>Interestingly, the design explanation and the multiverse explanation are relevant for exactly the same kind of questions. The questions where they are not relevant are indexed to particular instances of random processes and their outcomes. These questions are contrived and uninteresting, the only response being “it just is, it’s random”. Philip forced us to answer this kind of uninteresting question to make his case against the multiverse, in particular because his setting implies that the random process is only contingently attached to particular instances.</p>
<p>The problem of fine-tuning is not this kind of uninteresting question. The process of selection of constants is presumably involved not only with our universe, but with all possible universes. We do not want to know “why this particular universe has the right constants rather than not?”. What we want to know is why a universe suitable for life is possible at all given the apparent unlikelihood of such a universe, that is, “why a universe of this kind (ours or any, really) exists rather than none”. And the multiverse hypothesis gives us an adequate explanation.</p>
<h2 id="gambler-fallacies-selection-effects-and-rigidity">Gambler Fallacies, Selection Effects and Rigidity</h2>
<p>What was said in the previous section can be shown by providing very abstract cases and making variations that will imply a relevant contrast class. Take for example:</p>
<dl>
<dt>Abstract1:</dt>
<dd><p>X is an object of type A. Instances of A are necessarily the result of a random process of type P with a very tiny probability of success. Given that X exists, we infer that many processes of type P occurred, and not just one.</p>
</dd>
</dl>
<p>The inference seems valid in this abstract setting. It doesn’t seem right to say “how many processes of type P occurred has no bearing on the likelihood of this particular instance”, because we are interested in X only as an instance of a A, and had not many processes occurred, there would probably be no object of type A. So the inference from “there is a A” to “there are many Ps” is valid.</p>
<p>Now moving to a case where the procedure is not necessary:</p>
<dl>
<dt>Abstract2:</dt>
<dd><p>X is an object of type A. Instances of A can be produced in many ways, but X in particular was the result of one specific random process of type P with a very tiny probability of producing an object of type A. Given that X exists, we infer that processes of type P occurred many times.</p>
</dd>
</dl>
<p>In this case, is the inference valid? If the contrast class is still A, then many occurrences of P do not really explain that there are As because had these occurrences not been there, there would still be other As. But I think that with this presentation, we are drawn into thinking that the relevant contrast class must be X alone. “There is a A” is not the right starting point for the inference, because there is no strong link between As and Ps. However, there is a strong link between X and an instance of P. Now the inference could be valid in the sense that many P increase the likelihood of existence of the particular P that led to X. This amounts to introducing an artificial class of objects to which X belongs: the products of instances of P, asking why there are instances of this class rather than none. But this class is ad-hoc, and the contrast class “why X exists rather than not” is more natural.</p>
<p>But what about the lottery case in the introduction? And what about the inverse gambler fallacy? They seem to be instances of <em>Abstract1</em>: my winning the lottery is an instance of lottery winning, the result of a random process of type buying a ticket with tiny probability of producing a winning. But given my winning, I do not infer that many people bought a ticket. The double six I see is an instance of successful dice roll, the result of a process of type dice roll with tiny probability of success. But given the double six, I do not infer that many dice were rolled. What goes wrong?</p>
<p>In these cases, the problem does not come from an induced contrast class, but from an induced background context. The fact that I bought a ticket is part of the background, it is kept fixed in the inference. So, many people buying a ticket does not change the probability of me buying a ticket. Same for the fact that I saw a dice roll just after entering the casino.</p>
<p>[Edited part]<br />
What is part of the background context or not depends, I would say, on the way our relevant evidence is identified. In particular, it seems, from the lottery and casino example, that when the random process we are interested in is causally related to us (its reference is fixed) in a way that is independent of its outcome, then the existence of this process instance will be part of the background context. We rigidly refer to it, so to speak. This forces us to ask questions about this instance in particular. So, for example, I would buy a lottery ticket come what may, my causal relation to the lottery ticket is independent of whether it is a winning ticket, the outcome. The same goes for the dice roll I see in the casino. But if we add a selection effect, if I am only allowed to enter in the casino when a double six is rolled for instance, then the specific instance I see is causally related to me in a more complex way that crucially depends on its outcome, the result of the roll. The reference can be fixed only after the outcome. Then the rigid reference is not reference to the particular instance of random process, but rather to a type or a property: what is fixed “in all possible worlds” of the explanation is not the particular object that constitute my evidence, but the fact that the object, whatever it is, with which I will be in contact will correspond to a particular outcome, if I am in contact with an object at all. Not all selection effects have this result though. If someone kills me or not depending on whether I won the lottery (as in <em>FatalLottery</em>), or if someone shows me one particular roll only if its result is a double six, I am still causally related to a specific lottery ticket or dice roll independently of its result: this is how the instance is first identified and the reference fixed.</p>
<p>In the special case where I am myself the product of a random process, the reference is not fixed independently of its outcome. There can be no reference (by me) to the process prior to its outcome.</p>
<p>Taking this into account, we can propose the following case:</p>
<dl>
<dt>AbstractRigid:</dt>
<dd><p>Random processes of type P have a very tiny probability of producing an object of type A. We came to identify and be interested in a particular process p of type P by means of causal relations that are independent of the fact that p produced an object of type A. We observe that p produced X, an object of type A. Given the existence of X, we infer that many other processes of type P occurred as well, and not just p.</p>
</dd>
</dl>
<p>This is an invalid inference. Since the existence of p is part of the background context and since X is identified as the product of P, and not as any A, the contrast class that is forced upon us is “why p produced X rather than not?” and the number of instances of P becomes irrelevant. (In <em>Abstract2</em>, rigid reference to a process was induced by the relevant contrast class. In this case, it is the other way around.)</p>
<p><em>Abstract1</em> now appears to be vague, and we could amend it to reflect the fact that no particular instance of P was referred to before we could know whether it would produce an X or not.</p>
<dl>
<dt>AbstractNonRigid:</dt>
<dd><p>X is an object of type A. We came to identify and be interested in X by means of causal relations that crucially depend on the fact that X is a A. Instances of A are necessarily the result of a random process of type P with a very tiny probability of success. Given that X exists, we infer that many processes of type P occurred, and not just one.</p>
</dd>
</dl>
<p>In this case, the inference is valid.</p>
<p>The main factor of rigid reference is whether random processes are merely identified qua generators of a general class (<em>AbstractNonRigid</em>) or by means of reference to particular objects (<em>AbstractRigid</em> and <em>Abstract2</em>). When a process is not attached to a class of object, but only contingently to its instances, as in <em>Jane3</em>, the process can only be identified by means of particular objects. This is the trick Philip used because he wanted us to refer rigidly to a particular random process (to our universe), even though he had to depart from the <em>AbstractRigid</em> case because of some criticisms. When the random process is necessarily attached to a class of object, as in <em>Lottery</em>, <em>Earth</em> or <em>Jane3bis</em>, both kinds of identification are possible, but the right kind of filter effect removes rigidity.</p>
<p>What kind of case is the case of fine-tuning? I think that the answer is clear: it is an <em>AbstractNonRigid</em> case. We came to identify and be interested in our universe not by some direct acquaintance with an instance of selection of physical constants, independently of its outcome, but by acquaintance with what this universe produced after the constants were selected. Our capacity to refer to the universe crucially depends on the fact that it is suitable for life, so the right kind of selection effect is present. This excludes <em>AbstractRigid</em>. Furthermore, the relevant random processes are identified theoretically, qua hypothetical constants generators attached to the class of objects to which our universe belongs. They are not contingently attached to our universe in particular. This excludes an <em>Abstract2</em> case.</p>
<p>Hence, we should not rigidly refer to our universe in our reasonning (assuming its existence in the background context), but only to the kind of properties that it features, which is what we are really interested in: life, etc. This makes it possible to concentrate on the contrast class “why is is there a universe with the right constants for life rather than none” instead of “why does this particular universe have the right constants for us to be there rather than not”. The same goes in many of the cases analysed before: <em>JaneAndTarzan</em>, <em>Earth</em>, etc.<br />
[end of edited part]</p>
<h2 id="explanations-or-inferences">Explanations or Inferences?</h2>
<p>All this is framed in terms of explanations, but Philip complains that we should think in terms of inferences: from our evidence that we exist, or that the constants in our universe have such values, can we infer that there is a multiverse, using Bayesian inferences?</p>
<p>I should first say that I’m not convinced at all that the problem should be couched in terms of Bayesian inference. We could say that A explains B just in case prob(B|A & C) > prob(B|~A & C), but this is just an old model of explanation that has been abandoned because it suffers from the problem of relevance and from the problem of symmetry (our barometer could explain a storm with this account). Explanations are not simple deductive relations: they are better analysed by a counterfactual, as already explained.</p>
<p>Yet it can still be instructive to understand what is going on from a purely inferential point of view, without bothering us with these problems. For this purpose, we can take our three abstract cases. Note that in Bayesian inferences as well we have to condition on a background context (the C in the formulas of the previous paragraph). Also note that it is legitimate to deliberately remove part of our knowledge from the background, which is done for example to account for old evidence in favour of new theories.</p>
<p>In <em>AbstractNonRigid</em>, the likelihood of having a A given many processes of type P is clearly higher than if there’s only one P, so a Bayesian inference to many P is valid. The likelihood of our direct evidence X is increased as well, because the likelihood of occurrence of the particular process leading to X is increased. We should not assume that the existence of this process is part of the background context (in the fine-tuning cases, we should not assume as background that our universe exists, <a href="https://philpapers.org/rec/DRAPAF">as is often done in the literature in order to block the multiverse hypothesis</a>).</p>
<p>In <em>AbstractRigid</em>, the induced interpretation is that a particular instance of P, which happens to produce a X, is part of the background context (its likelihood is 1). This makes the inference from X to many processes invalid, as expected, because given that P is instantiated, other Ps will not increase the probability of our evidence.</p>
<p>In <em>Abstract2</em>, which corresponds to Philip’s <em>Jane3</em>, the probability of having a A can be marginally increased by many Ps, but the natural interpretation is that the process leading to X is part of the background context, so the inference from X to many Ps is invalid too for the same reasons.</p>
<p>So, we get the same right results. As argued in the previous section, the problem of fine-tuning is an instance of <em>AbstractNonRigid</em>, and therefore the inference from our evidence to the multiverse is valid.</p>
<p>So, despite framing the discussion in terms of explanations, I think that we can retrieve the same results by focusing on Bayesian inferences. The interest of talking in terms of explanations is only that it makes clear that before making an explanatory inference, we must assume a background context and a relevant contrast class, and these are sensitive to the kind of counterfactual/causal statement that is involved in the explanation, something that pure Bayesian inference cannot capture.</p>Quentin Ruyanthttp://www.blogger.com/profile/18395553776256376317noreply@blogger.com0tag:blogger.com,1999:blog-2904928175656435462.post-65954590600481933962022-01-21T17:43:00.034+01:002022-01-21T18:50:20.157+01:00Comment interpréter la possibilité et la nécessité en physique : pour une sémantique des situations possibles<p>Les lois d'une théorie physique sont souvent interprétées en termes de possibilités naturelles ou physiques : elles nous disent non seulement ce qui est ou n'est pas le cas dans le monde, mais aussi ce qui est physiquement possible ou impossible. Cette idée s'accompagne parfois d'une sémantique des mondes possibles pour les modalités naturelles, et d'une interprétation des modèles d'une théorie comme représentant un monde possible si la théorie est vraie. Cet article (un peu technique) vise à jeter les bases d'une conception alternative.
</p><h2>
La sémantique des mondes possibles
</h2><p>
Commençons par rappeler ce qu'est la sémantique des mondes possibles et un modèle logique pour les lectrices et lecteurs qui l'ignorent (si ces notions vous sont familières, vous pouvez passer à la section suivante).
</p><p>
Un monde possible peut être identifié à un ensemble maximal de propositions cohérentes entre elles (celles qui sont "vraies dans ce monde"). Maximal veut dire que toute proposition quelle qu'elle soit est soit vraie, soit fausse dans un monde donné (le monde contient soit cette proposition, soit sa négation) : on ne laisse aucune place à l'indétermination. On suppose alors que notre monde actuel est l'un des mondes possibles.
</p><p>
Ce formalisme permet de définir les notions de nécessité et de possibilité : une proposition est possible si elle est vraie dans au moins un monde possible, elle est nécessaire si elle est vraie dans tous les mondes possibles.
</p><p>
(À noter qu'on peut affiner ceci en introduisant, suivant le modèle de Kripke, une relation d'accessibilité entre monde pour, disons, relativiser la possibilité au monde depuis lequel on parle. Il en découle plusieurs systèmes modaux suivant les contraintes sur la relation d'accessibilité qu'on accepte. Par exemple, dans un système déontique, dans lequel "possible/nécessaire/impossible" s'interprète plus naturellement comme "autorisé/obligatoire/interdit", l'accessibilité n'est pas forcément réflexive : le monde d'où on parle peut être interdit. Le système S5 accepte la réflexivité, la transitivité et la symétrie de la relation d'accessibilité, ce qui revient en gros à simplement considérer un ensemble de mondes possibles tous accessibles entre eux comme nous le faisions au départ. Nous n'aurons pas besoin de considérer d'autres systèmes ici.)
</p><p>
On peut aussi représenter un monde possible par un modèle logique.
Un modèle logique, tel que défini par Tarski, est une structure mathématique (de théorie des ensembles) associée à un langage, ou autrement dit, un ensemble d'objets (qui peut être infini) tel que sont spécifiés, pour chaque terme d'un langage, à quels objets ces termes correspondent, c'est-à-dire une extension. Les noms propres se voient attribuer chacun un objet unique auquel le nom fait référence, les propriétés se voient attribuer l'ensemble des objets qui ont cette propriété, et ainsi de suite pour les relations (ensembles de couples, triplets, ... d'objets satisfaisant la relation).
</p><p>
Il est assez facile de voir qu'une telle structure est capable de rendre vraie ou fausse n'importe quelle proposition exprimée dans le langage.
Par exemple, "tous les chiens sont noirs" est vrai dans un modèle si tous les objets dans l'extension de "chien" se trouvent aussi dans l'extension de "noir". Sinon elle est fausse.
</p><p>
Par ailleurs, il a été proposé de considérer les modèles scientifiques en général comme des modèles au sens de Tarski, soit des structures associées au langage de la théorie (on doit cette proposition à Suppe).
Ainsi le modèle du système solaire dans la théorie de Newton serait un ensemble d'objets tel que l'extension de noms propres ("Jupiter"), de propriétés ("avoir une masse M") et de relations ("être à distance D") est spécifiée.
</p><p>
(Ceci suppose que les prédicats du langage sont en fait en nombre infinis : à chaque nombre réel M correspond un prédicat "avoir la masse M" distinct. Suivant cette approche, l'ensemble des axiomes mathématiques décrivant les caractéristiques des nombres réels, par exemple, doivent être intégrées à la théorie, et c'est beaucoup plus simple de le faire en logique du second ordre, soit en s'autorisant à quantifier sur les prédicats eux-mêmes. Mais ce sont des détails techniques.)
</p><h2>
Modèles d'une théorie comme modèle de Tarski
</h2><p>
Si l'on adopte une sémantique des mondes possibles, si de plus on considère qu'une théorie est un ensemble de propositions nécessaires (au sens d'une nécessité physique), les lois de la théorie, enfin si l'on considère que les modèles scientifiques d'une théorie sont les modèles qui satisfont ses lois au sens de Tarski, alors on en vient naturellement à l'idée que l'ensemble des modèles d'une théorie correspond à "l'ensemble des mondes possibles si la théorie est vraie", chaque modèle de cet ensemble décrivant un monde possible.
</p><p>
Le principal problème de cette façon de voir les choses, pour élégante qu'elle soit, est que cet ensemble de modèles au sens logico-mathématique ne correspond pas à l'ensemble des modèles physiques, ceux réellement considérés comme pertinents pour décrire le monde par les physiciens. Ainsi l'approche est déconnectée de la compréhension de ce qu'est un modèle en science.
Il existe au moins quatre différences significatives.
</p><h2>
1. Le problème des lois
</h2><p>
Premièrement, identifier une théorie à un ensemble fini de lois est problématique. À titre d'illustration, le cadre abstrait de la théorie de Newton (celui décrit par les trois lois de Newton) est compatible avec un très grand nombre de lois dynamiques, dont seules certaines sont réellement applicables au monde. Les lois vraiment applicables sont typiquement en physique classique des lois centrales, associées à la résistance des ressorts, à la gravitation, à l'électricité, ainsi que des lois dissipatives associées aux frottement. Mais, comme l'observait notamment Giere, la liste n'est pas figée dans le marbre : rien n'interdit a priori de postuler de nouvelles lois pour rendre compte de nouveaux phénomènes, tout en restant dans le cadre de la théorie de Newton.
</p><p>
Et même si l'on voulait ajouter toutes ces lois à une hypothétique théorie finale qui en contiendrait la liste complète, il faut bien voir que la construction d'un modèle ne s'arrête pas à l'application algorithmique des lois de la physique : elle s'accompagne de postulats sur les phénomènes particuliers (par exemple, que la supraconduction implique telle ou telle configuration physique) qui ne dérivent directement ni de la théorie elle-même, ni des observations empiriques (voir l'article de Cartwright et Suàrez sur le modèle de supraconduction de London, ou le recueil d'articles "Models as Mediators" édité par Morgan et Morrison). On peut considérer ces postulats comme des lois spécifiques au domaine d'application du modèle.
</p><p>
Donc l'ensemble des modèles logiques satisfaisant une théorie est en
un sens beaucoup trop large pour rendre compte de ce qu'on appelle un modèle acceptable en physique, et à la limite, on aimerait pouvoir rendre compte de l'existence d'une hiérarchie de lois, plus ou moins fondamentales, ce que l'approche en termes de mondes possibles ne permet pas directement.
</p><p>
Une solution inspirée de la métaphysique de Lewis serait de considérer une relation de proximité entre mondes possibles. On peut alors envisager que les lois fondamentales sont vraies pour un ensemble très grand de mondes, même très éloignés du nôtre, et que les hypothèses spécifiques à un type de phénomène sont vraies dans un ensemble plus restreint de mondes possibles proches du nôtre. Mais sur quoi fonder cette notion de proximité et cette hiérarchie de possibilités ? La fonder sur les lois serait circulaire. Définir une notion de proximité entre monde donne lieu à des théories souvent très complexes. Et je pense que ces théories s'avèrent inutiles si l'on prend acte des trois autres problèmes, vers lesquels nous nous tournons maintenant.
</p><h2>
2. Le problème des mondes
</h2><p>
Le second problème, peut-être le principal, est que les modèles de la physique se donnent très rarement pour but de représenter l'univers dans son ensemble (et quand ils le font en cosmologie, c'est à très très très gros grain : on postule typiquement que l'univers est homogène !). Le cas général, ce sont plutôt des modèles de certains objets en nombre limité, bien délimités dans l'espace, parfois même microscopiques.
</p><p>
Par exemple, un modèle du système solaire interprété à la manière de Tarski rend vrai la proposition "il existe une seule étoile", et on peut penser que le modèle est adéquat sans croire que cette proposition est absolument vraie. Elle est vraie dans un contexte limité. La sémantique réelle des modèles scientifiques ne correspond donc pas à une sémantique des mondes possibles, parce qu'elle est contextuelle. Et le contexte d'application d'un modèle n'est pas forcément formalisé ni formalisable dans la théorie elle-même.
</p><p>
On peut bien sûr imaginer qu'il existe un univers naturellement possible dans lequel il n'y a qu'une étoile et une poignée de planètes, ou qu'une ou deux particules en interactions, et que donc ces modèles sont bien des descriptions de mondes possibles pour la théorie, mais c'est un peu tiré par les cheveux (surtout quand les modèles intègrent une contrainte environnementale). Cette idée consiste à vouloir conserver une sémantique pour sa simplicité et son élégance, quitte à complexifier la manière d'interpréter le discours des scientifiques. Pour ma part, je considère qu'une bonne sémantique pour les théories scientifiques devrait d'abord viser à rendre compte du discours et de la pratique scientifique, et la métaphysique doit suivre. Or les modèles ne représentent pas des mondes.
</p><p>
Une meilleure solution consiste à dire que les modèles des physiciens sont toujours des descriptions de situations, qu'on peut comprendre en première approche comme des descriptions partielles et grossières de mondes possibles ne faisant pas certaines discriminations, n'en décrivant que certains détails ou certains objets et laissant le reste indéterminé. C'est une solution qui s'accorde bien avec le constat que les modèles en science sont généralement idéalisés, valables "à gros grain", à certaines échelles.
</p><p>
Sur le plan formel, on peut introduire la notion de situation possible, soit un ensemble de mondes possibles ayant en commun un nombre limité de propositions (par exemple : "il existe au moins une étoile, qui est le soleil"). Mais cette notion demande a être rendue plus précise (un ensemble arbitraire de mondes possibles n'est pas forcément une situation pertinente demandant à être représentée par un modèle). On peut alors se demander si la sémantique des mondes possibles est vraiment le meilleur outil. Plutôt que de voir les situations possibles comme des ensembles de mondes possibles (soit des mondes possibles grossiers), on pourrait plutôt voir les mondes possibles comme des intersections idéalement fines de situations possibles, soit un cas limite logiquement concevable, mais pas forcément très intéressant pour rendre compte du contenu des théories en général.
</p><p>
Sur un plan un peu moins formel, délimiter une situation pertinente, c'est adopter une certaine perspective sur le monde : s'intéresser à un certain type de phénomène possible à certaines échelles, dont on sait ou suspecte ou voudrait qu'ils existent, dont on repère des caractéristiques remarquables. En outre, cette perspective peut être performative, c'est à dire nous amener à construire en partie la situation qui nous intéresse ou les conditions de son étude, comme dans le cas de l'ingénierie (mais pas seulement : la mise en place d'un protocole expérimental pour étudier une situation jugée "pure" du point de vue de la théorie, par exemple une chute libre sans frottements, peut être tout aussi performative).
</p><p>
En ce sens, voir les situations comme des descriptions grossières de mondes est un peu trompeur, puisque les situations qu'on représentera directement ne sont jamais choisies en contemplant l'univers dans son entièreté pour ensuite sélectionner les parties de sa structure qui nous intéressent comme le ferait un être omniscient, mais plutôt par ostentation ou par intention, depuis notre position, et, comme dit plus haut, sans que tout ceci ne soit forcément formalisé dans la théorie. C'est une raison de plus d'inverser les choses et de comprendre une description de l'univers dans son entièreté (un monde possible) comme un affinement hypothétique commun à toutes les descriptions grossières que nous employons pour décrire des situations.
En somme, il faudrait idéalement adopter une sémantique des situations possibles tranchant plus radicalement avec la sémantique des mondes possibles qui reste à élaborer (je m'y suis essayé au cours de ma thèse).
</p><p>
On voit en tout cas que ce problème rend futile la solution au problème précédent consistant à postuler une proximité entre mondes possibles pour rendre compte d'une hiérarchie de lois. On peut en rendre compte plus simplement. En effet, la notion de situation est associée à une notion de finesse de grain dans la description.
Une situation peut être affinée ou grossie pour donner une nouvelle situation (ce qui formellement revient à intégrer ou éliminer des propositions).
Une fois acquis que les modèles représentent des parties du monde ou des situations, on voit poindre une solution différente au problème des lois : les lois plus fondamentales seraient celles qui sont vraies pour des parties quelconques, non spécifiées, de notre monde (des situations grossières), et les lois moins fondamentales pour des parties plus spécifiques (des situations plus finement décrites et identifiées, éventuellement plus locales).
</p><p>
Cette solution permet en outre de penser que la science parle avant tout des situations de notre monde, et non pas d'autres mondes, ce qui me semble être un avantage. Intuitivement, on pense généralement que la science s'intéresse surtout à notre monde. En corrolaire, les mondes possibles à partir desquels on définit éventuellement les situations sur le plan formel n'ont pas besoin d'être un concept métaphysiquement ou nomologiquement chargé. Ce pourrait être l'ensemble des mondes concevables, ou logiquement possibles étant donné un langage, encore une fois un cas limite dont l'intérêt est avant tout formel.
</p><h2>
3. Le problème des types
</h2><p>
Le troisième problème pour la sémantique des mondes possibles est que même affirmer que les modèles se destinent à représenter une partie de l'univers est trompeur. Les modèles représentent plus souvent un type d'objet potentiellement instancié en de multiples endroits, ou encore, en ingénierie, une configuration physique intentionnelle, qu'on vise à construire parfois en de multiples exemplaires, toujours dans notre univers (un type de transistor par exemple), mais qui n'est peut-être pas instanciée du tout.
</p><p>
Pour résoudre ce problème, on pourrait introduire dans notre machinerie formelle une notion de type de situation possible comme ensembles d'ensembles de mondes possibles, mais ici encore on peut se questionner sur l'utilisation des mondes possibles comme objet primitif.
Les ensembles d'ensembles de mondes possibles sont en nombre beaucoup plus grand que les mondes possibles eux-mêmes, ce sont des infinis d'ordre supérieur, et l'idée qu'on pourrait sélectionner des types de situations pertinents dans cet ensemble infini semble relever de la magie.
</p><p>
Je n'ai pas de solution à ce problème, qui rejoint des questions classiques en épistémologie liées à l'induction et aux classes naturelles (pourquoi "vert" et non "vleu" serait la "bonne" propriété pour faire de l'induction, pour reprendre la question de Goodman ?).
Disons au moins que cela jette un doute sur l'idée que le contenu des modèles scientifiques serait "transcendant", soit complètement indépendant de notre constitution d'être humain et de notre position dans l'univers, puisqu'on peut penser que les catégories scientifiques sont ultimement fondées sur des catégories en partie innées, associées par exemple à nos organes sensoriels ou à notre structure cognitive, même quand elles s'en détachent. Il faut bien une base pour construire (Goodman parlait de prédicats "ancrés", "entrenched").
</p><p>
Cette notion de type de situation (ou de perspective) est en outre liée au statut des symétries en physique. On peut considérer que des modèles reliés par une symétrie (une translation ou rotation dans l'espace-temps, un changement de choix de gauge) décrivent des situations du même type.
On peut penser que le "bon" découpage en type de situation est en partie découvert empiriquement au moment où on découvre des symétries, soit certaines régularités dans les phénomènes, sur la base des prédicats "ancrés".
</p><p>
Tout ceci pose la question : à quel type de possibilité correspond un type de situation ou un choix de modèle ?
Si les lois sont vraies pour tous les types d'objets possibles (dans tous les modèles), de quelle notion de possibilité parle-t-on ?
Si tous les types décrits par des modèles ou presque sont instanciés quelque part dans le monde, c'est-à-dire actuels, sélectionner un type de situation ne revient pas à sélectionner une possibilité naturelle, mais plutôt une finesse de grain dans la description et certains objets ou périodes de temps d'intérêts, soit à sélectionner une certaine perspective sur le monde, et si les lois d'une théorie sont vraies pour tous les types de situations (ou perspectives) possibles, elles sont nécessaires en un sens qu'il conviendrait d'élucider, mais qui n'est pas forcément la possibilité naturelle.
</p><p>
Une perspective pourrait être possible au sens de possibilité naturelle ou physique si on l'associe à un type d'operationalisation physiquement réalisable. Elle pourrait être possible au sens déontique (c'est-à-dire compatible avec les intérêts des physiciens) si l'on pense que l'ensemble des modèles d'une théorie dépend en partie de ces intérêts, ou en un sens épistémique si on pense qu'un modèle doit être applicable à une situation actuelle.
Ce peut être en un sens métaphysique si elle correspond à une "bonne" manière de découper le monde en catégories, découverte plutôt que connue a priori.
Ou bien peut-être en un sens purement conceptuel si toutes les perspectives se valent.
Dans chaque cas, l'ensemble des modèles de la théorie sera délimité de manière distincte, et sera plus ou moins large.
Savoir comment correctement délimiter cet ensemble est une question ouverte (y compris sur le plan de la méthode philosophique : qu'est-ce qu'une bonne délimitation ? Doit-on considère plus de modèles que ceux réellement construits par des physiciens ?), et cela aura un impact sur l'interprétation à faire des lois de la physique.
</p><p>
On pourrait par ailleurs faire la distinction entre modèle abstrait et modèle appliqué, ce dernier étant associé à une instance de situation plutôt qu'à un type. Je ne pense pas que parler de l'ensemble des modèles appliqués d'une théorie ait beaucoup de sens, ou en tout cas cet ensemble n'est pas accessible a priori. Ceci étant dit, parler de l'ensemble des applications possibles d'un modèle abstrait peut être utile si l'on veut définir ce que serait l'adéquation idéale d'un modèle, et donc ce que serait l'adéquation idéale d'une théorie. Idéalement, les lois d'une théorie devrait être vraies pour toutes les applications de tous les modèles de la théorie.
</p><p>
Et de nouveau on peut s'interroger sur la notion de possible impliquée quand on parle d'application possible d'un modèle donné. S'agit-il de possibilité physique ? Épistémique ? Conceptuelle ? Déontique peut-être ?
</p><h2>
4 le problème des modalités
</h2><p>
Enfin le quatrième problème pour la sémantique des mondes possibles tient au fait que les modèles ont souvent une structure modale interne : ils représentent eux-mêmes différentes possibilités, par exemple des possibilités d'évolution pour un système donné, des états ou histoires possibles, des rapports causaux ou dispositions pouvant ou non être réalisées ou non, etc. Cette notion de possible supporte les raisonnements contrefactuels (on peut affirmer à partir d'un modèle "il se serait passé E si les circonstances avaient été C") ce qui laisse penser qu'on ne parle pas de possibilités purement épistémiques (on sait que C est faux mais on parle quand même de cette possibilité). La modalité impliquée est plus naturellement associée à la causalité, soit aux possibilités naturelles ou physiques "locales", dont le rapport aux lois est sujet à débat.
</p><p>
Ainsi donc notre métaphysicien souhaitait interpréter la nécessité physique en termes de ce qui est vrai dans tous les modèles, mais si l'on s'intéresse à la pratique de modélisation réelle, on finit plutôt par retrouver cette modalité dans chaque modèle, comme ce qui est vrai dans toutes les possibilités décrites au sein d'un modèle donné : une notion de nécessité physique locale ou contextuelle qu'il conviendrait de relier à celle du métaphysicien, ce que l'approche Tarskienne ne fait pas.
</p><p>
En general, les possibilités dont il est question correspondront à une partition logique des possibles pour la situation décrite. Ce que cela signifie est qu'on part d'une situation grossière (une particule dans un champ électromagnétique) et qu'on envisage un ensemble de possibilités pour affiner notre description (les trajectoires possibles de la particule) telles qu'exactement une de ces possibilités est forcément réalisée. Autrement dit, ces possibilités sont mutuellement exclusives, et elles couvrent l'espace des possibles pour la situation grossière.
Ces possibilités sont souvent pondérées par des poids de probabilité.
</p><p>
Une question qui se pose est si cette modalité est attachée aux types ou aux instances.
On pourrait faire jouer le fait que les modèles représentent des types contre l'idée qu'ils représentent des possibilités naturelles. Chaque possibilité représentée par un modèle correspondrait à une instance possible du type, en un sens peut-être épistémique de possible, plutôt qu'à une possibilité naturelle pour chaque instance donnée, et les probabilités correspondraient à des répartitions statistiques sur ces instances. Laissons ouverte cette proposition, bien qu'elle s'accorde mal avec le fait que les modèles supportent les raisonnements contrefactuels, et qu'une interprétation purement fréquentiste des probabilités pose problème.
</p><p>
Dans tous les cas, il me semble que la modalité naturelle devrait être attachée à des situations plutôt qu'à des mondes, c'est-à-dire qu'elle devrait être représentée par une relation d'accessibilité entre situations.
(Un argument en faveur de cette idée est issu de la mécanique quantique : si l'on prend au sérieux le principe d'incertitude, il existe des situations impossibles, par exemple telles que la vitesse et la position d'une particules sont toutes deux très précisément définies, bien que tous les mondes possibles compatibles avec cette situation soient compatibles avec d'autres situations possibles, à savoir celles où soit la position, soit la vitesse sont précisément définies : l'impossibilité des situations ne "survient" pas sur une impossibilité de mondes).
</p><h2>
Conclusion
</h2><p>
Voici donc en résumé les quatre raisons d'être suspect envers l'interprétation des lois de la physique comme "vraies dans tous les modèles/mondes possibles" :<ul>
<li>Les modèles de la physique sont en un sens moins nombreux que les modèles au sens logique.</li>
<li>Ils ne représentent pas en général l'univers dans son ensemble.</li>
<li>Ils représentent des types plutôt que des instances.</li>
<li>Ils ont souvent une structure modale interne contrairement aux modèles au sens logique.
</li></ul></p><p>
J'ai proposé au cours de mes commentaires différentes pistes pour obtenir une conception plus proche des pratiques de modélisation réelle des physiciens. On peut la résumer ainsi :
<ul><li>À une théorie (un ensemble de lois) correspond un ensemble de modèles, qui représentent chacun un type de situation, qu'on peut comprendre comme une perspective possible sur le monde (centrée sur un type de phénomène à une certaine échelle).</li>
<li>À un modèle donné on peut en principe faire correspondre un ensemble d'applications possibles, chaque application étant une situation instanciée du bon type (et on peut dire qu'un modèle idéalement adéquat serait une description correcte dans toutes ces applications possibles, ou peut-être une bonne synthèse de toutes ces applications possibles).</li>
<li>Un modèle donné décrit un ensemble d'états ou d'histoires possibles pour les situations de ce type, soit une partition d'affinements possibles pour une situation grossière, pondérées par des probabilités.</li>
<li>Chaque situation fine possible (ou histoire) ainsi décrite est toujours une description grossière et partielle de l'univers, formalisable comme un ensemble de mondes possibles.
</li></ul></p><p>
Cette manière de voir, soit une sémantique des situations possibles pour les théories scientifiques, offre une richesse interprétative beaucoup plus importante que la sémantique des mondes possibles.
En particulier, il existe au moins quatre notions de possible, associées à chacun des quatre points ci-dessus, dont l'interprétation reste ouverte.
Tout ceci reste donc largement en chantier, mais je pense que c'est un cadre prometteur pour l'analyse du contenu des théories physiques.
</p>Quentin Ruyanthttp://www.blogger.com/profile/18395553776256376317noreply@blogger.com0tag:blogger.com,1999:blog-2904928175656435462.post-10143944491048995042022-01-20T12:34:00.015+01:002022-01-20T13:14:55.175+01:00Rationalité scientifique et loi de Hume<p>Ce qu'on appelle parfois la "loi de Hume" pose un défi pour qui voudrait justifier les normes épistémiques à l'œuvre en science sur la base de simples faits concernant la pratique. Cette loi stipule qu'une inférence ne peut partir uniquement de prémisses descriptives pour arriver à une conclusion normative ou évaluative. Que quelque chose soit le cas (ou encore que ce soit un fait "naturel") ne nous dit pas que c'est une bonne chose. Donc le simple fait que les scientifiques utilisent une méthode n'implique pas que cette méthode soit bonne ou rationnelle.
Pourtant le raisonnement normatif en philosophie est rarement indépendant d'un contenu descriptif. </p>
<h2>Reconstruire la rationalité scientifique</h2><p>
Il me semble que les instances les plus légitimes de tels raisonnements consistent à reconstruire la rationalité scientifique sur la base d'une observation de la pratique. La conclusion de ce type de raisonnement n'est pas entièrement descriptive.
On observera que les scientifiques emploient implicitement ou explicitement telle ou telle norme épistémique, par exemple qu'une expérience doit être reproductible, qu'une hypothèse doit être confirmée par l'expérience (suivant des outils statistiques standards), ou qu'elle doit être cohérente avec les cadres théoriques bien acceptés. En général, on appuiera bien sur le fait qu'il s'agit d'une norme collective, régulant la pratique, et non individuelle (elle peut donc comporter des exceptions). Mais on ne se contentera pas de décrire ainsi la pratique : on en infèrera que puisque les scientifiques sont rationnels, alors il s'agit d'une pratique rationnelle, c'est à dire bonne sur le plan épistémique.
</p><p>On pourra ensuite essayer de comprendre ou de rendre compte de cette rationalité par une théorie normative, c'est-à-dire de la justifier directement par des considérations hypothétiques. Mais le point important est que le simple fait, pour cette norme, d'être présumément à l'œuvre en science suffit déjà à lui accorder un certain crédit. A supposer que les scientifiques sont rationnels, ou tenant compte du succès de telles pratiques, on en déduit que ces normes sont épistémiquement vertueuses. Cela constitue, pour une théorie d'épistémologie normative, une donnée "empirique" à expliquer, et si notre théorie normative implique qu'une norme bien acceptée en science est complètement irrationnelle, alors on y verra un problème pour notre théorie plutôt que pour la science.
</p><p>
Une manière de reconstruire l'argument est la suivante :<ul><li>les scientifiques agissent de manière globalement rationnelle.</li><li>or les scientifiques agissent suivant X (X constitue apparemment une norme à leur activité).</li><li>donc X est une norme rationnelle.
</li></ul>
En un sens, ce type de raisonnement est parfaitement compréhensible. Il s'agit simplement pour le philosophe de considérer les scientifiques comme des pairs plutôt que comme des objets à étudier, et donc de prendre au sérieux les normes qu'ils et elles se donnent ou semblent se donner au niveau communautaire et institutionnel, jusqu'à se les approprier. Mais alors où se cache la prémisse normative ? À quel moment cet argument viole-t-il la loi de Hume ?
</p><h2>Raisonnement normatif ou descriptif ?</h2><p>
On pourrait interpréter la première prémisse, celle affirmant que les scientifiques sont globalement rationnels, comme purement évaluative : dire que les scientifiques sont en général rationnels reviendrait seulement à approuver ce qu'ils font, à affirmer notre adhésion envers les valeurs de la science, ou à valoriser la science en général. Il s'agit de comprendre "rationnel" comme ne signifiant rien d'autre que "vertueux" ou "bon".
</p><p>Si l'on adopte cette interprétation, il faudrait en conclure qu'un philosophe défendant une rationalité opposée à ce que font les scientifiques, un philosophe qui défendrait par exemple qu'il est vertueux de confirmer les hypothèses par les écritures bibliques plutôt que par l'expérience (et que donc la science est irrationnelle) n'est pas dans l'erreur sur le plan factuel, mais plutôt sur le plan des valeurs. Il ne prononce aucune fausseté factuelle : il affirme seulement des choses condamnables (au moins pour nous), parce qu'il ne partage pas les valeurs de la science, qui sont pourtant de bonnes valeurs.
C'est une interprétation qui pourra paraître un peu douteuse. Il me semble que si l'on juge qu'un tel philosophe a tort, ce n'est pas seulement parce qu'il fait montre de mépris envers l'institution scientifique et ses valeurs. Ce mépris envers la science sera plus volontiers vu comme une conséquence des croyances erronées de ce philosophe que comme une raison, en soi, pour condamner ses conclusions sur le plan moral.
</p><p>
Ainsi il me semble que la prémisse "les scientifiques agissent généralement de manière rationnelle" ne peut être conçue comme purement normative. "Rationnel" ne peut signifier seulement "bon". Il s'agit bien d'une prémisse au moins en partie descriptive.
</p><p>
Une autre interprétation possible consiste à interpréter le terme "rationnel" de manière purement descriptive ou factuelle. On peut l'interpréter, notamment, de manière instrumentale, en termes de conformité entre les buts et les moyens mis en œuvre pour atteindre ces buts. "Rationnel" signifierait quelque chose comme "efficace". L'avantage de cette interprétation est qu'elle permet de mieux justifier la première prémisse concernant la rationalité des scientifiques, notamment sur la base du succès de la science : la science atteint généralement les objectifs qu'elle se fixe, elle est en effet efficace, couronnée de succès, ce qui laisse penser que les scientifiques sont (instrumentalement) rationnels. La conclusion de l'argument n'a alors plus rien de normatif. Il s'agit plutôt d'une affirmation du type : X est une façon efficace d'atteindre les buts de la science (et libre à chacun de partager ou non les mêmes buts).
</p><p>
Cependant cette seconde interprétation me semble également problématique parce qu'elle induit une forme de circularité. Comment décide-t-on de ce que sont les buts de la science sinon en observant la manière dont les scientifiques agissent (y compris la manière dont ils se corrigent, parfois par la voie de normes institutionnalisées) ? On peut bien sûr écouter ce qu'ils affirment concernant leurs buts, mais il est peu probable que ceux ci soient réellement homogènes, et il ne faudrait pas confondre les buts de tel ou tel scientifique et les buts de la science en tant qu'institution, c'est-à-dire ce vers quoi sont dirigées les normes en science comme la confrontation systématique à l'expérience.
</p><p>Mais si ces buts généraux de la science sont déterminés sur la base d'une observation de ce qu'elle fait avec succès, alors la première prémisse devient tautologique. Elle n'est plus vraiment justifiée par le succès de la science, puisque ce qui compte comme succès est défini sur la base des normes que se donnent les scientifiques. Dans ce cadre, les scientifiques sont (instrumentalement) rationnels "par définition". S'ils faisaient autre chose, on ne pourrait pas en inférer qu'ils sont irrationnels : on inférerait plutôt qu'ils poursuivent d'autres buts, au moins si leurs actions ont une certaine cohérence minimale. Au bout du compte, le type de reconstruction de la rationalité scientifique opérée par certains philosophes ne serait rien d'autre qu'une description de la pratique, ou au mieux, une inférence concernant les buts de la science. Ces philosophes ne feraient rien d'autre qu'affirmer "les scientifiques agissent suivant la norme X (donc ils se donnent pour but Y)". Mais ça ne semble pas être le cas : la philosophie des sciences n'est pas une simple sociologie des sciences.
</p><p>
Une manière de s'en sortir serait de présupposer un but à la science indépendamment d'une observation de l'activité des scientifiques. On pourrait par exemple stipuler que le but de la science est quelque chose comme le développement de nos connaissances, et affirmer que la science est instrumentalement rationnelle parce qu'elle réalise ce but avec succès, voire rationnelle tout court si on pense que développer les connaissances est forcément une bonne chose.
Mais comment évaluer son succès ?
Si une connaissance est une croyance justifiée, qu'est-ce que la justification ? C'est justement ce qu'on cherche à déterminer en observant les normes à l'œuvre en science. Mais si l'on évalue le succès de la science en fonction de ses propres normes (une connaissance est bonne si elle est confirmée par l'expérience, cohérente avec les cadres théoriques acceptés, etc.), alors de nouveau le raisonnement est circulaire.
</p><h2>Qu'est-ce que la science ?</h2><p>
Ainsi notre prémisse ne semble pas pouvoir être interprétée de manière entièrement normative ("ce que font les scientifiques est bien") ni de manière entièrement descriptive et donc presque vide ("les actions des scientifiques suivent telle norme"). Peut être la rationalité est-elle un concept épais,
combinant une composante descriptive et une composante normative. Mais l'interprétation exacte à en faire n'est pas forcément limpide.
</p><p>
Pour aller de l'avant, on peut se demander en quoi l'idée que les scientifiques seraient entièrement irrationnels semble implausible, et non seulement condamnable comme le voudrait l'interprétation purement normative.
</p><p>
Une approche inspirée de Kant serait de faire de notre prémisse une forme de synthétique a priori. Juger que nos semblables sont en général rationnel serait une condition nécessaire à notre participation dans la société. Seulement cette approche semble occulter la spécificité de la science. Après tout on peut en principe juger certaines institutions globalement irrationnelles : un athée pourra juger ainsi les institutions religieuses, ou peut-être certaines institutions politiques dont le fonctionnement échappe à ses membres. Donc le fait que l'argument consistant à inférer la rationalité d'une pratique sur la base de son utilisation récurrente concerne la science, et pas la religion ou la politique, est important. Et l'on arrive à un point non questionné jusqu'ici : qu'est-ce que la science (et en quoi est-elle couronnée de succès) ?
</p><p>
L'idée de la caractériser en termes de développement de connaissances était, je pense, un pas dans la bonne direction, mais elle demande seulement de préciser un peu les choses.
Il me semble qu'on peut caractériser la science en partie par le fait qu'elle vise à produire des représentations dont l'efficacité est, justement, instrumentale, au sens où les représentations scientifiques peuvent être utilisées pour des buts variés, idéalement sans limite dans le domaine d'application (c'est une manière pragmatique de comprendre ce qu'est la connaissance). Il s'agit peut-être d'une vision partielle, la science (ou une connaissance) est peut-être plus que seulement instrumentale, mais au moins, elle l'est.
</p><p>Ce que je veux dire par là, c'est que la science n'est pas directement efficace pour atteindre certains buts précis. Elle vise plutôt à produire des outils efficaces pour atteindre une variété de buts précis possibles. La nuance est importante : c'est le produit de la science (l'ensemble des représentations qu'elle nous fournit) qui est efficace pour atteindre ces buts, et non la science directement. Ce n'est pas la science qui permet de fabriquer des ordinateurs, mais (entre autre) les modèles quantiques de transistors qu'elle produit.
</p><p>
Pourquoi est-ce important ? Parce que cela permet de répondre à l'argument présenté plus haut. On peut déterminer, sur la base d'une observation de la pratique, que la science est dirigée vers certains buts, et donc arriver à la conclusion, purement descriptive, que X (une pratique quelconque) est une manière d'atteindre ces buts. L'argument était : il n'y a rien de normatif dans cette conclusion, puisque rien ne nous pousse à adhérer aux buts de la science, et pourtant les philosophes semblent tirer des conclusions normatives du fait que X fait partie des pratiques scientifiques. Mais à la lumière de ce qui vient d'être dit, le but général de la science a un statut bien particulier. C'est en quelque sorte un "méta-but" : produire des représentations efficaces pour la réalisations de buts (de premier ordre) variés. Or, dans la mesure où ce méta-but est relativement indépendant de buts particuliers, il se rapproche assez fortement d'une notion de rationalité instrumentale qui semble justifiée de manière universelle sur le plan normatif. Nous avons donc des raisons indépendantes d'adhérer au but de la science, puisqu'il n'est pas seulement conforme à la rationalité instrumentale (au sens où la science serait efficace pour atteindre ses buts), mais relève directement de la rationalité instrumentale (l'efficacité idéale est le but de la science).
</p><p>En d'autres termes, le fait que les scientifiques soient en général rationnels n'est pas tautologique, mais en effet justifié par le succès des sciences, succès évalué non pas du seul point de vue de ce qu'ils font, mais de manière en quelque sorte externe à la science : produire des représentations efficaces pour un ensemble de buts variés est un succès, non seulement du point de vu de la science, mais de manière plus générale.
C'est ce type d'évaluation externe que permet une conception pragmatique de la connaissance.
</p><p>
On pourrait essayer de tempérer l'universalité de la science, son unité, en faisant valoir que le type de but qu'elle permet de réaliser avec succès n'est pas n'importe lequel ni illimité dans son domaine, que ce type de but peut dépendre de la discipline, etc. Mais rappelons qu'il s'agit de caractériser la visée idéale de cette activité, et non ses accomplissements effectifs, ce pour quoi un succès imparfait ou un simple progrès dans une direction donnée est suffisant. Or il me semble difficile de nier la visée unificatrice, idéalement universelle, de la théorisation.
</p><h2>Conclusion</h2><p>
La forme argumentative utilisée par les philosophes proposant de reconstruire la rationalité scientifique devrait donc être la suivante :<ul><li>
N - il est rationnel de développer des représentations efficaces pour une variété idéalement grande de buts.</li><li>
D - la science développe de telles représentations (avec succès).</li><li>
DN - donc les scientifiques agissent de manière globalement rationnelle.</li><li>
D - en général, les scientifiques agissent suivant X.</li><li>
N - donc X est une norme rationnelle.</li></ul>
L'argument part bien d'une prémisse normative, mais elle est facilement acceptable en dehors des cercles scientifiques puisqu'il ne s'agit pas d'une affirmation à propos de la science en particulier : il ne s'agit donc pas de dire "la science c'est bien, et puis c'est tout". La seconde et quatrième prémisses concernent la science plus spécifiquement, mais elles sont entièrement descriptives.
Elles nous permettent ensemble d'arriver à une conclusion normative, et justifient donc la méthode philosophique consistant à reconstruire la rationalité scientifique sur la base d'une observation des normes à l'œuvre en science, ou à considérer que ces normes sont des "données empiriques", pas forcément infaillibles, mais suffisamment robustes, auxquelles doit se confronter toute théorie d'épistémologie normative.
</p>
Quentin Ruyanthttp://www.blogger.com/profile/18395553776256376317noreply@blogger.com0tag:blogger.com,1999:blog-2904928175656435462.post-89501713298730558182021-12-03T15:51:00.036+01:002021-12-05T12:35:53.316+01:00Croyances, valeurs et risque épistémique
<div style="text-align:center"><a href="https://upload.wikimedia.org/wikipedia/commons/thumb/4/46/A_man_walks_through_heavy_rain_under_an_umbrella_in_Kigali%2C_Rwanda._Emmanuel_Kwizera.jpg/320px-A_man_walks_through_heavy_rain_under_an_umbrella_in_Kigali%2C_Rwanda._Emmanuel_Kwizera.jpg"><img src="https://upload.wikimedia.org/wikipedia/commons/thumb/4/46/A_man_walks_through_heavy_rain_under_an_umbrella_in_Kigali%2C_Rwanda._Emmanuel_Kwizera.jpg/320px-A_man_walks_through_heavy_rain_under_an_umbrella_in_Kigali%2C_Rwanda._Emmanuel_Kwizera.jpg" /></a></div>
<p>
En quel sens nos attitudes épistémiques, par exemple nos croyances, sont-elles chargées de valeurs ? La connaissance scientifique est-elle indépendante de toutes valeurs ?</p><p>
Un argument en faveur de l'idée que les croyances sont chargées de valeur est l'argument du risque épistémique.</p>
<h2>Le risque épistémique</h2><p>
Croyez-vous qu'il va pleuvoir ? Si je vous demande ceci en vue de savoir si je dois prendre mon parapluie, votre réponse dépendra de données appuyant ou non la plausibilité qu'il pleuve (les prédictions météorologiques, ou la couleur du ciel). Mais vous ne pouvez ignorer que je vous pose la question pour une raison précise, et peut-être évaluerez-vous aussi à quel point mon parapluie est encombrant et à quel point mon manteau est perméable avant de répondre. Imaginez que selon les prévisions, la probabilité de pluie dans l'heure soit de 30%. Si je n'ai pas de manteau et que de toute façon mon parapluie est léger, cela ne vous coûtera pas grand chose de me répondre "oui il est possible qu'il pleuve", mais si j'ai déjà un bon manteau et que mon parapluie est particulièrement encombrant, vous serez peut-être plus tenté de me répondre "non, je ne pense pas qu'il va pleuvoir", alors que les données en faveur ou à l'encontre de cette croyance sont les mêmes dans les deux cas.</p><p>
Peut-être vous pourriez également me dire "je ne sais pas s'il va pleuvoir, mais étant donné que /ça a l'air coûteux/ça ne coûte rien/ de prendre ton parapluie, /ne le prend pas/prend le/". Mais on ne peut nier, me semble-t-il, que les premières façons de s'exprimer (juste dire "je ne pense pas qu'il va pleuvoir") font partie de notre pratique discursive. Généralement, exprimer une croyance, ou juste faire une affirmation, ce n'est pas simplement faire état de notre connaissance des faits, c'est aussi s'engager, prendre une certaine responsabilité, à savoir assurer nos auditeurs qu'ils peuvent agir sur la base de notre affirmation. Or cette assurance dépend en partie du contexte, d'une évaluation du risque d'erreur, donc de ce qu'on considère dommageable ou souhaitable (porter un parapluie inutile, rester sec), en un mot, de nos valeurs. Si les enjeux sont importants (si je porte un costume très cher qui ne résiste pas à l'eau), un doute peut surgir qui ne surviendrait pas dans un autre contexte.
</p><p>
Ainsi, dire "je crois que X" n'est pas, en général, indépendant du contexte et de nos valeurs.
</p><p>
Cette façon de voir les choses permet de rendre compte d'une bonne partie de nos désaccords apparemment factuels en termes de différences de valeur, par exemple dans les discussions politiques. Si Jean pense que l'insécurité est causée par l'immigration, c'est peut-être parce-qu'il y a de son point de vue très peu de risque à agir sur la base de cette croyance (il n'est pas lui même immigré et n'a aucune affection pour eux), et donc son niveau d'acceptation pour cette croyance n'est pas très élevé. Si Anne pense l'inverse, c'est peut-être parce que pour elle, le risque d'erreur est assez dramatique (Anne, contrairement à Jean, valorise énormément le fait de ne pas accuser les gens à tort de problèmes dont ils ne sont pas les cause), et donc il lui faut beaucoup plus de preuve avant d'accepter cette croyance.
</p><p>
Dans un monde idéal, on exigerait le niveau de preuve maximal pour toutes nos croyances, et les valeurs n'interviendraient pas. Mais nous vivons dans un monde incertain où il faut souvent choisir d'affirmer ou non, de croire ou de ne pas croire, sans preuves concluantes. Et ces choix sont guidés par nos valeurs.
</p><p>
Un adepte de théories de complot place généralement la barre de la preuve extrêmement haut pour les croyances "officielles". Il exige qu'on lui explique le moindre détail "suspect". Il agit comme si le risque d'erreur (croire à tort la version officielle) était extrêmement grave, peut-être parce que suivant ses valeurs, les manipulations du pouvoir sont le pire des crimes possible (ou au moins que le fait que la théorie implique des choses très grave fait partie des ressors du complotisme). De manière plus générale, on peut supposer que les personnes envisageant des possibilités que la plupart considèrent non pertinentes attribueraient une charge émotionnelle démesurée à ces possibilités, tout comme la possibilité qu'il pleuve devient pertinente si j'ai un beau costume alors qu'elle est sans importance dans d'autres cas. Ainsi on pourrait peut-être expliquer en partie le phénomène du complotisme par les valeurs.
</p><p>
À tout ceci s'ajoute un aspect plus sémantique. Je vous dis "il ne va pas pleuvoir", vous ne prenez pas votre parapluie, et il se met à pleuvoir. Je vous suis redevable. Mais je peux aussi me défendre : "ce n'est pas de la pluie, c'est juste quelques gouttes". Si vous avez un bon manteau, vous acquiescerez, mais si vous avez un costume très cher qui ne résiste pas à la moindre goutte d'eau, vous direz probablement "moi j'appelle ça de la pluie". Ainsi, non seulement l'évaluation des possibilités, mais aussi celle des conditions de vérité des énoncés, leur signification même, varie en fonction de nos valeurs.
</p><p>
Il n'est pas toujours évident de savoir où interviennent les valeurs, si c'est au niveau épistémique ou sémantique. Si Jean crois que l'immigration cause l'insécurité, est-ce parce qu'il entend "immigration" en un sens bien précis (qui exclut les immigrés issus de pays riche, et les "blancs" en general) et "insécurité" en un sens très large (qui inclut de vagues sentiments d'inquiétude à la vue d'une personne racisée) ? Sans doute. Est-ce que si l'on se mettait systématiquement d'accord sur le sens des mots (à partir de quand on peut considérer qu'il pleut) nos valeurs n'interviendraient plus du tout dans nos affirmations, et nous serions parfaitement objectifs ? Je n'en suis pas certain. On peut prendre des exemples de type tout ou rien, sans modulation sémantique, pour s'en convaincre : "Crois-tu que Marie sera à la soirée ?" Si c'est pour savoir si je dois prendre le livre que je lui ai emprunté, "oui je crois que Marie sera là, prend le", mais si il faut faire 50km pour récupérer ce livre, "non ce n'est pas sûr que Marie soit là, ne t'embête pas".
Ici nos valeurs (la pénibilité de parcourir 50km, peut-être renforcée si l'on est écologiste) influencent non pas le sens de l'affirmation "Marie sera là", qui reste parfaitement non ambigu, mais uniquement le fait même d'accepter cette affirmation.
</p><h2>Une alternative bayésienne ?</h2><p>
La notion de risque épistémique semble indiquer que ce qu'on croit dépend du contexte, et notamment de nos intérêts et des décisions impliquées par nos croyances, autrement dit, qu'il est illusoire de distinguer strictement croyances et valeurs. Cependant quelqu'un pourra invoquer, en réponse, une distinction entre croire et accepter.
</p><p>
Ainsi dans l'exemple de la pluie ci-dessus j'aurais un degré de crédence de 30% envers le fait qu'il va pleuvoir, mais mon acceptance concernerait le fait d'agir sur la base de cette croyance, et ceci (mais non la croyance) dépendrait du contexte et des valeurs et intérêts. On pourrait représenter l'acceptance comme un seuil de crédence à partir duquel cela "vaut le coup" d'agir sur la base d'une croyance (inférieur à 30% si le parapluie est léger, supérieur si le parapluie est encombrant). Si mon degré de crédence dépasse le seuil, j'accepte d'agir sur la base de la croyance. Selon cette théorie, généralement, quand nous affirmons des choses, nous exprimons une acceptation, mais il y aurait en fait un autre état mental "caché", le degré de crédence, indépendant de nos valeurs, qui, combiné au contexte (au seuil de crédence pertinent suivant nos valeurs), expliquerait nos affirmations.
</p><p>
Cette théorie (basée sur la bayésianisme et la théorie de la décision, et sans doute assez consensuelle en philosophie) a l'avantage d'être assez élégante sur le plan formel. Mais ça reste une théorie. En pratique, nous n'avons pas vraiment accès à de tels degrés de crédence indépendants du contexte, et quand on nous demande d'en fournir un en nous "mettant un pistolet sur la tempe", on peut soupçonner que le contexte, le risque d'erreur et les valeurs influencent en fait notre réponse.
</p><p>
Mais le bayésien pourra adopter une stratégie de repli : ok, notre cerveau ne fonctionne pas forcément ainsi, mais idéalement, il devrait, et en particulier dans le cas de la science, il est essentiel de distinguer croyance et acceptation, c'est à dire de distinguer les rôles respectifs des valeurs et des données empiriques dans l'acceptation des hypothèses.
</p><p>
Si ce n'était pas le cas, on pourrait accepter tout et n'importe quoi, nous dira le bayésien. Les régimes totalitaires sont bien connus pour avoir tenté d'instrumentaliser la science. Or s'il n'y a pas de différence entre croire et accepter, on pourrait affirmer que du point de vue des nazis, la thèse d'infériorité de telle race humain (qui présuppose son existence) était parfaitement acceptable sur la plan rationnel, parce que le risque courru en cas d'erreur était (du point de vue des nazi) négligeable.
Ou encore, pour prendre un exemple moins dramatique, mais plus pertinent dans le contexte actuel, il pourrait être acceptable pour un laboratoire pharmaceutique d'affirmer que tel médicament est efficace alors que les preuves sont très faibles, suivant un principe de "précaution économique", puisque affirmer qu'il ne l'est pas alors qu'il l'est reviendrait à perdre beaucoup d'argent. C'est certes immoral, mais ce ne serait pas épistémologiquement problématique, tout comme il n'est pas forcément irrationnel d'accepter qu'il va pleuvoir, et donc de prendre un parapluie "par précaution" si je n'ai pas de manteau, alors que le ciel est plutôt clair.
</p><p>
Ceci, nous dira le bayésien, est contre-intuitif : il semble plus correct de dire que la science nazi ou celle de ce laboratoire est de la mauvaise science, et pas seulement sur le plan moral, parce que leurs affirmations ne sont pas appuyées par des données.
Ou, pour prendre un cas qui serait moralement vertueux, on peut décider de ne pas construire une centrale nucléaire par principe de précaution parce qu'il existe un risque peut-être faible, mais inconnu, d'accident extrêmement grave. Si l'on ne distinguait pas acceptation et croyance, cela voudrait dire que l'on croit que l'accident se produira nécessairement, uniquement parce qu'il serait grave. Or ce n'est pas le cas. Il faut faire la part des choses.
</p><p>
Selon cette manière de voir, la science ne devrait pas nous dire quelles hypothèses considérer comme vraies pour l'action, mais seulement nous fournir des degrés de crédence, et ce serait le rôle du politique (par exemple) que de fixer un seuil de crédence acceptable pour la décision en prenant en compte les risques d'erreurs et le contexte social.
</p><p>
Un autre problème est que si croyance et acceptation étaient identiques, on pourrait, dans certaines situations, à la fois croire et ne pas croire quelque chose. Imaginez que mon parapluie soit très encombrant et que j'aie déjà un manteau étanche. Je pourrais alors agir sur la base de la croyance "il ne va pas pleuvoir", car prendre le parapluie est coûteux pour peu de bénéfice. Cependant cela ne me coûte pas grand chose de fermer les fenêtres "au cas où il pleuve quand même", et alors, j'agis sur la base de la croyance "il va pleuvoir". Si croire, c'est la même chose qu'accepter, je me retrouve dans la situation bizarre où je crois, et ne crois pas, qu'il va pleuvoir au même moment, mais à propos de deux actions distinctes.
</p><p>
On devrait plutôt dire dans ces cas là que :<ul><li>
soit je crois qu'il ne va pas pleuvoir, mais je ferme les fenêtres parce que "on sait jamais",</li><li>
soit que je crois qu'il va pleuvoir, mais je ne prends pas le parapluie parce que "tant pis s'il pleut".</li></ul></p><p>
Donc il faudrait distinguer acceptation et croyance, au moins dans le contexte exigeant de la science, mais peut-être aussi dans des cas plus mondains. Ce qui ouvre la voie à l'idée que les croyances sont neutres sur le plan des valeurs, et que seule l'acceptation pour la décision est affectée par le contexte.
</p><h2>Mauvaise science ou non-science ?</h2><p>
Tout ceci peut paraître convainquant, et je pense qu'il y a là un fond de vérité (nous y reviendrons). Reste qu'on prend généralement la peine d'évaluer nos croyances quand c'est pertinent, c'est à dire si l'on pense que la croyance peut servir de base à l'action au moins indirectement. De même en science, il n'y a pas d'affirmations hors sol : publier un article scientifique, c'est faire un acte analogue à une affirmation qui peut avoir des conséquences, en l'occurrence, qui peut impliquer que cet article servira de base à l'action, et donc, cela engage une responsabilité qui dépend de valeurs sociales (du type d'action que le résultat est susceptible d'engendrer).
Quand une évaluation statistique d'une hypothèse est disponible (ce qui n'est pas toujours le cas), les scientifiques ne se contentent pas de nous fournir des p-value : ils intègrent aussi dans leurs articles des seuils pour déterminer si l'hypothèse est acceptable ou non.
</p><p>
Mais surtout, je pense que l'analyse bayésienne du cas de la science nazi présenté plus haut n'est pas entièrement juste. Ou plutôt elle l'est dans le cas où les nazis (ou le laboratoire pharmaceutique) resteraient opaques sur leurs valeurs, et prétenderaient avoir montré que telle race est inférieure (j'imagine que c'était le cas mais je n'ai pas vérifié). Mais alors le tort épistémique ne tient pas au fait de prendre en compte les valeurs en soi, seulement au manque de transparence, et à quelque chose qui s'apparente assez directement à de la fraude.
</p><p>
Imaginons que les nazis publient des articles scientifiques du type "notre hypothèse n'est pas du tout confirmée parce que notre échantillon est trop petit pour conclure quoi que ce soit, cependant par 'précaution idéologique', on pense qu'il faut l'accepter comme vraie".
S'agirait-il de mauvaise science ? Pas vraiment, il
s'agit plutôt de non-science.
La conclusion qu'il faudrait en tirer est que les nazi se fichent, en fait, de savoir si l'hypothèse de l'infériorité de telle race est plausible (ou que le laboratoire pharmaceutique se fiche de savoir si le médicament est efficace). Tout ce qu'ils veulent, c'est persécuter un certain groupe de gens bien identifiés socialement (vendre leur médicament).
Tout comme je me fiche de savoir s'il est vraiment plausible qu'il pleuve si mon costume ne résiste pas à l'eau : je prends mon parapluie de toute façon.
</p><p>
Cette analyse nous demande de réévaluer légèrement la manière dont on a présenté le risque épistémique. Agir sur la base d'une hypothèse, ce n'est pas forcément la croire : ce peut être seulement la croire possible. Or la gravité d'une erreur (donc nos valeurs) peuvent nous pousser à croire qu'une chose est possible. Dans le cas de la centrale nucléaire, la gravité d'un accident nous pousse à le considérer comme possible. Écarter cette possibilité pourrait être considéré comme une faute. Ceci permet de rendre compte également du cas de la "double croyance" : je ferme ma fenêtre parce que je crois possible qu'il pleuve, mais en fait je ne crois pas qu'il va pleuvoir, donc je ne prend pas mon parapluie (il reste toujours une tension, qui est qu'on peut croire à la fois que p est qu'il est possible que non-p, ce qu'on pourrait qualifier de position faillibiliste).
</p><p>
Qu'est-ce que tout cela implique ? Simplement que prendre en compte les valeurs sociales n'est pas un problème en science sur le plan épistémologique tant que l'on est parfaitement transparent sur ces valeurs (ce qui n'a rien d'évident !). Ces valeurs ont une fonction "de second ordre" : elles impliquent de s'intéresser ou non à un sujet. Les nazis de notre exemple imaginaire (moralement condamnables mais épistémologiquement vertueux, car parfaitement transparents, je ne prétends pas que ce fut le cas des vrais !) ont simplement décidé de ne pas s'intéresser au sujet, donc de ne pas faire de science. S'ils avaient eu d'autres valeurs impliquant de s'intéresser plus sérieusement au sujet, ils auraient fait de la science. Le bayésien a raison de dire qu'on ne peut considérer leurs résultats comme scientifique, mais il aurait tort de considérer qu'une interférence de valeurs est problématique en soi.</p><p>On peut supposer que ceci s'applique aussi à la science d'aujourd'hui : peut-être que parfois certaines hypothèses sont écartées par les scientifiques parce qu'ils jugent que le risque qui est pris en les écartant est faible, ou que le risque qu'on prendrait en rejetant les hypothèses concurrentes serait trop fort (et il n'est pas certain que les valeurs impliquées dans ces jugements soient toujours explicites : c'est vraiment là que peut se situer le problème).
</p><p>En cas de désaccord apparemment factuel lors de discussions politiques, quand une fausseté est énoncée à la légère, il pourrait être parfois utile, plutôt que d'asséner simplement des chiffres pour convaincre, de rappeler aussi à notre interlocuteur que cette question factuelle nous importe vraiment (et pourquoi), et qu'on ne peut donc se contenter de preuves à la légère comme il ou elle le fait : si la question factuelle importe finalement peu pour notre interlocuteur (peut-être parce qu'il pense qu'il serait très risqué de rejeter sa fausseté à tort), il y a peu de chance que quelques données empiriques le convainquent, mais questionner ses valeurs peut avoir un effet. Les désaccords apparemment factuels peuvent cacher des désaccords sur le plan des valeurs.</p><p>
On entend souvent dire qu'un certain désintérêt ou détachement est nécessaire à la bonne science. Mais notre conclusion ici est que paradoxalement, faire de la bonne science nécessite au contraire de montrer un véritable intérêt pour le sujet qu'on étudie (une manière moins paradoxale de dire les choses est que pour faire de la bonne science, il ne faut pas prendre à la légère le risque d'erreur, ni dans un sens, ni dans l'autre : le rôle des valeurs est bien "de second ordre").
</p><h2>En quel sens se détache-t-on des valeurs ?</h2><p>
Ainsi, l'exemple de la science nazi n'est pas suffisant pour affirmer qu'il y aurait des "degrés de crédence cachés" qui expliqueraient ou devraient intervenir dans la décision. Il est insuffisant pour distinguer croyance et acceptation. Donc ce n'est pas un problème si la science évalue ses hypothèses en prenant en compte des valeurs pour estimer le niveau de preuve requis, pour peu qu'elle reste transparente.
</p><p>Soyons clair, tout ceci n'est pas forcément fatal pour le modèle bayésien qui a d'autres choses à faire valoir. Mais on pourrait lui opposer un autre modèle qui serait celui-ci : nos valeurs nous font considérer certains états de fait ou hypothèses comme possibles. Les données empiriques nous amènent parfois à éliminer certaines possibilités, mais ces possibilités résistent d'autant plus à être éliminées qu'elles sont chargées de valeurs et impliquent des actions différentes (en un sens négatif ou positif : si j'ai vraiment envie de trouver de l'or dans mon jardin, je continuerai à fouiller même si les données ne sont pas favorables parce-que "le jeu en vaut la chandelle"). C'est en général un fonctionnement rationnel en termes de gestion du risque. Ce modèle implique que nos croyances (ce qu'on considère possible) dépend du contexte.</p></p>
Mais il faut tout de même conceder quelque-chose. En général, si nos valeurs nous permettent de prendre une décision sans tenir compte de faits empiriques (je prend un parapluie car mon costume coûte très cher), on ne peut affirmer agir sur la base d'une croyance ferme. On agit plutôt sur la base d'une possibilité.
Ce n'est que quand les valeurs sont conflictuelles, quand il y a du positif et du négatif quelle que soit la réalité, mais que ça implique des décisions différentes, qu'il devient vraiment intéressant de mener une enquête empirique pour fixer une croyance. En ce sens, disposer de valeurs univoques qui impliquent d'agir de telle manière indépendamment des faits peut aller à l'encontre de la bonne marche de la science, principalement en éliminant l'intérêt d'une enquête empirique, mais adopter une approche plus pluraliste (non pas une absence de valeur, mais au contraire une certaine ouverture à plusieurs valeurs, ou encore une tolérance envers les systèmes de valeur alternatifs et un fonctionnement inclusif) au contraire stimule la recherche.
Ainsi on retrouve cette intuition qu'un contexte trop rigide sur le plan des valeurs, par exemple un régime totalitaire, n'est pas favorable à la science.
</p><p>
Par ailleurs, si à l'issue d'une enquête les données empiriques excluent catégoriquement certaines possibilités, les valeurs qu'on associe à ces possibilités deviennent non pertinentes pour la décision. Si le ciel est entièrement bleu, peu importe que je déteste être mouillé ou que je tienne beaucoup à ce costume : je crois qu'il ne va pas pleuvoir. Si je vous pose la question, vous pouvez me répondre "non il ne va pas pleuvoir" sans savoir pourquoi je le demande, sans éléments de contexte, si c'est évident qu'il va faire beau. Autrement dit, si le niveau de preuve est suffisamment élevé, il est vrai que ma croyance ne dépend plus réellement de mes valeurs et qu'elle acquière une forme d'objectivité, puisqu'elle devient virtuellement acceptable quelles que soient les valeurs, au sens où il faudrait un contexte très particulier associé à un niveau d'exigence extrêmement élevé pour me faire hésiter à agir sur sa base. C'est une manière de comprendre la locution "les faits se fichent de ce que vous pensez" qu'on entend parfois : s'il est évident qu'il pleut, peu importe que je préfère le soleil. Mais pour autant ma croyance n'est pas "hors sol", elle garde sa fonction principale, qui est de servir de base à l'action motivée, et donc je l'entretiens parce que j'ai certaines valeurs.
</p><p>
En somme on peut dire qu'il y a du vrai dans l'idée que la croyance robuste s'accompagne d'un détachement vis-à-vis des valeurs. Il s'agit juste de ne pas confondre "acceptable quelles que soient les valeurs" et "acceptable en l'absence de toutes valeurs". C'est bien la première locution, et non la seconde, qui caractérise l'objectivité comme horizon.
</p>
Quentin Ruyanthttp://www.blogger.com/profile/18395553776256376317noreply@blogger.com0tag:blogger.com,1999:blog-2904928175656435462.post-77211418806704239312021-05-17T06:50:00.032+02:002021-05-18T01:08:40.308+02:00Définir le pragmatisme (1) -- la pragmatique en philosophie du langage<div style="float: right"><a title="Alorin, CC BY 4.0 <https://creativecommons.org/licenses/by/4.0>, via Wikimedia Commons" href="https://commons.wikimedia.org/wiki/File:Roasted_coffee_beans_in_white_bowl.png"><img width="256" alt="Roasted coffee beans in white bowl" src="https://upload.wikimedia.org/wikipedia/commons/thumb/d/da/Roasted_coffee_beans_in_white_bowl.png/256px-Roasted_coffee_beans_in_white_bowl.png"></a></div>
<p>Ayant revendiqué le qualificatif "pragmatiste" à maintes reprises, je souhaite, dans une série de deux articles, caractériser ce que j'entends par pragmatisme en philosophie des sciences.</p><p>
Il s'agit d'un terme qui n'est pas toujours défini très précisément, généralement associé à une attitude mettant l'accent sur la pratique (scientifique) plutôt que sur les analyses abstraites, formelles ou métaphysiques, et souvent combinée à une forme de pluralisme. Mon ambition est d'en proposer une compréhension claire (sinon exclusive), à travers ce que j'estime en être les principales caractéristiques : l'emphase sur la performativité, la contextualité et la normativité des représentations.
</p><p>Ce premier article a pour but d'introduire ces trois caractéristiques importantes dans le cadre de la philosophie du langage, puisque ce me semble être le meilleur cadre pour bien les comprendre. Je les transposerai dans un second article à venir à la philosophie des sciences, afin de réellement expliquer en quoi l'approche pragmatiste telle que je la conçois se distingue d'autres approches, en particulier réalistes, quand il s'agit d'interpréter ou de comprendre les sciences (c'est à dire l'activité scientifique aussi bien que les représentations qu'elle produit).
</p><p style="font-size: .9em;color: grey">On peut comprendre le pragmatisme comme ce que Van Fraassen appelle une posture ("stance") quand il oppose la posture empiriste et la posture réaliste. Une posture est associée non seulement à des croyances ou positions substantielles, par exemple, pour le réaliste, la croyance que le but de la science est de décrire une réalité indépendante de nos représentations, mais aussi à des préférences, valeurs, choix méthodologiques ou méta-philosophiques, etc. Ainsi un réaliste mettra souvent l'emphase sur la nécessité d'expliquer, et un empiriste sur une certaine humilité épistémique. Pour Van Fraassen, adopter une posture philosophique relève de la conversion plutôt que du pur choix rationnel, à l'instar des religions ou positions politiques, puisqu'une posture n'est jamais justifiée de manière absolue sur une base rationnelle. Van Fraassen plaide pour une tolérance envers les différentes postures philosophiques tant qu'elles sont cohérentes avec une conception minimale de la rationalité, tolérance que je partage (ce qui n'interdit pas de défendre sa propre posture, de plaider en sa faveur, de critiquer les postures adverses pour les mettre en difficulté, etc). La posture pragmatiste que je défends est assez proche de la posture empiriste de Van Fraassen, mais elle se distingue sur le plan de la sémantique.</p><a href="http://ungraindesable.blogspot.com/2021/05/definir-le-pragmatisme-1-la-pragmatique.html#more">Plus d'infos »</a>Quentin Ruyanthttp://www.blogger.com/profile/18395553776256376317noreply@blogger.com0tag:blogger.com,1999:blog-2904928175656435462.post-12342072212870535612021-05-13T18:45:00.086+02:002021-05-18T01:09:15.101+02:00La (prétendue) continuité entre science et métaphysique
<p>J'ai lu récemment un tweet qui affirmait en gros qu'on fait tous de la métaphysique comme Monsieur Jourdain fait de la prose, que c'est impossible de ne pas en faire, et que y compris nos théories scientifiques incorporent une métaphysique implicite. C'est une affirmation assez classique en philosophie des sciences, ayant à voir notamment avec l'idée, lue également récemment dans un autre tweet, qu'il y aurait une continuité entre science et métaphysique, puisque les deux s'intéressent à dévoiler la nature de la réalité. Après tout, les théories scientifiques incorporent des postulats qui ne sont pas directement vérifiables par l'expérience : des postulats métaphysiques, donc (sic).
</p><p>
J'acceptais ces idées sans rechigner il y a quelques années (à l'époque où j'étais encore réaliste structural, en début de thèse) mais depuis, mes positions en philosophie des sciences ont pris un tournant beaucoup plus pragmatiste. Ma position actuelle est qu'il faut distinguer la science des scientifiques. La science est une activité institutionalisée, produisant des représentations (des modèles mathématiques associés à un vocabulaire théorique, etc) destinées à être appliquées, parfois indirectement, soumise à des normes (la confrontation à l'expérience, l'unification théorique). Les scientifiques sont ceux qui réalisent cette activité.
</p><p>
Je pense que l'interprétation des représentations produites par la science comme descriptions de la réalité relève de la métaphysique, et non de la science. Certes, beaucoup de scientifiques font le commerce de ce type d'interprétation métaphysique, mais ça ne signifie pas qu'elles soient essentielles à l'activité scientifique elle-même. Ce type d'interprétation présuppose notamment une sémantique réaliste qui n'est nullement impliquée par l'activité scientifique (j'aurais tendance à dire : au contraire : nous y reviendrons).
Donc ne confondons pas les croyances des individus, qui peuvent être variées, et l'activité institutionalisée et ses produits.
</p><a href="http://ungraindesable.blogspot.com/2021/05/la-pretendue-continuite-entre-science.html#more">Plus d'infos »</a>Quentin Ruyanthttp://www.blogger.com/profile/18395553776256376317noreply@blogger.com0tag:blogger.com,1999:blog-2904928175656435462.post-87227144956778366582021-03-20T00:00:00.028+01:002021-08-10T09:12:51.627+02:00Zététique, militantisme et composante sociale de la connaissance<div sytle="float:right"><a title="Paulo Fabre Ruiz, CC BY-SA 4.0 <https://creativecommons.org/licenses/by-sa/4.0>, via Wikimedia Commons" href="https://commons.wikimedia.org/wiki/File:Bandera_boliviana_en_manifestaci%C3%B3n.jpg"><img width="256" alt="Bandera boliviana en manifestación" src="https://upload.wikimedia.org/wikipedia/commons/thumb/2/2e/Bandera_boliviana_en_manifestaci%C3%B3n.jpg/256px-Bandera_boliviana_en_manifestaci%C3%B3n.jpg"></a></div>
(temps de lecture: ~10 minutes)
<h2>La composante sociale de la connaissance</h2><p>Je sais que Madrid est la capitale de l'Espagne. Enfin je crois. L'ai-je vérifié par moi-même <em>directement</em> ? Je ne saurais même pas par où commencer en fait : c'est quoi exactement le statut d'une capitale ? De ce que je crois savoir, ce n'est pas forcément la ville la plus peuplée d'un pays, mais celle où se situent ses institutions. Peut-être y a-t-il un statut juridique officiel inscrit dans un registre quelque part en Espagne ? Bon, voilà, je ne suis même pas sûr de ce qu'est une capitale d'un pays au sens stricte, ni de comment vérifier si une ville est la capitale d'un pays autrement qu'en faisant confiance à Wikipedia.
Et pourtant je <em>sais</em> que Madrid est la capitale de l'Espagne, n'est-ce pas ?
</p><p>
Je n'ai jamais rencontré aucune raison de douter que Madrid est la capitale de l'Espagne, rien qui m'ait poussé à aller vérifier si c'est vraiment le cas. Je n'ai jamais été voir la page wikipedia pour m'en assurer, parce que je le sais déjà. D'ailleurs je n'ai jamais ressenti le besoin d'attribuer, de manière réflexive, un quelconque degré de crédence à cette croyance : je l'ai simplement absorbée petit, et depuis je l'utilise sans même y réfléchir.
</p><p>
Suis-je irrationnel ?</p><p>
Si c'est le cas personne n'est ni ne sera jamais rationnel, et un être rationnel, quelqu'un qui y réfléchirait à deux fois avant de considérer que Madrid est la capitale de l'Espagne, ou toute autre trivialité, serait terriblement inadapté à nos sociétés. Car l'écrasante majorité de mes connaissances, et en particulier <em>la totalité de mes connaissances scientifiques</em>, ont exactement le même statut que celle-ci : je les ai acquises de seconde main, à l'école ou dans les livres, mais je serais incapable de les vérifier par moi-même. C'est mon cas, et c'est le cas de chacun d'entre nous.</p><a href="http://ungraindesable.blogspot.com/2021/03/zetetique-militantisme-et-composante.html#more">Plus d'infos »</a>Quentin Ruyanthttp://www.blogger.com/profile/18395553776256376317noreply@blogger.com2tag:blogger.com,1999:blog-2904928175656435462.post-36220074928353352032021-02-18T11:41:00.008+01:002021-05-18T01:10:25.395+02:00Tous les modèles sont faux ?<p>On doit l'expression "Tous les modèles sont faux, mais certains sont utiles" au statisticien George Box. Que faire de cette affirmation ?
</p><a href="http://ungraindesable.blogspot.com/2021/02/tous-les-modeles-sont-faux.html#more">Plus d'infos »</a>Quentin Ruyanthttp://www.blogger.com/profile/18395553776256376317noreply@blogger.com3tag:blogger.com,1999:blog-2904928175656435462.post-16048472732957525652021-02-04T00:17:00.079+01:002021-02-04T08:34:27.986+01:00Paradoxe de Newcomb, rationalité et normes sociales<p><div style="float: left;"><img src="https://upload.wikimedia.org/wikipedia/commons/8/82/Flaiano_Fellini_Ekberg_1960.jpg" width="50%"></div>Cette note est une réflexion inspirée par <a href="https://www.youtube.com/watch?v=hCUuM8F_0VE">l'excellente vidéo de Mr Phi qui présente le paradoxe de Newcomb</a>, la bonne manière de le poser sans se perdre dans de faux débats et les diverses ramifications du problème vis-à-vis de la rationalité. Je lui suis largement redevable des réflexions qui suivent. Je vous laisse visionner la vidéo pour bien les comprendre.
</p><a href="http://ungraindesable.blogspot.com/2021/02/paradoxe-de-newcomb-rationalite-et.html#more">Plus d'infos »</a>Quentin Ruyanthttp://www.blogger.com/profile/18395553776256376317noreply@blogger.com0tag:blogger.com,1999:blog-2904928175656435462.post-85617637343022165162019-09-24T07:38:00.001+02:002021-05-18T01:10:45.444+02:00Le constructivisme comme scientisme<div style="float:right"><a href="https://upload.wikimedia.org/wikipedia/commons/thumb/8/81/GagarinG_StroitAlekKolonGE.jpg/309px-GagarinG_StroitAlekKolonGE.jpg"><img src="https://upload.wikimedia.org/wikipedia/commons/thumb/8/81/GagarinG_StroitAlekKolonGE.jpg/309px-GagarinG_StroitAlekKolonGE.jpg"></a></div>
<p>
Le constructivisme social est l'objet de débats parfois houleux. On associe souvent ce type de thèse au "post-modernisme", à la négation de l'objectivité de la science, à de l'anti-rationalisme. Le constructivisme affirme de certaines catégories de phénomènes qu'ils sont "socialement construits", et s'oppose en cela au naturalisme, suivant lequel il s'agit de catégories naturelles. Mais cette idée peut se comprendre de différentes manières. </p><p>
Ici je souhaiterai défendre (développant une <a href="http://ungraindesable.blogspot.com/2011/05/pourquoi-donc-existe-t-il-des-critiques.html">vieille idée</a>) que c'est une version forte de constructivisme qui nourrit réellement les débats militants, les autres versions ayant des implications beaucoup moins radicales, et que cette version forte, quand elle est généralisée, s'apparente à un scientisme sociologique.
</p><a href="http://ungraindesable.blogspot.com/2019/09/le-constructivisme-comme-scientisme.html#more">Plus d'infos »</a>Quentin Ruyanthttp://www.blogger.com/profile/18395553776256376317noreply@blogger.com2tag:blogger.com,1999:blog-2904928175656435462.post-34035892503750747172019-09-02T05:35:00.001+02:002021-05-18T01:11:39.207+02:00Quelle place pour les valeurs en science ?
<div style="float:right"><img src="https://upload.wikimedia.org/wikipedia/commons/thumb/5/5b/BLOOD_SCIENCE.jpg/339px-BLOOD_SCIENCE.jpg"></div>
<p>
On fait parfois la différence entre valeurs épistémiques (ce qui fait qu'une théorie est bonne ou mauvaise selon des critères rationnels ou scientifiques) et valeurs contextuelles (ce qui fait qu'une chose est bonne ou mauvaise vis-à-vis de la morale, d'un contexte social ou d'intérêts particuliers).
</p><p>
Il peut y avoir cette idée, parfois critiquée en philosophie, que la science "pure" est "neutre", ou devrait l'être, qu'elle ne devrait être mue que par des valeurs épistémiques. Son but serait de produire de bonnes théories, de bonnes connaissances, indépendamment de considérations morales, sociales ou subjectives. L'intervention de valeurs contextuelles serait un obstacle à la recherche d'objectivité, valeur cardinale en science.
</p><p>
Ces questions sont liées à celles concernant la responsabilité des scientifiques. Peut-on par exemple défendre l'idée que la science, seulement mue par une recherche du vrai, n'a aucune responsabilité quant aux applications possibles issues de ces recherches ? La science n'est ni bonne ni mauvaise, seul ce qu'on en fait peut l'être ? Toute connaissance, quel que soit le sujet, est-elle bonne à prendre tant qu'elle répond à des critères de qualité épistémique ?
</p><p>
À ce titre on peut distinguer plusieurs phases d'une recherche : il semble que des valeurs contextuelles puissent en effet interférer négativement avec les valeurs épistémiques s'il s'agit de produire les données expérimentales "qui nous arrange" ou de sélectionner les hypothèses "qui nous arrangent", mais il est a priori acceptable voire souhaitable que le choix d'un sujet de recherche soit basé sur des valeurs contextuelles : un intérêt intellectuel pour une question ou un problème, peut-être partagé par la communauté scientifique, ou bien un besoin social (soigner le cancer), et de même pour les applications. Cela tient à ce que les valeurs épistémiques ne sont pas prescriptives sur ces aspects. Cependant les valeurs contextuelles peuvent aussi affecter les standards de précision dans la production de données, les méthodes choisies (par exemple l'expérimentation animale) et la prise en compte de certaines contraintes pratiques dans le choix des hypothèses à tester ou la gestion du risque au moment de tirer des conclusions d'une expérience et donc tout ceci est plus complexe qu'il n'y paraît.
Pour cette raison, certains affirment que
l'intervention de valeurs contextuelles est inévitable en science, et pas forcément une mauvaise chose, et que plutôt que d'éliminer les valeurs, il faudrait les rendre explicites pour qu'elle puissent être discutées par la communauté, au delà de la sphère scientifique. (voir <a href="https://plato.stanford.edu/entries/scientific-objectivity/"> l'entrée de l'Encyclopédie Stanford sur l'objectivité</a>)
</p><p>
Dans tous les cas on peut déjà dire que le choix d'un sujet de recherche ou les applications ne sont pas a priori "neutres" du point de vue des valeurs sociales et qu'il n'y a aucune raison qu'ils le soient. Et cette absence de neutralité implique a priori une forme de responsabilité : l'idée que la science non appliquée, si ses résultats sont destinés à être rendus publics, serait un outil neutre est assez discutable (on peut faire un parallèle avec les arguments douteux défendant le libre accès aux armes à feux du type : ce ne sont pas les armes qui tuent mais les gens). Il ne semble pas, pour prendre un exemple extrême, que faire des recherches sur le type de virus qui pourrait décimer exclusivement une catégorie ethnique de la population, même si cette recherche est menée "par simple curiosité" (ce qui déjà peut sembler douteux), soit une très bonne idée d'un point de vue éthique. A priori, un chercheur devrait se questionner sur les applications potentielles de ses recherches.
</p><p>
Ceci dit, il semble bien y avoir une distinction pertinente entre science et technologie, ou entre science théorique et science appliquée, et on pourrait souhaiter que la première jouisse d'une autonomie plus importante dans ses choix de recherche. Dans cette article, je souhaite me pencher sur cette distinction, et sur celle, liée, entre valeur épistémique et contextuelle.
</p><a href="http://ungraindesable.blogspot.com/2019/09/quelle-place-pour-les-valeurs-en-science.html#more">Plus d'infos »</a>Quentin Ruyanthttp://www.blogger.com/profile/18395553776256376317noreply@blogger.com2tag:blogger.com,1999:blog-2904928175656435462.post-89420576548740282202019-08-10T02:20:00.001+02:002021-05-18T01:12:27.628+02:00Lois naturelles contre régularité accidentelle : une différence de priors bayésiens ?<p><div style="text-align:center"><img src="https://upload.wikimedia.org/wikipedia/commons/thumb/a/a7/Head_of_Raven.jpg/320px-Head_of_Raven.jpg"></div>
Imaginez que vous souhaitiez observer un certains nombres de corbeaux, disons dix, pour vérifier que votre hypothèse "tous les corbeaux sont noirs" est correcte. Si vous n'en voyez que des noirs, cela vous confortera, et vous vous attendrez à ce qu'un onzième soit noir également, sans surprise. Vous avez effectué un raisonnement amplifiatif : l'observation d'un échantillon vous amène à modifier vos croyances à propos d'autres objets, en dehors de votre échantillon.
</p><p>
Si maintenant vous jouez à pile ou face avec une pièce non truquée et observez dix fois "pile", vous penserez faire face à un énorme coup de hasard, mais vous ne devriez pas inférer que le onzième lancé sera "pile" : il y a toujours une chance sur deux qu'il tombe sur face, indépendamment des résultats précédents. C'est une chose qu'on enseigne dans tous les cours sur les probabilités.
</p><p>
Ainsi le raisonnement à adopter est différent dans les deux cas.</p><a href="http://ungraindesable.blogspot.com/2019/08/lois-naturelles-contre-regularite.html#more">Plus d'infos »</a>Quentin Ruyanthttp://www.blogger.com/profile/18395553776256376317noreply@blogger.com15tag:blogger.com,1999:blog-2904928175656435462.post-83564150975168079602019-02-19T17:56:00.001+01:002021-05-18T01:12:46.940+02:00Pourquoi je ne suis pas bayésien<p>Je ne suis pas Bayésien. En tout cas pas au sens où la formule de Bayes serait applicable et devrait être appliquée de manière universelle pour évaluer ses croyances. Je pense que la formule de Bayes a un domaine d'application très limité.</p><p>
Mes raisons sont assez simple. La formule de Bayes est la suivante : p(H/D)=p(D/H)•p(H)/p(D).</p><p>
Il est éclairant d'analyser p(D) comme la somme des p(D/Hi)•p(Hi), ou les Hi sont toutes les hypothèses possibles, et s'excluent mutuellement. De cette manière on se retrouve avec les éléments suivants dans la formule de Bayes :
<ul><li> p(H/D)
ce qu'on cherche à calculer, à savoir le degré de confirmation d'une hypothèse H étant donné une donnée D </li><li>
des données pour faire ce calcul, à savoir<ul><li>
p(Hi) des probabilités a priori pour toutes les hypothèses possibles</li><li> p(D/Hi)
les prédictions de D par toutes les hypothèses Hi possibles.
</li></ul></li></ul>
</p><p>
Il s'ensuit que le domaine d'application de la formule de Bayes est l'ensemble des contextes où l'on dispose d'un ensemble d'hypothèses pondérées a priori et s'excluant mutuellement, hypothèses qui permettent de prédire la probabilité de certaines observations. Or ces contextes sont très limités. C'est pourquoi je ne suis pas bayésien.
</p><a href="http://ungraindesable.blogspot.com/2019/02/pourquoi-je-ne-suis-pas-bayesien.html#more">Plus d'infos »</a>Quentin Ruyanthttp://www.blogger.com/profile/18395553776256376317noreply@blogger.com2tag:blogger.com,1999:blog-2904928175656435462.post-90414500611110514742018-11-22T16:33:00.002+01:002021-05-18T01:13:01.021+02:00Pistolets sur la tempe et degrés de crédence<div style="float: right"><a title="Rama [CeCILL (http://www.cecill.info/licences/Licence_CeCILL_V2-en.html) or CC BY-SA 2.0 fr (https://creativecommons.org/licenses/by-sa/2.0/fr/deed.en)], from Wikimedia Commons" href="https://commons.wikimedia.org/wiki/File:SigP220-pistol.jpg"><img width="256" alt="SigP220-pistol" src="https://upload.wikimedia.org/wikipedia/commons/5/55/SigP220-pistol.jpg"></a></div>
<p><a href="https://www.youtube.com/channel/UC0NCbj8CxzeCGIF6sODJ-7A?pbjreload=10">Lê</a> et <a href="https://www.youtube.com/channel/UCqA8H22FwgBVcF3GJpp0MQw">Monsieur Phi</a> publient des vidéos youtube super intéressantes sur plein de sujets (l’intelligence artificielle, la morale, le réalisme sémantique) ainsi que de longues discussions (sur la chaîne <a href="https://www.youtube.com/channel/UCNHFiyWgsnaSOsMtSoV_Q1A">Axiome</a>). Autant je trouve leur vidéos passionnantes, autant je suis parfois en desaccord avec eux non forcément sur ce qu’ils disent, mais sur le cadre de discussion même qu’ils adoptent, et je voudrais essayer de mettre le doigt sur ce desaccord philosophiques, en espérant initier une discussion (mais comme je suis “old school”, ce sera par blog plutôt qu’en vidéo).</p><p>
Ce n’est pas toujours facile d’exprimer exactement ce qui me gène, mais un bon point de départ est l’idée que l’on peut attribuer des degrés de crédence à n’importe quelle croyance (la consistance de l’arithmétique de Peano, le réalisme moral, …) (ceci dit Lê ne semble pas y adhérer totalement, puisqu’il affirme dans le <a href="https://www.youtube.com/watch?v=3rz9B5EA4I4">dernier axiome</a> (au cours du débat sur le réalisme moral) que ça ne peut être applicable qu’aux croyances qui prédisent des données observables).</p><p>
Souvent ils utilisent dans leur discussion une petite expérience de pensée pour déterminer ces degrés de crédence : “imagine qu’on te mette un pistolet sur la tempe, que parierais-tu ?”. Une manière d'éliminer artificiellement la possibilité de suspendre son jugement.</p><p>
A chaque fois qu’ils invoquent cette histoire de pistolet sur la tempe, je décroche, d’autant plus vite que le pari en question concerne une idée philosophique abstraite. Je vais essayer d’expliquer pourquoi. </p><p>
Je souhaite traiter de trois problèmes à propos de cette idée :
<ul><li>L’expérience de pensée, en soi, ne montre pas qu’on a des croyances et degrés de crédences</li>
<li>L’idée suppose au départ que les questions (ou les croyances en général) ont une signification de manière absolue (réalisme sémantique) or ce n’est pas du tout évident</li>
<li>Elle suppose ensuite que l’adoption de croyances prenne la forme de degrés de crédence précis, or ça n’a rien d’évident non plus</li></ul></p><a href="http://ungraindesable.blogspot.com/2018/11/pistolets-sur-la-tempe-et-degres-de.html#more">Plus d'infos »</a>Quentin Ruyanthttp://www.blogger.com/profile/18395553776256376317noreply@blogger.com5tag:blogger.com,1999:blog-2904928175656435462.post-90536372588851805702018-11-11T00:25:00.002+01:002018-11-11T13:03:58.072+01:00Faut-il être libre pour connaître les lois de la nature ?Je souhaite aujourd’hui croiser deux vieux débats : celui sur le libre arbitre, et sa compatibilité avec le déterminisme, et celui sur la connaissance modale.</p><p>
Le premier est peut-être plus familier à un certain nombre de lecteurs. Il s’agit de savoir si la notion de liberté humaine, si centrale dans nos vies (impliquée par exemple dans la notion de responsabilité morale, donc indispensable à toute conception éthique), est compatible avec l’idée que nous sommes déterminés par des lois. A-t-on besoin de penser qu’on « aurait pu faire autrement », en un sens littéral, pour penser la liberté ? Ou, comme le veulent les compatibilistes, est-il suffisant que nous soyons la source causale de nos actions (quand bien même les rapports causaux seraient déterminés) ?</p><p>
Le second débat concerne l’existence d’une nécessité dans la nature, justement impliquée dans la notion de « détermination par des lois » : certaines choses seraient possibles ou impossibles, parce que permises ou interdites par les lois de la nature. Mais plus précisément, le débat qui m’intéresse concerne la possibilité de connaître ces lois de la nature.</p>
<h2>Connaître les lois de la nature</h2>
<p>
C’est un vieux débat. Hume, et les empiristes en général, entretiennent un scepticisme à cet égard : aucune relation de nécessité n’est vraiment observable, nous ne constatons jamais que la conjonction constante de phénomènes successifs, alors si la connaissance est fondée sur l’observation, pourquoi croire à des relations de nécessité dans le monde ? Elles sont plutôt dans nos têtes : nous acquerrons des « habitudes de l’esprit », des attentes (le soleil se lèvera demain comme il s’est toujours levé), nous synthétisons les régularités.</p><p>
Bien entendu, s’il n’existe pas vraiment de lois de nécessité, pas vraiment de possibilités ou d’impossibilités dans la nature mais seulement dans nos têtes, le débat sur le libre arbitre et le déterminisme devient caduque : aurait-on pu faire autrement ? Oui assurément, tant que c’est concevable (et ça l’est). Il faudrait, pour en douter, acquérir des « habitudes de l’esprit » tellement fortes qu’elles nous priveraient de toute délibération sur ce qu’il convient ou non de faire : nous n’aurions pas le choix. Mais seuls les esprits les plus étriqués seraient capables d’aboutir à de telles extrémités (et je doute qu’il en existe). Bien sûr la notion de possibilité dont il est question n’est plus vraiment métaphysique, mais l’empiriste pourra faire valoir que le débat métaphysique sur le libre arbitre n’a pas de sens à ses yeux, puisque la notion de possibilité dans la nature n’en a pas (ou encore que ce débat n’a pas de réponse connaissable et qu’on devrait éviter de le poser). En tous les cas, si nous ne connaissons pas ni ne connaitrons jamais de lois de la nature qui gouverneraient les phénomènes, il n'y a pas vraiment de bonne raison de s'inquiéter de leur
compatibilité avec la liberté humaine.</p><p>
Cependant Hume est bien trop sceptique puisque pour lui, même les régularités universelles sont inaccessibles : le soleil pourrait bien ne pas se lever demain après tout. Mais si, à l’instar du commun des mortels, nous acceptons la validité de l’induction, à savoir l’idée qu’on puisse inférer des généralités à partir de cas particuliers (même si ces inférences sont parfois faillibles), ne pourrait-on pas par la même occasion accéder à une connaissance modale, une connaissance de relations de nécessité, par induction ?</p><p>
Nous voyons un cygne blanc, puis un autre, et encore un autre, et nous généralisons : tous les cygnes sont blancs. C’est l’induction. Nous lâchons un objet et il chute vers le bas, puis un autre, et encore un autre : tous les objets que nous lâchons chutent vers le bas. Et si nous allions plus loin : ne pourrait-on pas dire que tous les objets que nous pourrions lâcher chuteraient vers le bas ? Ne peut-on étendre notre induction aux possibles ?</p><p>
Il ne me semble pas y avoir de raison de principe de résister à ce type d’induction. Après tout, aussi bien que l’ensemble des situations observées d’un certain type (celles qui comportent des objets qu’on lâche) sont généralement jugées représentatives de toutes les situations effectives du même type, elles pourraient être jugées représentatives de toutes les situations possibles du même type. Les situations effectivement observées sont un sous-ensemble de toutes les situations de l’univers : celles qu’on observe. Mais elles sont aussi un sous-ensemble de toutes les situations possibles : celles qui sont réalisées sous nos yeux. Alors si l’on est prêt, par induction, à généraliser à un ensemble, pourquoi ne pas généraliser à un ensemble plus grand, celui de tous les possibles ?</p><h2>Quelle étendue pour les possibles ?</h2><p>
Mais il y a un problème à ce raisonnement qui est le suivant (et c’est là que le libre arbitre va intervenir) : pour pouvoir généraliser à un ensemble de situations plus grand, encore faut-il penser que cet ensemble existe. Or qu’est-ce qui nous prouve que les possibles existent ? Je peux affirmer que tout objet que j’aurais pu lâcher aurait chuté vers le sol. Fort bien. Mais quel est cet ensemble d’objets que j’aurais pu lâcher ? Aurais-je pu lâcher celui-ci ? Ou celui-ci ? Vers quel ensemble de possibles fonctionne mon induction ?</p><p>
Si j’accepte que j’aurais pu (ou quelqu’un d’autre, peu importe) lâcher un certain nombre d’objets, mon induction ne pose pas vraiment de problème. J’accepte a priori qu’il existe un ensemble de possibilités, un ensemble bien défini, que je décris d’une certaine manière. Et puisque j’accepte leur existence, je peux m’autoriser à leur étendre, par induction, les caractéristiques que j’observe à propos des possibilités qui sont réalisées dans le monde : quand je lâche un objet, il tombe vers le bas, donc si je lâchais cet objet, il tomberait. Or je pourrais le lâcher (et ceci, je dois l’admettre a priori).</p><p>
Si par contre, pour une raison ou pour une autre, je refuse de croire que j’aurais pu (ou quelqu’un d’autre, ou que ça aurait pu se produire naturellement) lâcher des objets qui, de fait, n’ont pas été lâchés, alors ces possibilités n’existent même pas et mon induction tombe à plat. En d’autres termes, tout ce que je peux montrer par induction, c’est que s’il est possible que je lâche un objet, alors il tomberait si je le lâchais, mais je ne peux pas montrer qu’il est possible que je lâche un objet : ceci, je dois le croire a priori.</p><p>
Le problème est de délimiter les possibles que je dois accepter au préalable et ceux que je ne dois pas accepter, mais découvrir. Je dois croire a priori que j'aurais pu lâcher tel ou tel objet, mais je ne dois pas croire a priori qu'il aurait pu se diriger vers le haut plutôt que vers le bas : ceci doit être le résultat d'une induction. Comment combiner ces deux aspects ?
</p><p>
On pourrait rétorquer : que nenni, ce que tu découvres par induction, ce n’est pas, à propos des objets qu’on lâche (possiblement ou effectivement), qu’ils tombent, mais plutôt, à propos des objets en général, que quand-on-les-lâche-ils-tombent. Il n'y a pas à distinguer deux types de possibilités. Mais plutôt que de résoudre la difficulté, cette proposition anéantit tout espoir de connaissance modale puisque ce « quand-on-les-lâche-ils-tombent », observé sur un ensemble de cas particuliers, n’a rien d’une relation de nécessité : c’est plutôt, comme le voyait Hume, une conjonction constante. Et maintenant notre seul recours pour accéder à une connaissance modale est d’étendre la relation à des objets seulement possibles, dont l’existence est encore plus douteuse (qui en a jamais vu ?). Quant aux objets actuels : oui, quand-on-les-lâche-ils-tombent, mais de fait, soit on les lâche, soit on ne les lâche pas.</p><h2>Le rôle de l'indéterminisme</h2><p>
Quelle conclusion en tirer ? La suivante, il me semble : pour qu’une connaissance modale soit possible par simple induction, il faut déjà admettre qu’il existe des possibilités d’un certain type, des alternatives aux situations actuelles. Et donc non seulement il faut croire à une forme d’indéterminisme, mais en plus que ces possibilités nous sont a priori accessibles. Une option attrayante consiste à les associer à nos actions courantes : il faut croire qu’en général, « on aurait pu agir autrement » même si l'on ignore ce qui se serait produit. Il faut croire (c’est en tout cas une option) que certaines possibilités nous sont données de première main dans l’expérience : nos possibilités d’action, quand d'autres sont objet d'une enquête empirique.</p><p>
A mon avis cette option rend assez bien compte du fonctionnement de la science (les scientifiques jouent sur les paramètres, ils contrôlent les situations : l'intervention expérimentale est importante). Mais
cette conclusion reste un peu problématique d’un point de vue empiriste puisqu'elle semble introduire une composante rationnaliste (une connaissance a priori). Mais il existe peut-être des façons de régler le problème. L'une serait d'accepter que ces possibilités d'action font, après tout, partie de l'expérience (ce qui est en fait un aspect des théories écologiques de la perception : l'idée que nous percevons des affordances, ou possibilités d'action). </p><p>Une autre option plus déflationniste serait qu'il suffit que certains types de situations soient observées pour qu’elles soient en effet possibles. J’ai vu des gens lâcher des objets, parfois, et parfois ne pas les lâcher : les deux sont des possibilités, et je peux bien croire que telle personne aurait pu ne pas lâcher un objet, qu’elle était libre. Si une situation identique au départ donne lieu à des résultats différents à l’arrivée, je peux croire que tous les résultats sont possibles pour une situation de ce type. Il n’y a pas vraiment de problème ! Et alors je peux connaître des lois de nécessité par induction : des contraintes sur les possibles, qui correspondent en fait exactement aux régularités que j’observe.</p><p>En somme la solution est la suivante : l’étendue des possibles m’est donnée au départ soit par mes possibilités d’action, soit simplement par la variété des situations que j’observe, et je fais des inférences sur cet ensemble de possibles.</p><h2>Le problème du déterminisme</h2><p>
Si l'empiriste peut s'accomoder de cette difficulté, pour qui est-ce un problème ? Paradoxalement, c’en est un pour le réaliste métaphysicien qui, plus ambitieux, croit que le monde macroscopique est peu ou prou déterminé par des lois (peut-être que l’indéterminisme de la physique n’est pas pertinent à notre échelle, ou peut-être qu’il n’existe même pas). Il peut bien croire qu’il existe des lois de la nature déterministes. Mais alors il doit croire que cet objet, je n’aurais pas pu le lâcher, ni personne : c’est physiquement impossible, c’est interdit par les lois. Et alors il doit croire qu’en général, il n’est pas possible de procéder à une induction des faits observés vers ce qui est possible ou non puisque nous n’avons aucun accès à une étendue de possibles sur lesquels fonctionnerait l’induction. Il n’y a aucune raison de penser que les situations observées sont représentatives de quoi que ce soit. Il n'y a qu'un monde actuel, et une induction ne fonctionne jamais sur un exemplaire unique.</p><p> Autrement dit, le réaliste de cette sorte se retrouve obligé d’adopter une épistémologie fort implausible : peut-être que nous serions capables d’inférer des relations de nécessité par une mystérieuse intuition ? Mais comment donc ?</p><p>
Si les lois sont parfaitement déterministes, il n’existe qu’un seul développement possible à notre monde, mais alors le fait que ce développement implique des régularités observables ne nous renseigne en rien sur la manière dont se développent les autres mondes possibles. Peut-être que chaque monde possible se déroule suivant des régularités complètement différentes. Comment le saurions-nous ?
Mais alors le déterminisme marche sur la tête, puisque le principal argument en sa faveur est bien scientifique : c’est le fait que les lois de la physique, que nous inférons sur la base des régularités observables, sont (en fait étaient il y a plus d’un siècle) déterministes. S’il veut en déduire que le monde est déterminé par des lois, il doit aussi en déduire que ces lois n’ont rien à voir avec les régularités de la physique mais sont peut-être tout autres. Ce qu’il postule rend ce qu’il postule inconnaissable.</p><p>
Voilà qui semble absurde, et qui me semble réfuter, par un argument qu’on pourrait qualifier de transcendantal, le déterminisme laplacien : l’indéterminisme fait partie des conditions de possibilité d’une connaissance modale, et puisque adopter un déterminisme requiert de croire possible la connaissance modale, il requiert de croire en sa propre contradiction. Donc il est irrationnel de croire que le monde est déterminé, tandis qu’il est rationnel de croire qu’il est métaphysiquement indéterminé : qu’il contient des possibilités que nous pouvons connaître par induction, et en particulier, de ces possibilités qu’on associe généralement à nos actions.</p><p> Dans ce cadre, le compatibilisme s’avère futile puisqu’il cherche à concilier le libre arbitre avec une thèse qu’il est simplement irrationnel d’accepter. Je pense qu'il s'agit d'une bonne raison de le rejeter : non qu'il soit insensé, mais plutôt inutilement frileux (quand à la compatibilité du contrôle, qu'on associe au libre arbitre, avec l'indéterminisme, je ne l'aborderais pas ici, mais en deux mots, je ne vois pas réellement de raison d'associer par défaut l'indéterminisme des lois de la nature à une chance aveugle).</p><h2>Conclusion</h2><p>
Cet argument pourra paraître abstrait à certains, mais ce que j’ai tenté de faire ici n’est rien d’autre que donner corps à cette intuition qui, il me semble se retrouve chez beaucoup d’esprits scientifiques : que la connaissance scientifique, en particulier la connaissance de rapports de causalité, requiert un certain contrôle sur le monde, et donc, le libre arbitre ; ou encore, que si nous n’étions pas vraiment libres au sens fort, nous devrions nous contenter d’enregistrer des régularités. Il me semble que croire au libre arbitre est, en général, un antidote au scepticisme : en tout cas, au scepticisme modal.</p>Quentin Ruyanthttp://www.blogger.com/profile/18395553776256376317noreply@blogger.com2tag:blogger.com,1999:blog-2904928175656435462.post-84920176597816811512018-07-17T14:43:00.000+02:002018-07-17T14:43:38.827+02:00Extrême droite et islamisme, même combat<p>Nous vivons une époque tendue, traversée de contradictions à résoudre. Traversée de folie, avec des mouvements qu'apparemment tout oppose : le terrorisme islamiste et l'extrême droite européenne, qu'on verrait hâtivement comme les pires ennemis l'un de l'autre. Et cet état de fait est source de dilemmes moraux pour les pacifistes de tous bords. </p><p>A ma droite, certain-e-s s'interrogent sur la bonne façon de dénoncer l'islamisme radical sans se voir accusé-e-s d'entretenir des idées xénophobes, c'est-à-dire de faire acte de complaisance envers l'extrême droite européenne. A ma gauche, d'autres se demandent comment assoir la lutte anti-raciste, l'oppression diffuse envers les musulmans d'occident, sans prétendre soutenir le terrorisme. Comme si deux démons voulaient nous imposer un choix impossible : soit être avec l'un, soit avec l'autre. </p><p>Et la seule réponse acceptable, de tous bords, semble être la nuance : pas d'amalgames ! L'on n'est pas d'extrême droite si l'on sait distinguer le musulman du terroriste. L'on n'est pas islamiste si l'on sait distinguer l'occidental du fasciste. Et encore mieux si l'on sait distinguer les individus des structures sociales qui les produisent.</p><p>
Mais les nuances sont peu vendeuses et beaucoup s'engouffrent dans les brèches, accusant les uns et les autres de complaisance, cristallisant deux camps, et donnant finalement du grain à moudre aux deux démons.</p><p>
Pourtant en la matière, il n'est pas besoin d'être nuancé outre mesure, car il existe bien deux camps : d'un côté ceux qui se revendiquent d'une idéologie d'extrême droite, et les islamistes y ont toute légitimité, et de l'autre ceux qui n'en veulent pas. Il suffit donc de lutter contre le fascisme au sens large, quelle que soit sa couleur, et sans compromis. </p><p>Ce qui pourrait venir obscurcir cette reconfiguration est la notion d'asymétrie. L'asymétrie des luttes, ou l'idée que les fascistes occidentaux seraient plus condamnables parce qu'en position de force dans le monde, qu'on se devrait d'abord de soutenir le plus faible, ou bien l'asymétrie des moyens, ou l'idée que les islamistes seraient plus condamnables parce que leurs actions seraient plus meurtrières ou moralement plus choquantes. </p><p>Très bien, embrassons ces deux asymétries et mettons-les dos à dos : les uns utilisent des moyens à la mesure de leur position d'infériorité, et une asymétrie compensant l'autre, les deux sont aussi bien condamnables, ni plus, ni moins, et surtout, relèvent de la même idéologie d'extrême droite : c'est cette dernière, qui unie malgré eux ces deux camps, le véritable ennemi.</p>
Quentin Ruyanthttp://www.blogger.com/profile/18395553776256376317noreply@blogger.com4tag:blogger.com,1999:blog-2904928175656435462.post-50218123879071941132018-06-01T00:33:00.002+02:002018-06-01T15:24:01.573+02:00Qui a battu les meilleurs joueurs de go ? AlphaGo ou les ingénieurs de Google ?<div style="float:left"><a href="https://commons.wikimedia.org/wiki/File:FarmworkersplayGo.jpg#/media/File:FarmworkersplayGo.jpg"><img src="https://upload.wikimedia.org/wikipedia/commons/3/37/FarmworkersplayGo.jpg" alt="FarmworkersplayGo.jpg" width="280"></a></div>
<p>Qui a vraiment battu les meilleurs joueurs de go ? AlphaGo ou les ingénieurs de Google ?</p><p>
La réponse à cette question me semble évidente : ce sont des ingénieurs qui sont parvenus à battre les meilleurs joueurs de go à l'aide d'un programme informatique. Pourtant la tournure utilisée dans la quasi-totalité des comptes rendus de cette histoire dans les médias semble indiquer l'inverse : il est rapporté qu'un ordinateur (et non une équipe d'ingénieur) a remporté la victoire. Je comprends bien intuitivement cette tournure, mais elle me semble relever, à strictement parler, de l'abus de langage, et je pense que cet abus de langage n'est pas innocent mais au contraire assez problématique, principalement parce qu'il relève du sensationnalisme et ouvre la voie à des glissements fantasmatiques de toute sorte qu'on ferait mieux d'éviter si l'on veut se concentrer sur les véritables questions que pose la recherche en IA. Il ne s'agit pas d'amoindrir la prouesse en question, mais plutôt de rester pragmatique sur les conséquences qu'on pourrait en tirer. Car si on dit "un ordinateur a battu le meilleurs joueurs de go", on pourra ensuite penser "ou est-ce que ça va s'arrêter ? Bientôt les ordinateurs nous seront supérieurs en tous points", tandis que si l'on dit "les ingénieurs d'une grande entreprise d'informatique ont battu les meilleurs joueurs de go à l'aide d'un ordinateur", on voit bien que les craintes seront d'un ordre différent. Pas forcément nulles ni moins préoccupantes, mais relevant plus de la politique que de la science fiction. Il ne faudrait donc pas se tromper de menace (sur ce point cette <a href="">conférence de Jean-Gabriel Ganascia</a> est assez éclairante).
</p><p>
J'ai peur d'enfoncer des portes ouvertes en relevant ce point, mais puisque cet abus de langage est si répandu, puisque jamais nulle-part je n'ai lu que ce sont des ingénieurs qui ont joué au jeu de go et gagné, et puisqu'une minorité de transhumanistes semblent réellement plus préoccupés par la science fiction que par la politique, peut-être que ça vaut la peine de s'attarder sur les raisons qui me font croire qu'à l'évidence, c'est bien la bonne lecture de ce qui s'est produit.
</p><p>
La raison principale est très simple : ceux qui ont pris les décisions, qui ont implémenté l'algorithme, organisé l'événement, allumé la machine et lancé le programme, et même ceux qui ont posé les pièces sur la table de jeu suivant les indications de la machine, ce sont des humains. La machine n'a pas joué au jeu de go parce qu'elle n'a jamais choisi délibérément d'entrer dans la partie. Hors jouer est un acte intentionnel. La machine a donc seulement servi à jouer, d'une manière assez spéciale, certes. Voilà pour les portes ouvertes.
</p><h2>
Actions, raisons et causes
</h2><p>
Tout ceci relève du bon sens, alors peut-être serait-il intéressant de comprendre pourquoi l'on a tendance à affirmer l'inverse. Le fait que les ingénieurs aient utilisés un outil plutôt que de jouer eux-mêmes sans aide d'un ordinateur me semble être un aspect superficiel : l'utilisation d'artefact n'enlève rien à l'intentionnalité d'une action. Je peux jouer aux échecs avec des gants de boxe pour déplacer les pièces, on ne dira pas pour autant que ce sont les gants qui jouent. [ajout] Le fait que l'artefact soit en partie autonome vis-à-vis de ses concepteurs n'est pas pertinent non plus : c'est le cas de n'importe quel outil (au mieux cela peut amener à reformuler ainsi : les ingénieurs de google ont conçu une machine qui peut permettre à n'importe qui de gagner contre les meilleurs joueurs de go). </p></p>Un cas plus intéressant est [/ajout]si j'utilise un bras mécanique télécommandé (mais choisis toujours les coups): on dira toujours que c'est moi qui joue, mais peut-être que dans ce cas il serait acceptable d'affirmer, à un moment donné (lors du déplacement d'une pièce) que le bras mécanique joue à ma place, qu'il fait un coup. Enfin c'est toujours moi qui ait joué la partie dans son ensemble, même si le bras a joué chaque coup individuel, physiquement du moins.
</p><p>
Nous sommes donc disposés, sémantiquement parlant, à attribuer certaines actions à nos outils quand ces actions jouent un rôle instrumental vis-à-vis des nôtres, c'est-à-dire que nous les leur avons déléguées. Ce qui fait qu'on a tendance à affirmer que c'est l'ordinateur qui a gagné la partie, c'est que dans ce cas, nous avons quasiment tout délégué : l'ensemble des choix de coups sont le fait des algorithmes d'alpha-go. Seule une action très générale est encore du ressort d'êtres humains : quelque chose comme décider de jouer cette partie en utilisant la machine, gagner, et ainsi démontrer l'efficacité de ce type de technologie.
</p><p>
Mais sauf à être animiste (ou peut-être adepte de Bruno Latour), il ne faut pas prendre trop au sérieux ce type de discours. Il ne nous viendrait pas à l'idée d'affirmer que le bras mécanique joue intentionnellement les coups. Une tempête peut aussi arracher des arbres, mais il ne s'agit pas a priori d'une action intentionnelle. De même, un algorithme peut choisir tous les coups d'une partie pour mener à la victoire, mais il ne s'agit pas a priori d'une action intentionnelle.
</p><p>
Ce qui caractérise typiquement les actions intentionnelles dans la littérature philosophique est la possibilité d'être justifié par des raisons : un agent fait une action intentionnellement quand il l'a fait pour une certaine raison. Un joueur de go place une pièce à cet endroit pour protéger un groupe de pièces qui risque d'être pris. Il protège ce groupe de pièce pour conserver un avantage face à son adversaire, et il fait ceci pour tenter de gagner la partie. Nous avons ici une chaîne de raisons qui sont toutes, comme l'analyse Anscombe, des raisons pour la même action (poser une pièce sur le jeu, c'est protéger un groupe de pièce, et c'est tenter de gagner), et qui correspondent à plusieurs descriptions compatibles, mais de niveaux différents, de cette même action.
</p><p>
Si maintenant on se demande pourquoi un ordinateur sélectionne tel coup, il me semble que le type de réponse approprié sera causal plutôt que rationnel. Il sélectionne tel coup parce que c'est celui qui a une plus forte pondération dans l'algorithme, et celui ci a une plus forte pondération parce qu'il a été favorisé, dans ce type de configuration, lors de la phase d'apprentissage de l'algorithme. Ici il n'y a aucune raison, seulement des causes. L'ordinateur n'a pas pour but de jouer le coup qui a le plus de poids, ni n'a attribué ce poids dans un but particulier.
</p><p>[ajout]
Je ne veux pas dire par là qu'il ne peut y avoir de lecture causale aux actions d'un agent humain. On pourrait aussi bien dire qu'un joueur déplace la pièce à cet endroit parceque les muscles de son bras on reçu un signal nerveux, parceque tel groupe de neurones s'est activé, etc. (la différence étant qu'on fait maintenant appel à des actions différentes, passées, pour expliquer l'action présente, et que l'agent ne peut vraiment revendiquer ces actions). La question des rapports qu'entretiennent raisons et causes est une question difficile, au cœur de la philosophie de l'esprit. Mais ce qui importe ici n'est pas ce rapport, mais le fait qu'une lecture intentionnelle soit également disponible, quand il ne me semble pas que ce soit le cas à propos d'un algorithme.[/ajout]</p><p>
Pourtant il est vrai qu'on a parfois tendance à attribuer des raisons aux algorithmes : mon logiciel affiche un warning quand je le ferme sans avoir enregistré mon document pour m'éviter de perdre des données. Mais ce "pour" n'est pas à proprement parler une raison qu'entretient l'algorithme lui-même, ni une raison pour cet événement particulier : c'est une raison qui a justifié l'implémentation de cette règle par les concepteurs de l'algorithme, c'est à dire que la raison (éviter la perte données) justifie non pas cette action particulière (afficher un warning ici et maintenant), mais plutôt la structure même de l'algorithme (toujours afficher des warnings dans tel cas), ce qui relève des concepteurs. Il faut bien voir, à ce titre, que le code qui est exécuté sur la machine est un code compilé pratiquement illisible par un être humain, duquel il serait difficile de déduire la règle qui le motive, tandis que le code source écrit par les ingénieurs est beaucoup plus lisible : il exprime les directives, ce qu'on veut que le logiciel fasse, d'une manière communicable (tout bon informaticien sait qu'être un bon programmeur, c'est avant tout savoir bien communiquer, à travers le code produit, avec l'équipe de développeurs qui aura à relire ce code). Le code compilé, opaque, obéit à une logique causale au moment de son exécution tandis que le code source, exprimé dans un langage, obéit à une logique rationnelle.
</p><p>
Pourtant on aura tendance à attribuer, à tort, une raison à l'événement particulier (la fenêtre de warning). Il se produit un phénomène de contamination des raisons : l'événement hérite, dans notre description, des raisons qui justifient en fait la règle implémentée. Nous parlons exactement comme si le logiciel voulait nous éviter de perdre des données, comme s'il avait des intentions. Mais c'est un abus de langage, et c'est ce même type d'abus de langage qui nous fait dire qu'alpha-go a battu les meilleurs joueurs de go.
En effet je pense qu'il en va de même pour alphaGo : s'il y a une rationalité à trouver dans son fonctionnement, ce n'est pas à propos des coups particuliers que joue l'ordinateur ici et maintenant, mais à propos de la structure algorithmique générale du programme, et cette structure est parfaitement accessible aux concepteurs du programme : il s'agit d'une structure qui permet "d'apprendre" sur la base de jeux de données les meilleurs coups à jouer.
</p><h2>
L'opacité algorithmique
</h2><p>
C'est ici que peut intervenir l'un des principaux arguments avancés par les afficionados de l'IA en faveur d'une spécificité de ce type d'algorithmes par apprentissage, qui est l'absence de transparence : les choix particuliers que produit l'algorithme ne sont pas vraiment réductibles à un ensemble de règles accessibles qui auraient été implémentées explicitement par les concepteurs, puisqu'ils résultent d'un apprentissage sur la base d'un jeu de données. On ne comprends pas "pourquoi" l'ordinateur choisi ce coup plutôt qu'un autre. Ou plus précisément : on ne comprends pas "pourquoi" l'apprentissage a abouti à telle subtile structure de pondération pour les coups. Ce type de technologie serait donc particulier, et peut-être que cela justifierait de parler d'intelligence ou d'intentionnalité.
</p><p>
Mais cet argument me semble très faible. Il n'y a rien de bien mystérieux dans toute cette chaîne de processus algorithmiques, et la réponse à ce "pourquoi", même inaccessible, sera toujours bien causale et non rationnelle. Les raisons, par opposition aux causes, se situeront toujours à un niveau supérieur (pourquoi tel algorithme d'apprentissage, pourquoi tel jeu de données, pourquoi tels critères de succès dans l'apprentissage) qui nous reste accessible. C'est toujours là que se situe l'intentionnalité.
</p><p>
Ce qu'il y a de particulier en l'espèce, c'est qu'on ne contrôle plus entièrement la chaîne des causes qui aboutit à telle ou telle action (il faudrait analyser nous même le jeu de données, ce qui est humainement impossible). Mais il ne me semble pas que l'impossibilité pratique à retracer l'histoire causale d'une action justifie l'idée qu'il faudrait lui attribuer une intention. Ce n'est pas parce que la cause est illisible qu'elle devient une raison. Il est d'ailleurs notoire que la machine serait bien en mal de nous communiquer ce qui s'apparenterait à des raisons précises pour un coup particulier (sauver ce groupe de pièces) ou qu'on pourrait extraire des raisons de ce type, justement de par cette opacité : certains coups joués par alphago paraissent bien mystérieux, ce qui est en un sens fascinant, mais peut-être seulement fascinant parceque nous avons pour habitude de déceler des raisons dans toutes les actions, et qu'ici il n'y en a pas réellement.
</p><p>
L'opacité causale me semble donc être un argument assez faible pour justifier l'attribution d'intentions à la machine.
En fait cette opacité n'a rien de spécifique à l'intelligence artificielle. Quand je publie un article de blog sur internet, c'est bien moi qui fait cet action, mais l'histoire causale qui mène au résultat souhaité m'est pratiquement inaccessible. On pourrait répondre qu'elle est plus ou moins accessible à des experts, et donc que le processus est toujours sous contrôle de la société humaine. Mais en fait il n'y a aucune raison que ce soit systématiquement le cas quand on utilise un outil : les algorithmes même classiques peuvent effectuer des calculs pratiquement irréalisables par un humain. Plus généralement, le développement technique précède bien souvent la théorie, et a lieu suivant des critères pragmatiques d'efficacité (comme dans le cas des machines à vapeur, analysé par Hacking). On peut utiliser un outil de manière fiable sans vraiment savoir pourquoi ça marche. Et d'ailleurs, où doivent s'arrêter les explications ? Devrait on décrire par la physique quantique chaque chose que nous utilisons quotidiennement pour nous assurer qui n'y a là rien d'intentionnel (que c'est bien nous, et non le couteau qui coupe intentionnellement l'oignon) ? Devrait-on avoir trouvé la théorie finale de la physique ? Le monde dans son ensemble nous est, en une certaine mesure, opaque.
Mais ce n'est pas un critère pour y voir une rationalité cachée.
</p><p>
De la même façon, on peut utiliser de manière fiable un programme ayant subit un apprentissage pour gagner au jeu de go sans vraiment comprendre pourquoi ça marche, pourquoi tel ou tel coup est joué, et ça n'a rien de problématique quant au statut d'outil de la machine tant qu'on est assuré de l'efficacité de l'outil.
Cette mise en avant si fréquente de l'opacité des algorithmes d'apprentissage pour justifier de leur particularité par rapport à d'autres types d'algorithmes me semble donc déplacée, puisque ça ne modifie pas réellement la nature de cet algorithme. Il me semble que prétendre l'inverse (voir de la rationalité cachée dans l'opacité causale) relève de la pensée magique.
</p><h2>
L'IA générale
</h2><p>
Il y a plusieurs réponses possibles à faire à cela. On pourra d'abord, comme il est souvent fait, distinguer l'intelligence experte ou spécialisée de l'intelligence générale, celle qui s'appliquerait dans tous les domaines (quoi que ça puisse vouloir dire), et affirmer que mes arguments ne concernent que la première : peut-être qu'alpha-go n'a pas "vraiment" battu des humains, mais peut-être qu'une intelligence artificielle générale serait plus semblable à la nôtre, et peut-être que les machines nous dépasserons un jour. On pourra ensuite proposer de naturaliser la rationalité, de réduire les raisons aux causes (peut-être en s'appuyant sur des arguments darwiniens) pour défendre que finalement la distinction entre action intentionnelle ou non n'est pas si franche.
</p><p>
Je suis là encore sceptique pour plusieurs raisons. D'abord parce qu'il me semble que l'IA spécialisée est beaucoup plus utile comme outil que l'IA générale, et je parierais que c'est la première qu'on verra vraiment se développer de manière importante dans les années à venir. Il y a bien des tentatives d'imiter les humains par des machines, mais les applications de ce type de technologie, au delà de la pure démonstration, me semblent assez limitées. Un algorithme spécialisé sera toujours plus efficace, et je pense qu'ils se multiplieront dans des domaines variés. Mais c'est bien sûr une spéculation.
</p><p>
Une raison plus importante est que je ne pense pas que les algorithmes à apprentissage tels qu'ils sont conçus soient vraiment adaptés à une IA générale, ni même que la notion d'IA générale n'ait beaucoup de sens. En effet ces algorithmes ne fonctionnent que sur la base de jeux de données sélectionnés par des humains, et surtout, sur la base de critères de succès décidés par des humains. Qu'est-ce qu'un jeu de donnée parfaitement général ? Qu'est-ce qu'un critère de succès parfaitement général ? Le nom "donnée" occulte le fait que les données sont généralement construites en fonction de critères de sélection, depuis certains schèmes conceptuels, en s'appuyant sur certaines connaissances théoriques et techniques, suivant certaines fins : le pur donné est un mythe que les philosophes du 20ème siècle comme Sellars nous ont permit d'abandonner. Quant aux critères de succès, il est encore plus évident qu'ils sont relatifs à certaines fins humaines. L'idée de jeu de données "parfaitement général" ou de critères de succès "parfaitement généraux", et indépendant de visées instrumentales de la part des utilisateurs et concepteurs de la machine, n'a donc que peu de sens.
</p><p>En outre ceci ne résout pas le problème qui est qu'une IA même générale agira suivant des causes plutôt que pour des raisons.
L'idée de réduire les raisons aux causes, qui est je pense nécessaire pour qui veut défendre qu'une IA même généralisée puisse s'apparenter à un agent intentionnel, me paraît problématique dans la mesure où elle revient à réduire les valeurs aux faits. Or on connaît depuis Hume de bons arguments philosophiques à l'encontre de cette idée. </p><p>[ajout]
C'est un peu cette idée qui sous-tend le test de Turing : si nous avons affaire à un algorithme indiscernable d'un être humain, nous serions bien en position de lui attribuer des raisons d'agir aussi bien qu'un être humain. Mais il faut faire attention ici : en aucun cas le test de Turing ne constitue en lui-même un argument en faveur de l'idée que les raisons d'agir peuvent se réduire à une certaine histoire causale, d'abord parce que ce n'est pas un argument du tout mais un test, ensuite parce que l'utiliser dans un argument serait confondre ce qui nous permet d'inférer à titre explicatif les raisons d'agir de quelqu'un et ces raisons elle-même (or ce type d'inférence est toujours faillible -- c'est une confusion épistémologie/ontologie) et enfin parce qu'un tel argument serait circulaire, il devrait supposer qu'il est en principe possible qu'un algorithme passe le test avant de pouvoir affirmer que l'intentionnalité est réductible à la causalité (du moins si l'intentionnalité suit une sémantique Kripkéenne, c'est à dire que sa nature est à découvrir empiriquement plutôt que sur la base d'une simple analyse conceptuelle). [/ajout]
</p><p>
Tout ceci est lié à un problème plus général qui est qu'il me semble que ni la conscience en général ni l'intelligence en particulier ne sont de nature algorithmique. C'est "l'éléphant dans la pièce" que j'évoquais dans le dernier article : l'idée même qu'il puisse y avoir une IA "générale" ou "forte" implique de forts présupposés en métaphysique de l'esprit
</p><p>
Il est à peu près certain que la capacité à raisonner est centrale pour l'intelligence, et je n'aurais pas trop de mal à accepter qu'une certaine forme d"algorithmicité" est essentielle à la conscience humaine, au sens où il est nécessaire, pour être conscient comme nous le sommes, de disposer de capacités à exécuter des algorithmes. Mais en faire une condition suffisante est une autre chose : il me semble que la plupart de nos capacités algorithmiques sont inconscientes plutôt que conscientes (comme quand nous acquérons des automatismes jusqu'à ne plus y penser),
qu'elles supportent plutôt qu'elles ne constituent notre conscience
et pour cette raison j'ai tendance à penser que la conscience comme l'intelligence "générale" sont autre chose qu'une capacité algorithmique. Finalement cette capacité qu'a notre cerveau à exécuter ce qui s'apparente à des algorithmes pourrait aussi bien être un outil "interne", seulement plus directement accessible que les ordinateurs, que nous ne faisons qu'externaliser quand nous créons des programmes.
</p><p>
En tous les cas, quelle que soit la position qu'on adopte en philosophie de l'esprit (et nous touchons assez directement, avec ces histoires de raisons et de causes, aux problématiques de réduction et d'exclusion causale analysées par Kim), je ne vois rien qui annonce dans les développements technologiques actuels ne serait-ce que les prémisses d'une véritable "IA générale" parfaitement autonome.
</p><h2>
Risques et gains des technologies
</h2><p>
Ce qui me semble vraiment déterminant en revanche dans cette histoire, avec ce type d'outils, c'est qu'on délègue de manière instrumentale des étapes là où, auparavant, chaque étape devait être justifiée intentionnellement et effectuée consciemment : il n'y a plus de raison de jouer tel ou tel coup, mais plutôt une raison de lancer la machine et de jouer les coups qu'elle nous indique, et cette super-raison, c'est qu'on veut gagner la partie (pour démontrer l'efficacité de notre algorithme). Les raisons intermédiaires, instrumentales, disparaissent avec la technologie, pour ne plus laisser que des raisons de plus haut niveau.
</p><p>
C'est un aspect philosophiquement intéressant sur au moins deux plans : de manière positive, parce que cela permet de relativiser l'idée que "la machine va remplacer l'homme". En fait la technologie ne fait jamais que déplacer l'activité humaine vers des niveaux moins instrumentaux et sans doute plus intéressants (le cas du jeu de go est assez trompeur à cet égard puisqu'on trouve un intérêt à cet activité même, et pas seulement dans le fait de gagner, mais le fait qu'il existe des machines qui nous battent aux échecs n'a jamais empêché personne de jouer). Ceci dit ce déplacement peut s'accompagner de défis concernant l'organisation sociale... De manière négative ensuite, parceque le fait de déléguer ainsi les fins intermédiaires, d'exercer notre contrôle à un niveau supérieur uniquement, comporte généralement des risques. Ça semble peu visible dans le cas d'un jeu, mais il pourrait y avoir un risque à laisser un algorithme gérer la sécurité d'une centrale nucléaire dans la mesure où l'on imagine qu'il ne saura faire face aussi bien qu'un humain à une situation imprévue, là où un jugement contextuel faisant appel à des raisons de haut niveau serait nécessaire. C'est que la manière dont une finalité de haut niveau est implémentée en finalités intermédiaires est généralement imparfaite.
</p><p>
Cependant ces deux aspects n'ont rien de spécifique aux algorithmes par apprentissage. Il y a toujours un gain et un risque à déléguer aux machines, à automatiser. Les machines nous ont toujours servi à ne plus faire consciemment certaines étapes intermédiaires pour nous concentrer sur des buts qu'on juge plus importants. Elles le font souvent mieux que nous, et sans que nous ne sachions forcément comment (du moment que ça marche). Il y a toujours eu des risques à l'automatisation face à l'imprévu, et peut-être dans certains cas une perte qualitative (les objets faits mains sont toujours valorisés). On peut penser que ce risque face à l'imprévu est moindre dans le cas des algorithmes par apprentissages puisqu'ils ne s'appuient pas sur un ensemble figé de règles, seulement je pense qu'il se pose tout autant, parce-que les tâches qu'on délègue à ces algorithmes sont généralement plus complexes et ambitieuses d'une part (conduire une voiture), si bien que le risque de défaut est à la hauteur de la flexibilité de l'algorithme, et parce que la manière dont est élaboré le jeu de donnée qui sert à l'apprentissage et les critères de succès implémentés sont cruciaux d'autre part, comme l'illustre les débats sur "l'éthique" à implémenter dans les voitures autonomes : tout ceci n'est que l'analogue du problème des bonnes règles à implémenter dans un algorithme classique, peut-être appliqué à des cas plus complexes.
</p><p>
Mais le point sur lequel je souhaitais appuyer dans cet article est que l'idée d'une discontinuité, d'une différence de nature entre ces nouveaux types d'algorithmes et les technologies plus ancienne, et toutes les peurs ou les fantasmes qui accompagnent cette idée, jusqu'à l'idée d'une singularité, d'une super-intelligence qui remplacerait l'homme, me semblent infondés, si bien que rien ne justifie d'attribuer plus d'intentionalité à ce type d'algorithmes qu'à n'importe quel autre : ce sont bien in fine des ingénieurs qui sont parvenus à battre, à l'aide d'une machine, les meilleurs joueurs de go.
</p>
Quentin Ruyanthttp://www.blogger.com/profile/18395553776256376317noreply@blogger.com1tag:blogger.com,1999:blog-2904928175656435462.post-4051304684154074572018-05-23T18:44:00.000+02:002018-05-23T18:46:30.556+02:00Le faux problème de l'intelligence artificielle<div style="float: right">
<a title="By MG (talk · contribs) [GFDL (http://www.gnu.org/copyleft/fdl.html) or CC-BY-SA-3.0 (http://creativecommons.org/licenses/by-sa/3.0/)], from Wikimedia Commons" href="https://commons.wikimedia.org/wiki/File:Animation2.gif"><img width="128" alt="Animation2" src="https://upload.wikimedia.org/wikipedia/commons/c/c0/Animation2.gif"></a></div>
<p>Y aura-t-il un jour une intelligence artificielle en tout point supérieure à l'homme ? Est-ce que ça arrivera prochainement ?
</p><p>
Personnellement je donnerais mon assentiment aux deux réponses suivantes :<ul>
<li>oui bien sûr, et c'est déjà le cas depuis des décennies ! </li>
<li>c'est très peu probable ; à ce jour il n'existe aucune intelligence artificielle, il faudrait déjà commencer par en créer une !</li></ul>
</p><p>
Je pense que ce sont les deux seules manières *intelligibles* de répondre à cette question mal posée, une fois la confusion sur le terme "intelligence" dissolue.
</p>
<h2>De l'usage des métaphores</h2>
<p>
Car ce terme inadéquat est à la source de beaucoup de confusions.
Quand on parle d'intelligence à propos d'algorithmes, c'est toujours une métaphore, comme quand on dit "le distributeur de billets est intelligent, il a deviné ma langue à partir de ma carte bancaire et l'utilise pour l'interface" (en fait c'est le concepteur du programme qui est intelligent ici). Prendre la métaphore trop au sérieux, c'est procéder à un abus de langage qui ouvre la voie à une série de fausses questions mystico-métaphysiques qu'on ferait mieux de laisser aux auteurs de science fiction. </p><p>
En fait on devrait cesser d'employer le terme "intelligence artificielle", et parler plutôt d'algorithmes adaptatifs, ou quelque chose du genre pour dégonfler la bulle métaphysique qui entoure le secteur de l'IA. Ceci nous permettrait de ne pas oublier que les algorithmes, les programmes, sont avant tout des outils : ils sont fabriqués dans un certain but par des concepteurs, puis utilisés dans ces buts (ou d'autres) par des utilisateurs, et bien-sûr ces algorithmes peuvent être faits intelligemment, ils peuvent aussi (en un certain sens) nous rendre plus intelligents, c'est à dire augmenter l'étendue de nos capacités dès lors que nous savons les utiliser. Mais ils ne sont pas intelligents, ou seulement en un sens métaphorique, simplement parce que ce ne sont pas des personnes dotées d'intentions, mais des outils que les personnes utilisent.
</p><p>
Si l'on accepte ce cadre pour la discussion, que peut bien signifier l'idée d'une intelligence artificielle supérieure à l'homme ? </p><p>Cela peut signifier, si l'on accepte d'utiliser la métaphore, que certains programmes permettent de réaliser des choses qui seraient hors de portée d'un homme sans outils, ou permettent de faire face à plus de situations variées, et alors la réponse à la question est triviale : évidemment oui, c'est le cas depuis des décennies au moins.</p><p> Ou cela peut signifier, si l'on choisit d'interpréter sérieusement le terme d'intelligence, que l'on parvienne à créer artificiellement d'authentiques personnes, des êtres véritablement vivants, autonomes, capables de choisir leurs propres fins dans la société et de réaliser ces fins, et alors la réponse est : il faudrait déjà avoir créé une seule de ces personnes artificielles pour penser qu'il y en aura bientôt une qui dépassera l'homme dans ses capacités. Ce n'est pas le cas aujourd'hui, et on en est bien loin (au passage, il n'y a aucune raison de penser que ce type de projet relève uniquement de l'IA : pourquoi est-ce que la biologie, les neurosciences ou la sociologie ne seraient pas pertinentes pour savoir ce qu'est une personne ou un être vivant, et donc savoir comment en créer une artificiellement ?).
</p><h2>Et la société ?</h2><p>
Il me semble que les fan-boys et fan-girls de l'IA souffrent de myopie, pensant l'intelligence sur un plan exclusivement individuel, exclusivement computationnel, et occultant complètement les autres aspects, notamment sociaux (on leur a souvent reproché, à raison). Il faut avoir une vision extrêmement étriquée de ce qu'est la vie pour croire que les algorithmes de l'IA, aussi impressionnant soient-ils, s'apparentent plus à des personnes humaines qu'à des outils. N'oublions pas que l'intelligence est sociale, et ce doublement :
<ul><li>c'est à la société que nous devons d'être intelligent, car c'est elle qui nous éduque et qui détermine les buts qu'on peut se fixer ; </li><li>
même éduqué, nous ne sommes jamais intelligent seul, mais seulement par notre capacité à utiliser les outils que la société nous fournit de par son organisation, et qu'aucun d'entre nous ne saurait fabriquer seul.</li></ul>
</p><p>
Autrement dit, on ne peut être intelligent qu'en s'appuyant sur des millénaires de développements passés, non seulement pour acquérir une intelligence, mais aussi pour en faire usage.</p><p>
Si l'on prend acte de ceci, on peut en conclure, d'une part, que notre propre intelligence (au sens particulier de capacités cognitives, de ce qu'il est possible de réaliser) augmentera d'autant plus que nous disposerons d'outils puissant. C'est-à-dire que les développements de l'IA participent paradoxalement à relever la barre de ce qu'il faudrait pour être plus intelligent qu'un humain. Pensez-y : des ingénieurs ont réussit il y a peu à battre les meilleurs joueur de Go à l'aide d'un outil dont l'utilisation serait en principe accessible à presque tout le monde ! Nous sommes tous potentiellement d'excellents joueurs de Go : la barre est bien plus haute aujourd'hui qu'elle ne l'était il y a quelques années... (S'il y a un véritablement danger à l'avenir, finalement, c'est que ces outils ne soient pas égalitairement répartis et qu'émerge non pas une intelligence artificielle, mais un groupe d'humains monopolisant l'usage d'outils puissants pour assujettir les autres : voilà un problème bien plus pressant qui devrait nous préoccuper.)</p><p>
D'autre part, du fait que la notion d'intelligence est intrinsèquement sociale, on peut envisager que même si nous étions capable de créer une authentique personne artificielle (je ne pense pas que ce soit à la portée des technologies actuelles, mais imaginons), celle-ci ne pourrait être intelligente qu'en prenant part à notre société et en en étant dépendante (comme nous le sommes) à la fois pour son éducation et pour ses moyens (ce qui demanderait au préalable qu'on accepte de l'intégrer). Il me semble que cela change assez radicalement la donne en termes de scénario catastrophe, et (bien que j'admets que ce soit discutable) il me semble que même dans ce cas, il serait légitime d'affirmer que c'est la société humaine qui est devenue plus intelligente, et non les machines qui ont dépassé les hommes.
</p><p>
Je ne veux pas, en disant ça, nier les progrès de ce qu'on appelle l'intelligence artificielle, ni les enjeux philosophiques qu'il peut y avoir à ces progrès, mais seulement rappeler que ces enjeux se situent et se situeront toujours dans la continuité des enjeux qu'ont toujours posé les technologies. N'importe quelle technologie peut nous dépasser si l'on est incapable d'en prévoir les conséquences, ou apporter des nouveautés dans l'ordre social qu'on n'imaginait pas, et tout ceci peut exiger des réflexions d'ordre éthique ou autre. Mais il n'y a rien de fondamentalement nouveau ici : les ordinateurs permettent déjà de faire des choses hors de portée d'un humain sans ordinateur, ils ont complètement modifié la façon dont nous interagissons en société, et c'est le cas de bien d'autres technologies. Mais à ce jour, si une voiture autonome provoque un accident, c'est toujours à son constructeur qu'en incombera la responsabilité, pas à la voiture, simplement parce que la voiture est un outil et non une personne.
</p><h2>L'éléphant dans la pièce</h2><p>
Pour finir, il faut bien le dire : il y a comme un "éléphant dans la pièce", comme disent les anglo-saxons, dans tous ces débats : la philosophie de l'esprit.
Car tous ces débats sur l'intelligence artificielle relèvent je pense d'une mystique qui a sa source dans l'idée que nous-même ne serions, finalement, que de puissants algorithmes adaptatifs, si bien que ces algorithmes que nous implémentons nous sont analogues. Je veux bien discuter de philosophie de l'esprit, mais à ce jour les sciences cognitives ne vont pas nécessairement dans cette direction. Là aussi il y a une myopie de la part des tenants de l'IA forte : ils considèrent implicitement comme réglés des problèmes comme celui de la conscience qui relèvent de la biologie ou d'autres disciplines, alors que nous commençons à peine à les aborder. Peut-être que nous ne sommes finalement que des algorithmes adaptatifs implémentés dans de la chair vivante, mais ce n'est pas aux chercheurs en informatique d'en décider, et j'aimerais que l'on cesse de nous imposer des vues métaphysiques plus ou moins fumeuses, seulement soutenues par des abus de langage, quand il est question de choses d'un ordre bien plus pragmatique, à savoir, comment gérer l'utilisation sociale des puissants outils qui sont aujourd'hui à notre disposition.
</p>
Quentin Ruyanthttp://www.blogger.com/profile/18395553776256376317noreply@blogger.com0