vendredi 21 janvier 2022

Comment interpréter la possibilité et la nécessité en physique : pour une sémantique des situations possibles

Les lois d'une théorie physique sont souvent interprétées en termes de possibilités naturelles ou physiques : elles nous disent non seulement ce qui est ou n'est pas le cas dans le monde, mais aussi ce qui est physiquement possible ou impossible. Cette idée s'accompagne parfois d'une sémantique des mondes possibles pour les modalités naturelles, et d'une interprétation des modèles d'une théorie comme représentant un monde possible si la théorie est vraie. Cet article (un peu technique) vise à jeter les bases d'une conception alternative.

La sémantique des mondes possibles

Commençons par rappeler ce qu'est la sémantique des mondes possibles et un modèle logique pour les lectrices et lecteurs qui l'ignorent (si ces notions vous sont familières, vous pouvez passer à la section suivante).

Un monde possible peut être identifié à un ensemble maximal de propositions cohérentes entre elles (celles qui sont "vraies dans ce monde"). Maximal veut dire que toute proposition quelle qu'elle soit est soit vraie, soit fausse dans un monde donné (le monde contient soit cette proposition, soit sa négation) : on ne laisse aucune place à l'indétermination. On suppose alors que notre monde actuel est l'un des mondes possibles.

Ce formalisme permet de définir les notions de nécessité et de possibilité : une proposition est possible si elle est vraie dans au moins un monde possible, elle est nécessaire si elle est vraie dans tous les mondes possibles.

(À noter qu'on peut affiner ceci en introduisant, suivant le modèle de Kripke, une relation d'accessibilité entre monde pour, disons, relativiser la possibilité au monde depuis lequel on parle. Il en découle plusieurs systèmes modaux suivant les contraintes sur la relation d'accessibilité qu'on accepte. Par exemple, dans un système déontique, dans lequel "possible/nécessaire/impossible" s'interprète plus naturellement comme "autorisé/obligatoire/interdit", l'accessibilité n'est pas forcément réflexive : le monde d'où on parle peut être interdit. Le système S5 accepte la réflexivité, la transitivité et la symétrie de la relation d'accessibilité, ce qui revient en gros à simplement considérer un ensemble de mondes possibles tous accessibles entre eux comme nous le faisions au départ. Nous n'aurons pas besoin de considérer d'autres systèmes ici.)

On peut aussi représenter un monde possible par un modèle logique. Un modèle logique, tel que défini par Tarski, est une structure mathématique (de théorie des ensembles) associée à un langage, ou autrement dit, un ensemble d'objets (qui peut être infini) tel que sont spécifiés, pour chaque terme d'un langage, à quels objets ces termes correspondent, c'est-à-dire une extension. Les noms propres se voient attribuer chacun un objet unique auquel le nom fait référence, les propriétés se voient attribuer l'ensemble des objets qui ont cette propriété, et ainsi de suite pour les relations (ensembles de couples, triplets, ... d'objets satisfaisant la relation).

Il est assez facile de voir qu'une telle structure est capable de rendre vraie ou fausse n'importe quelle proposition exprimée dans le langage. Par exemple, "tous les chiens sont noirs" est vrai dans un modèle si tous les objets dans l'extension de "chien" se trouvent aussi dans l'extension de "noir". Sinon elle est fausse.

Par ailleurs, il a été proposé de considérer les modèles scientifiques en général comme des modèles au sens de Tarski, soit des structures associées au langage de la théorie (on doit cette proposition à Suppe). Ainsi le modèle du système solaire dans la théorie de Newton serait un ensemble d'objets tel que l'extension de noms propres ("Jupiter"), de propriétés ("avoir une masse M") et de relations ("être à distance D") est spécifiée.

(Ceci suppose que les prédicats du langage sont en fait en nombre infinis : à chaque nombre réel M correspond un prédicat "avoir la masse M" distinct. Suivant cette approche, l'ensemble des axiomes mathématiques décrivant les caractéristiques des nombres réels, par exemple, doivent être intégrées à la théorie, et c'est beaucoup plus simple de le faire en logique du second ordre, soit en s'autorisant à quantifier sur les prédicats eux-mêmes. Mais ce sont des détails techniques.)

Modèles d'une théorie comme modèle de Tarski

Si l'on adopte une sémantique des mondes possibles, si de plus on considère qu'une théorie est un ensemble de propositions nécessaires (au sens d'une nécessité physique), les lois de la théorie, enfin si l'on considère que les modèles scientifiques d'une théorie sont les modèles qui satisfont ses lois au sens de Tarski, alors on en vient naturellement à l'idée que l'ensemble des modèles d'une théorie correspond à "l'ensemble des mondes possibles si la théorie est vraie", chaque modèle de cet ensemble décrivant un monde possible.

Le principal problème de cette façon de voir les choses, pour élégante qu'elle soit, est que cet ensemble de modèles au sens logico-mathématique ne correspond pas à l'ensemble des modèles physiques, ceux réellement considérés comme pertinents pour décrire le monde par les physiciens. Ainsi l'approche est déconnectée de la compréhension de ce qu'est un modèle en science. Il existe au moins quatre différences significatives.

1. Le problème des lois

Premièrement, identifier une théorie à un ensemble fini de lois est problématique. À titre d'illustration, le cadre abstrait de la théorie de Newton (celui décrit par les trois lois de Newton) est compatible avec un très grand nombre de lois dynamiques, dont seules certaines sont réellement applicables au monde. Les lois vraiment applicables sont typiquement en physique classique des lois centrales, associées à la résistance des ressorts, à la gravitation, à l'électricité, ainsi que des lois dissipatives associées aux frottement. Mais, comme l'observait notamment Giere, la liste n'est pas figée dans le marbre : rien n'interdit a priori de postuler de nouvelles lois pour rendre compte de nouveaux phénomènes, tout en restant dans le cadre de la théorie de Newton.

Et même si l'on voulait ajouter toutes ces lois à une hypothétique théorie finale qui en contiendrait la liste complète, il faut bien voir que la construction d'un modèle ne s'arrête pas à l'application algorithmique des lois de la physique : elle s'accompagne de postulats sur les phénomènes particuliers (par exemple, que la supraconduction implique telle ou telle configuration physique) qui ne dérivent directement ni de la théorie elle-même, ni des observations empiriques (voir l'article de Cartwright et Suàrez sur le modèle de supraconduction de London, ou le recueil d'articles "Models as Mediators" édité par Morgan et Morrison). On peut considérer ces postulats comme des lois spécifiques au domaine d'application du modèle.

Donc l'ensemble des modèles logiques satisfaisant une théorie est en un sens beaucoup trop large pour rendre compte de ce qu'on appelle un modèle acceptable en physique, et à la limite, on aimerait pouvoir rendre compte de l'existence d'une hiérarchie de lois, plus ou moins fondamentales, ce que l'approche en termes de mondes possibles ne permet pas directement.

Une solution inspirée de la métaphysique de Lewis serait de considérer une relation de proximité entre mondes possibles. On peut alors envisager que les lois fondamentales sont vraies pour un ensemble très grand de mondes, même très éloignés du nôtre, et que les hypothèses spécifiques à un type de phénomène sont vraies dans un ensemble plus restreint de mondes possibles proches du nôtre. Mais sur quoi fonder cette notion de proximité et cette hiérarchie de possibilités ? La fonder sur les lois serait circulaire. Définir une notion de proximité entre monde donne lieu à des théories souvent très complexes. Et je pense que ces théories s'avèrent inutiles si l'on prend acte des trois autres problèmes, vers lesquels nous nous tournons maintenant.

2. Le problème des mondes

Le second problème, peut-être le principal, est que les modèles de la physique se donnent très rarement pour but de représenter l'univers dans son ensemble (et quand ils le font en cosmologie, c'est à très très très gros grain : on postule typiquement que l'univers est homogène !). Le cas général, ce sont plutôt des modèles de certains objets en nombre limité, bien délimités dans l'espace, parfois même microscopiques.

Par exemple, un modèle du système solaire interprété à la manière de Tarski rend vrai la proposition "il existe une seule étoile", et on peut penser que le modèle est adéquat sans croire que cette proposition est absolument vraie. Elle est vraie dans un contexte limité. La sémantique réelle des modèles scientifiques ne correspond donc pas à une sémantique des mondes possibles, parce qu'elle est contextuelle. Et le contexte d'application d'un modèle n'est pas forcément formalisé ni formalisable dans la théorie elle-même.

On peut bien sûr imaginer qu'il existe un univers naturellement possible dans lequel il n'y a qu'une étoile et une poignée de planètes, ou qu'une ou deux particules en interactions, et que donc ces modèles sont bien des descriptions de mondes possibles pour la théorie, mais c'est un peu tiré par les cheveux (surtout quand les modèles intègrent une contrainte environnementale). Cette idée consiste à vouloir conserver une sémantique pour sa simplicité et son élégance, quitte à complexifier la manière d'interpréter le discours des scientifiques. Pour ma part, je considère qu'une bonne sémantique pour les théories scientifiques devrait d'abord viser à rendre compte du discours et de la pratique scientifique, et la métaphysique doit suivre. Or les modèles ne représentent pas des mondes.

Une meilleure solution consiste à dire que les modèles des physiciens sont toujours des descriptions de situations, qu'on peut comprendre en première approche comme des descriptions partielles et grossières de mondes possibles ne faisant pas certaines discriminations, n'en décrivant que certains détails ou certains objets et laissant le reste indéterminé. C'est une solution qui s'accorde bien avec le constat que les modèles en science sont généralement idéalisés, valables "à gros grain", à certaines échelles.

Sur le plan formel, on peut introduire la notion de situation possible, soit un ensemble de mondes possibles ayant en commun un nombre limité de propositions (par exemple : "il existe au moins une étoile, qui est le soleil"). Mais cette notion demande a être rendue plus précise (un ensemble arbitraire de mondes possibles n'est pas forcément une situation pertinente demandant à être représentée par un modèle). On peut alors se demander si la sémantique des mondes possibles est vraiment le meilleur outil. Plutôt que de voir les situations possibles comme des ensembles de mondes possibles (soit des mondes possibles grossiers), on pourrait plutôt voir les mondes possibles comme des intersections idéalement fines de situations possibles, soit un cas limite logiquement concevable, mais pas forcément très intéressant pour rendre compte du contenu des théories en général.

Sur un plan un peu moins formel, délimiter une situation pertinente, c'est adopter une certaine perspective sur le monde : s'intéresser à un certain type de phénomène possible à certaines échelles, dont on sait ou suspecte ou voudrait qu'ils existent, dont on repère des caractéristiques remarquables. En outre, cette perspective peut être performative, c'est à dire nous amener à construire en partie la situation qui nous intéresse ou les conditions de son étude, comme dans le cas de l'ingénierie (mais pas seulement : la mise en place d'un protocole expérimental pour étudier une situation jugée "pure" du point de vue de la théorie, par exemple une chute libre sans frottements, peut être tout aussi performative).

En ce sens, voir les situations comme des descriptions grossières de mondes est un peu trompeur, puisque les situations qu'on représentera directement ne sont jamais choisies en contemplant l'univers dans son entièreté pour ensuite sélectionner les parties de sa structure qui nous intéressent comme le ferait un être omniscient, mais plutôt par ostentation ou par intention, depuis notre position, et, comme dit plus haut, sans que tout ceci ne soit forcément formalisé dans la théorie. C'est une raison de plus d'inverser les choses et de comprendre une description de l'univers dans son entièreté (un monde possible) comme un affinement hypothétique commun à toutes les descriptions grossières que nous employons pour décrire des situations. En somme, il faudrait idéalement adopter une sémantique des situations possibles tranchant plus radicalement avec la sémantique des mondes possibles qui reste à élaborer (je m'y suis essayé au cours de ma thèse).

On voit en tout cas que ce problème rend futile la solution au problème précédent consistant à postuler une proximité entre mondes possibles pour rendre compte d'une hiérarchie de lois. On peut en rendre compte plus simplement. En effet, la notion de situation est associée à une notion de finesse de grain dans la description. Une situation peut être affinée ou grossie pour donner une nouvelle situation (ce qui formellement revient à intégrer ou éliminer des propositions). Une fois acquis que les modèles représentent des parties du monde ou des situations, on voit poindre une solution différente au problème des lois : les lois plus fondamentales seraient celles qui sont vraies pour des parties quelconques, non spécifiées, de notre monde (des situations grossières), et les lois moins fondamentales pour des parties plus spécifiques (des situations plus finement décrites et identifiées, éventuellement plus locales).

Cette solution permet en outre de penser que la science parle avant tout des situations de notre monde, et non pas d'autres mondes, ce qui me semble être un avantage. Intuitivement, on pense généralement que la science s'intéresse surtout à notre monde. En corrolaire, les mondes possibles à partir desquels on définit éventuellement les situations sur le plan formel n'ont pas besoin d'être un concept métaphysiquement ou nomologiquement chargé. Ce pourrait être l'ensemble des mondes concevables, ou logiquement possibles étant donné un langage, encore une fois un cas limite dont l'intérêt est avant tout formel.

3. Le problème des types

Le troisième problème pour la sémantique des mondes possibles est que même affirmer que les modèles se destinent à représenter une partie de l'univers est trompeur. Les modèles représentent plus souvent un type d'objet potentiellement instancié en de multiples endroits, ou encore, en ingénierie, une configuration physique intentionnelle, qu'on vise à construire parfois en de multiples exemplaires, toujours dans notre univers (un type de transistor par exemple), mais qui n'est peut-être pas instanciée du tout.

Pour résoudre ce problème, on pourrait introduire dans notre machinerie formelle une notion de type de situation possible comme ensembles d'ensembles de mondes possibles, mais ici encore on peut se questionner sur l'utilisation des mondes possibles comme objet primitif. Les ensembles d'ensembles de mondes possibles sont en nombre beaucoup plus grand que les mondes possibles eux-mêmes, ce sont des infinis d'ordre supérieur, et l'idée qu'on pourrait sélectionner des types de situations pertinents dans cet ensemble infini semble relever de la magie.

Je n'ai pas de solution à ce problème, qui rejoint des questions classiques en épistémologie liées à l'induction et aux classes naturelles (pourquoi "vert" et non "vleu" serait la "bonne" propriété pour faire de l'induction, pour reprendre la question de Goodman ?). Disons au moins que cela jette un doute sur l'idée que le contenu des modèles scientifiques serait "transcendant", soit complètement indépendant de notre constitution d'être humain et de notre position dans l'univers, puisqu'on peut penser que les catégories scientifiques sont ultimement fondées sur des catégories en partie innées, associées par exemple à nos organes sensoriels ou à notre structure cognitive, même quand elles s'en détachent. Il faut bien une base pour construire (Goodman parlait de prédicats "ancrés", "entrenched").

Cette notion de type de situation (ou de perspective) est en outre liée au statut des symétries en physique. On peut considérer que des modèles reliés par une symétrie (une translation ou rotation dans l'espace-temps, un changement de choix de gauge) décrivent des situations du même type. On peut penser que le "bon" découpage en type de situation est en partie découvert empiriquement au moment où on découvre des symétries, soit certaines régularités dans les phénomènes, sur la base des prédicats "ancrés".

Tout ceci pose la question : à quel type de possibilité correspond un type de situation ou un choix de modèle ? Si les lois sont vraies pour tous les types d'objets possibles (dans tous les modèles), de quelle notion de possibilité parle-t-on ? Si tous les types décrits par des modèles ou presque sont instanciés quelque part dans le monde, c'est-à-dire actuels, sélectionner un type de situation ne revient pas à sélectionner une possibilité naturelle, mais plutôt une finesse de grain dans la description et certains objets ou périodes de temps d'intérêts, soit à sélectionner une certaine perspective sur le monde, et si les lois d'une théorie sont vraies pour tous les types de situations (ou perspectives) possibles, elles sont nécessaires en un sens qu'il conviendrait d'élucider, mais qui n'est pas forcément la possibilité naturelle.

Une perspective pourrait être possible au sens de possibilité naturelle ou physique si on l'associe à un type d'operationalisation physiquement réalisable. Elle pourrait être possible au sens déontique (c'est-à-dire compatible avec les intérêts des physiciens) si l'on pense que l'ensemble des modèles d'une théorie dépend en partie de ces intérêts, ou en un sens épistémique si on pense qu'un modèle doit être applicable à une situation actuelle. Ce peut être en un sens métaphysique si elle correspond à une "bonne" manière de découper le monde en catégories, découverte plutôt que connue a priori. Ou bien peut-être en un sens purement conceptuel si toutes les perspectives se valent. Dans chaque cas, l'ensemble des modèles de la théorie sera délimité de manière distincte, et sera plus ou moins large. Savoir comment correctement délimiter cet ensemble est une question ouverte (y compris sur le plan de la méthode philosophique : qu'est-ce qu'une bonne délimitation ? Doit-on considère plus de modèles que ceux réellement construits par des physiciens ?), et cela aura un impact sur l'interprétation à faire des lois de la physique.

On pourrait par ailleurs faire la distinction entre modèle abstrait et modèle appliqué, ce dernier étant associé à une instance de situation plutôt qu'à un type. Je ne pense pas que parler de l'ensemble des modèles appliqués d'une théorie ait beaucoup de sens, ou en tout cas cet ensemble n'est pas accessible a priori. Ceci étant dit, parler de l'ensemble des applications possibles d'un modèle abstrait peut être utile si l'on veut définir ce que serait l'adéquation idéale d'un modèle, et donc ce que serait l'adéquation idéale d'une théorie. Idéalement, les lois d'une théorie devrait être vraies pour toutes les applications de tous les modèles de la théorie.

Et de nouveau on peut s'interroger sur la notion de possible impliquée quand on parle d'application possible d'un modèle donné. S'agit-il de possibilité physique ? Épistémique ? Conceptuelle ? Déontique peut-être ?

4 le problème des modalités

Enfin le quatrième problème pour la sémantique des mondes possibles tient au fait que les modèles ont souvent une structure modale interne : ils représentent eux-mêmes différentes possibilités, par exemple des possibilités d'évolution pour un système donné, des états ou histoires possibles, des rapports causaux ou dispositions pouvant ou non être réalisées ou non, etc. Cette notion de possible supporte les raisonnements contrefactuels (on peut affirmer à partir d'un modèle "il se serait passé E si les circonstances avaient été C") ce qui laisse penser qu'on ne parle pas de possibilités purement épistémiques (on sait que C est faux mais on parle quand même de cette possibilité). La modalité impliquée est plus naturellement associée à la causalité, soit aux possibilités naturelles ou physiques "locales", dont le rapport aux lois est sujet à débat.

Ainsi donc notre métaphysicien souhaitait interpréter la nécessité physique en termes de ce qui est vrai dans tous les modèles, mais si l'on s'intéresse à la pratique de modélisation réelle, on finit plutôt par retrouver cette modalité dans chaque modèle, comme ce qui est vrai dans toutes les possibilités décrites au sein d'un modèle donné : une notion de nécessité physique locale ou contextuelle qu'il conviendrait de relier à celle du métaphysicien, ce que l'approche Tarskienne ne fait pas.

En general, les possibilités dont il est question correspondront à une partition logique des possibles pour la situation décrite. Ce que cela signifie est qu'on part d'une situation grossière (une particule dans un champ électromagnétique) et qu'on envisage un ensemble de possibilités pour affiner notre description (les trajectoires possibles de la particule) telles qu'exactement une de ces possibilités est forcément réalisée. Autrement dit, ces possibilités sont mutuellement exclusives, et elles couvrent l'espace des possibles pour la situation grossière. Ces possibilités sont souvent pondérées par des poids de probabilité.

Une question qui se pose est si cette modalité est attachée aux types ou aux instances. On pourrait faire jouer le fait que les modèles représentent des types contre l'idée qu'ils représentent des possibilités naturelles. Chaque possibilité représentée par un modèle correspondrait à une instance possible du type, en un sens peut-être épistémique de possible, plutôt qu'à une possibilité naturelle pour chaque instance donnée, et les probabilités correspondraient à des répartitions statistiques sur ces instances. Laissons ouverte cette proposition, bien qu'elle s'accorde mal avec le fait que les modèles supportent les raisonnements contrefactuels, et qu'une interprétation purement fréquentiste des probabilités pose problème.

Dans tous les cas, il me semble que la modalité naturelle devrait être attachée à des situations plutôt qu'à des mondes, c'est-à-dire qu'elle devrait être représentée par une relation d'accessibilité entre situations. (Un argument en faveur de cette idée est issu de la mécanique quantique : si l'on prend au sérieux le principe d'incertitude, il existe des situations impossibles, par exemple telles que la vitesse et la position d'une particules sont toutes deux très précisément définies, bien que tous les mondes possibles compatibles avec cette situation soient compatibles avec d'autres situations possibles, à savoir celles où soit la position, soit la vitesse sont précisément définies : l'impossibilité des situations ne "survient" pas sur une impossibilité de mondes).

Conclusion

Voici donc en résumé les quatre raisons d'être suspect envers l'interprétation des lois de la physique comme "vraies dans tous les modèles/mondes possibles" :

  • Les modèles de la physique sont en un sens moins nombreux que les modèles au sens logique.
  • Ils ne représentent pas en général l'univers dans son ensemble.
  • Ils représentent des types plutôt que des instances.
  • Ils ont souvent une structure modale interne contrairement aux modèles au sens logique.

J'ai proposé au cours de mes commentaires différentes pistes pour obtenir une conception plus proche des pratiques de modélisation réelle des physiciens. On peut la résumer ainsi :

  • À une théorie (un ensemble de lois) correspond un ensemble de modèles, qui représentent chacun un type de situation, qu'on peut comprendre comme une perspective possible sur le monde (centrée sur un type de phénomène à une certaine échelle).
  • À un modèle donné on peut en principe faire correspondre un ensemble d'applications possibles, chaque application étant une situation instanciée du bon type (et on peut dire qu'un modèle idéalement adéquat serait une description correcte dans toutes ces applications possibles, ou peut-être une bonne synthèse de toutes ces applications possibles).
  • Un modèle donné décrit un ensemble d'états ou d'histoires possibles pour les situations de ce type, soit une partition d'affinements possibles pour une situation grossière, pondérées par des probabilités.
  • Chaque situation fine possible (ou histoire) ainsi décrite est toujours une description grossière et partielle de l'univers, formalisable comme un ensemble de mondes possibles.

Cette manière de voir, soit une sémantique des situations possibles pour les théories scientifiques, offre une richesse interprétative beaucoup plus importante que la sémantique des mondes possibles. En particulier, il existe au moins quatre notions de possible, associées à chacun des quatre points ci-dessus, dont l'interprétation reste ouverte. Tout ceci reste donc largement en chantier, mais je pense que c'est un cadre prometteur pour l'analyse du contenu des théories physiques.

jeudi 20 janvier 2022

Rationalité scientifique et loi de Hume

Ce qu'on appelle parfois la "loi de Hume" pose un défi pour qui voudrait justifier les normes épistémiques à l'œuvre en science sur la base de simples faits concernant la pratique. Cette loi stipule qu'une inférence ne peut partir uniquement de prémisses descriptives pour arriver à une conclusion normative ou évaluative. Que quelque chose soit le cas (ou encore que ce soit un fait "naturel") ne nous dit pas que c'est une bonne chose. Donc le simple fait que les scientifiques utilisent une méthode n'implique pas que cette méthode soit bonne ou rationnelle. Pourtant le raisonnement normatif en philosophie est rarement indépendant d'un contenu descriptif.

Reconstruire la rationalité scientifique

Il me semble que les instances les plus légitimes de tels raisonnements consistent à reconstruire la rationalité scientifique sur la base d'une observation de la pratique. La conclusion de ce type de raisonnement n'est pas entièrement descriptive. On observera que les scientifiques emploient implicitement ou explicitement telle ou telle norme épistémique, par exemple qu'une expérience doit être reproductible, qu'une hypothèse doit être confirmée par l'expérience (suivant des outils statistiques standards), ou qu'elle doit être cohérente avec les cadres théoriques bien acceptés. En général, on appuiera bien sur le fait qu'il s'agit d'une norme collective, régulant la pratique, et non individuelle (elle peut donc comporter des exceptions). Mais on ne se contentera pas de décrire ainsi la pratique : on en infèrera que puisque les scientifiques sont rationnels, alors il s'agit d'une pratique rationnelle, c'est à dire bonne sur le plan épistémique.

On pourra ensuite essayer de comprendre ou de rendre compte de cette rationalité par une théorie normative, c'est-à-dire de la justifier directement par des considérations hypothétiques. Mais le point important est que le simple fait, pour cette norme, d'être présumément à l'œuvre en science suffit déjà à lui accorder un certain crédit. A supposer que les scientifiques sont rationnels, ou tenant compte du succès de telles pratiques, on en déduit que ces normes sont épistémiquement vertueuses. Cela constitue, pour une théorie d'épistémologie normative, une donnée "empirique" à expliquer, et si notre théorie normative implique qu'une norme bien acceptée en science est complètement irrationnelle, alors on y verra un problème pour notre théorie plutôt que pour la science.

Une manière de reconstruire l'argument est la suivante :

  • les scientifiques agissent de manière globalement rationnelle.
  • or les scientifiques agissent suivant X (X constitue apparemment une norme à leur activité).
  • donc X est une norme rationnelle.
En un sens, ce type de raisonnement est parfaitement compréhensible. Il s'agit simplement pour le philosophe de considérer les scientifiques comme des pairs plutôt que comme des objets à étudier, et donc de prendre au sérieux les normes qu'ils et elles se donnent ou semblent se donner au niveau communautaire et institutionnel, jusqu'à se les approprier. Mais alors où se cache la prémisse normative ? À quel moment cet argument viole-t-il la loi de Hume ?

Raisonnement normatif ou descriptif ?

On pourrait interpréter la première prémisse, celle affirmant que les scientifiques sont globalement rationnels, comme purement évaluative : dire que les scientifiques sont en général rationnels reviendrait seulement à approuver ce qu'ils font, à affirmer notre adhésion envers les valeurs de la science, ou à valoriser la science en général. Il s'agit de comprendre "rationnel" comme ne signifiant rien d'autre que "vertueux" ou "bon".

Si l'on adopte cette interprétation, il faudrait en conclure qu'un philosophe défendant une rationalité opposée à ce que font les scientifiques, un philosophe qui défendrait par exemple qu'il est vertueux de confirmer les hypothèses par les écritures bibliques plutôt que par l'expérience (et que donc la science est irrationnelle) n'est pas dans l'erreur sur le plan factuel, mais plutôt sur le plan des valeurs. Il ne prononce aucune fausseté factuelle : il affirme seulement des choses condamnables (au moins pour nous), parce qu'il ne partage pas les valeurs de la science, qui sont pourtant de bonnes valeurs. C'est une interprétation qui pourra paraître un peu douteuse. Il me semble que si l'on juge qu'un tel philosophe a tort, ce n'est pas seulement parce qu'il fait montre de mépris envers l'institution scientifique et ses valeurs. Ce mépris envers la science sera plus volontiers vu comme une conséquence des croyances erronées de ce philosophe que comme une raison, en soi, pour condamner ses conclusions sur le plan moral.

Ainsi il me semble que la prémisse "les scientifiques agissent généralement de manière rationnelle" ne peut être conçue comme purement normative. "Rationnel" ne peut signifier seulement "bon". Il s'agit bien d'une prémisse au moins en partie descriptive.

Une autre interprétation possible consiste à interpréter le terme "rationnel" de manière purement descriptive ou factuelle. On peut l'interpréter, notamment, de manière instrumentale, en termes de conformité entre les buts et les moyens mis en œuvre pour atteindre ces buts. "Rationnel" signifierait quelque chose comme "efficace". L'avantage de cette interprétation est qu'elle permet de mieux justifier la première prémisse concernant la rationalité des scientifiques, notamment sur la base du succès de la science : la science atteint généralement les objectifs qu'elle se fixe, elle est en effet efficace, couronnée de succès, ce qui laisse penser que les scientifiques sont (instrumentalement) rationnels. La conclusion de l'argument n'a alors plus rien de normatif. Il s'agit plutôt d'une affirmation du type : X est une façon efficace d'atteindre les buts de la science (et libre à chacun de partager ou non les mêmes buts).

Cependant cette seconde interprétation me semble également problématique parce qu'elle induit une forme de circularité. Comment décide-t-on de ce que sont les buts de la science sinon en observant la manière dont les scientifiques agissent (y compris la manière dont ils se corrigent, parfois par la voie de normes institutionnalisées) ? On peut bien sûr écouter ce qu'ils affirment concernant leurs buts, mais il est peu probable que ceux ci soient réellement homogènes, et il ne faudrait pas confondre les buts de tel ou tel scientifique et les buts de la science en tant qu'institution, c'est-à-dire ce vers quoi sont dirigées les normes en science comme la confrontation systématique à l'expérience.

Mais si ces buts généraux de la science sont déterminés sur la base d'une observation de ce qu'elle fait avec succès, alors la première prémisse devient tautologique. Elle n'est plus vraiment justifiée par le succès de la science, puisque ce qui compte comme succès est défini sur la base des normes que se donnent les scientifiques. Dans ce cadre, les scientifiques sont (instrumentalement) rationnels "par définition". S'ils faisaient autre chose, on ne pourrait pas en inférer qu'ils sont irrationnels : on inférerait plutôt qu'ils poursuivent d'autres buts, au moins si leurs actions ont une certaine cohérence minimale. Au bout du compte, le type de reconstruction de la rationalité scientifique opérée par certains philosophes ne serait rien d'autre qu'une description de la pratique, ou au mieux, une inférence concernant les buts de la science. Ces philosophes ne feraient rien d'autre qu'affirmer "les scientifiques agissent suivant la norme X (donc ils se donnent pour but Y)". Mais ça ne semble pas être le cas : la philosophie des sciences n'est pas une simple sociologie des sciences.

Une manière de s'en sortir serait de présupposer un but à la science indépendamment d'une observation de l'activité des scientifiques. On pourrait par exemple stipuler que le but de la science est quelque chose comme le développement de nos connaissances, et affirmer que la science est instrumentalement rationnelle parce qu'elle réalise ce but avec succès, voire rationnelle tout court si on pense que développer les connaissances est forcément une bonne chose. Mais comment évaluer son succès ? Si une connaissance est une croyance justifiée, qu'est-ce que la justification ? C'est justement ce qu'on cherche à déterminer en observant les normes à l'œuvre en science. Mais si l'on évalue le succès de la science en fonction de ses propres normes (une connaissance est bonne si elle est confirmée par l'expérience, cohérente avec les cadres théoriques acceptés, etc.), alors de nouveau le raisonnement est circulaire.

Qu'est-ce que la science ?

Ainsi notre prémisse ne semble pas pouvoir être interprétée de manière entièrement normative ("ce que font les scientifiques est bien") ni de manière entièrement descriptive et donc presque vide ("les actions des scientifiques suivent telle norme"). Peut être la rationalité est-elle un concept épais, combinant une composante descriptive et une composante normative. Mais l'interprétation exacte à en faire n'est pas forcément limpide.

Pour aller de l'avant, on peut se demander en quoi l'idée que les scientifiques seraient entièrement irrationnels semble implausible, et non seulement condamnable comme le voudrait l'interprétation purement normative.

Une approche inspirée de Kant serait de faire de notre prémisse une forme de synthétique a priori. Juger que nos semblables sont en général rationnel serait une condition nécessaire à notre participation dans la société. Seulement cette approche semble occulter la spécificité de la science. Après tout on peut en principe juger certaines institutions globalement irrationnelles : un athée pourra juger ainsi les institutions religieuses, ou peut-être certaines institutions politiques dont le fonctionnement échappe à ses membres. Donc le fait que l'argument consistant à inférer la rationalité d'une pratique sur la base de son utilisation récurrente concerne la science, et pas la religion ou la politique, est important. Et l'on arrive à un point non questionné jusqu'ici : qu'est-ce que la science (et en quoi est-elle couronnée de succès) ?

L'idée de la caractériser en termes de développement de connaissances était, je pense, un pas dans la bonne direction, mais elle demande seulement de préciser un peu les choses. Il me semble qu'on peut caractériser la science en partie par le fait qu'elle vise à produire des représentations dont l'efficacité est, justement, instrumentale, au sens où les représentations scientifiques peuvent être utilisées pour des buts variés, idéalement sans limite dans le domaine d'application (c'est une manière pragmatique de comprendre ce qu'est la connaissance). Il s'agit peut-être d'une vision partielle, la science (ou une connaissance) est peut-être plus que seulement instrumentale, mais au moins, elle l'est.

Ce que je veux dire par là, c'est que la science n'est pas directement efficace pour atteindre certains buts précis. Elle vise plutôt à produire des outils efficaces pour atteindre une variété de buts précis possibles. La nuance est importante : c'est le produit de la science (l'ensemble des représentations qu'elle nous fournit) qui est efficace pour atteindre ces buts, et non la science directement. Ce n'est pas la science qui permet de fabriquer des ordinateurs, mais (entre autre) les modèles quantiques de transistors qu'elle produit.

Pourquoi est-ce important ? Parce que cela permet de répondre à l'argument présenté plus haut. On peut déterminer, sur la base d'une observation de la pratique, que la science est dirigée vers certains buts, et donc arriver à la conclusion, purement descriptive, que X (une pratique quelconque) est une manière d'atteindre ces buts. L'argument était : il n'y a rien de normatif dans cette conclusion, puisque rien ne nous pousse à adhérer aux buts de la science, et pourtant les philosophes semblent tirer des conclusions normatives du fait que X fait partie des pratiques scientifiques. Mais à la lumière de ce qui vient d'être dit, le but général de la science a un statut bien particulier. C'est en quelque sorte un "méta-but" : produire des représentations efficaces pour la réalisations de buts (de premier ordre) variés. Or, dans la mesure où ce méta-but est relativement indépendant de buts particuliers, il se rapproche assez fortement d'une notion de rationalité instrumentale qui semble justifiée de manière universelle sur le plan normatif. Nous avons donc des raisons indépendantes d'adhérer au but de la science, puisqu'il n'est pas seulement conforme à la rationalité instrumentale (au sens où la science serait efficace pour atteindre ses buts), mais relève directement de la rationalité instrumentale (l'efficacité idéale est le but de la science).

En d'autres termes, le fait que les scientifiques soient en général rationnels n'est pas tautologique, mais en effet justifié par le succès des sciences, succès évalué non pas du seul point de vue de ce qu'ils font, mais de manière en quelque sorte externe à la science : produire des représentations efficaces pour un ensemble de buts variés est un succès, non seulement du point de vu de la science, mais de manière plus générale. C'est ce type d'évaluation externe que permet une conception pragmatique de la connaissance.

On pourrait essayer de tempérer l'universalité de la science, son unité, en faisant valoir que le type de but qu'elle permet de réaliser avec succès n'est pas n'importe lequel ni illimité dans son domaine, que ce type de but peut dépendre de la discipline, etc. Mais rappelons qu'il s'agit de caractériser la visée idéale de cette activité, et non ses accomplissements effectifs, ce pour quoi un succès imparfait ou un simple progrès dans une direction donnée est suffisant. Or il me semble difficile de nier la visée unificatrice, idéalement universelle, de la théorisation.

Conclusion

La forme argumentative utilisée par les philosophes proposant de reconstruire la rationalité scientifique devrait donc être la suivante :

  • N - il est rationnel de développer des représentations efficaces pour une variété idéalement grande de buts.
  • D - la science développe de telles représentations (avec succès).
  • DN - donc les scientifiques agissent de manière globalement rationnelle.
  • D - en général, les scientifiques agissent suivant X.
  • N - donc X est une norme rationnelle.
L'argument part bien d'une prémisse normative, mais elle est facilement acceptable en dehors des cercles scientifiques puisqu'il ne s'agit pas d'une affirmation à propos de la science en particulier : il ne s'agit donc pas de dire "la science c'est bien, et puis c'est tout". La seconde et quatrième prémisses concernent la science plus spécifiquement, mais elles sont entièrement descriptives. Elles nous permettent ensemble d'arriver à une conclusion normative, et justifient donc la méthode philosophique consistant à reconstruire la rationalité scientifique sur la base d'une observation des normes à l'œuvre en science, ou à considérer que ces normes sont des "données empiriques", pas forcément infaillibles, mais suffisamment robustes, auxquelles doit se confronter toute théorie d'épistémologie normative.

vendredi 3 décembre 2021

Croyances, valeurs et risque épistémique

En quel sens nos attitudes épistémiques, par exemple nos croyances, sont-elles chargées de valeurs ? La connaissance scientifique est-elle indépendante de toutes valeurs ?

Un argument en faveur de l'idée que les croyances sont chargées de valeur est l'argument du risque épistémique.

Le risque épistémique

Croyez-vous qu'il va pleuvoir ? Si je vous demande ceci en vue de savoir si je dois prendre mon parapluie, votre réponse dépendra de données appuyant ou non la plausibilité qu'il pleuve (les prédictions météorologiques, ou la couleur du ciel). Mais vous ne pouvez ignorer que je vous pose la question pour une raison précise, et peut-être évaluerez-vous aussi à quel point mon parapluie est encombrant et à quel point mon manteau est perméable avant de répondre. Imaginez que selon les prévisions, la probabilité de pluie dans l'heure soit de 30%. Si je n'ai pas de manteau et que de toute façon mon parapluie est léger, cela ne vous coûtera pas grand chose de me répondre "oui il est possible qu'il pleuve", mais si j'ai déjà un bon manteau et que mon parapluie est particulièrement encombrant, vous serez peut-être plus tenté de me répondre "non, je ne pense pas qu'il va pleuvoir", alors que les données en faveur ou à l'encontre de cette croyance sont les mêmes dans les deux cas.

Peut-être vous pourriez également me dire "je ne sais pas s'il va pleuvoir, mais étant donné que /ça a l'air coûteux/ça ne coûte rien/ de prendre ton parapluie, /ne le prend pas/prend le/". Mais on ne peut nier, me semble-t-il, que les premières façons de s'exprimer (juste dire "je ne pense pas qu'il va pleuvoir") font partie de notre pratique discursive. Généralement, exprimer une croyance, ou juste faire une affirmation, ce n'est pas simplement faire état de notre connaissance des faits, c'est aussi s'engager, prendre une certaine responsabilité, à savoir assurer nos auditeurs qu'ils peuvent agir sur la base de notre affirmation. Or cette assurance dépend en partie du contexte, d'une évaluation du risque d'erreur, donc de ce qu'on considère dommageable ou souhaitable (porter un parapluie inutile, rester sec), en un mot, de nos valeurs. Si les enjeux sont importants (si je porte un costume très cher qui ne résiste pas à l'eau), un doute peut surgir qui ne surviendrait pas dans un autre contexte.

Ainsi, dire "je crois que X" n'est pas, en général, indépendant du contexte et de nos valeurs.

Cette façon de voir les choses permet de rendre compte d'une bonne partie de nos désaccords apparemment factuels en termes de différences de valeur, par exemple dans les discussions politiques. Si Jean pense que l'insécurité est causée par l'immigration, c'est peut-être parce-qu'il y a de son point de vue très peu de risque à agir sur la base de cette croyance (il n'est pas lui même immigré et n'a aucune affection pour eux), et donc son niveau d'acceptation pour cette croyance n'est pas très élevé. Si Anne pense l'inverse, c'est peut-être parce que pour elle, le risque d'erreur est assez dramatique (Anne, contrairement à Jean, valorise énormément le fait de ne pas accuser les gens à tort de problèmes dont ils ne sont pas les cause), et donc il lui faut beaucoup plus de preuve avant d'accepter cette croyance.

Dans un monde idéal, on exigerait le niveau de preuve maximal pour toutes nos croyances, et les valeurs n'interviendraient pas. Mais nous vivons dans un monde incertain où il faut souvent choisir d'affirmer ou non, de croire ou de ne pas croire, sans preuves concluantes. Et ces choix sont guidés par nos valeurs.

Un adepte de théories de complot place généralement la barre de la preuve extrêmement haut pour les croyances "officielles". Il exige qu'on lui explique le moindre détail "suspect". Il agit comme si le risque d'erreur (croire à tort la version officielle) était extrêmement grave, peut-être parce que suivant ses valeurs, les manipulations du pouvoir sont le pire des crimes possible (ou au moins que le fait que la théorie implique des choses très grave fait partie des ressors du complotisme). De manière plus générale, on peut supposer que les personnes envisageant des possibilités que la plupart considèrent non pertinentes attribueraient une charge émotionnelle démesurée à ces possibilités, tout comme la possibilité qu'il pleuve devient pertinente si j'ai un beau costume alors qu'elle est sans importance dans d'autres cas. Ainsi on pourrait peut-être expliquer en partie le phénomène du complotisme par les valeurs.

À tout ceci s'ajoute un aspect plus sémantique. Je vous dis "il ne va pas pleuvoir", vous ne prenez pas votre parapluie, et il se met à pleuvoir. Je vous suis redevable. Mais je peux aussi me défendre : "ce n'est pas de la pluie, c'est juste quelques gouttes". Si vous avez un bon manteau, vous acquiescerez, mais si vous avez un costume très cher qui ne résiste pas à la moindre goutte d'eau, vous direz probablement "moi j'appelle ça de la pluie". Ainsi, non seulement l'évaluation des possibilités, mais aussi celle des conditions de vérité des énoncés, leur signification même, varie en fonction de nos valeurs.

Il n'est pas toujours évident de savoir où interviennent les valeurs, si c'est au niveau épistémique ou sémantique. Si Jean crois que l'immigration cause l'insécurité, est-ce parce qu'il entend "immigration" en un sens bien précis (qui exclut les immigrés issus de pays riche, et les "blancs" en general) et "insécurité" en un sens très large (qui inclut de vagues sentiments d'inquiétude à la vue d'une personne racisée) ? Sans doute. Est-ce que si l'on se mettait systématiquement d'accord sur le sens des mots (à partir de quand on peut considérer qu'il pleut) nos valeurs n'interviendraient plus du tout dans nos affirmations, et nous serions parfaitement objectifs ? Je n'en suis pas certain. On peut prendre des exemples de type tout ou rien, sans modulation sémantique, pour s'en convaincre : "Crois-tu que Marie sera à la soirée ?" Si c'est pour savoir si je dois prendre le livre que je lui ai emprunté, "oui je crois que Marie sera là, prend le", mais si il faut faire 50km pour récupérer ce livre, "non ce n'est pas sûr que Marie soit là, ne t'embête pas". Ici nos valeurs (la pénibilité de parcourir 50km, peut-être renforcée si l'on est écologiste) influencent non pas le sens de l'affirmation "Marie sera là", qui reste parfaitement non ambigu, mais uniquement le fait même d'accepter cette affirmation.

Une alternative bayésienne ?

La notion de risque épistémique semble indiquer que ce qu'on croit dépend du contexte, et notamment de nos intérêts et des décisions impliquées par nos croyances, autrement dit, qu'il est illusoire de distinguer strictement croyances et valeurs. Cependant quelqu'un pourra invoquer, en réponse, une distinction entre croire et accepter.

Ainsi dans l'exemple de la pluie ci-dessus j'aurais un degré de crédence de 30% envers le fait qu'il va pleuvoir, mais mon acceptance concernerait le fait d'agir sur la base de cette croyance, et ceci (mais non la croyance) dépendrait du contexte et des valeurs et intérêts. On pourrait représenter l'acceptance comme un seuil de crédence à partir duquel cela "vaut le coup" d'agir sur la base d'une croyance (inférieur à 30% si le parapluie est léger, supérieur si le parapluie est encombrant). Si mon degré de crédence dépasse le seuil, j'accepte d'agir sur la base de la croyance. Selon cette théorie, généralement, quand nous affirmons des choses, nous exprimons une acceptation, mais il y aurait en fait un autre état mental "caché", le degré de crédence, indépendant de nos valeurs, qui, combiné au contexte (au seuil de crédence pertinent suivant nos valeurs), expliquerait nos affirmations.

Cette théorie (basée sur la bayésianisme et la théorie de la décision, et sans doute assez consensuelle en philosophie) a l'avantage d'être assez élégante sur le plan formel. Mais ça reste une théorie. En pratique, nous n'avons pas vraiment accès à de tels degrés de crédence indépendants du contexte, et quand on nous demande d'en fournir un en nous "mettant un pistolet sur la tempe", on peut soupçonner que le contexte, le risque d'erreur et les valeurs influencent en fait notre réponse.

Mais le bayésien pourra adopter une stratégie de repli : ok, notre cerveau ne fonctionne pas forcément ainsi, mais idéalement, il devrait, et en particulier dans le cas de la science, il est essentiel de distinguer croyance et acceptation, c'est à dire de distinguer les rôles respectifs des valeurs et des données empiriques dans l'acceptation des hypothèses.

Si ce n'était pas le cas, on pourrait accepter tout et n'importe quoi, nous dira le bayésien. Les régimes totalitaires sont bien connus pour avoir tenté d'instrumentaliser la science. Or s'il n'y a pas de différence entre croire et accepter, on pourrait affirmer que du point de vue des nazis, la thèse d'infériorité de telle race humain (qui présuppose son existence) était parfaitement acceptable sur la plan rationnel, parce que le risque courru en cas d'erreur était (du point de vue des nazi) négligeable. Ou encore, pour prendre un exemple moins dramatique, mais plus pertinent dans le contexte actuel, il pourrait être acceptable pour un laboratoire pharmaceutique d'affirmer que tel médicament est efficace alors que les preuves sont très faibles, suivant un principe de "précaution économique", puisque affirmer qu'il ne l'est pas alors qu'il l'est reviendrait à perdre beaucoup d'argent. C'est certes immoral, mais ce ne serait pas épistémologiquement problématique, tout comme il n'est pas forcément irrationnel d'accepter qu'il va pleuvoir, et donc de prendre un parapluie "par précaution" si je n'ai pas de manteau, alors que le ciel est plutôt clair.

Ceci, nous dira le bayésien, est contre-intuitif : il semble plus correct de dire que la science nazi ou celle de ce laboratoire est de la mauvaise science, et pas seulement sur le plan moral, parce que leurs affirmations ne sont pas appuyées par des données. Ou, pour prendre un cas qui serait moralement vertueux, on peut décider de ne pas construire une centrale nucléaire par principe de précaution parce qu'il existe un risque peut-être faible, mais inconnu, d'accident extrêmement grave. Si l'on ne distinguait pas acceptation et croyance, cela voudrait dire que l'on croit que l'accident se produira nécessairement, uniquement parce qu'il serait grave. Or ce n'est pas le cas. Il faut faire la part des choses.

Selon cette manière de voir, la science ne devrait pas nous dire quelles hypothèses considérer comme vraies pour l'action, mais seulement nous fournir des degrés de crédence, et ce serait le rôle du politique (par exemple) que de fixer un seuil de crédence acceptable pour la décision en prenant en compte les risques d'erreurs et le contexte social.

Un autre problème est que si croyance et acceptation étaient identiques, on pourrait, dans certaines situations, à la fois croire et ne pas croire quelque chose. Imaginez que mon parapluie soit très encombrant et que j'aie déjà un manteau étanche. Je pourrais alors agir sur la base de la croyance "il ne va pas pleuvoir", car prendre le parapluie est coûteux pour peu de bénéfice. Cependant cela ne me coûte pas grand chose de fermer les fenêtres "au cas où il pleuve quand même", et alors, j'agis sur la base de la croyance "il va pleuvoir". Si croire, c'est la même chose qu'accepter, je me retrouve dans la situation bizarre où je crois, et ne crois pas, qu'il va pleuvoir au même moment, mais à propos de deux actions distinctes.

On devrait plutôt dire dans ces cas là que :

  • soit je crois qu'il ne va pas pleuvoir, mais je ferme les fenêtres parce que "on sait jamais",
  • soit que je crois qu'il va pleuvoir, mais je ne prends pas le parapluie parce que "tant pis s'il pleut".

Donc il faudrait distinguer acceptation et croyance, au moins dans le contexte exigeant de la science, mais peut-être aussi dans des cas plus mondains. Ce qui ouvre la voie à l'idée que les croyances sont neutres sur le plan des valeurs, et que seule l'acceptation pour la décision est affectée par le contexte.

Mauvaise science ou non-science ?

Tout ceci peut paraître convainquant, et je pense qu'il y a là un fond de vérité (nous y reviendrons). Reste qu'on prend généralement la peine d'évaluer nos croyances quand c'est pertinent, c'est à dire si l'on pense que la croyance peut servir de base à l'action au moins indirectement. De même en science, il n'y a pas d'affirmations hors sol : publier un article scientifique, c'est faire un acte analogue à une affirmation qui peut avoir des conséquences, en l'occurrence, qui peut impliquer que cet article servira de base à l'action, et donc, cela engage une responsabilité qui dépend de valeurs sociales (du type d'action que le résultat est susceptible d'engendrer). Quand une évaluation statistique d'une hypothèse est disponible (ce qui n'est pas toujours le cas), les scientifiques ne se contentent pas de nous fournir des p-value : ils intègrent aussi dans leurs articles des seuils pour déterminer si l'hypothèse est acceptable ou non.

Mais surtout, je pense que l'analyse bayésienne du cas de la science nazi présenté plus haut n'est pas entièrement juste. Ou plutôt elle l'est dans le cas où les nazis (ou le laboratoire pharmaceutique) resteraient opaques sur leurs valeurs, et prétenderaient avoir montré que telle race est inférieure (j'imagine que c'était le cas mais je n'ai pas vérifié). Mais alors le tort épistémique ne tient pas au fait de prendre en compte les valeurs en soi, seulement au manque de transparence, et à quelque chose qui s'apparente assez directement à de la fraude.

Imaginons que les nazis publient des articles scientifiques du type "notre hypothèse n'est pas du tout confirmée parce que notre échantillon est trop petit pour conclure quoi que ce soit, cependant par 'précaution idéologique', on pense qu'il faut l'accepter comme vraie". S'agirait-il de mauvaise science ? Pas vraiment, il s'agit plutôt de non-science. La conclusion qu'il faudrait en tirer est que les nazi se fichent, en fait, de savoir si l'hypothèse de l'infériorité de telle race est plausible (ou que le laboratoire pharmaceutique se fiche de savoir si le médicament est efficace). Tout ce qu'ils veulent, c'est persécuter un certain groupe de gens bien identifiés socialement (vendre leur médicament). Tout comme je me fiche de savoir s'il est vraiment plausible qu'il pleuve si mon costume ne résiste pas à l'eau : je prends mon parapluie de toute façon.

Cette analyse nous demande de réévaluer légèrement la manière dont on a présenté le risque épistémique. Agir sur la base d'une hypothèse, ce n'est pas forcément la croire : ce peut être seulement la croire possible. Or la gravité d'une erreur (donc nos valeurs) peuvent nous pousser à croire qu'une chose est possible. Dans le cas de la centrale nucléaire, la gravité d'un accident nous pousse à le considérer comme possible. Écarter cette possibilité pourrait être considéré comme une faute. Ceci permet de rendre compte également du cas de la "double croyance" : je ferme ma fenêtre parce que je crois possible qu'il pleuve, mais en fait je ne crois pas qu'il va pleuvoir, donc je ne prend pas mon parapluie (il reste toujours une tension, qui est qu'on peut croire à la fois que p est qu'il est possible que non-p, ce qu'on pourrait qualifier de position faillibiliste).

Qu'est-ce que tout cela implique ? Simplement que prendre en compte les valeurs sociales n'est pas un problème en science sur le plan épistémologique tant que l'on est parfaitement transparent sur ces valeurs (ce qui n'a rien d'évident !). Ces valeurs ont une fonction "de second ordre" : elles impliquent de s'intéresser ou non à un sujet. Les nazis de notre exemple imaginaire (moralement condamnables mais épistémologiquement vertueux, car parfaitement transparents, je ne prétends pas que ce fut le cas des vrais !) ont simplement décidé de ne pas s'intéresser au sujet, donc de ne pas faire de science. S'ils avaient eu d'autres valeurs impliquant de s'intéresser plus sérieusement au sujet, ils auraient fait de la science. Le bayésien a raison de dire qu'on ne peut considérer leurs résultats comme scientifique, mais il aurait tort de considérer qu'une interférence de valeurs est problématique en soi.

On peut supposer que ceci s'applique aussi à la science d'aujourd'hui : peut-être que parfois certaines hypothèses sont écartées par les scientifiques parce qu'ils jugent que le risque qui est pris en les écartant est faible, ou que le risque qu'on prendrait en rejetant les hypothèses concurrentes serait trop fort (et il n'est pas certain que les valeurs impliquées dans ces jugements soient toujours explicites : c'est vraiment là que peut se situer le problème).

En cas de désaccord apparemment factuel lors de discussions politiques, quand une fausseté est énoncée à la légère, il pourrait être parfois utile, plutôt que d'asséner simplement des chiffres pour convaincre, de rappeler aussi à notre interlocuteur que cette question factuelle nous importe vraiment (et pourquoi), et qu'on ne peut donc se contenter de preuves à la légère comme il ou elle le fait : si la question factuelle importe finalement peu pour notre interlocuteur (peut-être parce qu'il pense qu'il serait très risqué de rejeter sa fausseté à tort), il y a peu de chance que quelques données empiriques le convainquent, mais questionner ses valeurs peut avoir un effet. Les désaccords apparemment factuels peuvent cacher des désaccords sur le plan des valeurs.

On entend souvent dire qu'un certain désintérêt ou détachement est nécessaire à la bonne science. Mais notre conclusion ici est que paradoxalement, faire de la bonne science nécessite au contraire de montrer un véritable intérêt pour le sujet qu'on étudie (une manière moins paradoxale de dire les choses est que pour faire de la bonne science, il ne faut pas prendre à la légère le risque d'erreur, ni dans un sens, ni dans l'autre : le rôle des valeurs est bien "de second ordre").

En quel sens se détache-t-on des valeurs ?

Ainsi, l'exemple de la science nazi n'est pas suffisant pour affirmer qu'il y aurait des "degrés de crédence cachés" qui expliqueraient ou devraient intervenir dans la décision. Il est insuffisant pour distinguer croyance et acceptation. Donc ce n'est pas un problème si la science évalue ses hypothèses en prenant en compte des valeurs pour estimer le niveau de preuve requis, pour peu qu'elle reste transparente.

Soyons clair, tout ceci n'est pas forcément fatal pour le modèle bayésien qui a d'autres choses à faire valoir. Mais on pourrait lui opposer un autre modèle qui serait celui-ci : nos valeurs nous font considérer certains états de fait ou hypothèses comme possibles. Les données empiriques nous amènent parfois à éliminer certaines possibilités, mais ces possibilités résistent d'autant plus à être éliminées qu'elles sont chargées de valeurs et impliquent des actions différentes (en un sens négatif ou positif : si j'ai vraiment envie de trouver de l'or dans mon jardin, je continuerai à fouiller même si les données ne sont pas favorables parce-que "le jeu en vaut la chandelle"). C'est en général un fonctionnement rationnel en termes de gestion du risque. Ce modèle implique que nos croyances (ce qu'on considère possible) dépend du contexte.

Mais il faut tout de même conceder quelque-chose. En général, si nos valeurs nous permettent de prendre une décision sans tenir compte de faits empiriques (je prend un parapluie car mon costume coûte très cher), on ne peut affirmer agir sur la base d'une croyance ferme. On agit plutôt sur la base d'une possibilité. Ce n'est que quand les valeurs sont conflictuelles, quand il y a du positif et du négatif quelle que soit la réalité, mais que ça implique des décisions différentes, qu'il devient vraiment intéressant de mener une enquête empirique pour fixer une croyance. En ce sens, disposer de valeurs univoques qui impliquent d'agir de telle manière indépendamment des faits peut aller à l'encontre de la bonne marche de la science, principalement en éliminant l'intérêt d'une enquête empirique, mais adopter une approche plus pluraliste (non pas une absence de valeur, mais au contraire une certaine ouverture à plusieurs valeurs, ou encore une tolérance envers les systèmes de valeur alternatifs et un fonctionnement inclusif) au contraire stimule la recherche. Ainsi on retrouve cette intuition qu'un contexte trop rigide sur le plan des valeurs, par exemple un régime totalitaire, n'est pas favorable à la science.

Par ailleurs, si à l'issue d'une enquête les données empiriques excluent catégoriquement certaines possibilités, les valeurs qu'on associe à ces possibilités deviennent non pertinentes pour la décision. Si le ciel est entièrement bleu, peu importe que je déteste être mouillé ou que je tienne beaucoup à ce costume : je crois qu'il ne va pas pleuvoir. Si je vous pose la question, vous pouvez me répondre "non il ne va pas pleuvoir" sans savoir pourquoi je le demande, sans éléments de contexte, si c'est évident qu'il va faire beau. Autrement dit, si le niveau de preuve est suffisamment élevé, il est vrai que ma croyance ne dépend plus réellement de mes valeurs et qu'elle acquière une forme d'objectivité, puisqu'elle devient virtuellement acceptable quelles que soient les valeurs, au sens où il faudrait un contexte très particulier associé à un niveau d'exigence extrêmement élevé pour me faire hésiter à agir sur sa base. C'est une manière de comprendre la locution "les faits se fichent de ce que vous pensez" qu'on entend parfois : s'il est évident qu'il pleut, peu importe que je préfère le soleil. Mais pour autant ma croyance n'est pas "hors sol", elle garde sa fonction principale, qui est de servir de base à l'action motivée, et donc je l'entretiens parce que j'ai certaines valeurs.

En somme on peut dire qu'il y a du vrai dans l'idée que la croyance robuste s'accompagne d'un détachement vis-à-vis des valeurs. Il s'agit juste de ne pas confondre "acceptable quelles que soient les valeurs" et "acceptable en l'absence de toutes valeurs". C'est bien la première locution, et non la seconde, qui caractérise l'objectivité comme horizon.

lundi 17 mai 2021

Définir le pragmatisme (1) -- la pragmatique en philosophie du langage

Roasted coffee beans in white bowl

Ayant revendiqué le qualificatif "pragmatiste" à maintes reprises, je souhaite, dans une série de deux articles, caractériser ce que j'entends par pragmatisme en philosophie des sciences.

Il s'agit d'un terme qui n'est pas toujours défini très précisément, généralement associé à une attitude mettant l'accent sur la pratique (scientifique) plutôt que sur les analyses abstraites, formelles ou métaphysiques, et souvent combinée à une forme de pluralisme. Mon ambition est d'en proposer une compréhension claire (sinon exclusive), à travers ce que j'estime en être les principales caractéristiques : l'emphase sur la performativité, la contextualité et la normativité des représentations.

Ce premier article a pour but d'introduire ces trois caractéristiques importantes dans le cadre de la philosophie du langage, puisque ce me semble être le meilleur cadre pour bien les comprendre. Je les transposerai dans un second article à venir à la philosophie des sciences, afin de réellement expliquer en quoi l'approche pragmatiste telle que je la conçois se distingue d'autres approches, en particulier réalistes, quand il s'agit d'interpréter ou de comprendre les sciences (c'est à dire l'activité scientifique aussi bien que les représentations qu'elle produit).

On peut comprendre le pragmatisme comme ce que Van Fraassen appelle une posture ("stance") quand il oppose la posture empiriste et la posture réaliste. Une posture est associée non seulement à des croyances ou positions substantielles, par exemple, pour le réaliste, la croyance que le but de la science est de décrire une réalité indépendante de nos représentations, mais aussi à des préférences, valeurs, choix méthodologiques ou méta-philosophiques, etc. Ainsi un réaliste mettra souvent l'emphase sur la nécessité d'expliquer, et un empiriste sur une certaine humilité épistémique. Pour Van Fraassen, adopter une posture philosophique relève de la conversion plutôt que du pur choix rationnel, à l'instar des religions ou positions politiques, puisqu'une posture n'est jamais justifiée de manière absolue sur une base rationnelle. Van Fraassen plaide pour une tolérance envers les différentes postures philosophiques tant qu'elles sont cohérentes avec une conception minimale de la rationalité, tolérance que je partage (ce qui n'interdit pas de défendre sa propre posture, de plaider en sa faveur, de critiquer les postures adverses pour les mettre en difficulté, etc). La posture pragmatiste que je défends est assez proche de la posture empiriste de Van Fraassen, mais elle se distingue sur le plan de la sémantique.

jeudi 13 mai 2021

La (prétendue) continuité entre science et métaphysique

J'ai lu récemment un tweet qui affirmait en gros qu'on fait tous de la métaphysique comme Monsieur Jourdain fait de la prose, que c'est impossible de ne pas en faire, et que y compris nos théories scientifiques incorporent une métaphysique implicite. C'est une affirmation assez classique en philosophie des sciences, ayant à voir notamment avec l'idée, lue également récemment dans un autre tweet, qu'il y aurait une continuité entre science et métaphysique, puisque les deux s'intéressent à dévoiler la nature de la réalité. Après tout, les théories scientifiques incorporent des postulats qui ne sont pas directement vérifiables par l'expérience : des postulats métaphysiques, donc (sic).

J'acceptais ces idées sans rechigner il y a quelques années (à l'époque où j'étais encore réaliste structural, en début de thèse) mais depuis, mes positions en philosophie des sciences ont pris un tournant beaucoup plus pragmatiste. Ma position actuelle est qu'il faut distinguer la science des scientifiques. La science est une activité institutionalisée, produisant des représentations (des modèles mathématiques associés à un vocabulaire théorique, etc) destinées à être appliquées, parfois indirectement, soumise à des normes (la confrontation à l'expérience, l'unification théorique). Les scientifiques sont ceux qui réalisent cette activité.

Je pense que l'interprétation des représentations produites par la science comme descriptions de la réalité relève de la métaphysique, et non de la science. Certes, beaucoup de scientifiques font le commerce de ce type d'interprétation métaphysique, mais ça ne signifie pas qu'elles soient essentielles à l'activité scientifique elle-même. Ce type d'interprétation présuppose notamment une sémantique réaliste qui n'est nullement impliquée par l'activité scientifique (j'aurais tendance à dire : au contraire : nous y reviendrons). Donc ne confondons pas les croyances des individus, qui peuvent être variées, et l'activité institutionalisée et ses produits.

samedi 20 mars 2021

Zététique, militantisme et composante sociale de la connaissance

Bandera boliviana en manifestación
(temps de lecture: ~10 minutes)

La composante sociale de la connaissance

Je sais que Madrid est la capitale de l'Espagne. Enfin je crois. L'ai-je vérifié par moi-même directement ? Je ne saurais même pas par où commencer en fait : c'est quoi exactement le statut d'une capitale ? De ce que je crois savoir, ce n'est pas forcément la ville la plus peuplée d'un pays, mais celle où se situent ses institutions. Peut-être y a-t-il un statut juridique officiel inscrit dans un registre quelque part en Espagne ? Bon, voilà, je ne suis même pas sûr de ce qu'est une capitale d'un pays au sens stricte, ni de comment vérifier si une ville est la capitale d'un pays autrement qu'en faisant confiance à Wikipedia. Et pourtant je sais que Madrid est la capitale de l'Espagne, n'est-ce pas ?

Je n'ai jamais rencontré aucune raison de douter que Madrid est la capitale de l'Espagne, rien qui m'ait poussé à aller vérifier si c'est vraiment le cas. Je n'ai jamais été voir la page wikipedia pour m'en assurer, parce que je le sais déjà. D'ailleurs je n'ai jamais ressenti le besoin d'attribuer, de manière réflexive, un quelconque degré de crédence à cette croyance : je l'ai simplement absorbée petit, et depuis je l'utilise sans même y réfléchir.

Suis-je irrationnel ?

Si c'est le cas personne n'est ni ne sera jamais rationnel, et un être rationnel, quelqu'un qui y réfléchirait à deux fois avant de considérer que Madrid est la capitale de l'Espagne, ou toute autre trivialité, serait terriblement inadapté à nos sociétés. Car l'écrasante majorité de mes connaissances, et en particulier la totalité de mes connaissances scientifiques, ont exactement le même statut que celle-ci : je les ai acquises de seconde main, à l'école ou dans les livres, mais je serais incapable de les vérifier par moi-même. C'est mon cas, et c'est le cas de chacun d'entre nous.

jeudi 18 février 2021

Tous les modèles sont faux ?

On doit l'expression "Tous les modèles sont faux, mais certains sont utiles" au statisticien George Box. Que faire de cette affirmation ?

jeudi 4 février 2021

Paradoxe de Newcomb, rationalité et normes sociales

Cette note est une réflexion inspirée par l'excellente vidéo de Mr Phi qui présente le paradoxe de Newcomb, la bonne manière de le poser sans se perdre dans de faux débats et les diverses ramifications du problème vis-à-vis de la rationalité. Je lui suis largement redevable des réflexions qui suivent. Je vous laisse visionner la vidéo pour bien les comprendre.

mardi 24 septembre 2019

Le constructivisme comme scientisme

Le constructivisme social est l'objet de débats parfois houleux. On associe souvent ce type de thèse au "post-modernisme", à la négation de l'objectivité de la science, à de l'anti-rationalisme. Le constructivisme affirme de certaines catégories de phénomènes qu'ils sont "socialement construits", et s'oppose en cela au naturalisme, suivant lequel il s'agit de catégories naturelles. Mais cette idée peut se comprendre de différentes manières.

Ici je souhaiterai défendre (développant une vieille idée) que c'est une version forte de constructivisme qui nourrit réellement les débats militants, les autres versions ayant des implications beaucoup moins radicales, et que cette version forte, quand elle est généralisée, s'apparente à un scientisme sociologique.

lundi 2 septembre 2019

Quelle place pour les valeurs en science ?

On fait parfois la différence entre valeurs épistémiques (ce qui fait qu'une théorie est bonne ou mauvaise selon des critères rationnels ou scientifiques) et valeurs contextuelles (ce qui fait qu'une chose est bonne ou mauvaise vis-à-vis de la morale, d'un contexte social ou d'intérêts particuliers).

Il peut y avoir cette idée, parfois critiquée en philosophie, que la science "pure" est "neutre", ou devrait l'être, qu'elle ne devrait être mue que par des valeurs épistémiques. Son but serait de produire de bonnes théories, de bonnes connaissances, indépendamment de considérations morales, sociales ou subjectives. L'intervention de valeurs contextuelles serait un obstacle à la recherche d'objectivité, valeur cardinale en science.

Ces questions sont liées à celles concernant la responsabilité des scientifiques. Peut-on par exemple défendre l'idée que la science, seulement mue par une recherche du vrai, n'a aucune responsabilité quant aux applications possibles issues de ces recherches ? La science n'est ni bonne ni mauvaise, seul ce qu'on en fait peut l'être ? Toute connaissance, quel que soit le sujet, est-elle bonne à prendre tant qu'elle répond à des critères de qualité épistémique ?

À ce titre on peut distinguer plusieurs phases d'une recherche : il semble que des valeurs contextuelles puissent en effet interférer négativement avec les valeurs épistémiques s'il s'agit de produire les données expérimentales "qui nous arrange" ou de sélectionner les hypothèses "qui nous arrangent", mais il est a priori acceptable voire souhaitable que le choix d'un sujet de recherche soit basé sur des valeurs contextuelles : un intérêt intellectuel pour une question ou un problème, peut-être partagé par la communauté scientifique, ou bien un besoin social (soigner le cancer), et de même pour les applications. Cela tient à ce que les valeurs épistémiques ne sont pas prescriptives sur ces aspects. Cependant les valeurs contextuelles peuvent aussi affecter les standards de précision dans la production de données, les méthodes choisies (par exemple l'expérimentation animale) et la prise en compte de certaines contraintes pratiques dans le choix des hypothèses à tester ou la gestion du risque au moment de tirer des conclusions d'une expérience et donc tout ceci est plus complexe qu'il n'y paraît. Pour cette raison, certains affirment que l'intervention de valeurs contextuelles est inévitable en science, et pas forcément une mauvaise chose, et que plutôt que d'éliminer les valeurs, il faudrait les rendre explicites pour qu'elle puissent être discutées par la communauté, au delà de la sphère scientifique. (voir l'entrée de l'Encyclopédie Stanford sur l'objectivité)

Dans tous les cas on peut déjà dire que le choix d'un sujet de recherche ou les applications ne sont pas a priori "neutres" du point de vue des valeurs sociales et qu'il n'y a aucune raison qu'ils le soient. Et cette absence de neutralité implique a priori une forme de responsabilité : l'idée que la science non appliquée, si ses résultats sont destinés à être rendus publics, serait un outil neutre est assez discutable (on peut faire un parallèle avec les arguments douteux défendant le libre accès aux armes à feux du type : ce ne sont pas les armes qui tuent mais les gens). Il ne semble pas, pour prendre un exemple extrême, que faire des recherches sur le type de virus qui pourrait décimer exclusivement une catégorie ethnique de la population, même si cette recherche est menée "par simple curiosité" (ce qui déjà peut sembler douteux), soit une très bonne idée d'un point de vue éthique. A priori, un chercheur devrait se questionner sur les applications potentielles de ses recherches.

Ceci dit, il semble bien y avoir une distinction pertinente entre science et technologie, ou entre science théorique et science appliquée, et on pourrait souhaiter que la première jouisse d'une autonomie plus importante dans ses choix de recherche. Dans cette article, je souhaite me pencher sur cette distinction, et sur celle, liée, entre valeur épistémique et contextuelle.