La neutralité de la science vis-à-vis des valeurs sociales : un idéal obsolète ?
Je me suis plongé récemment dans la lecture sur l’idéal de neutralité axiologique de la science ("value-free ideal") et ait quelque peu évolué sur ces questions. Ce post a principalement pour but de faire état de mes conclusions et de référencer les sources qui m’y ont amené.
- L’idéal de neutralité axiologique:
-
La science vise uniquement le vrai (ou la connaissance, la compréhension, etc.), et non pas ce qui est bien ou politiquement souhaitable. Donc les scientifiques ne devraient pas faire de jugements de valeur au moment d’accepter ou de rejeter des hypothèses, mais seulement accepter les hypothèses qu’ils jugent très probablement vraies (ou apportant connaissance / compréhension) suivant des standards internes à la science, conformes à son but, indépendants du reste de la société.
Ce qu’est et n’est pas l’idéal de neutralité
J’entend parfois dire que l'idéal de neutralité axiologique serait mort et enterré dans la littérature philosophique contemporaine. Ce n’est pas tout à fait juste, beaucoup d’auteurs et autrices le défendent plus ou moins explicitement (des références au fil de l’article). Rappelons quelques points importants à ce titre :
Il s’agit d’un idéal. Ses défenseurs n’affirment pas que la science a déjà atteint cette neutralité vis-à-vis des valeurs sociales, seulement que c’est souhaitable.
- Donc pointer des entorses à la neutralité, des biais masculinistes en archéologie par exemple, n’est pas un argument contre l’idéal. Au contraire : le fait même de présenter une influence de valeurs sociales comme un problème pour l’objectivité semble impliquer qu’on adhère à cet idéal, et à la limite, critiquer l’idéal de neutralité pourrait empêcher de voir un problème (autre que moral) dans les biais masculinistes (cf. Stéphanie Ruphy 2006)
Ceci dit, adhérer à l’idéal suppose de penser qu’il est en principe atteignable ou au moins qu’on peut s’en approcher indéfiniment (si c’est un idéal régulateur), et aussi que les scientifiques le font plus ou moins. L'idéal n'est pas non plus censé être entièrement déconnecté de la pratique scientifique.
- Donc pointer une impossibilité de principe de s’abstenir de jugements de valeur en science, ou pointer la présence entièrement généralisée de jugements de valeur sans que les scientifiques n'estiment qu'il y a un problème particulier peut fonctionner comme argument contre l'idéal, en une certaine mesure.
Mais attention, il ne faut pas confondre valeur et perspective / position sociale. Être un homme n’est pas la même chose que de défendre des valeurs masculinistes. (cf. Hannah Hilligardt 2022).
- Donc affirmer qu’on ne peut échapper à sa position sociale, et qu’il est donc souhaitable d’intégrer des perspectives variées, par exemple des perspectives féminines en archéologie, pour combler des points aveugles dans la recherche, n’est pas en soi une négation de l’idéal de neutralité : le fait que les femmes, de par leur expérience sociale, puissent être dotées de compétences épistémiques plus difficilement accessibles aux hommes n’implique pas que ces compétences s’appuient sur des jugements de valeur.
Enfin l’idéal concerne uniquement la justification des hypothèses, “en interne” pour ainsi dire. Les interactions avec le reste de la société, même quand elles participent à la production de connaissances, peuvent tout à fait être guidées par des valeurs sans enfreindre l’idéal (Helen Longino 1990 ch. 5).
- Mettre en avant le rôle des valeurs sociales quand il s’agit de sélectionner ou financer des programmes de recherche jugés plus importants que d’autres, comme la recherche contre le cancer, ou de bannir des méthodes de collecte de données comme l’expérimentation animale, est compatible avec l’idéal de neutralité, car ça ne touche pas à la justification des hypothèses.
Ceci met la barre assez haut pour qui veut rejeter l’idéal de neutralité axiologique. On voit que ni pointer des biais à l’oeuvre en science, ni mettre en avant l’inévitabilité du positionnement social de chacun, ni faire valoir que la société a son mot à dire sur l’importance des recherches ne constituent de bons arguments contre un idéal de neutralité bien compris. Pour le rejeter, il faut argumenter que les jugements de valeurs sont en principe inévitables, non problématiques, voire souhaitables, pour l’acceptation ou le rejet d’hypothèse scientifiques en particulier. Pourquoi le penser ?
L’argument de l’imprégnation des catégories par les valeurs
Un premier argument que je trouvais initialement convaincant en faveur de l’inévitabilité des jugements de valeur est l’idée que les catégories scientifiques sont parfois imprégnées de valeurs : par exemple, ce qui compte ou non comme maladie psychologique ou comme violence domestique pourra dépendre de ce qu’on juge souhaitable ou non dans un contexte social. On trouve cette idée chez John Dupré (2007) et d’autres.
L’argument proposé par David Ludwig (2016) est assez simple pour être reproduit ici :
- La vérité ou fausseté d’une hypothèse dépend de choix ontologiques (des choix de catégorisation).
- Les choix ontologiques dépendent de valeurs sociales.
- Donc la vérité des hypothèses dépend des valeurs sociales.
Mais j’avoue que l'argument ne me convainc pas pour la raison suivante : je pense que c’est la signification d’un énoncé qui dépend de choix ontologiques, et non pas la vérité d'une hypothèse. La vérité d’une hypothèse exprimée par un énoncé, une fois sa signification fixée, dépend essentiellement du monde. En ce sens, les choix ontologiques s’apparentent plutôt aux choix de programmes de recherche (quelle hypothèse tester ?) qu’à des choix sur ce qui est à accepter ou à rejeter, et on a vu que les jugements de valeurs sur ces aspects sont compatibles avec l’idéal de neutralité.
Ceci m’amène à douter, au delà de cet argument en particulier, que le fait que les catégories soient chargées de valeurs constitue réellement un problème pour l’idéal de neutralité. Il me semble en effet que la science vise généralement à rendre ses catégories précises et opérationelles, quitte parfois à introduire des termes techniques pour remplacer les termes vernaculaires trop chargés. Cette précision des catégories et opérationalisations utilisées me semble indéniablement être un idéal poursuivi par la science, un critère de bonne science dans la plupart sinon toutes les disciplines scientifiques. Et ce que ce critère de précision réalise, c’est une indépendance vis-à-vis des valeurs sociales pour l’évaluation de la vérité ou de la fausseté des hypothèses.
Pour voir ceci, prenons un exemple: une recherche sur les violences domestiques. Si l’on laisse le termes “violence domestique” imprécis, alors évaluer à quel point celles-ci sont répandues sera laissé à la discrétion des scientifiques responsables de la collecte des données. Disons que ceux-ci ont tendance à juger que certaines situations ne sont pas bien graves, et donc rechigneront à parler de violence, quand celles-ci jugeront que ces situations sont terribles, et constituent donc bien des situations de violences domestiques : les valeurs influencent directement les résultats obtenus. Si maintenant on se met autour d’une table pour décider de critères précis, alors dans l’idéal, aucune place n’est laissée aux jugements de valeurs au moment de l'interprétation des données : ceux-ci pourront considérer qu’une situation n’est pas bien grave, mais, respectant les choix faits en amont, ils devront la classer comme violente et à l’inverse pour celles-ci. La précision des catégories a bien pour effet d’éliminer les jugements de valeur (ou plutôt de les reléguer en amont de la collecte des données).
Les choix ontologiques sont-ils moraux ?
Bien sûr, la bonne manière de préciser les catégories et de les opérationaliser dépend de ce qu’on veut en faire, et donc en partie de valeurs sociales (mais aussi en partie du monde : certaines catégorisations sont plus fructueuses que d'autres). On peut considérer que les choix de catégorie font partie intégrante de la recherche, et affirmer que les valeurs ont un impact ici s'apparente à une concession faite aux détracteurs de l'idéal de neutralité. Par exemple, des scientifiques pourront publier le résultat “la violence domestique est inexistante” juste parce qu’ils ont fait des choix méthodologiques douteux, et en surface, on peut avoir l’impression que de mauvais jugements de valeurs ont directement affecté l’acceptation de l’hypothèse “la violence domestique est inexistante”, quand de meilleurs jugements de valeurs auraient permis d'aboutir à une conclusion plus censée à travers une meilleure opérationalisation de la catégorie. En ce sens, les jugements de valeurs seraient inévitables et les "bons" jugements de valeurs souhaitables en science.
Ce qu'on peut se demander ici, c'est si le fait de bien caractériser la violence domestique relève réellement du jugement de valeur. Après tout, le tort des scientifiques dans cet exemple est de proposer une compréhension idiosyncratique d'un terme qui a déjà une compréhension commune (voire également une compréhension scientifique ou juridique). Le jugement erroné me semble sémantique et non moral : ils se trompent sur ce qu'est la compréhension d'un terme, sur les normes d'usage. Cette erreur est peut-être influencée par leurs valeurs, mais remarquer ceci ne fait que renforcer l'idéal de neutralité. S'ils avaient mis de côté leur tendance à amoindrir la violence domestique, ils auraient employé une acception commune, reconnue, du terme. À ce titre, employer une conception trop libéral de la violence domestique pour arriver à la conclusion qu'elle est omniprésente serait tout aussi problématique. Ce qu'on attend d'une recherche objective, et ce qui fait d'ailleurs partie des bonnes pratiques en science, c'est un alignement sur les standards en matière de compréhension des termes, de manière à ce que le résultat de la recherche soit correctement interprété par notre communauté linguistique. Et cette alignement ne demande pas de jugement de valeur de la part des scientifiques. Le fait que ces standards ou cette compréhension commune soit chargée de valeurs n'est pas un problème pour la neutralité, puisqu'elle ne relève pas de la compétence du scientifique: il ne s'agit pas d'un aspect interne à la science.
Le seul cas où on pourrait suspecter qu'un jugement de valeur doit être émis, c'est quand les standards sont encore inexistants ou imprécis. Mais on peut suspecter que les choix faits en la matière sont principalement pragmatiques : adopter une compréhension précise, simple, facilement opérationalisable, conceptuellement cohérente, fidèle au sens commun et qu'on soupçonne fructueuse sur le plan explicatif... (ici j'entend par critère pragmatique ce que d'autres appellent "valeurs épistémiques", la raison étant qu'en tant que non-réaliste, je ne considère pas que ces critères visent le vrai, mais je considère qu'ils s'agit de critères rationnels, indépendants du contexte social). Savoir refléter de manière appropriée le sens commun peut demander une sensibilité ou une empathie, plus facilement accessible à ceux qui ont une expérience sociale particulière, mais j'y vois personnellement une compétence cognitive plutôt que morale (bien que je serais prêt à concéder que les distinctions deviennent un peu floues ici).
Dans tous les cas, le fait d'adopter des définitions précises garantie une certaine objectivité dans le résultat de la recherche : on peut trouver ce résultat peu pertinent si l’on pense que les catégories utilisées sont mal choisies, mais on ne peut le trouver faux si le travail a été correctement réalisé. Ceci est cohérent avec l'idéal de neutralité axiologique.
L’argument du risque épistémique
L’argument à l’encontre de l’idéal de neutralité qui est je pense le plus influent, le plus repris dans la littérature, et qui m’a moi même le plus convaincu est l’argument du risque épistémique.
L’idée est assez simple : pour accepter ou rejeter une hypothèse sur la base de données incertaines, il faut adopter des standards d’adéquation (par exemple une p-value à 5%, c’est à dire que la probabilité d’obtenir les données obtenues si notre hypothèse était fausse serait inférieure à 5%). Or ces standards sont arbitraires. Il dépendent essentiellement du risque qu’on est prêt à prendre : accepter une hypothèse à tort, ou bien la rejeter alors qu’elle était vraie. Et ces risques dépendent de nos valeurs, de l’importance qu’on accorde aux erreurs.
Ainsi, on adoptera des standards beaucoup plus exigeants avant de déclarer que la sangle d’un parachute est sûre que avant de déclarer que la sangle d’un sac à dos est sûre, parce que dans le second cas, l’erreur a une importance moindre. Ce qui n'a rien de problématique.
Ce qui est intéressant avec cet argument est qu’on peut facilement l’étendre. Considérer qu’une hypothèse est confirmée n’est jamais une simple affaire de statistiques. Dans le cas de la sangle du parachute, il s’agit de vérifier un ensemble de conditions variées (humidité, etc.), un ensemble de sources d’erreurs possibles. Il s’agit, en somme, de tester la robustesse de l’hypothèse vis-à-vis d’un ensemble plus ou moins large d’hypothèses concurrentes (Jonah Schupbach 2015), et de s’arrêter quand on peut croire l’hypothèse “au delà de tout doute raisonnable” (on n’ira peut-être pas jusqu’au doute métaphysique). L’étendue des hypothèses concurrentes qu’on jugera raisonnable d’envisager avant d'accepter définitivement l'hypothèse (ce qui coûte du temps et de l’argent) peut en principe dépendre de l’importance qu’on accorde à obtenir un résultat fiable, donc de nos valeurs. Ceci contredit directement l’idéal de neutralité axiologique.
Il y a un lien assez directe avec la notion classique en philosophie des sciences de sous-détermination par l’expérience (il existe toujours une infinité d’explications possibles, les données empiriques ne sont jamais pleinement déterminantes), ce qui fait que l’argument du risque épistémique est un argument potentiellement très général. Il s'applique en principe aussi bien à l'interprétation d'observations concrètes (est-ce ou non une tumeur ?) qu'à l'évaluation de théories générales (P Magnus 2018). Mais il est plus souvent employé pour l’évaluation des hypothèses ayant des applications très directes.
Contre le risque épistémique
Voilà où j’ai révisé un peu mes positions à la lecture de la littérature philosophique : je suis en fait moins convaincu qu’avant de la pertinence de cet argument, pour différentes raisons. Il y a d’abord des raisons de portée :
- L'argument s’applique uniquement aux contextes d’incertitude et de ressources limitées. Plus on a la possibilité de réduire le risque d’erreur en produisant de nouvelles données ou des tests variés, moins le jugement de valeur devient essentiel.
- Il ne concerne pas, au fond, ce qu’on devrait croire ou non, qui ne varie pas d'un contexte à l'autre et ne dépend pas du risque (au moins suivant les conceptions majoritaires), mais plutôt s’il faut agir ou non sur la base d’une croyance, ou la manière dont les résultats de la recherche doivent être communiqués aux décideurs dans un contexte donné (Stephen John 2015).
L'argument s’applique donc principalement, comme déjà dit, aux recherches directement appliquées ou commanditées par des institutions politiques, des contextes au sein desquels il faut prendre une décision malgré l'incertitude : par exemple, interdire ou non une substance chimique. Cette limitation de portée est quand même très problématique pour l’argument, parce que l’idéal de neutralité est bien (encore une fois) un idéal, et ici, on parle de conditions qui ne sont pas forcément des conditions idéales : quand la science est directement mise à contribution pour l’action, et manque de ressources.
En dehors de ces contextes particuliers, le risque d'erreur n’est plus vraiment évaluable parce que les résultats de la recherche peuvent être utilisée de multiples façons qu’il est difficile d’anticiper. Ce qu'on veut savoir, c'est ce qu'il faut croire, et non comment agir. Or, quand c'est le cas, on peut juger que la science a tout intérêt à maintenir des standards d’adéquation très élevés lors des tests empiriques, en augmentant notamment le nombre de tests jusqu'à obtenir des données concluantes quand c'est possible, quitte à ne pas se prononcer quand les résultats sont incertains. Il s'agit de maintenir son statut d'institution digne de confiance : un résultat validé par la science doit être fiable pour à peu près n’importe quels buts. Abaisser les standards pour des raisons politiques serait extrêmement dommageable à long terme pour sa crédibilité (Stephen John 2015 -- pour John c'est vrai même dans les contextes de décisions politiques, mais j’ai plus de doutes la dessus, cf. Kevin Elliott 2014)). Or adopter des standards systématiquement très élevés revient, dans les faits, à se rendre imperméable aux jugements de valeur, puisque les données s'avèrent alors plus décisives (au moins si l’on accepte qu’il s’agit d’un choix tri-partite: accepter, rejeter, ou ne pas se prononcer).
Outre ce problème de portée, l’argument a aussi certaines faiblesses :
- Si l’idée est que contrairement au “wishful thinking” (accepter une hypothèse seulement parce qu’on l’aime bien), fixer les standards de risque éviterait le dogmatisme, et donc que ce serait une “bonne” influence des valeurs, c’est simplement faux : il suffit d’adopter des standards démesurément exigeants envers tout ce qui contredit nos opinions mais permissifs pour ce qui va dans leur sens pour être dogmatique (Inmaculada de Melo-Martín and Kristen Intemann 2016).
- Pourquoi croire que les scientifiques seraient particulièrement aptes à émettre des jugements de valeurs ? (ibid) Il semble plus judicieux d’externaliser ces jugements hors de la science, et donc idéalement, le fonctionnement interne de la science devrait être indépendant des valeurs.
- Une manière d’externaliser les jugements de valeur est pour les scientifiques de transmettre des probabilités ou degrés de confiance ou de communiquer sur la robustesse plutôt que d’accepter ou rejeter les hypothèses, et ça semble faire partie des standards pour le GIEC par exemple (Gregor Betz 2013). Il est parfois avancé que ça implique un risque épistémique “de second ordre”, mais c’est faux, au moins dans un cadre probabiliste : une incertitude d’incertitude peut toujours se ramener à une incertitude de premier ordre (Brian MacGillivray 2019 l'incertitude de second ordre mesure en quelque sorte la volatilité du jugement dans un cadre bayésien).
- Au final, le cadre d'analyse de l'argument est assez simpliste. L’évaluation formelle du risque est complexe, c’est un métier à part entière, et ça a plus à voir avec l’évaluation des conséquences de différentes actions possibles suivant des critères objectifs qu’avec la fixation de seuils statistiques sur la base d’un jugement de valeur (ibid).
Voilà pourquoi je ne pense pas que le risque épistémique constitue une bonne raison de croire que les jugements de valeur sont souhaitables ou indispensables pour sélectionner les hypothèses. Je pense que dans l'idéal, les scientifiques devraient adopter des standards élevés et communiquer sur leur incertitude pour éviter d'avoir à faire de tels jugements.
Ceci étant dit, je suis convaincu au moins d’une chose : cette notion de risque épistémique rend très bien compte de la manière dont les résultats de la recherche scientifique sont politisés dans la société. Quand ces résultats appuient des croyances qu’on juge dangereuses (surtout si elles s’avéraient fausses), on devient extrêmement exigeant quant au niveau de preuve. Quand au contraire on pense que même si elles s’avéraient fausse, ce ne serait pas une grosse erreur de les avoir crues, on a tendance à abaisser drastiquement nos standards. Mais il me semble que l’influence sociale des résultats scientifiques est souvent surestimée dans ces contextes, que les risques sont mal évalués, et cette attitude est difficile à distinguer de la mauvaise foi ou du dogmatisme. Il me semblerait très problématique d’ériger cette prise en compte informelle du risque épistémique en norme pour la science.
Conclusion : sur quoi doit porter le débat ?
Partant de là, je ne vois plus beaucoup de raison de ne pas soutenir l'idéal de neutralité axiologique de la science.
Au mieux, on pourrait s'appuyer sur la sous-détermination pour défendre que des jugements de valeur doivent avoir lieu de toute façon : on ne peut tester toutes les hypothèses possibles, il faut faire un choix, adopter une stratégie de recherche laissant de côté des hypothèses pour en privilégier d'autres. La sous-détermination par l'expérience est un constat philosophique. En pratique, cependant, la sélection d'hypothèse est fortement contrainte par le cadre conceptuel dans lequel les scientifiques travaillent. Un biologiste travaille dans le cadre de la théorie de l'évolution, et donc va se limiter aux hypothèses évolutionnistes, quand bien même il existe d'autres possibilités logiques. De même pour ce qui est des méthodes expérimentales et de l'interprétation des résultats empiriques. Voilà qui restreint déjà considérablement l'espace des possibles, et laisse peu de cas que l'expérience ne pourrait trancher. Pour ces cas indécis, il est toujours possible d'exprimer l'incertitude plutôt que de trancher, et ça semble même plus souhaitable que de faire une évaluation au doigt mouillé du manque à gagner pour la société.
Ainsi, sauf à affirmer que le fait de travailler dans un cadre théorique qui a fait ses preuves plutôt que de renverser la table à chaque nouvelle recherche relève d'un jugement de valeur et non de considérations pragmatiques ou rationnelles (ce que défend plus ou moins Longino (1996) in fine), les jugements de valeur ne semble pas foncièrement indispensables ni particulièrement souhaitables au moment de sélectionner les hypothèses en science. Je ne suis pas non plus convaincu qu'ils soient entièrement généralisés ou considérés non problématiques par les scientifiques, y compris au moment de confirmer ou rejeter les hypothèses (bien que ce point pourrait être discuté sur la base d'études concrètes). Reste la sélection des cadres théoriques eux-mêmes, mais ils sont souvent très abstraits, et j'estime que l'idées que leur adoption dépende de facteurs sociaux plutôt que de considérations rationnelles reste à démontrer.
Malgré tout la science est bien motivée par des jugements de valeurs : ceux-ci concernent les choix des recherches à mener et à financer, y compris la manière de poser les hypothèses et les tests à effectuer. Si l'on accepte ceci, on s’approche d’une position proposée comme compromis dans le débat par Greg Lusk et Kevin Elliott (2022) : selon eux, on peut accepter que les activités scientifiques sont dirigées vers des buts, dépendant de valeurs, et que l’évaluation de l’adéquation des hypothèses pour ces buts se fait indépendamment de jugements de valeurs de manière objective. Pour ma part, je n’ai pas l’impression que les défenseurs de l’idéal de neutralité aient jamais dit autre chose, quitte peut-être à ajouter que ces buts sont plus typiquement abstraits (comprendre tel phénomène dans le cadre de telle théorie) que concrets et limités (déterminer la toxicité de ce produit en très peu de temps et avec très peu d'argent).
En fait, plus je lis d'articles critiquant cet idéal de neutralité de la science, moins l'enjeu de ces critiques ne m'apparait clair. Car finalement c’est bien en amont de la justification des hypothèses que se situent les questions les plus pressantes quant aux rapports entre science et société : au niveau de la sélection et du financement des programmes de recherche. La dessus, les deux camps sont d’accord que les valeurs sociales peuvent intervenir (il est légitime de faire de la recherche contre le cancer parce que ça nous importe, personne ne l'a jamais nié), et pourtant il me semble que ce serait un problème si les scientifiques ne disposaient pas de la liberté de choisir certains programmes sans grande utilité sociale, mais scientifiquement importants, et de la possibilité d’être financés pour ça. Ce genre d’autonomie (qui n’est pas incompatible avec des financements d’utilité sociale par ailleurs) me semble tout aussi essentielle à l’intégrité de la science. Mais ces questions peuvent être finalement assez complexes sur le plan éthique, puisque les recherches ont des répercutions sociales incertaines. Et ce sont sur ces aspects que les débats de sociétés s'avèrent particulièrement houleux : faut-il chercher le gène de l'homosexualité ?
Peut-être donc que c'est sur ces aspects que les philosophes qui s'interessent aux interactions entre science et société devraient porter leur attention. Ce que nombre d'entre eux font déjà, soyons honnêtes, il ne s'agit pas d'une conclusion révolutionnaire: je pense juste que le débat sur l'idéal de neutralité en particulier n'est pas le plus pertinent. Qu'importe si la production de connaissances idéalement fiables puisse et doive se faire indépendamment des valeurs sociales ; quelles connaissances veut-on produire ? C'est là la vraie question.
Commentaires