Croyances, valeurs et risque épistémique
En quel sens nos attitudes épistémiques, par exemple nos croyances, sont-elles chargées de valeurs ? La connaissance scientifique est-elle indépendante de toutes valeurs ?
Un argument en faveur de l'idée que les croyances sont chargées de valeur est l'argument du risque épistémique.
Le risque épistémique
Croyez-vous qu'il va pleuvoir ? Si je vous demande ceci en vue de savoir si je dois prendre mon parapluie, votre réponse dépendra de données appuyant ou non la plausibilité qu'il pleuve (les prédictions météorologiques, ou la couleur du ciel). Mais vous ne pouvez ignorer que je vous pose la question pour une raison précise, et peut-être évaluerez-vous aussi à quel point mon parapluie est encombrant et à quel point mon manteau est perméable avant de répondre. Imaginez que selon les prévisions, la probabilité de pluie dans l'heure soit de 30%. Si je n'ai pas de manteau et que de toute façon mon parapluie est léger, cela ne vous coûtera pas grand chose de me répondre "oui il est possible qu'il pleuve", mais si j'ai déjà un bon manteau et que mon parapluie est particulièrement encombrant, vous serez peut-être plus tenté de me répondre "non, je ne pense pas qu'il va pleuvoir", alors que les données en faveur ou à l'encontre de cette croyance sont les mêmes dans les deux cas.
Peut-être vous pourriez également me dire "je ne sais pas s'il va pleuvoir, mais étant donné que /ça a l'air coûteux/ça ne coûte rien/ de prendre ton parapluie, /ne le prend pas/prend le/". Mais on ne peut nier, me semble-t-il, que les premières façons de s'exprimer (juste dire "je ne pense pas qu'il va pleuvoir") font partie de notre pratique discursive. Généralement, exprimer une croyance, ou juste faire une affirmation, ce n'est pas simplement faire état de notre connaissance des faits, c'est aussi s'engager, prendre une certaine responsabilité, à savoir assurer nos auditeurs qu'ils peuvent agir sur la base de notre affirmation. Or cette assurance dépend en partie du contexte, d'une évaluation du risque d'erreur, donc de ce qu'on considère dommageable ou souhaitable (porter un parapluie inutile, rester sec), en un mot, de nos valeurs. Si les enjeux sont importants (si je porte un costume très cher qui ne résiste pas à l'eau), un doute peut surgir qui ne surviendrait pas dans un autre contexte.
Ainsi, dire "je crois que X" n'est pas, en général, indépendant du contexte et de nos valeurs.
Cette façon de voir les choses permet de rendre compte d'une bonne partie de nos désaccords apparemment factuels en termes de différences de valeur, par exemple dans les discussions politiques. Si Jean pense que l'insécurité est causée par l'immigration, c'est peut-être parce-qu'il y a de son point de vue très peu de risque à agir sur la base de cette croyance (il n'est pas lui même immigré et n'a aucune affection pour eux), et donc son niveau d'acceptation pour cette croyance n'est pas très élevé. Si Anne pense l'inverse, c'est peut-être parce que pour elle, le risque d'erreur est assez dramatique (Anne, contrairement à Jean, valorise énormément le fait de ne pas accuser les gens à tort de problèmes dont ils ne sont pas les cause), et donc il lui faut beaucoup plus de preuve avant d'accepter cette croyance.
Dans un monde idéal, on exigerait le niveau de preuve maximal pour toutes nos croyances, et les valeurs n'interviendraient pas. Mais nous vivons dans un monde incertain où il faut souvent choisir d'affirmer ou non, de croire ou de ne pas croire, sans preuves concluantes. Et ces choix sont guidés par nos valeurs.
Un adepte de théories de complot place généralement la barre de la preuve extrêmement haut pour les croyances "officielles". Il exige qu'on lui explique le moindre détail "suspect". Il agit comme si le risque d'erreur (croire à tort la version officielle) était extrêmement grave, peut-être parce que suivant ses valeurs, les manipulations du pouvoir sont le pire des crimes possible (ou au moins que le fait que la théorie implique des choses très grave fait partie des ressors du complotisme). De manière plus générale, on peut supposer que les personnes envisageant des possibilités que la plupart considèrent non pertinentes attribueraient une charge émotionnelle démesurée à ces possibilités, tout comme la possibilité qu'il pleuve devient pertinente si j'ai un beau costume alors qu'elle est sans importance dans d'autres cas. Ainsi on pourrait peut-être expliquer en partie le phénomène du complotisme par les valeurs.
À tout ceci s'ajoute un aspect plus sémantique. Je vous dis "il ne va pas pleuvoir", vous ne prenez pas votre parapluie, et il se met à pleuvoir. Je vous suis redevable. Mais je peux aussi me défendre : "ce n'est pas de la pluie, c'est juste quelques gouttes". Si vous avez un bon manteau, vous acquiescerez, mais si vous avez un costume très cher qui ne résiste pas à la moindre goutte d'eau, vous direz probablement "moi j'appelle ça de la pluie". Ainsi, non seulement l'évaluation des possibilités, mais aussi celle des conditions de vérité des énoncés, leur signification même, varie en fonction de nos valeurs.
Il n'est pas toujours évident de savoir où interviennent les valeurs, si c'est au niveau épistémique ou sémantique. Si Jean crois que l'immigration cause l'insécurité, est-ce parce qu'il entend "immigration" en un sens bien précis (qui exclut les immigrés issus de pays riche, et les "blancs" en general) et "insécurité" en un sens très large (qui inclut de vagues sentiments d'inquiétude à la vue d'une personne racisée) ? Sans doute. Est-ce que si l'on se mettait systématiquement d'accord sur le sens des mots (à partir de quand on peut considérer qu'il pleut) nos valeurs n'interviendraient plus du tout dans nos affirmations, et nous serions parfaitement objectifs ? Je n'en suis pas certain. On peut prendre des exemples de type tout ou rien, sans modulation sémantique, pour s'en convaincre : "Crois-tu que Marie sera à la soirée ?" Si c'est pour savoir si je dois prendre le livre que je lui ai emprunté, "oui je crois que Marie sera là, prend le", mais si il faut faire 50km pour récupérer ce livre, "non ce n'est pas sûr que Marie soit là, ne t'embête pas". Ici nos valeurs (la pénibilité de parcourir 50km, peut-être renforcée si l'on est écologiste) influencent non pas le sens de l'affirmation "Marie sera là", qui reste parfaitement non ambigu, mais uniquement le fait même d'accepter cette affirmation.
Une alternative bayésienne ?
La notion de risque épistémique semble indiquer que ce qu'on croit dépend du contexte, et notamment de nos intérêts et des décisions impliquées par nos croyances, autrement dit, qu'il est illusoire de distinguer strictement croyances et valeurs. Cependant quelqu'un pourra invoquer, en réponse, une distinction entre croire et accepter.
Ainsi dans l'exemple de la pluie ci-dessus j'aurais un degré de crédence de 30% envers le fait qu'il va pleuvoir, mais mon acceptance concernerait le fait d'agir sur la base de cette croyance, et ceci (mais non la croyance) dépendrait du contexte et des valeurs et intérêts. On pourrait représenter l'acceptance comme un seuil de crédence à partir duquel cela "vaut le coup" d'agir sur la base d'une croyance (inférieur à 30% si le parapluie est léger, supérieur si le parapluie est encombrant). Si mon degré de crédence dépasse le seuil, j'accepte d'agir sur la base de la croyance. Selon cette théorie, généralement, quand nous affirmons des choses, nous exprimons une acceptation, mais il y aurait en fait un autre état mental "caché", le degré de crédence, indépendant de nos valeurs, qui, combiné au contexte (au seuil de crédence pertinent suivant nos valeurs), expliquerait nos affirmations.
Cette théorie (basée sur la bayésianisme et la théorie de la décision, et sans doute assez consensuelle en philosophie) a l'avantage d'être assez élégante sur le plan formel. Mais ça reste une théorie. En pratique, nous n'avons pas vraiment accès à de tels degrés de crédence indépendants du contexte, et quand on nous demande d'en fournir un en nous "mettant un pistolet sur la tempe", on peut soupçonner que le contexte, le risque d'erreur et les valeurs influencent en fait notre réponse.
Mais le bayésien pourra adopter une stratégie de repli : ok, notre cerveau ne fonctionne pas forcément ainsi, mais idéalement, il devrait, et en particulier dans le cas de la science, il est essentiel de distinguer croyance et acceptation, c'est à dire de distinguer les rôles respectifs des valeurs et des données empiriques dans l'acceptation des hypothèses.
Si ce n'était pas le cas, on pourrait accepter tout et n'importe quoi, nous dira le bayésien. Les régimes totalitaires sont bien connus pour avoir tenté d'instrumentaliser la science. Or s'il n'y a pas de différence entre croire et accepter, on pourrait affirmer que du point de vue des nazis, la thèse d'infériorité de telle race humain (qui présuppose son existence) était parfaitement acceptable sur la plan rationnel, parce que le risque courru en cas d'erreur était (du point de vue des nazi) négligeable. Ou encore, pour prendre un exemple moins dramatique, mais plus pertinent dans le contexte actuel, il pourrait être acceptable pour un laboratoire pharmaceutique d'affirmer que tel médicament est efficace alors que les preuves sont très faibles, suivant un principe de "précaution économique", puisque affirmer qu'il ne l'est pas alors qu'il l'est reviendrait à perdre beaucoup d'argent. C'est certes immoral, mais ce ne serait pas épistémologiquement problématique, tout comme il n'est pas forcément irrationnel d'accepter qu'il va pleuvoir, et donc de prendre un parapluie "par précaution" si je n'ai pas de manteau, alors que le ciel est plutôt clair.
Ceci, nous dira le bayésien, est contre-intuitif : il semble plus correct de dire que la science nazi ou celle de ce laboratoire est de la mauvaise science, et pas seulement sur le plan moral, parce que leurs affirmations ne sont pas appuyées par des données. Ou, pour prendre un cas qui serait moralement vertueux, on peut décider de ne pas construire une centrale nucléaire par principe de précaution parce qu'il existe un risque peut-être faible, mais inconnu, d'accident extrêmement grave. Si l'on ne distinguait pas acceptation et croyance, cela voudrait dire que l'on croit que l'accident se produira nécessairement, uniquement parce qu'il serait grave. Or ce n'est pas le cas. Il faut faire la part des choses.
Selon cette manière de voir, la science ne devrait pas nous dire quelles hypothèses considérer comme vraies pour l'action, mais seulement nous fournir des degrés de crédence, et ce serait le rôle du politique (par exemple) que de fixer un seuil de crédence acceptable pour la décision en prenant en compte les risques d'erreurs et le contexte social.
Un autre problème est que si croyance et acceptation étaient identiques, on pourrait, dans certaines situations, à la fois croire et ne pas croire quelque chose. Imaginez que mon parapluie soit très encombrant et que j'aie déjà un manteau étanche. Je pourrais alors agir sur la base de la croyance "il ne va pas pleuvoir", car prendre le parapluie est coûteux pour peu de bénéfice. Cependant cela ne me coûte pas grand chose de fermer les fenêtres "au cas où il pleuve quand même", et alors, j'agis sur la base de la croyance "il va pleuvoir". Si croire, c'est la même chose qu'accepter, je me retrouve dans la situation bizarre où je crois, et ne crois pas, qu'il va pleuvoir au même moment, mais à propos de deux actions distinctes.
On devrait plutôt dire dans ces cas là que :
- soit je crois qu'il ne va pas pleuvoir, mais je ferme les fenêtres parce que "on sait jamais",
- soit que je crois qu'il va pleuvoir, mais je ne prends pas le parapluie parce que "tant pis s'il pleut".
Donc il faudrait distinguer acceptation et croyance, au moins dans le contexte exigeant de la science, mais peut-être aussi dans des cas plus mondains. Ce qui ouvre la voie à l'idée que les croyances sont neutres sur le plan des valeurs, et que seule l'acceptation pour la décision est affectée par le contexte.
Mauvaise science ou non-science ?
Tout ceci peut paraître convainquant, et je pense qu'il y a là un fond de vérité (nous y reviendrons). Reste qu'on prend généralement la peine d'évaluer nos croyances quand c'est pertinent, c'est à dire si l'on pense que la croyance peut servir de base à l'action au moins indirectement. De même en science, il n'y a pas d'affirmations hors sol : publier un article scientifique, c'est faire un acte analogue à une affirmation qui peut avoir des conséquences, en l'occurrence, qui peut impliquer que cet article servira de base à l'action, et donc, cela engage une responsabilité qui dépend de valeurs sociales (du type d'action que le résultat est susceptible d'engendrer). Quand une évaluation statistique d'une hypothèse est disponible (ce qui n'est pas toujours le cas), les scientifiques ne se contentent pas de nous fournir des p-value : ils intègrent aussi dans leurs articles des seuils pour déterminer si l'hypothèse est acceptable ou non.
Mais surtout, je pense que l'analyse bayésienne du cas de la science nazi présenté plus haut n'est pas entièrement juste. Ou plutôt elle l'est dans le cas où les nazis (ou le laboratoire pharmaceutique) resteraient opaques sur leurs valeurs, et prétenderaient avoir montré que telle race est inférieure (j'imagine que c'était le cas mais je n'ai pas vérifié). Mais alors le tort épistémique ne tient pas au fait de prendre en compte les valeurs en soi, seulement au manque de transparence, et à quelque chose qui s'apparente assez directement à de la fraude.
Imaginons que les nazis publient des articles scientifiques du type "notre hypothèse n'est pas du tout confirmée parce que notre échantillon est trop petit pour conclure quoi que ce soit, cependant par 'précaution idéologique', on pense qu'il faut l'accepter comme vraie". S'agirait-il de mauvaise science ? Pas vraiment, il s'agit plutôt de non-science. La conclusion qu'il faudrait en tirer est que les nazi se fichent, en fait, de savoir si l'hypothèse de l'infériorité de telle race est plausible (ou que le laboratoire pharmaceutique se fiche de savoir si le médicament est efficace). Tout ce qu'ils veulent, c'est persécuter un certain groupe de gens bien identifiés socialement (vendre leur médicament). Tout comme je me fiche de savoir s'il est vraiment plausible qu'il pleuve si mon costume ne résiste pas à l'eau : je prends mon parapluie de toute façon.
Cette analyse nous demande de réévaluer légèrement la manière dont on a présenté le risque épistémique. Agir sur la base d'une hypothèse, ce n'est pas forcément la croire : ce peut être seulement la croire possible. Or la gravité d'une erreur (donc nos valeurs) peuvent nous pousser à croire qu'une chose est possible. Dans le cas de la centrale nucléaire, la gravité d'un accident nous pousse à le considérer comme possible. Écarter cette possibilité pourrait être considéré comme une faute. Ceci permet de rendre compte également du cas de la "double croyance" : je ferme ma fenêtre parce que je crois possible qu'il pleuve, mais en fait je ne crois pas qu'il va pleuvoir, donc je ne prend pas mon parapluie (il reste toujours une tension, qui est qu'on peut croire à la fois que p est qu'il est possible que non-p, ce qu'on pourrait qualifier de position faillibiliste).
Qu'est-ce que tout cela implique ? Simplement que prendre en compte les valeurs sociales n'est pas un problème en science sur le plan épistémologique tant que l'on est parfaitement transparent sur ces valeurs (ce qui n'a rien d'évident !). Ces valeurs ont une fonction "de second ordre" : elles impliquent de s'intéresser ou non à un sujet. Les nazis de notre exemple imaginaire (moralement condamnables mais épistémologiquement vertueux, car parfaitement transparents, je ne prétends pas que ce fut le cas des vrais !) ont simplement décidé de ne pas s'intéresser au sujet, donc de ne pas faire de science. S'ils avaient eu d'autres valeurs impliquant de s'intéresser plus sérieusement au sujet, ils auraient fait de la science. Le bayésien a raison de dire qu'on ne peut considérer leurs résultats comme scientifique, mais il aurait tort de considérer qu'une interférence de valeurs est problématique en soi.
On peut supposer que ceci s'applique aussi à la science d'aujourd'hui : peut-être que parfois certaines hypothèses sont écartées par les scientifiques parce qu'ils jugent que le risque qui est pris en les écartant est faible, ou que le risque qu'on prendrait en rejetant les hypothèses concurrentes serait trop fort (et il n'est pas certain que les valeurs impliquées dans ces jugements soient toujours explicites : c'est vraiment là que peut se situer le problème).
En cas de désaccord apparemment factuel lors de discussions politiques, quand une fausseté est énoncée à la légère, il pourrait être parfois utile, plutôt que d'asséner simplement des chiffres pour convaincre, de rappeler aussi à notre interlocuteur que cette question factuelle nous importe vraiment (et pourquoi), et qu'on ne peut donc se contenter de preuves à la légère comme il ou elle le fait : si la question factuelle importe finalement peu pour notre interlocuteur (peut-être parce qu'il pense qu'il serait très risqué de rejeter sa fausseté à tort), il y a peu de chance que quelques données empiriques le convainquent, mais questionner ses valeurs peut avoir un effet. Les désaccords apparemment factuels peuvent cacher des désaccords sur le plan des valeurs.
On entend souvent dire qu'un certain désintérêt ou détachement est nécessaire à la bonne science. Mais notre conclusion ici est que paradoxalement, faire de la bonne science nécessite au contraire de montrer un véritable intérêt pour le sujet qu'on étudie (une manière moins paradoxale de dire les choses est que pour faire de la bonne science, il ne faut pas prendre à la légère le risque d'erreur, ni dans un sens, ni dans l'autre : le rôle des valeurs est bien "de second ordre").
En quel sens se détache-t-on des valeurs ?
Ainsi, l'exemple de la science nazi n'est pas suffisant pour affirmer qu'il y aurait des "degrés de crédence cachés" qui expliqueraient ou devraient intervenir dans la décision. Il est insuffisant pour distinguer croyance et acceptation. Donc ce n'est pas un problème si la science évalue ses hypothèses en prenant en compte des valeurs pour estimer le niveau de preuve requis, pour peu qu'elle reste transparente.
Soyons clair, tout ceci n'est pas forcément fatal pour le modèle bayésien qui a d'autres choses à faire valoir. Mais on pourrait lui opposer un autre modèle qui serait celui-ci : nos valeurs nous font considérer certains états de fait ou hypothèses comme possibles. Les données empiriques nous amènent parfois à éliminer certaines possibilités, mais ces possibilités résistent d'autant plus à être éliminées qu'elles sont chargées de valeurs et impliquent des actions différentes (en un sens négatif ou positif : si j'ai vraiment envie de trouver de l'or dans mon jardin, je continuerai à fouiller même si les données ne sont pas favorables parce-que "le jeu en vaut la chandelle"). C'est en général un fonctionnement rationnel en termes de gestion du risque. Ce modèle implique que nos croyances (ce qu'on considère possible) dépend du contexte.
Mais il faut tout de même conceder quelque-chose. En général, si nos valeurs nous permettent de prendre une décision sans tenir compte de faits empiriques (je prend un parapluie car mon costume coûte très cher), on ne peut affirmer agir sur la base d'une croyance ferme. On agit plutôt sur la base d'une possibilité. Ce n'est que quand les valeurs sont conflictuelles, quand il y a du positif et du négatif quelle que soit la réalité, mais que ça implique des décisions différentes, qu'il devient vraiment intéressant de mener une enquête empirique pour fixer une croyance. En ce sens, disposer de valeurs univoques qui impliquent d'agir de telle manière indépendamment des faits peut aller à l'encontre de la bonne marche de la science, principalement en éliminant l'intérêt d'une enquête empirique, mais adopter une approche plus pluraliste (non pas une absence de valeur, mais au contraire une certaine ouverture à plusieurs valeurs, ou encore une tolérance envers les systèmes de valeur alternatifs et un fonctionnement inclusif) au contraire stimule la recherche. Ainsi on retrouve cette intuition qu'un contexte trop rigide sur le plan des valeurs, par exemple un régime totalitaire, n'est pas favorable à la science.Par ailleurs, si à l'issue d'une enquête les données empiriques excluent catégoriquement certaines possibilités, les valeurs qu'on associe à ces possibilités deviennent non pertinentes pour la décision. Si le ciel est entièrement bleu, peu importe que je déteste être mouillé ou que je tienne beaucoup à ce costume : je crois qu'il ne va pas pleuvoir. Si je vous pose la question, vous pouvez me répondre "non il ne va pas pleuvoir" sans savoir pourquoi je le demande, sans éléments de contexte, si c'est évident qu'il va faire beau. Autrement dit, si le niveau de preuve est suffisamment élevé, il est vrai que ma croyance ne dépend plus réellement de mes valeurs et qu'elle acquière une forme d'objectivité, puisqu'elle devient virtuellement acceptable quelles que soient les valeurs, au sens où il faudrait un contexte très particulier associé à un niveau d'exigence extrêmement élevé pour me faire hésiter à agir sur sa base. C'est une manière de comprendre la locution "les faits se fichent de ce que vous pensez" qu'on entend parfois : s'il est évident qu'il pleut, peu importe que je préfère le soleil. Mais pour autant ma croyance n'est pas "hors sol", elle garde sa fonction principale, qui est de servir de base à l'action motivée, et donc je l'entretiens parce que j'ai certaines valeurs.
En somme on peut dire qu'il y a du vrai dans l'idée que la croyance robuste s'accompagne d'un détachement vis-à-vis des valeurs. Il s'agit juste de ne pas confondre "acceptable quelles que soient les valeurs" et "acceptable en l'absence de toutes valeurs". C'est bien la première locution, et non la seconde, qui caractérise l'objectivité comme horizon.
Commentaires