jeudi 22 novembre 2018

Pistolets sur la tempe et degrés de crédence

SigP220-pistol

et Monsieur Phi publient des vidéos youtube super intéressantes sur plein de sujets (l’intelligence artificielle, la morale, le réalisme sémantique) ainsi que de longues discussions (sur la chaîne Axiome). Autant je trouve leur vidéos passionnantes, autant je suis parfois en desaccord avec eux non forcément sur ce qu’ils disent, mais sur le cadre de discussion même qu’ils adoptent, et je voudrais essayer de mettre le doigt sur ce desaccord philosophiques, en espérant initier une discussion (mais comme je suis “old school”, ce sera par blog plutôt qu’en vidéo).

Ce n’est pas toujours facile d’exprimer exactement ce qui me gène, mais un bon point de départ est l’idée que l’on peut attribuer des degrés de crédence à n’importe quelle croyance (la consistance de l’arithmétique de Peano, le réalisme moral, …) (ceci dit Lê ne semble pas y adhérer totalement, puisqu’il affirme dans le dernier axiome (au cours du débat sur le réalisme moral) que ça ne peut être applicable qu’aux croyances qui prédisent des données observables).

Souvent ils utilisent dans leur discussion une petite expérience de pensée pour déterminer ces degrés de crédence : “imagine qu’on te mette un pistolet sur la tempe, que parierais-tu ?”. Une manière d'éliminer artificiellement la possibilité de suspendre son jugement.

A chaque fois qu’ils invoquent cette histoire de pistolet sur la tempe, je décroche, d’autant plus vite que le pari en question concerne une idée philosophique abstraite. Je vais essayer d’expliquer pourquoi.

Je souhaite traiter de trois problèmes à propos de cette idée :

  • L’expérience de pensée, en soi, ne montre pas qu’on a des croyances et degrés de crédences
  • L’idée suppose au départ que les questions (ou les croyances en général) ont une signification de manière absolue (réalisme sémantique) or ce n’est pas du tout évident
  • Elle suppose ensuite que l’adoption de croyances prenne la forme de degrés de crédence précis, or ça n’a rien d’évident non plus

1) Le pistolet sur la tempe ne montre rien

Remarquons d’abord que l’expérience de pensée en elle-même ne montre pas grand chose (je ne pense pas que Lê et Monsieur Phi l’utilisent comme un véritable argument donc ils peuvent être d’accord avec moi sur ce point).

Elle nous amène simplement à considérer que dans cette situation hypothétique, on répondrait forcément quelque chose, du moins si l’on ne veut pas mourir. Mais d’une part ce n’est pas certain (on pourrait être frappé de stupeur et devenir muet), en ensuite, surtout, ce n’est pas parce qu’on répondrait quelque chose que l’on répondrait ce que l’on croit, et qu’il y ait vraiment quelque chose que l’on croit de bien défini avant que la question ne soit posée.

J’ai l’impression que si on me posait une question sur la consistance de l’arithmétique de Peano, je répondrais au hasard non pas parce que j’ai une croyance de exactement 0,5, mais simplement parce que je n’ai pas de croyance, je ne suis pas même certain que la question ait un sens de manière absolue et qu’elle ait une réponse (elle est indémontrable et je suis anti-réaliste à propos des entités abstraites comme les nombres donc bon...). En fait je chercherais plutôt à satisfaire mon interlocuteur qu’à exprimer ce que je crois vraiment. Et si je "flippe", c'est parce que j'ai peur que mon interlocuteur ne soit pas satisfait par la réponse.

(Edit: si on me pose une question sur quelque chose de plus tangible, par exemple l'issue d'un match de tennis (commme le propose Monsieur Phi dans les commentaires de ce post) évidemment la situation implique que je vais essayer de répondre ce qui correspondra vraiment à l'issue du match. Pour autant est-ce que ça indique que j'avais au préalable une croyance concernant ce match, une préférence épistémique ? Je ne pense pas : ça me demande simplement de faire une estimation à la volée, en panique, et je vais faire ce que je peux mais le résultat de mon estimation n'a pas forcément de pertinence épistémologique. Il est très possible que le hasard intervienne plutôt que seulement mais croyances, que la situation affecte la manière dont je vais faire mon évaluation, etc. : en fait c'est une question de psychologie cognitive que de savoir ce qui va sortir comme réponse. Mais l'expérience en elle-même ne montre pas que ce qui va sortir est rationnellement pertinent et correspond à des degrés de crédence préalables. En tout cas c'est encore plus problématique quand il n'existe pas vraiment de moyen aussi clair de vérifier le pari).

Ce que je veux dire c’est qu’il peut y avoir plein de raisons de répondre une chose ou l’autre dans ces circonstances, et que le fait d’entretenir des croyances précises n’est pas la seule envisageable. Ce n'est pas parce qu'on est forcé à répondre qu'on a cessé de suspendre notre jugement.

On pourrait me rétorquer : tu fais des remarques purement psychologiques, ce n’est pas pertinent, imagine que tu sois motivé à répondre ce que tu crois vraiment, alors que répondrais-tu ? Mais pour moi la psychologie a toute sa pertinence puisque les croyances sont d’abord des objets de la psychologie, en particulier des objets sensés expliquer notre comportement, et la façon dont on répond aux questions.

Donc ces remarques ont toute leur pertinence : je ne suis pas du tout convaincu que la notion de croyance, qui prendrait la forme d’une proposition dotée de signification absolue associée à un degré de crédence, soit une entité psychologiquement pertinente pour expliquer nos comportement, surtout s’il s’agit d’attribuer des croyances à propos de n’importe quel sujet, comme la consistance de l’arithmétique (bien sûr je pense que la notion de croyance en général est pertinente pour expliquer nos comportements, ce dont je doute, c’est qu’elle puisse être ainsi étendue à toute question et hors de tout contexte : je reviens la dessus dans ce qui suit).

2) les questions ont-elles un sens ?

Un autre problème est que tout ceci suppose que les questions et réponses possibles qu’on poserait dans une telle situation ont une signification bien déterminée et une valeur de vérité fixe.

C’est ce qu’on appelle le réalisme sémantique. Monsieur Phi a fait une vidéo la dessus récemment. Il y a fait la part belle au réalisme, mais c’est un sujet qui fait encore débat en philosophie.

Pour ma part, j’ai de fortes inclinaisons pragmatistes plutôt que réalistes, pragmatistes au sens d’associer la vérité à une utilité idéale (ce qu’on croirait au terme d’une enquête idéalement bien menée) plutôt qu’à une correspondance à la réalité, c’est à dire d’inverser l’ordre de priorité entre vérité et croyance (définir la vérité à partir de la croyance plutôt que l’inverse). (pour ceux qui connaissent un peu l'épistémologie, une de mes raisons est que les problèmes type Gettier sont selon moi insolubles)

Je ne vais pas m’étendre la dessus, parce que la philosophie du langage peut devenir assez vite technique, mais quelques remarques : il est généralement accepté, en philosophie du langage, que le contexte affecte la signification des énoncés (“tout le monde dort” dépend du contexte : on ne veut pas dire littéralement tout le monde). On parle souvent de signification en termes de conditions de vérité. Il existe des débats pour savoir en quelle mesure le contexte agit sur la signification effective :

  • soit il existe une signification conventionnelle (des conditions de vérité par défaut associées aux phrases) qui est altérée par le contexte pour donner la signification effective
  • soit la signification conventionnelle n’est en fait qu’un potentiel de signification mais seuls les énoncés particuliers, en contexte, ont des conditions de vérité

Je penche personnellement pour la seconde option. Et je penche même pour l’idée qu’il n’existe pas vraiment de propositions, c’est à dire d'entités abstraites porteuses de signification absolue, hors contexte. Ceci a l’avantage d’éviter d’être réaliste envers ces entités abstraites que sont les propositions, au même titre que je ne pense pas que les nombres existent vraiment. Tout ce qui existe hors contexte, ce sont éventuellement des potentiels de signification associés aux usages conventionnels des mots. Mais les significations effectives devraient pouvoir s’analyser ultimement en termes de croyances particulières, et ces croyances en termes de dispositions à agir ou de guides pour l’action, et non en termes de correspondance au monde. (de même pour reprendre l'exemple de la vidéo de Monsieur Phi, je pense qu'une bonne carte doit être jugée à la manière dont elle permet de naviguer efficacement dans un certain contexte d'utilisation, non en termes de correspondance au monde, ce qui évite d'avoir à imaginer qu'il existe dans le monde de véritables propriétés naturelles comme "être une station de métro" qui ne dépendraient pas fondamentalement d'un certain usage).

S'il n'y a de signification qu'en contexte, est-ce que les conversations abstraites sont inintelligibles ? Non : simplement, quand nous entretenons des discussions abstraites, nous nous mettons d’accord sur la meilleure façon d’organiser nos concepts. Ce sont toujours des guides pour l’action, mais de manière plus générale, plus indirecte et indépendante de contextes particuliers. Discuter du réalisme moral, c’est discuter de la meilleure façon de parler du bien et du mal (la plus cohérente, efficace, tenant compte de l’usage conventionnel des mots). Et en ce moment je suis en train d'essayer de vous convaincre d'adopter ce qui est, selon moi, la meilleure façon de parler de croyances et de vérité.

C’est en gros ce en quoi consiste une approche pragmatiste, quand le réaliste affirmera que les propositions ont des conditions de vérité de manière absolue, hors contexte, qui tient à leur correspondance à la réalité.

Si vous comprenez mon approche, vous devinez que j’aurais tendance à résister à l’idée qu’on puisse attribuer une valeur de vérité ou des degrés de crédence à des choses comme la consistance de l’arithmétique de Peano ou le réalisme moral. Si l’on me met un pistolet sur la tempe et qu’on me demande ce qui est vrai, ma seule façon de comprendre cette question est : laquelle de ces croyances est la plus efficace dans le contexte présent ? Laquelle devrais-tu employer comme guide pour l’action ? Et si la question porte sur l’arithmétique de Peano, ma réponse sera : aucune croyance à ce sujet n’a de pertinence dans ce contexte ! Donc je répondrais : ni l’une ni l’autre. Et si cette réponse n’est pas acceptable, alors je répondrais au hasard, convaincu que mon interlocuteur se méprend sur la signification de sa propre question. (Edit: à la limite, je pourrais répondre que l'arithmétique est consistante parce qu'elle est utile (pour nous) et qu'on doit supposer sa consistance pour l'utiliser, et qu'il n'y a pas de valeurs objectives parce que cette idée introduit un fossé entre le bien et la motivation à faire le bien, et donc est inutile (pour nous), mais en tout cas il ne s'agit pas de correspondance absolue à la réalité).

On voit que l’expérience de pensée du pistolet sur la tempe présuppose qu’il y a une “bonne” réponse, et que les raisons de "flipper" quand on répond ont à voir avec la vérité, mais en fait, ça n’a rien d’évident, au moins quand les critères qui permettront de savoir qui a gagné le pari ne sont pas clairement spécifiés d'un commun accord.

(Pour cette raison j’étais assez en accord avec l’idée de Lê que l’attribution de probabilités n’a de sens que dans le cadre de Solmonoff, c'est-à-dire pour les croyances prédictives).

3) Les croyances ont-elles des degrés de crédence ?

Ceci dit, même pour les choses plus concrètes que je crois fermement, comme le fait que Bruxelles est la capitale de la Belgique, j’ai tendance à trouver absurde l’idée qu’on pourrait leur associer un degré de crédence, un nombre parfaitement défini entre 0 et 1. J’ai l’impression que n’importe quel nombre choisi sera plus ou moins arbitraitre (pourquoi 0,9965 plutôt que 0,9964 ?). C'est d'ailleurs une des principales raisons pour lesquelles je décroche quand Lê et Monsieur Phi évoquent l'expérience de pensée et s'amusent à estimer des degrés de crédence. Je pense qu'il n’y a pas vraiment de degré de crédence associé à cette croyance que Bruxelles est la capitale de la Belgique.

Ou plutôt si : dans la plupart des contextes, ce degré de crédence est exactement de 1. Non pas 0,9999… mais bien 1 : Bruxelles est la capitale de la Belgique, c'est indéniable. Il existe un certain nombre de contextes dans lesquels ce degrés de crédence passerait à exactement 0. Mais ces contextes sont très rares.

En fait ma façon de voir l’adoption des croyances est plutôt en mode tout ou rien : nous adoptons certaines idées comme guide pour l’action (c’est ce que nous appelons les croire) et d’autres non. Ca peut dépendre du contexte, et ça vaut y compris pour les énoncés abstraits. J’adopte l’idée que l’arithmétique de Peano est consistante quand je fais de l’arithmétique, mais pas forcément si je fais des méta-mathématiques.

Un avantage de cette façon de voir les choses est qu'elle rend la suspension de jugement parfaitement intelligible (je pense qu'il y a une différence entre suspendre son jugement et attribuer une probabilité de 0,5 à un énoncé). Si j’adopte une croyance, je n’adopte pas sa négation en même temps, mais je peux n’adopter ni l’une ni l’autre. Par exemple je ne crois pas qu’il y avait plus de 300 cheveux sur la tête de Platon à sa naissance, mais je ne crois pas l’inverse non plus, et si on me pose la question, je suis embêté pour répondre : je peux décider d’une adoption à la volée, mais ce choix sera plus ou moins aléatoire, ça ne reflète certainement pas une croyance préalable. Ou tout au plus une croyance sur le nombre de cheveux sur la tête des bébés en général.

Ce qui est vrai, cependant, c’est que certaines de mes croyances sont plus ou moins révisables. Mais encore une fois, je ne vois pas de raison de leur attribuer un “degré de révisabilitée” : il me semble plus correcte de penser qu’il existe plus ou moins d’expériences qui m’amèneraient à les réviser. Par exemple, il en faudrait beaucoup pour me convaincre que Bruxelles n’est pas la capitale de la Belgique (il faudrait d’abord me convaincre qu’on m’a trompé depuis toujours, ou qu’il vient d’y avoir un coup d’état, qu’une telle chose est possible en Belgique aujourd’hui). Il faudrait réviser beaucoup de croyances avant de pouvoir réviser celle-ci. Mais ce ne serait pas très difficile de me convaincre que Platon était plutôt chevelu.

Il y a donc un sens à dire qu’une croyance est plus ou moins ancrée, parce qu’il faut revoir une plus ou moins grosse partie de mon schème conceptuel pour la déloger. Il existe aussi des cas ou l’on est prêt à envisager que l’on se trompe : on imagine de futurs contextes qui nous ferons déloger une idée (et peut-être que notre schème conceptuel peut osciller entre plusieurs états au fil de notre imagination). Mais si certaines croyances sont plus faciles à déloger, ça ne justifie pas d’attribuer à toutes mes croyances un nombre entre 0 et 1 (pour le faire il faudrait disposer de quelque chose comme une mesure sur les contextes possibles, de manière à évaluer la probabilité qu'une croyance soit révisée, et je doute qu'on dispose de telles mesures en toute généralité).

En somme, je pense qu'il est plus pertinent de parler de coût épistémique associé à la révision d'une croyance que de degré de crédence, parce que ceux-ci ne sont en général pas évaluables. La notion de coût épistémique est qualitative, et plus fine parce qu'elle n'est pas unidimensionnelle. Certaines choses me feraient réviser certaines croyances et pas d'autres.

Mais il y a bien des probabilités ?

Certes, il y a bien des probabilités, et elles sont très utiles en science et parfois dans la vie courante. Mais à mon sens le seul cadre dans lequel il y a du sens à attribuer de manière fiable des probabilités à des énoncés, c’est quand on dispose d'un cadre précis pour évaluer les options et qu'on peut appliquer quelque chose comme un principe d’indifférence (c'est à dire, en l'occurrence, avoir une mesure sur les contextes possibles ! mais dans un cadre limité).

Par exemple, si l’on jette un dé à 6 faces, on peut dire~: il y a une chance sur 6 pour qu’il tombe sur 3. Ou encore, dans un contexte scientifique, si une théorie fait des prédictions probabilistes. Cependant ça ne fonctionne que parce que l'on refuse d'envisager un certain nombre de possibilités non quantifiable : qu'une bombe explose au moment où on allait jeter le dé ou qu'un appareil soit mal branché dans l'expérience par exemple. Ca ne fonctionne que parce qu'on tient un certain contexte pour fixe, pragmatiquement, comme pré-requis pour que l'énoncé ait un sens. C'est ce contexte qui fixe la manière dont on va évaluer les résultats d'un "pari".

Est-ce que ça veut dire que, au moins dans ce cadre fixe, j’ai un degré de crédence de 1/6 envers la proposition “le dé va tomber sur 3” ? Pas vraiment je pense (mais je serai peut-être prêt à réviser ma façon de voir les choses sur ce point) : je dirais que je n’entretiens aucune croyance envers le nombre qui va appararaître. Rien qui ne puisse servir de guide à mes actions. Ceci dit, j’entretiens bien une croyance à propos de la proposition “il y a une chance sur 6 que le dé tombe sur 3”, et cette croyance peut me servir de guide pour parier par exemple. Je peux également utiliser la formule de Bayes, tant que je suis capable d’attribuer des probabilités a priori aux hypothèses de manière objective dans un tel cadre bien défini, sur la base d’un principe d’indifférence par exemple.

Mais si j’entretiens cette croyance probabiliste, c’est uniquement parce que le cadre est correctement défini, pragmatiquement tenu pour fixe, et que je peux appliquer un principe d’indifférence pour déterminer des priors. Ce ne sont jamais des probabilités absolues : le lanceur de dé peut aussi avoir une crise cardiaque (on pourrait rétorquer que j'attribue une probabilité absolue à un conditionnel : si le contexte est le bon, alors... Mais j'aurais peine à lister les conditions).

(Edit: suite à une discussion avec Lê, j'imagine qu'on peut parfois aussi évaluer des ordres de grandeur de probabilités pour des hypothèses moins bien définies, mais qui pourraient l'être en principe, et que ça peut être utile mais les mêmes remarques s'appliquent)

Si maintenant on me demande la probabilité que l’arithmétique de Peano soit consistante ou que le réalisme moral soit vrai, il n'existe aucun cadre pour attribuer des probabilités et je peux sans peine répondre que je n’entretiens aucune croyance à ce sujet, qu'il s'agit plutôt pour moi de cadres à adopter et à évaluer en termes d'utilité pratique que de vérités ou de faussetés. Si l'on me demande si Platon avait plus ou moins de 300 cheveux sur sa tête à sa naissance, je dirais (faute de m'y connaître en cheveux de bébés) que je n'entretiens aucune des deux croyances, et si l’on me met un pistolet sur la tempe, je répondrais bien quelque chose, certes, au hasard sans doute, j'imagine que mon schème conceptuel va se mettre à osciller entre ces deux possibilités et que sous le coup d'une impulsion, l'une des deux va s'exprimer, mais au fond, ça n’a aucun rapport avec les croyances que j’entretiens. J’ai peut-être certaines dispositions préalables à répondre par “oui” ou par “non” à cette question si l’on me met un pistolet sur la tempe (les oscillations passeront plus de temps dans l'une des deux options ?). Mais le rapport entre ces dispositions et mes croyances n’est pas direct, puisqu'en l'occurrence je n'ai aucune croyance sur la chevelure de Platon, et ces dispositions n'ont pas à voir avec d'hypothétiques degrés de crédence : il s'agit simplement de la dynamique de mon schème conceptuelle en situation extrême.

Conclusion

Voilà en somme pourquoi certains passages des discussions qu’entretiennent Monsieur Phi et Lê, pour intéressantes que soient ces discussions dans leur ensemble, m’échappent quelque peu. Je comprend bien que leur approche est beaucoup plus réaliste que la mienne (en tout cas pour Monsieur Phi) et je n’ai pas de mal à suivre leur conversation, mais par moment les bases mêmes de la discussion me semblent caduques.

Je serai curieux de savoir ce qu’ils pensent de tout ça et s'ils ont de bons arguments contre ce type d'approche pragmatiste, de bonnes raisons pour moi de déloger ce cadre. Je serai prêt à parier (sans trop flipper) qu’ils ne sont pas entièrement d’accord avec cette façon de voir les choses, peut-être même pas du tout : je veux dire par là que ces croyances font partie de celles que j'entretiens en ce moment même...

dimanche 11 novembre 2018

Faut-il être libre pour connaître les lois de la nature ?

Je souhaite aujourd’hui croiser deux vieux débats : celui sur le libre arbitre, et sa compatibilité avec le déterminisme, et celui sur la connaissance modale.

Le premier est peut-être plus familier à un certain nombre de lecteurs. Il s’agit de savoir si la notion de liberté humaine, si centrale dans nos vies (impliquée par exemple dans la notion de responsabilité morale, donc indispensable à toute conception éthique), est compatible avec l’idée que nous sommes déterminés par des lois. A-t-on besoin de penser qu’on « aurait pu faire autrement », en un sens littéral, pour penser la liberté ? Ou, comme le veulent les compatibilistes, est-il suffisant que nous soyons la source causale de nos actions (quand bien même les rapports causaux seraient déterminés) ?

Le second débat concerne l’existence d’une nécessité dans la nature, justement impliquée dans la notion de « détermination par des lois » : certaines choses seraient possibles ou impossibles, parce que permises ou interdites par les lois de la nature. Mais plus précisément, le débat qui m’intéresse concerne la possibilité de connaître ces lois de la nature.

Connaître les lois de la nature

C’est un vieux débat. Hume, et les empiristes en général, entretiennent un scepticisme à cet égard : aucune relation de nécessité n’est vraiment observable, nous ne constatons jamais que la conjonction constante de phénomènes successifs, alors si la connaissance est fondée sur l’observation, pourquoi croire à des relations de nécessité dans le monde ? Elles sont plutôt dans nos têtes : nous acquerrons des « habitudes de l’esprit », des attentes (le soleil se lèvera demain comme il s’est toujours levé), nous synthétisons les régularités.

Bien entendu, s’il n’existe pas vraiment de lois de nécessité, pas vraiment de possibilités ou d’impossibilités dans la nature mais seulement dans nos têtes, le débat sur le libre arbitre et le déterminisme devient caduque : aurait-on pu faire autrement ? Oui assurément, tant que c’est concevable (et ça l’est). Il faudrait, pour en douter, acquérir des « habitudes de l’esprit » tellement fortes qu’elles nous priveraient de toute délibération sur ce qu’il convient ou non de faire : nous n’aurions pas le choix. Mais seuls les esprits les plus étriqués seraient capables d’aboutir à de telles extrémités (et je doute qu’il en existe). Bien sûr la notion de possibilité dont il est question n’est plus vraiment métaphysique, mais l’empiriste pourra faire valoir que le débat métaphysique sur le libre arbitre n’a pas de sens à ses yeux, puisque la notion de possibilité dans la nature n’en a pas (ou encore que ce débat n’a pas de réponse connaissable et qu’on devrait éviter de le poser). En tous les cas, si nous ne connaissons pas ni ne connaitrons jamais de lois de la nature qui gouverneraient les phénomènes, il n'y a pas vraiment de bonne raison de s'inquiéter de leur compatibilité avec la liberté humaine.

Cependant Hume est bien trop sceptique puisque pour lui, même les régularités universelles sont inaccessibles : le soleil pourrait bien ne pas se lever demain après tout. Mais si, à l’instar du commun des mortels, nous acceptons la validité de l’induction, à savoir l’idée qu’on puisse inférer des généralités à partir de cas particuliers (même si ces inférences sont parfois faillibles), ne pourrait-on pas par la même occasion accéder à une connaissance modale, une connaissance de relations de nécessité, par induction ?

Nous voyons un cygne blanc, puis un autre, et encore un autre, et nous généralisons : tous les cygnes sont blancs. C’est l’induction. Nous lâchons un objet et il chute vers le bas, puis un autre, et encore un autre : tous les objets que nous lâchons chutent vers le bas. Et si nous allions plus loin : ne pourrait-on pas dire que tous les objets que nous pourrions lâcher chuteraient vers le bas ? Ne peut-on étendre notre induction aux possibles ?

Il ne me semble pas y avoir de raison de principe de résister à ce type d’induction. Après tout, aussi bien que l’ensemble des situations observées d’un certain type (celles qui comportent des objets qu’on lâche) sont généralement jugées représentatives de toutes les situations effectives du même type, elles pourraient être jugées représentatives de toutes les situations possibles du même type. Les situations effectivement observées sont un sous-ensemble de toutes les situations de l’univers : celles qu’on observe. Mais elles sont aussi un sous-ensemble de toutes les situations possibles : celles qui sont réalisées sous nos yeux. Alors si l’on est prêt, par induction, à généraliser à un ensemble, pourquoi ne pas généraliser à un ensemble plus grand, celui de tous les possibles ?

Quelle étendue pour les possibles ?

Mais il y a un problème à ce raisonnement qui est le suivant (et c’est là que le libre arbitre va intervenir) : pour pouvoir généraliser à un ensemble de situations plus grand, encore faut-il penser que cet ensemble existe. Or qu’est-ce qui nous prouve que les possibles existent ? Je peux affirmer que tout objet que j’aurais pu lâcher aurait chuté vers le sol. Fort bien. Mais quel est cet ensemble d’objets que j’aurais pu lâcher ? Aurais-je pu lâcher celui-ci ? Ou celui-ci ? Vers quel ensemble de possibles fonctionne mon induction ?

Si j’accepte que j’aurais pu (ou quelqu’un d’autre, peu importe) lâcher un certain nombre d’objets, mon induction ne pose pas vraiment de problème. J’accepte a priori qu’il existe un ensemble de possibilités, un ensemble bien défini, que je décris d’une certaine manière. Et puisque j’accepte leur existence, je peux m’autoriser à leur étendre, par induction, les caractéristiques que j’observe à propos des possibilités qui sont réalisées dans le monde : quand je lâche un objet, il tombe vers le bas, donc si je lâchais cet objet, il tomberait. Or je pourrais le lâcher (et ceci, je dois l’admettre a priori).

Si par contre, pour une raison ou pour une autre, je refuse de croire que j’aurais pu (ou quelqu’un d’autre, ou que ça aurait pu se produire naturellement) lâcher des objets qui, de fait, n’ont pas été lâchés, alors ces possibilités n’existent même pas et mon induction tombe à plat. En d’autres termes, tout ce que je peux montrer par induction, c’est que s’il est possible que je lâche un objet, alors il tomberait si je le lâchais, mais je ne peux pas montrer qu’il est possible que je lâche un objet : ceci, je dois le croire a priori.

Le problème est de délimiter les possibles que je dois accepter au préalable et ceux que je ne dois pas accepter, mais découvrir. Je dois croire a priori que j'aurais pu lâcher tel ou tel objet, mais je ne dois pas croire a priori qu'il aurait pu se diriger vers le haut plutôt que vers le bas : ceci doit être le résultat d'une induction. Comment combiner ces deux aspects ?

On pourrait rétorquer : que nenni, ce que tu découvres par induction, ce n’est pas, à propos des objets qu’on lâche (possiblement ou effectivement), qu’ils tombent, mais plutôt, à propos des objets en général, que quand-on-les-lâche-ils-tombent. Il n'y a pas à distinguer deux types de possibilités. Mais plutôt que de résoudre la difficulté, cette proposition anéantit tout espoir de connaissance modale puisque ce « quand-on-les-lâche-ils-tombent », observé sur un ensemble de cas particuliers, n’a rien d’une relation de nécessité : c’est plutôt, comme le voyait Hume, une conjonction constante. Et maintenant notre seul recours pour accéder à une connaissance modale est d’étendre la relation à des objets seulement possibles, dont l’existence est encore plus douteuse (qui en a jamais vu ?). Quant aux objets actuels : oui, quand-on-les-lâche-ils-tombent, mais de fait, soit on les lâche, soit on ne les lâche pas.

Le rôle de l'indéterminisme

Quelle conclusion en tirer ? La suivante, il me semble : pour qu’une connaissance modale soit possible par simple induction, il faut déjà admettre qu’il existe des possibilités d’un certain type, des alternatives aux situations actuelles. Et donc non seulement il faut croire à une forme d’indéterminisme, mais en plus que ces possibilités nous sont a priori accessibles. Une option attrayante consiste à les associer à nos actions courantes : il faut croire qu’en général, « on aurait pu agir autrement » même si l'on ignore ce qui se serait produit. Il faut croire (c’est en tout cas une option) que certaines possibilités nous sont données de première main dans l’expérience : nos possibilités d’action, quand d'autres sont objet d'une enquête empirique.

A mon avis cette option rend assez bien compte du fonctionnement de la science (les scientifiques jouent sur les paramètres, ils contrôlent les situations : l'intervention expérimentale est importante). Mais cette conclusion reste un peu problématique d’un point de vue empiriste puisqu'elle semble introduire une composante rationnaliste (une connaissance a priori). Mais il existe peut-être des façons de régler le problème. L'une serait d'accepter que ces possibilités d'action font, après tout, partie de l'expérience (ce qui est en fait un aspect des théories écologiques de la perception : l'idée que nous percevons des affordances, ou possibilités d'action).

Une autre option plus déflationniste serait qu'il suffit que certains types de situations soient observées pour qu’elles soient en effet possibles. J’ai vu des gens lâcher des objets, parfois, et parfois ne pas les lâcher : les deux sont des possibilités, et je peux bien croire que telle personne aurait pu ne pas lâcher un objet, qu’elle était libre. Si une situation identique au départ donne lieu à des résultats différents à l’arrivée, je peux croire que tous les résultats sont possibles pour une situation de ce type. Il n’y a pas vraiment de problème ! Et alors je peux connaître des lois de nécessité par induction : des contraintes sur les possibles, qui correspondent en fait exactement aux régularités que j’observe.

En somme la solution est la suivante : l’étendue des possibles m’est donnée au départ soit par mes possibilités d’action, soit simplement par la variété des situations que j’observe, et je fais des inférences sur cet ensemble de possibles.

Le problème du déterminisme

Si l'empiriste peut s'accomoder de cette difficulté, pour qui est-ce un problème ? Paradoxalement, c’en est un pour le réaliste métaphysicien qui, plus ambitieux, croit que le monde macroscopique est peu ou prou déterminé par des lois (peut-être que l’indéterminisme de la physique n’est pas pertinent à notre échelle, ou peut-être qu’il n’existe même pas). Il peut bien croire qu’il existe des lois de la nature déterministes. Mais alors il doit croire que cet objet, je n’aurais pas pu le lâcher, ni personne : c’est physiquement impossible, c’est interdit par les lois. Et alors il doit croire qu’en général, il n’est pas possible de procéder à une induction des faits observés vers ce qui est possible ou non puisque nous n’avons aucun accès à une étendue de possibles sur lesquels fonctionnerait l’induction. Il n’y a aucune raison de penser que les situations observées sont représentatives de quoi que ce soit. Il n'y a qu'un monde actuel, et une induction ne fonctionne jamais sur un exemplaire unique.

Autrement dit, le réaliste de cette sorte se retrouve obligé d’adopter une épistémologie fort implausible : peut-être que nous serions capables d’inférer des relations de nécessité par une mystérieuse intuition ? Mais comment donc ?

Si les lois sont parfaitement déterministes, il n’existe qu’un seul développement possible à notre monde, mais alors le fait que ce développement implique des régularités observables ne nous renseigne en rien sur la manière dont se développent les autres mondes possibles. Peut-être que chaque monde possible se déroule suivant des régularités complètement différentes. Comment le saurions-nous ? Mais alors le déterminisme marche sur la tête, puisque le principal argument en sa faveur est bien scientifique : c’est le fait que les lois de la physique, que nous inférons sur la base des régularités observables, sont (en fait étaient il y a plus d’un siècle) déterministes. S’il veut en déduire que le monde est déterminé par des lois, il doit aussi en déduire que ces lois n’ont rien à voir avec les régularités de la physique mais sont peut-être tout autres. Ce qu’il postule rend ce qu’il postule inconnaissable.

Voilà qui semble absurde, et qui me semble réfuter, par un argument qu’on pourrait qualifier de transcendantal, le déterminisme laplacien : l’indéterminisme fait partie des conditions de possibilité d’une connaissance modale, et puisque adopter un déterminisme requiert de croire possible la connaissance modale, il requiert de croire en sa propre contradiction. Donc il est irrationnel de croire que le monde est déterminé, tandis qu’il est rationnel de croire qu’il est métaphysiquement indéterminé : qu’il contient des possibilités que nous pouvons connaître par induction, et en particulier, de ces possibilités qu’on associe généralement à nos actions.

Dans ce cadre, le compatibilisme s’avère futile puisqu’il cherche à concilier le libre arbitre avec une thèse qu’il est simplement irrationnel d’accepter. Je pense qu'il s'agit d'une bonne raison de le rejeter : non qu'il soit insensé, mais plutôt inutilement frileux (quand à la compatibilité du contrôle, qu'on associe au libre arbitre, avec l'indéterminisme, je ne l'aborderais pas ici, mais en deux mots, je ne vois pas réellement de raison d'associer par défaut l'indéterminisme des lois de la nature à une chance aveugle).

Conclusion

Cet argument pourra paraître abstrait à certains, mais ce que j’ai tenté de faire ici n’est rien d’autre que donner corps à cette intuition qui, il me semble se retrouve chez beaucoup d’esprits scientifiques : que la connaissance scientifique, en particulier la connaissance de rapports de causalité, requiert un certain contrôle sur le monde, et donc, le libre arbitre ; ou encore, que si nous n’étions pas vraiment libres au sens fort, nous devrions nous contenter d’enregistrer des régularités. Il me semble que croire au libre arbitre est, en général, un antidote au scepticisme : en tout cas, au scepticisme modal.

mardi 17 juillet 2018

Extrême droite et islamisme, même combat

Nous vivons une époque tendue, traversée de contradictions à résoudre. Traversée de folie, avec des mouvements qu'apparemment tout oppose : le terrorisme islamiste et l'extrême droite européenne, qu'on verrait hâtivement comme les pires ennemis l'un de l'autre. Et cet état de fait est source de dilemmes moraux pour les pacifistes de tous bords.

A ma droite, certain-e-s s'interrogent sur la bonne façon de dénoncer l'islamisme radical sans se voir accusé-e-s d'entretenir des idées xénophobes, c'est-à-dire de faire acte de complaisance envers l'extrême droite européenne. A ma gauche, d'autres se demandent comment assoir la lutte anti-raciste, l'oppression diffuse envers les musulmans d'occident, sans prétendre soutenir le terrorisme. Comme si deux démons voulaient nous imposer un choix impossible : soit être avec l'un, soit avec l'autre.

Et la seule réponse acceptable, de tous bords, semble être la nuance : pas d'amalgames ! L'on n'est pas d'extrême droite si l'on sait distinguer le musulman du terroriste. L'on n'est pas islamiste si l'on sait distinguer l'occidental du fasciste. Et encore mieux si l'on sait distinguer les individus des structures sociales qui les produisent.

Mais les nuances sont peu vendeuses et beaucoup s'engouffrent dans les brèches, accusant les uns et les autres de complaisance, cristallisant deux camps, et donnant finalement du grain à moudre aux deux démons.

Pourtant en la matière, il n'est pas besoin d'être nuancé outre mesure, car il existe bien deux camps : d'un côté ceux qui se revendiquent d'une idéologie d'extrême droite, et les islamistes y ont toute légitimité, et de l'autre ceux qui n'en veulent pas. Il suffit donc de lutter contre le fascisme au sens large, quelle que soit sa couleur, et sans compromis.

Ce qui pourrait venir obscurcir cette reconfiguration est la notion d'asymétrie. L'asymétrie des luttes, ou l'idée que les fascistes occidentaux seraient plus condamnables parce qu'en position de force dans le monde, qu'on se devrait d'abord de soutenir le plus faible, ou bien l'asymétrie des moyens, ou l'idée que les islamistes seraient plus condamnables parce que leurs actions seraient plus meurtrières ou moralement plus choquantes.

Très bien, embrassons ces deux asymétries et mettons-les dos à dos : les uns utilisent des moyens à la mesure de leur position d'infériorité, et une asymétrie compensant l'autre, les deux sont aussi bien condamnables, ni plus, ni moins, et surtout, relèvent de la même idéologie d'extrême droite : c'est cette dernière, qui unie malgré eux ces deux camps, le véritable ennemi.

vendredi 1 juin 2018

Qui a battu les meilleurs joueurs de go ? AlphaGo ou les ingénieurs de Google ?

FarmworkersplayGo.jpg

Qui a vraiment battu les meilleurs joueurs de go ? AlphaGo ou les ingénieurs de Google ?

La réponse à cette question me semble évidente : ce sont des ingénieurs qui sont parvenus à battre les meilleurs joueurs de go à l'aide d'un programme informatique. Pourtant la tournure utilisée dans la quasi-totalité des comptes rendus de cette histoire dans les médias semble indiquer l'inverse : il est rapporté qu'un ordinateur (et non une équipe d'ingénieur) a remporté la victoire. Je comprends bien intuitivement cette tournure, mais elle me semble relever, à strictement parler, de l'abus de langage, et je pense que cet abus de langage n'est pas innocent mais au contraire assez problématique, principalement parce qu'il relève du sensationnalisme et ouvre la voie à des glissements fantasmatiques de toute sorte qu'on ferait mieux d'éviter si l'on veut se concentrer sur les véritables questions que pose la recherche en IA. Il ne s'agit pas d'amoindrir la prouesse en question, mais plutôt de rester pragmatique sur les conséquences qu'on pourrait en tirer. Car si on dit "un ordinateur a battu le meilleurs joueurs de go", on pourra ensuite penser "ou est-ce que ça va s'arrêter ? Bientôt les ordinateurs nous seront supérieurs en tous points", tandis que si l'on dit "les ingénieurs d'une grande entreprise d'informatique ont battu les meilleurs joueurs de go à l'aide d'un ordinateur", on voit bien que les craintes seront d'un ordre différent. Pas forcément nulles ni moins préoccupantes, mais relevant plus de la politique que de la science fiction. Il ne faudrait donc pas se tromper de menace (sur ce point cette conférence de Jean-Gabriel Ganascia est assez éclairante).

J'ai peur d'enfoncer des portes ouvertes en relevant ce point, mais puisque cet abus de langage est si répandu, puisque jamais nulle-part je n'ai lu que ce sont des ingénieurs qui ont joué au jeu de go et gagné, et puisqu'une minorité de transhumanistes semblent réellement plus préoccupés par la science fiction que par la politique, peut-être que ça vaut la peine de s'attarder sur les raisons qui me font croire qu'à l'évidence, c'est bien la bonne lecture de ce qui s'est produit.

La raison principale est très simple : ceux qui ont pris les décisions, qui ont implémenté l'algorithme, organisé l'événement, allumé la machine et lancé le programme, et même ceux qui ont posé les pièces sur la table de jeu suivant les indications de la machine, ce sont des humains. La machine n'a pas joué au jeu de go parce qu'elle n'a jamais choisi délibérément d'entrer dans la partie. Hors jouer est un acte intentionnel. La machine a donc seulement servi à jouer, d'une manière assez spéciale, certes. Voilà pour les portes ouvertes.

Actions, raisons et causes

Tout ceci relève du bon sens, alors peut-être serait-il intéressant de comprendre pourquoi l'on a tendance à affirmer l'inverse. Le fait que les ingénieurs aient utilisés un outil plutôt que de jouer eux-mêmes sans aide d'un ordinateur me semble être un aspect superficiel : l'utilisation d'artefact n'enlève rien à l'intentionnalité d'une action. Je peux jouer aux échecs avec des gants de boxe pour déplacer les pièces, on ne dira pas pour autant que ce sont les gants qui jouent. [ajout] Le fait que l'artefact soit en partie autonome vis-à-vis de ses concepteurs n'est pas pertinent non plus : c'est le cas de n'importe quel outil (au mieux cela peut amener à reformuler ainsi : les ingénieurs de google ont conçu une machine qui peut permettre à n'importe qui de gagner contre les meilleurs joueurs de go).

Un cas plus intéressant est [/ajout]si j'utilise un bras mécanique télécommandé (mais choisis toujours les coups): on dira toujours que c'est moi qui joue, mais peut-être que dans ce cas il serait acceptable d'affirmer, à un moment donné (lors du déplacement d'une pièce) que le bras mécanique joue à ma place, qu'il fait un coup. Enfin c'est toujours moi qui ait joué la partie dans son ensemble, même si le bras a joué chaque coup individuel, physiquement du moins.

Nous sommes donc disposés, sémantiquement parlant, à attribuer certaines actions à nos outils quand ces actions jouent un rôle instrumental vis-à-vis des nôtres, c'est-à-dire que nous les leur avons déléguées. Ce qui fait qu'on a tendance à affirmer que c'est l'ordinateur qui a gagné la partie, c'est que dans ce cas, nous avons quasiment tout délégué : l'ensemble des choix de coups sont le fait des algorithmes d'alpha-go. Seule une action très générale est encore du ressort d'êtres humains : quelque chose comme décider de jouer cette partie en utilisant la machine, gagner, et ainsi démontrer l'efficacité de ce type de technologie.

Mais sauf à être animiste (ou peut-être adepte de Bruno Latour), il ne faut pas prendre trop au sérieux ce type de discours. Il ne nous viendrait pas à l'idée d'affirmer que le bras mécanique joue intentionnellement les coups. Une tempête peut aussi arracher des arbres, mais il ne s'agit pas a priori d'une action intentionnelle. De même, un algorithme peut choisir tous les coups d'une partie pour mener à la victoire, mais il ne s'agit pas a priori d'une action intentionnelle.

Ce qui caractérise typiquement les actions intentionnelles dans la littérature philosophique est la possibilité d'être justifié par des raisons : un agent fait une action intentionnellement quand il l'a fait pour une certaine raison. Un joueur de go place une pièce à cet endroit pour protéger un groupe de pièces qui risque d'être pris. Il protège ce groupe de pièce pour conserver un avantage face à son adversaire, et il fait ceci pour tenter de gagner la partie. Nous avons ici une chaîne de raisons qui sont toutes, comme l'analyse Anscombe, des raisons pour la même action (poser une pièce sur le jeu, c'est protéger un groupe de pièce, et c'est tenter de gagner), et qui correspondent à plusieurs descriptions compatibles, mais de niveaux différents, de cette même action.

Si maintenant on se demande pourquoi un ordinateur sélectionne tel coup, il me semble que le type de réponse approprié sera causal plutôt que rationnel. Il sélectionne tel coup parce que c'est celui qui a une plus forte pondération dans l'algorithme, et celui ci a une plus forte pondération parce qu'il a été favorisé, dans ce type de configuration, lors de la phase d'apprentissage de l'algorithme. Ici il n'y a aucune raison, seulement des causes. L'ordinateur n'a pas pour but de jouer le coup qui a le plus de poids, ni n'a attribué ce poids dans un but particulier.

[ajout] Je ne veux pas dire par là qu'il ne peut y avoir de lecture causale aux actions d'un agent humain. On pourrait aussi bien dire qu'un joueur déplace la pièce à cet endroit parceque les muscles de son bras on reçu un signal nerveux, parceque tel groupe de neurones s'est activé, etc. (la différence étant qu'on fait maintenant appel à des actions différentes, passées, pour expliquer l'action présente, et que l'agent ne peut vraiment revendiquer ces actions). La question des rapports qu'entretiennent raisons et causes est une question difficile, au cœur de la philosophie de l'esprit. Mais ce qui importe ici n'est pas ce rapport, mais le fait qu'une lecture intentionnelle soit également disponible, quand il ne me semble pas que ce soit le cas à propos d'un algorithme.[/ajout]

Pourtant il est vrai qu'on a parfois tendance à attribuer des raisons aux algorithmes : mon logiciel affiche un warning quand je le ferme sans avoir enregistré mon document pour m'éviter de perdre des données. Mais ce "pour" n'est pas à proprement parler une raison qu'entretient l'algorithme lui-même, ni une raison pour cet événement particulier : c'est une raison qui a justifié l'implémentation de cette règle par les concepteurs de l'algorithme, c'est à dire que la raison (éviter la perte données) justifie non pas cette action particulière (afficher un warning ici et maintenant), mais plutôt la structure même de l'algorithme (toujours afficher des warnings dans tel cas), ce qui relève des concepteurs. Il faut bien voir, à ce titre, que le code qui est exécuté sur la machine est un code compilé pratiquement illisible par un être humain, duquel il serait difficile de déduire la règle qui le motive, tandis que le code source écrit par les ingénieurs est beaucoup plus lisible : il exprime les directives, ce qu'on veut que le logiciel fasse, d'une manière communicable (tout bon informaticien sait qu'être un bon programmeur, c'est avant tout savoir bien communiquer, à travers le code produit, avec l'équipe de développeurs qui aura à relire ce code). Le code compilé, opaque, obéit à une logique causale au moment de son exécution tandis que le code source, exprimé dans un langage, obéit à une logique rationnelle.

Pourtant on aura tendance à attribuer, à tort, une raison à l'événement particulier (la fenêtre de warning). Il se produit un phénomène de contamination des raisons : l'événement hérite, dans notre description, des raisons qui justifient en fait la règle implémentée. Nous parlons exactement comme si le logiciel voulait nous éviter de perdre des données, comme s'il avait des intentions. Mais c'est un abus de langage, et c'est ce même type d'abus de langage qui nous fait dire qu'alpha-go a battu les meilleurs joueurs de go. En effet je pense qu'il en va de même pour alphaGo : s'il y a une rationalité à trouver dans son fonctionnement, ce n'est pas à propos des coups particuliers que joue l'ordinateur ici et maintenant, mais à propos de la structure algorithmique générale du programme, et cette structure est parfaitement accessible aux concepteurs du programme : il s'agit d'une structure qui permet "d'apprendre" sur la base de jeux de données les meilleurs coups à jouer.

L'opacité algorithmique

C'est ici que peut intervenir l'un des principaux arguments avancés par les afficionados de l'IA en faveur d'une spécificité de ce type d'algorithmes par apprentissage, qui est l'absence de transparence : les choix particuliers que produit l'algorithme ne sont pas vraiment réductibles à un ensemble de règles accessibles qui auraient été implémentées explicitement par les concepteurs, puisqu'ils résultent d'un apprentissage sur la base d'un jeu de données. On ne comprends pas "pourquoi" l'ordinateur choisi ce coup plutôt qu'un autre. Ou plus précisément : on ne comprends pas "pourquoi" l'apprentissage a abouti à telle subtile structure de pondération pour les coups. Ce type de technologie serait donc particulier, et peut-être que cela justifierait de parler d'intelligence ou d'intentionnalité.

Mais cet argument me semble très faible. Il n'y a rien de bien mystérieux dans toute cette chaîne de processus algorithmiques, et la réponse à ce "pourquoi", même inaccessible, sera toujours bien causale et non rationnelle. Les raisons, par opposition aux causes, se situeront toujours à un niveau supérieur (pourquoi tel algorithme d'apprentissage, pourquoi tel jeu de données, pourquoi tels critères de succès dans l'apprentissage) qui nous reste accessible. C'est toujours là que se situe l'intentionnalité.

Ce qu'il y a de particulier en l'espèce, c'est qu'on ne contrôle plus entièrement la chaîne des causes qui aboutit à telle ou telle action (il faudrait analyser nous même le jeu de données, ce qui est humainement impossible). Mais il ne me semble pas que l'impossibilité pratique à retracer l'histoire causale d'une action justifie l'idée qu'il faudrait lui attribuer une intention. Ce n'est pas parce que la cause est illisible qu'elle devient une raison. Il est d'ailleurs notoire que la machine serait bien en mal de nous communiquer ce qui s'apparenterait à des raisons précises pour un coup particulier (sauver ce groupe de pièces) ou qu'on pourrait extraire des raisons de ce type, justement de par cette opacité : certains coups joués par alphago paraissent bien mystérieux, ce qui est en un sens fascinant, mais peut-être seulement fascinant parceque nous avons pour habitude de déceler des raisons dans toutes les actions, et qu'ici il n'y en a pas réellement.

L'opacité causale me semble donc être un argument assez faible pour justifier l'attribution d'intentions à la machine. En fait cette opacité n'a rien de spécifique à l'intelligence artificielle. Quand je publie un article de blog sur internet, c'est bien moi qui fait cet action, mais l'histoire causale qui mène au résultat souhaité m'est pratiquement inaccessible. On pourrait répondre qu'elle est plus ou moins accessible à des experts, et donc que le processus est toujours sous contrôle de la société humaine. Mais en fait il n'y a aucune raison que ce soit systématiquement le cas quand on utilise un outil : les algorithmes même classiques peuvent effectuer des calculs pratiquement irréalisables par un humain. Plus généralement, le développement technique précède bien souvent la théorie, et a lieu suivant des critères pragmatiques d'efficacité (comme dans le cas des machines à vapeur, analysé par Hacking). On peut utiliser un outil de manière fiable sans vraiment savoir pourquoi ça marche. Et d'ailleurs, où doivent s'arrêter les explications ? Devrait on décrire par la physique quantique chaque chose que nous utilisons quotidiennement pour nous assurer qui n'y a là rien d'intentionnel (que c'est bien nous, et non le couteau qui coupe intentionnellement l'oignon) ? Devrait-on avoir trouvé la théorie finale de la physique ? Le monde dans son ensemble nous est, en une certaine mesure, opaque. Mais ce n'est pas un critère pour y voir une rationalité cachée.

De la même façon, on peut utiliser de manière fiable un programme ayant subit un apprentissage pour gagner au jeu de go sans vraiment comprendre pourquoi ça marche, pourquoi tel ou tel coup est joué, et ça n'a rien de problématique quant au statut d'outil de la machine tant qu'on est assuré de l'efficacité de l'outil. Cette mise en avant si fréquente de l'opacité des algorithmes d'apprentissage pour justifier de leur particularité par rapport à d'autres types d'algorithmes me semble donc déplacée, puisque ça ne modifie pas réellement la nature de cet algorithme. Il me semble que prétendre l'inverse (voir de la rationalité cachée dans l'opacité causale) relève de la pensée magique.

L'IA générale

Il y a plusieurs réponses possibles à faire à cela. On pourra d'abord, comme il est souvent fait, distinguer l'intelligence experte ou spécialisée de l'intelligence générale, celle qui s'appliquerait dans tous les domaines (quoi que ça puisse vouloir dire), et affirmer que mes arguments ne concernent que la première : peut-être qu'alpha-go n'a pas "vraiment" battu des humains, mais peut-être qu'une intelligence artificielle générale serait plus semblable à la nôtre, et peut-être que les machines nous dépasserons un jour. On pourra ensuite proposer de naturaliser la rationalité, de réduire les raisons aux causes (peut-être en s'appuyant sur des arguments darwiniens) pour défendre que finalement la distinction entre action intentionnelle ou non n'est pas si franche.

Je suis là encore sceptique pour plusieurs raisons. D'abord parce qu'il me semble que l'IA spécialisée est beaucoup plus utile comme outil que l'IA générale, et je parierais que c'est la première qu'on verra vraiment se développer de manière importante dans les années à venir. Il y a bien des tentatives d'imiter les humains par des machines, mais les applications de ce type de technologie, au delà de la pure démonstration, me semblent assez limitées. Un algorithme spécialisé sera toujours plus efficace, et je pense qu'ils se multiplieront dans des domaines variés. Mais c'est bien sûr une spéculation.

Une raison plus importante est que je ne pense pas que les algorithmes à apprentissage tels qu'ils sont conçus soient vraiment adaptés à une IA générale, ni même que la notion d'IA générale n'ait beaucoup de sens. En effet ces algorithmes ne fonctionnent que sur la base de jeux de données sélectionnés par des humains, et surtout, sur la base de critères de succès décidés par des humains. Qu'est-ce qu'un jeu de donnée parfaitement général ? Qu'est-ce qu'un critère de succès parfaitement général ? Le nom "donnée" occulte le fait que les données sont généralement construites en fonction de critères de sélection, depuis certains schèmes conceptuels, en s'appuyant sur certaines connaissances théoriques et techniques, suivant certaines fins : le pur donné est un mythe que les philosophes du 20ème siècle comme Sellars nous ont permit d'abandonner. Quant aux critères de succès, il est encore plus évident qu'ils sont relatifs à certaines fins humaines. L'idée de jeu de données "parfaitement général" ou de critères de succès "parfaitement généraux", et indépendant de visées instrumentales de la part des utilisateurs et concepteurs de la machine, n'a donc que peu de sens.

En outre ceci ne résout pas le problème qui est qu'une IA même générale agira suivant des causes plutôt que pour des raisons. L'idée de réduire les raisons aux causes, qui est je pense nécessaire pour qui veut défendre qu'une IA même généralisée puisse s'apparenter à un agent intentionnel, me paraît problématique dans la mesure où elle revient à réduire les valeurs aux faits. Or on connaît depuis Hume de bons arguments philosophiques à l'encontre de cette idée.

[ajout] C'est un peu cette idée qui sous-tend le test de Turing : si nous avons affaire à un algorithme indiscernable d'un être humain, nous serions bien en position de lui attribuer des raisons d'agir aussi bien qu'un être humain. Mais il faut faire attention ici : en aucun cas le test de Turing ne constitue en lui-même un argument en faveur de l'idée que les raisons d'agir peuvent se réduire à une certaine histoire causale, d'abord parce que ce n'est pas un argument du tout mais un test, ensuite parce que l'utiliser dans un argument serait confondre ce qui nous permet d'inférer à titre explicatif les raisons d'agir de quelqu'un et ces raisons elle-même (or ce type d'inférence est toujours faillible -- c'est une confusion épistémologie/ontologie) et enfin parce qu'un tel argument serait circulaire, il devrait supposer qu'il est en principe possible qu'un algorithme passe le test avant de pouvoir affirmer que l'intentionnalité est réductible à la causalité (du moins si l'intentionnalité suit une sémantique Kripkéenne, c'est à dire que sa nature est à découvrir empiriquement plutôt que sur la base d'une simple analyse conceptuelle). [/ajout]

Tout ceci est lié à un problème plus général qui est qu'il me semble que ni la conscience en général ni l'intelligence en particulier ne sont de nature algorithmique. C'est "l'éléphant dans la pièce" que j'évoquais dans le dernier article : l'idée même qu'il puisse y avoir une IA "générale" ou "forte" implique de forts présupposés en métaphysique de l'esprit

Il est à peu près certain que la capacité à raisonner est centrale pour l'intelligence, et je n'aurais pas trop de mal à accepter qu'une certaine forme d"algorithmicité" est essentielle à la conscience humaine, au sens où il est nécessaire, pour être conscient comme nous le sommes, de disposer de capacités à exécuter des algorithmes. Mais en faire une condition suffisante est une autre chose : il me semble que la plupart de nos capacités algorithmiques sont inconscientes plutôt que conscientes (comme quand nous acquérons des automatismes jusqu'à ne plus y penser), qu'elles supportent plutôt qu'elles ne constituent notre conscience et pour cette raison j'ai tendance à penser que la conscience comme l'intelligence "générale" sont autre chose qu'une capacité algorithmique. Finalement cette capacité qu'a notre cerveau à exécuter ce qui s'apparente à des algorithmes pourrait aussi bien être un outil "interne", seulement plus directement accessible que les ordinateurs, que nous ne faisons qu'externaliser quand nous créons des programmes.

En tous les cas, quelle que soit la position qu'on adopte en philosophie de l'esprit (et nous touchons assez directement, avec ces histoires de raisons et de causes, aux problématiques de réduction et d'exclusion causale analysées par Kim), je ne vois rien qui annonce dans les développements technologiques actuels ne serait-ce que les prémisses d'une véritable "IA générale" parfaitement autonome.

Risques et gains des technologies

Ce qui me semble vraiment déterminant en revanche dans cette histoire, avec ce type d'outils, c'est qu'on délègue de manière instrumentale des étapes là où, auparavant, chaque étape devait être justifiée intentionnellement et effectuée consciemment : il n'y a plus de raison de jouer tel ou tel coup, mais plutôt une raison de lancer la machine et de jouer les coups qu'elle nous indique, et cette super-raison, c'est qu'on veut gagner la partie (pour démontrer l'efficacité de notre algorithme). Les raisons intermédiaires, instrumentales, disparaissent avec la technologie, pour ne plus laisser que des raisons de plus haut niveau.

C'est un aspect philosophiquement intéressant sur au moins deux plans : de manière positive, parce que cela permet de relativiser l'idée que "la machine va remplacer l'homme". En fait la technologie ne fait jamais que déplacer l'activité humaine vers des niveaux moins instrumentaux et sans doute plus intéressants (le cas du jeu de go est assez trompeur à cet égard puisqu'on trouve un intérêt à cet activité même, et pas seulement dans le fait de gagner, mais le fait qu'il existe des machines qui nous battent aux échecs n'a jamais empêché personne de jouer). Ceci dit ce déplacement peut s'accompagner de défis concernant l'organisation sociale... De manière négative ensuite, parceque le fait de déléguer ainsi les fins intermédiaires, d'exercer notre contrôle à un niveau supérieur uniquement, comporte généralement des risques. Ça semble peu visible dans le cas d'un jeu, mais il pourrait y avoir un risque à laisser un algorithme gérer la sécurité d'une centrale nucléaire dans la mesure où l'on imagine qu'il ne saura faire face aussi bien qu'un humain à une situation imprévue, là où un jugement contextuel faisant appel à des raisons de haut niveau serait nécessaire. C'est que la manière dont une finalité de haut niveau est implémentée en finalités intermédiaires est généralement imparfaite.

Cependant ces deux aspects n'ont rien de spécifique aux algorithmes par apprentissage. Il y a toujours un gain et un risque à déléguer aux machines, à automatiser. Les machines nous ont toujours servi à ne plus faire consciemment certaines étapes intermédiaires pour nous concentrer sur des buts qu'on juge plus importants. Elles le font souvent mieux que nous, et sans que nous ne sachions forcément comment (du moment que ça marche). Il y a toujours eu des risques à l'automatisation face à l'imprévu, et peut-être dans certains cas une perte qualitative (les objets faits mains sont toujours valorisés). On peut penser que ce risque face à l'imprévu est moindre dans le cas des algorithmes par apprentissages puisqu'ils ne s'appuient pas sur un ensemble figé de règles, seulement je pense qu'il se pose tout autant, parce-que les tâches qu'on délègue à ces algorithmes sont généralement plus complexes et ambitieuses d'une part (conduire une voiture), si bien que le risque de défaut est à la hauteur de la flexibilité de l'algorithme, et parce que la manière dont est élaboré le jeu de donnée qui sert à l'apprentissage et les critères de succès implémentés sont cruciaux d'autre part, comme l'illustre les débats sur "l'éthique" à implémenter dans les voitures autonomes : tout ceci n'est que l'analogue du problème des bonnes règles à implémenter dans un algorithme classique, peut-être appliqué à des cas plus complexes.

Mais le point sur lequel je souhaitais appuyer dans cet article est que l'idée d'une discontinuité, d'une différence de nature entre ces nouveaux types d'algorithmes et les technologies plus ancienne, et toutes les peurs ou les fantasmes qui accompagnent cette idée, jusqu'à l'idée d'une singularité, d'une super-intelligence qui remplacerait l'homme, me semblent infondés, si bien que rien ne justifie d'attribuer plus d'intentionalité à ce type d'algorithmes qu'à n'importe quel autre : ce sont bien in fine des ingénieurs qui sont parvenus à battre, à l'aide d'une machine, les meilleurs joueurs de go.

mercredi 23 mai 2018

Le faux problème de l'intelligence artificielle

Animation2

Y aura-t-il un jour une intelligence artificielle en tout point supérieure à l'homme ? Est-ce que ça arrivera prochainement ?

Personnellement je donnerais mon assentiment aux deux réponses suivantes :

  • oui bien sûr, et c'est déjà le cas depuis des décennies !
  • c'est très peu probable ; à ce jour il n'existe aucune intelligence artificielle, il faudrait déjà commencer par en créer une !

Je pense que ce sont les deux seules manières *intelligibles* de répondre à cette question mal posée, une fois la confusion sur le terme "intelligence" dissolue.

De l'usage des métaphores

Car ce terme inadéquat est à la source de beaucoup de confusions. Quand on parle d'intelligence à propos d'algorithmes, c'est toujours une métaphore, comme quand on dit "le distributeur de billets est intelligent, il a deviné ma langue à partir de ma carte bancaire et l'utilise pour l'interface" (en fait c'est le concepteur du programme qui est intelligent ici). Prendre la métaphore trop au sérieux, c'est procéder à un abus de langage qui ouvre la voie à une série de fausses questions mystico-métaphysiques qu'on ferait mieux de laisser aux auteurs de science fiction.

En fait on devrait cesser d'employer le terme "intelligence artificielle", et parler plutôt d'algorithmes adaptatifs, ou quelque chose du genre pour dégonfler la bulle métaphysique qui entoure le secteur de l'IA. Ceci nous permettrait de ne pas oublier que les algorithmes, les programmes, sont avant tout des outils : ils sont fabriqués dans un certain but par des concepteurs, puis utilisés dans ces buts (ou d'autres) par des utilisateurs, et bien-sûr ces algorithmes peuvent être faits intelligemment, ils peuvent aussi (en un certain sens) nous rendre plus intelligents, c'est à dire augmenter l'étendue de nos capacités dès lors que nous savons les utiliser. Mais ils ne sont pas intelligents, ou seulement en un sens métaphorique, simplement parce que ce ne sont pas des personnes dotées d'intentions, mais des outils que les personnes utilisent.

Si l'on accepte ce cadre pour la discussion, que peut bien signifier l'idée d'une intelligence artificielle supérieure à l'homme ?

Cela peut signifier, si l'on accepte d'utiliser la métaphore, que certains programmes permettent de réaliser des choses qui seraient hors de portée d'un homme sans outils, ou permettent de faire face à plus de situations variées, et alors la réponse à la question est triviale : évidemment oui, c'est le cas depuis des décennies au moins.

Ou cela peut signifier, si l'on choisit d'interpréter sérieusement le terme d'intelligence, que l'on parvienne à créer artificiellement d'authentiques personnes, des êtres véritablement vivants, autonomes, capables de choisir leurs propres fins dans la société et de réaliser ces fins, et alors la réponse est : il faudrait déjà avoir créé une seule de ces personnes artificielles pour penser qu'il y en aura bientôt une qui dépassera l'homme dans ses capacités. Ce n'est pas le cas aujourd'hui, et on en est bien loin (au passage, il n'y a aucune raison de penser que ce type de projet relève uniquement de l'IA : pourquoi est-ce que la biologie, les neurosciences ou la sociologie ne seraient pas pertinentes pour savoir ce qu'est une personne ou un être vivant, et donc savoir comment en créer une artificiellement ?).

Et la société ?

Il me semble que les fan-boys et fan-girls de l'IA souffrent de myopie, pensant l'intelligence sur un plan exclusivement individuel, exclusivement computationnel, et occultant complètement les autres aspects, notamment sociaux (on leur a souvent reproché, à raison). Il faut avoir une vision extrêmement étriquée de ce qu'est la vie pour croire que les algorithmes de l'IA, aussi impressionnant soient-ils, s'apparentent plus à des personnes humaines qu'à des outils. N'oublions pas que l'intelligence est sociale, et ce doublement :

  • c'est à la société que nous devons d'être intelligent, car c'est elle qui nous éduque et qui détermine les buts qu'on peut se fixer ;
  • même éduqué, nous ne sommes jamais intelligent seul, mais seulement par notre capacité à utiliser les outils que la société nous fournit de par son organisation, et qu'aucun d'entre nous ne saurait fabriquer seul.

Autrement dit, on ne peut être intelligent qu'en s'appuyant sur des millénaires de développements passés, non seulement pour acquérir une intelligence, mais aussi pour en faire usage.

Si l'on prend acte de ceci, on peut en conclure, d'une part, que notre propre intelligence (au sens particulier de capacités cognitives, de ce qu'il est possible de réaliser) augmentera d'autant plus que nous disposerons d'outils puissant. C'est-à-dire que les développements de l'IA participent paradoxalement à relever la barre de ce qu'il faudrait pour être plus intelligent qu'un humain. Pensez-y : des ingénieurs ont réussit il y a peu à battre les meilleurs joueur de Go à l'aide d'un outil dont l'utilisation serait en principe accessible à presque tout le monde ! Nous sommes tous potentiellement d'excellents joueurs de Go : la barre est bien plus haute aujourd'hui qu'elle ne l'était il y a quelques années... (S'il y a un véritablement danger à l'avenir, finalement, c'est que ces outils ne soient pas égalitairement répartis et qu'émerge non pas une intelligence artificielle, mais un groupe d'humains monopolisant l'usage d'outils puissants pour assujettir les autres : voilà un problème bien plus pressant qui devrait nous préoccuper.)

D'autre part, du fait que la notion d'intelligence est intrinsèquement sociale, on peut envisager que même si nous étions capable de créer une authentique personne artificielle (je ne pense pas que ce soit à la portée des technologies actuelles, mais imaginons), celle-ci ne pourrait être intelligente qu'en prenant part à notre société et en en étant dépendante (comme nous le sommes) à la fois pour son éducation et pour ses moyens (ce qui demanderait au préalable qu'on accepte de l'intégrer). Il me semble que cela change assez radicalement la donne en termes de scénario catastrophe, et (bien que j'admets que ce soit discutable) il me semble que même dans ce cas, il serait légitime d'affirmer que c'est la société humaine qui est devenue plus intelligente, et non les machines qui ont dépassé les hommes.

Je ne veux pas, en disant ça, nier les progrès de ce qu'on appelle l'intelligence artificielle, ni les enjeux philosophiques qu'il peut y avoir à ces progrès, mais seulement rappeler que ces enjeux se situent et se situeront toujours dans la continuité des enjeux qu'ont toujours posé les technologies. N'importe quelle technologie peut nous dépasser si l'on est incapable d'en prévoir les conséquences, ou apporter des nouveautés dans l'ordre social qu'on n'imaginait pas, et tout ceci peut exiger des réflexions d'ordre éthique ou autre. Mais il n'y a rien de fondamentalement nouveau ici : les ordinateurs permettent déjà de faire des choses hors de portée d'un humain sans ordinateur, ils ont complètement modifié la façon dont nous interagissons en société, et c'est le cas de bien d'autres technologies. Mais à ce jour, si une voiture autonome provoque un accident, c'est toujours à son constructeur qu'en incombera la responsabilité, pas à la voiture, simplement parce que la voiture est un outil et non une personne.

L'éléphant dans la pièce

Pour finir, il faut bien le dire : il y a comme un "éléphant dans la pièce", comme disent les anglo-saxons, dans tous ces débats : la philosophie de l'esprit. Car tous ces débats sur l'intelligence artificielle relèvent je pense d'une mystique qui a sa source dans l'idée que nous-même ne serions, finalement, que de puissants algorithmes adaptatifs, si bien que ces algorithmes que nous implémentons nous sont analogues. Je veux bien discuter de philosophie de l'esprit, mais à ce jour les sciences cognitives ne vont pas nécessairement dans cette direction. Là aussi il y a une myopie de la part des tenants de l'IA forte : ils considèrent implicitement comme réglés des problèmes comme celui de la conscience qui relèvent de la biologie ou d'autres disciplines, alors que nous commençons à peine à les aborder. Peut-être que nous ne sommes finalement que des algorithmes adaptatifs implémentés dans de la chair vivante, mais ce n'est pas aux chercheurs en informatique d'en décider, et j'aimerais que l'on cesse de nous imposer des vues métaphysiques plus ou moins fumeuses, seulement soutenues par des abus de langage, quand il est question de choses d'un ordre bien plus pragmatique, à savoir, comment gérer l'utilisation sociale des puissants outils qui sont aujourd'hui à notre disposition.

samedi 5 mai 2018

La réalité peut-elle buguer ? Ou pourquoi le monde n'est pas une simulation numérique.

Le monde est-il une simulation numérique ? J'entends par là l'idée que la réalité serait un algorithme particulier qui produirait les phénomènes du monde, ou qu'elle serait une machine de Turing implémentant cet algorithme.

Je pense qu'on peut définitivement rejeter cette idée pour la raison suivante : un algorithme est normé, mais les faits ne le sont pas.

En effet, il me semble qu'une des caractéristiques essentielles d'un algorithme est qu'il peut-être bugué. Or qu'est-ce qu'un "bug"? Quelque chose qui n'est pas conforme à certaines règles ou normes. Mais l'idée que la réalité soit buguée, ou puisse l'être ou aurait pu l'être, n'a pas de sens : elle est telle qu'elle est. Donc le monde n'est pas une simulation numérique.

Examinons cet argument dans les détails, afin de le rendre plus convaincant.

1. La réalité peut-elle "buguer" ?

Commençons par accepter qu'un algorithme est normé (qu'il peut en principe buguer), et partant, imaginons que la réalité soit un algorithme et qu'elle "bugue". Comment le saurions-nous ?

Si nous nous faisons une idée de ce que pourrait être l'algorithme de la réalité, il se pourrait que certains phénomènes nous apparaissent comme des "bugs". Cependant, les penser ainsi, c'est postuler que nos représentations sont conformes à la réalité : nous serions parvenu à déceler les normes qui gouvernent les phénomènes, l'algorithme du monde, et certains ne s'y conformeraient pas. Mais pourquoi ne pas plutôt croire que nous nous étions trompés dans nos représentations ?

C'est bien sûr cette seconde attitude qu'il est rationnel d'adopter. S'il y a un"bug", il ne se situe pas dans la réalité, mais dans nos représentations.

Mais là, nous venons de montrer qu'il sera toujours irrationnel de croire qu'il y a des bugs dans le monde : c'est toujours nous qui buguons. En tant qu'être rationnels, nous devrions donc toujours penser que la réalité n'est pas buguée. Or c'est paradoxal : en quoi une simulation quelconque ne pourrait en principe être buguée ? Et donc pourquoi serait-ce rationnellement impensable ?

À ceci il y a deux réponses possibles.

La première consiste à affirmer que la réalité pourrait en principe être buguée, mais qu'elle ne l'est pas parceque Dieu (appelons ainsi l'auteur de la simulation) est parfait. Les élans théologiques de cette option un peu ad-hoc ne satisferont pas tout le monde cependant... En tout cas, elle relève clairement de l'acte de foi métaphysique.

La deuxième réponse consiste à rejeter l'idée que nous devrons croire que le monde n'est pas bugué: il serait rationnel de l'envisager, bien que ce soit une chose inconnaissable. Peut-être que ce que la science découvre par ses lois, c'est un algorithme défectueux, de fausses normes. Mais cette option est étrange : si le monde était bugué, quelle différence cela ferait-il avec l'idée qu'il suit certaines normes alternatives rendant compte du bug comme d'une fonctionnalité voulue ? (Il pourrait y avoir des phénomènes qui ne répondent à aucune norme, mais alors il ne s'agirait plus de bugs puisqu'ils ne peuvent être produits par un algorithme.)

Postuler l'existence de normes inconnaissables, et qui sont peut-être violée, relève donc également de la métaphysique, sinon de la théologie. Sauf à prétendre connaître la forme que doivent prendre les normes du monde, c'est une question indécidable.

Si l'on rejette ces options métaphysiques, il nous faut accepter que la réalité ne peut pas être buguée, ce qui la différencie d'un algorithme. Il y a un problème de l'ordre de la direction de l'ajustement ici : ce sont nos représentations qui doivent s'ajuster à la réalité, tandis que dans le cas d'un algorithme, c'est habituellement l'inverse. Affirmer que le monde est une simulation est donc une erreur de catégorie.

2. Un algorithme doit-il pouvoir buguer ?

Cependant il y a une autre réponse à notre argument de départ qu'il convient d'examiner, car toute cette discussion suppose une certaine compréhension de ce qu'est une simulation, ou un algorithme. On pourrait objecter qu'il ne s'agit pas d'une caractéristique essentielle des algorithmes que de pouvoir avoir des bugs, c'est à dire de suivre des normes : les normes leurs seraient externes. Mais là, je dirais qu'on joue sur les mots.

Mettons nous donc d'accord : les normes sont-elles essentielles ou non aux algorithmes ? Un algorithme est-il ou non par définition normé ? Pour ma part je conçois un algorithme comme l'implémentation d'un ensemble de règles, donc de normes. Je pense que c'est une bonne conception, ne serait-ce que parceque dans la vie courante, ce que nous appelons algorithme peut être bugué, et pouvoir être bugué (en principe), c'est répondre à des règles ou à des normes. Défendre qu'il se pourrait qu'un algorithme particulier ne puisse en principe être bugué (remarquez la double modalité : il se pourrait qu'ils ne puissent pas...) revient à changer de sujet.

Mais soyons charitable et examinons cette possibilité. On pourrait dire que le fait pour un algorithme d'être bugué n'est pas essentiel, mais relatif à des normes. Il s'agirait de dire qu'un algorithme bugué est un algorithme qui ne se conforme pas à nos normes, et que s'il le faisait, si nous corrigions l'algorithme, ce serait un algorithme différent puisque nous l'avons modifié. Donc nous ferions peut-être mieux de parler de "programme" bugué, dont nous modifions l'algorithme pour qu'il ne le soit plus. L'algorithme serait en quelque sorte le squelette du programme, la structure qu'il a de fait, indépendamment des règles à suivre, et c'est le programme, non l'algorithme, qui serait bugué. La réalité serait l'algorithme, non le programme, peut-être un algorithme sans programme.

Très bien, acceptons ce langage. Mais alors la thèse suivant laquelle le monde est une simulation devient beaucoup moins forte, puisque ce que nous voulons dire par "le monde est un algorithme", c'est seulement que la distribution des phénomènes peut en principe être décrite, a posteriori, comme satisfaisant certaines règles (paradoxalement, la thèse de Church-Turing, souvent invoquée par les tenants de l'hypothèse suivant laquelle le monde est une simulation, participe elle-même à rendre la thèse moins intéressante en élargissant la classe de ce qui pourrait compter comme satisfaisant des règles algorithmiques). C'est une thèse moins intéressante que la première, puisque quiconque adhère a l'idée qu'il existe des lois naturelles gouvernant les phénomènes sera prêt à en accepter le cœur (il s'agit tout au plus, en sus de l'idée de loi naturelle, d'adopter une métaphysique déterministe et discrétiste).

Il se pourrait que certains phénomènes résistent à une transcription dans un langage, et dans ce cas, nous devrions en conclure que le monde n'est pas un algorithme. Il me semble que cette conclusion est déjà atteinte, puisque la plupart de mes expériences résistent de fait à une transcription linguistique. Enfin, peut-être le pourraient-elles "en principe"... Aussi dire que le monde est une simulation, ce serait au moins dire que que nos expériences et tous les phénomènes du monde pourraient, en principe, être transcrites en un langage naturel, le langage de la réalité. C'est un vœux pieux sur lequel je ne me prononcerai pas (qui n'est en fait rien d'autre que la thèse de Lewis, suivant laquelle le monde serait une "mosaïque humienne" de propriétés naturelles).

Mais une fois ce premier pas fait, l'idée que ces phénomènes une fois transcrits se conformeraient à des lois est une hypothèse qui ne dit pas grand chose. Ne trouvera-t-on pas toujours quelque norme convoluée pour rendre compte de tout phénomène, tant qu'il est possible de le catégoriser, de décrire ce dernier dans un langage ? Dans ce cas notre thèse confinerait à la trivialité, et il se pourrait que nous n'affirmions rien du tout.

3. Est-ce une thèse substantielle ?

Le problème est qu'il est trop facile de trouver a posteriori des règles pour rendre compte de n'importe quelle séquence de phénomènes. C'est certainement le cas si le monde est fini. Certes, si les phénomènes sont en nombre infini, il se peut qu'aucun ensemble fini de règles ne puisse décrire leur répartition (ou aucune axiomatisation finie, même usant de schémas d'axiomes). La thèse suivant laquelle le monde est une simulation reviendrait alors à postuler que la distribution des phénomènes peut être décrite par un ensemble fini de règles (et peut-être l'idée, à préciser, que ces règles produisent les phénomènes). Cependant nous n'accédons jamais qu'à un ensemble fini de phénomènes, et un ensemble fini de phénomènes peut toujours être décrit par un ensemble fini de règles, aussi nous ne pourrions jamais, en principe, défaire cette thèse, si bien qu'elle ne peut être que métaphysique.

Ici on pourrait proposer un argument inductif pour défendre l'idée malgré tout : il faut toujours beaucoup moins de lois pour décrire la distribution des phénomènes qu'il n'en faut pour mentionner chacun de ces phénomènes. Ou encore, il est toujours possible de rendre compte des phénomènes par des algorithmes plus simples que celui qui se contenterait de produire une séquence prédéfinie de résultats. Par induction, il serait possible de décrire l'infinité des phénomènes par un nombre fini de règles.

Il semble bien, après tout, que le monde soit régulier... Attention cependant : ces lois ou algorithmes dont je parle ne sont pas les lois de la physique (qui, pour ce qui est de la physique contemporaine, sont non déterministes, ne prennent pas la forme d'algorithmes, et ne possèdent généralement pas de solutions analytiques) mais d'hypothétiques lois d'observation, ou encore des prédictions de modèles numériques déterministes éventuellement basés sur les lois de la physique. Seulement les modèles qu'on peut produire sur la base des lois de la physique sont en nombre infini. Surtout, ils ne sont presque jamais déterministes, si bien que la base d'induction est caduque : nous pouvons certes dégager des lois statistiques pour rendre compte de nos observations, mais rien n'indique qu'il est toujours possible de décrire les phénomènes naturels particuliers (et non seulement leur distribution statistique) comme étant produits par un algorithme plus succinct que ces derniers, puisque ce n'est pas quelque chose que nous faisons habituellement.

Enfin les modèles d'une théorie, au sens de structures mathématiques respectant les lois de la théorie, peuvent avoir une taille infinie (d'autant plus s'ils intègrent les conditions initiales de la simulation, la "configuration du monde"...). Même si nous produisions régulièrement de tels algorithmes (ce qui n'est pas le cas), et même si leur taille augmentait moins vite que le nombre des phénomènes dont ils parviennent à rendre compte, rien en l'état de nos connaissances n'indique que cette taille convergerait pour autant vers une taille finie pour l'infinité des phénomènes apparemment aléatoire de l'univers. Même s'il était possible de rendre compte des phénomènes par un ensemble de règles algorithmiques de manière plus "compacte" qu'en listant simplement leur séquence, il est possible que cet ensemble de règles devienne infini pour l'univers dans son ensemble, si bien que l'induction échoue.

L'idée que le monde est une simulation au sens faible d'un algorithme "non normé", dont il n'y a aucun sens à dire qu'il bugue, est donc déjà métaphysique, en plus d'être relativement moins intéressante qu'il n'y paraît.

Conclusion

Il y a donc plusieurs choses à avaler si l'on compte prétendre que le monde est une simulation numérique : d'abord que toute expérience pourrait être catégorisée par un langage naturel, et qu'un tel langage existe. Puis que les phénomènes ainsi catégorisés sont discrets et peuvent être décrits comme suivant des lois algorithmiques déterministes. Ensuite, si l'on veut se démarquer d'une thèse métaphysique somme toute peu intéressante, il faudrait admettre que ces lois sont des normes. Et il faut, pour couronner le tout, soit avoir recours à un Dieu (ou quelque entité) infaillible qui veille au respect des normes, soit être prêt à accepter que ces normes ne soient en fait pas respectées dans notre bas monde... Or le gain explicatif est quasiment nul : l'idée que tous les phénomènes pourraient être transcrits de manière discrète dans un langage n'est qu'une explication ad-hoc au fait que nous parvenons à produire ce type de transcriptions ; qu'ils suivent des lois algorithmiques n'explique rien quand ces lois ne sont jamais utilisées en pratique pour rendre compte des phénomènes ; enfin que ces lois soient normatives n'est qu'un surplus inutile aux relents théologiques.

Je suis intimement convaincu, pour ces raisons, que la réalité n'est pas une simulation numérique. Mais bien sûr, tout ce que j'ai montré, c'est qu'il s'agit d'une idée métaphysique.

mercredi 2 mai 2018

Idée reçue : les théories scientifiques font des prédictions

Angular Parameters of Elliptical Orbit

Une des conceptions les plus répandues à propos des sciences est l'idée que les théories scientifiques font des prédictions, et incidemment, qu'elles sont justifiées/corroborées par leur succès prédictifs (ou encore qu'elles sont "vraies jusqu'à preuve du contraire"). Or à strictement parler cette idée est fausse : ce ne sont pas les théories qui font des prédictions, mais leurs modèles.

Par modèle j'entends une certaine configuration permise par la théorie qui est capable de représenter une situation particulière du monde, quand une théorie ne représente aucune situation en particulier mais exprime des généralités sur les rapports entre des propriétés hypothétiques du monde. Par exemple : la théorie de la relativité, qui exprime des rapports entre masse/énergie et géométrie de l'espace-temps, vs. un modèle de l'univers dans cette théorie. Il existe une infinité de modèles compatibles avec une même théorie, et il faut voir une théorie scientifique comme un cadre qui permet de construire des modèles adaptés à différents types de situations. Mais ce sont toujours les modèles qui sont prédictifs, non la théorie.

On pourrait dire que je joue sur les mots s'il existait une manière systématique de savoir quel modèle d'une théorie s'applique à quelle situation du monde (ou même si la théorie nous renseignait sur la probabilité qu'un modèle s'applique à une situation donnée) : alors la théorie ferait des prédictions du type : pour tel type de situation du monde, on obtient tel résultat (avec telle probabilité). Le problème est qu'en pratique, on ne dispose d'aucun moyen systématique de savoir quel modèle de la théorie appliquer à une situation donnée. Il existe des paramètres théoriques dont la valeur n'est pas directement mesurable, et qui peuvent être ajustés pour coller aux observations, ou encore des hypothèses spécifiques à une situation donnée qui ne sont pas non plus issues de nos observations (la distribution de matière noire dans l'univers...), etc. Et la théorie elle-même ne nous fournit pas de mesure de probabilité sur ses différents modèles, elle fournit seulement des contraintes sur les modèles qui sont acceptables ou non. Ce sur quoi un succès prédictif nous renseigne, ce n'est donc pas sur le fait que la théorie soit bonne, mais sur le fait qu'un certain modèle de la théorie plutôt qu'un autre s'applique à un type donné de situation expérimentale.

Pour cette raison les théories ne sont pas "vraies jusqu'à preuve du contraire", puisque la réaction logique quand on fait face à une "preuve du contraire" n'est pas d'abandonner la théorie, mais de changer de modèle (modifier la valeur de paramètres ou modifier certaines hypothèses sur le système qu'on veut représenter) jusqu'à trouver le modèle qui fera de bonnes prédictions. Et en conséquence, une théorie scientifique n'est jamais directement corroborée par une induction sur les données des expériences (seul un modèle peut l'être). Elle est plutôt corroborée par ce qui s'apparente à une "méta-induction" : une induction sur les modèles, ou sur les types d'expériences.

Je m'explique. Ce qui fait qu'on accepte aujourd'hui la relativité n'est pas qu'elle fasse de meilleures prédictions pour les expériences dont la mécanique classique rendait déjà compte (d'ailleurs on continue généralement d'utiliser la mécanique classique dans ces cas), mais surtout qu'elle en ait fait de nouvelles qui étaient inattendues du point de vue de la mécanique classique : par exemple, que la lumière devrait être déviée par les corps massifs, et donc que les étoiles devraient apparaître légèrement déplacées par rapport à leur position habituelle quand on les observe proche du soleil. Bien sûr, on pourrait rendre compte de ce phénomène en mécanique classique de manière ad-hoc, par exemple en postulant qu'il existe près des corps massifs de la matière noire avec un certain indice de réfraction, mais le point important est que ce n'est pas quelque chose qu'on aurait pu prédire par une induction sur les données des expériences passées, qui ne portaient jamais sur les rapports entre la lumière et les corps massifs. La théorie de la relativité n'est pas issue d'une induction sur nos observations, mais de considérations purement théoriques : en particulier, la volonté d'unifier l'électromagnétisme et la mécanique dans un même cadre. Cette théorie produit de nouveaux modèles, correspondant à de nouvelles situations expérimentales qui n'avaient pas été testées jusqu'alors, et ces nouveaux modèles prédisent des phénomènes dont on ne pourrait rendre compte que de manière ad-hoc dans le cadre de la mécanique classique. Or ces phénomènes sont en effet observés.

On peut voir dans ce type de succès expérimental la première étape d'une méta-induction sur les modèles. Ce que corrobore cette méta-induction, c'est que la théorie est un bon cadre pour produire des modèles qui seront en général prédictifs de manière relativement économe pour un large type de situations, même quand on les appliquera à de tous nouveaux types de situations, non expérimentés jusqu'alors. C'est-à-dire qu'une bonne théorie n'est pas une théorie qui rend correctement compte des phénomènes déjà observés, mais plutôt une théorie qu'on pense pouvoir étendre avec succès, sans trop d'efforts, à de nouvelles configurations. Ou encore, c'est une façon fructueuse de penser le monde, un guide fiable pour l'explorer.

Cet aspect me semble essentiel notamment pour rendre compte du principal succès des sciences, et à mon sens, de la principale raison pour laquelle on leur porte du crédit : le fait qu'elles nous permettent de développer de nouvelles technologies. Car quand on développe une technologie, on ne cherche pas à expliquer un phénomène existant, mais à en imaginer et en produire de nouveaux qui nous intéressent. Et l'on ne peut faire confiance à une théorie pour ça que si elle a démontré sa capacité à s'étendre efficacement à de nouveaux types de phénomènes, c'est-à-dire si l'on ne se contente pas de la corroborer par une induction sur les données expérimentales, mais plutôt par une méta-induction sur les différents types d'expériences réalisables.

dimanche 25 février 2018

Le paradoxe du rapport entre philosophie et science

Il y a quelque chose de paradoxale en philosophie, dans son rapport aux sciences, qui est que quoi qu’elle fasse, quelle que soit la position qu’elle adopte, elle semble ne pas pouvoir à la fois satisfaire et intéresser le scientifique (ou plutôt la figure du scientifique telle qu’on se l’imagine).

On trouve ainsi une tradition « anti-réaliste » en philosophie, voire « relativiste ». Les théories scientifiques ne seraient que des instruments pour faire des prédictions ou développer des techniques, ce seraient des constructions relatives à notre position dans le monde. Elles seraient utiles plutôt que vraies. Et l’on peut y voir une forme de déni des sciences qui ne pourra satisfaire l’esprit scientifique : non, les affirmations théoriques ne sont pas de simples constructions de l’esprit, elles sont amplement confirmées par nos expériences, et il est rationnel de les croire.

Fort bien. Alors soyons réalistes ! La métaphysique des sciences contemporaines est dominée par cette idée que les théories scientifiques devraient être interprétées « littéralement » : elles décrivent la réalité, elles correspondent au monde d’une façon ou d’une autre. Mais voilà : tous les développements que cela implique n’intéressent pas les scientifiques. Ainsi on trouve dans les revues philosophiques des kilomètres d’articles tentant de développer les « ontologies primitives ». Derrière ce concept, une question : à quoi peut bien correspondre, dans le monde, la théorie quantique (puisqu’elle doit correspondre à quelque chose dans le monde) ? Mais dans les revues de physique, rien. Et l’on trouve bien souvent des scientifiques pour s’exprimer sur l’inutilité de toute métaphysique : de vaines questions déconnectées de l’expérience. Finalement, ceux-ci semblent bien s’accommoder, dans les faits, d’une vision instrumentaliste des choses.

Cette situation est malheureuse. Car s’il peut y avoir un intérêt à la division des tâches, c’est si les uns et les autres accordent une valeur à leurs travaux respectifs. La philosophie des sciences serait-elle condamnée soit à nier la valeur de la science, soit à voir niée sa propre valeur ?

Je veux croire que le travail philosophique a une valeur. La lubie des ontologies primitives m’attire peu en la matière, mais le paradoxe de ce rapport entre philosophie et science est bien aussi un paradoxe pour la science elle-même : les théories scientifiques nous disent quelque chose, pour sûr. Mais quoi ? On ne peut tout à la fois prendre au sérieux les sciences, et ne pas s’intéresser à la question, ni tenter d’y répondre d’une manière ou d’une autre. Comment concilier le rôle central de l'expérimentation en science sans pour autant ne les considérer que sous l'angle de leur utilité pratique ? Il y a bien un problème à résoudre. Que nous disent les sciences, et comment en rendre compte d’une manière qui puisse à la fois satisfaire le scientifique, prendre au sérieux son discours sur le monde, et l’intéresser, c’est-à-dire s’avérer pertinente suivant ses propres critères et ne pas sur-interpréter ce discours ?

A mon sens, le travail philosophique, quand il est question des sciences, devrait justement porter sur cette « méta-question ». Le travail de la philosophie des sciences devrait être celui-ci, et rien de plus : rendre compte des discours et activités scientifiques, c’est-à-dire (pour paraphraser Brandom) rendre explicite et cohérent l’engagement que suppose a minima l’adoption et l'usage d’une théorie scientifique. Et en la matière, il me semble que le réalisme comme l'instrumentalisme ont montré leurs limites.

Puisqu'au fond il est question d'interprétation, de discours, c'est peut-être à la philosophie du langage de nous éclairer. On connait le fameux trio syntaxique / sémantique / pragmatique : la forme des énoncés, leur contenu et leur usage. La philosophie des sciences, quand elle était plutôt instrumentaliste, était dominée par une vision syntaxique, portée sur la forme logique des théories. Elle me semble aujourd’hui dominée par une vision sémantique, associée au réalisme, portée sur le rapport direct des théories à une réalité transcendante. Ce que je préconise ici, c’est de mettre en avant une vision pragmatique, focalisée non sur les structures abstraites ou sur l’ontologie, mais sur l’usage. C'est bien ainsi, en se concentrant sur l'usage, qu'on pourra résoudre notre dilemme.

L'accent sur l'usage, sur la pratique, est déjà mis en avant par certains auteurs depuis plusieurs décénies (Carthwright ou Hacking) mais est encore insuffisamment représenté, et sa portée sous-estimée quand il est question de proposer une véritable interprétation des théories. Car il me semble que la pragmatique est à même de faire le lien entre ces deux aspects, syntaxique et sémantique, rapprochant ainsi la métaphysique de l’expérimentation (en examinant en quoi l'usage détermine le contenu) pour la rendre plus pertinente aux yeux du scientifique, et rapprochant l’épistémologie de l’engagement positif envers l'ensemble d'une théorie (en examinant en quoi la forme ne fait qu'expliciter l'usage) pour restituer toute la pertinence et la valeur de cet engagement.

En l'état, tout ceci est un peu abstrait. Je reviendrai peut-être prochainement sur des propositions plus concrètes en la matière.

vendredi 5 janvier 2018

L'addiction

L’addiction est un problème : nous désirons, satisfaisons nos désirs, puis nous accoutumons et voulons toujours plus. C’est un naufrage pour beaucoup. Mais la vie n’est au fond qu’une histoire d’addiction. Il y a l’addiction à des substances, bien sûr : l’alcool, le tabac, le cannabis, la cocaïne, l’héroïne, que sais-je… Mais aussi le café et le chocolat peut-être ? Puis il y a l’addiction aux jeux, au risque. À la violence ? Au sport, c’est-à-dire à l’effort physique. À la nature et aux grands espaces peut-être ? Au sexe et à la pornographie. À la nourriture, certainement. Au sommeil ? Au pouvoir et à l’argent. À l’attention des autres, à l’amour, aux relations sociales… À l’information. À l’indignation ! Nous n’en avons jamais assez. Et l’on pourrait défendre que les plaisirs intellectuels, voire spirituels et religieux, constituent, eux-aussi, une forme d’addiction. Alors il me semble que nous avons fait le tour des aspects de la vie humaine, et que ce problème, celui de l’addiction, n’est au fond que celui de l’existence.

mercredi 18 janvier 2017

Structure concrète et structure abstraite

Le réalisme structural affirme que nos théories sont vraies à propos de la stucture du monde. La structure, c'est ce que les théories expriment par leurs équations, les lois de la théorie. Sa nature, c'est ce que les théories expriment quand on interprète métaphysiquement leur vocabulaire, par exemple comme faisant référence à des propriétés physiques qui existeraient réellement. Le réalisme structural prétend répondre à une difficulté du réalisme standard : le problème du changement théorique. Nos théories seront peut-être remplacées par de meilleures à l'avenir, et il n'y a généralement pas continuité dans les théories successives, quant à la nature du monde qu'elles décrivent. Mais pur le réaliste structural, ce n'est pas un problème car il y aurait continuité de structure. Dans sa forme ontique, il prétend également éclairer des problèmes d'interprétation de la physique contemporaine, comme la question de l'identité des particules fondamentales.

Il y a beaucoup de débats pour savoir si cette position est tenable. Mais ici je souhaite me consacrer sur un aspect : le fait que structure est ambiguë. En effet, on peut différencier deux notions de structures :

La structure de premier ordre
C'est la structure des faits du monde. Ses relata sont les objets du monde, et les propriétés qu'ils instancient.
La structure de second ordre
C'est la stucture nomologique du monde. Ses relata ne sont pas des objets, mais des propriétés abstraites, les propriétés physiques.

Cette distinction est d'importance pour le réalisme structural ontique, qui affirme que le monde n'est que structure : de quelle structure parle-t-il ? On peut y voir une tentative d'éliminer les objets : alors le monde est une structure de premier ordre, une structure de propriétés et de relations. Les objets ne seraient identifiés que par leur emplacement dans cette structure. C'est peut-être un moyen d'éclairer la physique contemporaine, mais ce type de vue n'est finalement pas très éloigné de certaines thèses classiques de la métaphysique, et il n'y a aucune raison de penser qu'elle ne soit pas menacée par un problème de changement théorique.

S'il s'agit d'éliminer les propriétés physiques, qui ne seraient elle-même que des emplacements de la structure de second ordre, alors on rencontre un autre problème qui est que ce type de vue s'apparente assez fortement à un platonisme mathématique. Il est facile de définir une structure mathématique et d'affirmer qu'elle existe, de manière abstraite : ça ne nous engage en rien. Le réaliste structural doit alors en dire plus. En dire plus, ce peut être interpréter les relata de la structure. Mais ici on rencontre un problème : si ces relata sont interprétés relativement à l'expérience (il s'agit de propriétés observables), on se ramène à un empirisme, et s'ils sont interprétés comme propriétés naturelles, on se ramène à un réalisme standard.

Il reste une option qui est d'interpréter la structure de second ordre elle-même. Typiquement, les réalistes structuraux parlent de structure modale : c'est une structure de relations nomologiques, de nécessité dans le monde qui vient contraindre les phénomènes. Cependant cet aspect modal me semble difficilement applicable à une structure de second ordre. On peut formaliser une structure modale en plaçant les relata de la structure dans différents mondes possibles. Ici, les relata sont des propriétés abstraites (non pas des objets ou des instances concrètes de propriétés) et tout ça ne me semble pas avoir beaucoup de sens. C'est donc plutôt la structure de premier ordre qui peut être modale. Les propriétés abstraites, qui sont les relata de la structure de second ordre, seraient des propriétés modales pour la structure de premier ordre. C'est donc la structure de premier ordre qui est réellement modale : on peut placer ses relata (objets et instances de propriétés) dans différents mondes possibles, autorisés par les lois de la théorie. Mais en quoi ne fait-on pas simplement que retrouver une structure mathématique abstraite ? Comment ce type de vue se distingue-t-il d'un platonisme mathématique ?