mardi 17 juillet 2018

Extrême droite et islamisme, même combat

Nous vivons une époque tendue, traversée de contradictions à résoudre. Traversée de folie, avec des mouvements qu'apparemment tout oppose : le terrorisme islamiste et l'extrême droite européenne, qu'on verrait hâtivement comme les pires ennemis l'un de l'autre. Et cet état de fait est source de dilemmes moraux pour les pacifistes de tous bords.

A ma droite, certain-e-s s'interrogent sur la bonne façon de dénoncer l'islamisme radical sans se voir accusé-e-s d'entretenir des idées xénophobes, c'est-à-dire de faire acte de complaisance envers l'extrême droite européenne. A ma gauche, d'autres se demandent comment assoir la lutte anti-raciste, l'oppression diffuse envers les musulmans d'occident, sans prétendre soutenir le terrorisme. Comme si deux démons voulaient nous imposer un choix impossible : soit être avec l'un, soit avec l'autre.

Et la seule réponse acceptable, de tous bords, semble être la nuance : pas d'amalgames ! L'on n'est pas d'extrême droite si l'on sait distinguer le musulman du terroriste. L'on n'est pas islamiste si l'on sait distinguer l'occidental du fasciste. Et encore mieux si l'on sait distinguer les individus des structures sociales qui les produisent.

Mais les nuances sont peu vendeuses et beaucoup s'engouffrent dans les brèches, accusant les uns et les autres de complaisance, cristallisant deux camps, et donnant finalement du grain à moudre aux deux démons.

Pourtant en la matière, il n'est pas besoin d'être nuancé outre mesure, car il existe bien deux camps : d'un côté ceux qui se revendiquent d'une idéologie d'extrême droite, et les islamistes y ont toute légitimité, et de l'autre ceux qui n'en veulent pas. Il suffit donc de lutter contre le fascisme au sens large, quelle que soit sa couleur, et sans compromis.

Ce qui pourrait venir obscurcir cette reconfiguration est la notion d'asymétrie. L'asymétrie des luttes, ou l'idée que les fascistes occidentaux seraient plus condamnables parce qu'en position de force dans le monde, qu'on se devrait d'abord de soutenir le plus faible, ou bien l'asymétrie des moyens, ou l'idée que les islamistes seraient plus condamnables parce que leurs actions seraient plus meurtrières ou moralement plus choquantes.

Très bien, embrassons ces deux asymétries et mettons-les dos à dos : les uns utilisent des moyens à la mesure de leur position d'infériorité, et une asymétrie compensant l'autre, les deux sont aussi bien condamnables, ni plus, ni moins, et surtout, relèvent de la même idéologie d'extrême droite : c'est cette dernière, qui unie malgré eux ces deux camps, le véritable ennemi.

vendredi 1 juin 2018

Qui a battu les meilleurs joueurs de go ? AlphaGo ou les ingénieurs de Google ?

FarmworkersplayGo.jpg

Qui a vraiment battu les meilleurs joueurs de go ? AlphaGo ou les ingénieurs de Google ?

La réponse à cette question me semble évidente : ce sont des ingénieurs qui sont parvenus à battre les meilleurs joueurs de go à l'aide d'un programme informatique. Pourtant la tournure utilisée dans la quasi-totalité des comptes rendus de cette histoire dans les médias semble indiquer l'inverse : il est rapporté qu'un ordinateur (et non une équipe d'ingénieur) a remporté la victoire. Je comprends bien intuitivement cette tournure, mais elle me semble relever, à strictement parler, de l'abus de langage, et je pense que cet abus de langage n'est pas innocent mais au contraire assez problématique, principalement parce qu'il relève du sensationnalisme et ouvre la voie à des glissements fantasmatiques de toute sorte qu'on ferait mieux d'éviter si l'on veut se concentrer sur les véritables questions que pose la recherche en IA. Il ne s'agit pas d'amoindrir la prouesse en question, mais plutôt de rester pragmatique sur les conséquences qu'on pourrait en tirer. Car si on dit "un ordinateur a battu le meilleurs joueurs de go", on pourra ensuite penser "ou est-ce que ça va s'arrêter ? Bientôt les ordinateurs nous seront supérieurs en tous points", tandis que si l'on dit "les ingénieurs d'une grande entreprise d'informatique ont battu les meilleurs joueurs de go à l'aide d'un ordinateur", on voit bien que les craintes seront d'un ordre différent. Pas forcément nulles ni moins préoccupantes, mais relevant plus de la politique que de la science fiction. Il ne faudrait donc pas se tromper de menace (sur ce point cette conférence de Jean-Gabriel Ganascia est assez éclairante).

J'ai peur d'enfoncer des portes ouvertes en relevant ce point, mais puisque cet abus de langage est si répandu, puisque jamais nulle-part je n'ai lu que ce sont des ingénieurs qui ont joué au jeu de go et gagné, et puisqu'une minorité de transhumanistes semblent réellement plus préoccupés par la science fiction que par la politique, peut-être que ça vaut la peine de s'attarder sur les raisons qui me font croire qu'à l'évidence, c'est bien la bonne lecture de ce qui s'est produit.

La raison principale est très simple : ceux qui ont pris les décisions, qui ont implémenté l'algorithme, organisé l'événement, allumé la machine et lancé le programme, et même ceux qui ont posé les pièces sur la table de jeu suivant les indications de la machine, ce sont des humains. La machine n'a pas joué au jeu de go parce qu'elle n'a jamais choisi délibérément d'entrer dans la partie. Hors jouer est un acte intentionnel. La machine a donc seulement servi à jouer, d'une manière assez spéciale, certes. Voilà pour les portes ouvertes.

Actions, raisons et causes

Tout ceci relève du bon sens, alors peut-être serait-il intéressant de comprendre pourquoi l'on a tendance à affirmer l'inverse. Le fait que les ingénieurs aient utilisés un outil plutôt que de jouer eux-mêmes sans aide d'un ordinateur me semble être un aspect superficiel : l'utilisation d'artefact n'enlève rien à l'intentionnalité d'une action. Je peux jouer aux échecs avec des gants de boxe pour déplacer les pièces, on ne dira pas pour autant que ce sont les gants qui jouent. [ajout] Le fait que l'artefact soit en partie autonome vis-à-vis de ses concepteurs n'est pas pertinent non plus : c'est le cas de n'importe quel outil (au mieux cela peut amener à reformuler ainsi : les ingénieurs de google ont conçu une machine qui peut permettre à n'importe qui de gagner contre les meilleurs joueurs de go).

Un cas plus intéressant est [/ajout]si j'utilise un bras mécanique télécommandé (mais choisis toujours les coups): on dira toujours que c'est moi qui joue, mais peut-être que dans ce cas il serait acceptable d'affirmer, à un moment donné (lors du déplacement d'une pièce) que le bras mécanique joue à ma place, qu'il fait un coup. Enfin c'est toujours moi qui ait joué la partie dans son ensemble, même si le bras a joué chaque coup individuel, physiquement du moins.

Nous sommes donc disposés, sémantiquement parlant, à attribuer certaines actions à nos outils quand ces actions jouent un rôle instrumental vis-à-vis des nôtres, c'est-à-dire que nous les leur avons déléguées. Ce qui fait qu'on a tendance à affirmer que c'est l'ordinateur qui a gagné la partie, c'est que dans ce cas, nous avons quasiment tout délégué : l'ensemble des choix de coups sont le fait des algorithmes d'alpha-go. Seule une action très générale est encore du ressort d'êtres humains : quelque chose comme décider de jouer cette partie en utilisant la machine, gagner, et ainsi démontrer l'efficacité de ce type de technologie.

Mais sauf à être animiste (ou peut-être adepte de Bruno Latour), il ne faut pas prendre trop au sérieux ce type de discours. Il ne nous viendrait pas à l'idée d'affirmer que le bras mécanique joue intentionnellement les coups. Une tempête peut aussi arracher des arbres, mais il ne s'agit pas a priori d'une action intentionnelle. De même, un algorithme peut choisir tous les coups d'une partie pour mener à la victoire, mais il ne s'agit pas a priori d'une action intentionnelle.

Ce qui caractérise typiquement les actions intentionnelles dans la littérature philosophique est la possibilité d'être justifié par des raisons : un agent fait une action intentionnellement quand il l'a fait pour une certaine raison. Un joueur de go place une pièce à cet endroit pour protéger un groupe de pièces qui risque d'être pris. Il protège ce groupe de pièce pour conserver un avantage face à son adversaire, et il fait ceci pour tenter de gagner la partie. Nous avons ici une chaîne de raisons qui sont toutes, comme l'analyse Anscombe, des raisons pour la même action (poser une pièce sur le jeu, c'est protéger un groupe de pièce, et c'est tenter de gagner), et qui correspondent à plusieurs descriptions compatibles, mais de niveaux différents, de cette même action.

Si maintenant on se demande pourquoi un ordinateur sélectionne tel coup, il me semble que le type de réponse approprié sera causal plutôt que rationnel. Il sélectionne tel coup parce que c'est celui qui a une plus forte pondération dans l'algorithme, et celui ci a une plus forte pondération parce qu'il a été favorisé, dans ce type de configuration, lors de la phase d'apprentissage de l'algorithme. Ici il n'y a aucune raison, seulement des causes. L'ordinateur n'a pas pour but de jouer le coup qui a le plus de poids, ni n'a attribué ce poids dans un but particulier.

[ajout] Je ne veux pas dire par là qu'il ne peut y avoir de lecture causale aux actions d'un agent humain. On pourrait aussi bien dire qu'un joueur déplace la pièce à cet endroit parceque les muscles de son bras on reçu un signal nerveux, parceque tel groupe de neurones s'est activé, etc. (la différence étant qu'on fait maintenant appel à des actions différentes, passées, pour expliquer l'action présente, et que l'agent ne peut vraiment revendiquer ces actions). La question des rapports qu'entretiennent raisons et causes est une question difficile, au cœur de la philosophie de l'esprit. Mais ce qui importe ici n'est pas ce rapport, mais le fait qu'une lecture intentionnelle soit également disponible, quand il ne me semble pas que ce soit le cas à propos d'un algorithme.[/ajout]

Pourtant il est vrai qu'on a parfois tendance à attribuer des raisons aux algorithmes : mon logiciel affiche un warning quand je le ferme sans avoir enregistré mon document pour m'éviter de perdre des données. Mais ce "pour" n'est pas à proprement parler une raison qu'entretient l'algorithme lui-même, ni une raison pour cet événement particulier : c'est une raison qui a justifié l'implémentation de cette règle par les concepteurs de l'algorithme, c'est à dire que la raison (éviter la perte données) justifie non pas cette action particulière (afficher un warning ici et maintenant), mais plutôt la structure même de l'algorithme (toujours afficher des warnings dans tel cas), ce qui relève des concepteurs. Il faut bien voir, à ce titre, que le code qui est exécuté sur la machine est un code compilé pratiquement illisible par un être humain, duquel il serait difficile de déduire la règle qui le motive, tandis que le code source écrit par les ingénieurs est beaucoup plus lisible : il exprime les directives, ce qu'on veut que le logiciel fasse, d'une manière communicable (tout bon informaticien sait qu'être un bon programmeur, c'est avant tout savoir bien communiquer, à travers le code produit, avec l'équipe de développeurs qui aura à relire ce code). Le code compilé, opaque, obéit à une logique causale au moment de son exécution tandis que le code source, exprimé dans un langage, obéit à une logique rationnelle.

Pourtant on aura tendance à attribuer, à tort, une raison à l'événement particulier (la fenêtre de warning). Il se produit un phénomène de contamination des raisons : l'événement hérite, dans notre description, des raisons qui justifient en fait la règle implémentée. Nous parlons exactement comme si le logiciel voulait nous éviter de perdre des données, comme s'il avait des intentions. Mais c'est un abus de langage, et c'est ce même type d'abus de langage qui nous fait dire qu'alpha-go a battu les meilleurs joueurs de go. En effet je pense qu'il en va de même pour alphaGo : s'il y a une rationalité à trouver dans son fonctionnement, ce n'est pas à propos des coups particuliers que joue l'ordinateur ici et maintenant, mais à propos de la structure algorithmique générale du programme, et cette structure est parfaitement accessible aux concepteurs du programme : il s'agit d'une structure qui permet "d'apprendre" sur la base de jeux de données les meilleurs coups à jouer.

L'opacité algorithmique

C'est ici que peut intervenir l'un des principaux arguments avancés par les afficionados de l'IA en faveur d'une spécificité de ce type d'algorithmes par apprentissage, qui est l'absence de transparence : les choix particuliers que produit l'algorithme ne sont pas vraiment réductibles à un ensemble de règles accessibles qui auraient été implémentées explicitement par les concepteurs, puisqu'ils résultent d'un apprentissage sur la base d'un jeu de données. On ne comprends pas "pourquoi" l'ordinateur choisi ce coup plutôt qu'un autre. Ou plus précisément : on ne comprends pas "pourquoi" l'apprentissage a abouti à telle subtile structure de pondération pour les coups. Ce type de technologie serait donc particulier, et peut-être que cela justifierait de parler d'intelligence ou d'intentionnalité.

Mais cet argument me semble très faible. Il n'y a rien de bien mystérieux dans toute cette chaîne de processus algorithmiques, et la réponse à ce "pourquoi", même inaccessible, sera toujours bien causale et non rationnelle. Les raisons, par opposition aux causes, se situeront toujours à un niveau supérieur (pourquoi tel algorithme d'apprentissage, pourquoi tel jeu de données, pourquoi tels critères de succès dans l'apprentissage) qui nous reste accessible. C'est toujours là que se situe l'intentionnalité.

Ce qu'il y a de particulier en l'espèce, c'est qu'on ne contrôle plus entièrement la chaîne des causes qui aboutit à telle ou telle action (il faudrait analyser nous même le jeu de données, ce qui est humainement impossible). Mais il ne me semble pas que l'impossibilité pratique à retracer l'histoire causale d'une action justifie l'idée qu'il faudrait lui attribuer une intention. Ce n'est pas parce que la cause est illisible qu'elle devient une raison. Il est d'ailleurs notoire que la machine serait bien en mal de nous communiquer ce qui s'apparenterait à des raisons précises pour un coup particulier (sauver ce groupe de pièces) ou qu'on pourrait extraire des raisons de ce type, justement de par cette opacité : certains coups joués par alphago paraissent bien mystérieux, ce qui est en un sens fascinant, mais peut-être seulement fascinant parceque nous avons pour habitude de déceler des raisons dans toutes les actions, et qu'ici il n'y en a pas réellement.

L'opacité causale me semble donc être un argument assez faible pour justifier l'attribution d'intentions à la machine. En fait cette opacité n'a rien de spécifique à l'intelligence artificielle. Quand je publie un article de blog sur internet, c'est bien moi qui fait cet action, mais l'histoire causale qui mène au résultat souhaité m'est pratiquement inaccessible. On pourrait répondre qu'elle est plus ou moins accessible à des experts, et donc que le processus est toujours sous contrôle de la société humaine. Mais en fait il n'y a aucune raison que ce soit systématiquement le cas quand on utilise un outil : les algorithmes même classiques peuvent effectuer des calculs pratiquement irréalisables par un humain. Plus généralement, le développement technique précède bien souvent la théorie, et a lieu suivant des critères pragmatiques d'efficacité (comme dans le cas des machines à vapeur, analysé par Hacking). On peut utiliser un outil de manière fiable sans vraiment savoir pourquoi ça marche. Et d'ailleurs, où doivent s'arrêter les explications ? Devrait on décrire par la physique quantique chaque chose que nous utilisons quotidiennement pour nous assurer qui n'y a là rien d'intentionnel (que c'est bien nous, et non le couteau qui coupe intentionnellement l'oignon) ? Devrait-on avoir trouvé la théorie finale de la physique ? Le monde dans son ensemble nous est, en une certaine mesure, opaque. Mais ce n'est pas un critère pour y voir une rationalité cachée.

De la même façon, on peut utiliser de manière fiable un programme ayant subit un apprentissage pour gagner au jeu de go sans vraiment comprendre pourquoi ça marche, pourquoi tel ou tel coup est joué, et ça n'a rien de problématique quant au statut d'outil de la machine tant qu'on est assuré de l'efficacité de l'outil. Cette mise en avant si fréquente de l'opacité des algorithmes d'apprentissage pour justifier de leur particularité par rapport à d'autres types d'algorithmes me semble donc déplacée, puisque ça ne modifie pas réellement la nature de cet algorithme. Il me semble que prétendre l'inverse (voir de la rationalité cachée dans l'opacité causale) relève de la pensée magique.

L'IA générale

Il y a plusieurs réponses possibles à faire à cela. On pourra d'abord, comme il est souvent fait, distinguer l'intelligence experte ou spécialisée de l'intelligence générale, celle qui s'appliquerait dans tous les domaines (quoi que ça puisse vouloir dire), et affirmer que mes arguments ne concernent que la première : peut-être qu'alpha-go n'a pas "vraiment" battu des humains, mais peut-être qu'une intelligence artificielle générale serait plus semblable à la nôtre, et peut-être que les machines nous dépasserons un jour. On pourra ensuite proposer de naturaliser la rationalité, de réduire les raisons aux causes (peut-être en s'appuyant sur des arguments darwiniens) pour défendre que finalement la distinction entre action intentionnelle ou non n'est pas si franche.

Je suis là encore sceptique pour plusieurs raisons. D'abord parce qu'il me semble que l'IA spécialisée est beaucoup plus utile comme outil que l'IA générale, et je parierais que c'est la première qu'on verra vraiment se développer de manière importante dans les années à venir. Il y a bien des tentatives d'imiter les humains par des machines, mais les applications de ce type de technologie, au delà de la pure démonstration, me semblent assez limitées. Un algorithme spécialisé sera toujours plus efficace, et je pense qu'ils se multiplieront dans des domaines variés. Mais c'est bien sûr une spéculation.

Une raison plus importante est que je ne pense pas que les algorithmes à apprentissage tels qu'ils sont conçus soient vraiment adaptés à une IA générale, ni même que la notion d'IA générale n'ait beaucoup de sens. En effet ces algorithmes ne fonctionnent que sur la base de jeux de données sélectionnés par des humains, et surtout, sur la base de critères de succès décidés par des humains. Qu'est-ce qu'un jeu de donnée parfaitement général ? Qu'est-ce qu'un critère de succès parfaitement général ? Le nom "donnée" occulte le fait que les données sont généralement construites en fonction de critères de sélection, depuis certains schèmes conceptuels, en s'appuyant sur certaines connaissances théoriques et techniques, suivant certaines fins : le pur donné est un mythe que les philosophes du 20ème siècle comme Sellars nous ont permit d'abandonner. Quant aux critères de succès, il est encore plus évident qu'ils sont relatifs à certaines fins humaines. L'idée de jeu de données "parfaitement général" ou de critères de succès "parfaitement généraux", et indépendant de visées instrumentales de la part des utilisateurs et concepteurs de la machine, n'a donc que peu de sens.

En outre ceci ne résout pas le problème qui est qu'une IA même générale agira suivant des causes plutôt que pour des raisons. L'idée de réduire les raisons aux causes, qui est je pense nécessaire pour qui veut défendre qu'une IA même généralisée puisse s'apparenter à un agent intentionnel, me paraît problématique dans la mesure où elle revient à réduire les valeurs aux faits. Or on connaît depuis Hume de bons arguments philosophiques à l'encontre de cette idée.

[ajout] C'est un peu cette idée qui sous-tend le test de Turing : si nous avons affaire à un algorithme indiscernable d'un être humain, nous serions bien en position de lui attribuer des raisons d'agir aussi bien qu'un être humain. Mais il faut faire attention ici : en aucun cas le test de Turing ne constitue en lui-même un argument en faveur de l'idée que les raisons d'agir peuvent se réduire à une certaine histoire causale, d'abord parce que ce n'est pas un argument du tout mais un test, ensuite parce que l'utiliser dans un argument serait confondre ce qui nous permet d'inférer à titre explicatif les raisons d'agir de quelqu'un et ces raisons elle-même (or ce type d'inférence est toujours faillible -- c'est une confusion épistémologie/ontologie) et enfin parce qu'un tel argument serait circulaire, il devrait supposer qu'il est en principe possible qu'un algorithme passe le test avant de pouvoir affirmer que l'intentionnalité est réductible à la causalité (du moins si l'intentionnalité suit une sémantique Kripkéenne, c'est à dire que sa nature est à découvrir empiriquement plutôt que sur la base d'une simple analyse conceptuelle). [/ajout]

Tout ceci est lié à un problème plus général qui est qu'il me semble que ni la conscience en général ni l'intelligence en particulier ne sont de nature algorithmique. C'est "l'éléphant dans la pièce" que j'évoquais dans le dernier article : l'idée même qu'il puisse y avoir une IA "générale" ou "forte" implique de forts présupposés en métaphysique de l'esprit

Il est à peu près certain que la capacité à raisonner est centrale pour l'intelligence, et je n'aurais pas trop de mal à accepter qu'une certaine forme d"algorithmicité" est essentielle à la conscience humaine, au sens où il est nécessaire, pour être conscient comme nous le sommes, de disposer de capacités à exécuter des algorithmes. Mais en faire une condition suffisante est une autre chose : il me semble que la plupart de nos capacités algorithmiques sont inconscientes plutôt que conscientes (comme quand nous acquérons des automatismes jusqu'à ne plus y penser), qu'elles supportent plutôt qu'elles ne constituent notre conscience et pour cette raison j'ai tendance à penser que la conscience comme l'intelligence "générale" sont autre chose qu'une capacité algorithmique. Finalement cette capacité qu'a notre cerveau à exécuter ce qui s'apparente à des algorithmes pourrait aussi bien être un outil "interne", seulement plus directement accessible que les ordinateurs, que nous ne faisons qu'externaliser quand nous créons des programmes.

En tous les cas, quelle que soit la position qu'on adopte en philosophie de l'esprit (et nous touchons assez directement, avec ces histoires de raisons et de causes, aux problématiques de réduction et d'exclusion causale analysées par Kim), je ne vois rien qui annonce dans les développements technologiques actuels ne serait-ce que les prémisses d'une véritable "IA générale" parfaitement autonome.

Risques et gains des technologies

Ce qui me semble vraiment déterminant en revanche dans cette histoire, avec ce type d'outils, c'est qu'on délègue de manière instrumentale des étapes là où, auparavant, chaque étape devait être justifiée intentionnellement et effectuée consciemment : il n'y a plus de raison de jouer tel ou tel coup, mais plutôt une raison de lancer la machine et de jouer les coups qu'elle nous indique, et cette super-raison, c'est qu'on veut gagner la partie (pour démontrer l'efficacité de notre algorithme). Les raisons intermédiaires, instrumentales, disparaissent avec la technologie, pour ne plus laisser que des raisons de plus haut niveau.

C'est un aspect philosophiquement intéressant sur au moins deux plans : de manière positive, parce que cela permet de relativiser l'idée que "la machine va remplacer l'homme". En fait la technologie ne fait jamais que déplacer l'activité humaine vers des niveaux moins instrumentaux et sans doute plus intéressants (le cas du jeu de go est assez trompeur à cet égard puisqu'on trouve un intérêt à cet activité même, et pas seulement dans le fait de gagner, mais le fait qu'il existe des machines qui nous battent aux échecs n'a jamais empêché personne de jouer). Ceci dit ce déplacement peut s'accompagner de défis concernant l'organisation sociale... De manière négative ensuite, parceque le fait de déléguer ainsi les fins intermédiaires, d'exercer notre contrôle à un niveau supérieur uniquement, comporte généralement des risques. Ça semble peu visible dans le cas d'un jeu, mais il pourrait y avoir un risque à laisser un algorithme gérer la sécurité d'une centrale nucléaire dans la mesure où l'on imagine qu'il ne saura faire face aussi bien qu'un humain à une situation imprévue, là où un jugement contextuel faisant appel à des raisons de haut niveau serait nécessaire. C'est que la manière dont une finalité de haut niveau est implémentée en finalités intermédiaires est généralement imparfaite.

Cependant ces deux aspects n'ont rien de spécifique aux algorithmes par apprentissage. Il y a toujours un gain et un risque à déléguer aux machines, à automatiser. Les machines nous ont toujours servi à ne plus faire consciemment certaines étapes intermédiaires pour nous concentrer sur des buts qu'on juge plus importants. Elles le font souvent mieux que nous, et sans que nous ne sachions forcément comment (du moment que ça marche). Il y a toujours eu des risques à l'automatisation face à l'imprévu, et peut-être dans certains cas une perte qualitative (les objets faits mains sont toujours valorisés). On peut penser que ce risque face à l'imprévu est moindre dans le cas des algorithmes par apprentissages puisqu'ils ne s'appuient pas sur un ensemble figé de règles, seulement je pense qu'il se pose tout autant, parce-que les tâches qu'on délègue à ces algorithmes sont généralement plus complexes et ambitieuses d'une part (conduire une voiture), si bien que le risque de défaut est à la hauteur de la flexibilité de l'algorithme, et parce que la manière dont est élaboré le jeu de donnée qui sert à l'apprentissage et les critères de succès implémentés sont cruciaux d'autre part, comme l'illustre les débats sur "l'éthique" à implémenter dans les voitures autonomes : tout ceci n'est que l'analogue du problème des bonnes règles à implémenter dans un algorithme classique, peut-être appliqué à des cas plus complexes.

Mais le point sur lequel je souhaitais appuyer dans cet article est que l'idée d'une discontinuité, d'une différence de nature entre ces nouveaux types d'algorithmes et les technologies plus ancienne, et toutes les peurs ou les fantasmes qui accompagnent cette idée, jusqu'à l'idée d'une singularité, d'une super-intelligence qui remplacerait l'homme, me semblent infondés, si bien que rien ne justifie d'attribuer plus d'intentionalité à ce type d'algorithmes qu'à n'importe quel autre : ce sont bien in fine des ingénieurs qui sont parvenus à battre, à l'aide d'une machine, les meilleurs joueurs de go.

mercredi 23 mai 2018

Le faux problème de l'intelligence artificielle

Animation2

Y aura-t-il un jour une intelligence artificielle en tout point supérieure à l'homme ? Est-ce que ça arrivera prochainement ?

Personnellement je donnerais mon assentiment aux deux réponses suivantes :

  • oui bien sûr, et c'est déjà le cas depuis des décennies !
  • c'est très peu probable ; à ce jour il n'existe aucune intelligence artificielle, il faudrait déjà commencer par en créer une !

Je pense que ce sont les deux seules manières *intelligibles* de répondre à cette question mal posée, une fois la confusion sur le terme "intelligence" dissolue.

De l'usage des métaphores

Car ce terme inadéquat est à la source de beaucoup de confusions. Quand on parle d'intelligence à propos d'algorithmes, c'est toujours une métaphore, comme quand on dit "le distributeur de billets est intelligent, il a deviné ma langue à partir de ma carte bancaire et l'utilise pour l'interface" (en fait c'est le concepteur du programme qui est intelligent ici). Prendre la métaphore trop au sérieux, c'est procéder à un abus de langage qui ouvre la voie à une série de fausses questions mystico-métaphysiques qu'on ferait mieux de laisser aux auteurs de science fiction.

En fait on devrait cesser d'employer le terme "intelligence artificielle", et parler plutôt d'algorithmes adaptatifs, ou quelque chose du genre pour dégonfler la bulle métaphysique qui entoure le secteur de l'IA. Ceci nous permettrait de ne pas oublier que les algorithmes, les programmes, sont avant tout des outils : ils sont fabriqués dans un certain but par des concepteurs, puis utilisés dans ces buts (ou d'autres) par des utilisateurs, et bien-sûr ces algorithmes peuvent être faits intelligemment, ils peuvent aussi (en un certain sens) nous rendre plus intelligents, c'est à dire augmenter l'étendue de nos capacités dès lors que nous savons les utiliser. Mais ils ne sont pas intelligents, ou seulement en un sens métaphorique, simplement parce que ce ne sont pas des personnes dotées d'intentions, mais des outils que les personnes utilisent.

Si l'on accepte ce cadre pour la discussion, que peut bien signifier l'idée d'une intelligence artificielle supérieure à l'homme ?

Cela peut signifier, si l'on accepte d'utiliser la métaphore, que certains programmes permettent de réaliser des choses qui seraient hors de portée d'un homme sans outils, ou permettent de faire face à plus de situations variées, et alors la réponse à la question est triviale : évidemment oui, c'est le cas depuis des décennies au moins.

Ou cela peut signifier, si l'on choisit d'interpréter sérieusement le terme d'intelligence, que l'on parvienne à créer artificiellement d'authentiques personnes, des êtres véritablement vivants, autonomes, capables de choisir leurs propres fins dans la société et de réaliser ces fins, et alors la réponse est : il faudrait déjà avoir créé une seule de ces personnes artificielles pour penser qu'il y en aura bientôt une qui dépassera l'homme dans ses capacités. Ce n'est pas le cas aujourd'hui, et on en est bien loin (au passage, il n'y a aucune raison de penser que ce type de projet relève uniquement de l'IA : pourquoi est-ce que la biologie, les neurosciences ou la sociologie ne seraient pas pertinentes pour savoir ce qu'est une personne ou un être vivant, et donc savoir comment en créer une artificiellement ?).

Et la société ?

Il me semble que les fan-boys et fan-girls de l'IA souffrent de myopie, pensant l'intelligence sur un plan exclusivement individuel, exclusivement computationnel, et occultant complètement les autres aspects, notamment sociaux (on leur a souvent reproché, à raison). Il faut avoir une vision extrêmement étriquée de ce qu'est la vie pour croire que les algorithmes de l'IA, aussi impressionnant soient-ils, s'apparentent plus à des personnes humaines qu'à des outils. N'oublions pas que l'intelligence est sociale, et ce doublement :

  • c'est à la société que nous devons d'être intelligent, car c'est elle qui nous éduque et qui détermine les buts qu'on peut se fixer ;
  • même éduqué, nous ne sommes jamais intelligent seul, mais seulement par notre capacité à utiliser les outils que la société nous fournit de par son organisation, et qu'aucun d'entre nous ne saurait fabriquer seul.

Autrement dit, on ne peut être intelligent qu'en s'appuyant sur des millénaires de développements passés, non seulement pour acquérir une intelligence, mais aussi pour en faire usage.

Si l'on prend acte de ceci, on peut en conclure, d'une part, que notre propre intelligence (au sens particulier de capacités cognitives, de ce qu'il est possible de réaliser) augmentera d'autant plus que nous disposerons d'outils puissant. C'est-à-dire que les développements de l'IA participent paradoxalement à relever la barre de ce qu'il faudrait pour être plus intelligent qu'un humain. Pensez-y : des ingénieurs ont réussit il y a peu à battre les meilleurs joueur de Go à l'aide d'un outil dont l'utilisation serait en principe accessible à presque tout le monde ! Nous sommes tous potentiellement d'excellents joueurs de Go : la barre est bien plus haute aujourd'hui qu'elle ne l'était il y a quelques années... (S'il y a un véritablement danger à l'avenir, finalement, c'est que ces outils ne soient pas égalitairement répartis et qu'émerge non pas une intelligence artificielle, mais un groupe d'humains monopolisant l'usage d'outils puissants pour assujettir les autres : voilà un problème bien plus pressant qui devrait nous préoccuper.)

D'autre part, du fait que la notion d'intelligence est intrinsèquement sociale, on peut envisager que même si nous étions capable de créer une authentique personne artificielle (je ne pense pas que ce soit à la portée des technologies actuelles, mais imaginons), celle-ci ne pourrait être intelligente qu'en prenant part à notre société et en en étant dépendante (comme nous le sommes) à la fois pour son éducation et pour ses moyens (ce qui demanderait au préalable qu'on accepte de l'intégrer). Il me semble que cela change assez radicalement la donne en termes de scénario catastrophe, et (bien que j'admets que ce soit discutable) il me semble que même dans ce cas, il serait légitime d'affirmer que c'est la société humaine qui est devenue plus intelligente, et non les machines qui ont dépassé les hommes.

Je ne veux pas, en disant ça, nier les progrès de ce qu'on appelle l'intelligence artificielle, ni les enjeux philosophiques qu'il peut y avoir à ces progrès, mais seulement rappeler que ces enjeux se situent et se situeront toujours dans la continuité des enjeux qu'ont toujours posé les technologies. N'importe quelle technologie peut nous dépasser si l'on est incapable d'en prévoir les conséquences, ou apporter des nouveautés dans l'ordre social qu'on n'imaginait pas, et tout ceci peut exiger des réflexions d'ordre éthique ou autre. Mais il n'y a rien de fondamentalement nouveau ici : les ordinateurs permettent déjà de faire des choses hors de portée d'un humain sans ordinateur, ils ont complètement modifié la façon dont nous interagissons en société, et c'est le cas de bien d'autres technologies. Mais à ce jour, si une voiture autonome provoque un accident, c'est toujours à son constructeur qu'en incombera la responsabilité, pas à la voiture, simplement parce que la voiture est un outil et non une personne.

L'éléphant dans la pièce

Pour finir, il faut bien le dire : il y a comme un "éléphant dans la pièce", comme disent les anglo-saxons, dans tous ces débats : la philosophie de l'esprit. Car tous ces débats sur l'intelligence artificielle relèvent je pense d'une mystique qui a sa source dans l'idée que nous-même ne serions, finalement, que de puissants algorithmes adaptatifs, si bien que ces algorithmes que nous implémentons nous sont analogues. Je veux bien discuter de philosophie de l'esprit, mais à ce jour les sciences cognitives ne vont pas nécessairement dans cette direction. Là aussi il y a une myopie de la part des tenants de l'IA forte : ils considèrent implicitement comme réglés des problèmes comme celui de la conscience qui relèvent de la biologie ou d'autres disciplines, alors que nous commençons à peine à les aborder. Peut-être que nous ne sommes finalement que des algorithmes adaptatifs implémentés dans de la chair vivante, mais ce n'est pas aux chercheurs en informatique d'en décider, et j'aimerais que l'on cesse de nous imposer des vues métaphysiques plus ou moins fumeuses, seulement soutenues par des abus de langage, quand il est question de choses d'un ordre bien plus pragmatique, à savoir, comment gérer l'utilisation sociale des puissants outils qui sont aujourd'hui à notre disposition.

samedi 5 mai 2018

La réalité peut-elle buguer ? Ou pourquoi le monde n'est pas une simulation numérique.

Le monde est-il une simulation numérique ? J'entends par là l'idée que la réalité serait un algorithme particulier qui produirait les phénomènes du monde, ou qu'elle serait une machine de Turing implémentant cet algorithme.

Je pense qu'on peut définitivement rejeter cette idée pour la raison suivante : un algorithme est normé, mais les faits ne le sont pas.

En effet, il me semble qu'une des caractéristiques essentielles d'un algorithme est qu'il peut-être bugué. Or qu'est-ce qu'un "bug"? Quelque chose qui n'est pas conforme à certaines règles ou normes. Mais l'idée que la réalité soit buguée, ou puisse l'être ou aurait pu l'être, n'a pas de sens : elle est telle qu'elle est. Donc le monde n'est pas une simulation numérique.

Examinons cet argument dans les détails, afin de le rendre plus convaincant.

1. La réalité peut-elle "buguer" ?

Commençons par accepter qu'un algorithme est normé (qu'il peut en principe buguer), et partant, imaginons que la réalité soit un algorithme et qu'elle "bugue". Comment le saurions-nous ?

Si nous nous faisons une idée de ce que pourrait être l'algorithme de la réalité, il se pourrait que certains phénomènes nous apparaissent comme des "bugs". Cependant, les penser ainsi, c'est postuler que nos représentations sont conformes à la réalité : nous serions parvenu à déceler les normes qui gouvernent les phénomènes, l'algorithme du monde, et certains ne s'y conformeraient pas. Mais pourquoi ne pas plutôt croire que nous nous étions trompés dans nos représentations ?

C'est bien sûr cette seconde attitude qu'il est rationnel d'adopter. S'il y a un"bug", il ne se situe pas dans la réalité, mais dans nos représentations.

Mais là, nous venons de montrer qu'il sera toujours irrationnel de croire qu'il y a des bugs dans le monde : c'est toujours nous qui buguons. En tant qu'être rationnels, nous devrions donc toujours penser que la réalité n'est pas buguée. Or c'est paradoxal : en quoi une simulation quelconque ne pourrait en principe être buguée ? Et donc pourquoi serait-ce rationnellement impensable ?

À ceci il y a deux réponses possibles.

La première consiste à affirmer que la réalité pourrait en principe être buguée, mais qu'elle ne l'est pas parceque Dieu (appelons ainsi l'auteur de la simulation) est parfait. Les élans théologiques de cette option un peu ad-hoc ne satisferont pas tout le monde cependant... En tout cas, elle relève clairement de l'acte de foi métaphysique.

La deuxième réponse consiste à rejeter l'idée que nous devrons croire que le monde n'est pas bugué: il serait rationnel de l'envisager, bien que ce soit une chose inconnaissable. Peut-être que ce que la science découvre par ses lois, c'est un algorithme défectueux, de fausses normes. Mais cette option est étrange : si le monde était bugué, quelle différence cela ferait-il avec l'idée qu'il suit certaines normes alternatives rendant compte du bug comme d'une fonctionnalité voulue ? (Il pourrait y avoir des phénomènes qui ne répondent à aucune norme, mais alors il ne s'agirait plus de bugs puisqu'ils ne peuvent être produits par un algorithme.)

Postuler l'existence de normes inconnaissables, et qui sont peut-être violée, relève donc également de la métaphysique, sinon de la théologie. Sauf à prétendre connaître la forme que doivent prendre les normes du monde, c'est une question indécidable.

Si l'on rejette ces options métaphysiques, il nous faut accepter que la réalité ne peut pas être buguée, ce qui la différencie d'un algorithme. Il y a un problème de l'ordre de la direction de l'ajustement ici : ce sont nos représentations qui doivent s'ajuster à la réalité, tandis que dans le cas d'un algorithme, c'est habituellement l'inverse. Affirmer que le monde est une simulation est donc une erreur de catégorie.

2. Un algorithme doit-il pouvoir buguer ?

Cependant il y a une autre réponse à notre argument de départ qu'il convient d'examiner, car toute cette discussion suppose une certaine compréhension de ce qu'est une simulation, ou un algorithme. On pourrait objecter qu'il ne s'agit pas d'une caractéristique essentielle des algorithmes que de pouvoir avoir des bugs, c'est à dire de suivre des normes : les normes leurs seraient externes. Mais là, je dirais qu'on joue sur les mots.

Mettons nous donc d'accord : les normes sont-elles essentielles ou non aux algorithmes ? Un algorithme est-il ou non par définition normé ? Pour ma part je conçois un algorithme comme l'implémentation d'un ensemble de règles, donc de normes. Je pense que c'est une bonne conception, ne serait-ce que parceque dans la vie courante, ce que nous appelons algorithme peut être bugué, et pouvoir être bugué (en principe), c'est répondre à des règles ou à des normes. Défendre qu'il se pourrait qu'un algorithme particulier ne puisse en principe être bugué (remarquez la double modalité : il se pourrait qu'ils ne puissent pas...) revient à changer de sujet.

Mais soyons charitable et examinons cette possibilité. On pourrait dire que le fait pour un algorithme d'être bugué n'est pas essentiel, mais relatif à des normes. Il s'agirait de dire qu'un algorithme bugué est un algorithme qui ne se conforme pas à nos normes, et que s'il le faisait, si nous corrigions l'algorithme, ce serait un algorithme différent puisque nous l'avons modifié. Donc nous ferions peut-être mieux de parler de "programme" bugué, dont nous modifions l'algorithme pour qu'il ne le soit plus. L'algorithme serait en quelque sorte le squelette du programme, la structure qu'il a de fait, indépendamment des règles à suivre, et c'est le programme, non l'algorithme, qui serait bugué. La réalité serait l'algorithme, non le programme, peut-être un algorithme sans programme.

Très bien, acceptons ce langage. Mais alors la thèse suivant laquelle le monde est une simulation devient beaucoup moins forte, puisque ce que nous voulons dire par "le monde est un algorithme", c'est seulement que la distribution des phénomènes peut en principe être décrite, a posteriori, comme satisfaisant certaines règles (paradoxalement, la thèse de Church-Turing, souvent invoquée par les tenants de l'hypothèse suivant laquelle le monde est une simulation, participe elle-même à rendre la thèse moins intéressante en élargissant la classe de ce qui pourrait compter comme satisfaisant des règles algorithmiques). C'est une thèse moins intéressante que la première, puisque quiconque adhère a l'idée qu'il existe des lois naturelles gouvernant les phénomènes sera prêt à en accepter le cœur (il s'agit tout au plus, en sus de l'idée de loi naturelle, d'adopter une métaphysique déterministe et discrétiste).

Il se pourrait que certains phénomènes résistent à une transcription dans un langage, et dans ce cas, nous devrions en conclure que le monde n'est pas un algorithme. Il me semble que cette conclusion est déjà atteinte, puisque la plupart de mes expériences résistent de fait à une transcription linguistique. Enfin, peut-être le pourraient-elles "en principe"... Aussi dire que le monde est une simulation, ce serait au moins dire que que nos expériences et tous les phénomènes du monde pourraient, en principe, être transcrites en un langage naturel, le langage de la réalité. C'est un vœux pieux sur lequel je ne me prononcerai pas (qui n'est en fait rien d'autre que la thèse de Lewis, suivant laquelle le monde serait une "mosaïque humienne" de propriétés naturelles).

Mais une fois ce premier pas fait, l'idée que ces phénomènes une fois transcrits se conformeraient à des lois est une hypothèse qui ne dit pas grand chose. Ne trouvera-t-on pas toujours quelque norme convoluée pour rendre compte de tout phénomène, tant qu'il est possible de le catégoriser, de décrire ce dernier dans un langage ? Dans ce cas notre thèse confinerait à la trivialité, et il se pourrait que nous n'affirmions rien du tout.

3. Est-ce une thèse substantielle ?

Le problème est qu'il est trop facile de trouver a posteriori des règles pour rendre compte de n'importe quelle séquence de phénomènes. C'est certainement le cas si le monde est fini. Certes, si les phénomènes sont en nombre infini, il se peut qu'aucun ensemble fini de règles ne puisse décrire leur répartition (ou aucune axiomatisation finie, même usant de schémas d'axiomes). La thèse suivant laquelle le monde est une simulation reviendrait alors à postuler que la distribution des phénomènes peut être décrite par un ensemble fini de règles (et peut-être l'idée, à préciser, que ces règles produisent les phénomènes). Cependant nous n'accédons jamais qu'à un ensemble fini de phénomènes, et un ensemble fini de phénomènes peut toujours être décrit par un ensemble fini de règles, aussi nous ne pourrions jamais, en principe, défaire cette thèse, si bien qu'elle ne peut être que métaphysique.

Ici on pourrait proposer un argument inductif pour défendre l'idée malgré tout : il faut toujours beaucoup moins de lois pour décrire la distribution des phénomènes qu'il n'en faut pour mentionner chacun de ces phénomènes. Ou encore, il est toujours possible de rendre compte des phénomènes par des algorithmes plus simples que celui qui se contenterait de produire une séquence prédéfinie de résultats. Par induction, il serait possible de décrire l'infinité des phénomènes par un nombre fini de règles.

Il semble bien, après tout, que le monde soit régulier... Attention cependant : ces lois ou algorithmes dont je parle ne sont pas les lois de la physique (qui, pour ce qui est de la physique contemporaine, sont non déterministes, ne prennent pas la forme d'algorithmes, et ne possèdent généralement pas de solutions analytiques) mais d'hypothétiques lois d'observation, ou encore des prédictions de modèles numériques déterministes éventuellement basés sur les lois de la physique. Seulement les modèles qu'on peut produire sur la base des lois de la physique sont en nombre infini. Surtout, ils ne sont presque jamais déterministes, si bien que la base d'induction est caduque : nous pouvons certes dégager des lois statistiques pour rendre compte de nos observations, mais rien n'indique qu'il est toujours possible de décrire les phénomènes naturels particuliers (et non seulement leur distribution statistique) comme étant produits par un algorithme plus succinct que ces derniers, puisque ce n'est pas quelque chose que nous faisons habituellement.

Enfin les modèles d'une théorie, au sens de structures mathématiques respectant les lois de la théorie, peuvent avoir une taille infinie (d'autant plus s'ils intègrent les conditions initiales de la simulation, la "configuration du monde"...). Même si nous produisions régulièrement de tels algorithmes (ce qui n'est pas le cas), et même si leur taille augmentait moins vite que le nombre des phénomènes dont ils parviennent à rendre compte, rien en l'état de nos connaissances n'indique que cette taille convergerait pour autant vers une taille finie pour l'infinité des phénomènes apparemment aléatoire de l'univers. Même s'il était possible de rendre compte des phénomènes par un ensemble de règles algorithmiques de manière plus "compacte" qu'en listant simplement leur séquence, il est possible que cet ensemble de règles devienne infini pour l'univers dans son ensemble, si bien que l'induction échoue.

L'idée que le monde est une simulation au sens faible d'un algorithme "non normé", dont il n'y a aucun sens à dire qu'il bugue, est donc déjà métaphysique, en plus d'être relativement moins intéressante qu'il n'y paraît.

Conclusion

Il y a donc plusieurs choses à avaler si l'on compte prétendre que le monde est une simulation numérique : d'abord que toute expérience pourrait être catégorisée par un langage naturel, et qu'un tel langage existe. Puis que les phénomènes ainsi catégorisés sont discrets et peuvent être décrits comme suivant des lois algorithmiques déterministes. Ensuite, si l'on veut se démarquer d'une thèse métaphysique somme toute peu intéressante, il faudrait admettre que ces lois sont des normes. Et il faut, pour couronner le tout, soit avoir recours à un Dieu (ou quelque entité) infaillible qui veille au respect des normes, soit être prêt à accepter que ces normes ne soient en fait pas respectées dans notre bas monde... Or le gain explicatif est quasiment nul : l'idée que tous les phénomènes pourraient être transcrits de manière discrète dans un langage n'est qu'une explication ad-hoc au fait que nous parvenons à produire ce type de transcriptions ; qu'ils suivent des lois algorithmiques n'explique rien quand ces lois ne sont jamais utilisées en pratique pour rendre compte des phénomènes ; enfin que ces lois soient normatives n'est qu'un surplus inutile aux relents théologiques.

Je suis intimement convaincu, pour ces raisons, que la réalité n'est pas une simulation numérique. Mais bien sûr, tout ce que j'ai montré, c'est qu'il s'agit d'une idée métaphysique.

mercredi 2 mai 2018

Idée reçue : les théories scientifiques font des prédictions

Angular Parameters of Elliptical Orbit

Une des conceptions les plus répandues à propos des sciences est l'idée que les théories scientifiques font des prédictions, et incidemment, qu'elles sont justifiées/corroborées par leur succès prédictifs (ou encore qu'elles sont "vraies jusqu'à preuve du contraire"). Or à strictement parler cette idée est fausse : ce ne sont pas les théories qui font des prédictions, mais leurs modèles.

Par modèle j'entends une certaine configuration permise par la théorie qui est capable de représenter une situation particulière du monde, quand une théorie ne représente aucune situation en particulier mais exprime des généralités sur les rapports entre des propriétés hypothétiques du monde. Par exemple : la théorie de la relativité, qui exprime des rapports entre masse/énergie et géométrie de l'espace-temps, vs. un modèle de l'univers dans cette théorie. Il existe une infinité de modèles compatibles avec une même théorie, et il faut voir une théorie scientifique comme un cadre qui permet de construire des modèles adaptés à différents types de situations. Mais ce sont toujours les modèles qui sont prédictifs, non la théorie.

On pourrait dire que je joue sur les mots s'il existait une manière systématique de savoir quel modèle d'une théorie s'applique à quelle situation du monde (ou même si la théorie nous renseignait sur la probabilité qu'un modèle s'applique à une situation donnée) : alors la théorie ferait des prédictions du type : pour tel type de situation du monde, on obtient tel résultat (avec telle probabilité). Le problème est qu'en pratique, on ne dispose d'aucun moyen systématique de savoir quel modèle de la théorie appliquer à une situation donnée. Il existe des paramètres théoriques dont la valeur n'est pas directement mesurable, et qui peuvent être ajustés pour coller aux observations, ou encore des hypothèses spécifiques à une situation donnée qui ne sont pas non plus issues de nos observations (la distribution de matière noire dans l'univers...), etc. Et la théorie elle-même ne nous fournit pas de mesure de probabilité sur ses différents modèles, elle fournit seulement des contraintes sur les modèles qui sont acceptables ou non. Ce sur quoi un succès prédictif nous renseigne, ce n'est donc pas sur le fait que la théorie soit bonne, mais sur le fait qu'un certain modèle de la théorie plutôt qu'un autre s'applique à un type donné de situation expérimentale.

Pour cette raison les théories ne sont pas "vraies jusqu'à preuve du contraire", puisque la réaction logique quand on fait face à une "preuve du contraire" n'est pas d'abandonner la théorie, mais de changer de modèle (modifier la valeur de paramètres ou modifier certaines hypothèses sur le système qu'on veut représenter) jusqu'à trouver le modèle qui fera de bonnes prédictions. Et en conséquence, une théorie scientifique n'est jamais directement corroborée par une induction sur les données des expériences (seul un modèle peut l'être). Elle est plutôt corroborée par ce qui s'apparente à une "méta-induction" : une induction sur les modèles, ou sur les types d'expériences.

Je m'explique. Ce qui fait qu'on accepte aujourd'hui la relativité n'est pas qu'elle fasse de meilleures prédictions pour les expériences dont la mécanique classique rendait déjà compte (d'ailleurs on continue généralement d'utiliser la mécanique classique dans ces cas), mais surtout qu'elle en ait fait de nouvelles qui étaient inattendues du point de vue de la mécanique classique : par exemple, que la lumière devrait être déviée par les corps massifs, et donc que les étoiles devraient apparaître légèrement déplacées par rapport à leur position habituelle quand on les observe proche du soleil. Bien sûr, on pourrait rendre compte de ce phénomène en mécanique classique de manière ad-hoc, par exemple en postulant qu'il existe près des corps massifs de la matière noire avec un certain indice de réfraction, mais le point important est que ce n'est pas quelque chose qu'on aurait pu prédire par une induction sur les données des expériences passées, qui ne portaient jamais sur les rapports entre la lumière et les corps massifs. La théorie de la relativité n'est pas issue d'une induction sur nos observations, mais de considérations purement théoriques : en particulier, la volonté d'unifier l'électromagnétisme et la mécanique dans un même cadre. Cette théorie produit de nouveaux modèles, correspondant à de nouvelles situations expérimentales qui n'avaient pas été testées jusqu'alors, et ces nouveaux modèles prédisent des phénomènes dont on ne pourrait rendre compte que de manière ad-hoc dans le cadre de la mécanique classique. Or ces phénomènes sont en effet observés.

On peut voir dans ce type de succès expérimental la première étape d'une méta-induction sur les modèles. Ce que corrobore cette méta-induction, c'est que la théorie est un bon cadre pour produire des modèles qui seront en général prédictifs de manière relativement économe pour un large type de situations, même quand on les appliquera à de tous nouveaux types de situations, non expérimentés jusqu'alors. C'est-à-dire qu'une bonne théorie n'est pas une théorie qui rend correctement compte des phénomènes déjà observés, mais plutôt une théorie qu'on pense pouvoir étendre avec succès, sans trop d'efforts, à de nouvelles configurations. Ou encore, c'est une façon fructueuse de penser le monde, un guide fiable pour l'explorer.

Cet aspect me semble essentiel notamment pour rendre compte du principal succès des sciences, et à mon sens, de la principale raison pour laquelle on leur porte du crédit : le fait qu'elles nous permettent de développer de nouvelles technologies. Car quand on développe une technologie, on ne cherche pas à expliquer un phénomène existant, mais à en imaginer et en produire de nouveaux qui nous intéressent. Et l'on ne peut faire confiance à une théorie pour ça que si elle a démontré sa capacité à s'étendre efficacement à de nouveaux types de phénomènes, c'est-à-dire si l'on ne se contente pas de la corroborer par une induction sur les données expérimentales, mais plutôt par une méta-induction sur les différents types d'expériences réalisables.

dimanche 25 février 2018

Le paradoxe du rapport entre philosophie et science

Il y a quelque chose de paradoxale en philosophie, dans son rapport aux sciences, qui est que quoi qu’elle fasse, quelle que soit la position qu’elle adopte, elle semble ne pas pouvoir à la fois satisfaire et intéresser le scientifique (ou plutôt la figure du scientifique telle qu’on se l’imagine).

On trouve ainsi une tradition « anti-réaliste » en philosophie, voire « relativiste ». Les théories scientifiques ne seraient que des instruments pour faire des prédictions ou développer des techniques, ce seraient des constructions relatives à notre position dans le monde. Elles seraient utiles plutôt que vraies. Et l’on peut y voir une forme de déni des sciences qui ne pourra satisfaire l’esprit scientifique : non, les affirmations théoriques ne sont pas de simples constructions de l’esprit, elles sont amplement confirmées par nos expériences, et il est rationnel de les croire.

Fort bien. Alors soyons réalistes ! La métaphysique des sciences contemporaines est dominée par cette idée que les théories scientifiques devraient être interprétées « littéralement » : elles décrivent la réalité, elles correspondent au monde d’une façon ou d’une autre. Mais voilà : tous les développements que cela implique n’intéressent pas les scientifiques. Ainsi on trouve dans les revues philosophiques des kilomètres d’articles tentant de développer les « ontologies primitives ». Derrière ce concept, une question : à quoi peut bien correspondre, dans le monde, la théorie quantique (puisqu’elle doit correspondre à quelque chose dans le monde) ? Mais dans les revues de physique, rien. Et l’on trouve bien souvent des scientifiques pour s’exprimer sur l’inutilité de toute métaphysique : de vaines questions déconnectées de l’expérience. Finalement, ceux-ci semblent bien s’accommoder, dans les faits, d’une vision instrumentaliste des choses.

Cette situation est malheureuse. Car s’il peut y avoir un intérêt à la division des tâches, c’est si les uns et les autres accordent une valeur à leurs travaux respectifs. La philosophie des sciences serait-elle condamnée soit à nier la valeur de la science, soit à voir niée sa propre valeur ?

Je veux croire que le travail philosophique a une valeur. La lubie des ontologies primitives m’attire peu en la matière, mais le paradoxe de ce rapport entre philosophie et science est bien aussi un paradoxe pour la science elle-même : les théories scientifiques nous disent quelque chose, pour sûr. Mais quoi ? On ne peut tout à la fois prendre au sérieux les sciences, et ne pas s’intéresser à la question, ni tenter d’y répondre d’une manière ou d’une autre. Comment concilier le rôle central de l'expérimentation en science sans pour autant ne les considérer que sous l'angle de leur utilité pratique ? Il y a bien un problème à résoudre. Que nous disent les sciences, et comment en rendre compte d’une manière qui puisse à la fois satisfaire le scientifique, prendre au sérieux son discours sur le monde, et l’intéresser, c’est-à-dire s’avérer pertinente suivant ses propres critères et ne pas sur-interpréter ce discours ?

A mon sens, le travail philosophique, quand il est question des sciences, devrait justement porter sur cette « méta-question ». Le travail de la philosophie des sciences devrait être celui-ci, et rien de plus : rendre compte des discours et activités scientifiques, c’est-à-dire (pour paraphraser Brandom) rendre explicite et cohérent l’engagement que suppose a minima l’adoption et l'usage d’une théorie scientifique. Et en la matière, il me semble que le réalisme comme l'instrumentalisme ont montré leurs limites.

Puisqu'au fond il est question d'interprétation, de discours, c'est peut-être à la philosophie du langage de nous éclairer. On connait le fameux trio syntaxique / sémantique / pragmatique : la forme des énoncés, leur contenu et leur usage. La philosophie des sciences, quand elle était plutôt instrumentaliste, était dominée par une vision syntaxique, portée sur la forme logique des théories. Elle me semble aujourd’hui dominée par une vision sémantique, associée au réalisme, portée sur le rapport direct des théories à une réalité transcendante. Ce que je préconise ici, c’est de mettre en avant une vision pragmatique, focalisée non sur les structures abstraites ou sur l’ontologie, mais sur l’usage. C'est bien ainsi, en se concentrant sur l'usage, qu'on pourra résoudre notre dilemme.

L'accent sur l'usage, sur la pratique, est déjà mis en avant par certains auteurs depuis plusieurs décénies (Carthwright ou Hacking) mais est encore insuffisamment représenté, et sa portée sous-estimée quand il est question de proposer une véritable interprétation des théories. Car il me semble que la pragmatique est à même de faire le lien entre ces deux aspects, syntaxique et sémantique, rapprochant ainsi la métaphysique de l’expérimentation (en examinant en quoi l'usage détermine le contenu) pour la rendre plus pertinente aux yeux du scientifique, et rapprochant l’épistémologie de l’engagement positif envers l'ensemble d'une théorie (en examinant en quoi la forme ne fait qu'expliciter l'usage) pour restituer toute la pertinence et la valeur de cet engagement.

En l'état, tout ceci est un peu abstrait. Je reviendrai peut-être prochainement sur des propositions plus concrètes en la matière.

vendredi 5 janvier 2018

L'addiction

L’addiction est un problème : nous désirons, satisfaisons nos désirs, puis nous accoutumons et voulons toujours plus. C’est un naufrage pour beaucoup. Mais la vie n’est au fond qu’une histoire d’addiction. Il y a l’addiction à des substances, bien sûr : l’alcool, le tabac, le cannabis, la cocaïne, l’héroïne, que sais-je… Mais aussi le café et le chocolat peut-être ? Puis il y a l’addiction aux jeux, au risque. À la violence ? Au sport, c’est-à-dire à l’effort physique. À la nature et aux grands espaces peut-être ? Au sexe et à la pornographie. À la nourriture, certainement. Au sommeil ? Au pouvoir et à l’argent. À l’attention des autres, à l’amour, aux relations sociales… À l’information. À l’indignation ! Nous n’en avons jamais assez. Et l’on pourrait défendre que les plaisirs intellectuels, voire spirituels et religieux, constituent, eux-aussi, une forme d’addiction. Alors il me semble que nous avons fait le tour des aspects de la vie humaine, et que ce problème, celui de l’addiction, n’est au fond que celui de l’existence.

mercredi 18 janvier 2017

Structure concrète et structure abstraite

Le réalisme structural affirme que nos théories sont vraies à propos de la stucture du monde. La structure, c'est ce que les théories expriment par leurs équations, les lois de la théorie. Sa nature, c'est ce que les théories expriment quand on interprète métaphysiquement leur vocabulaire, par exemple comme faisant référence à des propriétés physiques qui existeraient réellement. Le réalisme structural prétend répondre à une difficulté du réalisme standard : le problème du changement théorique. Nos théories seront peut-être remplacées par de meilleures à l'avenir, et il n'y a généralement pas continuité dans les théories successives, quant à la nature du monde qu'elles décrivent. Mais pur le réaliste structural, ce n'est pas un problème car il y aurait continuité de structure. Dans sa forme ontique, il prétend également éclairer des problèmes d'interprétation de la physique contemporaine, comme la question de l'identité des particules fondamentales.

Il y a beaucoup de débats pour savoir si cette position est tenable. Mais ici je souhaite me consacrer sur un aspect : le fait que structure est ambiguë. En effet, on peut différencier deux notions de structures :

La structure de premier ordre
C'est la structure des faits du monde. Ses relata sont les objets du monde, et les propriétés qu'ils instancient.
La structure de second ordre
C'est la stucture nomologique du monde. Ses relata ne sont pas des objets, mais des propriétés abstraites, les propriétés physiques.

Cette distinction est d'importance pour le réalisme structural ontique, qui affirme que le monde n'est que structure : de quelle structure parle-t-il ? On peut y voir une tentative d'éliminer les objets : alors le monde est une structure de premier ordre, une structure de propriétés et de relations. Les objets ne seraient identifiés que par leur emplacement dans cette structure. C'est peut-être un moyen d'éclairer la physique contemporaine, mais ce type de vue n'est finalement pas très éloigné de certaines thèses classiques de la métaphysique, et il n'y a aucune raison de penser qu'elle ne soit pas menacée par un problème de changement théorique.

S'il s'agit d'éliminer les propriétés physiques, qui ne seraient elle-même que des emplacements de la structure de second ordre, alors on rencontre un autre problème qui est que ce type de vue s'apparente assez fortement à un platonisme mathématique. Il est facile de définir une structure mathématique et d'affirmer qu'elle existe, de manière abstraite : ça ne nous engage en rien. Le réaliste structural doit alors en dire plus. En dire plus, ce peut être interpréter les relata de la structure. Mais ici on rencontre un problème : si ces relata sont interprétés relativement à l'expérience (il s'agit de propriétés observables), on se ramène à un empirisme, et s'ils sont interprétés comme propriétés naturelles, on se ramène à un réalisme standard.

Il reste une option qui est d'interpréter la structure de second ordre elle-même. Typiquement, les réalistes structuraux parlent de structure modale : c'est une structure de relations nomologiques, de nécessité dans le monde qui vient contraindre les phénomènes. Cependant cet aspect modal me semble difficilement applicable à une structure de second ordre. On peut formaliser une structure modale en plaçant les relata de la structure dans différents mondes possibles. Ici, les relata sont des propriétés abstraites (non pas des objets ou des instances concrètes de propriétés) et tout ça ne me semble pas avoir beaucoup de sens. C'est donc plutôt la structure de premier ordre qui peut être modale. Les propriétés abstraites, qui sont les relata de la structure de second ordre, seraient des propriétés modales pour la structure de premier ordre. C'est donc la structure de premier ordre qui est réellement modale : on peut placer ses relata (objets et instances de propriétés) dans différents mondes possibles, autorisés par les lois de la théorie. Mais en quoi ne fait-on pas simplement que retrouver une structure mathématique abstraite ? Comment ce type de vue se distingue-t-il d'un platonisme mathématique ?

mardi 11 octobre 2016

Arguments psychologiques, arguments rationnels

On emploie souvent dans les discussions mondaines des arguments psychologiques, en particulier quand la discussion est passionnée : "tu penses ça parceque ça t'arrange", "tu dis ça parceque tu es énervé", "tu crois ça parceque tu voudrais que ce soit vrai"... À croire que le meilleur moyen de délégitimer son adversaire est d'exposer ses ressorts émotionnels.

Il est vrai qu'il existe des biais psychologiques qu'on ne devrait pas ignorer, comme le biais de confirmation ou les effets de dissonance cognitive. Pour autant, les raisons émotionnelles qui nous font adopter une position n'en font pas une mauvaise position en soi. Certains seraient même prêt à leur donner une place légitime, dans le domaine de l'éthique par exemple : on décèlera chez qui une saine indignation.

En outre, généralement, ce type d'argument fonctionne à double sens : si on les emploie pour dénigrer une position, notre interlocuteur aura tôt fait de trouver, lui aussi, des raisons psychologiques à notre désaccord. Peu importe l'attitude au fond : le plus véhément des locuteurs peut vite être accusé d'avoir son ressenti comme principal moteur, mais le plus calme est peut-être aussi le moins prompt à sortir de sa zone de confort.

Ces arguments sont d'autant plus faciles à employer qu'il n'existe pas de faits pour départager certains points de vue de manière définitive : par exemple, quand il est question de métaphysique. Celui qui croit au libre arbitre libertarien fait preuve d'un romantisme déplacé : il refuse d'admettre que ses choix sont déterminés et s'accroche à une idée de contrôle de soi absolu qui n'est que chimère. Pures émotions. Mais celui qui croit au déterminisme le fait aussi pour des raisons psychologiques : il veut croire que le monde est ordonné, compréhensible et transparent. Contrôle contre compréhension : un point partout, balle au centre. (En la matière, on pourrait rétorquer à l'un et à l'autre que le contrôle suppose une certaine compréhension du monde, et que la bonne compréhension d'un domaine, issue de l'expérience, suppose en retour un minimum de contrôle de ses paramètres... De quoi exiger un compromis. Mais ce n'est pas là le sujet.)

Personne n'est exempt de ressorts psychologiques. Personne ne se soustrait à ses émotions, sauf à sombrer dans l'apathie et à ne plus rien défendre. Au fond, si nous adhérons à une position métaphysique, c'est parcequ'elle nous satisfait--psychologiquement. On évoque souvent les vertus épistémologiques suivantes qui font d'une position métaphysique une bonne position : la cohérence, la simplicité, le pouvoir explicatif... Ou le fait de rendre compte de nos intuitions communes. Il est toujours question de satisfaction intellectuelle. Il y a un certain plaisir à obtenir un système harmonieux pour se représenter le monde. Finalement, ce sont toujours des émotions qui nous font croire : il y a de l'esthétique, même dans une théorie physique. Certes, la théorie n'est pas seulement belle : elle marche, bien sûr ; mais, après tout, ce n'est qu'une satisfaction de plus...

En quoi alors la raison serait elle distincte et souhaitable ? Qu'est-ce qui rend certaines croyances irrationnelles ? Métaphysiciens et scientifiques ne seraient donc que des artistes des idées, des sortes de poètes ? Pourquoi ne pas simplement croire ce qui est beau, et vaille que vaille ?

Peut-être est-ce par simple souci éthique.

Vous en conviendrez, il est mal de se vautrer dans les plaisirs immédiats sans penser aux lendemains : ces plaisirs sont éphémères. Gare au retour de bâton ! Il est tout aussi mal, vous souscrirez également, de se retrancher dans ses désirs personnels au détriment de ceux des autres.

Or s'il est une chose qui permet l'accord interpersonnel au delà des ressentis subjectifs, et qui permet, donc, de s'associer aux autres plutôt que de se retrancher égoïstement, c'est bien la raison. Nous aboutissons tous aux mêmes conclusions quand nous suivons un raisonnement : nous fonctionnons de concert, du moins pour peu qu'ils coopèrent, avec les autres, et avec le monde, même. La raison assure aussi la durabilité de nos croyances (on pourrait d'ailleurs encore y voir un accord interpersonnel : avec son moi futur). Elle nous épargne le regret et la désillusion quand les faits s'imposent à nous. Les scientifiques et philosophes ne seraient pas de simples artistes du concept pour cette raison : on n'exige pas d'un artiste que ses œuvres soient moralement vertueuses.

La raison, ou la satisfaction qu'elle procure, est donc une émotion bonne : durable, partagée (de quoi ramener l'épistémologie à une affaire de méta-éthique des croyances) ; et on pourrait finalement concevoir la rationalité non pas en opposition aux émotions, mais comme l'ensemble des principes universaux qui nous unissent au monde au lieu de nous en séparer. La meilleure manière de réguler nos émotions, en somme. À la limite on pourrait reprocher à qui ignore ses propres biais cognitifs, et pense sous le coup de ses émotions transitoires, d'agir mal, ou de manière immorale... "Pense un peu aux autres qui ne pensent pas comme toi, au lieu de faire ton égoïste !" Ou à qui est incohérent : "soit plus partageur, on ne peut voir ce que tu vois"... Et on pourrait voir les rationalistes pur-jus comme des moralisateurs zélés, ou des ascètes irréprochables. Peut-être, en bref, la cohérence rationnelle n'est-elle que la plus éthique des beautés.

vendredi 16 septembre 2016

Pensée de gauche radicale et théorie du complot

Ces derniers temps je commence à prendre mes distances vis-à-vis d'une certaine gauche radicale qui me séduisait autrefois. Je vais essayer ici d'expliquer pourquoi. Mais pour ça le mieux est de commencer par un exemple. Soit l'énoncé suivant :

"Le chômage est l'armée de réserve du capitalisme"
On doit cette idée à Marx. Mais comment évaluer cette énoncé ? Que nous dit-il ?

Selon une première lecture intuitive, il nous dit que certains acteurs économiques (les détenteurs du capital ? En connivence avec les responsables politiques ?) œuvrent délibérément en vue de maintenir un chômage relativement élevé, de manière à disposer d'une main d'œuvre à bas coup, en faisant pression sur les salariés. Cette lecture est implausible : qui exactement agit avec un tel cynisme ? Y a-t-il des documents l'attestant ? Des comptes rendus de discussions privées ? Et par quels leviers agissent-ils ? Ont-ils à ce point là maîtrise de l'économie nationale, voire mondiale, pour parvenir à maintenir un chômage élevé ? (Mais l'économie orthodoxe n'est-elle pas, selon certains marxistes, une pseudo-science ? C'en serait une drôlement efficace...). On a ici une lecture clairement complotiste.

Mais ce n'est pas le bonne lecture de Marx. Le chômage serait plutôt un effet structurel : il est l'armée de réserve du capitalisme en ce sens que c'est la fonction qu'il joue dans la machine économique, mais celle-ci n'est pas le fait d'acteurs particuliers : au mieux ces derniers peuvent se satisfaire, consciemment ou non, de l'existence d'un chômage élevé. Le système capitaliste a pour effet de maintenir, par des effets de structure, un niveau de chômage qui permet aux détenteurs du capital de bénéficier d'une main d'œuvre à bas coût. Les acteurs du système qui en bénéficient ont inérêt à ne pas modifier ce dernier, mais ça ne signifie pas qu'ils manoeuvrent consciemment pour maintenir un certain niveau de chômage.

Je ne sais pas vraiment comment évaluer cette deuxième lecture. J'imagine que les théoriciens marxistes mettent en avant des mécanismes précis, et peut être que ces mécanismes peuvent être attestés empiriquement. Soit. Ce qui me gène dans une certaine gauche radicale ne tient pas aux aspects théoriques (bien que je suis sans doute plus sceptique à leur sujet que je n'ai pu l'être) mais au discours lui même, et en particulier, au fait que ce discours, du moins quand on le réduit à ses slogans, rende si facile un glissement vers la première lecture, complotiste, et maintienne ainsi l'ambiguïté. Je pense que c'est ce glissement latent qui rend le discours de la gauche radicale si attractif, quand bien même on est conscient que la bonne lecture est la seconde. Je pense que si les mêmes thèses étaient exprimées suivant une formulation plus austère qui ne permette pas ce type de glissement, on aurait des réactions du type "peut être, il faudrait vérifier si ce type de mécanisme existe." plutôt que du type "c'est ça !". Elles n'auraient pas pour effet de susciter cet éclair de compréhension qui emporte l'adhésion. Mais si cet éclair de compréhension et la conviction qui en résulte sont principalement dus à l'existence d'une seconde lecture clairement implausible et clairement complotistes, ces thèses ne méritent finalement pas la considération que leurs adhérents leur porte : il est légitime de s'en méfier, et de demander des preuves.

Cette méfiance grandissante ne signifie pas pour moi un rejet complet : je continue de croire que sous ses aspects critiques, la pensée de gauche est souvent pertinente, et je ne suis pas persuadé que le discours économique centriste, par exemple, soit beaucoup mieux fondé. J'en viens plutôt à être sceptique envers un certain discours explicatif se prétendant alternatif, parfois totalisant (c'est l'explication ultime) et trop souvent simpliste.

Dans cet article je propose donc de m'intéresser à la question de ce qui distingue une critique potentiellement légitime du système social ou politique en termes structuraux d'une théorie du complot. Je défendrai qu'il existe un glissement naturel de l'une à l'autre, tel qu'illustré ci-dessus, et que c'est un réel problème pour la pensée de gauche radicale : pas seulement celui d'une "mauvaise lecture". Approchant  les choses sous l'angle de l'attribution infondée d'intentions cachées à des agents ou groupes d'agents (selon moi la marque du complotisme), je ferai un détour par la biologie qui, je pense, s'avérera éclairant, puisque des problèmes similaires s'y posent de façon moins passionnée. On trouve en effet en biologie évolutionniste certaines caractéristiques de l'analyse systémique de la société : une capacité certaine à la production d'explications ad-hoc aux phénomènes en l'absence de véritables preuves empiriques (on expliquera certains faits psychologiques par notre passé de chasseur-cueilleur) et la tentation récurrente d'un glissement vers une lecture téléologique (les girafes ont un long cou pour pouvoir attraper les feuilles des arbres). Si la biologie peut s'accommoder de ces problèmes, et parvient souvent à distinguer les bonnes hypothèses des mauvaises tout en se prémunissant des interprétations erronées, c'est grâce à son assise empirique, mais on peut douter que les analyses sociales disposent d'une telle assise. Même si les travaux sociologiques sont souvent appuyés par des études empiriques, la confirmation empirique ainsi obtenue est sans doute moins directe.

N'étant pas sociologue ni économiste, je reste ouvert aux critiques qu'une connaissance plus approfondie de ces champs pourraient susciter : les commentaires sont les bienvenus.

Le glissement vers le complotisme

Les patrons, les politiques, les grandes entreprises, sont-ils tous pourris ? C'est ce que certains croient entendre (à tort ou à raison) dans le débat politique actuel. Ils auront tôt fait de crier à la théorie du complot : non, les patrons ne sont pas tous pourris, non, ils ne se réunissent pas en organisations secrètes avec les hommes politiques pour formenter des lois  et des accords qui mettront le peuple à genou ou feront taire toute contestation.

Tout ça est bien sûr très caricatural. "Tous pourris", ce n'est pas tout à fait ce qu'affirment les "intellectuels de gauche" : ils proposent plutôt, en général, une analyse de la structure de nos sociétés. Selon ce type d'explication, les acteurs du système politique, économique et social ne font finalement que jouer le rôle du à leur position dans la société, et que d'autres joueraient à leur place s'ils ne le faisaient pas. C'est le système (politique, économique, médiatique) qui dysfonctionne, favorisant les inégalités économiques, judiciaires et culturelles (et éventuellement, en effet, le corporatisme des puissants, le lobbyisme, la corruption et la fraude), pas les gens qui y participent.

Voilà une position plus nuancée qui semble assez inaudible dans le discours ambiant. Oui mais... Si on peut sans doute mettre en cause le système médiatique qui a indéniablement tendance à caricaturer toute position trop nuancée ou trop complexe, il faut admettre à la décharge des objecteurs que certaines positions caricaturales (du type "tous pourris") sont parfois revendiquées par ceux-là même qui se réclament de la critique du système. Peut être pas les intellectuels les plus sérieux, mais au moins certains militants. Or ne pourrait-on pas penser que le type de lecture que produit cette "façon de penser la société" à propos d'événements particuliers n'est pas sans mener facilement à des excès dans la caricature ? Et ne pourrait-on penser que ce type de lecture doit une partie de sa reconnaissance publique à ce type de glissement ?

Un premier problème tient à la production d'explications particulières à certains phénomènes sociaux (comme expliquer le chômage par sa fonction économique, ou la dérégulation du marché de l'emploi par la mainmise d'une classe dominante sur le monde politique). En effet, tout comme il existe une différence entre accepter une théorie quelconque, par exemple physique, et proposer une explication à certains phénomènes dans le cadre de cette théorie, par exemple un modèle de la supraconductivité, il existe une différence entre le fait d'adopter une grille de lecture systémique et le fait de voir dans le déroulement d'événements précis le jeu de certaines structures sociales particulières (par exemple, voir dans des décisions politiques une volonté cachée de nuire à une certaine partie de la population plutôt qu'une volonté plus pragmatique de reconduire son mandat en faisant plaisir à un électorat potentiel). En physique comme en économie, en sociologie ou en politique, et sans doute plus encore en économie, en sociologie et en politique, il faut se méfier des explications : elles sont souvent multiples et demandent toujours à être confirmées ensuite après qu'on en ait fait l'hypothèse, et il est fréquent que la bonne explication s'avère plus complexe que celle qu'on avait envisagé au départ.

Il y a là un problème de l'ordre de l'explication, mais aussi de l'ordre de l'interprétation des explications, qui est celui qui m'intéresse particulièrement. Car il faut admettre qu'il existe toujours un léger flou, un glissement possible, entre une analyse structurelle raisonnable et ce qu'on pourrait qualifier de théorie du complot, attribuant de manière infondée certaines intentions à des agents ou groupes d'agents. Par exemple, entre voir un effet de structure lié au patriarcat, à la haute bourgeoise ou à l'occident, qui a pour effet objectif d'opprimer une certaine partie de la population, les femmes, les classes défavorisées ou les populations issues de migrations, et attribuer des intentions aux acteurs de ces structures comme si ils s'étaient organisés délibérément pour assujetir ces populations, au lieu de simplement suivre comme chacun l'aurait fait leurs propres intérêts dans une situation de biais cognitifs dus à leur position sociale. Comme l'exemple donné en introduction l'illustre, le fossé est mince entre ces deux façons de voir, et certains le franchissent allègrement.

Ce glissement vers le complotisme n'est certainement pas une caractéristique propre à la pensée de gauche. Au contraire, ce qui est spécifique à la gauche radical par rapport à la droite radicale, c'est qu'elle dispose habituellement des outils conceptuels qui permettent une analyse structurelle plutôt que purement complotiste ou intentionnelle de la société, et qu'elle possède de ce fait un ancrage universitaire plus important qui la nourrit et la nuance, quand le militant d'extrême droite est souvent d'emblée dans la théorie du complot : il verra par exemple dans les phénomènes migratoires une volonté organisée d'envahir l'occident. S'il peut exister, à l'extrême droite, des théorisations vaguement plus subtiles de ces thèses de bas étage, elles semblent venir dans un second temps seulement pour leur apporter un verni pseudo-intellectuel, mais sans jamais vraiment s'éloigner, au fond, d'une lecture complotiste du monde (voir un article précédent le problème épistémologique de l'extrême droite ici).

Au niveau du "militant de base" cependant, il est possible que, trop souvent, il n'y ait que peu différence pratique : on peut juger que certains militants de gauche radicale adhèrent avant tout à une lecture romantique de la société faite de luttes entre des "eux" et des "nous", exactement comme le font les militants fascistes, et se fichent pas mal des concepts et théories qui pourraient justifier ces luttes d'une manière plus sérieuse. Certains sont prêt à accepter n'importe quelle théorie ou explication tant qu'elle corrobore leur vision du monde. La manière de sens commun de qualifier cette attitude consiste à parler "d'orientation idéologique". Ce label est peut être parfois utilisé à tort et à travers pour jeter le discrédit sur de véritables thèses à même d'éclairer notre compréhension du monde, mais ce glissement complotiste reste avéré, et je pense qu'il s'agit d'un problème sérieux pour la pensée de gauche.

Pour corser le tout, il existe dans certains cas, de manière objective, une organisation (par exemple institutionnelle ou lobbyiste, mais aussi militante) de groupes sociaux et des luttes se cristallisent de fait entre des "eux" et des "nous" plus ou moins circonscrits. Nous avons bien affaire alors à des groupes animés d'intentions (mais dans ce cas elles ne seront pas cachées, ou si elles le sont, laisseront vite des traces évidentes). Cette cristallisation, pour le coup, n'est pas qu'un effet de structure : elle tient aussi sans doute de la "prophétie auto-réalisatrice" de la pensée complotiste. On voit que le problème est non seulement sérieux, mais complexe.

C'est un problème qu'il est urgent de résoudre, car il jette un doute légitime sur l'entreprise intellectuelle en question qui est, ou devrait être, de comprendre la société pour mieux agir. En effet la lecture romantique indue qu'il est possible de tirer d'une analyse par exemple marxiste, féministe ou post-coloniale de la société, en elle-même potentiellement légitime, participe certainement de l'attrait des thèses marxistes, féministes et post-coloniales auprès d'un public militant. Cette composante romantique faite de "eux" et de "nous" est peut-être même essentielle quand il s'agit de rendre une doctrine intellectuelle performative, quand il s'agit de susciter un engagement massif qui dépasse les milieux intellectuels. Mais elle est toujours suspecte, et on pourrait craindre que les analyses structurelles de la société fonctionnent exactement comme un verni intellectuel dont le rôle serait seulement de justifier a posteriori des postures qui relèvent de prime abord de la théorie du complot, postures attribuant des intentions et une cohésion à des groupes sociaux quand ils ne la possèdent pas réellement.

L'origine conceptuelle du problème

On peut penser que cette crainte est généralement infondée, puisque précisément une analyse structurelle a pour effet de dissiper ce romantisme en proposant une explication différente, mais malheureusement dans les faits ce n'est pas toujours le cas, par exemple quand il s'agit de proposer une lecture d'événements particuliers. La force et l'attrait de ce type d'analyse tient entre autre à sa capacité de fournir des explications ad-hoc à divers phénomènes sociaux, ces explications étant d'autant plus attrayantes qu'elles offrent une double lecture. Comme si, finalement, le discours structurel s'accomodait trop facilement d'une lecture intentionnelle de type complotiste et que les deux, bien que contradictoires à l'examen, pouvaient cohabiter pacifiquement, voir se renforcer l'un l'autre.

À ce titre il me semble que certains discours intellectuels sont foncièrement ambigus, entretenant une sorte de flou artistique entre deux lectures possibles, l'une peu crédible mais attrayante, l'autre plus sérieuse mais aussi plus austère (et pas forcément juste). C'est de ce glissement dont il est question ici.

Je pense que ce glissement n'est pas tout a fait étranger au fait que la plupart des théoriciens cet univers intellectuel adoptent une épistémologie constructiviste : ils considèrent les faits sociaux comme des constructions. De là à y voir l'effet d'intentions, il n'y a qu'un pas... Mais ce type d'épistémologie est douteux : prise trop au sérieux, elle mine sa propre base en adoptant un relativisme à la limite de l'incohérence. Si elle est plus nuancée, elle confine à la vacuité, puisque ces constructions sociales sont aussi déterminantes que n'importe quel fait naturel. Il s'agirait tout au plus de remarquer que les faits sociaux sont assez malléables, ce qui n'étonnera pas grand monde à part les conservateurs les plus naïfs. Au final, il ne me semble pas vraiment pertinent d'assujettir une théorie sur le monde à une certaine épistémologie : les deux domaines, celui de la théorie d'un certain domaine et celui de l'épistémologie, restent en grande partie autonomes sur le plan conceptuel. Rien n'empêche bien sûr un sociologue de penser que les catégories qu'il nous propose font référence à des constructions sociales, mais l'adoption d'une épistémologie constructiviste au moment même de présenter un cadre théorique me semble rendre le discours théorique plus confus (puisque le statut de la théorie est plus confus) et le glissement dont il est question plus facile. Si construction il y a, on en cherchera les auteurs.

Si ce problème de glissement est urgent, c'est qu'il est à peu près certain qu'il existe dans la société des inégalités économiques qui tendent à se renforcer, des inégalités en terme de capital social, des inégalités symboliques, culturelles, qui font que les femmes, les populations migrantes ou les classes défavorisées se trouvent dans une situation d'injustice. Ces phénomènes demandent à être analysés, expliqués, si on veut pouvoir obtenir une société plus juste. Mais une analyse biaisée, fondée sur un cadre théorique trop efficace et adaptable pour être honnête, risquerait de miner le projet dans ce qu'il peut avoir de noble, soit en le discréditant, soit en le dévoyant.

Le discrédit a lieu de toute façon quand les personnes se sentant visées (peut être de part leurs situations sociales avantageuses) ont naturellement tendance, plus ou moins volontairement, à caricaturer le discours théorique qui vient les critiquer (eux ou la structure sociale dont ils profitent) pour n'en retenir que la lecture romantique indue, plus facile à défaire, et c'est un problème en soi, mais ce discrédit sera malheureusement d'autant plus légitime que la version romantique est affichée par ceux-là même qui se réclament de cette critique, brouillant ainsi les frontières entre ce qui devrait être une thèse fondé et ce qui pourrait n'être que le verni du complotisme. La théorie aurait donc tout à gagner à se distancier des discours ambigus qui accompagnent souvent les thèses constructivistes. Quant au dévoiement, même s'il n'est là qu'en puissance, il pourrait être plus grave puisqu'il remplacerait de l'injustice par de nouvelles injustices, s'attaquant aux "eux" de laversion romantique plutôt qu'aux problèmes systémiques, et achèverait de discréditer toute critique du système. "Regardez donc où cela nous mène", nous dira-t-on. On peut se demander si ce n'est pas ce qui s'est fréquemment produit dans l'histoire, tant certains vantent l'organisation sociale en place comme étant le "moins pire des systèmes".

Ce qu'il faut pour résoudre ce problème, c'est nous doter d'outils épistémologiques qui nous permettent de distinguer de manière sûre le bon grain de l'ivraie en matière de thèses sur la société en général, ou sur la lecture à avoir d'événements particuliers. Mais par ou commencer ? Peut-être en s'inspirant du cas de la biologie, où l'ont trouve également une dualité entre interprétations causales et intentionnelles. Il est fort possible qu'en biologie déjà les choses ne soient pas si claires... Toutefois le fait que le débat y soit moins passionné devrait nous aider à nous orienter un peu mieux dans ces méandres.

Le cas de la biologie

A mon sens le glissement d'une analyse structurelle vers une lecture complotiste de la société est du même ordre que celui qui peut exister, en biologie, entre les explications évolutionnistes et les explications téléologiques. C'est une difficulté notoire pour les vulgarisateurs en biologie de se défaire d'un vocabulaire finaliste : le coeur "sert à" pomper le sang, la loup a des croc "pour" attraper ses proies... Pourtant ce n'est pas à proprement parler ce que nous enseigne la théorie de l'évolution. Les crocs (et les vulgarisateurs y insistent souvent) n'ont pas de but en soi. Ils sont le résultat d'une longue histoire de processus sélectifs. Les loups ne "choisissent pas" d'avoir des crocs, mais ils naissent avec des crocs parce qu'ils sont les descendant des survivants de leur espèce, et ces derniers se trouvent être ceux qui avaient des crocs et pouvaient en faire bon usage pour assurer leur survie.

Le problème est qu'on est obligé, pour rester fidèle à la théorie de l'évolution, de recourir à de longues paraphrases alors qu'il est si simple de dire "les loups ont des crocs pour attraper des proies". En outre le langage fonctionnel ou téléologique possède un attrait certain. C'est un langage bien adapté à notre "logiciel mental", habitués que nous sommes à lire les intentions chez nos semblables, à voir des finalités dans leur comportement. Pourtant c'est a priori une erreur de penser d'un loup (ou "du loup") qu'il ait pu choisir d'avoir des crocs. La théorie de l'évolution, bien comprise, fonctionne comme un antidote à ce type de discours finaliste : ce qu'elle nous dit, c'est précisément que ce discours est illusoire. Le loup n'a pas choisi, il a été sélectionné par les aléas.

Je pense que le parallèle avec une analyse du fonctionnement de la société est assez frappant. De la même façon qu'un loup n'a pas décidé d'avoir des crocs, personne ne décide de sa condition sociale, cependant qu'elle nous détermine. Tout comme le biologiste évolutionniste aura une lecture "structurelle" des écosystèmes, y voyant un équilibre ou des rapports entre différentes populations ou espèces occupant leur place dans l'écosystème, le sociologue pourra analyser la société en terme de rapports entre différents groupes sociaux ou institutions occupant une fonction dans la structure d'ensemble de la société. Tout comme en biologie évolutive il est fréquent de voir des explications simplistes données à tort et à travers à toutes sortes de phénomènes, mais celles ci ne sont pas forcément solides, il est facile, en matière sociale, de trouver des explications à n'importe quel phénomène sans que celles ci ne soient réellement fondées.

Et surtout, de la même façon qu'un glissement d'une logique évolutionniste vers une logique téléologique est difficile à éviter, mais est surtout à éviter (le loup, même s'il peut s'en satisfaire, ne décide pas d'avoir des crocs et s'il refuse d'utiliser ses crocs, un autre prendra sa place à son avantage), le glissement d'une analyse structurelle de la société vers une théorie du complot est tentant, mais est surtout à éviter (le grand patron ne décide pas, même s'il peut s'en satisfaire, d'opprimer ses salariés : il profite seulement à son avantage de la structure hiérarchique des grandes entreprises, et un autre prendrait sa place s'il ne le faisait pas).

Autrement dit la leçon de la biologie évolutive, c'est bien que la structure prime sur l'individu qui y joue un rôle, et que le glissement à éviter consiste à attribuer aux individus ce qui relève de la structure.

Pourquoi, pragmatiquement, est-ce une erreur à éviter ? Parce qu'en attribuant aux individus les caractéristiques de la structure, on risque de s'attaquer aux individus au lieu de changer la structure. Mais aussi parce qu'en s'attaquant à un groupe entier d'individus de manière irréfléchie, sans comprendre la structure dans son ensemble, on risque de modifier cette structure dans un sens qui n'est pas celui qu'on le souhaite, à la manière dont, en éliminant une espèce animale nuisible, on peut dérégler un écosystème de façon non souhaitable.

La leçon à en tirer dans le domaine social serait selon moi de se méfier non du militantisme ou des luttes sociales en soi quand ils sont réfléchis, mais des élans révolutionnaires qui se complaisent dans une vision romantique de la société faite de groupes sociaux animés d'intentions : tout comme la théorie de l'évolution, l'analyse sociale devrait fonctionner comme antidote au complotisme (or ayant tendance à douter qu'une analyse froide de la structure de la société puisse à elle seule motiver un élan révolutionnaire massif, je ne suis pas loin de penser qu'il faut se méfier, en principe de tout élan révolutionnaire).

Pourquoi alors les théories critiques, contrairement à la biologie évolutionniste, ne semblent pas toujours jouer leur rôle d'antidote ? C'est que la biologie hérite en premier lieu de son pouvoir de conviction de son assise empirique.

Une théorie (comme celle de l'évolution) n'est pas un ensemble de faits. C'est un cadre, une grille de lecture, qui permet de produire des hypothèses vérifiables. Ce qui rend une théorie fondée, c'est que les explications particulières qu'elle produit sont vérifiées empiriquement (les phénomènes de spéciation...), ce qui en fait une grille d'analyse efficace, mais la théorie elle-même n'est pas en soi réfutable indépendamment des explications particulières qu'elle produit. Il en va de même des analyses marxistes, ou des théories critiques en général : la théorie marxiste n'est pas en soi réfutable. Ce n'est pas un problème : il faudrait juger de sa pertinence en évaluant les explications qu'elle produit. Ici, cependant, nous faisons face à de nombreux problèmes épistémologiques liés à nos capacités à tester les hypothèses économiques et sociales (ces problèmes sont partagés avec l'économie orthodoxe) et contrairement au cas de la biologie, il n'est pas toujours évident qu'il existe un corpus de faits qui attesterait de la pertinence de ce type d'analyse. De même pour les théories critiques en général, post-coloniales, féministes ou autres. Ou si l'on dispose parfois d'éléments (on peut par exemple attester que le langage est genré en faveur des hommes), on peut soupçonner, en l'absence de preuves, que l'étendue des faits solides (l'étendue de l'influence du langage sur les inégalités de genre, ou celle de l'influence patriarcale sur les résistances à l'évolution du langage, au profit d'autres facteurs plus anodins) peut avoir tendance à être exagérée par les militants d'une cause. (A noter que j'affirme ceci tout en étant persuadé que ce type d'analyse est parfois pertinent, et qu'il existe un sens suivant lequel, en effet, les personnes en positions force auront tendance à être conservateurs vis à vis du système dont ils profitent. C'est plutôt l'excès dans les explications particulières et leur prétention totalisante plutôt que partielle qui me rendent suspicieux.)

Du fait de cette faiblesse empirique, l'existence même d'une lecture romantique indue devrait nous rendre méfiant vis-à-vis du pouvoir de conviction des théories critiques, ou au moins de leur généralité, sinon vis-à-vis du problèmes qu'elles prétendent résoudre (les inégalités homme-femme étant avérées) et d'une pertinence explicative partielle. Autrement dit, même en adoptant une lecture austère et sérieuse de ces théories, je pense qu'une certaine dose de scepticisme à leur égard reste légitime.

Faut-il nier les intentions ?

J'ai prévenu que les choses risquaient de ne pas être si simples, y compris en biologie. Elles ne sont pas si simple parce que la biologie évolutive n'est pas toute la biologie. Une autre branche s'intéresse au fonctionnement des organismes ou des cellules. Or les biologistes de cette branche ont systématiquement recours à un langage sinon directement téléologique, au moins fonctionnel. Le problème est qu'on peut se demander en quelle mesure la notion de fonction est réductible à une compréhension purement évolutive. Généralement on définit une fonction par ce qu'elle accomplit. On peut se demander à ce sujet s'il n'y a pas quelque chose qui serait de l'ordre de l'émergence.

Sans s'attarder trop sur des problématiques de philosophie des sciences, le problème que je vois dans le domaine social est le suivant : il semble à peu près indéniable qu'il existe dans le monde des agents dotés d'intentions. Une analyse purement structurelle tendrait pourtant à escamoter ces intentions. A l'extrême elle pourrait même éliminer toute possibilité de motiver un engagement quelconque : on devrait se borner à décrire le fonctionnement de la société telle qu'elle est (et alors il est évident que les théories de la gauche radicale ne pourraient susciter aucun engagement militant).

Mais il est à peu près indéniable qu'il existe des intentions, et même si l'on voulait, d'une manière réductionniste, leur donner une place dans notre théorie sociale à titre d'intentions individuelles s'effaçant par la loi des grands nombres face aux facteurs structuraux, rien ne nous y oblige en principe : puisqu'il était question d'émergence, pourquoi ne pas envisager qu'il puisse exister des intentions collectives capables de modifier la structure sociale en profondeur ? Ce type de vue semble être un pré-requis à l'engagement politique.

Pourquoi faut-il qu'il existe des intentions ? Simplement parce qu'il s'agit d'un concept de sens commun dont l'efficacité pratique est difficile à mettre en doute, et qu'il s'agit là, d'un point de vue pragmatiste, d'un bon argument pour affirmer qu'en effet il existe des intentions dans le monde. Ainsi même si les patrons n'ont pas tous individuellement l'intention d'exploiter leurs salariés, il serait pragmatiquement juste, ou pas totalement faux, de dire que le patronat a l'intention d'opprimer le salariat.

Mais ne nous voilà pas revenu au point de départ ? Si le discours intentionnel est commode, alors le discours romantique, voire complotiste, bien que strictement faux, n'a t'il pas une légitimité pratique ?

Pas tout a fait. Si rien n'exclut que des intentions collectives se forment, voire qu'elles soient générées par la structure sociale, celles-ci ne sont généralement pas cachées, ou quand il existe une volonté de dissimulation, l'enquête peut permettre de les mettre au jour, et en tout cas, assimiler fonction systémique et intention collective relève de la confusion conceptuelle. Il s'agit précisément d'une tendance totalisante : la prétention à proposer un schéma explicatif unique à l'ensemble de la société, quand distinguer soigneusement ce qui relève des intentions affichées ou non, et ce qui relève d'effets structuraux, permet de faire la part des choses : les fonctions attribuées aux structures sociales ne sont pas le tout de l'explication, elles peuvent elles mêmes s'appuyer sur des facteurs externes au monde social (par exemple psychologiques, biologiques, physiques). Un discours exclusivement intentionnel rendrait cette perspective inenvisageable. Il me semble que, justement, la présentation constructiviste des théories nous fait pencher vers ce type de vue totalisante où l'intention joue le rôle central.

En somme, le problème de la pensée d'extrême gauche est le suivant : quand cette pensée se veut totalisante plutôt que partielle (quand elle veut tout réduire au social), elle autorise un glissement du discours fonctionnel au discours intentionnelle, et ce faisant, favorise les interprétations complotistes, ou au moins entretient l'ambiguïté. Mais l'assise empirique des théories critiques est au mieux partielle, et le pouvoir de conviction des versions totalisantes ne tient qu'au ce double discours qu'elles permettent : l'attrait intuitif du complotisme vient compenser la faiblesse empirique. Tout ceci, enfin, est renforcé par un effet de prophétie auto-réalisatrice.

En conclusion, il me semble qu'on peut retenir les points suivants pour distinguer le bon grain de l'ivraie :

  • Seules les intentions objectives (affichées, ou révélées quand elles sont dissimulés) devraient être attribuées aux groupes sociaux. Celles ci ne relèvent pas d'une analyse structurelle de la société : elles sont au mieux un élément factuel qui entre en compte dans les explications, ou qui peut être expliqué.
  • Il faut utiliser un discours fonctionnel et non intentionnel quand on parle de structures plutôt que d'agents. Ce discours ne doit pas prétendre être une explication totale des phénomènes.
  • Les explications proposées (les fonctions attribuées aux structures sociales) doivent être basées sur des mécanismes explicites. Quand ceux-ci s'appuient sur des intentions d'agents ou de groupes, il doit s'agir d'intentions objectives.
  • Ces mécanismes devraient idéalement être étayés empiriquement. Si ce n'est pas le cas, c'est une raison de douter de la grille d'analyse proposée dans son ensemble. Quand le discours ne joue plus un rôle descriptif, mais prescriptif ("il faudrait mettre en place X ou Y"), il est particulièrement essentiel que les types de mécanisme invoqués existent déjà pour rendre compte de phénomènes existants, et soient fondés empiriquement.

Économie orthodoxe et hétérodoxe

Tous ces points valent je pense pour n'importe quelle théorie sociale ou économique. Si je devais faire une remarque sur l'économie orthodoxe : sans être spécialiste, vu de l'extérieur, il me semble que la différence caractéristique tient au rôle de l'intention. Les orthodoxes auront tendance à attribuer des intentions aux agents isolés uniquement (ou peut-être aux entités bien circonscrites comme les entreprises), négligeant dans les explications proposées l'agrégation d'intentions à l'échelle sociale (le politique en général). L'attitude est plus réductionniste. Ceci leur permet de concevoir les intentions de manière plus abstraite, moins située (en terme de calcul rationnel notamment). A l'inverse, un marxiste attribuera aux agents ou groupes des intentions particulières en fonction de leur position dans la structure sociale, et relativement aux autres groupes, donc de manière moins abstraite et plus contextuelle. Je me trompe peut-être et je serai heureux d'avoir l'avis d'économistes sur ce point.

Si c'est le cas, le cadre orthodoxe est moins prompt à attribuer des intentions cachées de manière erronées (quoique les intentions abstraites qu'il attribut sont peut-être erronées), et il est moins prompt à glisser du discours fonctionnel au discours intentionnel (puisque les intentions sont conçues comme relativement autonomes vis-à-vis des structures sociales ou économiques) : la dérive vers le complotisme n'est pas vraiment un risque (ceci dit la tentation de faire des explications des explications totales peut exister mais avouons qu'elle est présente dans toutes les disciplines. En tout cas elle n'est pas inscrite dans la théorie.). Il aura également tendance à rendre explicite les mécanismes explicatifs, puisque ceux-ci ne feront pas directement intervenir des aspects intentionnels, tandis que le marxiste expliquera certaines fonctions (le chômage comme armée de réserve) par des intentions (conserver l'ordre établi quand on dispose d'un capital), rendant les mécanismes plus diffus et moins quantifiables. Enfin, les mécanismes invoqués dans les prescriptions pourront être des mécanismes déjà en jeu dans les descriptions, ou de même nature.

C'est sans doute la raison pour laquelle l'économie orthodoxe se pare aisément des atours d'une science exacte : elle possède, de fait, certaines vertus épistémiques. Ça ne la rend pas pour autant immunisée face à un dernier problème : le fait de tester empiriquement les mécanismes proposés. On peut aussi lui reprocher, de manière générale, d'ignorer les intentions affichées par les agents sociaux, c'est à dire de ne tenir compte que d'un ensemble limité de faits (ceux qui sont quantifiables). Ces faiblesses empiriques risquent de jeter le doute sur l'édifice dans son ensemble. Si j'ai raison de penser que l'idée que les intentions des agents sont relativement autonomes vis-à-vis des structures sociales, et peuvent être donc pensées de manière abstraite, est une caractéristique essentielle de cette économie, sans laquelle elle ne pourrait fonctionner, il n'est pas exclu que cette idée ne soit vraie qu'en première approximation (au premier ordre, dirait un physicien) et que les analyses orthodoxes soient, pour cette raison, foncièrement limitées. Ceci dit, concevoir que le jeu entre structure sociale et intentions soit plus complexe que prévu ne valide pas pour autant n'importe quelle théorie qui prendrait ce fait en compte, encore moins n'importe quelle explication qu'on peut produire à partir de cette théorie.

Voilà donc en quoi certains aspects critiques de la gauche radical me semblent pertinent, bien que persiste de la part une certaine méfiance vis-à-vis des lectures qui y sont proposées.