La réalité peut-elle buguer ? Ou pourquoi le monde n'est pas une simulation numérique.
Le monde est-il une simulation numérique ? J'entends par là l'idée que la réalité serait un algorithme particulier qui produirait les phénomènes du monde, ou qu'elle serait une machine de Turing implémentant cet algorithme.
Je pense qu'on peut définitivement rejeter cette idée pour la raison suivante : un algorithme est normé, mais les faits ne le sont pas.
En effet, il me semble qu'une des caractéristiques essentielles d'un algorithme est qu'il peut-être bugué. Or qu'est-ce qu'un "bug"? Quelque chose qui n'est pas conforme à certaines règles ou normes. Mais l'idée que la réalité soit buguée, ou puisse l'être ou aurait pu l'être, n'a pas de sens : elle est telle qu'elle est. Donc le monde n'est pas une simulation numérique.
Examinons cet argument dans les détails, afin de le rendre plus convaincant.
1. La réalité peut-elle "buguer" ?
Commençons par accepter qu'un algorithme est normé (qu'il peut en principe buguer), et partant, imaginons que la réalité soit un algorithme et qu'elle "bugue". Comment le saurions-nous ?
Si nous nous faisons une idée de ce que pourrait être l'algorithme de la réalité, il se pourrait que certains phénomènes nous apparaissent comme des "bugs". Cependant, les penser ainsi, c'est postuler que nos représentations sont conformes à la réalité : nous serions parvenu à déceler les normes qui gouvernent les phénomènes, l'algorithme du monde, et certains ne s'y conformeraient pas. Mais pourquoi ne pas plutôt croire que nous nous étions trompés dans nos représentations ?
C'est bien sûr cette seconde attitude qu'il est rationnel d'adopter. S'il y a un"bug", il ne se situe pas dans la réalité, mais dans nos représentations.
Mais là, nous venons de montrer qu'il sera toujours irrationnel de croire qu'il y a des bugs dans le monde : c'est toujours nous qui buguons. En tant qu'être rationnels, nous devrions donc toujours penser que la réalité n'est pas buguée. Or c'est paradoxal : en quoi une simulation quelconque ne pourrait en principe être buguée ? Et donc pourquoi serait-ce rationnellement impensable ?
À ceci il y a deux réponses possibles.
La première consiste à affirmer que la réalité pourrait en principe être buguée, mais qu'elle ne l'est pas parceque Dieu (appelons ainsi l'auteur de la simulation) est parfait. Les élans théologiques de cette option un peu ad-hoc ne satisferont pas tout le monde cependant... En tout cas, elle relève clairement de l'acte de foi métaphysique.
La deuxième réponse consiste à rejeter l'idée que nous devrons croire que le monde n'est pas bugué: il serait rationnel de l'envisager, bien que ce soit une chose inconnaissable. Peut-être que ce que la science découvre par ses lois, c'est un algorithme défectueux, de fausses normes. Mais cette option est étrange : si le monde était bugué, quelle différence cela ferait-il avec l'idée qu'il suit certaines normes alternatives rendant compte du bug comme d'une fonctionnalité voulue ? (Il pourrait y avoir des phénomènes qui ne répondent à aucune norme, mais alors il ne s'agirait plus de bugs puisqu'ils ne peuvent être produits par un algorithme.)
Postuler l'existence de normes inconnaissables, et qui sont peut-être violée, relève donc également de la métaphysique, sinon de la théologie. Sauf à prétendre connaître la forme que doivent prendre les normes du monde, c'est une question indécidable.
Si l'on rejette ces options métaphysiques, il nous faut accepter que la réalité ne peut pas être buguée, ce qui la différencie d'un algorithme. Il y a un problème de l'ordre de la direction de l'ajustement ici : ce sont nos représentations qui doivent s'ajuster à la réalité, tandis que dans le cas d'un algorithme, c'est habituellement l'inverse. Affirmer que le monde est une simulation est donc une erreur de catégorie.
2. Un algorithme doit-il pouvoir buguer ?
Cependant il y a une autre réponse à notre argument de départ qu'il convient d'examiner, car toute cette discussion suppose une certaine compréhension de ce qu'est une simulation, ou un algorithme. On pourrait objecter qu'il ne s'agit pas d'une caractéristique essentielle des algorithmes que de pouvoir avoir des bugs, c'est à dire de suivre des normes : les normes leurs seraient externes. Mais là, je dirais qu'on joue sur les mots.
Mettons nous donc d'accord : les normes sont-elles essentielles ou non aux algorithmes ? Un algorithme est-il ou non par définition normé ? Pour ma part je conçois un algorithme comme l'implémentation d'un ensemble de règles, donc de normes. Je pense que c'est une bonne conception, ne serait-ce que parceque dans la vie courante, ce que nous appelons algorithme peut être bugué, et pouvoir être bugué (en principe), c'est répondre à des règles ou à des normes. Défendre qu'il se pourrait qu'un algorithme particulier ne puisse en principe être bugué (remarquez la double modalité : il se pourrait qu'ils ne puissent pas...) revient à changer de sujet.
Mais soyons charitable et examinons cette possibilité. On pourrait dire que le fait pour un algorithme d'être bugué n'est pas essentiel, mais relatif à des normes. Il s'agirait de dire qu'un algorithme bugué est un algorithme qui ne se conforme pas à nos normes, et que s'il le faisait, si nous corrigions l'algorithme, ce serait un algorithme différent puisque nous l'avons modifié. Donc nous ferions peut-être mieux de parler de "programme" bugué, dont nous modifions l'algorithme pour qu'il ne le soit plus. L'algorithme serait en quelque sorte le squelette du programme, la structure qu'il a de fait, indépendamment des règles à suivre, et c'est le programme, non l'algorithme, qui serait bugué. La réalité serait l'algorithme, non le programme, peut-être un algorithme sans programme.
Très bien, acceptons ce langage. Mais alors la thèse suivant laquelle le monde est une simulation devient beaucoup moins forte, puisque ce que nous voulons dire par "le monde est un algorithme", c'est seulement que la distribution des phénomènes peut en principe être décrite, a posteriori, comme satisfaisant certaines règles (paradoxalement, la thèse de Church-Turing, souvent invoquée par les tenants de l'hypothèse suivant laquelle le monde est une simulation, participe elle-même à rendre la thèse moins intéressante en élargissant la classe de ce qui pourrait compter comme satisfaisant des règles algorithmiques). C'est une thèse moins intéressante que la première, puisque quiconque adhère a l'idée qu'il existe des lois naturelles gouvernant les phénomènes sera prêt à en accepter le cœur (il s'agit tout au plus, en sus de l'idée de loi naturelle, d'adopter une métaphysique déterministe et discrétiste).
Il se pourrait que certains phénomènes résistent à une transcription dans un langage, et dans ce cas, nous devrions en conclure que le monde n'est pas un algorithme. Il me semble que cette conclusion est déjà atteinte, puisque la plupart de mes expériences résistent de fait à une transcription linguistique. Enfin, peut-être le pourraient-elles "en principe"... Aussi dire que le monde est une simulation, ce serait au moins dire que que nos expériences et tous les phénomènes du monde pourraient, en principe, être transcrites en un langage naturel, le langage de la réalité. C'est un vœux pieux sur lequel je ne me prononcerai pas (qui n'est en fait rien d'autre que la thèse de Lewis, suivant laquelle le monde serait une "mosaïque humienne" de propriétés naturelles).
Mais une fois ce premier pas fait, l'idée que ces phénomènes une fois transcrits se conformeraient à des lois est une hypothèse qui ne dit pas grand chose. Ne trouvera-t-on pas toujours quelque norme convoluée pour rendre compte de tout phénomène, tant qu'il est possible de le catégoriser, de décrire ce dernier dans un langage ? Dans ce cas notre thèse confinerait à la trivialité, et il se pourrait que nous n'affirmions rien du tout.
3. Est-ce une thèse substantielle ?
Le problème est qu'il est trop facile de trouver a posteriori des règles pour rendre compte de n'importe quelle séquence de phénomènes. C'est certainement le cas si le monde est fini. Certes, si les phénomènes sont en nombre infini, il se peut qu'aucun ensemble fini de règles ne puisse décrire leur répartition (ou aucune axiomatisation finie, même usant de schémas d'axiomes). La thèse suivant laquelle le monde est une simulation reviendrait alors à postuler que la distribution des phénomènes peut être décrite par un ensemble fini de règles (et peut-être l'idée, à préciser, que ces règles produisent les phénomènes). Cependant nous n'accédons jamais qu'à un ensemble fini de phénomènes, et un ensemble fini de phénomènes peut toujours être décrit par un ensemble fini de règles, aussi nous ne pourrions jamais, en principe, défaire cette thèse, si bien qu'elle ne peut être que métaphysique.
Ici on pourrait proposer un argument inductif pour défendre l'idée malgré tout : il faut toujours beaucoup moins de lois pour décrire la distribution des phénomènes qu'il n'en faut pour mentionner chacun de ces phénomènes. Ou encore, il est toujours possible de rendre compte des phénomènes par des algorithmes plus simples que celui qui se contenterait de produire une séquence prédéfinie de résultats. Par induction, il serait possible de décrire l'infinité des phénomènes par un nombre fini de règles.
Il semble bien, après tout, que le monde soit régulier... Attention cependant : ces lois ou algorithmes dont je parle ne sont pas les lois de la physique (qui, pour ce qui est de la physique contemporaine, sont non déterministes, ne prennent pas la forme d'algorithmes, et ne possèdent généralement pas de solutions analytiques) mais d'hypothétiques lois d'observation, ou encore des prédictions de modèles numériques déterministes éventuellement basés sur les lois de la physique. Seulement les modèles qu'on peut produire sur la base des lois de la physique sont en nombre infini. Surtout, ils ne sont presque jamais déterministes, si bien que la base d'induction est caduque : nous pouvons certes dégager des lois statistiques pour rendre compte de nos observations, mais rien n'indique qu'il est toujours possible de décrire les phénomènes naturels particuliers (et non seulement leur distribution statistique) comme étant produits par un algorithme plus succinct que ces derniers, puisque ce n'est pas quelque chose que nous faisons habituellement.
Enfin les modèles d'une théorie, au sens de structures mathématiques respectant les lois de la théorie, peuvent avoir une taille infinie (d'autant plus s'ils intègrent les conditions initiales de la simulation, la "configuration du monde"...). Même si nous produisions régulièrement de tels algorithmes (ce qui n'est pas le cas), et même si leur taille augmentait moins vite que le nombre des phénomènes dont ils parviennent à rendre compte, rien en l'état de nos connaissances n'indique que cette taille convergerait pour autant vers une taille finie pour l'infinité des phénomènes apparemment aléatoire de l'univers. Même s'il était possible de rendre compte des phénomènes par un ensemble de règles algorithmiques de manière plus "compacte" qu'en listant simplement leur séquence, il est possible que cet ensemble de règles devienne infini pour l'univers dans son ensemble, si bien que l'induction échoue.
L'idée que le monde est une simulation au sens faible d'un algorithme "non normé", dont il n'y a aucun sens à dire qu'il bugue, est donc déjà métaphysique, en plus d'être relativement moins intéressante qu'il n'y paraît.
Conclusion
Il y a donc plusieurs choses à avaler si l'on compte prétendre que le monde est une simulation numérique : d'abord que toute expérience pourrait être catégorisée par un langage naturel, et qu'un tel langage existe. Puis que les phénomènes ainsi catégorisés sont discrets et peuvent être décrits comme suivant des lois algorithmiques déterministes. Ensuite, si l'on veut se démarquer d'une thèse métaphysique somme toute peu intéressante, il faudrait admettre que ces lois sont des normes. Et il faut, pour couronner le tout, soit avoir recours à un Dieu (ou quelque entité) infaillible qui veille au respect des normes, soit être prêt à accepter que ces normes ne soient en fait pas respectées dans notre bas monde... Or le gain explicatif est quasiment nul : l'idée que tous les phénomènes pourraient être transcrits de manière discrète dans un langage n'est qu'une explication ad-hoc au fait que nous parvenons à produire ce type de transcriptions ; qu'ils suivent des lois algorithmiques n'explique rien quand ces lois ne sont jamais utilisées en pratique pour rendre compte des phénomènes ; enfin que ces lois soient normatives n'est qu'un surplus inutile aux relents théologiques.
Je suis intimement convaincu, pour ces raisons, que la réalité n'est pas une simulation numérique. Mais bien sûr, tout ce que j'ai montré, c'est qu'il s'agit d'une idée métaphysique.
Commentaires