mercredi 23 mai 2018

Le faux problème de l'intelligence artificielle

Animation2

Y aura-t-il un jour une intelligence artificielle en tout point supérieure à l'homme ? Est-ce que ça arrivera prochainement ?

Personnellement je donnerais mon assentiment aux deux réponses suivantes :

  • oui bien sûr, et c'est déjà le cas depuis des décennies !
  • c'est très peu probable ; à ce jour il n'existe aucune intelligence artificielle, il faudrait déjà commencer par en créer une !

Je pense que ce sont les deux seules manières *intelligibles* de répondre à cette question mal posée, une fois la confusion sur le terme "intelligence" dissolue.

De l'usage des métaphores

Car ce terme inadéquat est à la source de beaucoup de confusions. Quand on parle d'intelligence à propos d'algorithmes, c'est toujours une métaphore, comme quand on dit "le distributeur de billets est intelligent, il a deviné ma langue à partir de ma carte bancaire et l'utilise pour l'interface" (en fait c'est le concepteur du programme qui est intelligent ici). Prendre la métaphore trop au sérieux, c'est procéder à un abus de langage qui ouvre la voie à une série de fausses questions mystico-métaphysiques qu'on ferait mieux de laisser aux auteurs de science fiction.

En fait on devrait cesser d'employer le terme "intelligence artificielle", et parler plutôt d'algorithmes adaptatifs, ou quelque chose du genre pour dégonfler la bulle métaphysique qui entoure le secteur de l'IA. Ceci nous permettrait de ne pas oublier que les algorithmes, les programmes, sont avant tout des outils : ils sont fabriqués dans un certain but par des concepteurs, puis utilisés dans ces buts (ou d'autres) par des utilisateurs, et bien-sûr ces algorithmes peuvent être faits intelligemment, ils peuvent aussi (en un certain sens) nous rendre plus intelligents, c'est à dire augmenter l'étendue de nos capacités dès lors que nous savons les utiliser. Mais ils ne sont pas intelligents, ou seulement en un sens métaphorique, simplement parce que ce ne sont pas des personnes dotées d'intentions, mais des outils que les personnes utilisent.

Si l'on accepte ce cadre pour la discussion, que peut bien signifier l'idée d'une intelligence artificielle supérieure à l'homme ?

Cela peut signifier, si l'on accepte d'utiliser la métaphore, que certains programmes permettent de réaliser des choses qui seraient hors de portée d'un homme sans outils, ou permettent de faire face à plus de situations variées, et alors la réponse à la question est triviale : évidemment oui, c'est le cas depuis des décennies au moins.

Ou cela peut signifier, si l'on choisit d'interpréter sérieusement le terme d'intelligence, que l'on parvienne à créer artificiellement d'authentiques personnes, des êtres véritablement vivants, autonomes, capables de choisir leurs propres fins dans la société et de réaliser ces fins, et alors la réponse est : il faudrait déjà avoir créé une seule de ces personnes artificielles pour penser qu'il y en aura bientôt une qui dépassera l'homme dans ses capacités. Ce n'est pas le cas aujourd'hui, et on en est bien loin (au passage, il n'y a aucune raison de penser que ce type de projet relève uniquement de l'IA : pourquoi est-ce que la biologie, les neurosciences ou la sociologie ne seraient pas pertinentes pour savoir ce qu'est une personne ou un être vivant, et donc savoir comment en créer une artificiellement ?).

Et la société ?

Il me semble que les fan-boys et fan-girls de l'IA souffrent de myopie, pensant l'intelligence sur un plan exclusivement individuel, exclusivement computationnel, et occultant complètement les autres aspects, notamment sociaux (on leur a souvent reproché, à raison). Il faut avoir une vision extrêmement étriquée de ce qu'est la vie pour croire que les algorithmes de l'IA, aussi impressionnant soient-ils, s'apparentent plus à des personnes humaines qu'à des outils. N'oublions pas que l'intelligence est sociale, et ce doublement :

  • c'est à la société que nous devons d'être intelligent, car c'est elle qui nous éduque et qui détermine les buts qu'on peut se fixer ;
  • même éduqué, nous ne sommes jamais intelligent seul, mais seulement par notre capacité à utiliser les outils que la société nous fournit de par son organisation, et qu'aucun d'entre nous ne saurait fabriquer seul.

Autrement dit, on ne peut être intelligent qu'en s'appuyant sur des millénaires de développements passés, non seulement pour acquérir une intelligence, mais aussi pour en faire usage.

Si l'on prend acte de ceci, on peut en conclure, d'une part, que notre propre intelligence (au sens particulier de capacités cognitives, de ce qu'il est possible de réaliser) augmentera d'autant plus que nous disposerons d'outils puissant. C'est-à-dire que les développements de l'IA participent paradoxalement à relever la barre de ce qu'il faudrait pour être plus intelligent qu'un humain. Pensez-y : des ingénieurs ont réussit il y a peu à battre les meilleurs joueur de Go à l'aide d'un outil dont l'utilisation serait en principe accessible à presque tout le monde ! Nous sommes tous potentiellement d'excellents joueurs de Go : la barre est bien plus haute aujourd'hui qu'elle ne l'était il y a quelques années... (S'il y a un véritablement danger à l'avenir, finalement, c'est que ces outils ne soient pas égalitairement répartis et qu'émerge non pas une intelligence artificielle, mais un groupe d'humains monopolisant l'usage d'outils puissants pour assujettir les autres : voilà un problème bien plus pressant qui devrait nous préoccuper.)

D'autre part, du fait que la notion d'intelligence est intrinsèquement sociale, on peut envisager que même si nous étions capable de créer une authentique personne artificielle (je ne pense pas que ce soit à la portée des technologies actuelles, mais imaginons), celle-ci ne pourrait être intelligente qu'en prenant part à notre société et en en étant dépendante (comme nous le sommes) à la fois pour son éducation et pour ses moyens (ce qui demanderait au préalable qu'on accepte de l'intégrer). Il me semble que cela change assez radicalement la donne en termes de scénario catastrophe, et (bien que j'admets que ce soit discutable) il me semble que même dans ce cas, il serait légitime d'affirmer que c'est la société humaine qui est devenue plus intelligente, et non les machines qui ont dépassé les hommes.

Je ne veux pas, en disant ça, nier les progrès de ce qu'on appelle l'intelligence artificielle, ni les enjeux philosophiques qu'il peut y avoir à ces progrès, mais seulement rappeler que ces enjeux se situent et se situeront toujours dans la continuité des enjeux qu'ont toujours posé les technologies. N'importe quelle technologie peut nous dépasser si l'on est incapable d'en prévoir les conséquences, ou apporter des nouveautés dans l'ordre social qu'on n'imaginait pas, et tout ceci peut exiger des réflexions d'ordre éthique ou autre. Mais il n'y a rien de fondamentalement nouveau ici : les ordinateurs permettent déjà de faire des choses hors de portée d'un humain sans ordinateur, ils ont complètement modifié la façon dont nous interagissons en société, et c'est le cas de bien d'autres technologies. Mais à ce jour, si une voiture autonome provoque un accident, c'est toujours à son constructeur qu'en incombera la responsabilité, pas à la voiture, simplement parce que la voiture est un outil et non une personne.

L'éléphant dans la pièce

Pour finir, il faut bien le dire : il y a comme un "éléphant dans la pièce", comme disent les anglo-saxons, dans tous ces débats : la philosophie de l'esprit. Car tous ces débats sur l'intelligence artificielle relèvent je pense d'une mystique qui a sa source dans l'idée que nous-même ne serions, finalement, que de puissants algorithmes adaptatifs, si bien que ces algorithmes que nous implémentons nous sont analogues. Je veux bien discuter de philosophie de l'esprit, mais à ce jour les sciences cognitives ne vont pas nécessairement dans cette direction. Là aussi il y a une myopie de la part des tenants de l'IA forte : ils considèrent implicitement comme réglés des problèmes comme celui de la conscience qui relèvent de la biologie ou d'autres disciplines, alors que nous commençons à peine à les aborder. Peut-être que nous ne sommes finalement que des algorithmes adaptatifs implémentés dans de la chair vivante, mais ce n'est pas aux chercheurs en informatique d'en décider, et j'aimerais que l'on cesse de nous imposer des vues métaphysiques plus ou moins fumeuses, seulement soutenues par des abus de langage, quand il est question de choses d'un ordre bien plus pragmatique, à savoir, comment gérer l'utilisation sociale des puissants outils qui sont aujourd'hui à notre disposition.

samedi 5 mai 2018

La réalité peut-elle buguer ? Ou pourquoi le monde n'est pas une simulation numérique.

Le monde est-il une simulation numérique ? J'entends par là l'idée que la réalité serait un algorithme particulier qui produirait les phénomènes du monde, ou qu'elle serait une machine de Turing implémentant cet algorithme.

Je pense qu'on peut définitivement rejeter cette idée pour la raison suivante : un algorithme est normé, mais les faits ne le sont pas.

En effet, il me semble qu'une des caractéristiques essentielles d'un algorithme est qu'il peut-être bugué. Or qu'est-ce qu'un "bug"? Quelque chose qui n'est pas conforme à certaines règles ou normes. Mais l'idée que la réalité soit buguée, ou puisse l'être ou aurait pu l'être, n'a pas de sens : elle est telle qu'elle est. Donc le monde n'est pas une simulation numérique.

Examinons cet argument dans les détails, afin de le rendre plus convaincant.

1. La réalité peut-elle "buguer" ?

Commençons par accepter qu'un algorithme est normé (qu'il peut en principe buguer), et partant, imaginons que la réalité soit un algorithme et qu'elle "bugue". Comment le saurions-nous ?

Si nous nous faisons une idée de ce que pourrait être l'algorithme de la réalité, il se pourrait que certains phénomènes nous apparaissent comme des "bugs". Cependant, les penser ainsi, c'est postuler que nos représentations sont conformes à la réalité : nous serions parvenu à déceler les normes qui gouvernent les phénomènes, l'algorithme du monde, et certains ne s'y conformeraient pas. Mais pourquoi ne pas plutôt croire que nous nous étions trompés dans nos représentations ?

C'est bien sûr cette seconde attitude qu'il est rationnel d'adopter. S'il y a un"bug", il ne se situe pas dans la réalité, mais dans nos représentations.

Mais là, nous venons de montrer qu'il sera toujours irrationnel de croire qu'il y a des bugs dans le monde : c'est toujours nous qui buguons. En tant qu'être rationnels, nous devrions donc toujours penser que la réalité n'est pas buguée. Or c'est paradoxal : en quoi une simulation quelconque ne pourrait en principe être buguée ? Et donc pourquoi serait-ce rationnellement impensable ?

À ceci il y a deux réponses possibles.

La première consiste à affirmer que la réalité pourrait en principe être buguée, mais qu'elle ne l'est pas parceque Dieu (appelons ainsi l'auteur de la simulation) est parfait. Les élans théologiques de cette option un peu ad-hoc ne satisferont pas tout le monde cependant... En tout cas, elle relève clairement de l'acte de foi métaphysique.

La deuxième réponse consiste à rejeter l'idée que nous devrons croire que le monde n'est pas bugué: il serait rationnel de l'envisager, bien que ce soit une chose inconnaissable. Peut-être que ce que la science découvre par ses lois, c'est un algorithme défectueux, de fausses normes. Mais cette option est étrange : si le monde était bugué, quelle différence cela ferait-il avec l'idée qu'il suit certaines normes alternatives rendant compte du bug comme d'une fonctionnalité voulue ? (Il pourrait y avoir des phénomènes qui ne répondent à aucune norme, mais alors il ne s'agirait plus de bugs puisqu'ils ne peuvent être produits par un algorithme.)

Postuler l'existence de normes inconnaissables, et qui sont peut-être violée, relève donc également de la métaphysique, sinon de la théologie. Sauf à prétendre connaître la forme que doivent prendre les normes du monde, c'est une question indécidable.

Si l'on rejette ces options métaphysiques, il nous faut accepter que la réalité ne peut pas être buguée, ce qui la différencie d'un algorithme. Il y a un problème de l'ordre de la direction de l'ajustement ici : ce sont nos représentations qui doivent s'ajuster à la réalité, tandis que dans le cas d'un algorithme, c'est habituellement l'inverse. Affirmer que le monde est une simulation est donc une erreur de catégorie.

2. Un algorithme doit-il pouvoir buguer ?

Cependant il y a une autre réponse à notre argument de départ qu'il convient d'examiner, car toute cette discussion suppose une certaine compréhension de ce qu'est une simulation, ou un algorithme. On pourrait objecter qu'il ne s'agit pas d'une caractéristique essentielle des algorithmes que de pouvoir avoir des bugs, c'est à dire de suivre des normes : les normes leurs seraient externes. Mais là, je dirais qu'on joue sur les mots.

Mettons nous donc d'accord : les normes sont-elles essentielles ou non aux algorithmes ? Un algorithme est-il ou non par définition normé ? Pour ma part je conçois un algorithme comme l'implémentation d'un ensemble de règles, donc de normes. Je pense que c'est une bonne conception, ne serait-ce que parceque dans la vie courante, ce que nous appelons algorithme peut être bugué, et pouvoir être bugué (en principe), c'est répondre à des règles ou à des normes. Défendre qu'il se pourrait qu'un algorithme particulier ne puisse en principe être bugué (remarquez la double modalité : il se pourrait qu'ils ne puissent pas...) revient à changer de sujet.

Mais soyons charitable et examinons cette possibilité. On pourrait dire que le fait pour un algorithme d'être bugué n'est pas essentiel, mais relatif à des normes. Il s'agirait de dire qu'un algorithme bugué est un algorithme qui ne se conforme pas à nos normes, et que s'il le faisait, si nous corrigions l'algorithme, ce serait un algorithme différent puisque nous l'avons modifié. Donc nous ferions peut-être mieux de parler de "programme" bugué, dont nous modifions l'algorithme pour qu'il ne le soit plus. L'algorithme serait en quelque sorte le squelette du programme, la structure qu'il a de fait, indépendamment des règles à suivre, et c'est le programme, non l'algorithme, qui serait bugué. La réalité serait l'algorithme, non le programme, peut-être un algorithme sans programme.

Très bien, acceptons ce langage. Mais alors la thèse suivant laquelle le monde est une simulation devient beaucoup moins forte, puisque ce que nous voulons dire par "le monde est un algorithme", c'est seulement que la distribution des phénomènes peut en principe être décrite, a posteriori, comme satisfaisant certaines règles (paradoxalement, la thèse de Church-Turing, souvent invoquée par les tenants de l'hypothèse suivant laquelle le monde est une simulation, participe elle-même à rendre la thèse moins intéressante en élargissant la classe de ce qui pourrait compter comme satisfaisant des règles algorithmiques). C'est une thèse moins intéressante que la première, puisque quiconque adhère a l'idée qu'il existe des lois naturelles gouvernant les phénomènes sera prêt à en accepter le cœur (il s'agit tout au plus, en sus de l'idée de loi naturelle, d'adopter une métaphysique déterministe et discrétiste).

Il se pourrait que certains phénomènes résistent à une transcription dans un langage, et dans ce cas, nous devrions en conclure que le monde n'est pas un algorithme. Il me semble que cette conclusion est déjà atteinte, puisque la plupart de mes expériences résistent de fait à une transcription linguistique. Enfin, peut-être le pourraient-elles "en principe"... Aussi dire que le monde est une simulation, ce serait au moins dire que que nos expériences et tous les phénomènes du monde pourraient, en principe, être transcrites en un langage naturel, le langage de la réalité. C'est un vœux pieux sur lequel je ne me prononcerai pas (qui n'est en fait rien d'autre que la thèse de Lewis, suivant laquelle le monde serait une "mosaïque humienne" de propriétés naturelles).

Mais une fois ce premier pas fait, l'idée que ces phénomènes une fois transcrits se conformeraient à des lois est une hypothèse qui ne dit pas grand chose. Ne trouvera-t-on pas toujours quelque norme convoluée pour rendre compte de tout phénomène, tant qu'il est possible de le catégoriser, de décrire ce dernier dans un langage ? Dans ce cas notre thèse confinerait à la trivialité, et il se pourrait que nous n'affirmions rien du tout.

3. Est-ce une thèse substantielle ?

Le problème est qu'il est trop facile de trouver a posteriori des règles pour rendre compte de n'importe quelle séquence de phénomènes. C'est certainement le cas si le monde est fini. Certes, si les phénomènes sont en nombre infini, il se peut qu'aucun ensemble fini de règles ne puisse décrire leur répartition (ou aucune axiomatisation finie, même usant de schémas d'axiomes). La thèse suivant laquelle le monde est une simulation reviendrait alors à postuler que la distribution des phénomènes peut être décrite par un ensemble fini de règles (et peut-être l'idée, à préciser, que ces règles produisent les phénomènes). Cependant nous n'accédons jamais qu'à un ensemble fini de phénomènes, et un ensemble fini de phénomènes peut toujours être décrit par un ensemble fini de règles, aussi nous ne pourrions jamais, en principe, défaire cette thèse, si bien qu'elle ne peut être que métaphysique.

Ici on pourrait proposer un argument inductif pour défendre l'idée malgré tout : il faut toujours beaucoup moins de lois pour décrire la distribution des phénomènes qu'il n'en faut pour mentionner chacun de ces phénomènes. Ou encore, il est toujours possible de rendre compte des phénomènes par des algorithmes plus simples que celui qui se contenterait de produire une séquence prédéfinie de résultats. Par induction, il serait possible de décrire l'infinité des phénomènes par un nombre fini de règles.

Il semble bien, après tout, que le monde soit régulier... Attention cependant : ces lois ou algorithmes dont je parle ne sont pas les lois de la physique (qui, pour ce qui est de la physique contemporaine, sont non déterministes, ne prennent pas la forme d'algorithmes, et ne possèdent généralement pas de solutions analytiques) mais d'hypothétiques lois d'observation, ou encore des prédictions de modèles numériques déterministes éventuellement basés sur les lois de la physique. Seulement les modèles qu'on peut produire sur la base des lois de la physique sont en nombre infini. Surtout, ils ne sont presque jamais déterministes, si bien que la base d'induction est caduque : nous pouvons certes dégager des lois statistiques pour rendre compte de nos observations, mais rien n'indique qu'il est toujours possible de décrire les phénomènes naturels particuliers (et non seulement leur distribution statistique) comme étant produits par un algorithme plus succinct que ces derniers, puisque ce n'est pas quelque chose que nous faisons habituellement.

Enfin les modèles d'une théorie, au sens de structures mathématiques respectant les lois de la théorie, peuvent avoir une taille infinie (d'autant plus s'ils intègrent les conditions initiales de la simulation, la "configuration du monde"...). Même si nous produisions régulièrement de tels algorithmes (ce qui n'est pas le cas), et même si leur taille augmentait moins vite que le nombre des phénomènes dont ils parviennent à rendre compte, rien en l'état de nos connaissances n'indique que cette taille convergerait pour autant vers une taille finie pour l'infinité des phénomènes apparemment aléatoire de l'univers. Même s'il était possible de rendre compte des phénomènes par un ensemble de règles algorithmiques de manière plus "compacte" qu'en listant simplement leur séquence, il est possible que cet ensemble de règles devienne infini pour l'univers dans son ensemble, si bien que l'induction échoue.

L'idée que le monde est une simulation au sens faible d'un algorithme "non normé", dont il n'y a aucun sens à dire qu'il bugue, est donc déjà métaphysique, en plus d'être relativement moins intéressante qu'il n'y paraît.

Conclusion

Il y a donc plusieurs choses à avaler si l'on compte prétendre que le monde est une simulation numérique : d'abord que toute expérience pourrait être catégorisée par un langage naturel, et qu'un tel langage existe. Puis que les phénomènes ainsi catégorisés sont discrets et peuvent être décrits comme suivant des lois algorithmiques déterministes. Ensuite, si l'on veut se démarquer d'une thèse métaphysique somme toute peu intéressante, il faudrait admettre que ces lois sont des normes. Et il faut, pour couronner le tout, soit avoir recours à un Dieu (ou quelque entité) infaillible qui veille au respect des normes, soit être prêt à accepter que ces normes ne soient en fait pas respectées dans notre bas monde... Or le gain explicatif est quasiment nul : l'idée que tous les phénomènes pourraient être transcrits de manière discrète dans un langage n'est qu'une explication ad-hoc au fait que nous parvenons à produire ce type de transcriptions ; qu'ils suivent des lois algorithmiques n'explique rien quand ces lois ne sont jamais utilisées en pratique pour rendre compte des phénomènes ; enfin que ces lois soient normatives n'est qu'un surplus inutile aux relents théologiques.

Je suis intimement convaincu, pour ces raisons, que la réalité n'est pas une simulation numérique. Mais bien sûr, tout ce que j'ai montré, c'est qu'il s'agit d'une idée métaphysique.

mercredi 2 mai 2018

Idée reçue : les théories scientifiques font des prédictions

Angular Parameters of Elliptical Orbit

Une des conceptions les plus répandues à propos des sciences est l'idée que les théories scientifiques font des prédictions, et incidemment, qu'elles sont justifiées/corroborées par leur succès prédictifs (ou encore qu'elles sont "vraies jusqu'à preuve du contraire"). Or à strictement parler cette idée est fausse : ce ne sont pas les théories qui font des prédictions, mais leurs modèles.

Par modèle j'entends une certaine configuration permise par la théorie qui est capable de représenter une situation particulière du monde, quand une théorie ne représente aucune situation en particulier mais exprime des généralités sur les rapports entre des propriétés hypothétiques du monde. Par exemple : la théorie de la relativité, qui exprime des rapports entre masse/énergie et géométrie de l'espace-temps, vs. un modèle de l'univers dans cette théorie. Il existe une infinité de modèles compatibles avec une même théorie, et il faut voir une théorie scientifique comme un cadre qui permet de construire des modèles adaptés à différents types de situations. Mais ce sont toujours les modèles qui sont prédictifs, non la théorie.

On pourrait dire que je joue sur les mots s'il existait une manière systématique de savoir quel modèle d'une théorie s'applique à quelle situation du monde (ou même si la théorie nous renseignait sur la probabilité qu'un modèle s'applique à une situation donnée) : alors la théorie ferait des prédictions du type : pour tel type de situation du monde, on obtient tel résultat (avec telle probabilité). Le problème est qu'en pratique, on ne dispose d'aucun moyen systématique de savoir quel modèle de la théorie appliquer à une situation donnée. Il existe des paramètres théoriques dont la valeur n'est pas directement mesurable, et qui peuvent être ajustés pour coller aux observations, ou encore des hypothèses spécifiques à une situation donnée qui ne sont pas non plus issues de nos observations (la distribution de matière noire dans l'univers...), etc. Et la théorie elle-même ne nous fournit pas de mesure de probabilité sur ses différents modèles, elle fournit seulement des contraintes sur les modèles qui sont acceptables ou non. Ce sur quoi un succès prédictif nous renseigne, ce n'est donc pas sur le fait que la théorie soit bonne, mais sur le fait qu'un certain modèle de la théorie plutôt qu'un autre s'applique à un type donné de situation expérimentale.

Pour cette raison les théories ne sont pas "vraies jusqu'à preuve du contraire", puisque la réaction logique quand on fait face à une "preuve du contraire" n'est pas d'abandonner la théorie, mais de changer de modèle (modifier la valeur de paramètres ou modifier certaines hypothèses sur le système qu'on veut représenter) jusqu'à trouver le modèle qui fera de bonnes prédictions. Et en conséquence, une théorie scientifique n'est jamais directement corroborée par une induction sur les données des expériences (seul un modèle peut l'être). Elle est plutôt corroborée par ce qui s'apparente à une "méta-induction" : une induction sur les modèles, ou sur les types d'expériences.

Je m'explique. Ce qui fait qu'on accepte aujourd'hui la relativité n'est pas qu'elle fasse de meilleures prédictions pour les expériences dont la mécanique classique rendait déjà compte (d'ailleurs on continue généralement d'utiliser la mécanique classique dans ces cas), mais surtout qu'elle en ait fait de nouvelles qui étaient inattendues du point de vue de la mécanique classique : par exemple, que la lumière devrait être déviée par les corps massifs, et donc que les étoiles devraient apparaître légèrement déplacées par rapport à leur position habituelle quand on les observe proche du soleil. Bien sûr, on pourrait rendre compte de ce phénomène en mécanique classique de manière ad-hoc, par exemple en postulant qu'il existe près des corps massifs de la matière noire avec un certain indice de réfraction, mais le point important est que ce n'est pas quelque chose qu'on aurait pu prédire par une induction sur les données des expériences passées, qui ne portaient jamais sur les rapports entre la lumière et les corps massifs. La théorie de la relativité n'est pas issue d'une induction sur nos observations, mais de considérations purement théoriques : en particulier, la volonté d'unifier l'électromagnétisme et la mécanique dans un même cadre. Cette théorie produit de nouveaux modèles, correspondant à de nouvelles situations expérimentales qui n'avaient pas été testées jusqu'alors, et ces nouveaux modèles prédisent des phénomènes dont on ne pourrait rendre compte que de manière ad-hoc dans le cadre de la mécanique classique. Or ces phénomènes sont en effet observés.

On peut voir dans ce type de succès expérimental la première étape d'une méta-induction sur les modèles. Ce que corrobore cette méta-induction, c'est que la théorie est un bon cadre pour produire des modèles qui seront en général prédictifs de manière relativement économe pour un large type de situations, même quand on les appliquera à de tous nouveaux types de situations, non expérimentés jusqu'alors. C'est-à-dire qu'une bonne théorie n'est pas une théorie qui rend correctement compte des phénomènes déjà observés, mais plutôt une théorie qu'on pense pouvoir étendre avec succès, sans trop d'efforts, à de nouvelles configurations. Ou encore, c'est une façon fructueuse de penser le monde, un guide fiable pour l'explorer.

Cet aspect me semble essentiel notamment pour rendre compte du principal succès des sciences, et à mon sens, de la principale raison pour laquelle on leur porte du crédit : le fait qu'elles nous permettent de développer de nouvelles technologies. Car quand on développe une technologie, on ne cherche pas à expliquer un phénomène existant, mais à en imaginer et en produire de nouveaux qui nous intéressent. Et l'on ne peut faire confiance à une théorie pour ça que si elle a démontré sa capacité à s'étendre efficacement à de nouveaux types de phénomènes, c'est-à-dire si l'on ne se contente pas de la corroborer par une induction sur les données expérimentales, mais plutôt par une méta-induction sur les différents types d'expériences réalisables.