Le faux problème de l'intelligence artificielle

Animation2

Y aura-t-il un jour une intelligence artificielle en tout point supérieure à l'homme ? Est-ce que ça arrivera prochainement ?

Personnellement je donnerais mon assentiment aux deux réponses suivantes :

  • oui bien sûr, et c'est déjà le cas depuis des décennies !
  • c'est très peu probable ; à ce jour il n'existe aucune intelligence artificielle, il faudrait déjà commencer par en créer une !

Je pense que ce sont les deux seules manières *intelligibles* de répondre à cette question mal posée, une fois la confusion sur le terme "intelligence" dissolue.

De l'usage des métaphores

Car ce terme inadéquat est à la source de beaucoup de confusions. Quand on parle d'intelligence à propos d'algorithmes, c'est toujours une métaphore, comme quand on dit "le distributeur de billets est intelligent, il a deviné ma langue à partir de ma carte bancaire et l'utilise pour l'interface" (en fait c'est le concepteur du programme qui est intelligent ici). Prendre la métaphore trop au sérieux, c'est procéder à un abus de langage qui ouvre la voie à une série de fausses questions mystico-métaphysiques qu'on ferait mieux de laisser aux auteurs de science fiction.

En fait on devrait cesser d'employer le terme "intelligence artificielle", et parler plutôt d'algorithmes adaptatifs, ou quelque chose du genre pour dégonfler la bulle métaphysique qui entoure le secteur de l'IA. Ceci nous permettrait de ne pas oublier que les algorithmes, les programmes, sont avant tout des outils : ils sont fabriqués dans un certain but par des concepteurs, puis utilisés dans ces buts (ou d'autres) par des utilisateurs, et bien-sûr ces algorithmes peuvent être faits intelligemment, ils peuvent aussi (en un certain sens) nous rendre plus intelligents, c'est à dire augmenter l'étendue de nos capacités dès lors que nous savons les utiliser. Mais ils ne sont pas intelligents, ou seulement en un sens métaphorique, simplement parce que ce ne sont pas des personnes dotées d'intentions, mais des outils que les personnes utilisent.

Si l'on accepte ce cadre pour la discussion, que peut bien signifier l'idée d'une intelligence artificielle supérieure à l'homme ?

Cela peut signifier, si l'on accepte d'utiliser la métaphore, que certains programmes permettent de réaliser des choses qui seraient hors de portée d'un homme sans outils, ou permettent de faire face à plus de situations variées, et alors la réponse à la question est triviale : évidemment oui, c'est le cas depuis des décennies au moins.

Ou cela peut signifier, si l'on choisit d'interpréter sérieusement le terme d'intelligence, que l'on parvienne à créer artificiellement d'authentiques personnes, des êtres véritablement vivants, autonomes, capables de choisir leurs propres fins dans la société et de réaliser ces fins, et alors la réponse est : il faudrait déjà avoir créé une seule de ces personnes artificielles pour penser qu'il y en aura bientôt une qui dépassera l'homme dans ses capacités. Ce n'est pas le cas aujourd'hui, et on en est bien loin (au passage, il n'y a aucune raison de penser que ce type de projet relève uniquement de l'IA : pourquoi est-ce que la biologie, les neurosciences ou la sociologie ne seraient pas pertinentes pour savoir ce qu'est une personne ou un être vivant, et donc savoir comment en créer une artificiellement ?).

Et la société ?

Il me semble que les fan-boys et fan-girls de l'IA souffrent de myopie, pensant l'intelligence sur un plan exclusivement individuel, exclusivement computationnel, et occultant complètement les autres aspects, notamment sociaux (on leur a souvent reproché, à raison). Il faut avoir une vision extrêmement étriquée de ce qu'est la vie pour croire que les algorithmes de l'IA, aussi impressionnant soient-ils, s'apparentent plus à des personnes humaines qu'à des outils. N'oublions pas que l'intelligence est sociale, et ce doublement :

  • c'est à la société que nous devons d'être intelligent, car c'est elle qui nous éduque et qui détermine les buts qu'on peut se fixer ;
  • même éduqué, nous ne sommes jamais intelligent seul, mais seulement par notre capacité à utiliser les outils que la société nous fournit de par son organisation, et qu'aucun d'entre nous ne saurait fabriquer seul.

Autrement dit, on ne peut être intelligent qu'en s'appuyant sur des millénaires de développements passés, non seulement pour acquérir une intelligence, mais aussi pour en faire usage.

Si l'on prend acte de ceci, on peut en conclure, d'une part, que notre propre intelligence (au sens particulier de capacités cognitives, de ce qu'il est possible de réaliser) augmentera d'autant plus que nous disposerons d'outils puissant. C'est-à-dire que les développements de l'IA participent paradoxalement à relever la barre de ce qu'il faudrait pour être plus intelligent qu'un humain. Pensez-y : des ingénieurs ont réussit il y a peu à battre les meilleurs joueur de Go à l'aide d'un outil dont l'utilisation serait en principe accessible à presque tout le monde ! Nous sommes tous potentiellement d'excellents joueurs de Go : la barre est bien plus haute aujourd'hui qu'elle ne l'était il y a quelques années... (S'il y a un véritablement danger à l'avenir, finalement, c'est que ces outils ne soient pas égalitairement répartis et qu'émerge non pas une intelligence artificielle, mais un groupe d'humains monopolisant l'usage d'outils puissants pour assujettir les autres : voilà un problème bien plus pressant qui devrait nous préoccuper.)

D'autre part, du fait que la notion d'intelligence est intrinsèquement sociale, on peut envisager que même si nous étions capable de créer une authentique personne artificielle (je ne pense pas que ce soit à la portée des technologies actuelles, mais imaginons), celle-ci ne pourrait être intelligente qu'en prenant part à notre société et en en étant dépendante (comme nous le sommes) à la fois pour son éducation et pour ses moyens (ce qui demanderait au préalable qu'on accepte de l'intégrer). Il me semble que cela change assez radicalement la donne en termes de scénario catastrophe, et (bien que j'admets que ce soit discutable) il me semble que même dans ce cas, il serait légitime d'affirmer que c'est la société humaine qui est devenue plus intelligente, et non les machines qui ont dépassé les hommes.

Je ne veux pas, en disant ça, nier les progrès de ce qu'on appelle l'intelligence artificielle, ni les enjeux philosophiques qu'il peut y avoir à ces progrès, mais seulement rappeler que ces enjeux se situent et se situeront toujours dans la continuité des enjeux qu'ont toujours posé les technologies. N'importe quelle technologie peut nous dépasser si l'on est incapable d'en prévoir les conséquences, ou apporter des nouveautés dans l'ordre social qu'on n'imaginait pas, et tout ceci peut exiger des réflexions d'ordre éthique ou autre. Mais il n'y a rien de fondamentalement nouveau ici : les ordinateurs permettent déjà de faire des choses hors de portée d'un humain sans ordinateur, ils ont complètement modifié la façon dont nous interagissons en société, et c'est le cas de bien d'autres technologies. Mais à ce jour, si une voiture autonome provoque un accident, c'est toujours à son constructeur qu'en incombera la responsabilité, pas à la voiture, simplement parce que la voiture est un outil et non une personne.

L'éléphant dans la pièce

Pour finir, il faut bien le dire : il y a comme un "éléphant dans la pièce", comme disent les anglo-saxons, dans tous ces débats : la philosophie de l'esprit. Car tous ces débats sur l'intelligence artificielle relèvent je pense d'une mystique qui a sa source dans l'idée que nous-même ne serions, finalement, que de puissants algorithmes adaptatifs, si bien que ces algorithmes que nous implémentons nous sont analogues. Je veux bien discuter de philosophie de l'esprit, mais à ce jour les sciences cognitives ne vont pas nécessairement dans cette direction. Là aussi il y a une myopie de la part des tenants de l'IA forte : ils considèrent implicitement comme réglés des problèmes comme celui de la conscience qui relèvent de la biologie ou d'autres disciplines, alors que nous commençons à peine à les aborder. Peut-être que nous ne sommes finalement que des algorithmes adaptatifs implémentés dans de la chair vivante, mais ce n'est pas aux chercheurs en informatique d'en décider, et j'aimerais que l'on cesse de nous imposer des vues métaphysiques plus ou moins fumeuses, seulement soutenues par des abus de langage, quand il est question de choses d'un ordre bien plus pragmatique, à savoir, comment gérer l'utilisation sociale des puissants outils qui sont aujourd'hui à notre disposition.

Commentaires

Posts les plus consultés de ce blog

Commentaire sur "où doit s'arrêter la recherche scientifique"

La philosophie inutile ? Dépassée par les sciences ? Sur les malentendus du positivisme naïf.