Comment créer des intelligences artificielles plus performantes? En imitant la structure même du cerveau, répond aujourd’hui Samsung, qui a récemment annoncé le lancement d’un projet d’informatique dite «neuromorphique» : la création d’un réseau de nano-électrodes qui copierait exactement la carte des connexions neuronales du cerveau d’un mammifère – pas (encore) celui de l’être humain, pour le moment, car son encéphale est trop complexe.
Grâce à ce copier-coller, l’équipe coréenne espère obtenir des performances «d’autonomie et de cognition» sans commune mesure avec ce dont les scientifiques et ingénieurs sont capables, pour l’heure. L’approche interroge, inévitablement : la structure d’un système, avec ses interconnexions, suffit-elle à déterminer ses performances cognitives ? Cela revient-il à réduire la pensée aux interactions neuronales dans le cerveau ? C’est ce que soutient, depuis les années 1980, le mouvement du «connexionnisme», en opposition au «computationnalisme» qui avait la préférence des chercheurs auparavant. Voici ce que ce charabia veut dire.
Le computationnalisme se développe à partir des années 1960, dans le sillage des travaux des philosophes Hilary Putnam (l’inventeur du terme) et Jerry Fodor. L’informatique se développe et éclaire d’un nouveau jour une question philosophique ancienne : comment fonctionne la pensée ? Dans The Langage of Thought (1975), Fodor dissocie le fonctionnement de l’esprit et celui du cerveau. Il réduit la pensée à une forme de calcul : computation, en anglais, qui donnera computer (ordinateur). Plus précisément, la pensée est selon lui un système de traitement de l’information caractérisé par sa capacité à résoudre un certain nombre de problèmes par l’application de règles. Prenons l’image d’une calculatrice : l’opération de calcul n’est pas lié à l’objet. Ou bien encore celle d’un ordinateur: la structure du hardware (l’ordinateur-cerveau) ne détermine pas le type d’opérations qu’il effectue (logiciel-pensée). Ce qui importe, c’est la capacité fonctionnelle à traiter de l’information.
À partir des années 1980, le connexionnisme conteste la pertinence du computationnalisme. Ce dernier, s’il parvient «à rendre compte de tâches comme jouer aux échecs, calculer» (les intelligences artificielles, dans ce domaine, battent l’humain haut la main), il éprouve «en revanche beaucoup plus de difficultés pour des tâches basiques comme notre capacité à reconnaître un visage», souligne le philosophe Pierre Steiner. Pour le connexionisme, la cognition ne peut se réduire à une série de fonctions et d’opérations comme le calcul. Elle est indissociable de la structure matérielle, physiologique, qui la porte : le réseau neuronal, à commencer par le plus puissant de tous, celui de l’homme. Cette approche, esquissée dès 1943 par Warren McCulloch et Walter Pitts, a notamment été développée par David Everett Rumelhart et James McClelland dans Parallel Distributed Processing (1986).
C’est dans cette seconde approche que s’engouffre l’idée de neurones artificiels: pour créer de la pensée, et peut-être même de l’intelligence (une forme d’invention et de réflexivité supplémentaire), il faudrait mimer, artificiellement, le fonctionnement du cerveau. Les recherches en la matière se sont contentées, jusque-là, de s’inspirer de l’idée de réseau neuronal, sans chercher à imiter précisément ce qui se passe dans la nature. Samsung, motivé par les avancées de l’imagerie et de la cartographie cérébrales, veut aujourd’hui aller plus loin : l’entreprise veut répliquer exactement la structure réelle d’un encéphale. En l’occurence, celui d’un mammifère beaucoup plus simple que l’homme et ses 85 milliards de neurones. En cas de réussite, nous aurions peut-être la preuve que la pensée se réduit à une dimension matérielle. Et que l’intelligence singulière de l’être humain n’est pas, par conséquent, si différente de celle des autres mammifères : tout serait une question de quantité et de distribution des neurones dans l’espace… À quand des cerveaux humains produits en laboratoire et flottant dans une cuve ?
OL