Profitez-en, après celui là c'est fini

L’Intelligence Artificielle fête ses 40 070 ans

décembre 15th, 2025 Posted in IA

En juin 1956 démaraient les conférences de Dartmouth, une série d’interventions de chercheurs regroupés autour du terme Intelligence Artificielle.

Le mot avait été forgé et révélé quelques mois plus tôt, le 31 août 1955 précisément, par Marvin Minksky, John McCarthy, Nathaniel Rochester et Claude Shannon dans l’appel à participations qu’ils avaient lancé à la communauté scientifique1. Il est fréquent, en France, d’affirmer que ce moment est constitutif d’un malentendu autour de la locution artificial intelligence en pointant le fait que le mot « intelligence » ne signifie pas la même chose en français et en anglais, que nous, francophones, lui associons de nombreux concepts humains (esprit, compréhension, conscience,…) tandis que dans le champ anglophone, « intelligence » serait un synonyme d’« information », de « traitement des données » ou de « renseignement ». Le dictionnaire n’est pas tout à fait d’accord avec cette vision des choses, puisque toutes les acceptions du mot « intelligence » (philosophiques, psychologiques, juridiques…) existent en Français et en Anglais. Mais surtout, le mot « intelligence » a été choisi par McCarthy et Minksy précisément car son caractère vague et ambigu permettait des explorations tous-azimuts2, et peut-être même (on en a des indices dans la biographie de Marvin Minksy notamment3) pour l’imaginaire science-fictionnesque qu’il embarque, sans doute plus « sexy » pour obtenir un financement de la Rockfeller Foundation que de parler d’ateliers consacrés à l’automatisation de nouvelles tâches à l’aide d’ordinateurs, ou d’employer un mot moins dramatique mais aussi moins immédiatement parlant tel que « inférence ».
L’Intelligence artificielle, en tant que discipline autonome, est donc née en 1955-1956 et fête ses soixante-dix ans. Mais cette date ne célèbre que l’invention du mot, car l’Histoire de l’Intelligence artificielle est un peu plus longue que ça.

On peut commencer par noter que la plupart des participants aux ateliers d’été de Dartmouth travaillaient déjà sur les sujets traités, et que la nouveauté est d’avoir fédéré toutes ces recherches en tant qu’un même objet d’étude. Au cours des décennies précédentes, Norbert Wiener (la Cybernétique), Stanislaw Ulam (automates cellulaires), John Von Neumann (machine autoréplicative) ou bien entendu Alan Turing (jeu de l’imitation), avaient amené des réflexions allant dans la même direction. On peut aussi se rappeler que dès la fin de le seconde guerre mondiale, l’Ordinateur, dont le grand public découvrait tout juste l’existence, a été comparé au cerveau (humain, forcément), puisque l’on parlait de Electronic brain ou de Mechanical brain.

Il faut dire que la science-fiction avait déjà largement préparé le public à l’idée de machines capables de penser, voire de disposer d’une forme d’autonomie, d’intentions, de conscience. En se limitant aux récits qui n’engagent aucun procédé magique ou divin (j’exclus donc autant l’Eve Future de Villiers de l’Isle-Adam, le mythe du Golem que les statues animées d’Héphaïstos), on peut faire remonter l’idée d’Intelligence artificielle à la nouvelle L’Homme le plus doué du monde, publiée par Edward Page Mitchell en 18794. On peut citer ensuite Le Miroir flexible de Régis Messac (1933) ; Swords of Mars, par Edgar Rice Burroughs (1934) ; Twilight, par John Campbell (1934 aussi) ; Le monde des non-A d’A.E. Van Vogt (1945) ; A Logic named Joe, par Murray Leinstein (1946) ; Les ordinateurs de divers récits d’Isaac Asimov, Arthur C. Clarke, Stanislaw Lem, Frederic Brown… Et tout ce qui en découle depuis, soit des milliers de nouvelles, de romans, de films, de séries5.

On peut identifier de nombreux jalons dans l’Histoire de la compréhension et de la modélisation des fonctions de l’esprit humain : Aristote6, Ramon Llull, René Descartes, Baruch Spinoza, John Locke, Gottfried Leibniz, Julien Offray de la Mettrie, David Hume, Charles Babbage et Ada Lovelace, George Boole, Charles Darwin, Samuel Butler (et tant d’autres personnes qui ont réfléchi aux conséquences anthropologiques de la mécanisation au cours du XIXe siècle), Georg Cantor, Andreï Markov, David Hilbert, Ludwig Wittgenstein, Alfred Korzybsky, Alonzo Church, la neurologie, la psychologie, l’éthologie, les sciences cognitives,…

Le papyrus Edwin Smith, vieux de 3500 ans, est un traité de médecine qui ressemble fort aux « Systèmes experts » issus de la recherche en Intelligence Artificielle des années 1960. En effet, il fait une liste de symptômes accompagnés de conditions (if…then) : Si tu procèdes à l’examen d’un homme atteint d’une fêlure d’une vertèbre du dos, tu lui diras : « Étends tes jambes puis replie-les ! ». Il les étendra mais les repliera de manière subite à cause de la douleur qu’il causera dans la vertèbre du dos qui est atteinte. Tu diras à ce sujet : c’est un mal que je peux traiter. Tu devras l’installer étendu sur le dos, puis (etc.)

J’irais encore plus loin dans le temps en remarquant que l’externalisation artificielle (mais non automatisée, bien sûr) de fonctions de l’esprit humain (numération ; calcul ; mémoire ; perception ; raisonnement) est un domaine que l’on peut faire démarer au Néolithique (notation mathématique ; écriture) voire même au Paléolithique, avec l’invention du dessin — une technique qui permet de fixer la perception optique, la compréhension des objets perçus, et qui a sans doute aussi servi de support à des récits. En 2018, sur l’île de Bornéo, on a découvert d’extraordinaires peintures rupestres qui ont au moins 40 000 ans. Je crois que ce record a été dépassé depuis, mais conservons le nombre : l’Intelligence artificielle a soixante-dix ans, mais elle a aussi quarante mille ans, au moins. Disons quarante mille soixante-dix ans.

Les différentes technologies que l’on nomme Intelligence Artificielle depuis soixante-dix ans ne sont donc qu’une fraction d’une très longue et passionnante aventure intellectuelle, et les Intelligences artificielles génératives telles que le public les connaît depuis la sortie de ChatGPT (novembre 2022) ne sont qu’une fraction de cette fraction. Leurs progrès n’en sont pas moins stupéfiants, et ce n’est pas par erreur que l’Intelligence Artificielle est devenue un sujet si prégnant aujourd’hui.
Elles nous augmentent (comme une pelleteuse augmente la capacité de travail du cantonier), elles nous aident à nous comprendre nous-mêmes dans une certaine mesure, mais elles semblent parties pour nous remplacer, enfin pour prendre en charge des tâches dont on aurait cru qu’elles réclamaient des qualités spécifiquement humaines (ou des tâches de gens éduqués, surtout, les métiers en col blanc, les métiers de bourgeois…), jusqu’à la création artistique. Je me rappelle un bon mot dont j’ai oublié la source, qui disait en substance : « on m’avait promis que des robots travailleraient à ma place pour que j’aie du temps pour créer, et à la place je perds mon boulot pour que des robots fassent de l’art ».
Pas besoin de dire que l’Intelligence Artificielle générative pose des problèmes sociaux, écologiques, politiques, économiques, car on ne parle que de ça et il en naît des positions antagonistes de plus en plus tranchées et, me semble-t-il, peu productives. Les personnes qui dramatisent les effets à venir de l’Intelligence Artificielle n’ont pas forcément tort mais doivent êtres conscientes qu’elles participent, paradoxalement, au succès des IAs génératives. J’en veux pour preuve que les promoteurs de l’Intelligence Artificielle en parlent eux aussi comme d’un champ dangereux et même potentiellement fatal pour l’Humanité : Elon Musk et Bill Gates, par exemple, ont plusieurs fois lancé des alertes ou réclamé un moratoire pour cette technologie dans laquelle… ils engloutissent joyeusement des milliards. L’alerte existentielle pour l’espèce humaine fait partie de la communication des sociétés qui investissent dans l’Intelligence Artificielle et qui veulent nous convaincre que, faut d’épouser ces technologies, les individus comme les nations resteront sur le carreau.

Il me semble en tout cas que nous vivons un moment passionnant, autant du point de vue technologique que du point de vue du discours qui entoure la technologie (la technologielogie ?), un moment passionant pour tester, éprouver, comprendre, observer,…

  1. A proposal for the dartmouth summer research project on artificial intelligence, par J. McCarthy (Dartmouth College) ; M. L. Minsky (Harvard) ;
    N. Rochester (IBM) ; C.E. Shannon, (Bell). Claude Shannon, un peu plus âgé que les trois précédents, était le chercheur le plus célèbre du groupe, sa théorie mathématique de l’information en fait un des chercheurs majeurs de l’Histoire de l’Informatique. []
  2. (Parmi les premiers champs exploréson note la compréhension du langage naturel ; la mise au point de systèmes capables de s’auto-amélioration ; l’abstraction ; la créativité ; … []
  3. Marvin Minsky était amateur de science-fiction, ami de plusieurs auteurs, consultant sur le plateau de 2001 l’Odyssée de l’Espace, co-auteur avec Harry Harrison d’un roman qui voit émerger la conscience chez un robot et plus généralement, l’auteur de prophéties enthousiastes qui annonçait avec fracas dans la presse grand public l’imminence d’intelligences artificielles aptes à percevoir, comprendre, faire…
    Le projet des conférences de Dartmouth et de la recherche en IA n’était pas la mise au point d’une « Intelligence Artificielle Générale », et était encore moins l’invention d’un ordinateur conscient. Cependant, cet imaginaire a été farouchement combattu par une partie des chercheurs (Joseph Weizenbaum, Hubert Dreyfus, Terry Winograd, John Searle), et il animait sans doute autant Marvin Minsky en son temps que Sam Altman aujourd’hui. []
  4. Coïncidence, 1879 est aussi la date retenue pour la naissance de la Psychologie expérimentale, avec le laboratoire de Wilhelm Wund à l’Université de Leipzig. []
  5. L’idée des générateurs de texte à la manière des LLMs est encore plus ancienne, on se rappellera notamment de la machine des universitaires de Lagado, chez Swift, qui produisent des thèses en actionnant des manivelles. Boris Vian avait anticipé les LLMs de manière assez humoristique dans sa nouvelle Le danger des classiques (1951), qui est une description assez étonnante d’un Large Model Language, et de son fine-tuning qui tourne mal : accidentellement nourri avec un recueil de poèmes de Paul Geraldy, le robot devient un dragueur lourd. Son article Un robot poète ne nous fait pas peur (1953), qui répond à un ami que l’idée d’un ordiateur écrivain inquiète, ne manque pas de sel non plus. La même année, Roald Dahl s’était posé la question des mutations de l’industrie littéraire face à un générateur de textes (La Grande Grammatisatrice automatique, 1953). Il y a bien d’autres exemples. []
  6. Même si c’était plutôt pour parler des esclaves — et justifier leur condition —, Aristote proposé une hypothèse qui nous renvoie aux débats posés par la Révolution industrielle et qui reviennent avec force depuis trois ans : Si chaque instrument, en effet, pouvait, sur un ordre reçu, ou même deviné, travailler de lui-même, comme les statues de Dédale, ou les trépieds de Vulcain, « qui se rendaient seuls, dit le poète, aux réunions des dieux » ; si les navettes tissaient toutes seules ; si l’archet jouait tout seul de la cithare, les entrepreneurs se passeraient d’ouvriers, et les maîtres, d’esclaves (Aristote, Politique, Livre I). []

Postez un commentaire


Veuillez noter que l'auteur de ce blog s'autorise à modifier vos commentaires afin d'améliorer leur mise en forme (liens, orthographe) si cela est nécessaire.
En ajoutant un commentaire à cette page, vous acceptez implicitement que celui-ci soit diffusé non seulement ici-même mais aussi sous une autre forme, électronique ou imprimée par exemple.