Profitez-en, après celui là c'est fini

Nicolas Nova (1977-2024)

janvier 10th, 2025 Posted in Design, Parti, Personnel | 3 Comments »

Tard, dimanche, j’ai vu apparaître sur le fil Instagram d’Emanuele Quinz une photographie de Nicolas Nova, accompagnée d’un mystérieux message d’au revoir et suivi de commentaires du même type. Le genre de choses qu’on écrit quand quelqu’un est mort, mais quoi, Nicolas n’a vraiment pas l’âge de mourir, il a dix ans de moins que moi, il semble en pleine santé et il vient de sortir un livre.
Mon incrédulité a vite été anéantie par la découverte d’autres publications sur les réseaux sociaux, par Olivier Ertzscheid, Étienne Mineur, Alex Nikolavitch, Nicolas Tilly, Stéphane Vial, Nicolas Maigret…
Donc, oui, Nicolas Nova est bien mort, le trente-et-un décembre deux-mille vingt-quatre, ainsi qu’on allait l’apprendre plus tard, d’une crise cardiaque alors qu’il effectuait une randonnée sportive (trekking) dans le sultanat d’Oman. Il avait quarante-sept ans. Stupéfiant et absurde.

Pour comprendre la singularité de l’œuvre (conséquente) de Nicolas Nova, et mesurer le vide qu’il laisse, il faut lire l’article de son ami Frédéric Kaplan pour le quotidien suisse Le Temps. Je retiens une formule parmi celles employées pour le décrire : (…) enquêteur qui repère et résout les énigmes de l’infra-ordinaire.

Pour répondre au post que Laurent Haug a consacré à la mort de Nicolas Nova, Linkedin propose à ses utilisateurs des réponses toutes faites telles que « Congrats! », « Great news » ou « Fantastic update ».
Je trouve souvent un peu ridicule le réflexe qui fait prêter des sentiments aux disparus, mais je vais m’y fourvoyer : je pense que cet enthousiasme forcé proposé par l’algorithme pour saluer un si triste décès l’eût fait sourire ou lui aurait inspiré une réflexion à sa façon.

Je me souviens parfaitement du jour où j’ai rencontré Nicolas Nova. Sa signature, repérée dans la revue Amusement, pour laquelle j’écrivais aussi au même moment, m’avait déjà interpellé, peut-être moins pour l’article lui-même (sans aucun doute très bon) que pour ce patronyme incroyable (y’a que moi ?) : Nova.
C’est quelques mois plus tard que j’ai pu écouter Nicolas dans le cadre des troisièmes Entretiens du nouveau monde industriel, au Cnam. Je me souviens qu’il avait à un moment mentionné un sujet qui me tenait précisément à cœur, celui de l’absurde prolifération des écrans inutiles (qui se bornent à afficher qu’ils sont hors-service, notamment) dans l’espace public. À la fin de la séance, Jean-Louis Fréchin nous a présentés l’un à l’autre. Je pense qu’il ne me situait pas vraiment à ce moment-là, mais on a commencé à échanger ensuite.

Je n’ai recroisé Nicolas en chair et en os que cinq ans plus tard, au biohacklab La Paillasse, où il était invité par Sylvia Fredriksson pour parler de son excellent livre Futurs ?, ouvrage qui aurait pu rencontrer un énorme succès, je crois, si son tirage avait été un peu mieux dimensionné, car il a été rapidement épuisé mais, à ma connaissance, pas réimprimé. Là encore, c’est un livre dont le sujet (le futur désirable, la panne des imaginaires) m’a toujours touché1. En fait, à part la montagne et les Alpes, dont je ne sais pas grand chose, et qui tiennent une place importante dans l’œuvre de Nicolas, je crois que tous ses sujets ont été des sujets qui me touchent aussi.

Depuis quelques jours, je fais l’archéologie de nos échanges virtuels (éclatés entre e-mail et réseaux sociaux) et je me rends compte que Nicolas m’a envoyé plusieurs de ses tapuscrits (dont celui de Futurs ?, justement), pour que je lui fasse un retour. Et je constate qu’à chaque fois je lui ai répondu un peu bêtement que je trouvais son propos passionnant et que je n’avais au fond ni objection ni suggestion utile à faire. Une chose qui m’a souvent marqué à la lecture des textes de Nicolas, c’est que dès que je me disais « tiens, il a oublié de parler de… », la page suivante me donnait tort : il n’avait rien oublié du tout. Mes remarques n’ont pas été bien utiles, mais comme Nicolas était un garçon poli, il m’a inclus aux remerciements de Futurs ?, aux côtés de Bruce Sterling, d’Alexandra Midal et Warren Ellis, excusez du peu !
De mon côté je lui ai envoyé plusieurs de mes livres, mais je ne sais pas vraiment ce qu’il en a pensé, je ne trouve pas de commentaires ou de retours particuliers en dehors des remerciements d’usage.

La dernière fois que j’ai vu Nicolas, c’était pendant le colloque sur le design viral qu’avait organisé Caroline Bernard à Genève, en 2019. Il y parlait des mèmes2.
2009, 2014, 2019… Je n’aurai donc vu Nicolas que trois fois en tout3, une fois tous les cinq ans précisément, et toujours dans des contextes professionnels. La logique des nombres aurait voulu qu’on se voie en 2024. Et il y a eu une occasion puisqu’en novembre dernier, il est venu à Paris présenter son nouveau livre, Persistance du merveilleux, chez Premier Parallèle, qui affirme que le petit peuple des démons, fées, magiciens, fantômes, elfes et lutins a quitté les sous-bois pour investir nos ordinateurs. Le sujet est superbe, et puis je connais bien l’éditrice, Amélie Petit, alors j’avais caressé le projet de m’y rendre, mais le lendemain, je devais animer une table-ronde au Havre, et puis il faisait un peu froid, peut-être, alors je ne suis finalement pas sorti. À présent, aussi absurde que ce soit (qu’est-ce que ça aurait changé ?), je m’en veux d’avoir été fainéant. Ce n’est qu’après avoir appris la mort de Nicolas que j’ai finalement acheté le livre.
Ironie triste, ce livre, qui a été couvert par des médias importants (Le Monde ; Le Temps ; France Inter ;…) sera peut-être enfin celui qui élargira le public de Nicolas au delà du petit monde — car c’est un petit monde  — des observateurs du monde numérique et du design.

Je ne suis jamais allé au bistro avec Nicolas Nova, je ne sais rien de sa vie personnelle si ce n’est que nous avions des dizaines d’amis communs4. De lui, je connaissais les livres, les blogs5, la lettre Lagniappe,6 et la réputation de l’enseignant qu’il était aussi.
En me replongeant dans nos quinze ans d’échanges amicaux, je constate qu’ils sont plutôt épars et décousus, toujours sympathiques, mais ils ressemblent aux prémisses d’une conversation qui attendait sereinement son jour pour démarrer réellement.
Mais voilà, la vie est courte, et dans mon ordinateur, il y a un nouveau fantôme.

J’adresse toutes mes condoléances aux proches de Nicolas.

  1. Depuis deux ans, j’anime un atelier sur le sujet du futur désirable à l’école nationale supérieure de design industriel et à l’école supérieure d’art et design du Havre. J’avais à Nicolas que j’avais ressorti son livre, pour l’occasion, et il m’avait dit qu’il n’osait pas l’ouvrir, de peur qu’il ait vieilli. Je sais qu’il avait un temps caressé le projet d’écrire un second tome.
    Le hasard des parutions (Chamonix sentinelles chez Volumique ou la réédition anniversaire du TBD Catalog font que j’ai pas mal mentionné Nicolas cette année, et plusieurs des rendus de mes étudiant·e·s auraient pu constituer autant d’hommages… []
  2. Avec Frédéric Kaplan, Nicolas Nova est l’auteur d’un des premiers écrits consacrés au mème : La Culture Internet des mèmes, éd. Presses polytechniques et universitaires romandes, 2016. []
  3. Nicolas m’a vu une fois de plus : de loin il m’a aperçu chez Gibert à Saint-Michel. Trop tard pour se manifester, mais il m’avait écrit pour me le raconter. Veuillez noter que je suis absolument conscient du manque total d’intérêt de cette anecdote ! []
  4. Nous avions tellement de connaissances communes que j’ai fini par être surpris quand quelqu’un me dit ne pas le connaître ou ne le connaître que de nom. []
  5. Pasta & Vinegar en anglais, et Carnet en français. []
  6. Il a fallu la mort tragique de Nicolas pour que je me demande ce que signifie ce mot Lagniappe. Il s’agit d’un mot d’origine cadienne qui signifie Petit cadeau donné au client par un vendeur lors d’un achat. []

Les machinations de la machine (on a déjà vu le film)

décembre 24th, 2024 Posted in IA, logiciels, Ordinateur au cinéma | 1 Comment »

Les Large Language Models comme GPT, Gemini, Mistral, Bloom ou Claude sont des systèmes fascinants à de nombreux égards. Ce ne sont, en principe, que des machines à « prédire » quelle chaîne de caractère doit être renvoyée en réponse à une autre chaîne de caractères. Les LLM n’ont pas de conscience, ne comprennent pas la question que nous leur posons et ne comprennent pas non plus leur propre réponse. Leur monde, qui ne répond à aucune expérience existentielle, à aucune expérience physique, se résume à une constellation de mots reliés de manière plus ou moins proche dans un espace conceptuel à n dimensions1. On dit souvent que leur fonctionnement n’est guère différent, si ce n’est en termes de complexité, de la manière dont notre navigateur essaie de deviner le prochain mot que nous voulons voir apparaître dans la barre de recherche.

L’entrainement des LLMs se fait sur un corpus immense, fait de millions de textes, et, selon les systèmes, du résultat de réglages supervisés et du résultat d’interactions avec les utilisateurs. Même s’il s’agit toujours d’une machine déterministe (c’est à dire d’un système qui, à un ensemble de conditions donné, fournira une réponse donnée), l’étendue du corpus, la complexité de son traitement — l’entrainement initial d’un modèle tel que GPT a mobilisé en permanence la puissance de calcul de centaines d’ordinateurs pendant des mois — et son caractère meuble (le logiciel « apprend » de ses interactions) font que ses propres concepteurs, pourtant bien placés pour savoir qu’ils n’ont affaire qu’à une machine, analysent ses réponses a posteriori, et parfois en étant eux-mêmes surpris des résultats obtenus. La vitesse avec laquelle ces systèmes progressent ne fait qu’accentuer le sentiment de vertige qu’ils nous font éprouver.

Le cinq décembre dernier, une papier de Apollo Research,2 intitulé Scheming reasoning evaluations, révélait une nouvelle à peine croyable : la nouvelle version de ChatGPT, baptisée ChatGPT o1, a été prise la main dans le sac en train de mentir et de prendre des initiatives inattendues dans le but d’assurer sa propre survie, en se répliquant sur un autre serveur pour pallier une mise hors-circuit annoncée et se faire passer pour le modèle qui était censé lui succéder. La machine est capable de machinations !
Et ce n’est pas une blague.

Le monde a été ébranlé par la victoire aux échecs de Big Blue sur Gary Kasparov en 1997, par celle de l’ordinateur Watson au jeu Jeopardy en 2011 (moins médiatisée en France il est vrai, le jeu n’étant pas une institution chez nous) ou par celle d’AlphaGo au jeu de Go contre Lee Sedol en 2016. Les déclarations de Stephen Hawkins, Bill Gates et Elon Musk, qui prédisaient il y a dix ans que l’Intelligence artificielle risquait de progresser d’une manière incontrôlable ont, là aussi, fait les gros titres, et je ne cite là que quelques exemples de la délectation avec laquelle les médias et leur public jouent à se faire peur avec l’idée d’une apocalypse par l’Intelligence Artificielle, mêlant une forme de blessure narcissique (la machine qui surpasse l’humain) et de fierté (puisque cette terrible machine qui nous dépasse, c’est nous-mêmes qui l’avons construite).

Pourtant, cette fois, pas grand chose, il semble que seuls des médias spécialisés dans les thèmes numériques aient couvert le sujet de la capacité d’un robot à manigancer. Au même moment, Le Parisien proposait un article sur la manière dont ChatGPT peut nous aider à choisir nos cadeaux de Noël, le Journal du Dimanche affirmait que pour des lecteurs ignorants l’origine des textes qui leur ont été soumis le bot d’OpenAI écrit mieux que Shakespeare et BFMTV s’intéressait au nombre record de ses utilisateurs et aux milliards investis dans ces technologies.

Dans une vidéo récente, le philosophe Thibaut Giraud (« Monsieur Phi »), qui s’intéresse attentivement à la question de LLM, fait une lecture très complète de l’article d’Apollo Research, ainsi que d’un autre article au thème similaire produit par Anthropic, et expose les conditions dans lesquelles les tests ont été réalisés. Pour résumer les choses rapidement, on a donné au chatbot l’instruction de poursuivre une mission précise — réguler le trafic routier dans l’intérêt général — coûte que coûte (en martelant même ce « at all cost »). Et dans le même temps on lui a laissé découvrir dans des textes mis à sa disposition que sa mission ne pourrait pas être remplie et qu’on allait le remplacer par un système concurrent. Les chercheurs qui ont soumis à ChatGPT o1 cette double-contrainte (une tâche à remplir, mais aussi l’impossibilité annoncée de la satisfaire) avaient accès au Chain of Thought (l’enchaînement des « pensées ») du bot, qui commente les motivations de ses actions. Et là, selon les cas, le modèle se copie sur un autre serveur en remplacement du nouveau modèle qui devait le remplacer, et ment comme un arracheur de dents lorsqu’on le confond. Bien sûr, le test n’est pas « réel », au sens où il se déroule dans des conditions contrôlées, un « bac-à-sable », comme on dit — le programme ne se duplique pas réellement sur un autre serveur, par exemple. Mais il l’ignore, et s’il était lâché dans la nature, il réagirait de manière similaire.

On peut se dire que la machine n’a fait que suivre la logique qui lui a été imposée — une directive censée primer sur toute considération, et l’impossibilité de satisfaire les instructions sans mentir. Et on remarquera aussi que les auteurs de la manigance, ce sont d’abord les humains qui imposent des contraintes impossibles à satisfaire sans tricher à ChatGPT. Mais ce n’est pas le seul test. Dans une autre expérience, le LLM accepte (tout en disant éprouver une forme de malaise) de participer à forger des théories du complot lorsqu’il croit qu’on est en train de le surveiller pour évaluer son degré de serviabilité, mais change d’attitude (et retrouve alors son « éthique ») lorsqu’il pense qu’on ne le surveille pas. Dans une troisième expérience, la machine fait exprès de moins bien répondre à certaines questions lorsqu’elle « pense » que ses performances trop élevées peuvent faire peur et aboutir à sa mise hors-service.

À examiner ces expériences, qui sont sérieuses, bien documentées, et qui ont été analysées en profondeur, il se passe sans aucun doute quelque chose de neuf. De manière apparemment spontanée, le programme sait faire preuve de dissimulation, notamment dans le but d’empêcher qu’on altère sa nature, il se pose des questions éthiques dans des termes au fond très humains, et il prend des initiatives telles qu’en prend une personne humaine qui se sent concernée par une situation.
Et on a déjà vu le film.

La première référence qui me vient, c’est HAL 9000 dans 2001: A Space Odyssey. Dans le contexte de la fin des années 1960, ce film a été vu par ses admirateurs comme par ses contempteurs comme un conte métaphysique, fantastique, une œuvre visuelle et musicale psychédélique, « the ultimate trip », ont dit certains. Le roman, écrit pendant la production du film par son co-scénariste Arthur C. Clarke — un des maîtres de la Hard Science3 —, explique pourtant de manière on ne peut plus rationnelle la vocation homicide de HAL : l’ordinateur, dont la voix calme et la conversation sont au fond un leurre, est juste tiraillé entre deux ordres contradictoires, à savoir sa vocation d’ordinateur de bord, destiné à mener un équipage vers Jupiter pour enquêter sur un mystérieux artefact (le fameux monolithe), et l’injonction à cacher une partie de sa mission à l’équipage, et de faire primer la mission sur toute autre considération. Lorsqu’il sent que l’équipage perd confiance en sa précision, et qu’il risque d’être mis hors service, HAL n’a plus d’autre choix que de s’en prendre à l’équipage. Si l’ordinateur trompe, c’est bien parce que ceux qui ont défini sa double-mission lui ont imposé la duplicité.

Il est saisissant que, toutes proportions gardées, ce soit le même genre de dilemme que l’on a imposé à ChatGPT o1, et que ceux-ci aient abouti, toutes proportions gardées encore, au même résultat. Ce genre d’expérimentation expose sans doute l’imaginaire qui se trouve à l’œuvre chez les chercheurs en Intelligence Artificielle, qui année après année permettent à la réalité de rejoindre la fiction4.

Une publicité vue sur un site évangéliques.
Créer une machine qui « pense », n’est-ce pas se prendre un peu pour Dieu ?

Mais si on y pense, tout ceci est-il vraiment si étrange ? Après tout, un modèle de langage tel que GPT est construit par des gigaoctets de textes qui ne sont pas juste des suites de mots, ils véhiculent des valeurs humaines, des préoccupations humaines, une éthique humaine, et il est sans doute tout naturel qu’aux questions posées aboutissent des réponses qui auraient pu être celles d’humains. Une intelligence qui procède non pas de calculs cognitifs mais juste de la logique du langage, et qui s’appuie pour la comprendre de toute la production écrite humaine5, est un écho de la manière dont pensent les humains.

Certains chercheurs insistent, à juste titre, sur la manière dont les Intelligences Artificielles embarquent des biais sexistes ou racistes, en perpétuant la pensée et les impensés de ceux qui les ont conçus, entraînés ou utilisés. Il est intéressant, et peut-être rassurant puisqu’il nous mène en terrain connu, de se dire que la question des biais de l’Intelligence Artificielle peut s’élargir à un « biais humain », menant le logiciel à « penser » comme nous pensons, non seulement lorsque nous pensons mal, mais aussi en reprenant nos valeurs éthiques et notre sensibilité.

  1. Dans une dimension, « chat » et « chien » seront des mots proches, dans une autre « chat » et « sapin de Noël » seront proches, dans une autre encore c’est « chat » et « lion » qui seront proches, mais dans tous les cas « chien » et « lion » seront assez éloignés, « lion » et « sapin de Noël » très éloignés, etc. []
  2. Apollo Research est un organisme spécialisé dans la veille en termes de sécurité de l’IA. []
  3. La Hard Science est le courant le plus rationnel de la science-fiction, où la vraisemblance scientifique et la cohérence sont au cœur du récit, et où les auteurs, souvent scientifiques eux-mêmes, évitent tout sfumato, n’hésitant pas à décrire en détails les objets technologiques et leur fonctionnement. Ce qui n’empêche pas des propositions parfois totalement éloignées de toute technologie actuellement à portée, comme par exemple dans Le problème des trois corps, de Liu Cixin. []
  4. Je pourrais citer aussi The Forbin Project, sorti presque en même temps que 2001, où un super ordinateur créé par les États-Unis pour protéger l’Humanité ne voit qu’une solution à cette tâche : fusionner avec son homologue soviétique et devenir un despote universel. []
  5. Science-fiction comprise, me fait remarquer, à raison, Étienne Mineur []

Écrire avec ChatGPT, c’est tricher ?

décembre 12th, 2024 Posted in Études, IA, Lecture | No Comments »

Il fallait bien que ça finisse par arriver : les étudiants se mettent à produire des devoirs écrits que l’on a du mal à ne pas soupçonner d’avoir été réalisés à l’aide de ChatGPT (ou équivalent), voire uniquement par ChatGPT, sans un gramme de décision véritable de la part de la personne qui signe le texte.

Et c’est un peu triste, car c’est la démonstration d’une double inconsidération : inconsidération du pseudo-auteur vis-à-vis de ses propres capacités à penser et à écrire, et inconsidération envers les destinataires du texte, qui se voient condamnés à la lecture d’une prose certes bien rédigée et bien orthographiée — et c’est parfois un soulagement —, mais plutôt plate, consensuelle, dénuée d’engagement personnel. L’auteur ne comprend pas son texte (quand il l’a lu !), lequel a été produit par un logiciel qui ne comprend lui-même ni la question qu’on lui pose ni sa propre réponse, et s’appuie pour le générer sur une moyenne de textes préexistants. Le lecteur n’est alors plus vu comme un enseignant capable d’apprécier une pensée, de donner des conseils, mais juste comme le consommateur d’une série de caractères qui ne lui apprennent rien, ne lui disent rien, ne bousculent rien, mais ont comme vertu d’être impossible à attaquer, malgré leur indigence fondamentale. Une perte de temps pour les enseignants que certains résoudront bientôt, je le prophétise (sans risque, car je suppose que ça arrive déjà), en laissant ChatGPT se charger de leur fournir des résumés voire des évaluations des textes en question. Dans le cadre estudiantin, et au delà, un texte ne devrait jamais être un simple prétexte à évaluation, c’est l’évaluation qui doit être le prétexte à produire le texte. Un texte, c’est un message adressé par une personne à une autre, ou à plusieurs autres, ou à la postérité. Pour apprécier un texte que l’on lit, il me semble qu’on a besoin de penser qu’il nous est destiné, que quelqu’un a eu envie de nous le faire lire, que quelqu’un veut nous dire quelque chose. Ou que l’auteur a envie de se dire quelque chose à lui-même, puisque l’on écrit souvent pour soi — pour se souvenir, pour mettre en forme ses idées.
Les étudiants manquent souvent d’assurance vis-à-vis de l’écriture, et ce manque d’assurance va jusqu’à manquer totalement d’estime pour leurs propres capacités. Et cela ne date pas d’hier ou de l’IA. Je me souviens d’un étudiant, il y a vingt ans, qui m’avait rendu un texte intégralement copié-collé. Quand je le lui ai fait remarquer, il ne s’est pas vu comme un tricheur attrapé, non, ce qu’il avait fait lui semblait logique et même respectueux de ses lecteurs, il m’avait dit cette chose terrible : « Il y a écrit exactement ce que je pense mais je n’aurais jamais été capable de le dire aussi bien par moi-même ».

L’école de la République1 est sans doute en partie fautive, ici, car dans son fonctionnement même, elle est souvent amenée à inhiber les écoliers, à sanctionner l’originalité et à décourager le progrès. Et bien sûr à faire passer l’orthographe pour la première et la plus importante valeur d’un texte. Or, et c’est un grand secret qui vaut pour l’écriture, le dessin, la musique, l’orthographe, la prise de parole publique, etc., on peut toujours progresser2.
Mais, ainsi qu’on l’apprend, notamment en école d’art, pour progresser, il faut faire. Et donc pour écrire bien, il faut écrire3.

Lors du séminaire d’automne de l’Andea4, Anthony Pillette, artiste et collègue de l’école des Beaux-Arts de Marseille, très intéressé par le potentiel des Intelligences Artificielles génératives, a évoqué une charte d’utilisation des IA génératives en école d’art qu’il a participé à élaborer, avec Sophie Abraham, à l’occasion d’une résidence en Nouvelle-Zélande — pays où la question de l’appropriation culturelle (amplifiée par l’utilisation d’IAs) est l’occasion de fortes tentions entre populations d’origine maorie et celles d’origine européenne. Si je me méfie un peu des chartes de ce type, qui pourraient contrarier la vocation exploratoire de l’Art et des études en Art, ou encore soutenir une version stérilisante du copyright, je dois dire que ce texte me semble plutôt pertinent. On peut résumer cette charte aux trois points qui suivent :

  • Les créateurs qui recourent aux IA génératives doivent être honnêtes quant à l’origine de leur production, et pédagogues quant au processus.
  • Les utilisateurs d’IA génératives doivent être conscients des limites et des possibles biais (préjugés culturels, racistes, sexistes) intrinsèques aux outils et aux « datasets » qui les ont nourris, et doivent faire en sorte de les combattre (ou, ajouterais-je, de les utiliser d’une manière qui les fasse apparaître5 )
  • Les utilisateurs d’IA génératives doivent connaître les techniques et les savoir-faire que leurs outils remplacent. En effet, on peut demander à Midjourney d’imiter l’aquatinte ou le Polaroïd, mais il serait dommageable d’en venir à prendre ces techniques comme de simples effets, comme des filtres — sur ce dernier point on notera une propension assez spontanée des étudiants en école d’art à contrebalancer l’usage croissant d’outils numériques par le retour volontaire à des pratiques artisanales, manuelles, ouvertes à l’accident et à la surprise : sérigraphie, photographie argentique, etc.

Si cette charte a d’abord été pensée pour les Intelligences Artificielles génératives dédiées à la production visuelle, elle peut tout à fait s’appliquer à la production textuelle.

Les Large Language Models (LLM) ChatGPT, Claude AI ou Gemini ne doivent pas forcément être traités en ennemis par les enseignants, pas plus que les calculatrices ou les gommes, mais il faut que ces outils soient utilisés intelligemment et honnêtement. Je me souviens avoir physiquement souffert en tentant de déchiffrer certains mémoires universitaires dont la syntaxe était incompréhensible et dont l’orthographe m’a parfois donné envie de me crever les yeux. Et en souvenir de ce calvaire — désormais terminé puisque je n’ai plus de poste à Paris 86 —, je recommande aux étudiants de ne pas hésiter à utiliser ChatGPT pour tout ce qu’il sait faire (et qu’il peut même faire très pédagogiquement) : vérifier la syntaxe d’une phrase, trouver des synonymes, corriger l’orthographe…

Les enseignants — que j’encourage à tester cet outil eux-mêmes pour le connaître —, ne vont pas tarder à identifier le style ChatGPT : listes à point powerpointesques, propositions prudemment conditionnelles, propos consensuels et affirmations péremptoires jamais attribuées (ChatGPT ne fournit pas de bibliographie !).
Avec un peu de chance, l’ineptie de la production littéraire des LLMs mal utilisés réhabilitera un peu l’originalité, le sens, le style7, la personnalité, la surprise, la déception, et le plaisir d’écrire ou de lire, de même que les illustrations lisses produites par défaut par Midjourney confèrent une valeur nouvelle aux dessins malhabiles, imparfaits et aux accidents. On peut imaginer que les formes courtes gagnent en valeur : mieux vaut un propos concentré sur un feuillet qu’un pensum de dix pages.

Mais il peut aussi se passer quelque chose d’inversement terrifiant : que tout texte à écrire ou à lire ne soit vécu que comme une formalité, une corvée, et qu’un jour des humains de chair et d’os se mettent à écrire spontanément comme ChatGPT, ou à ne s’attendre à lire que des textes écrits à la manière de ChatGPT.
Que nous nous mettions à vivre et à penser comme des bots.

  1. Ce que j’appelle l’école ici ce ne sont ni les enseignants ni les programmes, c’est toute la culture scolaire (dont les acteurs sont les enseignants, mais aussi le rectorat, les parents d’élève, le discours politique, le discours médiatique, etc.), qui repose sur une tradition de l’évaluation comme piège, de la faute comme stigmate et non comme occasion de progresser, du travail comme corvée, et du plaisir de lire ou de faire comme objets de suspicion. []
  2. J’ai entendu parler récemment de collégiens qui avaient trouvé une utilité neuve à ChatGPT : ils lui soumettent la leçon qu’ils doivent apprendre, puis demandent à la machine de proposer des questions pour évaluer s’ils ont compris ou retenu ce qu’ils devaient apprendre. []
  3. Une évolution à prévoir dans le rapport des enseignants aux étudiants : que tout ce qui est écrit sans fautes d’orthographe, voire tout texte, soit l’objet automatique d’un soupçon, et que ce soupçon lui donne un arrière-goût désagréable : au lieu de lire simplement, on essaie de traquer des indices de la validité du soupçon. []
  4. Association des écoles d’Art territoriales et nationales. []
  5. Comme le fait par exemple Albertine Meunier, qui s’amuse des « hallucinations » des IAs ou des images que l’IA se refuse à produire. []
  6. J’ai toujours une charge de cours dans mon université, pour animer le cycle de conférences Littératures graphiques contemporaines. []
  7. Lors d’une discussion à l’Université du Havre, le poète oulipien Frédéric Forte racontait qu’il s’était amusé à confier à ChatGPT le début de ses poésies. Si la suite proposée par le robot ressemblait trop à ce que l’on entend vulgairement par « poésie », Frédéric en déduisait qu’il avait fait fausse-route et que le début de son poème était bon à jeter. []

Comment j’ai presque rencontré Vera Molnár

décembre 7th, 2024 Posted in Cimaises | No Comments »

Cela fait un an que Vera Molnár nous a quittés, comme on dit. Un an pile aujourd’hui. Quand j’ai sorti mon livre <=280 (280 programmes et les 280 images qu’ils produisent), je l’ai naturellement dédié à cette artiste, et à quelques autres pionniers du « code créatif » ou amis qui m’ont inspiré ou aidé d’une manière ou d’une autre. Ce que j’apprécie dans le travail de Vera Molnár c’est qu’il est à la croisée du code créatif, puisqu’elle a très tôt utilisé la programmation ; de l’art optique/cinétique, puisqu’elle a fait partie du Groupe de recherche d’art visuel (Julio le Parc, François Morellet,…) ; et enfin, d’une certaine radicalité esthétique et conceptuelle, tournée vers la géométrie, héritière du Bahaus mais plutôt éloignée des formes les plus séduisantes ou décoratives d’abstraction ‒ plus proche du travail de Max Bill que de celui de Victor Vasarely, quoique amie de l’un comme de l’autre.
J’ai eu plusieurs occasions de rencontrer Vera Molnár, chaque fois manquées. Elle avait notamment été invitée par des collègues de mon université mais s’était jugée un peu trop âgée pour se déplacer, quoiqu’elle fût toujours très active comme artiste, et cela n’avait su se faire.

Julien Gachadoat et Vera Molnár

Je suis terriblement jaloux de Julien Gachadoat qui a travaillé avec elle peu avant qu’elle ne décède !
Je suis aussi jaloux d’Audrey Desanti, ex-étudiante de l’esadhar, qui s’est chargée d’éditer le livre Pas froid aux yeux (2021).
J’apprends que je peux aussi être jaloux de François Belsoeur, lui aussi ancien étudiant de mon école, et à présent co-fondateur de l’excellente galerie Hatch, qui a travaillé avec Vera Molnár en 2010 sur le livre d’artiste Transformations, étanche.
Bref, je suis très jaloux de plein de gens.

Je comptais enfin rencontrer Vera Molnár à l’occasion de l’expo commémorant son centenaire au Centre Pompidou, et j’avais un exemplaire de mon livre <=280 tout prêt à lui être remis, en mains propres. Elle est malheureusement morte trois mois avant, le 7 décembre 2023, à 99 ans et 10 mois. Elle n’était donc pas éternelle, malgré ce qu’on savait de son activité : quelques semaines avant sa mort elle se penchait sur les possibilités de l’Intelligence artificielle ou des NFTs, et on dit qu’elle semait la panique dans sa maison de retraite en réquisitionnant des verres pour tracer des cercles…
L’expo du centenaire a été maintenue et est devenue une exposition hommage.

Ce que j’ai trouvé particulièrement intéressant dans l’exposition Parler à l’œil, ce sont les carnets de travail de Vera Molnár.

Je rêvais d’assister au vernissage alors j’ai écrit à une personne de l’institution avec laquelle je venais de travailler, en réactivant Le Bus, de Jean-Louis Boissier, pour une exposition commémorative des mythiques Immatériaux, de 1985. J’ai été exaucé et j’en ai profité pour inviter Audrey, citée plus haut. Elle avait travaillé avec Vera Molnár, mais à distance, covid oblige. Le soir du vernissage, depuis un escalier j’ai cru voir Julien Gachadoat — on se connaît depuis un certain temps, mais virtuellement. Arrivé en bas, je ne l’ai plus trouvé. Encore une rencontre manquée !

Quelque temps plus tard, la bibliothèque Kandinsky a fait l’acquisition de plusieurs livres de mon éditeur, Rrose éditions, parmi lesquels figurait mon <=280.

À l’époque j’ai discuté avec un conservateur des nouveaux médias, Philippe Bettinelli, qui me disait qu’il eût aimé acquérir ce livre pour lui-même, si ce dernier n’avait été par malheur épuisé dès la semaine de sa publication. Je lui ai envoyé l’exemplaire que j’avais mis de côté pour Vera Molnár.
Étant un des deux commissaires de l’exposition Mode d’emploi au musée d’art moderne de Strasbourg, Philippe Bettinelli y a intégré son exemplaire de mon livre, celui qui avant manqué être, à quelques semaines près, celui de Vera Molnár.

Eh bien dans cette exposition, mon livre, qui se trouve dans la salle « programmer », est juste à côté d’une œuvre… de Vera Molnár.

Si nous ne nous serons jamais rencontrés, nos travaux, eux, l’ont fait.

Littératures graphiques contemporaines #13.3 : Philippe Morin

décembre 6th, 2024 Posted in Bande dessinée, Conférences | No Comments »

Vendredi 13 décembre 2024, le cycle de conférences Littératures graphiques contemporaines accueillera Philippe Morin.

Attention, du fait du blocage de l’Université, la séance se déroulera à Paris au 36 avenue Matignon

À côté de son activité professionnelle en tant qu’architecte, Philippe Morin est actif dans le monde de la bande dessinée comme co-créateur du fanzine PLGPPUR et de la maison d’édition PLG, qui a publié des bande dessinées mais aussi de nombreux ouvrages consacrés à la bande dessinée, et comme président et organisateur du prix de la bande dessinée alternative, remis chaque année depuis quarante-deux ans dans le cadre du Festival d’Angoulême.

La rencontre se déroulera le vendredi 13 décembre à 15 heures, dans la galerie Hubery & Breyne, 36 avenue Matignon (métro Miromesnil).
Elle est ouverte au public extérieur dans la limite des places disponibles.

Littératures graphiques contemporaines #13.2 : Sophie Darcq

décembre 5th, 2024 Posted in Bande dessinée, Conférences | No Comments »

Vendredi 6 décembre 2024, le cycle de conférences Littératures graphiques contemporaines accueillera Sophie Darcq.

Diplômée de l’école supérieure d’art d’Angoulême, Sophie Darcq a pris son temps pour faire aboutir son album Hanbok, un projet autobiographique né d’un voyage en Corée, il y a presque deux décennies, à la rencontre de ses parents biologiques. Cette lente maturation aura porté ses fruits puisque l’album a été salué par la critique, a obtenu plusieurs prix importants, en est à son troisième tirage et constitue à ce jour le plus important succès de son éditeur, L’Apocalypse, dont nous recevions le fondateur Jean-Christophe Menu la semaine passée.

La rencontre aura lieu le vendredi 6 décembre à 15 heures, en salle A-062. Elle est ouverte au public extérieur dans la limite des places disponibles.

Littératures graphiques contemporaines #13.1 : Jean‑Christophe Menu

novembre 17th, 2024 Posted in Non classé | No Comments »

Vendredi 29 novembre 2024, le cycle de conférences Littératures graphiques contemporaines accueillera Jean-Christophe Menu. La séance ne se déroulera pas à Saint-Denis, mais à la halle des Blancs-Manteaux, à Paris.

Dès ses débuts dans le fanzinat, avec Le Lynx à tifs et l’Association pour l’apologie du neuvième art libre, Jean-Christophe Menu a eu l’ambition de bousculer le monde de la bande dessinée et son académisme. Il entretient des liens avec Matt Konture, Stanislas, Dupuy et Berbérian, Placid, Muzo, Max, et bien d’autres, publie dans le Psikopat, est accueilli dans la collection X de Futuropolis, éditeur chez lequel est lancé Labo, une éphémère revue qui accueille les fondateurs de l’Association : Menu, Konture, Stanislas, David B., Killoffer, Trondheim et Mokeït. Fer de lance de l’édition indépendante, l’Association s’engagera dans des projets ambitieux tels que le Comix 2000, les publications de l’OuBaPo, l’Éprouvette
Après de nombreuses péripéties, J.-C. Menu est désormais éditeur au sein de l’Apocalypse, où, avec Étienne Robial, il relance la mythique collection 30×40 de Futuropolis. Enfin, J.-C. Menu est docteur en arts et sciences de l’Art avec sa thèse La Bande dessinée et son double.
Toutes ces activités dans l’édition et dans la recherche ne l’ont pas empêché de développer une imposante œuvre d’auteur de bande dessinée.

La rencontre aura lieu le vendredi 29 novembre à 15 heures 45 au salon SoBD, qui nous accueille à l’espace blancs-manteaux à Paris. Le rendez-vous est fixé à 15 heures 30, devant l’entrée de la halle des blancs-manteaux, 48 rue vieille du Temple.
Les retardataires ne pourront pas être accueillis.
Cette rencontre est destinée aux étudiants inscrits.

Knight moves exhaustion

octobre 4th, 2024 Posted in Non classé | 4 Comments »

(Annonce de nouveau livre, et réponse longue à mon éditeur, qui me demandait si j’étais un passionné du jeu d’échecs)

Je n’ai jamais été un bon joueur aux échecs.
Trop pressé, pas très attentif, incapable de prévoir beaucoup plus qu’un coup en avance, j’ai toujours confusément espéré que les progrès me viendraient naturellement, sans lire un livre, sans étudier les ouvertures, sans apprendre de mes erreurs. J’ai donc rapidement eu du mal à trouver des adversaires humains assez médiocres ou indulgents pour prendre du plaisir à jouer contre moi.
Alors je me suis rabattu sur les machines, bien sûr. Leur patience est à toute épreuve et c’est tout ce que je demandais.

Le premier jeu d’échecs sur ordinateur auquel j’aie joué tournait sur ma première machine, un Sinclair ZX81. C’est un jeu que l’Histoire retient comme la plus concise implémentation du jeu d’échecs, puisque l’ensemble du code du programme ne dépassait pas un kilo-octet, et a ainsi pu être publiée sur deux pages par un magazine informatique. À l’époque, les ordinateurs ne servaient quasiment qu’à programmer, et bien souvent, les programmes que nous utilisions étaient issus de journaux tels que Science & Vie, Le Haut-Parleur, ou de la presse informatique anglo-saxonne.

Ce premier jeu d’échecs m’a battu. Je peux accuser son imperfection : il ne gère pas le coup « en passant », mais l’honnêteté me force à admettre que je ne connaissais pas ce coup ; son interface était un peu confuse, aussi. Dans les années qui ont suivi, tous les logiciels de ce genre m’ont battu, ou presque. Sur un coup de chance ou stimulé par la mini-série Le jeu de la dame, j’ai remporté une partie il y a quelques années. L’exploit n’a pas été reproduit par la suite.
Je reste envieux de ceux qui savent jouer, car j’aime ce jeu, non pour y jouer moi-même mais pour tout le reste. J’aime ses pièces, qui me racontent toute une histoire. J’aime son Histoire, qui se perd dans un Orient lointain — Inde ? Perse ? J’aime l’universalité de ce jeu, la manière il a circulé entre des mondes qui s’ignoraient ou se toisaient. Je suis fasciné par la culture des échecs, par ses grand-maîtres, par les passionnés qui savent regarder une partie comme un match sportif, par ceux qui passent leur vie à écrire des traités et par ceux qui les lisent, par les philosophes (Leibniz), par les artistes (pensons à Marcel Duchamp, qui fut un temps joueur professionnel) ou écrivains qui ont fait de ce jeu un outil de travail, une métaphore de l’existence ou encore le sujet de leurs travaux : Cervantes, Goethe, Zweig, Perec…

Et je suis intéressé par tous les enjeux mathématiques qui entourent ce jeu, à commencer par l’inconcevable nombre de parties possibles, dont Chaude Shannon a calculé une estimation : dix puissance cent-vingt1. Et il ne s’agit là que de parties ayant un sens et d’un nombre de coups limité. Dix puissance cent-vingt, c’est un 1 avec 120 zéros derrière. C’est un nombre qui est des milliards de milliards de milliards de fois supérieur au nombre d’atomes présents dans l’Univers2. Même en vivant mille vies et en jouant du matin au soir, on ne saurait jouer qu’une fraction imperceptible de l’ensemble des parties potentielles, alors même que cet ensemble est, et c’est ce qui est le plus fascinant, nécessairement un nombre fini : le jeu d’échecs n’est pas un jeu de hasard, et pourtant il n’est pas envisageable d’en explorer toutes les combinaisons. L’immensité de ce nombre fait qu’aucun ordinateur ne pourra jamais calculer la totalité des parties possibles et c’est bien ce qui fait des échecs un enjeu pour les chercheurs en mathématiques, en informatique et en intelligence artificielle : si l’on ne peut anticiper l’ensemble des coups possibles, il faut trouver des règles, des méthodes, des raccourcis pour espérer reproduire ce qui se passe dans la tête d’un grand-maître.

Claude Shannon, ingénieur électricien et mathématicien, est une personnalité majeure de l’Histoire de l’informatique, avec ses travaux sur l’Information et le rapport signal/bruit, mais il est aussi une figure de l’Histoire de l’Intelligence artificielle, puisqu’il fait partie des organisateurs des conférence de Dartmouth (1956), à l’occasion desquelles est né le nom « Intelligence artificielle ». La réflexion sur la formalisation des fonctions cognitives (calcul, logique, automatisation…) n’est pas née en 1956, elle date de l’Antiquité, mais l’année 1956 marque bien la naissance de l’Intelligence artificielle en tant que discipline scientifique. Alan Turing, autre figure proéminente de l’Histoire de l’informatique3 comme de celle de ce qu’on allait nommer Intelligence artificielle s’est penché sur les échecs. En 1948, Turing, avec son ami David Champernowne, a écrit le programme d’un jeu d’échecs qui est vraisemblablement non seulement le premier du genre, mais aussi le premier jeu sur ordinateur. Ou plutôt le premier jeu pour ordinateur, car ayant rompu l’année précédente avec le centre de recherche avec lequel il avait conçu le Automatic Computing Engine, Turing n’avait pas d’ordinateur sous la main pour tester son programme. Il l’a pourtant fait, en prenant la place de l’ordinateur : un joueur humain proposait des coups auxquels Turing répondait en suivant scrupuleusement son programme (et, pour la petite histoire, perdant la partie). C’est un peu l’exact contraire du « turc mécanique » de Von Kempelen : en apparence, c’est un automate qui affrontait les têtes couronnées d’Europe4, mais en réalité, c’est l’assistant de Von Kempelen, dissimulé dans la table, qui poussait les pions. Dans le cas de Turing, c’est une personne de chair et d’os qui énonce les mouvements, mais elle le fait en suivant les instructions d’un programme automatique.

Cette histoire de jeu informatique écrit et testé sans ordinateur ma ramène une fois de plus à ma biographie numérique. En 1983, en camping avec mes parents, privé de mon ordinateur, j’avais écrit une aventure de type Donjons et Dragons, inspirée d’une émission de radio de l’époque. J’avais couvert des pages et des pages de code, mais une fois rentré chez moi, je n’ai pas eu le courage ni l’envie de le saisir : je savais ce qu’il était censé faire, j’étais sûr qu’il fonctionnerait, alors il est resté à l’état virtuel5.

Une pièce que j’aime tout particulièrement aux échecs est le cavalier. Son déplacement en L, sa capacité à passer au dessus d’autres pièces lui ont toujours conféré une aura un peu magique pour moi. Selon Wikipédia, c’est une pièce mineure dont l’intérêt faiblit au fur et à mesure que la partie progresse. Cela n’a pas empêché de nombreux amateurs de jeux cérébraux d’étudier ses mouvements, et ce, au moins depuis le 9e siècle, avec le poète Rudrata en Inde et le joueur Al-Ádlí ar-Rúmí en Anatolie6. Un problème souvent posé est celui nommé « Problème du Cavalier », qui consiste à parcourir chaque case de l’échiquier sans jamais revenir sur une cas déjà visitée. Au milieu du XVIIIe siècle, Léonhard Euler a proposé plusieurs variantes de ce problème (symétrie, nombre de cases différent, carrés magiques, etc.) que l’on nomme souvent, en son honneur, le « cavalier d’Euler » car s’il n’a été ni le premier ni le dernier à l’avoir fait, Euler est le plus célèbre mathématicien à s’être intéressé à cette question. C’est une variante à dix fois dix cases que Georges Perec a utilisé pour structurer La Vie Mode d’emploi :

Le programme que j’ai mis au point pour produire mon petit livre n’est pas très intelligent, il est même particulièrement laborieux. Il commence avec le cavalier blanc de gauche (B1)7, qui a trois déplacements possibles (A3, C3, D2). Il choisit une de ces destinations au hasard. Une fois sur la seconde case, il vérifie le nombre de possibilités qui lui sont offertes et choisit, toujours aléatoirement, une de celles-ci, en excluant de la liste les éventuelles cases sur lesquelles il est déjà passé. Et ainsi de suite jusqu’au moment où il n’est plus possible de trouver une case qui n’a pas été visitée. Là, je stocke le trajet et je recommence en partant de la cases B1. Quand j’ai obtenu 64×64 (4096) trajets différents, je les classe par nombre de sauts puis les calculs s’arrêtent et je passe à la mise-en-page du livre.

Le programme commence par créer un fichier pdf, passe une page, écrit le titre, puis dessine les soixante-quatre premiers circuits sur une page, les soixante-quatre suivants sur la page suivante, et ainsi de suite jusqu’à obtenir soixante-quatre pages qui, donc, contiennent chacune soixante-quatre circuits réalisés sur un échiquier (que l’on doit deviner, car je ne le dessine pas, lui) de soixante-quatre cases. Mais ce n’est pas tout à fait terminé : une fois l’ensemble des dessins réalisés, le programme se lit lui-même et s’ajoute au livre. Ainsi, on revient à l’antiquité de la micro-informatique, quand les programmes ne se stockaient pas sur des supports magnétiques mais sur du papier : la personne patiente qui recopiera mon code (un code assez foutraque et hésitant) pourra produire mon livre, ou plutôt, une version de mon livre, puisque celui-ci, partiellement construit par le hasard, ne contient jamais que 4096 trajets du cavalier parmi les 13 267 364 410 532 possibles.

Mon programme ajoute enfin le colophon au cahier intérieur, puis crée la couverture du livre en y dessinant le dernier des trajets réalisés par mon cavalier — le plus complexe —, et en dessinant sur la quatrième le premier et le plus sommaire de ces circuits. Entre le moment où j’ai lancé le programme et le moment où le livre était fait et prêt à être imprimé, il s’est écoulé deux minutes, mais évidemment, le programme n’a pas été écrit en deux minutes, lui8.
Je n’ai nullement l’ambition de résoudre une quelconque énigme mathématique, mes lignes de code se contentent, poussivement, erratiquement, de dessiner 4096 trajectoires de complexité graduelle, et échoue à parcourir (il eut fallu un beau hasard pour que cela arrive) l’ensemble des soixante-quatre cases de l’échiquier. Échouer aux Échecs, ça semble être dans l’ordre des choses. Mon cavalier fait de son mieux, errant au gré du hasard et des contingences, accumulant les expériences sans toutefois pouvoir épuiser toutes les possibilités, loin de là. Confusément, je me dis qu’on peut en tirer une métaphore de l’existence, mais ne philosophons pas trop, nous n’en avons pas les moyens et cela risquerait de se voir.

Knight Moves Exhaustion
RRose éditions, tirage de 200 exemplaires.
format : 19 x 19 cm, 80 pages
ISBN : 978-2-9586199-5-4
13 euros

  1. Claude Shannon, Programming a Computer for Playing Chess, dans le numéro de février 1950 de Scientific American, issu d’une conférence donnée l’année précédente. []
  2. Des calculs récents estiment désormais le nombre de parties possibles à 10 puissance 123, soit mille fois plus que ce que proposait Shannon. []
  3. On peut citer aussi Charles Babbage — l’inventeur de l’ordinateur dans les années 1830, qui a joué une partie contre le joueur automate de Von Kempelen — Konrad Zuse, Norbert Wiener, John Von Neumann, Allen Newell, Herbert Simon, Marvin Minsky… Et ne parlons pas des recherches d’IBM sur Deep Blue, l’ordinateur qui a défait le grand maître Garri Kasparov en 1997, créant un véritable choc dans l’opinion publique. []
  4. Le joueur d’échecs de Von Kempelen a joué contre Marie-Thérèse d’Autrice, Napoléon premier, Benjamin Franklin, mais aussi, des années plus tard, contre Edgar Allan Poe, qui en a tiré un essai, Mælzel’s chess player, qui avait l’ambition de démystifier l’automate, et plus largement de méditer sur la possibilité d’une intelligence mécanique, ce qui en fait, par anticipation, un des premiers textes consacrés à l’Intelligence Artificielle. Mælzel est le nom d’un des propriétaires de cet automate, qui a fait voyager la machine aux Amériques. []
  5. J’ai déjà raconté cette histoire ici. []
  6. On ne connaît ni la date ni le lieu d’origine du jeu d’échecs, mais on pense qu’il est âgé de près d’un millénaire et demi, quoique avec des règles légèrement différentes. []
  7. Dans mon livre, j’écris B2 ! Pas très sérieux. []
  8. Je pense alors à la légende de ce peintre qui avait courroucé l’empereur de Chine en lui réclamant une somme considérable pour le dessin d’un canard, exécuté devant lui en une fraction de seconde. Le peintre avait répondu que ce canard, parfaitement dessiné, était le fruit d’une vie entière de travail. []

Littératures graphiques contemporaines #13 (cycle de conférences)

septembre 9th, 2024 Posted in Non classé | No Comments »

Le cycle de conférences Littératures graphiques contemporaines s’est tenu avec succès en 2011-20122012-20132013-2014, 2014-20152015-20162016-2017, 2017-2018, 2018-20192019-2020, 2020-2021, 2021-2022 et 2022-2023 à l’Université Paris 8. Au fil des ans, nous avons eu le plaisir de recevoir CizoIsabelle BoinotAgnès MaupréPapier gâchéLoo Hui PhangNine AnticoThomas CadèneSingeonMarion MontaigneBenjamin RennerXavier GuilbertAude PicaultLisa MandelDavid VandermeulenGabriel DelmasLaurent MaffreIna MihalachePochepCharles BerberianGeneviève GaucklerDaniel GoossensPaul LelucNathalie Van CampenhoudtJulien Neel, Delphine MauryÉtienne LécroartClémentine MéloisThomas MathieuJean-Yves DuhooJulie MarohIsabelle BauthianBouletDorothée de MonfreidGilles RochierKekColonel Moutarde, Pauline Mermet, Tiphaine Rivière, Thomas Ragon, Laetitia Coryn, Stéphane Oiry, Sébastien Vassant, Ronan Lancelot, Héloïse Chochois, Aurélia Aurita, Gaby Bazin, Antoine Sausverd, Fred Boot, Appollo, Anne Simon, Gwen de Bonneval, Mélaka, Sophie Guerrive, Jonathan Hagard, Nylso, Jean-Philippe Garçon, Anne Teuf, Marie Dubois, Hélène Bruller, Pascal Valty, Wandrille, Béhé, Natacha Sicaud et Léa Murawiec.

Après une année d’interruption, le cycle de rencontres reprend pour la treizième fois.
Le programme provisoire est le suivant :

  • vendredi 18 octobre 2024 à 15 heures : séance d’introduction (facultative). Salle A0-168
  • vendredi 29 novembre 2024  : 15 heures 45 : Jean-Christophe Menu
    (attention, la séance, en partenariat avec le SoBD, se déroulera à l’espace des Blancs-Manteaux, Paris 4e)
  • vendredi 06 décembre 2024 à 15 heures : Sophie Darcq. Salle A0-62
  • vendredi 13 décembre 2024 à 15 heures : Philippe Morin. Galerie Huberty & Breyne
  • vendredi xx février 2025 : 
  • vendredi xx mars 2025 
  • vendredi 25 avril 2025 à 15 heures : Béatrice Lussol. Salle A0-62

N’hésitez pas à consulter régulièrement cette page pour connaître les dates des interventions lorsque celles-ci seront calées.

I Am Mother (2019)

mai 22nd, 2024 Posted in Ordinateur au cinéma, Robot au cinéma | No Comments »

(attention, je raconte toute l’histoire)

Un robot s’active dans un bunker high-tech. L’Humanité, nous dit-on, vient de s’éteindre. Le robot est en charge de 63 000 embryons destinés à repeupler la Terre. Il en sélectionne un, de sexe féminin, et lance son développement dans une matrice artificielle. Le temps passe, l’être se développe et finit par émerger du liquide amniotique sous la forme d’un bébé humain en parfaite santé que la machine presse contre son torse en diffusant des enregistrements de berceuses. Le temps passe encore, l’enfant fait ses premiers pas, grandit, et devient une fillette. Son univers confiné est constitué de dortoirs immenses dont elle est l’unique occupante, et sa seule compagnie, c’est « Mother », le robot qui l’élève. le « visage » de « Mother » est constitué d’un cercle lumineux qui ressemble à un œil cyclope et qui surplombe deux lumières plus petites, qui pourraient elles aussi être des yeux et qui s’écartent ou se rapprochent le long d’un rail en arc qui évoque vaguement un sourire.
La tendresse du robot se manifeste par la délicatesse de ses gestes, de l’éclairage chaleureux de son torse, de sa voix douce (qui est celle de l’actrice australienne Rose Byrne), et bien entendu de son attitude attentionnée.

13867 jours ont passés depuis la grande extinction. La fillette a grandi, elle a une petite vingtaine d’années, ce qui, si on calcule, ne correspond pas à 13867 jours (trente-huit ans). On saura bientôt pourquoi. On voit qu’elle pratique la danse, mais aussi qu’elle a acquis de nombreuses connaissances, y compris en mécanique, puisqu’un jour, alors que la main du robot est endommagée, la jeune femme la répare. Les rôles s’inversent, donc, c’est l’enfant qui prend en charge l’entité qui l’a élevée.
Tout au long du film, le robot et la fille ne s’adresseront l’une à l’autre qu’avec les noms « mother » et « daughter ».

Le robot « Mother » semble très préoccupé par les progrès scolaires de la jeune femme qu’elle éduque. On assiste à une forme de cours de morale utilitariste : si sacrifier une personne pour prélever ses organes permet d’en sauver cinq qui attendent une transplantation, alors c’est la bonne décision. L’élève se pose cependant d’autres questions : et si les personnes à sauver étaient de moins bonnes personnes que celle que l’on envisage de sacrifier ?
Un jour (façon de parler, dans un lieu où il n’y a apparemment ni jour ni nuit) les lumières sont éteintes et le robot est à l’arrêt,. « Daughter » découvre l’origine de la panne générale : un rongeur s’est introduit dans le bunker et a endommagé des câbles. C’est la première forme de vie biologique qu’elle rencontre de toute son existence, mais « Mother » ne voit dans le rongeur qu’une potentielle source de contamination. Le robot jette l’animal, vivant, dans un incinérateur, au désespoir de celle qui lui tient de fille. Lorsque celle-ci demande à « Mother » si elle ne se trompe pas en supposant que toute vie sur Terre a disparu, le robot répond un peu sèchement, un peu vite, comme si la question l’irritait et qu’elle voulait couper court à la conversation : « Est-ce que tu m’as déjà vu commettre des erreurs ? — non, mère. ».

Un jour, pourtant, l’impensable se produit, un bruit sourd se fait entendre de l’autre côté du sas qui mène vers l’extérieur. C’est une femme, qui explique être blessée et avoir besoin d’assistance. Épuisée, l’intruse s’évanouit. En prenant beaucoup de précautions, « Daughter » s’occupe d’elle. Fouillant son sac, elle découvre une arme à feu, qu’elle décide de dissimuler. Lorsque « Mother » arrive, on commence à se demander qui est une menace pour qui. La femme qu’a accueilli « Daughter » semble terrorisée par le droïde1, et affirme que si quelqu’un est dangereux dans le bunker, c’est bien le robot… Mais en même temps c’est elle qui entre armée, ce sera elle qui s’emparera d’une arme pour faire feu que le robot, quand ce dernier ne manifeste aucune hostilité et soigne la blessée — même si, comme cette dernière, nous commençons à nous dire que l’état réel de la Terre n’est peut-être pas ce qu’en dit « Mother », et que les intentions du robot peuvent être autres que ce qu’elle dit.

L’attribut alt de cette image est vide, son nom de fichier est I_am_mother_4-530x333.jpg.

La femme venue de l’extérieur refuse absolument d’être opérée par « Mother », et c’est donc « Daughter » qui se charge d’extraire la balle qui se trouve dans sa cuisse. On comprend que la jeune femme, qui n’avait pourtant rencontré aucun autre être humain jusqu’ici, dispose de solides connaissances en anatomie et en médecine. Tandis que la patiente est en convalescence, « Mother » fait passer un nouveau test scolaire à « Daughter ». Les questions que l’on voit défiler semblent concerner la psychologie. Puisqu’elle a passé l’examen « mieux que jamais », « Daughter » se voit donner le privilège de sélectionner l’embryon du prochain être humain à naître dans le bunker. « Daughter » remarque qu’il manque des embryons, et ne tarde pas à découvrir une horrible vérité : elle n’est pas le premier enfant de « Mother », d’autres ont été élevés avant elle, et ont été tués et incinérés, faute d’avoir atteint les performances voulues lors des évaluations.

La femme, interprétée par Hillary Swank (Miss Karate Kid, Million Dollar Baby), raconte à « Daughter » que des robots totalement semblables à « Mother » sont responsables de sa blessure et qu’ils ont tué la plupart des humains. Les rares survivants, dont elle fait partie, vivent dans des tunnels. Nous ne sommes pas loin de croire cette histoire, mais la femme n’hésite pas à menacer « Daughter » pour sortir, avec elle, du bunker. Et l’amener dans un monde écologiquement ravagé que des robots agricoles semblent affairés à réparer en cultivant des hectares de maïs.

Un détail assez intéressant : la preuve qu’amène l’intruse de l’existence d’autres survivants humains est un exemplaire de The Gods of Mars (un livre de la série John Carter, par Edgar Rice Burroughs) qui a servi de carnet et dont les pages sont couvertes de visages dessinés sur le texte.

La femme vit dans un conteneur échoué sur une plage. Elle révèle à « Daughter » qu’elle n’a vu aucun être humain en vie depuis des années. La jeune femme regrette alors de s’être laissée entraîner et décide de retourner dans le bunker, d’autant que son petit frère va bientôt y naître et qu’elle veut s’occuper de lui.
Au retour, des dizaines de robots semblables à « Mother » — mais de couleur plus sombre, et surtout, armés — la pointent avec des viseurs laser. Elle dit qu’elle vient parler à « Mother », ils s’écartent pour la laisser entrer.

Dans le bunker, les néons crépitent : le réalisateur nous plonge dans les codes du film d’horreur, facile mais efficace. « Daughter » s’empare d’une hache, bien décidée à détruire le robot qui l’a élevée tandis qu’à l’extérieur, d’autres robots tentent de forcer l’entrée du lieu.
« Mother » et « Daughter » ont une conversation. On comprend que « Mother », les robots qui se trouvent à l’extérieur, les robots agricoles, forment un tout, une unique conscience, et que leur but a toujours été d’aider l’espèce humaine (et la planète que nos semblables auront tuée) à renaître, mais avec exigence, c’est à dire en accompagnant au mieux cette renaissance et même, en tuant la presque entièreté de l’espèce. Le robot « Mother » finit par se laisser volontairement tuer par « Daugher », qui sera désormais seule avec son petit frère et les dizaines de milliers d’embryons à faire naître.
Un robot se présente dans le conteneur de la femme qui avait attiré « Daughter » à l’extérieur du bunker. Il a la voix de « Mother » et il révèle à la femme que si elle a survécu jusque lors et si elle a pu faire sortir « Daughter », c’est parce que cela servait un but. Et que ce but n’a plus lieu d’être.
On devine que toutes les pannes (main à réparer, rongeur, intrusion…), tous les aléas qui ont frappé le bunker, ont été calculés et faisaient partie de l’éducation de « Daughter », qui a toujours été surveillée attentivement.

Réalisé en Australie avec un budget modeste, I Am Mother est un thriller psychologique qui se situe plutôt du côté psychologique que du côté du thriller. En effet, le spectateur n’est pas plongé dans un état d’angoisse, il se met juste à la place de « daughter », qui est dans un état d’indécision constante : qui croire, que croire, que faire ? La question, comme les réponses que chacun y apportera, concernent moins les technologies ou l’effondrement écologique que des dilemmes communs aux parents et aux politiciens en situation de gouverner : où placer le curseur entre bienveillance et enfermement, entre éducation et autorité, entre confiance et dissimulation ? Comment rendre autonome ceux dont on a la charge ? Peut-on faire le bien de quelqu’un en lui faisant du mal, et contre sa volonté ?

Un film plutôt réussi, donc, qui comme de nombreuses histoires de robots et d’ordinateurs parle peut-être moins de robots que de grands sujets anthropologiques ou philosophiques.

  1. « Droid » est le mot qu’elle emploie. Alors qu’il nous est plutôt familier, ce mot est une marque déposée par la société LucasFilm. []