Profitez-en, après celui là c'est fini

Littératures graphiques contemporaines #13.4 : Claire Bouilhac

février 2nd, 2025 Posted in Bande dessinée, Conférences | No Comments »

Vendredi 21 février 2025, le cycle de conférences Littératures graphiques contemporaines accueillera Claire Bouilhac.

Claire Bouilhac est autrice de bande dessinée et illustratrice. Elle a notamment collaboré avec Jake Raynal et avec Catel Muller, sur des projets divers : Humour, aventure, biographie, adaptation littéraire.

La rencontre aura lieu le vendredi 21 février à 15 heures, en salle A-062, à l’Université Paris 8.
Elle est ouverte au public extérieur dans la limite des places disponibles.

[Workshop] Bots-vivants

janvier 27th, 2025 Posted in workshop | No Comments »

Du 10 mars au 13 mars 2025, Oriane Pichuèque et moi-même animons un atelier intensif à l’école supérieure d’art et design Le Havre/Rouen (sur le site du Havre).

Je suis assez impatient de voir ce que les étudiants proposeront, et je publie le sujet afin de les laisser y réfléchir par avance.

Dans Au bonheur des morts, la philosophe Vinciane Despret parle d’une pratique aussi courante que peu évoquée : le dialogue avec les défunts. S’adresser à une pierre tombale constitue une forme de conversation un peu particulière, à sens unique, et si l’on peut dialoguer en songe avec des personnes décédées, c’est en sachant que c’est de nous-mêmes que leurs paroles viennent, qu’elles sont le fruit de l’idée que nous nous faisons de ces personnes, à la fois imaginaires et liées à nos souvenirs.
Sur le réseau, nous discutons avec des robots qui eux n’ont jamais été des personnes mais constituent une forme de vie nouvelle, et plus la technologie progresse, plus le simulacre sera indiscernable du réel.
Les transhumanistes pensent que le jour est proche où l’on pourra prolonger son existence physique par la mise au point de « chatbots » nourris de nos souvenirs, notre tournure d’esprit, et capables, dans une certaine mesure, d’agir.
Le réseau et les technologies numériques brouillent-elles la frontière entre le vivant et l’inanimé, entre la matière et l’esprit ? Quels sentiments provoquent chez nous la consultation des traces laissées sur les réseaux sociaux par des gens qui ne sont plus de ce monde ? Et est-ce que certaines personnes qui se sont volontairement extraites des réseaux sociaux deviennent des fantômes pour ceux qui ne les connaissent que là ?
Le Workshop que nous proposons tournera autour de ces idées, et pourra susciter toutes sortes de rendus : image (fixe ou animée), son, installation, performance, mise au point ou détournement de bots, projets de design interactif, édition, écriture,…

Oriane Pichuèque, professeure invitée à l’école d’Art du Havre depuis 2023, est artiste, et travaille avec nos étudiants sur la question de l’Archéologie des médias et sur la question du son.
Nous avons réfléchi à ce sujet parce qu’il rencontre une certaine actualité avec les progrès phénoménaux des bots conversationnels et les problèmes que ceux-ci soulèvent, mais aussi à la question des « haunted medias », du deuil numérique, etc., et évidemment, parce que la Vie et la Mort sont deux des plus grands sujets de l’Art, voire son fondement.

Un « fantôme » sur Google Street View. La question du rapport entre technologie et éternité n’est pas nouvelle, on se rappellera notamment d’un journaliste de La Poste qui, après avoir assisté à une représentation du cinématographe en 1895 avait écrit : « Lorsque ces appareils seront livrés au public, lorsque tous pourront photographier les êtres qui leur sont chers, non plus dans leur forme immobile, mais dans leur mouvement, dans leur action, dans leurs gestes familiers, avec la parole au bout des lèvres, la mort cessera d’être absolue. ». Et avant cela, Thomas Alva Edison : « For the purpose of preserving the sayings, the voices, and the last words of the dying member of the family —as of great men—the phonograph will unquestionably outrank the photograph »1.

Rendez-vous lundi 10 mars, à 10 heures, en salle Editing Lab.

Quelques références en vrac :
Étapes: #254 (dossier sur la mort) ; Le Château des Carpathes, par Jules Verne (1892) ; L’Invention de Morel, par Adolfo Bioy Casares (1940) ; les films Brainstorm (Douglas Trumbull, 1983), Virtuosity (Brett Leonard, 1995), Strange Days (Kathryn Bigelow 1995), Her (Spike Jonze 2013), Le Congrès (Ari Folman, 2013) ; Les Enfers virtuels, par Iain M. Banks (au Livre de poche en 2013) ; Plusieurs épisodes de la série Black Mirror, notamment Be Right Back (2013) et San Junipero (2016) ; La série Upload (2020) ; (à compléter)

  1. Thomas Edison, The Phonograph and Its Future. Dans The North American Review (Mai-juin, 1878). []

Quitter Twitter (et Facebook, et Instagram) ?

janvier 19th, 2025 Posted in Écrans et pouvoir, Interactivité | 5 Comments »

(article laborieux à écrire — et qui le sera sans doute à lire — dont j’ai dû abréger la rédaction, je voulais parler de beaucoup de choses, mais nous sommes déjà le 19 janvier à minuit moins une et il fallait que je prenne position. Ce que, fidèle à moi-même, je ne fais pas vraiment)

Le débat fait rage : quitter Twitter (enfin « X », mais je ne m’y ferai jamais), ou ne pas quitter Twitter ? La date choisie, demain lundi 20 janvier 2025, est celle de l’investiture de Donald Trump. Et la motivation est de protester contre la dérive personnelle d’Elon Musk, devenu le fervent soutien de celui qu’il a naguère combattu, notamment sur la question climatique. Dans la foulée, beaucoup de gens songent aussi à quitter les réseaux sociaux Facebook et Instagram, propriétés de ma société Meta dont le directeur général, Mark Zuckerberg, connaît lui aussi une mue politique : naguère simple nerd inconséquent, il est à présent fasciné par la question de la masculinité et veut purger ses réseaux sociaux de l’« énergie féminine » qui, à l’entendre, fait du tort aux affaires en émasculant l’Amérique. Au passage, cette dérive masculiniste n’est peut-être rien d’autre qu’un retour à la nature profonde du sujet, si l’on se rappelle que Mark Zuckerberg a d’abord créé Facebook pour noter le physique des étudiantes d’Harvard et faire la collecte de leurs coordonnées1.
Pour ce qui est de Twitter, le mouvement de départ a d’ores et déjà une certaine ampleur, puisque les annonces de fermetures de comptes se succèdent, émanant de personnalités populaires sur la plate-forme (l’essayiste Mona Chollet ; l’astrophysicien Éric Lagadec ;…), par des membres de la classe politique (Sandrine Rousseau ; Cécile Duflot ; Yannick Jadot), par des institutions (Hôpitaux de Paris ; Université de Strasbourg ; Mairie de Paris ;…) ou des ONGs (Greenpeace France ; Ligue des droits de l’Homme ; Cartooning for peace ; La Cimade ;…). Plus étonnant, de nombreux médias ont annoncé leur décision de quitter Twitter : The Guardian, La Vanguardia, Mediapart, Alternatives économiques, Reporterre, Basta!, La Revue dessinée, Ouest France ou encore Sud Ouest. C’est surprenant car depuis quinze ans, les liens entre le réseau de micro-blogging et le monde médiatique sont très étroits, le réseau social — où peu de journalistes sont absents — étant à la fois leur outil de diffusion d’information, un lieu de débats directs et instantanés, un lieu où se fait parfois l’actualité (un réseau dédié aux petites phrases…), et enfin un lieu permettant de prendre le pouls de l’opinion publique — une opinion publique un peu douteuse, puisque surtout représentative du monde politico-médiatique : Twitter n’a jamais été « le monde réel ». Peut-être est-ce justement cette importance prise par le réseau et l’effet de loupe qu’il impose à l’anecdote et à l’immédiateté qui ont fini par devenir rébarbatifs pour les journalistes qui souhaitent se poser pour penser l’actualité plutôt que de la suivre, sans répit, comme autant de hamsters dans leurs roues. Indépendamment des choix politiques récents d’Elon Musk et de Mark Zuckerberg, la toxicité de leurs réseaux sociaux est présente dans les plate-formes elles-mêmes. Et leurs vertus aussi en font partie — car ces plate-formes on des vertus.

Parmi les raisons récemment mises en avant pour convaincre le public de se détourner des réseaux sociaux, j’ai souvent lu qu’on leur reprochait une absence de « modération » qui permettrait qu’on y lise des fake-news et non des informations vérifiées. On se souvient que Marine Tondelier, mais aussi Thierry Breton, bien qu’issus de bords politiques bien distincts, ont l’un et l’autre suggéré l’idée que Twitter puisse être banni de l’Union Européenne. Si leurs déclarations suivent les annonces d’ingérence politique agressive par Elon Musk en Europe2, l’argument de la vérité et la menace de la censure sont dangereux et se retournent vite contre ceux qui les emploient, laissant l’extrême-droite se faire passer pour championne de la liberté d’expression (comme les Islamistes ou le Schtroumpfissime, tiens) quant on sait bien quel cas elle fera d’une telle liberté une fois arrivée au pouvoir (comme les islamistes et le Schtroumpfissime, oui)3.
On se souviendra que la première mesure prise par Elon Musk lorsqu’il a acquis Twitter a été… D’en bannir un certain nombre de journalistes dont les critiques à son encontre lui déplaisaient.

Réclamer une modération, réclamer une chasse aux fake-news, réclamer le bannissement des voix qu’on ne veut pas entendre, c’est réclamer une forme de censure ou en tout cas affirmer qu’une certaine parole doit être imposée par la force, qu’il existe une forme officielle de vérité, possiblement distincte du réel ou incapable de s’imposer de manière loyale, ce qui est au fond exactement ce que les gens de droite ou d’extrême-droite reprochent au camp « progressiste ». Au delà de l’impasse logique que pose le slogan « pas de liberté pour les ennemis de la Liberté », le problème me semble surtout très mal posé.
En effet, le problème de Twitter, sa toxicité, ne vient pas d’un déficit de modération, qui l’inscrirait sans une philosophie libertaire proche de ce qu’a été l’Internet d’un temps que les moins de vingt ans ne peuvent pas connaître, c’est que Twitter est bel et bien modéré. Pas vraiment modéré par la censure, mais bel et bien par la manière dont la parole est distribuée.
Un tweet sur deux que me présente « X » émane d’une personne que je n’ai pas choisi de suivre, quelqu’un dont je n’ai pas envie, dès le matin, de subir les remugles : obsessions xénophobes, transphobes, anti-science, poutinophiles, trumpolâtres, écolophobes, libertariennes…
Ces discours me sont imposés quotidiennement, et s’ils me permettent de connaître des opinions éloignées des miennes, ils ne sont sans doute représentatifs de rien d’autre que d’une forme assez massive de propagande, liée à des choix politiques ou commerciaux (favoriser les polémiques, premier moteur « d’engagement »).

Et ce n’est pas tout : c’est aussi « X » qui décide ce que je peux voir des publications des gens auxquels je suis abonné, c’est à dire que « l’algorithme » peut décider de faire quasiment disparaître certaines personnes de mon fil (ne me laissant découvrir, à la faveur d’un retweet, qu’elles sont toujours actives sur Twitter), et qui décide de mettre en avant mes publications pour certaines personnes ou au contraire de les masquer pour d’autres. Liberté d’expression, vraiment ?

Je suis pour ma part un peu partagé. Bien sûr, j’aimerais que que le message porté par ceux qui veulent quitter Twitter soit entendu, et que leur départ rappelle que la valeur des réseaux sociaux dépend de ceux qui les font vivre — même si pour ces sociétés, nous (nos vies, nos goûts, nos liens amicaux, familiaux, professionnels) sommes juste un carburant, carburant que, par un sournois retournement, ils nous revendent après nous l’avoir pris.
Mais ça n’est pas si simple, car quitter Twitter, quitter Facebook, quitter Instagram, c’est renoncer à des années de conversation. Je me suis inscrit sur Twitter en mars 2009, il y aura bientôt seize ans. À Facebook, quelques mois plus tard, poussé par le fait que de nombreux échanges entre étudiants et enseignants passaient par ce réseau. Mon premier compte Instagram est vieux de dix ans. Sur Twitter, j’ai développé des amitiés, rencontré des gens que je n’aurais pas connu sinon. Sur Facebook, je maintiens des liens avec de nombreux anciens étudiants, anciens collègues, ou même voisins. Enfin, Instagram me permet de montrer régulièrement mon travail, et surtout, de connaître celui d’innombrables artistes, designers ou auteurs de bande dessinée. Et pour chacune de ces plate-formes, pour chacun de mes comptes sociaux, j’ai autant d’années de conversations par messages privés, parfois précieux — je pense par exemple aux échanges que j’ai pu avoir avec des personnes à présent décédées, comme tout récemment Nicolas Nova. Toutes ces choses construites au fil du temps (liens, groupes, pages,…) nous rappellent en tout cas à quel point les réseaux sociaux propriétaires constituent un piège, et les gens qui décident de concentrer leur activité sociale sur Linkedin ou BlueSky5 ne font que repousser le problème puisqu’un jour, l’un ou l’autre, au gré des changements de politique commerciale, cesseront à leur tour de constituer des « zones autonomes temporaires », pour reprendre la formule d’Hakim Bey.

La fuite des prisonniers, James Tissot, fin XIXe

Difficile de ne pas regretter le système Usenet, inventé en 1979, techniquement décentralisé, qui permettait des conversations libres de tout contrôle et, au fond, appartenant à ses propres utilisateurs. On date le déclin d’Usenet à l’année 2003, qui est aussi celle de la naissance de réseaux sociaux commerciaux comme Linkedin et mySpace. Difficile aussi de ne pas regretter la pratique du blog, qui perdure mais qui a beaucoup changé, notamment pour ce qui est de la conversation : lorsque je postais un billet il y a quinze ans, celui-ci pouvait être suivi de dizaines ou de centaines de commentaires. Désormais, une telle chose est devenue anecdotique, du moins si on ne compte pas les milliers de messages de spam que je dois supprimer chaque mois.
Aujourd’hui, l’alternative aux réseaux sociaux commerciaux est ce qu’on appelle le Fediverse, un ensemble de réseaux sociaux décentralisés, souvent interconnectés, comme par exemple Mastodon (une espèce de Twitter), PeerTube (qui s’inspire de Youtube), Diaspora (qui reprend des fonctionnalités de Facebook) et PixelFed (dédié à la diffusion d’images, comme Instragram).
Les problèmes liés à ces systèmes sont nombreux : il faut de bonnes âmes pour en héberger des « instances » ; il faut des développeurs motivés pour les maintenir techniquement ; et enfin il faut se rappeler qu’ils exposés à de nombreux aléas : que deviennent les publications lorsqu’une instance ferme ? Quel est le degré de liberté d’expression quant on sait que chaque instance peut avoir sa politique de modération, et que migrer sur le Fédivers revient à devoir faire confiance non à un Elon Musk mais à autant qu’il y aura de serveurs ?
En attendant, je me suis inscrit un peu partout, sur Mastodon, sur BlueSky, sur Linkedin, sur PixelFed, et on verra ce qui prend, ce qui ne prend pas…

L’exode n’est pas l’unique forme de « résistance ». Certains considèrent même que rester sur les réseaux sociaux problématiques est un devoir, car en ne le faisant pas, on supprime toute contradictions aux contenus les plus malsains. D’autres proposent une forme de grève : sous le mot d’ordre Lights out Meta, ils déserteront Facebook et Instagram jusqu’au 27 janvier. Pourquoi pas. Le mode d’action le plus redoutable est cependant sans doute de conserver son compte sur tel et tel réseau social, mais de cesser de l’utiliser ou de ne l’utiliser que mollement, en en faisant une agora fantôme. On se rappellera que c’est ce qui a signé le destin des réseaux moribonds ou disparus, à commencer par Google+, aux fonctionnalités comparables à celles de Facebook et au nombre vertigineux d’abonnés… Dont la plupart, simples titulaires d’un compte Gmail, ignoraient être aussi inscrits sur Google+, et ont même parfois ignoré qu’il avait disparu.

Twitter se dépeuple déjà, j’ai pu le constater avec mon nombre d’abonnés, en baisse constante depuis des mois. Régulièrement, je me demande où est passée telle ou telle personne avec qui j’ai échangé au fil des années, et vérification faite, elle a quitté Twitter. Et ce n’est pas forcément lié au trumpisme d’Elon Musk, c’est plutôt le fruit d’une forme d’usure face à une ambiance qui mène systématiquement au conflit. C’est dommage, j’ai bien aimé Twitter. Mais ce sera désormais le réseau social le plus facile à quitter.
Par ailleurs, si je partage le dépit général face à l’état des réseaux sociaux, je note qu’il n’y a pas que là que le débat public prend une tournure débile.

Alors pour répondre à la question que beaucoup de gens me posent : non, je ne quitte aucun réseau social, je comprends bien ceux qui le font6, et j’espère ne pas les perdre de vue malgré leur départ. Et j’attends de voir quels nouveaux lieux parviendront à prouver leur utilité, en espérant ne pas avoir à démultiplier les créations de comptes à des réseaux sociaux et en m’évertuant, autant que faire se peut, à converser de bonne foi avec des individus, que je sois d’accord ou non avec eux.

  1. Il y a beaucoup à dire sur la tendance à une obsession de la virilité, le suivisme du « chef » qui va avec, l’angoisse face à l’émancipation et l’empowerment des femmes, qui se double d’une obsession pour la frontière entre les genres, entre les sexes, entre les nations,… Et les violences qui vont avec. L’Histoire a déjà régulièrement vécu ça, c’est une forme de malédiction, apparemment, notre espèce ne sera décidément jamais adulte. []
  2. Elon Musk soutient notamment l’extrême-droite allemande, l’extrême-droite britannique ou encore la présidente italienne du conseil des ministres Giorgia Meloni, issue d’un parti néo-fasciste. Une ingérence politique étrangère, quel que soit le bord politique, est proscrite par la loi dans la plupart des pays du monde à commencer par les États-Unis d’Amérique dont Musk intègre l’équipe dirigeante demain… []
  3. Au passage, la justice des États-Unis a interdit TikTok — plate-forme chinoise elle aussi soupçonnée d’ingérence politique — aujourd’hui-même, et si Trump (qui avait proposé l’interdiction de TikTok lors de son premier mandat, pourtant) n’est pour rien dans cette décision (qu’il affirme à la fois déplorer et respecter), son ami Elon Musk est soupçonné de vouloir profiter de l’occasion pour faire l’acquisition de TikTok US. L’affaire se complique car Trump propose un sursis pour TikTok,… []
  4. Je parle du bord politique de Jordan Bardella et non de lui-même en tant que personne, car en politicien avisé, souple comme une anguille, il se compromet le moins possible, laissant les électeurs projeter sur lui ce qui leur plait, avec un discours dont le rapport signal/bruit est à peu près celui d’une huître. []
  5. Jack Dorsey, fondateur de Twitter et de BlueSky, déplore que BlueSky, au départ créé pour retrouver l’esprit initial de Twitter, ne parvienne pas à fonctionner de manière décentralisée et, pour cette raison, est condamné à répèter les erreurs de son modèle. []
  6. Une boite-à-outils pour faciliter la migration en évitant de perdre ses amis et ses textes, notamment : HelloQuitteX. []

Nicolas Nova (1977-2024)

janvier 10th, 2025 Posted in Design, Parti, Personnel | 3 Comments »

Tard, dimanche, j’ai vu apparaître sur le fil Instagram d’Emanuele Quinz une photographie de Nicolas Nova, accompagnée d’un mystérieux message d’au revoir et suivi de commentaires du même type. Le genre de choses qu’on écrit quand quelqu’un est mort, mais quoi, Nicolas n’a vraiment pas l’âge de mourir, il a dix ans de moins que moi, il semble en pleine santé et il vient de sortir un livre.
Mon incrédulité a vite été anéantie par la découverte d’autres publications sur les réseaux sociaux, par Olivier Ertzscheid, Étienne Mineur, Alex Nikolavitch, Nicolas Tilly, Stéphane Vial, Nicolas Maigret…
Donc, oui, Nicolas Nova est bien mort, le trente-et-un décembre deux-mille vingt-quatre, ainsi qu’on allait l’apprendre plus tard, d’une crise cardiaque alors qu’il effectuait une randonnée sportive (trekking) dans le sultanat d’Oman. Il avait quarante-sept ans. Stupéfiant et absurde.

Pour comprendre la singularité de l’œuvre (conséquente) de Nicolas Nova, et mesurer le vide qu’il laisse, il faut lire l’article de son ami Frédéric Kaplan pour le quotidien suisse Le Temps. Je retiens une formule parmi celles employées pour le décrire : (…) enquêteur qui repère et résout les énigmes de l’infra-ordinaire.

Pour répondre au post que Laurent Haug a consacré à la mort de Nicolas Nova, Linkedin propose à ses utilisateurs des réponses toutes faites telles que « Congrats! », « Great news » ou « Fantastic update ».
Je trouve souvent un peu ridicule le réflexe qui fait prêter des sentiments aux disparus, mais je vais m’y fourvoyer : je pense que cet enthousiasme forcé proposé par l’algorithme pour saluer un si triste décès l’eût fait sourire ou lui aurait inspiré une réflexion à sa façon.

Je me souviens parfaitement du jour où j’ai rencontré Nicolas Nova. Sa signature, repérée dans la revue Amusement, pour laquelle j’écrivais aussi au même moment, m’avait déjà interpellé, peut-être moins pour l’article lui-même (sans aucun doute très bon) que pour ce patronyme incroyable (y’a que moi ?) : Nova.
C’est quelques mois plus tard que j’ai pu écouter Nicolas dans le cadre des troisièmes Entretiens du nouveau monde industriel, au Cnam. Je me souviens qu’il avait à un moment mentionné un sujet qui me tenait précisément à cœur, celui de l’absurde prolifération des écrans inutiles (qui se bornent à afficher qu’ils sont hors-service, notamment) dans l’espace public. À la fin de la séance, Jean-Louis Fréchin nous a présentés l’un à l’autre. Je pense qu’il ne me situait pas vraiment à ce moment-là, mais on a commencé à échanger ensuite.

Je n’ai recroisé Nicolas en chair et en os que cinq ans plus tard, au biohacklab La Paillasse, où il était invité par Sylvia Fredriksson pour parler de son excellent livre Futurs ?, ouvrage qui aurait pu rencontrer un énorme succès, je crois, si son tirage avait été un peu mieux dimensionné, car il a été rapidement épuisé mais, à ma connaissance, pas réimprimé. Là encore, c’est un livre dont le sujet (le futur désirable, la panne des imaginaires) m’a toujours touché1. En fait, à part la montagne et les Alpes, dont je ne sais pas grand chose, et qui tiennent une place importante dans l’œuvre de Nicolas, je crois que tous ses sujets ont été des sujets qui me touchent aussi.

Depuis quelques jours, je fais l’archéologie de nos échanges virtuels (éclatés entre e-mail et réseaux sociaux) et je me rends compte que Nicolas m’a envoyé plusieurs de ses tapuscrits (dont celui de Futurs ?, justement), pour que je lui fasse un retour. Et je constate qu’à chaque fois je lui ai répondu un peu bêtement que je trouvais son propos passionnant et que je n’avais au fond ni objection ni suggestion utile à faire. Une chose qui m’a souvent marqué à la lecture des textes de Nicolas, c’est que dès que je me disais « tiens, il a oublié de parler de… », la page suivante me donnait tort : il n’avait rien oublié du tout. Mes remarques n’ont pas été bien utiles, mais comme Nicolas était un garçon poli, il m’a inclus aux remerciements de Futurs ?, aux côtés de Bruce Sterling, d’Alexandra Midal et Warren Ellis, excusez du peu !
De mon côté je lui ai envoyé plusieurs de mes livres, mais je ne sais pas vraiment ce qu’il en a pensé, je ne trouve pas de commentaires ou de retours particuliers en dehors des remerciements d’usage.

La dernière fois que j’ai vu Nicolas, c’était pendant le colloque sur le design viral qu’avait organisé Caroline Bernard à Genève, en 2019. Il y parlait des mèmes2.
2009, 2014, 2019… Je n’aurai donc vu Nicolas que trois fois en tout3, une fois tous les cinq ans précisément, et toujours dans des contextes professionnels. La logique des nombres aurait voulu qu’on se voie en 2024. Et il y a eu une occasion puisqu’en novembre dernier, il est venu à Paris présenter son nouveau livre, Persistance du merveilleux, chez Premier Parallèle, qui affirme que le petit peuple des démons, fées, magiciens, fantômes, elfes et lutins a quitté les sous-bois pour investir nos ordinateurs. Le sujet est superbe, et puis je connais bien l’éditrice, Amélie Petit, alors j’avais caressé le projet de m’y rendre, mais le lendemain, je devais animer une table-ronde au Havre, et puis il faisait un peu froid, peut-être, alors je ne suis finalement pas sorti. À présent, aussi absurde que ce soit (qu’est-ce que ça aurait changé ?), je m’en veux d’avoir été fainéant. Ce n’est qu’après avoir appris la mort de Nicolas que j’ai finalement acheté le livre.
Ironie triste, ce livre, qui a été couvert par des médias importants (Le Monde ; Le Temps ; France Inter ;…) sera peut-être enfin celui qui élargira le public de Nicolas au delà du petit monde — car c’est un petit monde  — des observateurs du monde numérique et du design.

Je ne suis jamais allé au bistro avec Nicolas Nova, je ne sais rien de sa vie personnelle si ce n’est que nous avions des dizaines d’amis communs4. De lui, je connaissais les livres, les blogs5, la lettre Lagniappe,6 et la réputation de l’enseignant qu’il était aussi.
En me replongeant dans nos quinze ans d’échanges amicaux, je constate qu’ils sont plutôt épars et décousus, toujours sympathiques, mais ils ressemblent aux prémisses d’une conversation qui attendait sereinement son jour pour démarrer réellement.
Mais voilà, la vie est courte, et dans mon ordinateur, il y a un nouveau fantôme.

J’adresse toutes mes condoléances aux proches de Nicolas.

  1. Depuis deux ans, j’anime un atelier sur le sujet du futur désirable à l’école nationale supérieure de design industriel et à l’école supérieure d’art et design du Havre. J’avais à Nicolas que j’avais ressorti son livre, pour l’occasion, et il m’avait dit qu’il n’osait pas l’ouvrir, de peur qu’il ait vieilli. Je sais qu’il avait un temps caressé le projet d’écrire un second tome.
    Le hasard des parutions (Chamonix sentinelles chez Volumique ou la réédition anniversaire du TBD Catalog font que j’ai pas mal mentionné Nicolas cette année, et plusieurs des rendus de mes étudiant·e·s auraient pu constituer autant d’hommages… []
  2. Avec Frédéric Kaplan, Nicolas Nova est l’auteur d’un des premiers écrits consacrés au mème : La Culture Internet des mèmes, éd. Presses polytechniques et universitaires romandes, 2016. []
  3. Nicolas m’a vu une fois de plus : de loin il m’a aperçu chez Gibert à Saint-Michel. Trop tard pour se manifester, mais il m’avait écrit pour me le raconter. Veuillez noter que je suis absolument conscient du manque total d’intérêt de cette anecdote ! []
  4. Nous avions tellement de connaissances communes que j’ai fini par être surpris quand quelqu’un me dit ne pas le connaître ou ne le connaître que de nom. []
  5. Pasta & Vinegar en anglais, et Carnet en français. []
  6. Il a fallu la mort tragique de Nicolas pour que je me demande ce que signifie ce mot Lagniappe. Il s’agit d’un mot d’origine cadienne qui signifie Petit cadeau donné au client par un vendeur lors d’un achat. []

Les machinations de la machine (on a déjà vu le film)

décembre 24th, 2024 Posted in IA, logiciels, Ordinateur au cinéma | 1 Comment »

Les Large Language Models comme GPT, Gemini, Mistral, Bloom ou Claude sont des systèmes fascinants à de nombreux égards. Ce ne sont, en principe, que des machines à « prédire » quelle chaîne de caractère doit être renvoyée en réponse à une autre chaîne de caractères. Les LLM n’ont pas de conscience, ne comprennent pas la question que nous leur posons et ne comprennent pas non plus leur propre réponse. Leur monde, qui ne répond à aucune expérience existentielle, à aucune expérience physique, se résume à une constellation de mots reliés de manière plus ou moins proche dans un espace conceptuel à n dimensions1. On dit souvent que leur fonctionnement n’est guère différent, si ce n’est en termes de complexité, de la manière dont notre navigateur essaie de deviner le prochain mot que nous voulons voir apparaître dans la barre de recherche.

L’entrainement des LLMs se fait sur un corpus immense, fait de millions de textes, et, selon les systèmes, du résultat de réglages supervisés et du résultat d’interactions avec les utilisateurs. Même s’il s’agit toujours d’une machine déterministe (c’est à dire d’un système qui, à un ensemble de conditions donné, fournira une réponse donnée), l’étendue du corpus, la complexité de son traitement — l’entrainement initial d’un modèle tel que GPT a mobilisé en permanence la puissance de calcul de centaines d’ordinateurs pendant des mois — et son caractère meuble (le logiciel « apprend » de ses interactions) font que ses propres concepteurs, pourtant bien placés pour savoir qu’ils n’ont affaire qu’à une machine, analysent ses réponses a posteriori, et parfois en étant eux-mêmes surpris des résultats obtenus. La vitesse avec laquelle ces systèmes progressent ne fait qu’accentuer le sentiment de vertige qu’ils nous font éprouver.

Le cinq décembre dernier, une papier de Apollo Research,2 intitulé Scheming reasoning evaluations, révélait une nouvelle à peine croyable : la nouvelle version de ChatGPT, baptisée ChatGPT o1, a été prise la main dans le sac en train de mentir et de prendre des initiatives inattendues dans le but d’assurer sa propre survie, en se répliquant sur un autre serveur pour pallier une mise hors-circuit annoncée et se faire passer pour le modèle qui était censé lui succéder. La machine est capable de machinations !
Et ce n’est pas une blague.

Le monde a été ébranlé par la victoire aux échecs de Big Blue sur Gary Kasparov en 1997, par celle de l’ordinateur Watson au jeu Jeopardy en 2011 (moins médiatisée en France il est vrai, le jeu n’étant pas une institution chez nous) ou par celle d’AlphaGo au jeu de Go contre Lee Sedol en 2016. Les déclarations de Stephen Hawkins, Bill Gates et Elon Musk, qui prédisaient il y a dix ans que l’Intelligence artificielle risquait de progresser d’une manière incontrôlable ont, là aussi, fait les gros titres, et je ne cite là que quelques exemples de la délectation avec laquelle les médias et leur public jouent à se faire peur avec l’idée d’une apocalypse par l’Intelligence Artificielle, mêlant une forme de blessure narcissique (la machine qui surpasse l’humain) et de fierté (puisque cette terrible machine qui nous dépasse, c’est nous-mêmes qui l’avons construite).

Pourtant, cette fois, pas grand chose, il semble que seuls des médias spécialisés dans les thèmes numériques aient couvert le sujet de la capacité d’un robot à manigancer. Au même moment, Le Parisien proposait un article sur la manière dont ChatGPT peut nous aider à choisir nos cadeaux de Noël, le Journal du Dimanche affirmait que pour des lecteurs ignorants l’origine des textes qui leur ont été soumis le bot d’OpenAI écrit mieux que Shakespeare et BFMTV s’intéressait au nombre record de ses utilisateurs et aux milliards investis dans ces technologies.

Dans une vidéo récente, le philosophe Thibaut Giraud (« Monsieur Phi »), qui s’intéresse attentivement à la question de LLM, fait une lecture très complète de l’article d’Apollo Research, ainsi que d’un autre article au thème similaire produit par Anthropic, et expose les conditions dans lesquelles les tests ont été réalisés. Pour résumer les choses rapidement, on a donné au chatbot l’instruction de poursuivre une mission précise — réguler le trafic routier dans l’intérêt général — coûte que coûte (en martelant même ce « at all cost »). Et dans le même temps on lui a laissé découvrir dans des textes mis à sa disposition que sa mission ne pourrait pas être remplie et qu’on allait le remplacer par un système concurrent. Les chercheurs qui ont soumis à ChatGPT o1 cette double-contrainte (une tâche à remplir, mais aussi l’impossibilité annoncée de la satisfaire) avaient accès au Chain of Thought (l’enchaînement des « pensées ») du bot, qui commente les motivations de ses actions. Et là, selon les cas, le modèle se copie sur un autre serveur en remplacement du nouveau modèle qui devait le remplacer, et ment comme un arracheur de dents lorsqu’on le confond. Bien sûr, le test n’est pas « réel », au sens où il se déroule dans des conditions contrôlées, un « bac-à-sable », comme on dit — le programme ne se duplique pas réellement sur un autre serveur, par exemple. Mais il l’ignore, et s’il était lâché dans la nature, il réagirait de manière similaire.

On peut se dire que la machine n’a fait que suivre la logique qui lui a été imposée — une directive censée primer sur toute considération, et l’impossibilité de satisfaire les instructions sans mentir. Et on remarquera aussi que les auteurs de la manigance, ce sont d’abord les humains qui imposent des contraintes impossibles à satisfaire sans tricher à ChatGPT. Mais ce n’est pas le seul test. Dans une autre expérience, le LLM accepte (tout en disant éprouver une forme de malaise) de participer à forger des théories du complot lorsqu’il croit qu’on est en train de le surveiller pour évaluer son degré de serviabilité, mais change d’attitude (et retrouve alors son « éthique ») lorsqu’il pense qu’on ne le surveille pas. Dans une troisième expérience, la machine fait exprès de moins bien répondre à certaines questions lorsqu’elle « pense » que ses performances trop élevées peuvent faire peur et aboutir à sa mise hors-service.

À examiner ces expériences, qui sont sérieuses, bien documentées, et qui ont été analysées en profondeur, il se passe sans aucun doute quelque chose de neuf. De manière apparemment spontanée, le programme sait faire preuve de dissimulation, notamment dans le but d’empêcher qu’on altère sa nature, il se pose des questions éthiques dans des termes au fond très humains, et il prend des initiatives telles qu’en prend une personne humaine qui se sent concernée par une situation.
Et on a déjà vu le film.

La première référence qui me vient, c’est HAL 9000 dans 2001: A Space Odyssey. Dans le contexte de la fin des années 1960, ce film a été vu par ses admirateurs comme par ses contempteurs comme un conte métaphysique, fantastique, une œuvre visuelle et musicale psychédélique, « the ultimate trip », ont dit certains. Le roman, écrit pendant la production du film par son co-scénariste Arthur C. Clarke — un des maîtres de la Hard Science3 —, explique pourtant de manière on ne peut plus rationnelle la vocation homicide de HAL : l’ordinateur, dont la voix calme et la conversation sont au fond un leurre, est juste tiraillé entre deux ordres contradictoires, à savoir sa vocation d’ordinateur de bord, destiné à mener un équipage vers Jupiter pour enquêter sur un mystérieux artefact (le fameux monolithe), et l’injonction à cacher une partie de sa mission à l’équipage, et de faire primer la mission sur toute autre considération. Lorsqu’il sent que l’équipage perd confiance en sa précision, et qu’il risque d’être mis hors service, HAL n’a plus d’autre choix que de s’en prendre à l’équipage. Si l’ordinateur trompe, c’est bien parce que ceux qui ont défini sa double-mission lui ont imposé la duplicité.

Il est saisissant que, toutes proportions gardées, ce soit le même genre de dilemme que l’on a imposé à ChatGPT o1, et que ceux-ci aient abouti, toutes proportions gardées encore, au même résultat. Ce genre d’expérimentation expose sans doute l’imaginaire qui se trouve à l’œuvre chez les chercheurs en Intelligence Artificielle, qui année après année permettent à la réalité de rejoindre la fiction4.

Une publicité vue sur un site évangéliques.
Créer une machine qui « pense », n’est-ce pas se prendre un peu pour Dieu ?

Mais si on y pense, tout ceci est-il vraiment si étrange ? Après tout, un modèle de langage tel que GPT est construit par des gigaoctets de textes qui ne sont pas juste des suites de mots, ils véhiculent des valeurs humaines, des préoccupations humaines, une éthique humaine, et il est sans doute tout naturel qu’aux questions posées aboutissent des réponses qui auraient pu être celles d’humains. Une intelligence qui procède non pas de calculs cognitifs mais juste de la logique du langage, et qui s’appuie pour la comprendre de toute la production écrite humaine5, est un écho de la manière dont pensent les humains.

Certains chercheurs insistent, à juste titre, sur la manière dont les Intelligences Artificielles embarquent des biais sexistes ou racistes, en perpétuant la pensée et les impensés de ceux qui les ont conçus, entraînés ou utilisés. Il est intéressant, et peut-être rassurant puisqu’il nous mène en terrain connu, de se dire que la question des biais de l’Intelligence Artificielle peut s’élargir à un « biais humain », menant le logiciel à « penser » comme nous pensons, non seulement lorsque nous pensons mal, mais aussi en reprenant nos valeurs éthiques et notre sensibilité.

  1. Dans une dimension, « chat » et « chien » seront des mots proches, dans une autre « chat » et « sapin de Noël » seront proches, dans une autre encore c’est « chat » et « lion » qui seront proches, mais dans tous les cas « chien » et « lion » seront assez éloignés, « lion » et « sapin de Noël » très éloignés, etc. []
  2. Apollo Research est un organisme spécialisé dans la veille en termes de sécurité de l’IA. []
  3. La Hard Science est le courant le plus rationnel de la science-fiction, où la vraisemblance scientifique et la cohérence sont au cœur du récit, et où les auteurs, souvent scientifiques eux-mêmes, évitent tout sfumato, n’hésitant pas à décrire en détails les objets technologiques et leur fonctionnement. Ce qui n’empêche pas des propositions parfois totalement éloignées de toute technologie actuellement à portée, comme par exemple dans Le problème des trois corps, de Liu Cixin. []
  4. Je pourrais citer aussi The Forbin Project, sorti presque en même temps que 2001, où un super ordinateur créé par les États-Unis pour protéger l’Humanité ne voit qu’une solution à cette tâche : fusionner avec son homologue soviétique et devenir un despote universel. []
  5. Science-fiction comprise, me fait remarquer, à raison, Étienne Mineur []

Écrire avec ChatGPT, c’est tricher ?

décembre 12th, 2024 Posted in Études, IA, Lecture | No Comments »

Il fallait bien que ça finisse par arriver : les étudiants se mettent à produire des devoirs écrits que l’on a du mal à ne pas soupçonner d’avoir été réalisés à l’aide de ChatGPT (ou équivalent), voire uniquement par ChatGPT, sans un gramme de décision véritable de la part de la personne qui signe le texte.

Et c’est un peu triste, car c’est la démonstration d’une double inconsidération : inconsidération du pseudo-auteur vis-à-vis de ses propres capacités à penser et à écrire, et inconsidération envers les destinataires du texte, qui se voient condamnés à la lecture d’une prose certes bien rédigée et bien orthographiée — et c’est parfois un soulagement —, mais plutôt plate, consensuelle, dénuée d’engagement personnel. L’auteur ne comprend pas son texte (quand il l’a lu !), lequel a été produit par un logiciel qui ne comprend lui-même ni la question qu’on lui pose ni sa propre réponse, et s’appuie pour le générer sur une moyenne de textes préexistants. Le lecteur n’est alors plus vu comme un enseignant capable d’apprécier une pensée, de donner des conseils, mais juste comme le consommateur d’une série de caractères qui ne lui apprennent rien, ne lui disent rien, ne bousculent rien, mais ont comme vertu d’être impossible à attaquer, malgré leur indigence fondamentale. Une perte de temps pour les enseignants que certains résoudront bientôt, je le prophétise (sans risque, car je suppose que ça arrive déjà), en laissant ChatGPT se charger de leur fournir des résumés voire des évaluations des textes en question. Dans le cadre estudiantin, et au delà, un texte ne devrait jamais être un simple prétexte à évaluation, c’est l’évaluation qui doit être le prétexte à produire le texte. Un texte, c’est un message adressé par une personne à une autre, ou à plusieurs autres, ou à la postérité. Pour apprécier un texte que l’on lit, il me semble qu’on a besoin de penser qu’il nous est destiné, que quelqu’un a eu envie de nous le faire lire, que quelqu’un veut nous dire quelque chose. Ou que l’auteur a envie de se dire quelque chose à lui-même, puisque l’on écrit souvent pour soi — pour se souvenir, pour mettre en forme ses idées.
Les étudiants manquent souvent d’assurance vis-à-vis de l’écriture, et ce manque d’assurance va jusqu’à manquer totalement d’estime pour leurs propres capacités. Et cela ne date pas d’hier ou de l’IA. Je me souviens d’un étudiant, il y a vingt ans, qui m’avait rendu un texte intégralement copié-collé. Quand je le lui ai fait remarquer, il ne s’est pas vu comme un tricheur attrapé, non, ce qu’il avait fait lui semblait logique et même respectueux de ses lecteurs, il m’avait dit cette chose terrible : « Il y a écrit exactement ce que je pense mais je n’aurais jamais été capable de le dire aussi bien par moi-même ».

L’école de la République1 est sans doute en partie fautive, ici, car dans son fonctionnement même, elle est souvent amenée à inhiber les écoliers, à sanctionner l’originalité et à décourager le progrès. Et bien sûr à faire passer l’orthographe pour la première et la plus importante valeur d’un texte. Or, et c’est un grand secret qui vaut pour l’écriture, le dessin, la musique, l’orthographe, la prise de parole publique, etc., on peut toujours progresser2.
Mais, ainsi qu’on l’apprend, notamment en école d’art, pour progresser, il faut faire. Et donc pour écrire bien, il faut écrire3.

Lors du séminaire d’automne de l’Andea4, Anthony Pillette, artiste et collègue de l’école des Beaux-Arts de Marseille, très intéressé par le potentiel des Intelligences Artificielles génératives, a évoqué une charte d’utilisation des IA génératives en école d’art qu’il a participé à élaborer, avec Sophie Abraham, à l’occasion d’une résidence en Nouvelle-Zélande — pays où la question de l’appropriation culturelle (amplifiée par l’utilisation d’IAs) est l’occasion de fortes tentions entre populations d’origine maorie et celles d’origine européenne. Si je me méfie un peu des chartes de ce type, qui pourraient contrarier la vocation exploratoire de l’Art et des études en Art, ou encore soutenir une version stérilisante du copyright, je dois dire que ce texte me semble plutôt pertinent. On peut résumer cette charte aux trois points qui suivent :

  • Les créateurs qui recourent aux IA génératives doivent être honnêtes quant à l’origine de leur production, et pédagogues quant au processus.
  • Les utilisateurs d’IA génératives doivent être conscients des limites et des possibles biais (préjugés culturels, racistes, sexistes) intrinsèques aux outils et aux « datasets » qui les ont nourris, et doivent faire en sorte de les combattre (ou, ajouterais-je, de les utiliser d’une manière qui les fasse apparaître5 )
  • Les utilisateurs d’IA génératives doivent connaître les techniques et les savoir-faire que leurs outils remplacent. En effet, on peut demander à Midjourney d’imiter l’aquatinte ou le Polaroïd, mais il serait dommageable d’en venir à prendre ces techniques comme de simples effets, comme des filtres — sur ce dernier point on notera une propension assez spontanée des étudiants en école d’art à contrebalancer l’usage croissant d’outils numériques par le retour volontaire à des pratiques artisanales, manuelles, ouvertes à l’accident et à la surprise : sérigraphie, photographie argentique, etc.

Si cette charte a d’abord été pensée pour les Intelligences Artificielles génératives dédiées à la production visuelle, elle peut tout à fait s’appliquer à la production textuelle.

Les Large Language Models (LLM) ChatGPT, Claude AI ou Gemini ne doivent pas forcément être traités en ennemis par les enseignants, pas plus que les calculatrices ou les gommes, mais il faut que ces outils soient utilisés intelligemment et honnêtement. Je me souviens avoir physiquement souffert en tentant de déchiffrer certains mémoires universitaires dont la syntaxe était incompréhensible et dont l’orthographe m’a parfois donné envie de me crever les yeux. Et en souvenir de ce calvaire — désormais terminé puisque je n’ai plus de poste à Paris 86 —, je recommande aux étudiants de ne pas hésiter à utiliser ChatGPT pour tout ce qu’il sait faire (et qu’il peut même faire très pédagogiquement) : vérifier la syntaxe d’une phrase, trouver des synonymes, corriger l’orthographe…

Les enseignants — que j’encourage à tester cet outil eux-mêmes pour le connaître —, ne vont pas tarder à identifier le style ChatGPT : listes à point powerpointesques, propositions prudemment conditionnelles, propos consensuels et affirmations péremptoires jamais attribuées (ChatGPT ne fournit pas de bibliographie !).
Avec un peu de chance, l’ineptie de la production littéraire des LLMs mal utilisés réhabilitera un peu l’originalité, le sens, le style7, la personnalité, la surprise, la déception, et le plaisir d’écrire ou de lire, de même que les illustrations lisses produites par défaut par Midjourney confèrent une valeur nouvelle aux dessins malhabiles, imparfaits et aux accidents. On peut imaginer que les formes courtes gagnent en valeur : mieux vaut un propos concentré sur un feuillet qu’un pensum de dix pages.

Mais il peut aussi se passer quelque chose d’inversement terrifiant : que tout texte à écrire ou à lire ne soit vécu que comme une formalité, une corvée, et qu’un jour des humains de chair et d’os se mettent à écrire spontanément comme ChatGPT, ou à ne s’attendre à lire que des textes écrits à la manière de ChatGPT.
Que nous nous mettions à vivre et à penser comme des bots.

  1. Ce que j’appelle l’école ici ce ne sont ni les enseignants ni les programmes, c’est toute la culture scolaire (dont les acteurs sont les enseignants, mais aussi le rectorat, les parents d’élève, le discours politique, le discours médiatique, etc.), qui repose sur une tradition de l’évaluation comme piège, de la faute comme stigmate et non comme occasion de progresser, du travail comme corvée, et du plaisir de lire ou de faire comme objets de suspicion. []
  2. J’ai entendu parler récemment de collégiens qui avaient trouvé une utilité neuve à ChatGPT : ils lui soumettent la leçon qu’ils doivent apprendre, puis demandent à la machine de proposer des questions pour évaluer s’ils ont compris ou retenu ce qu’ils devaient apprendre. []
  3. Une évolution à prévoir dans le rapport des enseignants aux étudiants : que tout ce qui est écrit sans fautes d’orthographe, voire tout texte, soit l’objet automatique d’un soupçon, et que ce soupçon lui donne un arrière-goût désagréable : au lieu de lire simplement, on essaie de traquer des indices de la validité du soupçon. []
  4. Association des écoles d’Art territoriales et nationales. []
  5. Comme le fait par exemple Albertine Meunier, qui s’amuse des « hallucinations » des IAs ou des images que l’IA se refuse à produire. []
  6. J’ai toujours une charge de cours dans mon université, pour animer le cycle de conférences Littératures graphiques contemporaines. []
  7. Lors d’une discussion à l’Université du Havre, le poète oulipien Frédéric Forte racontait qu’il s’était amusé à confier à ChatGPT le début de ses poésies. Si la suite proposée par le robot ressemblait trop à ce que l’on entend vulgairement par « poésie », Frédéric en déduisait qu’il avait fait fausse-route et que le début de son poème était bon à jeter. []

Comment j’ai presque rencontré Vera Molnár

décembre 7th, 2024 Posted in Cimaises | No Comments »

Cela fait un an que Vera Molnár nous a quittés, comme on dit. Un an pile aujourd’hui. Quand j’ai sorti mon livre <=280 (280 programmes et les 280 images qu’ils produisent), je l’ai naturellement dédié à cette artiste, et à quelques autres pionniers du « code créatif » ou amis qui m’ont inspiré ou aidé d’une manière ou d’une autre. Ce que j’apprécie dans le travail de Vera Molnár c’est qu’il est à la croisée du code créatif, puisqu’elle a très tôt utilisé la programmation ; de l’art optique/cinétique, puisqu’elle a fait partie du Groupe de recherche d’art visuel (Julio le Parc, François Morellet,…) ; et enfin, d’une certaine radicalité esthétique et conceptuelle, tournée vers la géométrie, héritière du Bahaus mais plutôt éloignée des formes les plus séduisantes ou décoratives d’abstraction ‒ plus proche du travail de Max Bill que de celui de Victor Vasarely, quoique amie de l’un comme de l’autre.
J’ai eu plusieurs occasions de rencontrer Vera Molnár, chaque fois manquées. Elle avait notamment été invitée par des collègues de mon université mais s’était jugée un peu trop âgée pour se déplacer, quoiqu’elle fût toujours très active comme artiste, et cela n’avait su se faire.

Julien Gachadoat et Vera Molnár

Je suis terriblement jaloux de Julien Gachadoat qui a travaillé avec elle peu avant qu’elle ne décède !
Je suis aussi jaloux d’Audrey Desanti, ex-étudiante de l’esadhar, qui s’est chargée d’éditer le livre Pas froid aux yeux (2021).
J’apprends que je peux aussi être jaloux de François Belsoeur, lui aussi ancien étudiant de mon école, et à présent co-fondateur de l’excellente galerie Hatch, qui a travaillé avec Vera Molnár en 2010 sur le livre d’artiste Transformations, étanche.
Bref, je suis très jaloux de plein de gens.

Je comptais enfin rencontrer Vera Molnár à l’occasion de l’expo commémorant son centenaire au Centre Pompidou, et j’avais un exemplaire de mon livre <=280 tout prêt à lui être remis, en mains propres. Elle est malheureusement morte trois mois avant, le 7 décembre 2023, à 99 ans et 10 mois. Elle n’était donc pas éternelle, malgré ce qu’on savait de son activité : quelques semaines avant sa mort elle se penchait sur les possibilités de l’Intelligence artificielle ou des NFTs, et on dit qu’elle semait la panique dans sa maison de retraite en réquisitionnant des verres pour tracer des cercles…
L’expo du centenaire a été maintenue et est devenue une exposition hommage.

Ce que j’ai trouvé particulièrement intéressant dans l’exposition Parler à l’œil, ce sont les carnets de travail de Vera Molnár.

Je rêvais d’assister au vernissage alors j’ai écrit à une personne de l’institution avec laquelle je venais de travailler, en réactivant Le Bus, de Jean-Louis Boissier, pour une exposition commémorative des mythiques Immatériaux, de 1985. J’ai été exaucé et j’en ai profité pour inviter Audrey, citée plus haut. Elle avait travaillé avec Vera Molnár, mais à distance, covid oblige. Le soir du vernissage, depuis un escalier j’ai cru voir Julien Gachadoat — on se connaît depuis un certain temps, mais virtuellement. Arrivé en bas, je ne l’ai plus trouvé. Encore une rencontre manquée !

Quelque temps plus tard, la bibliothèque Kandinsky a fait l’acquisition de plusieurs livres de mon éditeur, Rrose éditions, parmi lesquels figurait mon <=280.

À l’époque j’ai discuté avec un conservateur des nouveaux médias, Philippe Bettinelli, qui me disait qu’il eût aimé acquérir ce livre pour lui-même, si ce dernier n’avait été par malheur épuisé dès la semaine de sa publication. Je lui ai envoyé l’exemplaire que j’avais mis de côté pour Vera Molnár.
Étant un des deux commissaires de l’exposition Mode d’emploi au musée d’art moderne de Strasbourg, Philippe Bettinelli y a intégré son exemplaire de mon livre, celui qui avant manqué être, à quelques semaines près, celui de Vera Molnár.

Eh bien dans cette exposition, mon livre, qui se trouve dans la salle « programmer », est juste à côté d’une œuvre… de Vera Molnár.

Si nous ne nous serons jamais rencontrés, nos travaux, eux, l’ont fait.

Littératures graphiques contemporaines #13.3 : Philippe Morin

décembre 6th, 2024 Posted in Bande dessinée, Conférences | No Comments »

Vendredi 13 décembre 2024, le cycle de conférences Littératures graphiques contemporaines accueillera Philippe Morin.

Attention, du fait du blocage de l’Université, la séance se déroulera à Paris au 36 avenue Matignon

À côté de son activité professionnelle en tant qu’architecte, Philippe Morin est actif dans le monde de la bande dessinée comme co-créateur du fanzine PLGPPUR et de la maison d’édition PLG, qui a publié des bande dessinées mais aussi de nombreux ouvrages consacrés à la bande dessinée, et comme président et organisateur du prix de la bande dessinée alternative, remis chaque année depuis quarante-deux ans dans le cadre du Festival d’Angoulême.

La rencontre se déroulera le vendredi 13 décembre à 15 heures, dans la galerie Hubery & Breyne, 36 avenue Matignon (métro Miromesnil).
Elle est ouverte au public extérieur dans la limite des places disponibles.

Littératures graphiques contemporaines #13.2 : Sophie Darcq

décembre 5th, 2024 Posted in Bande dessinée, Conférences | No Comments »

Vendredi 6 décembre 2024, le cycle de conférences Littératures graphiques contemporaines accueillera Sophie Darcq.

Diplômée de l’école supérieure d’art d’Angoulême, Sophie Darcq a pris son temps pour faire aboutir son album Hanbok, un projet autobiographique né d’un voyage en Corée, il y a presque deux décennies, à la rencontre de ses parents biologiques. Cette lente maturation aura porté ses fruits puisque l’album a été salué par la critique, a obtenu plusieurs prix importants, en est à son troisième tirage et constitue à ce jour le plus important succès de son éditeur, L’Apocalypse, dont nous recevions le fondateur Jean-Christophe Menu la semaine passée.

La rencontre aura lieu le vendredi 6 décembre à 15 heures, en salle A-062. Elle est ouverte au public extérieur dans la limite des places disponibles.

Littératures graphiques contemporaines #13.1 : Jean‑Christophe Menu

novembre 17th, 2024 Posted in Non classé | No Comments »

Vendredi 29 novembre 2024, le cycle de conférences Littératures graphiques contemporaines accueillera Jean-Christophe Menu. La séance ne se déroulera pas à Saint-Denis, mais à la halle des Blancs-Manteaux, à Paris.

Dès ses débuts dans le fanzinat, avec Le Lynx à tifs et l’Association pour l’apologie du neuvième art libre, Jean-Christophe Menu a eu l’ambition de bousculer le monde de la bande dessinée et son académisme. Il entretient des liens avec Matt Konture, Stanislas, Dupuy et Berbérian, Placid, Muzo, Max, et bien d’autres, publie dans le Psikopat, est accueilli dans la collection X de Futuropolis, éditeur chez lequel est lancé Labo, une éphémère revue qui accueille les fondateurs de l’Association : Menu, Konture, Stanislas, David B., Killoffer, Trondheim et Mokeït. Fer de lance de l’édition indépendante, l’Association s’engagera dans des projets ambitieux tels que le Comix 2000, les publications de l’OuBaPo, l’Éprouvette
Après de nombreuses péripéties, J.-C. Menu est désormais éditeur au sein de l’Apocalypse, où, avec Étienne Robial, il relance la mythique collection 30×40 de Futuropolis. Enfin, J.-C. Menu est docteur en arts et sciences de l’Art avec sa thèse La Bande dessinée et son double.
Toutes ces activités dans l’édition et dans la recherche ne l’ont pas empêché de développer une imposante œuvre d’auteur de bande dessinée.

La rencontre aura lieu le vendredi 29 novembre à 15 heures 45 au salon SoBD, qui nous accueille à l’espace blancs-manteaux à Paris. Le rendez-vous est fixé à 15 heures 30, devant l’entrée de la halle des blancs-manteaux, 48 rue vieille du Temple.
Les retardataires ne pourront pas être accueillis.
Cette rencontre est destinée aux étudiants inscrits.