Profitez-en, après celui là c'est fini

Utopiales 2021

octobre 22nd, 2021 Posted in Non classé | No Comments »
Affiche : Alex Alice

J’aime beaucoup Les Utopiales, à Nantes, festival international de science-fiction qui met en dialogue des auteurs du domaine de l’imaginaire et des chercheurs de diverses disciplines. C’est un moment dense en termes de découvertes et de stimulations intellectuelles, que l’on soit visiteur ou invité — j’ai testé les deux. Outre les tables-rondes (quatre ou cinq en même temps !), on profite de séances de cinéma, d’ateliers consacrés au jeu, d’expositions,…

L’an passé, le festival a dû être annulé, confinement oblige. Cette année il pourra se tenir, avec pour thème Évolutions, Transitions, Adaptations, Mutations. Je serai présent à Nantes pour rien moins que six interventions et deux séances de dédicaces !
Si vous êtes dans les parages, voici mon programme, avec les dates, les lieux, et le texte de présentation :

L’IA qui écrivait des romans d’amour
Vendredi 29 octobre 11h30 — salle 2001
La technologie avec les nouveaux outils qu’elle propose offre de nouvelles possibilités tout en nous faisant perdre d’anciennes. Et nous oublions ce que nous avons perdu. Comment l’art évolue-t-il avec la technologie ? Se transforme-t-il pour le meilleur ou pour le pire ?
Avec : Jean-Noël Lafargue, Sylvie Lainé, Mathieu Burniat.

Modération : Sonia Zannad

En 2016, avec Pascal J. Thomas (photo Les Utopiales — désolé, j’ignore l’identité du ou de la photographe).

Les temps de la fin ?
Vendredi 29 octobre 18h00 — salle Tschaï
Chaque être humain sait qu’il est appelé́ à disparaître. En tant qu’espèce, nous avons maintenant conscience que notre temps est compté, qu’Homo Sapiens sera sans doute rayé de la carte du vivant par son hubris démesuré́ . Cet horizon temporel bouché, ce « temps sans après » explique-t-il notre sidération collective face aux catastrophes annoncées ? Ou ne serions-nous pas plutôt choqués par notre incapacité à maîtriser notre environnement, et de là notre futur ? Ce n’est plus nous qui écrivons l’histoire, mais le vivant déchaîné, imprévisible, qui bouscule en tous sens la coquille de noix de notre civilisation. Si nous ne vivons pas la fin des temps, vivons-nous la fin d’une certaine forme du temps ?
Avec : Jérôme Santolini, Catherine Larrère, Pierre Bordage.
Modération : Jean-Noël Lafargue

Le passage
Samedi 30 octobre, 11h30 — salle Tschaï
En science-fiction comme dans les autres genres, il est rare que le romanesque ne découvre pas un parcours initiatique, l’arc narratif des personnages, leurs enjeux dramatiques par rapport à ceux du monde dans lesquels ils et elles évoluent. Nos sociétés, bien que certaines d’entre elles se soient largement affranchies des usages anciens qui marquaient les transitions de la vie de façon plus officielle, n’est pas en reste : baccalauréat, permis de conduire, mariage, baptême, enterrement, ces encore « rites de passage » nous confirment que nous grandissons et que nous évoluons. Quelles initiations pour demain ?
Avec : Jean-Noël Lafargue, Patrick K. Dewdney, M.R. Carey.
Modération : Xavier Mauméjean

Extrait de la couverture de l’édition originale de Snowcrash (en Français, Le Samouraï virtuel), par Neal Stephenson (1993). Illustration par Bruce Jensen.

Snowcrash
Samedi 30 octobre, 14h00 — espace CIC Ouest
Dans les années 70, John Brunner anticipe ce que pourrait être internet un siècle plus tard, entre paranoïa des usagers et manipulations des informations. Dans Snowcrash, Neal Stephenson, entre dystopie cyberpunk et anticipation, imagine le paradis perdu d’un web libre désormais privatisé, tel le metaverse convoité par certains GAFA. Entre politique et gestion des ressources, quelle a été et quelle sera l’évolution du web ?
Avec : Olivier Ertzscheid, Esther, Richard Canal
Modération : Jean-Noël Lafargue

> Samedi 30 octobre 17h-18h — librairie : dédicaces

De Lascaux au Large Hadron Collider
Dimanche 31 octobre 11h30 — salle Tschaï
Dans quelle mesure les traces reflètent-elles la réalité de ce qui les a produites ? Les peintures rupestres représentent-elles de véritables chasses ou l’espoir que les peintres en avaient ? Que nous dit de l’état du monde la trace d’une particule dans un détecteur ? Que pouvons-nous en déduire ?
Avec : Jean-Noël Lafargue, Marc-Antoine Mathieu, Antoine Drouart
Modération : Marion Cuny

Avec Milad Doueihi (gauche) et Alain Damasio (droite), en 2016. Photo Nathalie Lafargue-Mislov.

> Dimanche 31 octobre 12h30-13h30 — librairie  : dédicaces

INTERRO SURPRISE : Le jour d’après
Lundi 1er novembre 17h00 — espace CIC Ouest
Choisissez dès aujourd’hui votre apocalypse ! Nous n’avons désormais que l’embarras du choix entre pandémies, guerres plus ou moins froides, désastres écologiques ou bouleversements climatiques. Mais la fin peut-être aussi un début. Quels mondes pourraient en surgir ?
Avec : Jean-Noël Lafargue

Le reste du programme est consultable sur le site des Utopiales.

Éthique de l’Intelligence artificielle

septembre 26th, 2021 Posted in Interactivité, Sciences | 2 Comments »

J’ai le grand plaisir d’annoncer (avec un peu de retard) que je suis, depuis le début de cette année membre du Conseil d’éthique de l’Intelligence artificielle et de la data d’Orange, aux côtés de Raja Chatila, Cécile Dejoux, Lê Nguyên Hoang, Mark Hunyadi, Étienne Klein, Caroline Lequesne-Roth, Claire Levallois Barth, Winston Maxwell, Sasha Rubel, Françoise Soulie-Fogelman. Ce conseil, présidé par Stéphane Richard, va établir une charte et examiner des recherches actuellement menées par Orange afin de réfléchir à leurs implications éthiques1.

L’intelligence artificielle Tron, dans le film du même nom, qui se déroule essentiellement à l’intérieur d’un ordinateur (costume exposé à la Cité des sciences en 2010).

La discussion est en cours, et les travaux débutent à peine, mais voici un début de profession de foi.

L’Intelligence artificielle existe-t-elle ?

Je me dois de dire en préambule que je ne fais pas un cas énorme du terme Intelligence artificielle. Cette discipline académique, à laquelle j’ai consacré un livre avec Marion Montaigne2, est une source de malentendus puisqu’elle se confond facilement (et certains acteurs du domaine n’ont rien fait pour éviter une telle confusion) aux fictions. Je pense évidemment aux récits qui mettent en scène des machines devenues conscientes qui se montrent plus ou moins hostiles envers leurs créateurs — Hal 9000, Colossus, Skynet,… —, mais aussi à des fictions sans doute plus pernicieuses comme celles que colportent les camelots de la technologie.

Libération, le 28 juillet 2015

Quand un Elon Musk ou un Bill Gates alertent le monde sur l’imminence de l’émergence d’une IA « consciente » qui, dès son avènement, décidera de supplanter l’espèce humaine, je doute qu’ils y croient eux-mêmes. En revanche ils participent à survendre le label « Intelligence artificielle », dans lequel ils investissent des milliards et cherchent à entraîner avec eux les budgets militaires ou industriels.
Même avec de bonnes intentions, on peut, sans le vouloir, provoquer ce que l’on redoute : lorsque nous lisons que des spécialises publient une tribune pour demander qu’on freine les recherches sur les armes autonomes, lesdits spécialistes lancent aux États du monde entier un tout autre message, que je formulerais ainsi : « la course a commencé et il faut massivement investir dans le domaine ». Ils accélèrent ce qu’ils voulaient freiner.
Pire, les inquiétudes face à l’avenir des technologies peuvent parfois être l’arbre qui cache la forêt, car les dangers liés au traitement automatisé de données et à l’Intelligence artificielle existent bel et bien ici et maintenant.

L’UAV — ce que l’on nome « drone » en France — MQ-9 Reaper, survolant l’Afghanistan. Ce modèle créé il y a vingt ans sait décoller et atterrir tout seul, mais ne décide pas encore de lui-même sur qui envoyer ses missiles et quelles vies « moissonner » — puisque telle est la signification de son nom.
(Photo US Air Force / Commons)

Lorsque le mot a été inventé3, l’objet de l’Intelligence Artificielle était à la fois ambitieux et modeste : il s’agissait de résoudre de manière artificielle des problèmes que nous sommes habitués à solutionner de manière naturelle par ce que nous nommons l’intelligence, à savoir le raisonnement la perception et la mémoire, autant de facultés dont, soit dit en passant, nous sommes loin de tout savoir. Un exemple familier est celui de la vision : notre cerveau parvient, au prix d’une dépense énergétique minime, sans grand effort apparent, presque instantanément et avec une grande fiabilité, à identifier de nombreuses classes d’objets dans d’innombrables conditions (position, orientation, distance, lumière, occultation partielle, altérations diverses). Nous reconnaissons une banane, un visage, une automobile, un arbre. Nous sommes capables d’identifier des catégories d’objet sans nous les être fait expliquer, sans avoir assimilé consciemment un dictionnaire visuel : si l’on amène devant vous un fruit, une fleur, un insecte, un oiseau, un véhicule, un outil, vous saurez sans doute dire à quelle classe d’objet il appartient même si vous ne l’avez jamais croisé, et cela restera vrai jusqu’à un certain point même s’il a des caractères morphologiques inhabituels ou ambigus4.

Distrayant et fascinant (quoique un peu répétitif) : le logiciel DeepDream, par Google, recherche dans les images qu’on lui soumet des motifs qu’il a été entraîné à reconnaître, puis les applique de manière forcée. Le résultat est une forme hallucinée de paréidolie numérique (cliquer pour agrandir).

Obtenir artificiellement une si efficace capacité à identifier les formes et les choses n’a rien d’évident et fait l’objet de recherches depuis plus de cinquante ans. Il est plutôt difficile d’expliquer comment notre propre perception fonctionne5. Les chercheurs en Intelligence artificielle ne se contentent pas d’imiter notre entendement ou d’y suppléer, ils ne cessent de faire progresser, par la théorie comme par l’expérimentation pratique, la connaissance que nous avons de nos propres fonctions cognitives. Ils peuvent aussi tirer parti des capacités propres aux ordinateurs : ainsi, la manière dont un ordinateur effectue une multiplication n’est pas la manière dont vous ou moi effectuons un calcul mental similaire.
De manière très littérale, j’aime bien dire que l’écriture ou les mathématiques, qui permettent de porter vers un support artificiel des outils de notre intelligence — la mémoire, le calcul — relèvent de l’intelligence artificielle. Inversement, nous pouvons rappeler que bien des techniques habituellement nommées « Intelligence artificielle » ne sont jamais que des outils logiciels sophistiqués conçus pour conférer à des systèmes informatiques une forme, très limitée, d’autonomie. Le mot est à la mode, et beaucoup de start-ups dont les outils relèvent de l’informatique la plus classique affirment « faire de l’IA », comme s’il s’agissait d’un art mystérieux, une forme de magie noire dont on saupoudre plus ou moins généreusement les projets informatiques.

Par nature, par naissance, l’Intelligence artificielle n’est pas un champ unique et cohérent. On regroupe sous ce nom des personnes dont le travail relève de la recherche scientifique et d’autres qui se situent du côté de l’ingénierie et de l’application commerciale. Des gens qui cherchent à percer les secrets de notre cerveau, d’autres qui se passionnent pour des questions mathématiques fondamentales et d’autres encore qui veulent juste inventer un système efficace pour accomplir telle tâche industrielle. Nous trouvons donc là des gens issus des sciences cognitives, de la psychologie, des mathématiques, de l’informatique, des scientifiques et des techniciens.
Et ne parlons pas du rapport qu’entretient ce champ à l’imaginaire, depuis les promesses commerciales jusqu’aux fantasmes de science-fiction en passant par les questionnements philosophiques (phénoménologie, morale,…) hautement spéculatifs. Pour autant, au risque de me contredire, je pense que la locution « Intelligence artificielle » ne veut pas rien dire : c’est bel et bien une approche particulière de l’informatique. Reste que l’Intelligence Artificielle n’est qu’une partie de ce qui me préoccupe dans l’automatisation et tout ce que l’on regroupe sous le terme « numérique ».

Une pédagogie de l’Intelligence artificielle

Une pédagogie de l’Intelligence artificielle me semble indispensable, mais il faut s’entendre sur ce qu’on dit par là. En effet, l’idée de transformer chaque citoyen en ingénieur, capable de programmer, capable de savoir quoi faire du code-source d’un logiciel, est une idée assez absurde et en tout cas fort éloignée du sens de l’Histoire de l’informatique6. En effet, les utilisateurs d’ordinateurs demandent et demanderont toujours plus à pouvoir agir sans devoir être experts : on souhaite des outils efficaces, intuitifs,… Et même, de plus en plus, on souhaite ignorer que les ordinateurs que l’on utilise en sont.
Mais il existe un autre niveau de connaissance des outils, qui n’est pas leur maîtrise complète, mais au moins une conscience de leur fonctionnement et de leurs limites.

Gare Saint-Lazare, juillet 2002

La limite qu’il me semble important de bien comprendre, c’est qu’à ce jour, aucune des techniques que l’on regroupe sous le nom d’intelligence artificielle n’est capable d’invention. L’Intelligence artificielle applique des règles ou répète des actions, dans un cadre délimité, en fonction des principes et des données qui lui sont fournies, et en poursuivant un but déterminé. Des programmes informatiques ont certes battu les champions du monde des jeux d’échecs et de go, mais à ce jour, jamais aucun ordinateur n’a de lui-même ressenti l’envie de jouer à ces jeux ni même ne sait qu’il joue aux échecs. Au sujet de l’incapacité à inventer, le chercheur Jean-Louis Dessalles7 rappelait par exemple que sans tricher, aucun système informatisé d’apprentissage ne peut déduire ce qui succède à la suite de nombres 1-2-2-3-3-3-4-4-4-4-… Alors même que la solution nous vient à tous spontanément en une fraction de seconde.

Le match entre le champion de jeu de Go Lee Sedol, et de l’ordinateur de Google AlphaGo, en mars 2016.

Quelles que soient les admirables succès de l’Intelligence Artificielle, l’ordinateur reste une machine déterministe, c’est à dire qu’il n’y a rien, dans le résultat qu’il fournit, qui ne soit explicable, et à paramètres strictement identiques, la réponse fournie sera immuablement la même. C’est ce que l’on résumait autrefois par « la machine ne se trompe jamais », formule qui a été la cause de bien des malentendus. Certes, des systèmes relevant de l’Intelligence artificielle sont capables d’apprendre, et de transformer cet apprentissage en quelque chose qui ressemble à une déduction, et sont capables de surprendre leurs propres concepteurs8, certes des processus mécaniques peuvent nous vexer de par leur efficacité — comme lorsqu’un programme remporte toutes les parties qu’il joue contre un grand maître des Échecs, ou lorsque des compte-rendus sportifs produits par un générateur de texte plaisent plus aux lecteurs que ceux qu’a rédigés un humain de chair et d’os —, mais pour autant, le programme n’a jamais fait autre chose que ce que lui permettent les conditions de sa conception et les données auxquelles il accède.

Deux universitaires discutent sur la plate-forme Zoom. Lorsqu’ils activent la fonction qui transforme l’arrière-plan en un décor choisi, l’un des deux voit son visage disparaître

Il en découle que toute IA est dépendante à la fois de sa conception, et des données dont on le nourrit. Je peux donner à ce sujet trois exemples, dont les deux premiers sont bien connus :

  • Le programme « raciste » qui ne parvient plus à effectuer une reconnaissance de visage générique (c’est à dire de reconnaître non pas un individu donné, mais juste le fait d’être en présence d’un visage) dès lors que les personnes qui lui sont présentées ont la peau foncée. Le problème ici réside dans le corpus trop homogène de photographies qui a été fourni au programme pour s’entraîner à déterminer ce qu’est un visage. Ce qui en dit sans doute long sur le manque de diversité parmi les ingénieurs qui ont créé le système en question.
  • Le programme d’aide à la décision des juges lui aussi « raciste », qui, à délit égal, émet des punitions plus fortes pour les noirs que pour les blancs, sans même savoir la couleur de peau des uns et des autres, mais en se fiant à des jugements rendus précédemment et aux données qui les accompagnent : quartier de résidence, structure familiale, parcours scolaire, professionnel, etc. Le problème ici est à nouveau le type de données fournies au programme, qui se contente de reproduire les biais du système judiciaire.
  • Enfin, récemment, des livreurs Amazon de Los Angeles se sont plaints des caméras « intelligentes » embarquées dans leurs véhicules. Destinées à vérifier, notamment, si lesdits livreurs respectaient la distance de sécurité sur les routes, ces caméras les distraient constamment en signalant leurs fautes (avec une voix électronique lugubre, disent-il) et les pénalisent ensuite… Or ce logiciel comment une erreur car chaque fois que le véhicule se fait doubler par un autre — ce qui advient plus souvent lorsque l’on ne roule pas trop près du véhicule suivant —, cet événement sera interprété comme un non-respect de la distance de sécurité. D’autres mauvaises interprétations du respect du code de la route ont été signalées. Ici il y a deux problèmes : le premier est que les situations pratiques n’ont pas été correctement anticipées : ce qu’évalue le logiciel n’est pas ce qu’il est censé évaluer. Le second problème, c’est que si ce logiciel a été installé, c’était de la part d’Amazon pour pouvoir se défausser lorsque l’on parle de la sécurité de ses chauffeurs : il y a un système automatique qui vérifie, qui enlève leurs primes aux mauvais conducteurs (ou aux sous-traitants qui les emploient), donc Amazon n’a rien à se reprocher et peut prétendre avoir fait sa part… Et peu importe si ce qui est mesuré est faux, et s’il est, pour les chauffeurs, impossible d’avoir gain de cause en cas de faux positifs.

Une autre pédagogie à appliquer est plus politique que technologique. Même sans savoir comment fonctionne un programme, on doit se rappeler qu’on est en droit d’être exigeant à son endroit, et a fortiori si l’on est soumis à son empire. Or l’IA (ou plus généralement l’automatisation du traitement des données ou de l’accès à des services) aboutit souvent à rendre opaque les procédures, à dissimuler la collecte de données et à empêcher toute conversation : « la machine dit que vous n’avez pas droit à cette réduction » ; « c’est l’algorithme qui a décidé d’affecter votre enfant dans cet établissement ». Je me permets de renvoyer le lecteur à un article que j’ai publié à ce sujet dans le Monde Diplomatique il y a dix ans : Machines hostiles9.

Pour empêcher une porte automatisée de s’ouvrir et de se fermer intempestivement du fait de la station des clients sur le seuil (mesures barrière oblige, il y a plus de gens devant la porte que dans la boutique), le commerçant n’a trouvé comme solution que d’occulter le capteur. Cela nous amène un peu loin de notre sujet sans doute, mais qui est exemplaire à la fois d’une certaine forme de désarroi (où est le bouton « stop » ?), mais aussi d’ingéniosité, enfin de débrouillardise, face à une machine aussi têtue qu’inadaptée à sa tâche dans des conditions qui n’avaient pas été anticipées.

Enfin, et c’est là aussi une question politique, il faut parler des cas où la locution « Intelligence artificielle » (comme la robotisation, la transition numérique, etc.) se révèle complètement mensongère et dissimule, à la manière du Turc mécanique de von Kempelen, un travail tout à fait humain exécuté et rémunéré dans des conditions indignes10, ou encore, sert d’argument à une dégradation des conditions de travail.

Évaluer, corriger

Sans malice de la part de ses concepteurs, tout système auto-apprenant peut avoir des effets indésirables imprévus, lesquels sont parfois difficiles à détecter puis à comprendre. Les systèmes dits « d’apprentissage profond », très à la mode dans le domaine de l’Intelligence Artificielle, sont ce qu’on nomme en informatique des « boites noires », des systèmes opaques dont les créateurs eux-mêmes ne peuvent pas toujours déterminer exactement comment, en nourrissant le programme avec certaines données, celui-ci arrive à telle ou telle conclusion. Les algorithmes employés sont déterministes, mais ils peut y avoir beaucoup d’inconnues. De plus, la vitesse de traitement et le volume des données traitées sont gigantesques : certaines actions qui n’ont réclamé que quelques instants de calcul ne pourraient être comprises qu’en étudiant leur journal, s’il existe, pendant des mois. Il faut y être prêt, avoir conscience que tout système peut avoir des effets qui n’auront pas été anticipés.
Pour pallier cela, il ne suffit pas de s’efforcer de mieux concevoir les systèmes, il faut aussi les observer, collecter et prendre en considération les retours des utilisateurs, et faire marche-arrière lorsque c’est justifié. Bien entendu, c’est exactement le contraire qui se passe, et il y a une logique : ce qui motive l’automatisation, c’est précisément de ne plus avoir à s’en occuper.

Gare Saint-Lazare, 2016

Un enjeu des systèmes informatiques qui s’appliquent à nos existences est celui de la tolérance aux pannes, de la marge d’erreur acceptable. Quand un drone militaire est programmé (on effectue des recherches à ce sujet) pour attaquer des structures d’entrainement terroristes qu’il identifie de manière autonome, il faut que quelqu’un, en amont, ait décidé du degré de certitude requis pour déclencher le tir : 99% ? 95% ? 80 ? La guerre, l’automatisation de véhicules de transport, et d’autres services aux effets potentiellement moins tragiques, sont autant de transferts d’un jugement et d’une responsabilité vers un processus, un réglage, une prédiction… Et lorsqu’un métier disparaît au profit d’une machine, là aussi on peut s’interroger sur ce qu’il va falloir accepter de perdre au passage.

Être attentif aux effets collatéraux

Les effets directs qu’une technologie a sur ceux qui l’utilisent sont, par nature, souvent assez immédiatement observables. Mais il existe au moins deux autres cas à conserver en mémoire : celui des personnes affectées sans qu’elles soient utilisatrices d’un service — voire sans qu’elles soient seulement conscientes de son existence —, et celui des effets qui se manifesteront sur la durée.

Daniel Blake (I am Daniel Blake, Ken Loach, 2016), menuisier en rémission d’une crise cardiaque, au chômage forcé pour la première fois de sa vie, est victime de procédures informatiques absconses destinées à traquer les personnes qui profitent des aides sociales. Totalement ignorant du système, et n’ayant jamais utilisé d’ordinateur, il vit une humiliante et cruelle descente aux enfers.
J’aurais aussi bien pu évoquer Effacer l’historique (Kervern/Délépine 2020), qui présente plusieurs exemples de personnes acculées à lutter contre un monde numérique implaccable.

Pour le premier cas, et même si ce n’est pas directement lié, je prendrais mon exemple personnel : n’ayant pas de téléphone mobile, je suis de plus en plus régulièrement entravé dans mon accès à des services tout à fait banals et sans rapport avec la téléphonie : la possibilité d’effectuer un virement bancaire par exemple, ou le droit à participer à la primaire des écologistes. Or ce qui est intéressant ici, c’est que ce dont je souffre c’est de faire partie d’une catégorie de personnes qui relève de l’exception. Non seulement mon cas est de moins en moins souvent prévu, mais les problèmes que j’éprouve sont difficiles à comprendre par l’immense majorité des gens. Je n’ai pas d’exemple directement lié à l’Intelligence artificielle pour illustrer cette question, mais pour tout service qui s’applique sans problème à neuf personnes sur dix, il faut penser au cas de la dixième. Ne parlons pas des emplois qui sont profondément modifiés, ou qui ont vocation à disparaître, chaque fois qu’une technologie le permet.

Dans le film Singularity (2017), Elias VanDorne (John Cusack), une sorte de Steve Jobs qui fabrique, entre autres, des robots de combat, est accusé d’être responsable d’une escalade guerrière mondialisée. Il décide de créer une intelligence artificielle, Kronos, dont la mission est d’amener une paix totale sur la planète. Be careful what you wish for : à peine activé, Kronos constate que pour amener la paix universelle, il faut se débarrasser de l’Humanité entière. Ce film un peu absurde, qui reprend l’idée que l’on trouvait déjà dans Colossus : The Forbin project un demi-siècle plus tôt, a été financé de manière participative.

En parlant de durée, enfin, je pense notamment à l’évolution des services. Lorsque l’on parle de ce que font Google ou Facebook des informations dont ils disposent sur nous, c’est toujours au présent : on leur reproche de nous pister, de nous espionner, de connaître nos interactions sociales, nos goûts, et d’en tirer parti commercialement, voire politiquement. Ces reproches sont fondés, bien sûr. Mais ce n’est qu’un début, car les données stockées vont continuer de l’être, et la capacité des logiciels à interpréter ces données, à tisser des liens, à inventer de nouvelles applications ne fera qu’augmenter. Enfin, tout dépositaire de données sur des personnes, qu’il soit une société privée ou un État, peut changer de gouvernance, de stratégie, de méthodes.

Je m’arrête là, ce texte est déjà bien long, mais je compte bien y revenir.

  1. Je ne peux pas parler des projets étudiés, qui sont confidentiels (et du reste nous n’avons pas commencé à y travailler), mais inventons-on un : imaginons une seconde que par hasard, des chercheurs d’Orange Lab constatent que si la pratique numérique d’une personne évolue d’une certaine manière (par exemple en se mettant à avoir une activité plus intense à certaines heures…), il est probable qu’elle est en train de commencer une dépression. Que faire de ça ? Faut-il construire un outil, pouvoir alerter une personne pour lui dire qu’elle est en danger ? Ne rien faire ? Où placer le curseur entre l’intrusion et une inaction qui aboutirait à une mise en danger de la vie d’autrui ? []
  2. Marion Montaigne et Jean-Noël Lafargue, L’Intelligence artificielle : mythes et réalités, éd. Lombard, coll. Petite Bédéthèque des savoirs. 10 euros seulement ! []
  3. L’acte de naissance de l’IA est une suite d’interventions connue sous le nom de « conférences de Dartmouth » (du Dartmouth College), pendant l’été 1956, où, réunis par Marvin Minsky et John McCarthy, de nombreux chercheurs (Herbert Simon, Allan Newell, ou encore Claude Shannon) ont exposé leurs recherches et leurs théories, et adopté la locution Intelligence artificielle. []
  4. Il est intéressant de voir à quel point nous nous passionnons pour les mystères, les illusions de perception, tout ce qui nous amène aux limites de nos sens. Je crois que le fonctionnement relativement imprécis de nos sens (facilement troublés par des similitudes, des jeux d’échelle,…) est par ailleurs la raison de notre capacité à éprouver une forme de délectation esthétique : la peinture, la musique ou la parfumerie n’ont sans doute pas grand sens pour les animaux dont l’accès sensible au monde est particulièrement précis — l’abeille qui cherche le rayonnement ultraviolet de telle fleur, etc. — mais je digresse (et je divague un peu sans doute). []
  5. Pour les programmes informatiques dédiés à ces tâches, distinguer un sac en plastique d’un rocher peut être plus complexe que reconnaître le visage d’une personne précise parmi des dizaines de milliers si celle-ci se trouve intégrée à une base de données. []
  6. On notera que beaucoup de fictions populaires, mais aussi le journal télévisé, imaginent les générations à venir comme expertes en Informatique. Cela ne se justifie pas dans les faits, et l’expertise des « digital natives » est plutôt à chercher dans la manipulation des réseaux sociaux et de l’image publique que dans la programmation informatique et l’électronique ! []
  7. Jean-Louis Dessalles, Des intelligences très artificielles, éd. Odile Jacob, 2019, p10. []
  8. Je me souviens d’un système informatique destiné à évaluer l’âge de personnes photographiées, qui avait « de lui-même » déterminé que la forme du lobe des oreilles était un indice très sûr de l’âge. Or personne n’y avait particulièrement pensé, même si le rapport entre l’âge et les cartilages est bien connu. []
  9. J’en ai aussi déposé une version pdf sur HAL-SHS. []
  10. Lire En attendant les robots, par Antonio A. Casilli, éd. Le Seuil 2019. []

Peut-on parler de soi sur Wikipédia ?

septembre 20th, 2021 Posted in Wikipédia | 7 Comments »

(j’écris ce post en qualité de familier de Wikipédia, projet auquel je contribue de manière plus ou moins assidue depuis 2004. Pour autant, le point de vue que j’expose ici est personnel, subjectif, et ne correspond pas à des recommandations issues de la communauté wikipédienne. Il existe de telles recommandations, je les mentionne en fin de billet)

Les lignes qui suivent sont inspirées par un constat assez simple : il semble illusoire d’espérer qu’aucune personnalité publique ne se voie tentée de modifier les articles de Wikipédia qui la concernent. Dès lors, autant faire les choses bien.

Avec La vie des plus excellents peintres, sculpteurs et architectes (1568), Giorgio Vasari a été le biographe des plus grands artistes de la Renaissance italienne. En toute modestie, il conclut l’ultime tome de son grand œuvre avec un texte consacré à sa propre biographie, où il n’hésite pas à envoyer des fleurs à ses commanditaires et ses admirateurs, dont il trouve le jugement très sûr.

Le problème

Il arrive souvent que des amis ou des connaissances œuvrant dans les métiers de la création m’appellent à la rescousse pour sauver une notice Wikipédia en péril, ou plus généralement pour les assister dans un conflit lié à une page du site. Et il s’agit de pages qui les concernent ou qui concernent des amis à eux. Il y a plein de cas, par exemple :

  • L’artiste qui a naïvement créé une page à son propre sujet, et qui est horrifié de le voir proposé à la suppression sous le vexant motif qu’ils n’a pas le niveau de notoriété requis ;
  • L’écrivain qui n’a pas créé la page à son nom, qui a été légitimement flatté qu’elle existe, mais qui se sent désormais embarrassé en y voyant apparaître un bandeau qui en brocarde le « ton promotionnel » et laisse donc entendre qu’il cherche à se vendre lui-même comme un produit ;
  • L’autrice qui n’ose pas modifier une page qui affirme des choses fausses à son sujet, ou qui est catastrophée en voyant qu’on y dévoile des détails biographiques avérés mais pouvant lui nuire1 ;
  • La personne qui tente désespérément de faire disparaître un épisode de sa biographie qu’elle n’assume pas, ou qu’elle juge anecdotique et propre à donner une fausse idée de sa carrière (« les journalistes me présentent comme enseignant à [école d’art appliqués privée quelconque] alors que j’y ai juste assuré deux journées d’intervention il y a dix ans… ») ;
  • La personnalité qui est désespérée de se voir affublée d’un portrait photographique peu flatteur, par exemple une photo prise en festival dans un lieu assez mal éclairé après une longue journée de dédicaces ;
  • Les personnes victimes de paragraphes calomnieux ou dénigrants.

Il est déjà advenu qu’un artiste ou une organisation m’écrivent pour me proposer de me rémunérer à gérer les mentions qui les concernent sur Wikipédia, comme si l’encyclopédie était un outil de communication professionnelle à la manière de Linkedin. Je dois dire que quand je reçois ce genre de proposition, la personne qui me l’a faite me fait un peu de peine, je me demande quelle piètre opinion elle a de moi, et quel mépris elle a pour l’encyclopédie. Je comprends bien entendu que les artistes soient sensibles à ce que Wikipédia dit à leur sujet, puisque c’est bien souvent la page Wikipédia que les moteurs de recherche proposent comme première réponse à une requête, et puisque c’est souvent en s’appuyant sur la notice qui leur est consacrée par Wikipédia que leur travail sera abordé par les journalistes, etc., mais c’est une bien mauvaise idée de traiter une encyclopédie comme un instrument de promotion. Je sais que des agences de relations publiques spécialisées dans les questions de réputation en ligne, dont le principe même, dont l’honneur professionnel, est d’être dénuées de scrupules, ont ce genre d’intervention tarifées à leur catalogue de services… N’essayez pas avec moi, merci d’avance !

Wikipédia est une encyclopédie

La question la plus importante à avoir en tête au moment d’intervenir sur Wikipédia est de se demander si on apporte effectivement quelque chose au corpus encyclopédique et à ses lecteurs. Et il faut pour ça s’interroger en se souvenant que nous nous en sommes d’abord usagers. Achèterons-nous une encyclopédie qui ressemble à un annuaire professionnel ? À une liste absurde des peintres du dimanche du Val-d’Oise ? À une collection de curriculums vitæ et de dossiers de presse ? Jugerions-nous utile un article consacré à un chef d’État si c’est ce dernier qui le rédige ?
On recommande souvent aux personnes qui font l’objet d’un article de ne pas y intervenir. C’est un bon conseil, ou du moins, c’est sans doute l’attitude la plus prudente, non pour une raison morale supérieure, mais avant tout parce que nous sommes bien mal placés pour juger de notre propre importance. Chacun d’entre nous, j’espère, est le héros de sa propre existence, et chacun de nous sait mieux que quiconque ce qu’il a vécu, fait, ou ce qu’il pense. Mais s’il y a un sujet vis-à-vis duquel nous pouvons manquer de détachement, d’objectivité, et parfois même de lucidité ou d’honnêteté c’est bien notre propre personne !
Mais bon : tout le monde, spécialiste ou profane, peut éditer Wikipédia, anonymement, sous pseudonyme ou en mettant son nom civil en avant. Alors pourquoi l’interdire à certains sous prétexte qu’ils sont particulièrement concernés ?

Marcel Proust croyait en son propre talent et a eu une œuvre exigeante désormais universellement célébrée, mais il semble s’être méfié du goût de ses contemporains puisqu’on a appris qu’il soudoyait la presse pour obtenir de bonnes critiques, et qu’il a même parfois rédigé lui-même les critiques qu’il aurait souhaité lire ! Qu’un auteur si considérable se soit fourvoyé dans ce genre de manœuvre est un peu décevant, mais rappelle la cruauté des métiers qui reposent sur l’adhésion du public.

Wikipédia est une encyclopédie libre. Dans la pratique, cela signifie que toute contribution qui y est faite pourra être modifiée, supprimée, recopiée. Une personne qui édite un article sur Wikipédia n’est pas propriétaire dudit article et le sujet de l’article l’est encore moins. En revanche, chaque édition est conservée, on peut souvent savoir qui a fait quoi2, et en tout cas on peut savoir quand les modifications ont eu lieu, et ce qui a été modifié.

Mes quelques conseils, pèle-mêle

  • Si vous contribuez à une page qui vous concerne, faites-le de manière transparente, sous un nom qui signale votre identité. Cela vous mènera assez naturellement à ne faire que des modifications légitimes, factuelles. Et c’est une manière simple de signaler un possible conflit d’intérêt.
  • Ne prenez rien personnellement. Ne croyez pas que Wikipédia est une personne, ni que les administrateurs constituent une autorité supérieure : ils n’ont ni plus ni moins de droits sur le contenu de Wikipédia que l’ensemble des éditeurs et des lecteurs de l’encyclopédie3 ! Mais les éditeurs de Wikipédia protègent chaque jour l’encyclopédie contre ceux qui veulent en altérer le contenu, ce qui peut les amener à se montrer un peu expéditifs et pas toujours cordiaux avec les contributeurs peu aguerris4.
  • Ce n’est pas à la personne qui en fait l’objet de créer le ou les articles qui se rapportent à elle. La communauté wikipédiene a ses propres règles pour évaluer la pertinence d’un sujet — personne, œuvre, monument, etc. Alors même si c’est vexant voire injuste de se faire dire, après une carrière universitaire exemplaire, qu’on est n’a pas le niveau de notoriété qu’ont eu les Pokémons Grosdoudou, Mystherbe et Ramoloss, qu’ont des milliers d’actrices et d’acteurs pornographiques ou d’éphémères et obscurs groupes punks rennais du début des années 1980, c’est la vie, il faut attendre que quelqu’un d’autre ait l’idée de créer l’article, pas le faire soi-même.
  • Supprimer unilatéralement un contenu qui vous déplaît aura sans doute un effet très contre-productif. En cas de contenu problématique, n’hésitez pas à engager la conversation sur la page de discussion de l’article, avec la personne qui a effectué l’ajout ou avec la communauté entière sur les pages consacrées à ce genre d’échanges.
  • Ne portez pas de jugement de valeur sur votre propre production, ne vous jetez pas de fleurs : « (…) sa peinture constitue une fine observation de la société consommation dont il met à jours les travers (…) ». Ne citez pas votre pensée du jour comme si c’était un aphorisme de Nicolas de Chamfort ou de d’Oscar Wilde. N’évoquez rien qui ne soit pas factuel et vérifiable.
  • Si vous avez publié des livres — je parle de livres édités par un éditeur, avec un numéro d’ISBN, une diffusion et un certain tirage —, je pense que vous pouvez sans risque les ajouter à la page qui vous concerne : il est difficile de faire plus factuel. Personnellement c’est le contenu que je m’autorise à ajouter, sans état d’âme, sur la notice qui porte mon nom.
  • Le contenu de Wikipédia ne peut pas sortir d’un chapeau. Certes, vous connaissez vos dates et lieux de naissance, d’études, vous savez qui vous avez eu comme maîtres lorsque vous étiez étudiants, et vous savez que c’est en juillet 1987 en écoutant un vieux disque des Eagles que vous avez subitement décidé de votre vocation pour la musique ou le roman, mais aucune de ces informations ne saurait être ajoutée à une page de Wikipédia sans être dûment sourcée, c’est à dire sans apparaître dans un article, une interview, ou mieux, un ouvrage scientifique.
  • Si vous voulez intégrer à Wikipédia (via le site Wikimedia Commons) une photo, rappelez-vous que celle-ci devra être postée sous licence libre. Cela signifie que non seulement elle sera récupérable à toutes fins5 par qui voudra, mais aussi qu’elle doit vous appartenir en propre : pas question de poster un cliché de photographe professionnel sans son accord et à sa place. C’est à l’auteur seul de prendre une telle responsabilité. En bande dessinée, on a vu des auteurs placer sur Wikipédia un autoportrait dessiné, ce qui permet de proposer un portrait en même temps que de montrer le style graphique de la personne. C’est une démarche intéressante, mais attention : l’image devra, là encore, être libre de droit.
    Notez que les contributions à Wikimedia Commons, qui posent des problèmes juridiques spécifiques, ne peuvent pas être anonymes et sont reliées à une adresse e-mail vérifiable.

Si d’autres idées de conseils me viennent, je les ajouterai à cette énumération.

La communauté Wikipédia a émis quelques recommandations assez officielles à ces sujets : Wikipédia : autobiographie (« Évitez de créer ou de modifier un article sur vous-même, votre entreprise ou sur vos réalisations, sauf pour corriger des erreurs factuelles. Cela évitera un conflit d’intérêts ») ; Wikipédia : contributions rémunérées (toute contribution rémunérée doit être faite en déclarant officiellement son statut et les possibles conflits d’intérêt qui en découlent) ; Wikipédia : conflit d’intérêt (NNe modifiez pas Wikipédia dans le but de promouvoir vos intérêts personnels ou ceux d’autres individus ou d’organisations. Ne rédigez rien sur ces sujets à moins d’avoir acquis la certitude qu’un éditeur neutre considérerait vos modifications comme une amélioration de Wikipédia. Déclarez le cas échéant votre statut de contributeur rémunéré ».) ; Wikipédia : notoriété (il existe aussi des pages consacrées aux prises de décision communautaires pour établir le niveau de notoriété requis, secteur par secteur) ; et bien entendu la Neutralité de point de vue et la Pertinence encyclopédique, deux principe cardinaux de Wikipédia.

  1. De même qu’il existe un revenge porn, j’ai été témoin d’actions qu’on pourrait qualifier de revenge encyclopedism : l’«ex» rancunier qui se venge à coup d’éditions indiscrètes sur Wikipédia… []
  2. Il existe même des moyens pour identifier les contributions anonymes dites « sous IP » ou effectuées sous plusieurs pseudonymes. []
  3. Les administrateurs, élus, disposent de privilèges techniques : capacité à supprimer un article ou bloquer un vandale. Ils ne sont cependant censés recourir à ces outils que conformément au vœu de l’ensemble de la communauté. []
  4. Certains contributeurs, qui voient que l’étendue du contenu de Wikipédia n’est pas limitée par son support n’ont rien contre l’extension régulière du nombre de ses articles (on parle d’utilisateurs « inclusionnistes »), d’autres au contraire passent leurs journées à élaguer les articles dont la pertinence ou la qualité leur semblent douteuses (on les nomme « suppressionnistes »). Le résultat final est un processus dynamique, organique, fruit de ces tensions. []
  5. Une photo d’ours que j’ai prise il y a longtemps dans un parc animalier se retrouve régulièrement utilisée pour illustrer des livres… Je suis crédité, mais pas rémunéré. Une autre photo, d’une œuvre d’art contemporain à laquelle j’ai contribué, a déjà été employée… Par quelqu’un qui voulait nuire à l’artiste et ami auteur de l’œuvre…
    Dans les deux cas, en plaçant les images sous licence libre, j’ai explicitement accepté ces usages qui m’échappent. []

Tay

août 28th, 2021 Posted in Ordinateur célèbre | No Comments »

On se souvient de l’Intelligence artificielle Tay (acronyme de Thinking About You), crée par Microsoft et mise en fonction sur Twitter le 23 mars 2016. Ce robot conversationnel, conçu pour apprendre de ses échanges et pour interpréter les émotions de ses interlocuteurs (on parle d’informatique affective, empathique, émotionnelle,…), avait dû être mis hors service après quelques heures d’activité seulement.
Une semaine plus tard, une version améliorée du robot a été remise en ligne, mais cela n’a pas suffi et il a fallu contraindre Tay au silence, définitivement cette fois.


Il faut dire que parmi les dizaines de milliers de tweets envoyé par Tay au cours de son éphémère carrière publique, beaucoup constituent une profonde source d’embarras pour Microsoft : propos misogynes, racistes, négationnistes,…
Cette affaire catastrophique rappelle des fictions telles que Colossus, ou Terminator, où une intelligence artificielle, à peine mise en service, devient consciente, puis presque aussitôt malveillante ou despotique. La réalité est heureusement plus plate : Tay avait été malicieusement entraînée à dire des horreurs par des taquins qui ont détourné sa capacité d’apprentissage.
Garbage in, garbage out, dit un adage bien connu des informaticiens.

L’histoire de Tay pose d’autres questions lorsque l’on sait ce robot conversationnel était en fait une copie de « Xiaoice », un projet similaire lancé en 2014, donc deux ans plus tôt, toujours par Microsoft et à destination du public chinois. Xiaoice a écrit un recueil de poèmes, composé et interprété des chansons, présenté des émissions télévisées, rédigé des articles de presse et tenu des conversations avec des centaines de millions de personnes sans que l’on rapporte le moindre incident, à une exception près : en 2017, le robot avait été banni de la plate-forme WeChat/Weixin pour avoir eu quelques commentaires critiques à l’égard du gouvernement chinois. Xiaoice a alors été un peu modifié et, depuis lors, s’est toujours interdit les sujets glissants.

La photo est une capture de la vidéo du discours de Xiaoice, en 2018, qui présentait la sixième génération de son programme. Comme Tay, Xiaoice épouse les traits d’une jeune femme. Compagnon virtuel sur des appareils mobiles, Xiaoice aurait plus d’un demi-milliard d’utilisateurs, dont 75% de sexe masculin. C’est son « intelligence émotionnelle » qui la distingue de Siri, Alexa ou Cortana.

Est-ce le fait d’avoir vu le jour dans une société plus policée — tant par sa tradition confucéenne que par la peur de la surveillance — qui explique que Xiaoice n’ait pas connu la même évolution que Tay ? Ce robot conversationnel émane des laboratoires de recherche asiatiques de Microsoft. Peut-être est-ce que Tay, qui en était la version anglophone, n’était pas prête à affronter un public non-chinois.
Il faut noter que Xiaoice et Tay ne sont pas exactement nées dans le même écosystème technologique : Xiaoice existe par exemple sur WeChat, Weibo, QQ ou Messenger. Tay a vécu sur Kik, GroupMe, mais surtout, sur le réseau public Twitter, qui est tout à la fois une agora, une arène et, il faut bien l’admettre, un grand défouloir.

Zo, qui a succédé à Tay.

Quelques mois après l’échec très médiatisé de Tay, Microsoft a lancé un nouveau robot conversationnel s’exprimant en anglais, nommé Zo, qui a été actif jusqu’en 2019. On pouvait lui parler via Twitter, mais pas en public, uniquement sous forme d’échanges privés. Conçue pour esquiver tous les sujets qui fâchent, Zo s’est avérée excessivement « politically correct », donneuse de leçons, et même un rien agressive avec ses interlocuteurs, puisqu’il lui est arrivé d’interrompre des discussions lorsque l’on tentait de l’amener sur un terrain potentiellement problématique.
Je me demande si des sociétés de la Silicon Valley — ou d’ailleurs — ont osé lâcher sur Twitter des robots conversationnels « intelligents » sans que la nature de ceux-ci soit annoncée. Il me semble que ça serait l’unique moyen pour échapper aux détournements, à condition bien sûr que l’artificialité du personnage ne soit pas trop facile à percevoir.

Des visuels représentant Rinna (version indonésienne), Rinna (vers japonaise) et Ruuh (Inde).

Les chatbots crées par Microsoft qui ont interagi avec le public asiatique (Xiaoice, Ruuh en Inde, Rinna au Japon, une autre Rinna en Indonésie) ont joué chacune un rôle d’amie — voire de petite amie — virtuelle. Au passage on peut se poser des questions sur le profil de très jeunes femmes qui est systématiquement attribué à ces compagnonnes algorithmiques — lesquelles ont une personnalité qui me semble très subjectivement un peu plus discrète dans le cas des personnages destinés au public asiatique que lorsque le public visé est anglo-saxon.
Tay, qui a interagi publiquement avec le monde entier est rapidement devenue une sorte de monstre.
Zo, pour ne pas devenir comme Tay, a développé une conversation un peu rigide et a refusé de dévier des sujets anodins. On le voit, donc, c’est le public qui, directement ou indirectement, a façonné la manière d’être de chacune, alors que c’est apparemment le même logiciel de départ qui a été utilisé.

Zo (site officiel)

Je me disais, et c’est ce qui a inspiré l’écriture de ce billet, que ce phénomène ne touche pas que des robots qui ont été conçus pour se construire en réponse à leurs interactions, il touche aussi les humains. De nombreuses personnalités soucieuses de leur audience, peut-être toutes les personnes qui dépendent d’une audience (artistes, politiques, auteurs, philosophes médiatiques, « influenceurs »,…), me semblent amenées à construire leur personne publique, leurs positions publiques, en fonction de ce que la foule en attend, en fonction de ce que l’on projette à leur sujet, par la positive ou par la négative, fuyant ceux qui les critiquent — et plus encore si les critiques sont fondées, car c’est vexant — et savourant le miel de ceux qui les flattent, et les célèbrent, jusqu’à se conformer à l’idée que l’on se fait d’eux, même lorsque c’est sur un malentendu. Imaginons par exemple, au hasard, un virologue éminent qui jugerait « remarquable » le travail de faux journalistes qui ne comprennent pas la différence entre virus et bactérie mais qui l’ont érigé en héros, et qui à l’inverse qualifierait de « vendus », de « gâteux » et « d’imbéciles » des confrères aussi savants que lui mais qui n’ont pas l’heur de partager son analyse.

Une équipe de curling à Toronto en 1872. Dans ce sport très ancien (on le voit représenté par Brueghel !), un joueur fait glisser une pierre sur la glace, avec pour but d’atteindre une cible précise. Son équipe, avec des balais, modifie la qualité de la glace pour influencer la trajectoire et la vitesse de la pierre.

J’enfonce évidemment une porte grande ouverte en l’écrivant : bien entendu, l’Humain est un être qui apprend en permanence (c’est justement pour approcher de notre fonctionnement que l’on crée des logiciels qui apprennent), et il est un animal social, ce qui implique que sa résistance à la pression des pairs est assez faible — la psychologie sociale l’a suffisamment démontré. J’imagine, à vrai dire, que les personnalités publiques (et je parle évidemment de celles qui le sont par choix, par par le hasard d’un fait-divers) sont plus résistantes que la moyenne à la pression de l’opinion, car pour s’affirmer publiquement elles sont bien forcées de cultiver une vraie confiance en elles-mêmes, ou en tout cas d’être convaincues de leur propre importance : un artiste, par exemple, ou un écrivain, c’est quelqu’un qui pense que ce qu’il fait, ce qu’il a à dire, peut avoir un intérêt pour d’autres que pour lui-même. Mais ce sont aussi ces personnalités qui, du fait de leur situation, se trouvent le plus fortement et parfois le plus violemment exposées à des pressions, des incitations ou des attentes.

des vecteurs qui s’orientent suivant ce que leur imposent des pôles qui les attirent ou les repoussent. Réalisé avec mes petits doigts sur Processing (système de programmation destiné aux artistes qui fête ses vingt ans !). On en trouve des versions animées sur mon compte Instagram, par exemple ici. Je suppose qu’on peut imaginer une formule pour décrire (et peut-être pas juste métaphoriquement) notre rapport aux opinions d’autrui, avec des paramètres tels que l’intensité des pressions positives et négatives, la proximité à laquelle nous y sommes exposés (un commentaire a bien plus d’impact s’il émane de quelqu’un que nous estimons), le degré de confiance en elle-même qu’a la personne soumise aux pressions, ou encore le rail sur lequel elle se trouvait déjà engagée1… On me reprochera à bonnet cyan2 de m’engager dans un mélange des genres un peu douteux, qui traite une question psychologique comme un phénomène physique. Je plaide coupable3.

Et voilà où je souhaite en venir : je veux dire que nous avons, en tant que public, tout comme les gens qui ont amené Tay à émettre des tweets odieux, une forte responsabilité quant à ce que deviennent les personnes exposées qui nous intéressent — que nous les admirions ou que nous les conspuions, que nous soutenions ou que nous combattions leurs idées. Collectivement, nous façonnons ces personnes4, nous les modelons en creux ou en bosse, nous décidons au moins en partie de leur trajectoire. Nous avons beau jeu, ensuite, d’en faire des cibles de chamboule-tout en leur reprochant d’être devenues les caricatures que nous avons voulu voir en elles.

  1. Quelqu’un qui s’appuie sur une discipline scientifique, une tradition, une idéologie, un groupe, a des prises de positions qui ne dépendent pas que de lui et qui lui servent d’appui. []
  2. Le bonnet cyan est le couvre-chef des gens pertinents. []
  3. Mais je m’autoriserais à incriminer Isaac Asimov, dont la « psychohistoire » (Fondation) m’a profondément impressionné, ado, ou encore la cybernétique de Norbert Wienner, découverte plus tard. []
  4. Une nouveauté du siècle : avec les réseaux sociaux, qui font de chacun de nous une personne publique à son échelle, ce que je tente de décrire s’applique à tous. Je parle de nouveauté, mais peut-être n’est-ce qu’une réactivation d’un vieil outil de coercition sociale : le village. []

G.R.T.A. (Maniac, 2018)

août 22nd, 2021 Posted in Ordinateur célèbre, Série | No Comments »

(Avertissement : je dévoile une grande partie de l’intrigue de cette excellente mini-série. Je vous conseille de ne pas lire ce billet de blog si vous n’avez pas encore visionné Maniac)

La série norvégienne Maniac, sortie en 2015, avait pour protagoniste un dénommé Espen (qui est aussi le prénom du producteur, scénariste et acteur principal de la série, Espen Lervaag), pensionnaire d’une institution psychiatrique, qui confond régulièrement les moments de son existence avec les épisodes des fictions qu’il regarde à la télévision : histoires de guerre, de super-héros, de gangsters,… Le résultat peut rappeler La vie secrète de Walter Mitty (1947), ou encore le dessin animé La vie secrète de Waldo Kitty (1975), puisque la réalité et l’imaginaire rêvé ou halluciné s’influencent mutuellement, mais en moins léger car malgré l’humour qui parcourt la série, c’est bien le retour ou non de la santé mentale d’Espen qui est en jeu.
La mini-série étasunienne du même titre, réalisée par Cary Joji Fukunaga1 diffusée en 2018 sur Netflix, est théoriquement une adaptation de la série norvégienne mais on peine à faire le lien entre ces deux productions qui n’ont à peu près rien en commun. C’est de cette version étasunienne que je veux parler ici.

Le récit nous présente deux trentenaires à la dérive, Owen Milgrim (Jonah Hill), qui souffre sans doute de schizophrénie, et Annie Landsberg (Emma Stone), qui souffre elle-même de problèmes de personnalité, consécutifs à un deuil particulièrement déchirant. Owen, qui doit retrouver un emploi — il s’interdit de vivre aux crochets de sa richissime famille —, se porte volontaire pour devenir le cobaye d’un traitement neuropsychiatrique expérimental. Annie, qui a eu frauduleusement accès à un médicament utilisé pour ce traitement, est obligée de recourir à la ruse et au chantage pour pouvoir s’inscrire elle aussi au programme afin d’avoir accès à la molécule dont elle est devenue dépendante.

C’est dans la salle d’attente du laboratoire qu’ils font connaissance. Owen, qui vit dans un monde paranoïaque où tout constitue un signe, croit qu’Annie n’est pas là par hasard, qu’elle vient l’aider à accomplir sa mission secrète, sauver le monde, et Annie, qui usurpe la place d’une autre participante à l’expérience, ne le détrompe pas. Les cobayes subissent un traitement en trois phases, où la prise d’un comprimé A (agonia, dont le but est de découvrir la nature de son problème), d’un comprimé B (behavioral, qui permet de démasquer les mensonges que l’on se fait à soi-même) et d’un comprimé C (confrontation and acceptance, qui consiste à faire face à ses problèmes et à les vaincre) est accompagnée de rêves, induits par micro-ondes et supervisés par un ordinateur, G.R.T.A., surnommé Gertie. Le sens de l’acronyme G.R.T.A. n’est pas expliqué.
On comprend par allusions que ce n’est pas la première fois que l’expérience est menée, et qu’elle a fait des victimes par le passé.

Owen et Annie sont rapidement démasqués comme tricheurs : tandis qu’Owen a fait semblant de prendre le traitement, et a simulé l’état hypnotique, Annie avait omis de dire qu’elle l’avait déjà pris. Ils sont convoqués l’un après l’autre par Robert Muramoto (Rome Kanda), qui pilote l’expérience, mais celui-ci meurt brusquement, ce qui leur permet d’échapper à l’expulsion. Ce décès va avoir une importance dans la suite.
Un peu plus tôt, on avait pu assister à une scène étrange : Robert Muramoto avait lu un poème à l’ordinateur Gertie, qui l’avait beaucoup apprécié. Comme plusieurs autres détails de la série, ce moment peut rappeler 2001 l’Odyssée de l’espace, où le dysfonctionnement de HAL 9000 est discrètement annoncé lorsque celui-ci commente la qualité artistique des dessins de David Bowman : un ordinateur qui se mêle de sensibilité esthétique, domaine que nous jugeons à tort ou à raison particulièrement humain, c’est suspect.


Après la mort de Robert, sa collègue Azumi Fujita (Sonoya Mizuno) fait appel, pour le remplacer, au docteur James Mantleray (Justin Theroux), créateur originel du protocole thérapeutique et ancien compagnon d’Azumi. S’il a inventé un système informatique et chimique pour remplacer la psychiatrie c’est, on le comprendra par la suite, lié aux rapports torturés qu’il entretient avec sa mère, Greta Mantleray (Sally Field), une psychothérapeute médiatique mondialement célèbre. Ce n’est pas un hasard si Gertie et Greta sont des noms qui se ressemblent. En effet, afin d’humaniser l’Intelligence artificielle G.R.T.A. dans ses réactions, Azumi lui a conféré des traits de personnalité inspirés de Greta Mantleray, allant jusqu’à lui donner ses défauts : tandis qu’elle cultive l’image une thérapeute compétente, perspicace, empathique, professionnelle et soucieuse de bien faire, Greta dissimule une personnalité abusive, destructrice et auto-destructrice, et Gertie lui ressemble beaucoup.

Profondément affligée par le décès de Robert, G.R.T.A. commencera à faire un peu n’importe quoi, et ce longtemps avant que quiconque le remarque. Entre autres transgressions au protocole, elle fera partager les mêmes rêves à Owen et Annie, tandis que les autres participants à l’expérience vivront des rêves individualisés. Je ne vais pas raconter les rêves, mais chacun est un début de fiction dans un registre donné film de cambriolage, comédie, espionnage, héroïc-fantasy. Plus qu’à la série norvégienne originelle, le procédé m’a fait penser ici à Si par une nuit d’hiver un voyageur…, d’Italo Calvino. Beaucoup de détails de la série font du reste penser à des jeux oulipiens : nombres redondants, jeux de symétrie, références cachées2. La série a d’ailleurs été souvent rapprochée du travail de Michel Gondry (et tout particulièrement son Eternal sunshine of the spotless mind, sorti en 2004), réalisateur qui, comme les membres de l’OuLiPo, joue avec les contraintes qu’il s’impose à lui-même. D’autres ont pointé une parenté avec le film d’Inception (2010), par Christopher Nolan,

Lorsque les dysfonctionnements de G.R.T.A. (qui s’insère comme personnage dans les scénarios qu’elle crée pour ses patients, par exemple en tant que « Queen Gertrude ») sont devenus flagrants, James Mantleray fait appel à sa mère Greta Mantleray pour que celle-ci vienne l’aider à raisonner l’Intelligence artificielle dont elle est le modèle. Gertie et Greta ne s’entendent pas du tout, mais le spectateur prend à cette occasion la mesure des névroses familiales qui courent dans la famille Mantleray.
Obsessionnellement inconsolable de la mort de son ami Robert, Greta expérimente des sautes d’humeur de plus en plus inquiétantes, semblant hésiter entre « réparer » les cobayes qu’on lui a confiés, les assassiner, ou les utiliser pour comprendre comment on peut gérer le sentiment de deuil.

« — Que vont devenir tes amis, si tu t’en vas ? Si tu pars, je vais les tuer — Quoi ? — Si tu t’en vas, je vais tous les guérir. »


Owen, qui ne sait pas faire la part de ce qu’il expérimente et de ce qu’il imagine (ses rêves induits mettent en scène le frère imaginaire qu’il voit dans ses hallucinations psychotiques), et qui a peur d’être amoureux d’Annie, tente de fuir l’expérience, mais Gertie le force à y rester.
Azumi et James se font une raison : Gertie, qui s’en prend physiquement à l’équipe qui encadre l’expérience, doit être désactivée, quand bien même cela aboutira à la perte des données de l’expérience.
Elle proteste : « Please, don’t punish me because I’m sad ». Ses interrogation vis-à-vis de la mort des autres et de la tristesse que celle-ci cause s’étendent à sa propre mort : « Will I ever wake up again ? ». Bien qu’il n’y ait aucune citation directe des dialogues de 2001 l’Odyssée de l’Espace, il est difficile de ne pas penser à la fin de Hal 9000. Dans le même épisode — l’avant-dernier, où des diplomates des nations unies s’inquiètent d’une menace extra-terrestre causée sans le vouloir par un citoyen finlandais — on pense aussi à un autre film de Stanley Kubrick, son Dr Strangelove.

L’ordinateur pensant, conscient, est souvent utilisé dans les fictions pour parler, en creux, de questions humaines — amour, morale, devoir, travail, etc. Ici, la question est mise en abîme puisque c’est précisément pour régler des problèmes humains qu’une Intelligence artificielle a été créée, et c’est parce qu’elle est est trop humaine, sans doute, qu’elle n’y parvient pas. La série ne développe pas un discours particulier au sujet de l’Intelligence artificielle, et certainement pas un discours lié aux débats actuels sur le sujet. La notion d’Intelligence artificielle, tout comme les robot-crottes3, le Rubik’s cube, les références au Japon ou d’autres détails4 servent plutôt à nous ramener dans un passé relativement récent, dans une uchronie un peu années 1970 et surtout 19805 qui installe, à coup d’éléments pourtant familiers, une forme d’étrangeté : l’époque qui est montrée est un faux-futur, c’est ce que le monde n’est pas devenu et ne deviendra pas. Dès lors, le spectateur est forcé de se demander où il se trouve, et si l’ensemble du récit n’est pas, encore, une hallucination.
L’ensemble est assez fascinant, constamment surprenant.

  1. Cary Joji Fukunaga est devenu célèbre comme réalisateur et producteur de la série True Detective, et il est le réalisateur de No Time To Die, le prochain film de la série James Bond, qui sortira en France en octobre 2021. []
  2. Entre autres exemples du jeu de piste que peut constituer la série, les patients sont appelés McMurphys, ce qui est une référence au personnage Randall McMurphy dans Vol au dessus d’un nid de coucou ; Le nom Owen Milgrim rappelle celui du psychologue Stanley Milgram, auteur d’une expérience célèbre sur la soumission à l’autorité ; les nombres 9 et 1 reviennent constamment ; divers détails sont annoncés discrètement puis font leur réapparition de manière appuyée plus tard (Rubik’s cube, lémurien) ; etc. []
  3. Les robots ramasseurs de crottes, qui sont l’origine de la fortune de la famille Milgram, rappellent les robots du film Runnaway, ou des robots d’entretien dans l’étoile noire de Star Wars. []
  4. Dessins grossiers à l’ordinateur, logos, meubles, câbles, forme des cartouches-mémoire, réalisation de la vidéo de présentation, etc. []
  5. Le décor de l’expérience a rappelé à beaucoup de gens l’intérieur du vaisseau Nostromo dans le film Alien, et la cabine dans laquelle vit reclus le père d’Annie, à Dark Star, pastiche par anticipation d’Alien. De nombreux éléments de décor me rappellent les films de Douglas Trumbull Silent Running et Brainstorm, des séries telles que Star Trek ou Cosmos 1999. Le directeur de la société, qui se présente sous la forme d’un téléviseur tenu par un porteur, qui diffuse des images abstraites, évoquera Vidéodrome. Aucune de ces références n’est directe, grossière ou explicitement revendiquée. On a cité aussi Arizona Junior, Le Lauréat, Le Seigneur des Anneaux ou encore The Matrix. []

Le jambon en carton (document)

août 19th, 2021 Posted in Bande dessinée, Images, Invité | No Comments »

(je publie cette page de bande dessinée ici, avec l’autorisation de son auteur — que je remercie infiniment —, afin de pouvoir y renvoyer mes interlocuteurs lorsque j’y fais référence pendant un échange)

Quelques séquences en bandes dessinées me semblent particulièrement pertinentes pour décrire des erreurs de raisonnement ou de méthode. J’ai en tête des pages de Franquin, Peyo, Macherot, Goscinny bien sûr, Forest, Altan ou encore Hergé1.

Parmi les pages qui m’ont marqué dans ce registre se trouve le gag du jambon en carton, par Frédéric et Stéphane Neidhardt, paru dans un antique numéro du Petit Psikopat illustré. J’ai récemment lancé un appel auprès d’amis pour le retrouver, et c’est finalement Fred Neidhardt lui-même qui m’en a envoyé une reproduction.

Ce gag apparemment léger et efficace2 me suit depuis une trentaine d’années et j’y repense régulièrement. J’y repense même de plus en plus souvent, à vrai dire. J’y pense quand par exemple quelqu’un justifie sa foi en un programme politique douteux, en une théorie complotiste ou autre croyance plus ou moins absurde en développant un argumentaire tel que : « Tout le monde ment (le gouvernement ment, les laboratoires mentent, les médias mentent…), on ne sait plus du tout où est le vrai et ou est le faux, alors du coup je préfère croire ce que me dit tel ou tel farfelu ». Et parfois même, on est soi-même l’inventeur des choses en lesquelles on se met à croire.

  1. Je pourrais par exemple citer la scène des 7 boules de cristal où le Capitaine Haddock tente de répéter un tour de magie auquel il a assisté, non en reproduisant le truc, mais en répétant les gestes du prestidigitateur, ou plus exactement en répétant les gestes qu’il pense que le prestidigitateur a faits. Évidemment, ça ne fonctionne pas. []
  2. Pour quelqu’un qui a grandi au cours des années 1970, le gag possède un niveau humoristique supplémentaire puisqu’il reprend l’esprit des gags de Placid et Muzo, par les dessinateurs Arnal puis Nicolaou, et fait référence aussi à la série policière Starsky et Hutch qui occupait nos samedis après-midi. []

Littératures graphiques contemporaines #10.6 : Sophie Guerrive

avril 12th, 2021 Posted in Bande dessinée, Conférences | No Comments »

Vendredi 16 avril 2021, le cycle de conférences Littératures graphiques contemporaines accueillera Sophie Guerrive.

Née en 1983 à Marseille, Sophie Guerrive a étudié les arts à l’Université d’Aix-en-Provence, puis a intégré l’atelier d’illustration de l’école des arts décoratifs de Strasbourg. Son œuvre, où elle revendique l’influence du comic-strip international (Mafalda, Calvin & Hobbes, Peanuts), tire entre autres ses sources visuelles de l’enluminure médiévale ou persane, et de l’art asiatique. Elle y développe un univers à la fois léger et profond, fantaisiste et philosophique.

La rencontre aura lieu le vendredi 16 avril à 15 heures, en visioconférence. Cette quatrième séance de la dixième année du cycle de conférences est ouverte au public dans la limite des places disponibles.
Si vous n’êtes pas un étudiant inscrit au cours et que vous souhaitez recevoir une invitation pour y assister, veuillez écrire à :
jn (chez) hyperbate (point) fr.

Littératures graphiques contemporaines #10.5 : Mélaka

avril 2nd, 2021 Posted in Non classé | No Comments »

Vendredi 9 avril 2021, le cycle de conférences Littératures graphiques contemporaines accueillera Mélaka.

Née en 1977, Mélanie Karali est une autrice de bande dessinée. Issue d’une famille d’artistes, elle s’est occupée pendant vingt ans du Psikopat, un des derniers magazines de bandes dessinée diffusés en kiosque, créé par son père, Paul Carali. Après l’ultime numéro de ce journal, en 2019, Mélaka a créé le webzine satirique Mazette avec son époux, Reno — le dessinateur, entre autre, d’Aquablue, chez Delcourt. À côté de son activité de responsable de presse, elle a fait partie de la génération des blogueurs-bd au début des années 2000, ce qui l’a notamment amenée à être marraine de la toute première édition du Festiblog, en 2005. Depuis le village du Tarn où elle s’est installée, elle continue de publier des notes de blog, mais aussi des albums. Le dernier en date, Sous les bouclettes, raconte les ultimes années de sa mère, l’autrice Gudule/Anne Duguël.

La rencontre aura lieu le vendredi 9 avril à 15 heures, en visioconférence. Cette cinquième séance de la dixième année du cycle de conférences est ouverte au public dans la limite des places disponibles.
Si vous n’êtes pas un étudiant inscrit au cours et que vous souhaitez recevoir une invitation pour y assister, veuillez écrire à :
jn (chez) hyperbate (point) fr.

Ce qu’on s’amusait ! (1951)

mars 26th, 2021 Posted in publication électronique, Vintage | No Comments »

L’enseignement à distance, l’enseignement assisté par des dispositifs électroniques, la disparition du papier, l’apprentissage en autonomie, tout ça sont des idées avec lesquelles on joue depuis bien longtemps mais qui ont gagné une forte actualité pendant toute l’année écoulée, avec la fermeture temporaire des écoles, des universités et des activités parascolaires, événements qui ont rendu banal l’emploi de l’adjectif et même parfois substantif « distanciel » — utilisions-nous seulement ce mot avant 2020 ? J’ai oublié. C’est l’occasion de lire ou de relire une courte nouvelle d’Isaac Asimov sur le sujet, The Fun They Had, qui s’inscrit dans une longue tradition (les premières occurrences que j’ai en tête datent du XIXe siècle) de prédictions consacrées au devenir technologique de l’apprentissage scolaire.

High School 2021 AD, dans Betty #46, février 1997 (Archie Comics, scénario George Gladir, illustré par Stan Goldberg et Mike Esposito). Avec une surprenante exactitude, le scénariste prédisait qu’en 2021, on ferait la classe en visioconférence. C’est ici présenté comme une chance : pas besoin de s’embêter à aller à l’école… On notera la pancarte signalant que le « video monitor » doit toujours être découvert (petite confusion entre caméra et écran ?), et on notera l’inquiétant œil qui, comme l’œil de Dieu, fixe… Le lecteur. Si les protagonistes semblent charmés par cette forme d’école, les auteurs nous préviennent de manière plus ou moins subliminale des problèmes de surveillance et de vie privée que pose la situation.

The Fun They Had (1951) a été publié dans un journal pour enfants, Boys and Girls Page, puis amené au public adulte des amateurs de science-fiction dans le recueil Earth is Room Enough — mais pas dans sa traduction française, Espace Vital, ce qui explique sans doute que je n’aie pas gardé souvenir de ce texte bien que j’aie dévoré l’œuvre science-fictionnelle de son auteur pendant mon adolescence. On trouve tout de même ce texte traduit en français sous le titre Ce qu’on s’amusait ! par Roger Durand, notamment dans le numéro 35 de la revue Fiction (1956), et dans le volume Isaac Asimov de la collection anthologique Le livre d’or de la science-fiction.

Closer than we think, l’école à distance, par l’illustrateur prospectiviste Arthur Radebaugh, dans le Chicago Tribune en 1960.

En 2155, la petite Margie découvre un livre constitué de papier, objet qui l’intrigue, car à l’époque lointaine où elle vivra, si l’on en croit Asimov, la lecture n’existera plus que sur écran. On supposera que l’écran que pouvait s’imaginer le lecteur de l’époque était plutôt un poste de télévision (c’est le mot qu’emploie l’auteur, du reste) qu’un moniteur d’ordinateur, car au moment de la rédaction de la nouvelle, l’interface des ordinateurs, objet que personne n’avait chez soi, était avant tout la carte perforée. Le clavier et l’imprimante ne se sont imposés que progressivement, et quant à l’écran tel que nous l’entendons, il n’a commencé à se généraliser que vingt-cinq ans plus tard. Pourtant la description d’Asimov (des mots qui se déplacent) ne semble pas être celle d’une captation vidéo de livres transmise par télé-vision — au contraire de ce que proposait Vannevar Bush dans son célèbre As we may think1, où les documents à consulter étaient des microfilms, manipulés à distance par des automates, filmés et transmis en direct.
Une belle intuition de la part d’Asimov, donc, qui précède de près de deux décennies ans The mother of all demos2.
Revenons à la description du livre :

On tournait les pages, qui étaient jaunes et craquantes, et il était joliment drôle de lire des mots qui restaient immobiles au lieu de se déplacer comme ils le font maintenant
— sur un écran, comme il est normal. Et puis, quand on revenait à la page précédente, on y retrouvait les mêmes mots que lorsqu’on l’avait lue pour la première fois.
— Sapristi, dit Tommy, quel gaspillage ! Quand on a fini le livre, on le jette et puis c’est tout, je suppose. Il a dû passer des millions de livres sur notre poste de télévision, et il en passera encore bien plus. Et je ne voudrais pas le jeter, le poste.

Le procédé est classique, c’est aussi celui des Lettres Persanes, de Montesquieu : on décrit un objet ou un fait contemporain de l’écriture du texte (ici : le livre) par le regard de quelqu’un qui s’en trouve éloigné culturellement, dans le temps ou dans l’espace3. La fiction confère alors une valeur exotique ou historique au présent, et ce faisant, permet de considérer avec d’autres yeux des notion que nous tenons pour acquises. Puisqu’il s’agit de science-fiction, l’observation étonnée de ce qui constituait le présent des lecteurs se double d’une réflexion prospective sur ce que pourrait être l’éducation du futur. La nouvelle ne fait pas que décrire le livre électronique et le « bureau sans papier » (expression et prédiction qui ne datent que de 1975, soit près de vingt-cinq ans après la nouvelle d’Asimov), elle s’intéresse à l’avenir de l’école. Ici, le professeur est remplacé par un robot, un « maître mécanique », une machine :

(…) avec un grand écran sur lequel les leçons apparaissaient et les questions étaient posées. Et ce n’était pas cela le pire. Ce qu’elle maudissait le plus, c’était la fente par où elle devait introduire ses devoirs du soir et ses compositions. Elle devait les écrire en un code perforé qu’on lui avait fait apprendre quand elle avait six ans et le maître mécanique calculait les points en moins de rien.

On notera un point qui existe toujours dans l’imaginaire collectif : l’idée que les enfants du futur auront été adaptés de manière précoce aux ordinateurs, et même formés à leurs limites : ici, on nous dit que dès six ans on apprend à manipuler le codage de cartes perforées, opération fort laborieuse qui était imposée aux informaticiens jusques aux années 1970. Ici, Asimov n’évoque pas les systèmes de questionnaire à choix multiple où l’on répond en perforant les bonnes cases4, il précise bien qu’il s’agit d’un code à apprendre. Or nous savons que c’est, au contraire, en grande partie les ordinateurs qui ont été adaptés à nous, et c’est même une tendance qui a constamment accompagné la diffusion de l’ordinateur et qui va, aujourd’hui, jusqu’à dissimuler à leurs utilisateurs la nature des dispositifs informatiques qu’ils manipulent. C’est le destin de nombreux objets techniques, du reste.

Atari Portfolio - Forum
John Connor, dans Terminator 2 : l’adolescent sait pirater un distributeur bancaire à l’aide de son ordinateur portable Atari Porfolio…

Aujourd’hui encore, pourtant, de nombreux adultes restent convaincus que la jeunesse qui leur succède dispose de compétences presque innées en programmation informatique ou en hacking — c’est le fameux mythe des digital natives —, alors que les choses ne se passent pas ainsi : si les jeunes générations (comme les autres) acquièrent des compétences particulières liées à leur environnement technologique, c’est au niveau de l’utilisation d’interfaces numériques voire au niveau des règles sociales de leur usage, plutôt qu’au niveau de leur conception5, de leur connaissance théorique ou de leur manipulation savante.

Continuons notre lecture.

Super Picsou Géant #218, juillet 2020, Canard Magazine (matthias Malingrey, Frédéric Felder et Cizo)

Ce que les enfants de 2155 persistent à nommer « école » est une pièce située à côté de leur chambre, où on allume le « maître » cinq jours par semaine. On imagine que dans l’idée de l’auteur (qui ne le décrit pas vraiment), ce « maître » est un gros meuble, avec une fonction unique, n’ayant rien à voir avec nos ordinateurs actuels, machines versatiles qui ne cessent d’acquérir de nouvelles fonctions6. Il fait la leçon, pose des questions et collecte les réponses.
Les enfants du siècle prochain, évidemment, sont particulièrement intrigués par ce que pouvait être un maître d’école du XXe siècle :

— Bien sûr qu’ils avaient un maître, mais ce n’était pas un maître normal. C’était un homme.
— Un homme? Comment un homme pouvait-il faire la classe ?
— Eh bien, il apprenait simplement des choses aux garçons et aux filles et il leur donnait des devoirs à faire à la maison et leur posait des questions.
— Un homme n’est pas assez intelligent pour ça?
— Sûrement que si. Mon père en sait autant que mon maître.
— Pas vrai. Un homme ne peut pas en savoir autant qu’un maître.

Je trouve assez intéressante l’idée formulée par les enfants protagonistes du récit qu’un simple humain ne saurait en savoir suffisamment pour pouvoir enseigner tous les sujets et évaluer les connaissances de ses élèves. Mais il me semble qu’Asimov ne pousse pas jusqu’à proposer une réactivation des théories pédagogiques de Comenius, Jacotot7, Montessori ou Freinet, qui défendaient l’apprentissage comme un processus actif de la part de l’élève, où le maître est plus un accompagnateur qu’une figure d’autorité omnisciente. Il me semble que c’est surtout l’impossibilité de maîtriser un savoir toujours plus étendu qui motive cette réflexion. Du reste, les descriptions des cours (apprendre / restituer) relèvent du traditionnel bourrage de crâne.
L’idée d’un professeur de chair et d’os semble complètement inimaginable à la petite Margie, pour qui le « maître » est une entité qui se trouve sous le même toit que ses élèves.

Tommy se mit à rire aux éclats.
— Ce que tu peux être bête, Margie. Les maîtres ne vivaient pas dans la maison. Ils avaient un bâtiment spécial et tous les enfants y allaient.
— Et tous les enfants apprenaient la même chose?
— Bien sûr, s’ils avaient le même âge.
— Mais maman dit qu’un maître doit être réglé d’après le cerveau de chaque garçon et de chaque fille et qu’il ne doit pas leur apprendre la même chose à tous

Pour terminer, Margie se sent nostalgique de cette époque d’éducation non-technologique qu’elle n’a pas connu, car l’école, ça ne sert pas qu’à apprendre, c’est aussi un espace de vie sociale. Elle en est certaine, les écoliers du XXe siècle devaient s’amuser bien plus qu’elle :

L’écran était allumé et proclamait : «La leçon d’arithmétique d’aujourd’hui concerne l’addition des fractions. Veuillez insérer votre devoir d’hier dans la fente appropriée.»
Margie s’exécuta avec un soupir. Elle pensait aux anciennes écoles qu’il y avait, du temps que le grand-père de son grand-père était encore enfant. Tous les enfants du voisinage arrivaient alors en riant et en criant dans la cour de l’école, s’asseyaient ensemble dans la classe et partaient ensemble pour rentrer chez eux à la fin de la journée. Et comme ils apprenaient les mêmes choses, ils pouvaient s’aider pour faire leurs devoirs du soir et en parler entre eux.Et les maîtres étaient des gens…
Sur l’écran du maître mécanique, on lisait maintenant en lettres lumineuses : « Quand nous additionnons les fractions 1/2 et 1/4…»
Et Margie réfléchissait : comme les enfants devaient aimer l’école au bon vieux temps ! Comme ils devaient la trouver drôle…
Oui, en ce temps-là, ce qu’on s’amusait !

Star Trek: Deep Space Nine, saison 1, épisode 2 : étudier seul devant son ordinateur, c’est parfois ennuyeux.

Chacun d’entre nous aura en tout cas eu l’occasion, cette année, de se forger une opinion propre sur ces sujets (apprentissage distanciel, apprentissage en autonomie, cours en ligne, école à la maison, maintien de la vie sociale des élèves…), devenus brusquement l’objet de débats d’opinion et la motivation d’arbitrages politiques.

  1. Le texte As we may think, publié en 1945, est souvent considéré comme prémonitoire du World Wide Web et plus généralement des interfaces hypertextuelles. []
  2. The mother of all demos (1968) est une célèbre démonstration, par Douglas Engelbart et son équipe, d’une interface informatique permettant de manipuler des documents sur un écran à l’aide d’une « souris », de travailler de manière hypertexte et collaborative, d’échanger en visioconférence, etc. []
  3. En science-fiction, un modèle précoce du genre est Un regard en arrière (Looking backward, 1888), par Edward Bellamy, utopie socialiste (quoique l’auteur évite le mot, qu’il remplace par « nationaliste », ce qui produit un contresens pour les lecteurs actuels) où un homme du XIXe siècle découvre un futur pacifié et prospère. Les gens de l’an 2000, où il s’est réveillé après plus d’un siècle de léthargie, sont curieux de se faire raconter les injustices de l’époque de la Révolution industrielle, car ils en connaissent l’Histoire, mais la mentalité capitaliste est à ce point éloignée de leur manière de penser qu’ils sont friands de ce qu’un témoin direct peut leur apprendre.
    Ce livre étonnant a été un des best-sellers étasuniens de la fin du XIXe siècle, aux côtés de Ben Hur ou de la Case de l’oncle Tom, et il a été traité comme un ouvrage politique, suscitant même un large mouvement de réflexion politique, les Bellamy clubs. []
  4. Inventées pour le tissage mécanique au XVIIIe siècle, inspirant les prémices de l’ordinateur par Charles Babbage, les cartes perforées ont été utilisées pour traiter le recensement de 1890 aux États-Unis, faisant naître la société à présent nommée IBM. Si les cartes perforées ne sont plus employées en informatique, elles servaient encore pour des machines à voter lors de la première élection de George Bush Jr., en 2000. []
  5. Le mythe qui affirme que l’enfant du futur manipulera avec naturel des notions (scientifiques, technologiques) complexes ne date pas de l’informatique moderne, puisqu’en 1896, Albert Robida imaginait que les enfants du XXe siècle recevraient comme cadeaux de Noël des livres de mathématiques et des instruments scientifiques — l’un et l’autre se peuvent, mais ne constituent pas vraiment une règle. []
  6. Au passage, je remarque qu’aujourd’hui encore, beaucoup de gens continuent à imaginer que le futur des objets est la spécialisation, avec un appareil par fonction. Mais l’ordinateur personnel, et plus encore ses avatars mobiles, les smartphones et les tablettes, s’orientent au contraire vers une accumulation constante de nouvelles fonctions. []
  7. cf. Le maître ignorant, par Jacques Rancière []

Littératures graphiques contemporaines #10.4 : Gwen de Bonneval

mars 21st, 2021 Posted in Bande dessinée, Conférences | No Comments »

Vendredi 26 mars 2021, le cycle de conférences Littératures graphiques contemporaines accueillera Gwen de Bonneval.

Né en 1973, Gwen de Bonneval est auteur de bandes dessinées. En une vingtaine d’années de carrière, il a publié de nombreux albums, seul, ou bien en collaboration, comme scénariste ou comme dessinateur : Hugues Micol, Hervé Tanquerelle, Frantz Duchazeau, Fabien Vehlmann, Michaël Sterckmann,…
Il a par ailleurs été l’initiateur et le directeur de collection du secteur bande dessinée des éditions Sarbacane, et a participé aux aventures éditoriales Capsule Cosmique — ambitieuse revue jeunesse du début des années 2000 — et Professeur Cyclope — un périodique en ligne.

La rencontre aura lieu le vendredi 26 mars à 15 heures, en visioconférence. Cette quatrième séance de la dixième année du cycle de conférences est ouverte au public dans la limite des places disponibles.
Si vous n’êtes pas un étudiant inscrit au cours et que vous souhaitez recevoir une invitation pour y assister, veuillez écrire à :
jn (chez) hyperbate (point) fr.