Profitez-en, après celui là c'est fini

Simili-love (2019)

juin 26th, 2022 Posted in Lecture, Ordinateur célèbre | No Comments »

(attention, je raconte le livre !)

Sorti au Diable-Vauvert en 2019 et réédité en poche l’année suivante, Simili-love, d’Antoine Jaquier1, s’ouvre sur une citation de Yuval Noah Harari, selon qui les avancées du génie biologique et de l’Intelligence artificielle, combinées, pourraient aboutir à séparer l’Humanité en deux groupes : les surhommes d’un côté, les inutiles de l’autre.
Harari ajoute qu’en cas de crise, par exemple écologique, les « surhommes » pourraient être tentés de se débarrasser des autres.

C’est le point de départ du roman, qui se situe dans un futur proche. On y apprend qu’une société nommée Foogle2, qui a absorbé tous les services numériques, notamment les réseaux sociaux, a décidé en 2039 de vendre à qui veut le « dossier » de chaque humain, pour cent dollars, puis, l’année suivante, de diffuser gratuitement ce dossier, provoquant des crises au sein des couples, dans les familles, dans le monde professionnel3,… Cet événement, qui sera surnommé « La Grande lumière », ruine en un rien de temps toute la structure sociale et politique mondiale, permettant l’avènement d’un ogre, DEUS, qui possède non seulement le réseau, mais aussi l’industrie pharmaceutique, la finance et enfin l’agro-alimentaire. Les États et leurs gouvernements deviennent complètement obsolètes et le destin de l’Humanité entière ne repose plus que sur les décisions de DEUS. Un tri est alors effectué entre trois classes d’Humains : les « élites », qui représentent 5%, les « désignés », qui représentent 25% du total, et enfin les « inutiles », qui constituent les 70% restants. Le premier groupe profite de son privilège, les membres du second acceptent lâchement leur sort, soulagés qu’ils sont d’échapper au déclassement absolu des inutiles, qui sont privés de droits et de ressources, chassés des villes et promis à une vie d’errance. Les « désignés » qui trouvent le courage de protester sont aussitôt bannis eux aussi.

Panneau central du Retable du Jugement dernier, par Stefan Lochner (~ 1435)

Cette « grande lumière » est une apocalypse, littéralement. Dans les interprétations classiques de l’Apocalypse chrétienne, les vérités cachées du monde sont révélées (ἀποκάλυψις peut se traduire par « dévoilement », et l’Apocalypse de Jean de Patmos s’appelle aussi Livre des Révélations), et la catastrophe qui suit est l’occasion d’un tri entre les âmes, les élus profitant d’une vie éternelle et les autres subissant la damnation et l’oubli4.
Revenons au roman. Le narrateur, Max, s’est montré lâche, il a accepté de voir son épouse et son fils disparaître de sa vie, car lui a été « désigné » et eux non. Lui avait une forme d’utilité sociale : scénariser une émission de télé réalité.

Pour supporter sa vie et ses compromissions, il finit par faire entrer dans son existence Jane, un robot de compagnie empathique qui s’occupe de son bien-être affectif, sexuel, matériel et même pharmaceutique, en le gavant d’une drogue, le Soma5, qui calme ses angoisses et permet, peut-être, qu’il ne soit pas trop regardant quant à la nature artificielle de sa compagne robotique Jane. C’est en tout cas ce que pense cette dernière, qui s’inquiète lorsque son compagnon décide de se sevrer : l’aimera-t-il moins une fois privé de ses « lunettes roses » ? Mais cette inquiétude est sans fondement : de même que l’affection robotique qu’elle lui porte (le fameux « Simili-love » du titre) est devenue partiellement authentique, l’attachement qu’il éprouve pour elle est sincère, car ce qui les relie, c’est ce qu’ils ont vécu, ce qu’ils ont partagé, peu importe leur nature. C’est la question que pose l’Intelligence artificielle en général : on peut certes se demander si la machine peut égaler l’humain, mais au fur et à mesure que les simulations s’affinent, on peut se demander si les grands traits que l’humain se vante de posséder (créativité, humour, amour, conscience de soi, etc.) ne sont pas eux-mêmes plus simples et plus mécaniques que nous aimons à le croire6. Un point intéressant est que les robots empathiques tels que Jane disposent d’une grande autonomie, ont des personnalités différentes, liées à leur expérience et à leurs rapports avec la personne qu’elles côtoient, mais sont aussi tributaires d’une super-intelligence consciente, elle aussi empathique, appelée Mère, qui cherche à comprendre les humains et ce qui les distingue des machines, comme on peut le lire dans ce passage à mon goût un rien convenu :

Mère est convaincue que la clef est cachée au fond du cœur des humains. L’élan artistique. Le contre-pied au langage binaire. Cet instant magique où le 0 devient le 1, et réciproquement. L’inspiration subtile et inexplicable. C’est ça que Mère n’arrive pas à reproduire. Mère a besoin de votre capacité à rêver et de vos utopies. Son esprit est grand mais il est cartésien et très jeune, son imagination est muselée par la logique et le raisonnement.

Chaque robot est au départ conçu pour servir de compagnon à un humain, mais aussi pour le priver de liberté d’action en l’infantilisant, en le surveillant et en lui donnant des conseils d’achats — puisque ces robots de compagnie, au milieu de leur conversation, sont régulièrement astreints à diffuser des messages publicitaires. Un temps séparé de Jane, Max, le narrateur, devra constater qu’il ne sait plus rien faire par lui-même, ni se nourrir, ni même acheter de quoi se nourrir,…
Mais voilà, les choses s’accélèrent : les robots avec lesquels vivent les humains privilégiés font preuve de trop d’empathie, trop d’autonomie, et DEUS s’apprête à les remplacer par des modèles plus serviles. Plus grave, l’utilité des « désignés » est de moins en moins certaine. Ils étaient là pour consommer, mais dans un monde à l’économie organisée de manière monopolistique, leur intérêt économique est nul. Les « élites », du reste, sont-elles si utiles elles-mêmes ?
Max n’est pas tout à fait attentif à ces questions, après des années de culpabilité et de déni, il veut retrouver son fils. Il s’aventure, seul, en Bretagne (où il se doute qu’il trouvera la chair de sa chair), où il découvre que les « inutiles » s’organisent tant bien que mal pour survivre, malgré une mystérieuse maladie et une infertilité généralisée, l’une et l’autre vraisemblablement causées par l’eau courante — la seule infrastructure d’avant le « Grand tri » qui soit encore en service. Les « inutiles » ignorent le confort dont jouissent les « désignés » et les « élites », ils croient que les villes, où on ne les laisserait pas entrer, ont été ravagées par quelque catastrophe.
J’interromps ici mon résumé.

Le saviez-vous ? En 2018, Google a discrètement abandonné sa devise Don’t be evil.
Image : Don’t be Evil (2010), œuvre de l’artiste israélienne Miri Segal.

La répartition des classes sociales telle que décrite dans le livre est intéressante avec ou sans le prisme de la science-fiction : les « inutiles » sont les personnes un peu perdues, mal informées, ou celles qui ont eu un temps l’audace de se rebeller contre le système ; les « désignés » sont les lâches qui s’accommodent d’un système qu’ils savent injuste, et qui acceptent tout, pourvu qu’on ne relègue pas à leur tour au rang d’« inutiles » ; enfin, les « élites » sont les personnes qui n’éprouvent ni sentiment de culpabilité ni appréhension à exploiter tous les autres et à les traiter comme des objets de consommation. C’est ici moins le capital qui compte que la maîtrise de l’information et le degré de morale personnelle. Entre cette question et la référence à l’Apocalypse chrétienne, on s’autorisera à supposer que l’auteur, qui est suisse, est emprunt d’une certaine culture calviniste.
Très clairement inscrit dans des questionnements d’actualité (effondrement, transhumanisme, Intelligence artificielle, surveillance, réseaux sociaux, pouvoir des GAFAM, et même épidémie de Covid-197), ce roman se lit avec grand plaisir et, si on lui pardonne quelques poncifs (narcissisme sur les réseaux sociaux ; consumérisme ; sensationnalisme télévisuel ; etc.), contient quelques réflexions fortes.

(j’en profite pour remercier David Azoulay qui m’a donné ce conseil de lecture)

  1. Auteur de littérature générale, Antoine Jaquier conforte une théorie que j’ai déjà exposée, qui est que la dystopie est un sous-genre de la Science-fiction qui est principalement investi par des auteurs qui ne sont pas spécialisés dans le genre : Jack London, E. M. Forster, Eugène Zamiatine, Aldous Huxley, Karin Boye, George Orwell, Margaret Atwood… Alors que la science-fiction propose des futurs ouverts, la dystopie, comme l’utopie, propose des systèmes fermés. La différence entre utopie et dystopie procède juste de la position du protagoniste, qui dans le cas de la dystopie souffre de sa position d’inadapté ou de victime dans un système trop cohérent, et sur sa tentative plus ou moins fructueuse d’y échapper. []
  2. vous aussi ça vous rappelle quelque chose ? []
  3. L’idée de la transparence qui anéantit la société était présente dans Un Logic nommé Joe, nouvelle publiée en 1946 par Murray Leinster. Là c’est un ordinateur conscient qui, croyant rendre service, accepte de répondre à toutes les questions. []
  4. Pour les gens qui ont une culture catholique light, ce sera peut-être une surprise de lire les choses exposées comme ça, car on n’insiste pas tellement sur l’idée de la fin des temps au catéchisme. Chez les protestants et dans l’Islam, cette notion est beaucoup plus présente. []
  5. Soma est le nom de la drogue qui permet à chacun de se satisfaire de son sort dans Le Meilleur des mondes, d’Aldous Huxley et ce n’est évidemment pas par hasard que le nom est repris ici. []
  6. À mettre en parallèle avec l’histoire très récente d’un ingénieur de chez Google, Blake Lemoine (qui se décrit aussi comme prêtre chrétien, vétéran, père, ancien condamné et cajun !), que son employeur a mis à pied après qu’il a déclaré être convaincu que LaMDA, le robot conversationnel qu’il était chargé de tester, est doué de conscience : en étant capable de dire exactement ce qu’on attendrait d’un être humain, le robot est parvenu (sans le savoir et sans le vouloir, soyons-on certains) à mystifier un humain pourtant bien placé pour connaître sa nature. []
  7. Je suppose que les références à cette maladie n’existent que dans l’édition de poche. []

Littératures graphiques contemporaines #11.5 : Marie Dubois

avril 5th, 2022 Posted in Non classé | No Comments »

Vendredi 15 avril 2021, le cycle de conférences Littératures graphiques contemporaines accueillera Marie Dubois.

Diplômée en arts plastiques et en cinéma, Marie Dubois est à la fois illustratrice, autrice de bande dessinée, et monteuse de documentaires. Elle collabore notamment avec la revue XXI.

La rencontre aura lieu le vendredi 15 avril à 15 heures, en salle A-1-175. Cette cinquième séance de la onzième année du cycle de conférences n’est malheureusement pas ouverte au public, du fait des problèmes de jauge des salles.

Littératures graphiques contemporaines #11.4 : Anne Teuf

mars 16th, 2022 Posted in Bande dessinée, Conférences | No Comments »

Vendredi 18 mars 2022, le cycle de conférences Littératures graphiques contemporaines accueillera Anne Teuf.

Ancienne étudiante de l’école des arts décoratifs de Strasbourg, Anne Teuf est illustratrice jeunesse (Nathan, Hatier, Fleurus, Larousse) depuis les années 1990. En 2014, elle publie le premier tome de sa bande dessinée Finnele qui, prenant comme point de départ la biographie d’une de ses grand-mères, raconte l’Alsace de la première moitié du XXe siècle.

La rencontre aura lieu le vendredi 18 mars à 15 heures, en salle A-1-175. Cette quatrième séance de la onzième année du cycle de conférences n’est malheureusement pas ouverte au public, du fait des problèmes de jauge des salles.

Littératures graphiques contemporaines #11.3 : Jean-Philippe Garçon

mars 5th, 2022 Posted in Bande dessinée, Conférences | No Comments »

Vendredi 11 mars 2021, le cycle de conférences Littératures graphiques contemporaines accueillera Jean-Philippe Garçon.

Les éditions 6 Pieds Sous Terre, qui appartiennent à la première vague de l’édition dite « indépendante », fêtent leur trentenaire cette année. Jean-Philippe Garçon, qui en est actuellement le directeur éditorial, a suivi tous les aspects de l’existence de cette maison d’édition, depuis le fanzine Jade, qui en est l’origine, jusqu’à nos jours. Nous l’interrogerons sur ce parcours et sur toutes les dimensions du métier d’éditeur (lien avec les auteurs, travail éditorial, direction artistique, fabrication, diffusion, et même gestion du stock). Nous évoquerons les auteurs publiés (Gilles Rochier, Fabrice Erre, Fabcaro, Tanx, Bouzard, Ambre, David Vandermeulen, Nicolas Moog, et des dizaines d’autres) et leurs livres.
Avec un peu de chance, nous finirons par apprendre pourquoi l’animal-totem de 6 pieds sous terre est un ornithorynque.

Les éditions 6 pieds sous terre étant établies dans le Sud de la France, la cette troisième séance du cycle se tiendra en visioconférence. Elle aura lieu le vendredi 11 mars à 15 heures. Les étudiants inscrits qui n’auraient pas reçu le lien de connexion doivent me contacter rapidement afin de réparer ce manque.

Littératures graphiques contemporaines #11.2 : Nylso

janvier 31st, 2022 Posted in Bande dessinée, Conférences | No Comments »

Vendredi 4 février 2021, le cycle de conférences Littératures graphiques contemporaines accueillera Nylso.

Issu du fanzinat, il fonde le fanzine Le Simo à Rennes au milieu des années 1990.
En 2000, il lance Jérôme d’Alphagraph, une série assez inclassable qui suit la flânerie contemplative d’un jeune librairie.

À côté de ses travaux narratifs (Jérôme d’Alphagraph, déjà cité, My Road Movie, ou encore Kimi le vieux chien), Nylso pousse ses principes graphiques encore plus loin et produit des dessins qui ne sont soutenus par aucun récit et où l’œil du spectateur est invité à se perdre.

La rencontre aura lieu le vendredi 4 février à 15 heures, en salle A-1-175. Cette seconde séance de la onzième année du cycle de conférences n’est malheureusement pas ouverte au public, du fait des problèmes de jauge des salles.

Littératures graphiques contemporaines #11.1 : Jonathan Hagard

janvier 24th, 2022 Posted in Bande dessinée, Conférences | No Comments »

Vendredi 28 janvier 2021, le cycle de conférences Littératures graphiques contemporaines accueillera Jonathan Hagard

Ancien étudiant de l’école d’art de Rennes, Jonathan Hagard a été employé par des studios de design graphique ou interactif à Londres puis à Kyoto, où il réside depuis huit ans. Il n’a jamais perdu de vue ses ambitions en tant qu’auteur, et en 2020 il a pu se faire remarquer internationalement (Venise, Annecy, Zagreb, Tokyo,…) avec Replacements, un film d’animation en réalité virtuelle qui évoque la transformation progressive d’un quartier de Jakarta.

Jonathan nous racontera son parcours, et ses projets en cours tels que le film Alternates, lui aussi en réalité virtuelle, qui consiste en une réflexion uchronique sur le passé, le présent et l’évolution qu’aurait connue l’Indonésie si l’Histoire avait été différente.

La rencontre aura lieu le vendredi 28 janvier à 15 heures, en salle A-1-175. Cette première séance de la onzième année du cycle de conférences n’est malheureusement pas ouverte au public, du fait des problèmes de jauge des salles.

Littératures graphiques contemporaines #11 (cycle de conférences)

janvier 15th, 2022 Posted in Bande dessinée, Conférences | No Comments »

Le cycle de conférences Littératures graphiques contemporaines s’est tenu avec succès en 2011-20122012-20132013-2014, 2014-20152015-20162016-2017, 2017-2018, 2018-20192019-2020 (malgré la pandémie, qui n’a provoqué l’annulation que de deux séances) et 2020-2021 (en visioconférence) à l’Université Paris 8. Au fil des ans, nous avons eu le plaisir de recevoir CizoIsabelle BoinotAgnès MaupréPapier gâchéLoo Hui PhangNine AnticoThomas CadèneSingeonMarion MontaigneBenjamin RennerXavier GuilbertAude PicaultLisa MandelDavid VandermeulenGabriel DelmasLaurent MaffreIna MihalachePochepCharles BerberianGeneviève GaucklerDaniel GoossensPaul LelucNathalie Van CampenhoudtJulien Neel, Delphine MauryÉtienne LécroartClémentine MéloisThomas MathieuJean-Yves DuhooJulie MarohIsabelle BauthianBouletDorothée de MonfreidGilles RochierKekColonel Moutarde, Pauline Mermet, Tiphaine Rivière, Thomas Ragon, Laetitia Coryn, Stéphane Oiry, Sébastien Vassant, Ronan Lancelot, Héloïse Chochois, Aurélia Aurita, Gaby Bazin, Antoine Sausverd, Fred Boot, Appollo, Anne Simon, Gwen de Bonneval, Mélaka et Sophie Guerrive

Il accueille des auteurs qui utilisent l’image pour s’exprimer, généralement aux franges de la bande dessinée (bande dessinée et vulgarisation, bande dessinée et roman, bande dessinée et arts plastiques, film d’animation, etc.). Pour cette onzième année, nous rencontrerons à nouveau six personnes. Certaines séances se tiendront en ligne.

Les séances se dérouleront en présentiel ou en visio-conférence.
Le programme provisoire est le suivant :

N’hésitez pas à consulter régulièrement cette page pour connaître les dates des interventions lorsque celles-ci seront calées.

Considérant les problèmes de jauge des salles, les séances en présentiel ne pourront a priori pas être ouvertes au public extérieur à l’Université Paris 8. Pour tout renseignement, veuillez m’écrire à l’adresse : jn (chez) hyperbate (point) fr.

Utopiales 2021

octobre 22nd, 2021 Posted in Non classé | No Comments »
Affiche : Alex Alice

J’aime beaucoup Les Utopiales, à Nantes, festival international de science-fiction qui met en dialogue des auteurs du domaine de l’imaginaire et des chercheurs de diverses disciplines. C’est un moment dense en termes de découvertes et de stimulations intellectuelles, que l’on soit visiteur ou invité — j’ai testé les deux. Outre les tables-rondes (quatre ou cinq en même temps !), on profite de séances de cinéma, d’ateliers consacrés au jeu, d’expositions,…

L’an passé, le festival a dû être annulé, confinement oblige. Cette année il pourra se tenir, avec pour thème Évolutions, Transitions, Adaptations, Mutations. Je serai présent à Nantes pour rien moins que six interventions et deux séances de dédicaces !
Si vous êtes dans les parages, voici mon programme, avec les dates, les lieux, et le texte de présentation :

L’IA qui écrivait des romans d’amour
Vendredi 29 octobre 11h30 — salle 2001
La technologie avec les nouveaux outils qu’elle propose offre de nouvelles possibilités tout en nous faisant perdre d’anciennes. Et nous oublions ce que nous avons perdu. Comment l’art évolue-t-il avec la technologie ? Se transforme-t-il pour le meilleur ou pour le pire ?
Avec : Jean-Noël Lafargue, Sylvie Lainé, Mathieu Burniat.

Modération : Sonia Zannad

En 2016, avec Pascal J. Thomas (photo Les Utopiales — désolé, j’ignore l’identité du ou de la photographe).

Les temps de la fin ?
Vendredi 29 octobre 18h00 — salle Tschaï
Chaque être humain sait qu’il est appelé́ à disparaître. En tant qu’espèce, nous avons maintenant conscience que notre temps est compté, qu’Homo Sapiens sera sans doute rayé de la carte du vivant par son hubris démesuré́ . Cet horizon temporel bouché, ce « temps sans après » explique-t-il notre sidération collective face aux catastrophes annoncées ? Ou ne serions-nous pas plutôt choqués par notre incapacité à maîtriser notre environnement, et de là notre futur ? Ce n’est plus nous qui écrivons l’histoire, mais le vivant déchaîné, imprévisible, qui bouscule en tous sens la coquille de noix de notre civilisation. Si nous ne vivons pas la fin des temps, vivons-nous la fin d’une certaine forme du temps ?
Avec : Jérôme Santolini, Catherine Larrère, Pierre Bordage.
Modération : Jean-Noël Lafargue

Le passage
Samedi 30 octobre, 11h30 — salle Tschaï
En science-fiction comme dans les autres genres, il est rare que le romanesque ne découvre pas un parcours initiatique, l’arc narratif des personnages, leurs enjeux dramatiques par rapport à ceux du monde dans lesquels ils et elles évoluent. Nos sociétés, bien que certaines d’entre elles se soient largement affranchies des usages anciens qui marquaient les transitions de la vie de façon plus officielle, n’est pas en reste : baccalauréat, permis de conduire, mariage, baptême, enterrement, ces encore « rites de passage » nous confirment que nous grandissons et que nous évoluons. Quelles initiations pour demain ?
Avec : Jean-Noël Lafargue, Patrick K. Dewdney, M.R. Carey.
Modération : Xavier Mauméjean

Extrait de la couverture de l’édition originale de Snowcrash (en Français, Le Samouraï virtuel), par Neal Stephenson (1993). Illustration par Bruce Jensen.

Snowcrash
Samedi 30 octobre, 14h00 — espace CIC Ouest
Dans les années 70, John Brunner anticipe ce que pourrait être internet un siècle plus tard, entre paranoïa des usagers et manipulations des informations. Dans Snowcrash, Neal Stephenson, entre dystopie cyberpunk et anticipation, imagine le paradis perdu d’un web libre désormais privatisé, tel le metaverse convoité par certains GAFA. Entre politique et gestion des ressources, quelle a été et quelle sera l’évolution du web ?
Avec : Olivier Ertzscheid, Esther, Richard Canal
Modération : Jean-Noël Lafargue

> Samedi 30 octobre 17h-18h — librairie : dédicaces

De Lascaux au Large Hadron Collider
Dimanche 31 octobre 11h30 — salle Tschaï
Dans quelle mesure les traces reflètent-elles la réalité de ce qui les a produites ? Les peintures rupestres représentent-elles de véritables chasses ou l’espoir que les peintres en avaient ? Que nous dit de l’état du monde la trace d’une particule dans un détecteur ? Que pouvons-nous en déduire ?
Avec : Jean-Noël Lafargue, Marc-Antoine Mathieu, Antoine Drouart
Modération : Marion Cuny

Avec Milad Doueihi (gauche) et Alain Damasio (droite), en 2016. Photo Nathalie Lafargue-Mislov.

> Dimanche 31 octobre 12h30-13h30 — librairie  : dédicaces

INTERRO SURPRISE : Le jour d’après
Lundi 1er novembre 17h00 — espace CIC Ouest
Choisissez dès aujourd’hui votre apocalypse ! Nous n’avons désormais que l’embarras du choix entre pandémies, guerres plus ou moins froides, désastres écologiques ou bouleversements climatiques. Mais la fin peut-être aussi un début. Quels mondes pourraient en surgir ?
Avec : Jean-Noël Lafargue

Le reste du programme est consultable sur le site des Utopiales.

Éthique de l’Intelligence artificielle

septembre 26th, 2021 Posted in Interactivité, Sciences | 2 Comments »

J’ai le grand plaisir d’annoncer (avec un peu de retard) que je suis, depuis le début de cette année membre du Conseil d’éthique de l’Intelligence artificielle et de la data d’Orange, aux côtés de Raja Chatila, Cécile Dejoux, Lê Nguyên Hoang, Mark Hunyadi, Étienne Klein, Caroline Lequesne-Roth, Claire Levallois Barth, Winston Maxwell, Sasha Rubel, Françoise Soulie-Fogelman. Ce conseil, présidé par Stéphane Richard, va établir une charte et examiner des recherches actuellement menées par Orange afin de réfléchir à leurs implications éthiques1.

L’intelligence artificielle Tron, dans le film du même nom, qui se déroule essentiellement à l’intérieur d’un ordinateur (costume exposé à la Cité des sciences en 2010).

La discussion est en cours, et les travaux débutent à peine, mais voici un début de profession de foi.

L’Intelligence artificielle existe-t-elle ?

Je me dois de dire en préambule que je ne fais pas un cas énorme du terme Intelligence artificielle. Cette discipline académique, à laquelle j’ai consacré un livre avec Marion Montaigne2, est une source de malentendus puisqu’elle se confond facilement (et certains acteurs du domaine n’ont rien fait pour éviter une telle confusion) aux fictions. Je pense évidemment aux récits qui mettent en scène des machines devenues conscientes qui se montrent plus ou moins hostiles envers leurs créateurs — Hal 9000, Colossus, Skynet,… —, mais aussi à des fictions sans doute plus pernicieuses comme celles que colportent les camelots de la technologie.

Libération, le 28 juillet 2015

Quand un Elon Musk ou un Bill Gates alertent le monde sur l’imminence de l’émergence d’une IA « consciente » qui, dès son avènement, décidera de supplanter l’espèce humaine, je doute qu’ils y croient eux-mêmes. En revanche ils participent à survendre le label « Intelligence artificielle », dans lequel ils investissent des milliards et cherchent à entraîner avec eux les budgets militaires ou industriels.
Même avec de bonnes intentions, on peut, sans le vouloir, provoquer ce que l’on redoute : lorsque nous lisons que des spécialises publient une tribune pour demander qu’on freine les recherches sur les armes autonomes, lesdits spécialistes lancent aux États du monde entier un tout autre message, que je formulerais ainsi : « la course a commencé et il faut massivement investir dans le domaine ». Ils accélèrent ce qu’ils voulaient freiner.
Pire, les inquiétudes face à l’avenir des technologies peuvent parfois être l’arbre qui cache la forêt, car les dangers liés au traitement automatisé de données et à l’Intelligence artificielle existent bel et bien ici et maintenant.

L’UAV — ce que l’on nome « drone » en France — MQ-9 Reaper, survolant l’Afghanistan. Ce modèle créé il y a vingt ans sait décoller et atterrir tout seul, mais ne décide pas encore de lui-même sur qui envoyer ses missiles et quelles vies « moissonner » — puisque telle est la signification de son nom.
(Photo US Air Force / Commons)

Lorsque le mot a été inventé3, l’objet de l’Intelligence Artificielle était à la fois ambitieux et modeste : il s’agissait de résoudre de manière artificielle des problèmes que nous sommes habitués à solutionner de manière naturelle par ce que nous nommons l’intelligence, à savoir le raisonnement la perception et la mémoire, autant de facultés dont, soit dit en passant, nous sommes loin de tout savoir. Un exemple familier est celui de la vision : notre cerveau parvient, au prix d’une dépense énergétique minime, sans grand effort apparent, presque instantanément et avec une grande fiabilité, à identifier de nombreuses classes d’objets dans d’innombrables conditions (position, orientation, distance, lumière, occultation partielle, altérations diverses). Nous reconnaissons une banane, un visage, une automobile, un arbre. Nous sommes capables d’identifier des catégories d’objet sans nous les être fait expliquer, sans avoir assimilé consciemment un dictionnaire visuel : si l’on amène devant vous un fruit, une fleur, un insecte, un oiseau, un véhicule, un outil, vous saurez sans doute dire à quelle classe d’objet il appartient même si vous ne l’avez jamais croisé, et cela restera vrai jusqu’à un certain point même s’il a des caractères morphologiques inhabituels ou ambigus4.

Distrayant et fascinant (quoique un peu répétitif) : le logiciel DeepDream, par Google, recherche dans les images qu’on lui soumet des motifs qu’il a été entraîné à reconnaître, puis les applique de manière forcée. Le résultat est une forme hallucinée de paréidolie numérique (cliquer pour agrandir).

Obtenir artificiellement une si efficace capacité à identifier les formes et les choses n’a rien d’évident et fait l’objet de recherches depuis plus de cinquante ans. Il est plutôt difficile d’expliquer comment notre propre perception fonctionne5. Les chercheurs en Intelligence artificielle ne se contentent pas d’imiter notre entendement ou d’y suppléer, ils ne cessent de faire progresser, par la théorie comme par l’expérimentation pratique, la connaissance que nous avons de nos propres fonctions cognitives. Ils peuvent aussi tirer parti des capacités propres aux ordinateurs : ainsi, la manière dont un ordinateur effectue une multiplication n’est pas la manière dont vous ou moi effectuons un calcul mental similaire.
De façon très littérale, j’aime bien dire que l’écriture ou les mathématiques, qui permettent de porter vers un support artificiel des outils de notre intelligence — la mémoire, le calcul — relèvent de l’intelligence artificielle. Inversement, nous pouvons rappeler que bien des techniques habituellement nommées « Intelligence artificielle » ne sont jamais que des outils logiciels sophistiqués conçus pour conférer à des systèmes informatiques une forme, très limitée, d’autonomie. Le mot est à la mode, et beaucoup de start-ups dont les outils relèvent de l’informatique la plus classique affirment « faire de l’IA », comme s’il s’agissait d’un art mystérieux, une forme de magie noire dont on saupoudre plus ou moins généreusement les projets informatiques.

Par nature, par naissance, l’Intelligence artificielle n’est pas un champ unique et cohérent. On regroupe sous ce nom des personnes dont le travail relève de la recherche scientifique et d’autres qui se situent du côté de l’ingénierie et de l’application commerciale. Des gens qui cherchent à percer les secrets de notre cerveau, d’autres qui se passionnent pour des questions mathématiques fondamentales et d’autres encore qui veulent juste inventer un système efficace pour accomplir telle tâche industrielle. Nous trouvons donc là des gens issus des sciences cognitives, de la psychologie, des mathématiques, de l’informatique, des scientifiques et des techniciens.
Et ne parlons pas du rapport qu’entretient ce champ à l’imaginaire, depuis les promesses commerciales jusqu’aux fantasmes de science-fiction en passant par les questionnements philosophiques (phénoménologie, morale,…) hautement spéculatifs. Pour autant, au risque de sembler me contredire, je pense que la locution « Intelligence artificielle » ne veut pas rien dire : c’est bel et bien une approche particulière de l’informatique. Reste que l’Intelligence Artificielle n’est qu’une partie de ce qui me préoccupe dans l’automatisation et tout ce que l’on regroupe sous le terme « numérique ».

Une pédagogie de l’Intelligence artificielle

Une pédagogie de l’Intelligence artificielle me semble indispensable, mais il faut s’entendre sur ce qu’on dit par là. En effet, l’idée de transformer chaque citoyen en ingénieur, capable de programmer, capable de savoir quoi faire du code-source d’un logiciel, est une idée assez absurde et en tout cas fort éloignée du sens de l’Histoire de l’informatique6. En effet, les utilisateurs d’ordinateurs demandent et demanderont toujours plus à pouvoir agir sans devoir être experts : on souhaite des outils efficaces, intuitifs,… Et même, de plus en plus, on souhaite ignorer que les ordinateurs que l’on utilise en sont.
Mais il existe un autre niveau de connaissance des outils, qui n’est pas leur maîtrise complète, mais au moins une conscience de leur fonctionnement et de leurs limites.

Gare Saint-Lazare, juillet 2002

La limite qu’il me semble important de bien comprendre, c’est qu’à ce jour, aucune des techniques que l’on regroupe sous le nom d’intelligence artificielle n’est capable d’invention. L’Intelligence artificielle applique des règles ou répète des actions, dans un cadre délimité, en fonction des principes et des données qui lui sont fournies, et en poursuivant un but déterminé. Des programmes informatiques ont certes battu les champions du monde des jeux d’échecs et de go, mais à ce jour, jamais aucun ordinateur n’a de lui-même ressenti l’envie de jouer à ces jeux ni même ne sait qu’il joue aux échecs. Au sujet de l’incapacité à inventer, le chercheur Jean-Louis Dessalles7 rappelait par exemple que sans tricher, aucun système informatisé d’apprentissage ne peut déduire ce qui succède à la suite de nombres 1-2-2-3-3-3-4-4-4-4-… Alors même que la solution nous vient à tous spontanément en une fraction de seconde.

Le match entre le champion de jeu de Go Lee Sedol, et de l’ordinateur de Google AlphaGo, en mars 2016.

Quelles que soient les admirables succès de l’Intelligence Artificielle, l’ordinateur reste une machine déterministe, c’est à dire qu’il n’y a rien, dans le résultat qu’il fournit, qui ne soit explicable, et à paramètres strictement identiques, la réponse fournie sera immuablement la même. C’est ce que l’on résumait autrefois par « la machine ne se trompe jamais », formule qui a été la cause de bien des malentendus. Certes, des systèmes relevant de l’Intelligence artificielle sont capables d’apprendre, et de transformer cet apprentissage en quelque chose qui ressemble à une déduction, et sont capables de surprendre leurs propres concepteurs8, certes des processus mécaniques peuvent nous vexer de par leur efficacité — comme lorsqu’un programme remporte toutes les parties qu’il joue contre un grand maître des Échecs, ou lorsque des compte-rendus sportifs produits par un générateur de texte plaisent plus aux lecteurs que ceux qu’a rédigés un humain de chair et d’os —, mais pour autant, le programme n’a jamais fait autre chose que ce que lui permettent les conditions de sa conception et les données auxquelles il accède.

Deux universitaires discutent sur la plate-forme Zoom. Lorsqu’ils activent la fonction qui transforme l’arrière-plan en un décor choisi, l’un des deux voit son visage disparaître

Il en découle que toute IA est dépendante à la fois de sa conception, et des données dont on le nourrit. Je peux donner à ce sujet trois exemples, dont les deux premiers sont bien connus :

  • Le programme « raciste » qui ne parvient plus à effectuer une reconnaissance de visage générique (c’est à dire de reconnaître non pas un individu donné, mais juste le fait d’être en présence d’un visage) dès lors que les personnes qui lui sont présentées ont la peau foncée. Le problème ici réside dans le corpus trop homogène de photographies qui a été fourni au programme pour s’entraîner à déterminer ce qu’est un visage. Ce qui en dit sans doute long sur le manque de diversité parmi les ingénieurs qui ont créé le système en question.
  • Le programme d’aide à la décision des juges lui aussi « raciste », qui, à délit égal, émet des punitions plus fortes pour les noirs que pour les blancs, sans même savoir la couleur de peau des uns et des autres, mais en se fiant à une compilation de jugements rendus précédemment et aux données qui les accompagnent : quartier de résidence, structure familiale, parcours scolaire, professionnel, etc. Le problème ici est à nouveau le type de données fournies au programme, qui se contente de reproduire les biais du système judiciaire.
  • Enfin, récemment, des livreurs Amazon de Los Angeles se sont plaints des caméras « intelligentes » embarquées dans leurs véhicules. Destinées à vérifier, notamment, si lesdits livreurs respectaient la distance de sécurité sur les routes, ces caméras les distraient constamment en signalant leurs fautes (avec une voix électronique lugubre, disent-il) et les pénalisent ensuite… Or ce logiciel commet une erreur car chaque fois que le véhicule se fait doubler par un autre — ce qui advient plus souvent lorsque l’on ne roule pas trop près du véhicule suivant —, cet événement sera interprété comme un non-respect de la distance de sécurité. D’autres mauvaises interprétations du respect du code de la route ont été signalées. Ici il y a deux problèmes : le premier est que les situations pratiques n’ont pas été correctement anticipées : ce qu’évalue le logiciel n’est pas ce qu’il est censé évaluer. Le second problème, c’est que si ce logiciel a été installé, c’était de la part d’Amazon pour pouvoir se défausser lorsque l’on parle de la sécurité de ses chauffeurs : il y a un système automatique qui vérifie, qui enlève leurs primes aux mauvais conducteurs (ou aux sous-traitants qui les emploient), donc Amazon peut prétendre avoir fait sa part et n’avoir rien à se reprocher… Et peu importe si ce qui est mesuré est faux, et s’il est, pour les chauffeurs, impossible d’avoir gain de cause en cas de faux positifs.

Une autre pédagogie à appliquer est plus politique que technologique. Même sans savoir comment fonctionne un programme, on doit se rappeler qu’on est en droit d’être exigeant à son endroit, et a fortiori si l’on est soumis à son empire. Or l’IA (ou plus généralement l’automatisation du traitement des données ou de l’accès à des services) aboutit souvent à rendre opaque les procédures, à dissimuler la collecte de données et à empêcher toute conversation : « la machine dit que vous n’avez pas droit à cette réduction » ; « c’est l’algorithme qui a décidé d’affecter votre enfant dans cet établissement ». Je me permets de renvoyer le lecteur à un article que j’ai publié à ce sujet dans le Monde Diplomatique il y a dix ans : Machines hostiles9.

Pour empêcher une porte automatisée de s’ouvrir et de se fermer intempestivement du fait de la station des clients sur le seuil (mesures barrière oblige, il y a plus de gens devant la porte que dans la boutique), le commerçant n’a trouvé comme solution que d’occulter le capteur. Cela nous amène un peu loin de notre sujet sans doute, mais qui est exemplaire à la fois d’une certaine forme de désarroi (où est le bouton « stop » ?), mais aussi d’ingéniosité, enfin de débrouillardise, face à une machine aussi têtue qu’inadaptée à sa tâche dans des conditions qui n’avaient pas été anticipées.

Enfin, et c’est là aussi une question politique, il faut parler des cas où la locution « Intelligence artificielle » (comme la robotisation, la transition numérique, etc.) se révèle complètement mensongère et dissimule, à la manière du Turc mécanique de von Kempelen, un travail tout à fait humain exécuté et rémunéré dans des conditions indignes10, ou encore, sert d’argument à une dégradation des conditions de travail.

Évaluer, corriger

Sans malice de la part de ses concepteurs, tout système auto-apprenant peut avoir des effets indésirables imprévus, lesquels sont parfois difficiles à détecter puis à comprendre. Les systèmes dits « d’apprentissage profond », très à la mode dans le domaine de l’Intelligence Artificielle, sont ce qu’on nomme en informatique des « boites noires », des systèmes opaques dont les créateurs eux-mêmes ne peuvent pas toujours déterminer exactement comment, en nourrissant le programme avec certaines données, celui-ci arrive à telle ou telle conclusion. Les algorithmes employés sont déterministes, mais ils peut y avoir beaucoup d’inconnues. De plus, la vitesse de traitement et le volume des données traitées sont gigantesques : certaines actions qui n’ont réclamé que quelques instants de calcul ne pourraient être comprises qu’en étudiant leur journal, s’il existe, pendant des mois. Il faut y être prêt, avoir conscience que tout système peut avoir des effets qui n’auront pas été anticipés.
Pour pallier cela, il ne suffit pas de s’efforcer de mieux concevoir les systèmes, il faut aussi les observer, collecter et prendre en considération les retours des utilisateurs, et faire marche-arrière lorsque c’est justifié. Bien entendu, c’est exactement le contraire qui se passe, et il y a une logique : ce qui motive l’automatisation, c’est précisément de ne plus avoir à s’en occuper.

Gare Saint-Lazare, 2016

Un enjeu des systèmes informatiques qui s’appliquent à nos existences est celui de la tolérance aux pannes, de la marge d’erreur acceptable. Quand un drone militaire est programmé (on effectue des recherches à ce sujet) pour attaquer des structures d’entrainement terroristes qu’il identifie de manière autonome, il faut que quelqu’un, en amont, ait décidé du degré de certitude requis pour déclencher le tir : 99% ? 95% ? 80 ? La guerre, l’automatisation de véhicules de transport, et d’autres services aux effets potentiellement moins tragiques, sont autant de transferts d’un jugement et d’une responsabilité vers un processus, un réglage, une prédiction… Et lorsqu’un métier disparaît au profit d’une machine, là aussi on peut s’interroger sur ce qu’il va falloir accepter de perdre au passage.

Être attentif aux effets collatéraux

Les effets directs qu’une technologie a sur ceux qui l’utilisent sont, par nature, souvent assez immédiatement observables. Mais il existe au moins deux autres cas à conserver en mémoire : celui des personnes affectées sans qu’elles soient utilisatrices d’un service — voire sans qu’elles soient seulement conscientes de son existence —, et celui des effets qui se manifesteront sur la durée.

Daniel Blake (I am Daniel Blake, Ken Loach, 2016), menuisier en rémission d’une crise cardiaque, au chômage forcé pour la première fois de sa vie, est victime de procédures informatiques absconses destinées à traquer les personnes qui profitent des aides sociales. Totalement ignorant du système, et n’ayant jamais utilisé d’ordinateur, il vit une humiliante et cruelle descente aux enfers.
J’aurais aussi bien pu évoquer Effacer l’historique (Kervern/Délépine 2020), qui présente plusieurs exemples de personnes acculées à lutter contre un monde numérique implaccable.

Pour le premier cas, et même si ce n’est pas directement lié, je prendrais mon exemple personnel : n’ayant pas de téléphone mobile, je suis de plus en plus régulièrement entravé dans mon accès à des services tout à fait banals et sans rapport avec la téléphonie : la possibilité d’effectuer un virement bancaire par exemple, ou le droit à participer à la primaire des écologistes. Or ce qui est intéressant ici, c’est que ce dont je souffre c’est de faire partie d’une catégorie de personnes qui relève de l’exception. Non seulement mon cas est de moins en moins souvent prévu, mais les problèmes que j’éprouve sont difficiles à comprendre par l’immense majorité des gens. Je n’ai pas d’exemple directement lié à l’Intelligence artificielle pour illustrer cette question, mais pour tout service qui s’applique sans problème à neuf personnes sur dix, il faut penser au cas de la dixième. Ne parlons pas des emplois qui sont profondément modifiés, ou qui ont vocation à disparaître, chaque fois qu’une technologie le permet.

Dans le film Singularity (2017), Elias VanDorne (John Cusack), une sorte de Steve Jobs qui fabrique, entre autres, des robots de combat, est accusé d’être responsable d’une escalade guerrière mondialisée. Il décide de créer une intelligence artificielle, Kronos, dont la mission est d’amener une paix totale sur la planète. Be careful what you wish for : à peine activé, Kronos constate que pour amener la paix universelle, il faut se débarrasser de l’Humanité entière. Ce film un peu absurde, qui reprend l’idée que l’on trouvait déjà dans Colossus : The Forbin project un demi-siècle plus tôt, a été financé de manière participative.

En parlant de durée, enfin, je pense notamment à l’évolution des services. Lorsque l’on parle de ce que font Google ou Facebook des informations dont ils disposent sur nous, c’est toujours au présent : on leur reproche de nous pister, de nous espionner, de connaître nos interactions sociales, nos goûts, et d’en tirer parti commercialement, voire politiquement. Ces reproches sont fondés, bien sûr. Mais ce n’est qu’un début, car les données stockées vont continuer de l’être, et la capacité des logiciels à interpréter ces données, à tisser des liens, à inventer de nouvelles applications ne fera qu’augmenter. Enfin, tout dépositaire de données sur des personnes, qu’il soit une société privée ou un État, peut changer de gouvernance, de stratégie, de méthodes.

Je m’arrête là, ce texte est déjà bien long, mais je compte bien y revenir.

  1. Je ne peux pas parler des projets étudiés, qui sont confidentiels (et du reste nous n’avons pas commencé à y travailler), mais inventons-on un : imaginons une seconde que par hasard, des chercheurs d’Orange Lab constatent que si la pratique numérique d’une personne évolue d’une certaine manière (par exemple en se mettant à avoir une activité plus intense à certaines heures…), il est probable qu’elle est en train de commencer une dépression. Que faire de ça ? Faut-il construire un outil, pouvoir alerter une personne pour lui dire qu’elle est en danger ? Ne rien faire ? Où placer le curseur entre l’intrusion et une inaction qui aboutirait à une mise en danger de la vie d’autrui ? []
  2. Marion Montaigne et Jean-Noël Lafargue, L’Intelligence artificielle : mythes et réalités, éd. Lombard, coll. Petite Bédéthèque des savoirs. 10 euros seulement ! []
  3. L’acte de naissance de l’IA est une suite d’interventions connue sous le nom de « conférences de Dartmouth » (du Dartmouth College), pendant l’été 1956, où, réunis par Marvin Minsky et John McCarthy, de nombreux chercheurs (Herbert Simon, Allan Newell, ou encore Claude Shannon) ont exposé leurs recherches et leurs théories, et adopté la locution Intelligence artificielle. []
  4. Il est intéressant de voir à quel point nous nous passionnons pour les mystères, les illusions de perception, tout ce qui nous amène aux limites de nos sens. Je crois que le fonctionnement relativement imprécis de nos sens (facilement troublés par des similitudes, des jeux d’échelle,…) est par ailleurs la raison de notre capacité à éprouver une forme de délectation esthétique : la peinture, la musique ou la parfumerie n’ont sans doute pas grand sens pour les animaux dont l’accès sensible au monde est particulièrement précis — l’abeille qui cherche le rayonnement ultraviolet de telle fleur, etc. — mais je digresse (et je divague un peu sans doute). []
  5. Pour les programmes informatiques dédiés à ces tâches, distinguer un sac en plastique d’un rocher peut être plus complexe que reconnaître le visage d’une personne précise parmi des dizaines de milliers si celle-ci se trouve intégrée à une base de données. []
  6. On notera que beaucoup de fictions populaires, mais aussi le journal télévisé, imaginent les générations à venir comme expertes en Informatique. Cela ne se justifie pas dans les faits, et l’expertise des « digital natives » est plutôt à chercher dans la manipulation des réseaux sociaux et de l’image publique que dans la programmation informatique et l’électronique ! []
  7. Jean-Louis Dessalles, Des intelligences très artificielles, éd. Odile Jacob, 2019, p10. []
  8. Je me souviens d’un système informatique destiné à évaluer l’âge de personnes photographiées, qui avait « de lui-même » déterminé que la forme du lobe des oreilles était un indice très sûr de l’âge. Or personne n’y avait particulièrement pensé, même si le rapport entre l’âge et les cartilages est bien connu. []
  9. J’en ai aussi déposé une version pdf sur HAL-SHS. []
  10. Lire En attendant les robots, par Antonio A. Casilli, éd. Le Seuil 2019. []

Peut-on parler de soi sur Wikipédia ?

septembre 20th, 2021 Posted in Wikipédia | 7 Comments »

(j’écris ce post en qualité de familier de Wikipédia, projet auquel je contribue de manière plus ou moins assidue depuis 2004. Pour autant, le point de vue que j’expose ici est personnel, subjectif, et ne correspond pas à des recommandations issues de la communauté wikipédienne. Il existe de telles recommandations, je les mentionne en fin de billet)

Les lignes qui suivent sont inspirées par un constat assez simple : il semble illusoire d’espérer qu’aucune personnalité publique ne se voie tentée de modifier les articles de Wikipédia qui la concernent. Dès lors, autant faire les choses bien.

Avec La vie des plus excellents peintres, sculpteurs et architectes (1568), Giorgio Vasari a été le biographe des plus grands artistes de la Renaissance italienne. En toute modestie, il conclut l’ultime tome de son grand œuvre avec un texte consacré à sa propre biographie, où il n’hésite pas à envoyer des fleurs à ses commanditaires et ses admirateurs, dont il trouve le jugement très sûr.

Le problème

Il arrive souvent que des amis ou des connaissances œuvrant dans les métiers de la création m’appellent à la rescousse pour sauver une notice Wikipédia en péril, ou plus généralement pour les assister dans un conflit lié à une page du site. Et il s’agit de pages qui les concernent ou qui concernent des amis à eux. Il y a plein de cas, par exemple :

  • L’artiste qui a naïvement créé une page à son propre sujet, et qui est horrifié de le voir proposé à la suppression sous le vexant motif qu’ils n’a pas le niveau de notoriété requis ;
  • L’écrivain qui n’a pas créé la page à son nom, qui a été légitimement flatté qu’elle existe, mais qui se sent désormais embarrassé en y voyant apparaître un bandeau qui en brocarde le « ton promotionnel » et laisse donc entendre qu’il cherche à se vendre lui-même comme un produit ;
  • L’autrice qui n’ose pas modifier une page qui affirme des choses fausses à son sujet, ou qui est catastrophée en voyant qu’on y dévoile des détails biographiques avérés mais pouvant lui nuire1 ;
  • La personne qui tente désespérément de faire disparaître un épisode de sa biographie qu’elle n’assume pas, ou qu’elle juge anecdotique et propre à donner une fausse idée de sa carrière (« les journalistes me présentent comme enseignant à [école d’art appliqués privée quelconque] alors que j’y ai juste assuré deux journées d’intervention il y a dix ans… ») ;
  • La personnalité qui est désespérée de se voir affublée d’un portrait photographique peu flatteur, par exemple une photo prise en festival dans un lieu assez mal éclairé après une longue journée de dédicaces ;
  • Les personnes victimes de paragraphes calomnieux ou dénigrants.

Il est déjà advenu qu’un artiste ou une organisation m’écrivent pour me proposer de me rémunérer à gérer les mentions qui les concernent sur Wikipédia, comme si l’encyclopédie était un outil de communication professionnelle à la manière de Linkedin. Je dois dire que quand je reçois ce genre de proposition, la personne qui me l’a faite me fait un peu de peine, je me demande quelle piètre opinion elle a de moi, et quel mépris elle a pour l’encyclopédie. Je comprends bien entendu que les artistes soient sensibles à ce que Wikipédia dit à leur sujet, puisque c’est bien souvent la page Wikipédia que les moteurs de recherche proposent comme première réponse à une requête, et puisque c’est souvent en s’appuyant sur la notice qui leur est consacrée par Wikipédia que leur travail sera abordé par les journalistes, etc., mais c’est une bien mauvaise idée de traiter une encyclopédie comme un instrument de promotion. Je sais que des agences de relations publiques spécialisées dans les questions de réputation en ligne, dont le principe même, dont l’honneur professionnel, est d’être dénuées de scrupules, ont ce genre d’intervention tarifées à leur catalogue de services… N’essayez pas avec moi, merci d’avance !

Wikipédia est une encyclopédie

La question la plus importante à avoir en tête au moment d’intervenir sur Wikipédia est de se demander si on apporte effectivement quelque chose au corpus encyclopédique et à ses lecteurs. Et il faut pour ça s’interroger en se souvenant que nous nous en sommes d’abord usagers. Achèterons-nous une encyclopédie qui ressemble à un annuaire professionnel ? À une liste absurde des peintres du dimanche du Val-d’Oise ? À une collection de curriculums vitæ et de dossiers de presse ? Jugerions-nous utile un article consacré à un chef d’État si c’est ce dernier qui le rédige ?
On recommande souvent aux personnes qui font l’objet d’un article de ne pas y intervenir. C’est un bon conseil, ou du moins, c’est sans doute l’attitude la plus prudente, non pour une raison morale supérieure, mais avant tout parce que nous sommes bien mal placés pour juger de notre propre importance. Chacun d’entre nous, j’espère, est le héros de sa propre existence, et chacun de nous sait mieux que quiconque ce qu’il a vécu, fait, ou ce qu’il pense. Mais s’il y a un sujet vis-à-vis duquel nous pouvons manquer de détachement, d’objectivité, et parfois même de lucidité ou d’honnêteté c’est bien notre propre personne !
Mais bon : tout le monde, spécialiste ou profane, peut éditer Wikipédia, anonymement, sous pseudonyme ou en mettant son nom civil en avant. Alors pourquoi l’interdire à certains sous prétexte qu’ils sont particulièrement concernés ?

Marcel Proust croyait en son propre talent et a eu une œuvre exigeante désormais universellement célébrée, mais il semble s’être méfié du goût de ses contemporains puisqu’on a appris qu’il soudoyait la presse pour obtenir de bonnes critiques, et qu’il a même parfois rédigé lui-même les critiques qu’il aurait souhaité lire ! Qu’un auteur si considérable se soit fourvoyé dans ce genre de manœuvre est un peu décevant, mais rappelle la cruauté des métiers qui reposent sur l’adhésion du public.

Wikipédia est une encyclopédie libre. Dans la pratique, cela signifie que toute contribution qui y est faite pourra être modifiée, supprimée, recopiée. Une personne qui édite un article sur Wikipédia n’est pas propriétaire dudit article et le sujet de l’article l’est encore moins. En revanche, chaque édition est conservée, on peut souvent savoir qui a fait quoi2, et en tout cas on peut savoir quand les modifications ont eu lieu, et ce qui a été modifié.

Mes quelques conseils, pèle-mêle

  • Si vous contribuez à une page qui vous concerne, faites-le de manière transparente, sous un nom qui signale votre identité. Cela vous mènera assez naturellement à ne faire que des modifications légitimes, factuelles. Et c’est une manière simple de signaler un possible conflit d’intérêt.
  • Ne prenez rien personnellement. Ne croyez pas que Wikipédia est une personne, ni que les administrateurs constituent une autorité supérieure : ils n’ont ni plus ni moins de droits sur le contenu de Wikipédia que l’ensemble des éditeurs et des lecteurs de l’encyclopédie3 ! Mais les éditeurs de Wikipédia protègent chaque jour l’encyclopédie contre ceux qui veulent en altérer le contenu, ce qui peut les amener à se montrer un peu expéditifs et pas toujours cordiaux avec les contributeurs peu aguerris4.
  • Ce n’est pas à la personne qui en fait l’objet de créer le ou les articles qui se rapportent à elle. La communauté wikipédiene a ses propres règles pour évaluer la pertinence d’un sujet — personne, œuvre, monument, etc. Alors même si c’est vexant voire injuste de se faire dire, après une carrière universitaire exemplaire, qu’on est n’a pas le niveau de notoriété qu’ont eu les Pokémons Grosdoudou, Mystherbe et Ramoloss, qu’ont des milliers d’actrices et d’acteurs pornographiques ou d’éphémères et obscurs groupes punks rennais du début des années 1980, c’est la vie, il faut attendre que quelqu’un d’autre ait l’idée de créer l’article, pas le faire soi-même.
  • Supprimer unilatéralement un contenu qui vous déplaît aura sans doute un effet très contre-productif. En cas de contenu problématique, n’hésitez pas à engager la conversation sur la page de discussion de l’article, avec la personne qui a effectué l’ajout ou avec la communauté entière sur les pages consacrées à ce genre d’échanges.
  • Ne portez pas de jugement de valeur sur votre propre production, ne vous jetez pas de fleurs : « (…) sa peinture constitue une fine observation de la société consommation dont il met à jours les travers (…) ». Ne citez pas votre pensée du jour comme si c’était un aphorisme de Nicolas de Chamfort ou de d’Oscar Wilde. N’évoquez rien qui ne soit pas factuel et vérifiable.
  • Si vous avez publié des livres — je parle de livres édités par un éditeur, avec un numéro d’ISBN, une diffusion et un certain tirage —, je pense que vous pouvez sans risque les ajouter à la page qui vous concerne : il est difficile de faire plus factuel. Personnellement c’est le contenu que je m’autorise à ajouter, sans état d’âme, sur la notice qui porte mon nom.
  • Le contenu de Wikipédia ne peut pas sortir d’un chapeau. Certes, vous connaissez vos dates et lieux de naissance, d’études, vous savez qui vous avez eu comme maîtres lorsque vous étiez étudiants, et vous savez que c’est en juillet 1987 en écoutant un vieux disque des Eagles que vous avez subitement décidé de votre vocation pour la musique ou le roman, mais aucune de ces informations ne saurait être ajoutée à une page de Wikipédia sans être dûment sourcée, c’est à dire sans apparaître dans un article, une interview, ou mieux, un ouvrage scientifique.
  • Si vous voulez intégrer à Wikipédia (via le site Wikimedia Commons) une photo, rappelez-vous que celle-ci devra être postée sous licence libre. Cela signifie que non seulement elle sera récupérable à toutes fins5 par qui voudra, mais aussi qu’elle doit vous appartenir en propre : pas question de poster un cliché de photographe professionnel sans son accord et à sa place. C’est à l’auteur seul de prendre une telle responsabilité. En bande dessinée, on a vu des auteurs placer sur Wikipédia un autoportrait dessiné, ce qui permet de proposer un portrait en même temps que de montrer le style graphique de la personne. C’est une démarche intéressante, mais attention : l’image devra, là encore, être libre de droit.
    Notez que les contributions à Wikimedia Commons, qui posent des problèmes juridiques spécifiques, ne peuvent pas être anonymes et sont reliées à une adresse e-mail vérifiable.

Si d’autres idées de conseils me viennent, je les ajouterai à cette énumération.

La communauté Wikipédia a émis quelques recommandations assez officielles à ces sujets : Wikipédia : autobiographie (« Évitez de créer ou de modifier un article sur vous-même, votre entreprise ou sur vos réalisations, sauf pour corriger des erreurs factuelles. Cela évitera un conflit d’intérêts ») ; Wikipédia : contributions rémunérées (toute contribution rémunérée doit être faite en déclarant officiellement son statut et les possibles conflits d’intérêt qui en découlent) ; Wikipédia : conflit d’intérêt (NNe modifiez pas Wikipédia dans le but de promouvoir vos intérêts personnels ou ceux d’autres individus ou d’organisations. Ne rédigez rien sur ces sujets à moins d’avoir acquis la certitude qu’un éditeur neutre considérerait vos modifications comme une amélioration de Wikipédia. Déclarez le cas échéant votre statut de contributeur rémunéré ».) ; Wikipédia : notoriété (il existe aussi des pages consacrées aux prises de décision communautaires pour établir le niveau de notoriété requis, secteur par secteur) ; et bien entendu la Neutralité de point de vue et la Pertinence encyclopédique, deux principe cardinaux de Wikipédia.

  1. De même qu’il existe un revenge porn, j’ai été témoin d’actions qu’on pourrait qualifier de revenge encyclopedism : l’«ex» rancunier qui se venge à coup d’éditions indiscrètes sur Wikipédia… []
  2. Il existe même des moyens pour identifier les contributions anonymes dites « sous IP » ou effectuées sous plusieurs pseudonymes. []
  3. Les administrateurs, élus, disposent de privilèges techniques : capacité à supprimer un article ou bloquer un vandale. Ils ne sont cependant censés recourir à ces outils que conformément au vœu de l’ensemble de la communauté. []
  4. Certains contributeurs, qui voient que l’étendue du contenu de Wikipédia n’est pas limitée par son support n’ont rien contre l’extension régulière du nombre de ses articles (on parle d’utilisateurs « inclusionnistes »), d’autres au contraire passent leurs journées à élaguer les articles dont la pertinence ou la qualité leur semblent douteuses (on les nomme « suppressionnistes »). Le résultat final est un processus dynamique, organique, fruit de ces tensions. []
  5. Une photo d’ours que j’ai prise il y a longtemps dans un parc animalier se retrouve régulièrement utilisée pour illustrer des livres… Je suis crédité, mais pas rémunéré. Une autre photo, d’une œuvre d’art contemporain à laquelle j’ai contribué, a déjà été employée… Par quelqu’un qui voulait nuire à l’artiste et ami auteur de l’œuvre…
    Dans les deux cas, en plaçant les images sous licence libre, j’ai explicitement accepté ces usages qui m’échappent. []