Le robot assassin Mark 13 dans le film Hardware (Richard Stanley, 1990), film d’horreur post-apocalyptique et cyberpunk où jouent Iggy Pop et Lemmy de Motörhead, et où on entend de la musique de Public Image Limited, entre autres. Le nom du robot est une allusion aux Évangiles (Et, si le Seigneur n’avait abrégé ces jours, personne ne serait sauvé; mais il les a abrégés, à cause des élus qu’il a choisis — Marc 13:20)
La société Anthropic, qui développe l’IA Claude, affirme être opposée à ce qu’on utilise ses produits :
Pour des armes autonomes; du fait du manque de fiabilité des IAs actuelles, qui pourraient mettre en danger les soldats et les civils étasuniens.
Pour la surveillance de masse des Étasuniens, car cela va à l’encontre des droits fondamentaux de ces derniers.
Ces principes (limités à la sécurité et à la liberté des seuls étasuniens, donc) semblent de bon sens et pourraient même être considérés comme une façade responsable, vertueuse, du peace-washing de bon ton, en somme, mais ce n’est pas la vision de Pete Hegseth, ministre de la guerre des États-Unis, ni de Donald Trump, le président, que cette position de principe ulcèrent :
…Disant implicitement qu’ils se moquent des questions de fiabilité, de sécurité et des droits fondamentaux de leurs concitoyens.
Katie Waldman Miller, podcasteuse MAGA, ancienne conseillère du vice président Mike Pence, ancienne porte-parole du DOGE d’Elon Musk et épouse de Sephen Miller (chef de cabinet adjoint de la présidence), a choisi son camp : la bonne IA est celle qui répond par Oui ou par Non, et surtout par Oui, à la question de savoir si Donald Trump a eu raison de déclencher une guerre en Iran.
Le technosolutionnisme comme méthode de communication : la décision n’est pas déléguée à une IA, on choisit l’IA qui est d’accord avec soi.
En janvier dernier, Pete Hegseth avait annoncé que l’IA Grok serait utilisée par le ministère de la guerre pour tous les usages imaginables. Une étude du King’s College de Londres montre que, dans des jeux de simulation de guerre, les IAs recommandent le recours à l’arme nucléaire quatre-vingt quinze fois sur cent.
Le 11 septembre 2026, Edi Rama, premier ministre albanais, a annoncé nommer une IA ministre d’État pour l’Intelligence Artificielle, censément incapable de corruption.
Cette IA nommée Diella (Soleil) emprunte sa voix et son apparence à l’actrice Anila Bisha, laquelle n’était pas prévenue de la manière dont son image allait être utilisée : elle avait accepté de prêter son apparence à un assistant virtuel sur le site du service publie, e-Albania. De plus, son contrat était censé s’arrêter en 2025.
L’actrice saisit la justice pour échapper à cet alter-ego encombrant : « L’utilisation de mon image et de ma voix à des fins politiques est quelque chose de très grave pour moi, les gens qui n’aiment pas le Premier ministre me détestent et cela me fait tellement mal».
note : pour une raison incompréhensible, les articles qui traitent ce sujet confèrent à Diella le portefeuille de ministre des marchés publics, alors qu’il existe une ministre de l’administration publique et de la lutte contre la corruption, Adea Pirdeni.
On parle pas mal de la communication à base d’IA de Sarah Knafo, mais l’IA est aussi une partie de son programme.
Sarah Knafo, candidate d’extrême-droite à la mairie de Paris, diffuse sur les réseaux-sociaux une vidéo dans laquelle elle annonce combattre l’insécurité grâce à l’Intelligence Artificielle. Face caméra, elle commence : « Tant de femmes ont peur de sortir le soir aujourd’hui en plein cœur de Paris… ». Mais subitement, un hurlement l’interrompt, la caméra tremble, et, en alerte, la députée européenne souverainiste se retourne…
On note la performance d’actrice de Sarah Knafo, d’abord grave et concentrée, puis véritablement inquiète lorsqu’elle se retourne pour voir ce qui se passe derrière elle.
…Une femme se fait agresser dans une sombre rue pavée. Une légende incrustée dans l’image nous avertit que la séquence a été réalisée par Intelligence artificielle. Pourtant, lorsque la caméra revient sur elle, Sarah Knafo nous explique que « ce n’est pas une fiction. C’est la réalité que vivent des milliers de parisiennes chaque soir dans notre ville ».
Je ne peux pas décrocher mes yeux du fait que la rue « parisienne » imaginée par l’IA contient deux systèmes d’éclairage l’un sur l’autre. En bas, un lampadaire de modèle un peu ancien à lampe sodium, et au dessus, un lumineux lampadaire à LED.
Pour remédier à ce problème, la candidate a imaginé quelque chose. Elle propose de déployer dans Paris des réverbères intelligents équipés de capteurs1 et d’intelligence artificielle, « entraînés des millions de fois » [sur quoi exactement ?] à reconnaître les sons caractéristiques d’une agression : « le cri d’une femme ou le bris d’un verre [?] sur une voiture ». Alerté, le réverbère se mettra alors à éclairer le malfrat, ce qui, si on en croit l’image, le paralysera le temps que la maréchaussée arrive.
Je trouve amusante la manière dont le réverbère oriente sa lumière pour capturer le malfaiteur, avec une image qui hésite entre deux iconographies du cinéma, celle du mirador depuis lequel on braque un projecteur sur le prisonnier qui cherche à s’évader (ce qui l’arrête net puisqu’il s’expose aux tirs des gardiens), et celle de l’enlèvement extra-terrestre à l’aide d’un rayon tracteur. Je remarque que les policiers laissent la victime quitter le lieu de l’agression, tout sourire, sans lui demander de faire une déposition, et qu’à leur arrivée, une trouée fait subitement apparaître un grand ciel bleu.
Je ne vais pas chercher à retrouver ce que j’ai lu sur le sujet mais de mémoire, la question de la lumière est controversée : on sait que dans certains endroits très spécifiques (sous un pont où les joggeuses se font systématiquement agresser par exemple) l’installation d’un éclairage change la donne, mais on sait aussi qu’il y a nettement plus d’agressions qui ont lieu l’après-midi qu’en pleine nuit, et que la première cause des agressions qui ont lieu la nuit n’est pas le manque d’éclairage mais le degré d’alcoolémie des agresseurs. Le sentiment d’insécurité, effectivement, est plus fort dans une rue déserte la nuit que dans un lieu passant en pleine journée. Et c’est bien le sentiment d’insécurité que Sarah Knafo entend combattre.
L’IA sécuritaire est à la mode et semble être devenue une proposition courante dans les programmes des candidats aux élections municipales. Ci-dessus, une liste d’opposition de ma ville (20e ville la plus sûre de France) propose de l’IA dans les bois…
L’IA fait des progrès saisissants, mais son premier effet est et reste celui du techno-solutionnisme : on délègue une tâche à la machine, et peu importe si elle s’en charge mal, ce qui compte c’est la fiction d’une solution automatisée. Dans son propre film Sarah Knafo se retourne lorsqu’elle entend crier une femme dans la nuit, mais elle revient aussitôt nous parler sans chercher à secourir la victime, et c’est au fond exactement ce que propose sa solution miracle : un outil permettant aux passants de ne pas se sentir concernés par les cris d’une inconnue… Il y aura bien un réverbère pour faire le job.
Sarah Knafo utilise le mot « capteur » pour évoquer un dispositif capable de percevoir les sons. « Capteur » ça fait sérieux, ça fait j’ai-bossé-mon-dossier. Mais on peut aussi dire « microphone », pour évoquer un capteur sonore. [↩]
Magalie Vicente, dirigeante d’une entreprise de communication politique, ancienne élue LR. France-info, le 16/02/2025.
« — Oui il y a une instrumentalisation politique, il faut le dire. Même si vous demandez aujourd’hui à l’Intelligence Artificielle son avis sur le sujet… —Vous avez essayé ? — Voilà j’ai essayé hier soir, je me suis dit tiens, voilà, on va voir ce qu’il en pense… Sur tous les réseaux que j’ai testé, même l’Intelligence Artificielle exprime qu’il y a une récupération et une instrumentalisation politique de l’affaire Bétharram, voilà. »
L’idée de l’ordinateur-oracle n’est pas vraiment neuve, on peut se rappeler par exemple de l’élection présidentielle de 1952 aux États-Unis. Contre tous les sondages, l’ordinateur UNIVAC I avait prédit la victoire de Dwight Eisenhower avec une certaine précision sur le network CBS. La méthode, consistant à pondérer les intentions de vote en fonction de la sociologie des électeurs, nous semble aujourd’hui banale, mais l’exactitude du résultat avait frappé l’imagination du grand public, d’autant que la description du fonctionnement de l’ordinateur comme une machine déterministe (à paramètres donnés, la réponse sera toujours la même) a souvent été entendue comme « l’ordinateur ne se trompe jamais ». On peut relier cette réputation à des sujets plus anciens que l’ordinateur (tête parlantes au Moyen-âge, automates voyants,…), et à toute une science-fiction…
Sur l’image de gauche, Itha Doorhammer (« Girl of the golden west »), le présentateur de CBS Walter Cronkite, l’ngénieur Harold Sweeney et… Un accessoire de studio censé être l’ordinateur Univac. Sur l’image de droite, Sweeney et John Eckert expliquent à Walter Cronkite le fonctionnement de l’ordinateur UNIVAC (le vrai, sans doute, puisqu’on peut voir les emblématiques dérouleurs de bandes magnétiques derrière).
Lorsque le grand public a commencé à s’équiper d’ordinateurs et a commencé à développer une familiarité avec leur fonctionnement, l’idée de la machine-qui-sait-tout a fait long-feu. Il semble qu’elle revienne avec l’IA. Il est vrai que, comme les diseurs de bonne-aventure, chatGPT nous dit ce que nous sommes prêts à entendre.
La séquence d’ouverture (et générique) de ce film de Michel Deville et Gilles Perrault, sorti en 1978, est exempte d’êtres humains.
Après le titre et le nom des auteurs, sur fond de musique classique au piano, on passe à un cliquetis mécanique qui accompagne l’apparition à l’écran d’un télex. Une voix off lit le texte au fur et à mesure.
Le reste de la bande son n’est constitué que de bruitages mécaniques, tandis que la caméra circule parmi les appareillages informatiques : terminaux, dérouleurs de bande, imprimantes…
Le film fait le récit du traitement inhumain et cynique d’un haut-fonctionnaire (et de son entourage) par des « services » qui cherchent des éléments pour le contrôler.
Une publicité en ligne pour la Fnac (vue le 25/5/2023). Le spot s’ouvre avec le visage d’une jeune femme décidée, face caméra, qui nous dit que « Petit à petit les algorithmes nous enferment dans une bulle ».
Elle conclut en nous disant qu’« il est temps à nouveau de s’ouvrir ». Puis se met subitement à chanter le refrain d’une chanson de Jean-Louis Aubert, Il est temps à nouveau.
Des employés de la Fnac, reconnaissables à leurs gilets (et désignés ici comme « conseillers passionnés » et non comme « vendeurs »), sont alors montrés dans la rue, dans le bus, dans une bibliothèque, veillant comme des anges invisibles sur toutes sortes de gens, leur suggérant une lecture, un morceau de musique, un concert…
…Avant de former une troupe victorieuse marchant vers la gauche (le passé, selon notre sens de lecture !) qui entonne le refrain en chœur : « Il est temps à nouveau, Il est temps à nouveau, de nous jeter à l’eau ».
Alors que je venais juste de voir cette publicité qui tente de me vendre l’élément humain, opposé aux vilains algorithmes, j’ai reçu cet e-mail de la Fnac :
On y voit la couverture du dernier album d’Héloïse Chochois, que je viens d’acheter à la Fnac Saint-Lazare quelques jours plus tôt. Il est clair qu’avec un système qui cherche constamment à me vendre ce que j’ai déjà acheté, on peut dire que l’algorithme de la Fnac « nous enferme dans une bulle » et que, même s’ils sont les premiers à dire que leur pouvoir de prescription et de sélection a beaucoup baissé en trente ans, les vendeurs peuvent amener aux clients des références qu’ils n’ont pas déjà !
De mon côté, je recommande l’album d’Hélo¨ïse, qui est très réussi.