La preuve par ChatGPT

Magalie Vicente, dirigeante d’une entreprise de communication politique, ancienne élue LR. France-info, le 16/02/2025.

« — Oui il y a une instrumentalisation politique, il faut le dire. Même si vous demandez aujourd’hui à l’Intelligence Artificielle son avis sur le sujet…
Vous avez essayé ?
— Voilà j’ai essayé hier soir, je me suis dit tiens, voilà, on va voir ce qu’il en pense… Sur tous les réseaux que j’ai testé, même l’Intelligence Artificielle exprime qu’il y a une récupération et une instrumentalisation politique de l’affaire Bétharram, voilà. »

L’idée de l’ordinateur-oracle n’est pas vraiment neuve, on peut se rappeler par exemple de l’élection présidentielle de 1952 aux États-Unis. Contre tous les sondages, l’ordinateur UNIVAC I avait prédit la victoire de Dwight Eisenhower avec une certaine précision sur le network CBS. La méthode, consistant à pondérer les intentions de vote en fonction de la sociologie des électeurs, nous semble aujourd’hui banale, mais l’exactitude du résultat avait frappé l’imagination du grand public, d’autant que la description du fonctionnement de l’ordinateur comme une machine déterministe (à paramètres donnés, la réponse sera toujours la même) a souvent été entendue comme « l’ordinateur ne se trompe jamais ». On peut relier cette réputation à des sujets plus anciens que l’ordinateur (tête parlantes au Moyen-âge, automates voyants,…), et à toute une science-fiction…

Lorsque le grand public a commencé à s’équiper d’ordinateurs et a commencé à développer une familiarité avec leur fonctionnement, l’idée de la machine-qui-sait-tout a fait long-feu.
Il semble qu’elle revienne avec l’IA. Il est vrai que, comme les diseurs de bonne-aventure, chatGPT nous dit ce que nous sommes prêts à entendre.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *