Profitez-en, après celui là c'est fini

Éthique de l’Intelligence artificielle

septembre 26th, 2021 Posted in Interactivité, Sciences

J’ai le grand plaisir d’annoncer (avec un peu de retard) que je suis, depuis le début de cette année membre du Conseil d’éthique de l’Intelligence artificielle et de la data d’Orange, aux côtés de Raja Chatila, Cécile Dejoux, Lê Nguyên Hoang, Mark Hunyadi, Étienne Klein, Caroline Lequesne-Roth, Claire Levallois Barth, Winston Maxwell, Sasha Rubel, Françoise Soulie-Fogelman. Ce conseil, présidé par Stéphane Richard, va établir une charte et examiner des recherches actuellement menées par Orange afin de réfléchir à leurs implications éthiques1.

L’intelligence artificielle Tron, dans le film du même nom, qui se déroule essentiellement à l’intérieur d’un ordinateur (costume exposé à la Cité des sciences en 2010).

La discussion est en cours, et les travaux débutent à peine, mais voici un début de profession de foi.

L’Intelligence artificielle existe-t-elle ?

Je me dois de dire en préambule que je ne fais pas un cas énorme du terme Intelligence artificielle. Cette discipline académique, à laquelle j’ai consacré un livre avec Marion Montaigne2, est une source de malentendus puisqu’elle se confond facilement (et certains acteurs du domaine n’ont rien fait pour éviter une telle confusion) aux fictions. Je pense évidemment aux récits qui mettent en scène des machines devenues conscientes qui se montrent plus ou moins hostiles envers leurs créateurs — Hal 9000, Colossus, Skynet,… —, mais aussi à des fictions sans doute plus pernicieuses comme celles que colportent les camelots de la technologie.

Libération, le 28 juillet 2015

Quand un Elon Musk ou un Bill Gates alertent le monde sur l’imminence de l’émergence d’une IA « consciente » qui, dès son avènement, décidera de supplanter l’espèce humaine, je doute qu’ils y croient eux-mêmes. En revanche ils participent à survendre le label « Intelligence artificielle », dans lequel ils investissent des milliards et cherchent à entraîner avec eux les budgets militaires ou industriels.
Même avec de bonnes intentions, on peut, sans le vouloir, provoquer ce que l’on redoute : lorsque nous lisons que des spécialises publient une tribune pour demander qu’on freine les recherches sur les armes autonomes, lesdits spécialistes lancent aux États du monde entier un tout autre message, que je formulerais ainsi : « la course a commencé et il faut massivement investir dans le domaine ». Ils accélèrent ce qu’ils voulaient freiner.
Pire, les inquiétudes face à l’avenir des technologies peuvent parfois être l’arbre qui cache la forêt, car les dangers liés au traitement automatisé de données et à l’Intelligence artificielle existent bel et bien ici et maintenant.

L’UAV — ce que l’on nome « drone » en France — MQ-9 Reaper, survolant l’Afghanistan. Ce modèle créé il y a vingt ans sait décoller et atterrir tout seul, mais ne décide pas encore de lui-même sur qui envoyer ses missiles et quelles vies « moissonner » — puisque telle est la signification de son nom.
(Photo US Air Force / Commons)

Lorsque le mot a été inventé3, l’objet de l’Intelligence Artificielle était à la fois ambitieux et modeste : il s’agissait de résoudre de manière artificielle des problèmes que nous sommes habitués à solutionner de manière naturelle par ce que nous nommons l’intelligence, à savoir le raisonnement la perception et la mémoire, autant de facultés dont, soit dit en passant, nous sommes loin de tout savoir. Un exemple familier est celui de la vision : notre cerveau parvient, au prix d’une dépense énergétique minime, sans grand effort apparent, presque instantanément et avec une grande fiabilité, à identifier de nombreuses classes d’objets dans d’innombrables conditions (position, orientation, distance, lumière, occultation partielle, altérations diverses). Nous reconnaissons une banane, un visage, une automobile, un arbre. Nous sommes capables d’identifier des catégories d’objet sans nous les être fait expliquer, sans avoir assimilé consciemment un dictionnaire visuel : si l’on amène devant vous un fruit, une fleur, un insecte, un oiseau, un véhicule, un outil, vous saurez sans doute dire à quelle classe d’objet il appartient même si vous ne l’avez jamais croisé, et cela restera vrai jusqu’à un certain point même s’il a des caractères morphologiques inhabituels ou ambigus4.

Distrayant et fascinant (quoique un peu répétitif) : le logiciel DeepDream, par Google, recherche dans les images qu’on lui soumet des motifs qu’il a été entraîné à reconnaître, puis les applique de manière forcée. Le résultat est une forme hallucinée de paréidolie numérique (cliquer pour agrandir).

Obtenir artificiellement une si efficace capacité à identifier les formes et les choses n’a rien d’évident et fait l’objet de recherches depuis plus de cinquante ans. Il est plutôt difficile d’expliquer comment notre propre perception fonctionne5. Les chercheurs en Intelligence artificielle ne se contentent pas d’imiter notre entendement ou d’y suppléer, ils ne cessent de faire progresser, par la théorie comme par l’expérimentation pratique, la connaissance que nous avons de nos propres fonctions cognitives. Ils peuvent aussi tirer parti des capacités propres aux ordinateurs : ainsi, la manière dont un ordinateur effectue une multiplication n’est pas la manière dont vous ou moi effectuons un calcul mental similaire.
De manière très littérale, j’aime bien dire que l’écriture ou les mathématiques, qui permettent de porter vers un support artificiel des outils de notre intelligence — la mémoire, le calcul — relèvent de l’intelligence artificielle. Inversement, nous pouvons rappeler que bien des techniques habituellement nommées « Intelligence artificielle » ne sont jamais que des outils logiciels sophistiqués conçus pour conférer à des systèmes informatiques une forme, très limitée, d’autonomie. Le mot est à la mode, et beaucoup de start-ups dont les outils relèvent de l’informatique la plus classique affirment « faire de l’IA », comme s’il s’agissait d’un art mystérieux, une forme de magie noire dont on saupoudre plus ou moins généreusement les projets informatiques.

Par nature, par naissance, l’Intelligence artificielle n’est pas un champ unique et cohérent. On regroupe sous ce nom des personnes dont le travail relève de la recherche scientifique et d’autres qui se situent du côté de l’ingénierie et de l’application commerciale. Des gens qui cherchent à percer les secrets de notre cerveau, d’autres qui se passionnent pour des questions mathématiques fondamentales et d’autres encore qui veulent juste inventer un système efficace pour accomplir telle tâche industrielle. Nous trouvons donc là des gens issus des sciences cognitives, de la psychologie, des mathématiques, de l’informatique, des scientifiques et des techniciens.
Et ne parlons pas du rapport qu’entretient ce champ à l’imaginaire, depuis les promesses commerciales jusqu’aux fantasmes de science-fiction en passant par les questionnements philosophiques (phénoménologie, morale,…) hautement spéculatifs. Pour autant, au risque de me contredire, je pense que la locution « Intelligence artificielle » ne veut pas rien dire : c’est bel et bien une approche particulière de l’informatique. Reste que l’Intelligence Artificielle n’est qu’une partie de ce qui me préoccupe dans l’automatisation et tout ce que l’on regroupe sous le terme « numérique ».

Une pédagogie de l’Intelligence artificielle

Une pédagogie de l’Intelligence artificielle me semble indispensable, mais il faut s’entendre sur ce qu’on dit par là. En effet, l’idée de transformer chaque citoyen en ingénieur, capable de programmer, capable de savoir quoi faire du code-source d’un logiciel, est une idée assez absurde et en tout cas fort éloignée du sens de l’Histoire de l’informatique6. En effet, les utilisateurs d’ordinateurs demandent et demanderont toujours plus à pouvoir agir sans devoir être experts : on souhaite des outils efficaces, intuitifs,… Et même, de plus en plus, on souhaite ignorer que les ordinateurs que l’on utilise en sont.
Mais il existe un autre niveau de connaissance des outils, qui n’est pas leur maîtrise complète, mais au moins une conscience de leur fonctionnement et de leurs limites.

Gare Saint-Lazare, juillet 2002

La limite qu’il me semble important de bien comprendre, c’est qu’à ce jour, aucune des techniques que l’on regroupe sous le nom d’intelligence artificielle n’est capable d’invention. L’Intelligence artificielle applique des règles ou répète des actions, dans un cadre délimité, en fonction des principes et des données qui lui sont fournies, et en poursuivant un but déterminé. Des programmes informatiques ont certes battu les champions du monde des jeux d’échecs et de go, mais à ce jour, jamais aucun ordinateur n’a de lui-même ressenti l’envie de jouer à ces jeux ni même ne sait qu’il joue aux échecs. Au sujet de l’incapacité à inventer, le chercheur Jean-Louis Dessalles7 rappelait par exemple que sans tricher, aucun système informatisé d’apprentissage ne peut déduire ce qui succède à la suite de nombres 1-2-2-3-3-3-4-4-4-4-… Alors même que la solution nous vient à tous spontanément en une fraction de seconde.

Le match entre le champion de jeu de Go Lee Sedol, et de l’ordinateur de Google AlphaGo, en mars 2016.

Quelles que soient les admirables succès de l’Intelligence Artificielle, l’ordinateur reste une machine déterministe, c’est à dire qu’il n’y a rien, dans le résultat qu’il fournit, qui ne soit explicable, et à paramètres strictement identiques, la réponse fournie sera immuablement la même. C’est ce que l’on résumait autrefois par « la machine ne se trompe jamais », formule qui a été la cause de bien des malentendus. Certes, des systèmes relevant de l’Intelligence artificielle sont capables d’apprendre, et de transformer cet apprentissage en quelque chose qui ressemble à une déduction, et sont capables de surprendre leurs propres concepteurs8, certes des processus mécaniques peuvent nous vexer de par leur efficacité — comme lorsqu’un programme remporte toutes les parties qu’il joue contre un grand maître des Échecs, ou lorsque des compte-rendus sportifs produits par un générateur de texte plaisent plus aux lecteurs que ceux qu’a rédigés un humain de chair et d’os —, mais pour autant, le programme n’a jamais fait autre chose que ce que lui permettent les conditions de sa conception et les données auxquelles il accède.

Deux universitaires discutent sur la plate-forme Zoom. Lorsqu’ils activent la fonction qui transforme l’arrière-plan en un décor choisi, l’un des deux voit son visage disparaître

Il en découle que toute IA est dépendante à la fois de sa conception, et des données dont on le nourrit. Je peux donner à ce sujet trois exemples, dont les deux premiers sont bien connus :

  • Le programme « raciste » qui ne parvient plus à effectuer une reconnaissance de visage générique (c’est à dire de reconnaître non pas un individu donné, mais juste le fait d’être en présence d’un visage) dès lors que les personnes qui lui sont présentées ont la peau foncée. Le problème ici réside dans le corpus trop homogène de photographies qui a été fourni au programme pour s’entraîner à déterminer ce qu’est un visage. Ce qui en dit sans doute long sur le manque de diversité parmi les ingénieurs qui ont créé le système en question.
  • Le programme d’aide à la décision des juges lui aussi « raciste », qui, à délit égal, émet des punitions plus fortes pour les noirs que pour les blancs, sans même savoir la couleur de peau des uns et des autres, mais en se fiant à des jugements rendus précédemment et aux données qui les accompagnent : quartier de résidence, structure familiale, parcours scolaire, professionnel, etc. Le problème ici est à nouveau le type de données fournies au programme, qui se contente de reproduire les biais du système judiciaire.
  • Enfin, récemment, des livreurs Amazon de Los Angeles se sont plaints des caméras « intelligentes » embarquées dans leurs véhicules. Destinées à vérifier, notamment, si lesdits livreurs respectaient la distance de sécurité sur les routes, ces caméras les distraient constamment en signalant leurs fautes (avec une voix électronique lugubre, disent-il) et les pénalisent ensuite… Or ce logiciel comment une erreur car chaque fois que le véhicule se fait doubler par un autre — ce qui advient plus souvent lorsque l’on ne roule pas trop près du véhicule suivant —, cet événement sera interprété comme un non-respect de la distance de sécurité. D’autres mauvaises interprétations du respect du code de la route ont été signalées. Ici il y a deux problèmes : le premier est que les situations pratiques n’ont pas été correctement anticipées : ce qu’évalue le logiciel n’est pas ce qu’il est censé évaluer. Le second problème, c’est que si ce logiciel a été installé, c’était de la part d’Amazon pour pouvoir se défausser lorsque l’on parle de la sécurité de ses chauffeurs : il y a un système automatique qui vérifie, qui enlève leurs primes aux mauvais conducteurs (ou aux sous-traitants qui les emploient), donc Amazon n’a rien à se reprocher et peut prétendre avoir fait sa part… Et peu importe si ce qui est mesuré est faux, et s’il est, pour les chauffeurs, impossible d’avoir gain de cause en cas de faux positifs.

Une autre pédagogie à appliquer est plus politique que technologique. Même sans savoir comment fonctionne un programme, on doit se rappeler qu’on est en droit d’être exigeant à son endroit, et a fortiori si l’on est soumis à son empire. Or l’IA (ou plus généralement l’automatisation du traitement des données ou de l’accès à des services) aboutit souvent à rendre opaque les procédures, à dissimuler la collecte de données et à empêcher toute conversation : « la machine dit que vous n’avez pas droit à cette réduction » ; « c’est l’algorithme qui a décidé d’affecter votre enfant dans cet établissement ». Je me permets de renvoyer le lecteur à un article que j’ai publié à ce sujet dans le Monde Diplomatique il y a dix ans : Machines hostiles9.

Pour empêcher une porte automatisée de s’ouvrir et de se fermer intempestivement du fait de la station des clients sur le seuil (mesures barrière oblige, il y a plus de gens devant la porte que dans la boutique), le commerçant n’a trouvé comme solution que d’occulter le capteur. Cela nous amène un peu loin de notre sujet sans doute, mais qui est exemplaire à la fois d’une certaine forme de désarroi (où est le bouton « stop » ?), mais aussi d’ingéniosité, enfin de débrouillardise, face à une machine aussi têtue qu’inadaptée à sa tâche dans des conditions qui n’avaient pas été anticipées.

Enfin, et c’est là aussi une question politique, il faut parler des cas où la locution « Intelligence artificielle » (comme la robotisation, la transition numérique, etc.) se révèle complètement mensongère et dissimule, à la manière du Turc mécanique de von Kempelen, un travail tout à fait humain exécuté et rémunéré dans des conditions indignes10, ou encore, sert d’argument à une dégradation des conditions de travail.

Évaluer, corriger

Sans malice de la part de ses concepteurs, tout système auto-apprenant peut avoir des effets indésirables imprévus, lesquels sont parfois difficiles à détecter puis à comprendre. Les systèmes dits « d’apprentissage profond », très à la mode dans le domaine de l’Intelligence Artificielle, sont ce qu’on nomme en informatique des « boites noires », des systèmes opaques dont les créateurs eux-mêmes ne peuvent pas toujours déterminer exactement comment, en nourrissant le programme avec certaines données, celui-ci arrive à telle ou telle conclusion. Les algorithmes employés sont déterministes, mais ils peut y avoir beaucoup d’inconnues. De plus, la vitesse de traitement et le volume des données traitées sont gigantesques : certaines actions qui n’ont réclamé que quelques instants de calcul ne pourraient être comprises qu’en étudiant leur journal, s’il existe, pendant des mois. Il faut y être prêt, avoir conscience que tout système peut avoir des effets qui n’auront pas été anticipés.
Pour pallier cela, il ne suffit pas de s’efforcer de mieux concevoir les systèmes, il faut aussi les observer, collecter et prendre en considération les retours des utilisateurs, et faire marche-arrière lorsque c’est justifié. Bien entendu, c’est exactement le contraire qui se passe, et il y a une logique : ce qui motive l’automatisation, c’est précisément de ne plus avoir à s’en occuper.

Gare Saint-Lazare, 2016

Un enjeu des systèmes informatiques qui s’appliquent à nos existences est celui de la tolérance aux pannes, de la marge d’erreur acceptable. Quand un drone militaire est programmé (on effectue des recherches à ce sujet) pour attaquer des structures d’entrainement terroristes qu’il identifie de manière autonome, il faut que quelqu’un, en amont, ait décidé du degré de certitude requis pour déclencher le tir : 99% ? 95% ? 80 ? La guerre, l’automatisation de véhicules de transport, et d’autres services aux effets potentiellement moins tragiques, sont autant de transferts d’un jugement et d’une responsabilité vers un processus, un réglage, une prédiction… Et lorsqu’un métier disparaît au profit d’une machine, là aussi on peut s’interroger sur ce qu’il va falloir accepter de perdre au passage.

Être attentif aux effets collatéraux

Les effets directs qu’une technologie a sur ceux qui l’utilisent sont, par nature, souvent assez immédiatement observables. Mais il existe au moins deux autres cas à conserver en mémoire : celui des personnes affectées sans qu’elles soient utilisatrices d’un service — voire sans qu’elles soient seulement conscientes de son existence —, et celui des effets qui se manifesteront sur la durée.

Daniel Blake (I am Daniel Blake, Ken Loach, 2016), menuisier en rémission d’une crise cardiaque, au chômage forcé pour la première fois de sa vie, est victime de procédures informatiques absconses destinées à traquer les personnes qui profitent des aides sociales. Totalement ignorant du système, et n’ayant jamais utilisé d’ordinateur, il vit une humiliante et cruelle descente aux enfers.
J’aurais aussi bien pu évoquer Effacer l’historique (Kervern/Délépine 2020), qui présente plusieurs exemples de personnes acculées à lutter contre un monde numérique implaccable.

Pour le premier cas, et même si ce n’est pas directement lié, je prendrais mon exemple personnel : n’ayant pas de téléphone mobile, je suis de plus en plus régulièrement entravé dans mon accès à des services tout à fait banals et sans rapport avec la téléphonie : la possibilité d’effectuer un virement bancaire par exemple, ou le droit à participer à la primaire des écologistes. Or ce qui est intéressant ici, c’est que ce dont je souffre c’est de faire partie d’une catégorie de personnes qui relève de l’exception. Non seulement mon cas est de moins en moins souvent prévu, mais les problèmes que j’éprouve sont difficiles à comprendre par l’immense majorité des gens. Je n’ai pas d’exemple directement lié à l’Intelligence artificielle pour illustrer cette question, mais pour tout service qui s’applique sans problème à neuf personnes sur dix, il faut penser au cas de la dixième. Ne parlons pas des emplois qui sont profondément modifiés, ou qui ont vocation à disparaître, chaque fois qu’une technologie le permet.

Dans le film Singularity (2017), Elias VanDorne (John Cusack), une sorte de Steve Jobs qui fabrique, entre autres, des robots de combat, est accusé d’être responsable d’une escalade guerrière mondialisée. Il décide de créer une intelligence artificielle, Kronos, dont la mission est d’amener une paix totale sur la planète. Be careful what you wish for : à peine activé, Kronos constate que pour amener la paix universelle, il faut se débarrasser de l’Humanité entière. Ce film un peu absurde, qui reprend l’idée que l’on trouvait déjà dans Colossus : The Forbin project un demi-siècle plus tôt, a été financé de manière participative.

En parlant de durée, enfin, je pense notamment à l’évolution des services. Lorsque l’on parle de ce que font Google ou Facebook des informations dont ils disposent sur nous, c’est toujours au présent : on leur reproche de nous pister, de nous espionner, de connaître nos interactions sociales, nos goûts, et d’en tirer parti commercialement, voire politiquement. Ces reproches sont fondés, bien sûr. Mais ce n’est qu’un début, car les données stockées vont continuer de l’être, et la capacité des logiciels à interpréter ces données, à tisser des liens, à inventer de nouvelles applications ne fera qu’augmenter. Enfin, tout dépositaire de données sur des personnes, qu’il soit une société privée ou un État, peut changer de gouvernance, de stratégie, de méthodes.

Je m’arrête là, ce texte est déjà bien long, mais je compte bien y revenir.

  1. Je ne peux pas parler des projets étudiés, qui sont confidentiels (et du reste nous n’avons pas commencé à y travailler), mais inventons-on un : imaginons une seconde que par hasard, des chercheurs d’Orange Lab constatent que si la pratique numérique d’une personne évolue d’une certaine manière (par exemple en se mettant à avoir une activité plus intense à certaines heures…), il est probable qu’elle est en train de commencer une dépression. Que faire de ça ? Faut-il construire un outil, pouvoir alerter une personne pour lui dire qu’elle est en danger ? Ne rien faire ? Où placer le curseur entre l’intrusion et une inaction qui aboutirait à une mise en danger de la vie d’autrui ? []
  2. Marion Montaigne et Jean-Noël Lafargue, L’Intelligence artificielle : mythes et réalités, éd. Lombard, coll. Petite Bédéthèque des savoirs. 10 euros seulement ! []
  3. L’acte de naissance de l’IA est une suite d’interventions connue sous le nom de « conférences de Dartmouth » (du Dartmouth College), pendant l’été 1956, où, réunis par Marvin Minsky et John McCarthy, de nombreux chercheurs (Herbert Simon, Allan Newell, ou encore Claude Shannon) ont exposé leurs recherches et leurs théories, et adopté la locution Intelligence artificielle. []
  4. Il est intéressant de voir à quel point nous nous passionnons pour les mystères, les illusions de perception, tout ce qui nous amène aux limites de nos sens. Je crois que le fonctionnement relativement imprécis de nos sens (facilement troublés par des similitudes, des jeux d’échelle,…) est par ailleurs la raison de notre capacité à éprouver une forme de délectation esthétique : la peinture, la musique ou la parfumerie n’ont sans doute pas grand sens pour les animaux dont l’accès sensible au monde est particulièrement précis — l’abeille qui cherche le rayonnement ultraviolet de telle fleur, etc. — mais je digresse (et je divague un peu sans doute). []
  5. Pour les programmes informatiques dédiés à ces tâches, distinguer un sac en plastique d’un rocher peut être plus complexe que reconnaître le visage d’une personne précise parmi des dizaines de milliers si celle-ci se trouve intégrée à une base de données. []
  6. On notera que beaucoup de fictions populaires, mais aussi le journal télévisé, imaginent les générations à venir comme expertes en Informatique. Cela ne se justifie pas dans les faits, et l’expertise des « digital natives » est plutôt à chercher dans la manipulation des réseaux sociaux et de l’image publique que dans la programmation informatique et l’électronique ! []
  7. Jean-Louis Dessalles, Des intelligences très artificielles, éd. Odile Jacob, 2019, p10. []
  8. Je me souviens d’un système informatique destiné à évaluer l’âge de personnes photographiées, qui avait « de lui-même » déterminé que la forme du lobe des oreilles était un indice très sûr de l’âge. Or personne n’y avait particulièrement pensé, même si le rapport entre l’âge et les cartilages est bien connu. []
  9. J’en ai aussi déposé une version pdf sur HAL-SHS. []
  10. Lire En attendant les robots, par Antonio A. Casilli, éd. Le Seuil 2019. []
  1. 2 Responses to “Éthique de l’Intelligence artificielle”

  2. By un lecteur on Sep 27, 2021

    « Je ne peux pas parler des projets étudiés, qui sont confidentiels » cela me rappelle ce hackathon organisé par Orange qui voulait qu’on leur fournisse donne des idées sur comment utiliser leurs historiques de données de géolocalisation de téléphones portable et qui avaient été données et à peine anonymisés (agglomérés par paquet de 10 personnes) aux participants anonymes à l’événement.
    « Le Conseil d’éthique de la Data et de l’IA est un organe « C’est vrai que les membres du conseil, ont un bon capital sympathie pour moi.. et je transfert cette sympathie à Orange maintenant. Je crois que le but du conseil est atteint.

    « consultatif »
    consultatif et c’est tout ? pour rendre ces entreprises éthique, en complément des lois qui sont existantes mais non appliquées, il faudrait leur imposer des devoirs. Pour reprendre l’exemple ci-dessus, il imposer un devoir à Orange, celui de dire qui est alzheimer et qui ne l’est pas, en écoutant toutes ces conversations téléphoniques qu’ils analysent, et sans subvention.

    « et indépendant présidé par Stéphane Richard, Président-Directeur Général d’Orange. »
    Que signifie indépendant ? Je pensais que c’était indépendant de Orange … mais le conseil est présidé par le PDG de Orange, donc visiblement ce n’est pas indépendant d’Orange. Un bon nombre des membres sont des chercheurs dans des organisations de R&D qui sont partenaires d’Orange dans de nombreux projets.. Ils ne vont donc pas critiquer leur propres collaboration.

    « IA, CEA, Droit… » il n’y que des universitaires, et aucune personne qui connaisse/ait d’expérience avec le monde du putaclick marketing. Hors le non éthique est venu de ces gens du marketing et qui déteint sur les scientifiques. Avec que des chercheurs/scientifiques, ca va tourner en rond ce conseil non ?

  3. By Jean-no on Sep 27, 2021

    @un lecteur : consultatif, oui, et c’est bien normal. Mais ça ne veut pas dire symbolique, car il s’agit de produire des avis qui feront référence, mais non loi, ce qui est à mon sens la meilleure garantie d’indépendance et de liberté de la parole. Stéphane Richard préside, mais il ne participe pas aux travaux. Pour le reste, je ne comprends pas bien ce que vous cherchez à dire.

Postez un commentaire


Veuillez noter que l'auteur de ce blog s'autorise à modifier vos commentaires afin d'améliorer leur mise en forme (liens, orthographe) si cela est nécessaire.
En ajoutant un commentaire à cette page, vous acceptez implicitement que celui-ci soit diffusé non seulement ici-même mais aussi sous une autre forme, électronique ou imprimée par exemple.