Hier, le 4 novembre 2024, l’Office parlementaire d’évaluation des choix scientifiques et technologiques (OPECST) a publié un rapport intitulé « ChatGPT, et après ?
Bilan et perspectives de l’intelligence artificielle ». Celui-ci critique notamment la stratégie française sur l’IA, la décrivant notamment « sans objectifs, gouvernance ni suivi ». Certaines critiquent étant par ailleurs déjà présentes dans le rapport de la Cour des comptes d’avril 2023.
Le rapport de l’ OPECST formule 18 recommandations dont 5 pour améliorer le prochain sommet sur l’IA en février. Sur ces 18, une a particulièrement retenu mon attention, la n°9, page 26 :
« Former les élèves de l’école à l’Université, former les actifs et former le grand public à l’IA : Il est indispensable de lancer de grands programmes de formation à l’IA à destination des scolaires, des collégiens, des lycéens, des étudiants, des actifs et du grand public. Les politiques conduites en ce domaine par la Finlande sont des modèles à suivre. La démystification de l’IA est une première étape importante et nécessaire pour favoriser la diffusion de la technologie ».
Page 328, les auteurs poursuivent :
« Il faut aussi promouvoir une vision scientifiquement éclairée et plutôt optimiste de l’intelligence artificielle (…) Vos rapporteurs, comme leurs prédécesseurs de 2017, jugent indispensable de démystifier l’intelligence artificielle »
La position positiviste des auteurs est assumée, et se résumerait quelque peu au schéma simpliste suivant : « former les futurs développeurs de demain, mais aussi faire comprendre au grand public qu’il ne faut pas avoir peur, pour que ce dernier utilise les solutions d’IA développées par les premiers » !
Mais pour cela, il faut « démystifier » l’IA, un peu comme on dépoussiérait la chose. Non par pour la rendre plus « propre », plus éthique (même si cela est dit), mais bien pour répondre à une vision diffusionniste des auteurs. Entendons-nous : la question n’est pas ici de former des individus capables de faire des choix responsables pour décider par eux-mêmes de l’utilisation qu’ils souhaitent ou non avoir ou faire de l’IA. Non, là, il s’agit bien de les rendre un peu moins bêtes, en leur faisant comprendre que dernière les méchants films et leurs romans de SF, le monde est bien plus « positif » que cela, et qu’ils pourront « adopter » sans aucune peur l’IA, idéalement souveraine et française, à défaut européenne !
Il y a bien évidemment des dizaines de raisons de comprendre cette position des rapporteurs, ne serait-ce qu’en regardant la liste des acteurs auditionnés ; même si je pense à 2-3 qui doivent quand même être crispées ce matin. Toutefois, quand je lis à nouveau que « les discours techno-pessimistes relèvent pour l’essentiel d’une vision de l’IA non démystifiée » (p.181), je me dis qu’il y a encore du chemin à faire pour sortir de ces discours techno-positifs qui n’apporte, de fait, rien de plus que ce qu’ils dénoncent.
Pourquoi :
D’abord parce qu’on ne « démystifie » pas les choses. Par nature, un mythe est de l’ordre de l’imagination. C’est un récit qui s’inspire et déforme les faits. On arrête donc pas l’imagination, on la façonne. Cela, les rapporteurs l’ont compris, puisqu’ils proposer « façonner positivement » l’imagination / l’imaginaire des usagers. Sauf que l’imagination, et son corollaire, l’imaginaire, est par définition ambivalente. Chassez le naturel… il revient au galop. Comme nous l’écrivions avec Pierre Musso et Stéphanie Coiffier en 2014 (Innover avec et par les imaginaires, Manucius, p.42) :
« L’imaginaire est par essence ‘‘ambigu’’, et même toujours ambivalent. Pour l’imaginaire : ‘‘l’inverse est le même’’. Enfer et Paradis vont ensemble. La réception des avancées scientifiques et technologiques est caractéristique de cette ambivalence de l’imaginaire. Les technologies suscitent un émerveillement et une peur ou un malaise, comme le pharmakon qui signifie remède et poison ».
Il ne s’agit donc pas de démystifier l’imaginaire ou l’imagination, il s’agit d’éclairer les individus en expliquant les ambivalences qui structurent nos récits (positifs et négatifs), pour mieux comprendre ce qu’ils disent du rapport de notre société à nos objets techniques, et technologiques. Victor Scardigli, en 1992, décrivait déjà cela dans « Les sens de la technique ».
Par ailleurs, comme nous l’écrivions aussi avec Pierre Musso et Stéphanie Coiffier dans « Innover avec et par les imaginaires » (p.43) :
« l’imaginaire d’une innovation regroupe de nombreux imaginaires : ceux des concepteurs, des médiateurs (services de marketing ou de communication, « littérateurs » – romanciers, vulgarisateurs, journalistes, organismes d’études, de sondages, de tendances, d’enquête) et des utilisateurs (Flichy, 2003)».
Or, à lire le rapport, les imaginaires négatifs seraient issus du cinéma et de la SF, notamment. C’est vite oublier que les producteurs d’IA eux-mêmes, et toutes celles et ceux qui nous parlent d’IA générale avec des prédictions au doigt mouillé (mais prennent-ils encore la peine de lever le doigt ?!), jouent également cette partition des couples de représentations (miracles/désastres, promesses/frayeurs, etc.).
Car l’IA, comme le cinéma justement, est une industrie de l’imaginaire (« Les Industries de l’imaginaire. Pour une analyse économique des médias« , Flichy), une « méta-industrie » (« L’imaginaire industriel« , Musso), où l’on peut déjà percevoir de nombreux traits communs entre les industries hollywoodiennes et celle du siliconnisme (Pierre Musso) :
- Concentration originelle autour de quelques groupes : BIGFive (Paramount, RKO, MGMG, Warner Bros, Foxfilms) / GAFAM
- Organisation de la production industrielle autour de « stars » qui captent l’attention mondiale
- Investissements financiers massifs
- 4.Modèle économique construit sur des modèles de captation de l’attention : audience, confiance, fidélisation…
- Combinaison de compétences technoscientifiques et artistiques pour travailler sur et avec les imaginaires (qui sont leur objet et leur ressource), car « la valeur est de moins en moins liée à l’utilité substantielle et de plus en plus aux désirs, aux valeurs et aux croyances ».
En jouant la carte de la dénonciation des « techno-pessimistes », les auteurs de ce rapport ne font que s’ancrer une fois de plus dans des propositions d’éducation positiviste qui n’apporte aucune solution à ce qu’elle dénonce, puisqu’ils ne comprennent pas eux-même l’industrie qu’ils veulent soutenir.