Romain DAVID & Timéo MATHEY
Dans le cadre de notre projet de WE01, nous présentons sur cette page trois concepts de notre cours [1], un article scientifique et nous finissons par expliciter le lien entre le cours et cet article.
Avec ChatGPT, le but de l’écriture c’est de remplir une page, pas de réaliser le processus de réflexion qui l’accompagne. C’est justement tout l’inverse dont nous avons besoin !
(Introduction du cours de WE01) [2]
Cette citation, qui est également l’introduction du cours de WE01 permet d’introduire l’Intelligence Artificielle tout en prévenant de ses défauts. Dans ce cours, plusieurs parties sont abordées mais celles détaillées ci-dessous se concentrent sur 3 technocritiques des IA.
L’un des premiers concept de technocritique de l’IA abordé durant le cours est l’Hubris. L’hubris est défini dans le cours comme : Un désir infantile de toute-puissance
, une définition qui provient du Second manifeste convivialiste (2020). Encore, selon Larousse, l’Hubris est défini comme: Outrance dans le comportement inspirée par l'orgueil
. Cela correspond donc à la volonté de l’homme de toujours désirer plus, de manière égoïste.
Dans le cas de l’Intelligence Artificielle, les chercheurs visent une optimisation continue des programmes pour avoir des IA toujours plus puissantes et toujours plus rapides. De même, les utilisateurs veulent en faire de moins en moins en pensant que les IA vont pouvoir remplacer leur travail. Ces désirs représentent donc bien l’hubris dans le cadre des Intelligences Artificielles.
Travailler c'est se produire soi-même en produisant le monde
[3]. Guillaume Carnino met en lien le travail et le développement personnel. Implicitement, moins travailler induit une baisse de développement personnel et c’est ici ce qui est critiqué avec la hausse de l’utilisation de l’IA qui induit une prolétarisation. Selon le site web Ars Industrialis La prolétarisation est, d’une manière générale, ce qui consiste à priver un sujet (producteur, consommateur, concepteur) de ses savoirs (savoir-faire, savoir-vivre, savoir concevoir et théoriser)
. En effet, les IA servent à produire et non à réfléchir et comprendre c’est la solution de facilité.
Un exemple apparaissant dans le cours est un article nommé Bullshit sur Graf’hit
. Cet article est réalisé par Stéphane Crozat, un enseignant chercheur, et présente le travail d’un groupe d'élèves. Ces élèves devaient écrire un article critiquant l’IA, mais l'ont rédigé en grande partie avec celle-ci. De plus, l’IA utilisée pour la rédaction de l’article à utiliser des références bibliographiques hallucinées
c’est-à-dire que l’IA à inventer des sources, qui n’ont ensuite pas été vérifiées par les élèves. L’exemple met en avant les problèmes liés à l’usage abusif de l’IA qui produit en quantité mais parfois avec des informations erronées. De plus, l’exercice principal étant la rédaction, les élèves sont passés à côté de l'intérêt de leurs articles. Ils n’ont ni appris dans le fond (leurs thème étant l’utilisation des IA) ni sur la forme (ils n’ont pas exercé leur rédaction).
Enfin, le cours aborde dans une troisième technocritique de l’Intelligence Artificielle le concept de responsabilité. Dans quelles mesure les IA peuvent être responsables et à quelle degrès le sont-elles? Le concept de responsabilité peut être défini selon quatre perspectives différentes, d'après le cours de HE10 par Xavier Guchet (2024).
Preuve est faite que visages dévôts et pieuses actions servent à enrober de sucre le diable lui-même
(V, V pour Vandetta). Le 02 octobre 2024, Hubert Guillaud, journaliste spécialisé en systèmes techniques et numériques, publie Les mythes de l'IA sur le journal : danslesalgorithmes.net . Celui-ci reprend un article scientifique [4] présentant différentes légendes autour de l’IA qui influencent notre perception de celle-ci et permettraient de biaiser les avis populaires sur ces machines pour ensuite influencer la loi.
La vision d’une technologie est grandement influencée par le marketing qui se doit de vendre le produit. Pour se faire, les vendeurs ne lésinent pas sur les promesses afin de faire rêver les potentiels investisseurs. Ces fameuses promesses mènent à la construction de légendes. Elles sont ici catégorisés sous trois grands mythes : le mythe du contrôle, le mythe de l’intelligence et le mythe futuriste.
L’IA générative est un concept non-déterministe, elle peut formuler différentes réponses qui n’auront pas un fond identique pour une même demande, impossible de prédire à précisément. Or un système incertain n’est pas vendeur, c’est ainsi que le mythe du contrôle est apparu. Il promet une certaine fiabilité de la machine. Hubert Guillaud commence donc avec le mythe du contrôle dans lequel on trouve celui de la productivité qui nous permettrait d’automatiser de nombreuses tâches ce qui nous ferait gagner beaucoup de temps. Cette promesse permet de faire passer la notion d’aléatoire en arrière-plan. Au côté de ce dernier mythe se trouve celui du prompt. Ces instructions que nous donnons directement à l’IA générative renforcent l’utilisateur dans l’idée de contrôle et lui fait penser que la partie aléatoire peut être réduite en formulant ses prompts d’une certaine manière. Cependant, l’IA modifie les prompts sans le faire remarquer ce qui montre finalement un certain contrôle de la machine sur l’utilisateur plutôt que l’inverse mais qui est couvert par le mythe du contrôle. Le mythe de l’invite permet de masquer le contrôle que le système exerce sur l’utilisateur en suggérant que l’utilisateur contrôle le système
(Salvaggio).
L’auteur cite ensuite le mythe de l’intelligence. Celui-ci nous vend une psychologie d’apprentissage identique à celle de l’Homme en promettant une machine qui raisonne et pense comme nous. Or ce n’est pas le cas, le développement de l’IA lui apprend comment fonctionne la pensée et non comment penser. On nous répète que ces systèmes pensent, raisonnent, sont intelligents… suggérant également qu’ils devraient être libres d’apprendre comme nous le sommes, pour mieux faire oublier que leur apprentissage repose sur un vol massif de données et non pas sur une liberté éducative
. Parmi les mythes de l'intelligence, on trouve le mythe de l’apprentissage. Celui-ci insinue que les IA génératives apprennent alors que la vérité en est tout autre. En effet, une IA n'apprend pas, elle analyse mais n’en tire aucun enseignement. Ce sont les développeurs qui récupèrent ces données et qui optimisent leur IA afin de l’adapter à son environnement. Dans la suite de l’article, Hubert Guillaud nous parle du mythe de la créativité qui ressemble beaucoup à celui de l’apprentissage. Il nous dit que l’IA ne peut être créative, elle ne fait que mélanger des résultats créatifs mais n’est pas capable de créer un résultat elle-même.
La dernière catégorie de mythe est celle du mythe futuriste qui consiste à faire passer la nouveauté que peut apporter l’IA dans le futur au devant des problèmes qu’elle cause aujourd’hui. L’auteur commence cette nouvelle catégorie avec le mythe du passage à l’échelle. Il nous explique que ce mythe fait croire que d’avantages de données permettront de corriger les problèmes liés à l’IA. Mais ce n’est pas en accumulant plus de données biaisées que nous aurons moins de résultats biaisés
explique Hubert Guillaud. De plus, ce mythe agit sur le marché en suggérant que laisser plus d'accès aux données pour les IA est une solution aux problèmes rencontrés de nos jours, Oubliant que plus les systèmes seront volumineux, plus ils seront opaques et pourront échapper aux réglementations
. Pour terminer cette liste de mythe, Hubert Guillaud cite Erik Salvaggio au sujet du mythe du comportement émergent. Il met en avant le fait que les IA sont intégrées trop tôt dans les chaînes décisions ce qui en fait des machines agissantes
et non uniquement des machines pensantes
.
Hubert Guillaud finit en décrivant l'objectif des mythes et des promesses de l'IA qui viennent non-seulement perturber la vision populaire mais également construire des arguments afin de légitimer les transformations légales à venir.
On peut alors faire un lien entre les notions expliquées dans le cours au premier paragraphe et l’article du second paragraphe. En effet, les technocritiques précédemment évoquées sont en fait des exemples qui relient entre eux les mythes abordés dans l’article.
Tout d’abord, la prolétarisation mêle le mythe du contrôle et de l’intelligence. En effet, le fait d’utiliser des IA peut faire gagner du temps, mais sans réflexion personnelle dans la production. On a donc l’impression de produire du travail en contrôlant l’IA alors qu’en réalité les prompts écrits par l’utilisateur sont modifiés pour produire, parfois, un contenu hors sujet voire faux. De plus, le fait de croire que l’IA a une capacité d’apprentissage et de créativité proche des Hommes entraîne la possibilité que l’IA puisse remplacer l'Homme dans les tâches et donc perdre les savoirs associés.
L’hubris est lui plutôt un exemple du mythe futuriste. En effet, le fait de toujours désirer des IA plus puissantes pour pouvoir nous remplacer en accumulant toujours plus de données en est un exemple concret. Prenons le cas du mythe du passage à l’échelle. Celui-ci consiste à penser qu’en donnant plus de données aux IA, celles-ci corrigeront leurs propres défauts et deviendront alors beaucoup plus performantes. C’est donc bel et bien un mythe basé sur le désir de puissance de l’Homme qui repose sur le principe de l’Hubris.
Enfin, la responsabilité de l’IA peut également illustrer différents mythes évoqués précédemment. Le mythe futuriste avec celui du passage à l'échelle qui vise a développr les IA avec plus de données peut entraîner par exemple un vol massif de ces données, ce qui n’est pas cohérent avec la responsabilité devant la justice (liability) et peut également questionner sur la responsabilité morale (responsibility) ainsi que les compte à rendre (accountability). Qui accuser en cas de vol de données? Le mythe de l’intelligence, lui, peut entraîner une fausse confiance en l’IA et donc biaiser la fiabilité que l’on peut lui accorder (reliability). Finalement, le mythe du contrôle est également lié à la responsabilité des comptes à rendre (accountability) car si l’on croit contrôler les IA on devrait être tenu responsable des actions qui en découlent.