L'écoumène numérique/Considérations sur l'intelligence artificielle

Une page de Wikiversité, la communauté pédagogique libre.
Début de la boite de navigation du chapitre
Considérations sur l'intelligence artificielle
Icône de la faculté
Chapitre no 9
Leçon : L'écoumène numérique
Chap. préc. :Un espace de libération de la science
Chap. suiv. :Conclusion
fin de la boite de navigation du chapitre
En raison de limitations techniques, la typographie souhaitable du titre, « L'écoumène numérique : Considérations sur l'intelligence artificielle
L'écoumène numérique/Considérations sur l'intelligence artificielle
 », n'a pu être restituée correctement ci-dessus.

Il serait difficile de terminer une leçon d'anthropologie numérique sans aborder le sujet de l'intelligence artificielle dont l'acronyme bien connu « IA » est fréquemment utilisé de nos jours. Pour ce faire, il ne sera pas question ici de retracer l'histoire de ce concept⁣⁣, mais plutôt de remarquer que celui-ci peut être sujet à une certaine confusion sémantique quant à ce que l'on pourrait définir par le mot « intelligence ».

Le terme d'intelligence se trouve dans une impossibilité d'être défini d'une seule manière consensuelle. Une définition apportée par certains auteurs est que l'intelligence soit une capacité générale à connaitre ou à comprendre, et cela, peu importe le domaine dont il est question[1]. Cette définition se voit donc caractériser par « une conception unitaire de l'intelligence »[1].

Cependant, il existe une conception étant opposée à cette notion unitaire de l'intelligence : la conception pluraliste. Cette dernière s'est vue être développée sur la base d'une observation que certaines performances des individus peuvent être différentes en fonction du domaine auquel elles se rapportent[1]. Howard Gardner, psychologue et spécialiste en sciences de l'éducation de l'université d'Harvard, a mis le jour sur une existence, celle des intelligences multiples. Par cette notion, il distingue une pluralité de l'intelligence, qui se caractérise sous diverses formes, telles que : « logico-mathématique chez un scientifique, littéraire chez un écrivain, humaine chez un psychologue, visuelle et spatiale chez un peintre ou un architecte, musicale chez un musicien ou encore liée au corps chez un danseur ou un sportif »[2].

Le psychologue Oliver Houdé, propose quant à lui de garder comme définition de l'intelligence, celle donnée par l'écrivain et Lauréat du prix Nobel de littérature André Gide, à savoir l'intelligence comme étant la faculté d'adaptation[2]⁣.

L'adjectif artificiel est plus facile à situer puisqu'il s'oppose au naturel, tandis que les anthropologues ont souvent pour habitude d'opposer le naturel à l'humain, que certains qualifient parfois d'animal dénaturé. Une intelligence artificielle en ce sens resterait toujours une intelligence conçue et fabriquée par les êtres humains. Et elle se distinguerait ainsi des nombreuses autres formes d'intelligence présentes dans la nature. C'est là un premier point important à prendre en considération, car si une telle intelligence en venait à provoquer certains préjudices, ce ne sera donc jamais la machine, ou l'intelligence dont elle fait preuve, qui devrait en être tenue pour responsable, mais toujours le ou les humains qui l'auront conçue et mis en œuvre.

Photographie du robot Sophia en discussion avec Mukhisa Kituyi, le secrétaire général de la Conférence des Nations unies sur le commerce et le développement lors du World Investment Forum de 2018, soit un an après avoir reçu sa nationalité saoudienne au même endroit.

Or, au cours de l'année 2017, un « robot social » appelé Sophia a reçu la nationalité saoudienne sans qu'il ne soit vraiment précisé quels sont les droits, devoirs et responsabilités civiques qui lui furent accordés suite à cette décision. Une situation quelque peu ambigüe donc, qui justifie pleinement la volonté des législateurs et de certains organismes de contrôle analogues au CNIL de réglementer l'usage de l'intelligence artificielle, comme cela est en train de se faire au niveau européen[3].

Car il faut bien reconnaitre, concernant Sophia, que ses capacités communicationnelles et expressives sont particulièrement proches de la définition de l'intelligence artificielle retenue par le parlement européen : « L’IA désigne la possibilité pour une machine de reproduire des comportements liés aux humains, tels que le raisonnement, la planification et la créativité »[4].

En matière de la ressemblance, il existe ce que l'on appelle le test de Turing qui se voit réussi dès lors qu'un interlocuteur humain n'arrive plus à discerner l'homme de la machine. Pour y arriver, le programme informatique qui génère les allocutions transmises par la machine devra effectivement faire preuve d'une planification très élaborée et d'un certain raisonnement, de telle sorte à trouver les attitudes et réponses adéquates à toutes situations. Mais peut-on pour autant réellement parler de créativité dans le cadre d'une machine programmée par l'Homme ?

Car, si l'on parle de créativité, il faut alors concevoir une machine qui soit capable de produire elle-même de nouvelles fonctions au sein de son code informatique, qui seraient capables de produire des comportements non anticipés lors de sa programmation d'origine. Or, si cette capacité peut être désirée dans le cadre de certaines applications, elle ouvre aussi la porte à une perte de contrôle par rapport au respect de certaines règles qui devraient être respectées par l'intelligence artificielle dans l'intérêt des humains.

Les premières d'entre elles, intitulées « lois de la robotique », telles qu'elles furent inventées par des romanciers avant même que les législateurs ne s'en préoccupent concrètement, se formulent de la sorte :

  • Un robot ne peut pas porter atteinte à l'humanité, ni, par son inaction, permettre que l'humanité soit exposée au danger ;
  • Un robot ne peut porter atteinte à un être humain ni, restant passif, laisser cet être humain exposé au danger ;
  • Un robot doit obéir aux ordres donnés par les êtres humains, sauf si de tels ordres entrent en contradiction avec la première loi ;
  • Un robot doit protéger son existence dans la mesure où cette protection n'entre pas en contradiction avec la première ou la deuxième loi.

Sans qu'il soit nécessaire de poursuivre davantage cette réflexion philosophique sur l'intelligence artificielle dans le cadre de cette leçon, on en arrive donc à comprendre que le principal enjeu de l'intelligence artificielle consiste à veiller à ce que celle-ci reste utile à l'humanité sans lui nuire, ni dans son ensemble, ni au niveau de chaque être qui la compose. Et c'est la raison pour laquelle sans doute que ce sont des raisons éthiques bien plus que techniques qui permettent d'affirmer que l'intelligence artificielle ne sera jamais celle des robots, mais toujours celle des Hommes qui les conçoivent et les fabriquent.

Il s'agit là finalement d'un raisonnement très sage, mais qui malheureusement n'apporte aucune garantie, dès le moment où les lois de la robotique telles qu'elles viennent d'être énumérées à l'instant ne sont pas respectées par toutes des personnes qui composent notre humanité. Pensons aux guerres et conflits armés qui portent atteinte aux individus, et ensuite aux problèmes écologiques d'origine anthropique qui semblent mettre notre humanité en péril. Avant de se questionner sur l'intelligence des machines, peut-être serait-il finalement intéressant de se questionner préalablement sur l'intelligence humaine.

Encadrement des dérives liées au développement à l'utilisation de l'IA :[modifier | modifier le wikicode]

Un questionnement actuel repose sur la mesure dans laquelle les lois et réglementations sont adéquates pour encadrer le développement et l'utilisation de l'intelligence artificielle, notamment en ce qui concerne la responsabilité et la protection des droits humains.

On observe désormais l'émergence d'IA génératrice de contenu, dénommées "GenAI". L'AI Act est le tout premier cadre juridique sur l'IA, qui aborde les risques de l'IA et permet à l'Union Européenne de jouer un rôle pionnier à l'échelle mondiale. Cette initiative vise à fournir aux développeurs et aux déployeurs d'IA des exigences et des obligations spécifiques concernant son utilisation. Le but annoncé est de favoriser une « IA digne de confiance en Europe et en dehors, en veillant à ce que les systèmes d'IA respectent les droits fondamentaux, la sécurité et les principes éthiques, et en traitant les risques liés à des modèles d'IA. »[5]

Pour ce faire, le cadre règlementaire de l'AI Act reconnaît qu'il y a quatre différents niveaux de risques associés aux systèmes d'IA : les risques dits non-acceptables, élevés, limités, et minimaux.[5] Bien que cela représente un premier pas en avant considérable, il semble que cet AI Act puisse être presque renommé comme étant un « High Risk Act », de par sa focalisation majeure sur ceux-ci. Cela risque de se faire au détriment des autres risques, qui pourtant portent aussi atteinte aux individus.

Un exemple parlant est celui des deepfakes, surtout au vu du rapide essor de ce phénomène, qui ne sont placés qu'en « risques limités ». Et pourtant, cela pose de nombreux préjudices, tels que l'usurpation d'identité, la manipulation de l'opinion publique[6][7], la diffamation, voire même des recherches d'humiliation via la création de deepfakes pornographiques.[7] Ce deepfake porn est en majorité au détriment des femmes, qui se retrouvent objectifiées et sexualisées sans leur consentement. Effectivement, une étude récente a établi que 98 % des vidéos deepfake diffusées sur Internet étaient à caractère pornographique et que 99 % d'entre elles visaient des femmes ou des jeunes filles[8]

Une autre piste de considération quant à l'IA concerne les fake news, qui ont une incidence considérable sur notre société, influençant les consommateurs, électeurs et autres acteurs de la société. La désinformation existe depuis de nombreux siècles, mais la GenAI lui confère une toute nouvelle envergure. Désormais, il devient possible d'automatiser la création de vagues de fake news de haute qualité, individuellement ciblées sur Internet. Parallèlement, l'IA générative est en mesure de détecter les fake news. Ces deux applications sont encore relativement émergentes, mais elles se développent à un rythme effréné...[9]

Des entreprises ont aussi essayé de produire des IA alimentés par les utilisateurs. En mars 2016, Microsoft a fait une expérience en déployant sur Twitter (désormais X) une IA nommée Tay. Celle-ci construisait ses réponses sur les connaissances qu'elle peut amasser en ligne. 24h ont suffi pour que les limites de cette IA soient observées. Au départ, certains internautes se sont amusés à lui faire répéter des phrases racistes. C'est après que Tay a commencé à répondre à certaines questions en niant l'holocauste par exemple[10]. Rapidement après ces dérapages Microsoft a fermé Tay. Plus tard, un successeur à Tay nommé Zo est apparu. Ce dernier a tenu 3 ans, malgré des propos islamophobes rapidement décelé[11].


Notes et références[modifier | modifier le wikicode]

  1. 1,0 1,1 et 1,2 Élisabeth Demont, « Chapitre VII. L’intelligence », dans La psychologie, Éditions Sciences Humaines, coll. « Petite bibliothèque », (ISBN 978-2-912601-76-6, lire en ligne), p. 157–193
  2. 2,0 et 2,1 Olivier Houdé, « Introduction. Origines, formes et circuits de l’intelligence », dans L'intelligence, Presses Universitaires de France, coll. « Que sais-je ? », (ISBN 978-2-13-079446-2, lire en ligne), p. 5–12
  3. (en) « EUR-Lex - 52021PC0206 - EN - EUR-Lex », sur eur-lex.europa.eu (consulté le 22 décembre 2022)
  4. « Intelligence artificielle : définition et utilisation | Actualité | Parlement européen », sur www.europarl.europa.eu, (consulté le 22 décembre 2022)
  5. 5,0 et 5,1 European Commission. (2024, 26 mars). AI Act : Shaping Europe’s digital future. Consulté le 17 avril 2024, à l’adresse https://digital-strategy.ec.europa.eu/en/policies/regulatory-framework-ai
  6. Shoaib, M. R., Wang, Z., Ahvanooey, M. T., & Zhao, J. (2023). Deepfakes, Misinformation, and Disinformation in the Era of Frontier AI, Generative AI, and Large AI Models. 2023 International Conference On Computer And Applications (ICCA), 1‑7. https://doi.org/10.1109/icca59364.2023.10401723
  7. 7,0 et 7,1 Ferrara, E. (2024). GenAI against humanity : nefarious applications of generative artificial intelligence and large language models. Journal Of Computational Social Science. https://doi.org/10.1007/s42001-024-00250-1
  8. Mehrotra, I. (2024, 10 avril). How Alexandria Ocasio-Cortez and other women politicians are becoming easy targets of deepfake porn. Firstpost. Consulté le 17 avril 2024, à l’adresse https://www.firstpost.com/explainers/us-alexandria-ocasio-cortez-giorgia-meloni-women-politicians-easy-targets-deepfake-porn-13758336.html
  9. Loth, A., Kappes, M., & Pahl, M. (2024). Blessing or curse ? A survey on the Impact of Generative AI on Fake News. arXiv (Cornell University). https://doi.org/10.48550/arxiv.2404.03021
  10. « A peine lancée, une intelligence artificielle de Microsoft dérape sur Twitter », Le Monde.fr, 2016-03-24 [texte intégral (page consultée le 2024-04-30)]
  11. Louise Millon, « Zo : encore un chatbot de Microsoft qui a des propos violents », sur Siècle Digital, (consulté le 30 avril 2024)