L'écoumène numérique/Considérations sur l'intelligence artificielle

Une page de Wikiversité, la communauté pédagogique libre.
Début de la boite de navigation du chapitre
Considérations sur l'intelligence artificielle
Icône de la faculté
Chapitre no 9
Leçon : L'écoumène numérique
Chap. préc. :L'écoumène numérique comme espace de libération de la science
Chap. suiv. :Bibliographie
fin de la boite de navigation du chapitre
En raison de limitations techniques, la typographie souhaitable du titre, « L'écoumène numérique : Considérations sur l'intelligence artificielle
L'écoumène numérique/Considérations sur l'intelligence artificielle
 », n'a pu être restituée correctement ci-dessus.

Il serait difficile de terminer une leçon d'anthropologie numérique sans aborder le sujet de l'intelligence artificielle dont l'acronyme bien connu « IA » est fréquemment utilisé de nos jours. Pour ce faire, il ne sera pas question ici de retracer l'histoire de ce concept⁣⁣, mais plutôt de remarquer que celui-ci peut être sujet à une certaine confusion sémantique quant à ce que l'on pourrait définir par le mot « intelligence ».

L'adjectif artificiel est plus facile à situer puisqu'il s'oppose au naturel, tandis que les anthropologues ont souvent pour habitude d'opposer le naturel à l'humain, que certains qualifient parfois d'animal dénaturé. Une intelligence artificielle en ce sens resterait toujours une intelligence conçue et fabriquée par les êtres humains. Et elle se distinguerait ainsi des nombreuses autres formes d'intelligence présentes dans la nature. C'est là un premier point important à prendre en considération, car si une telle intelligence en venait à provoquer certains préjudices, ce ne sera donc jamais la machine, ou l'intelligence dont elle fait preuve, qui devrait en être tenue pour responsable, mais toujours le ou les humains qui l'auront conçue et mis en œuvre.

Photographie du robot Sophia en discussion avec Mukhisa Kituyi, le secrétaire général de la Conférence des Nations unies sur le commerce et le développement lors du World Investment Forum de 2018, soit un an après avoir reçu sa nationalité saoudienne au même endroit.

Or, au cours de l'année 2017, un « robot social » appelé Sophia a reçu la nationalité saoudienne sans qu'il ne soit vraiment précisé quels sont les droits, devoirs et responsabilités civiques qui lui furent accordés suite à cette décision. Une situation quelque peu ambigüe donc, qui justifie pleinement la volonté des législateurs et de certains organismes de contrôle analogues au CNIL de réglementer l'usage de l'intelligence artificielle, comme cela est en train de se faire au niveau européen[1].

Car il faut bien reconnaitre, concernant Sophia, que ses capacités communicationnelles et expressives sont particulièrement proches de la définition de l'intelligence artificielle retenue par le parlement européen : « L’IA désigne la possibilité pour une machine de reproduire des comportements liés aux humains, tels que le raisonnement, la planification et la créativité »[2].

En matière de la ressemblance, il existe ce que l'on appelle le test de Turing qui se voit réussi dès lors qu'un interlocuteur humain n'arrive plus à discerner l'homme de la machine. Pour y arriver, le programme informatique qui génère les allocutions transmises par la machine devra effectivement faire preuve d'une planification très élaborée et d'un certain raisonnement, de telle sorte à trouver les attitudes et réponses adéquates à toutes situations. Mais peut-on pour autant réellement parler de créativité dans le cadre d'une machine programmée par l'Homme ?

Car, si l'on parle de créativité, il faut alors concevoir une machine qui soit capable de produire elle-même de nouvelles fonctions au sein de son code informatique, qui seraient capables de produire des comportements non anticipés lors de sa programmation d'origine. Or, si cette capacité peut être désirée dans le cadre de certaines applications, elle ouvre aussi la porte à une perte de contrôle par rapport au respect de certaines règles qui devraient être respectées par l'intelligence artificielle dans l'intérêt des humains.

Les premières d'entre elles, intitulées « lois de la robotique », telles qu'elles furent inventées par des romanciers avant même que les législateurs ne s'en préoccupent concrètement, se formulent de la sorte :

  • Un robot ne peut pas porter atteinte à l'humanité, ni, par son inaction, permettre que l'humanité soit exposée au danger ;
  • Un robot ne peut porter atteinte à un être humain ni, restant passif, laisser cet être humain exposé au danger ;
  • Un robot doit obéir aux ordres donnés par les êtres humains, sauf si de tels ordres entrent en contradiction avec la première loi ;
  • Un robot doit protéger son existence dans la mesure où cette protection n'entre pas en contradiction avec la première ou la deuxième loi.

Sans qu'il soit nécessaire de poursuivre davantage cette réflexion philosophique sur l'intelligence artificielle dans le cadre de cette leçon, on en arrive donc à comprendre que le principal enjeu de l'intelligence artificielle consiste à veiller à ce que celle-ci reste utile à l'humanité sans lui nuire, ni dans son ensemble, ni au niveau de chaque être qui la compose. Et c'est la raison pour laquelle sans doute que ce sont des raisons éthiques bien plus que techniques qui permettent d'affirmer que l'intelligence artificielle ne sera jamais celle des robots, mais toujours celle des Hommes qui les conçoivent et les fabriquent.

Il s'agit là finalement d'un raisonnement très sage, mais qui malheureusement n'apporte aucune garantie, dès le moment où les lois de la robotique telles qu'elles viennent d'être énumérées à l'instant ne sont pas respectées par toutes des personnes qui composent notre humanité. Pensons aux guerres et conflits armés qui portent atteinte aux individus, et ensuite aux problèmes écologiques d'origine anthropique qui semblent mettre notre humanité en péril. Avant de se questionner sur l'intelligence des machines, peut-être serait-il finalement intéressant de se questionner préalablement sur l'intelligence humaine.


  1. (en) « EUR-Lex - 52021PC0206 - EN - EUR-Lex », sur eur-lex.europa.eu (consulté le 22 décembre 2022)
  2. « Intelligence artificielle : définition et utilisation | Actualité | Parlement européen », sur www.europarl.europa.eu, (consulté le 22 décembre 2022)