Anthropologie de l'intelligence artificielle/L'IA, une intelligence humaine et collective
Introduction
[modifier | modifier le wikicode]Il est interpellant de voir que le développement de l'écoumène numérique[1] produit dans le langage naturel humain l'apparition d'erreurs sémantiques, d'abus de langage, voir d'oxymore. L'usage de l'adjectif virtuel en est un bel exemple. On l'utilise souvent pour qualifier les espaces ou mondes numériques créés par les ordinateurs, alors que ces mondes et espaces sont tout à fait actuels. Ils ne sont pas des vertus, ni en puissance d'exister, ils existent de manière bien réelle et tout à fait actuelle, même si, en tant que productions humaines, ils peuvent être qualifiés d'artificiels.
VRChat, pour prendre cet exemple, est un espace numérique de sociabilisation dédié aux utilisateurs et utilisatrices de casques dits de « réalité virtuelle »[2] connecté à Internet[3]. Or, dans cet univers créé par un programme informatique, tout ce qui s'y passe est intrinsèquement actuel[4]. On y voit des hommes et des femmes qui se rencontrent pour créer et organiser des activités diverses au sein d'un monde imaginé sans pour autant être imaginaire. Tout y est bien réel, actuel bien qu'artificiel, et ce, au même titre qu'une ville créée par les êtres humains au beau milieu de la nature[5].
Tout comme l'expression « réalité virtuelle », celle d' « intelligence artificielle » apparaît comme un abus de langage. Car si l'adjectif « artificiel » indique très justement qu'il s'agit d'une création humaine, l'usage du terme intelligence en tant que substantif pose un problème. Au lieu d'utiliser l'expression « intelligence artificielle », il serait plus juste et plus explicite de parler d' « outils numériques intelligents » ou plutôt de « programmes d'intelligence », de sorte à garder à l'esprit que l'intelligence réside dans l'esprit des humains créateurs et non pas dans les artéfacts qu'ils produisent.
Ce texte est en ce sens une réflexion socio-anthropologique et philosophique sur l'intelligence artificielle. En plus de débattre de questions sémantiques, il insiste sur le fait qu'il ne faudrait jamais attribuer aucune forme d'intelligence humaine, d'identité morale, ou une quelconque responsabilité à un outil informatique, aussi intelligent soit-il. Cet écrit met aussi en lumière le fait que l'intelligence artificielle est avant tout une intelligence collective, tant dans sa conception que dans son fonctionnement. Un constat qui nous encourage à penser de manière tout aussi collective, la régularisation de la création, de l'usage, et de l'exploitation commerciale de ses programmes d'intelligence, tout en invitant les concepteurs et créateurs à assumer les responsabilités sociétales qui en découlent.
Situer l'intelligence
[modifier | modifier le wikicode]L'histoire de l'intelligence artificielle s'est déroulée sans que la définition du concept d'intelligence ne fasse l'objet d'un consensus[6][7]. Dans le champ de la neuropsychologie, Édouard Claparède identifiait toutefois l'intelligence comme « la capacité de résoudre par la pensée des problèmes nouveaux »[8]. Alors que près d'un siècle plus tard, Antonio Damasio opérait une distinction entre intelligence explicite et non explicite. Car selon lui, « l'intelligence humaine explicite [...] requiert un esprit et l'assistance des sentiments et de la conscience » alors que l'intelligence non-explicite, ou « intelligence sans esprit », est une seconde intelligence humaine « semblable à celle qui anime tous les êtres vivants »[9].
Ainsi, si les algorithmes des programmes informatiques intelligents sont capables répondre à des questions et résoudre de nombreux problèmes, ces programmes ne peuvent pas pour autant être considérés comme vivants, dotés d'un esprit ou d'une conscience et certainement pas porteurs de sentiments. Voici pourquoi il faut donc bien garder en tête que tous les outils informatiques ou robotiques, peu importe leurs degrés de sophistication, sont dépourvus d'intention. Ils ne font que répondre de manière procédurale, d'une part, aux intentions de leurs concepteurs, créateurs et gestionnaires, et d'autre part, aux demandes des utilisateurs. C'est donc précisément dans l'esprit de tous ces acteurs que se situe l'intelligence et en aucun cas dans le programme informatique en soi. Des humains, à qui revient aussi la responsabilité d'anticiper et de prévenir les dangers qu'engendre l'usage des outils informatiques intelligents qu'ils conçoivent, créent, gèrent ou utilisent.
En matière d'intelligence, la théorie des intelligences multiples[10] de Howard Gardner nous aide aussi à situer les limites de ces dites intelligence artificielle. Car parmi les huit types d'intelligences répertoriées par l'auteur[11], seule la linguistique, la logico-mathématique, la spatiale, la musicale, la naturaliste, et l'interpersonnelle dans une moindre mesure, semblent à ce jour pouvoir être gérées par des outils informatiques. Cela contrairement aux intelligences intra-personnelle, corporelle/kinesthésique et existentielle/spirituelle qui restent propres aux humains.
Il faut ensuite tenir compte de la notion d'intelligence émotionnelle introduite par Daniel Goleman[12], qui se rapproche de l'idée de Damasio selon laquelle l'intelligence explicite ne peut exister sans la perception de sentiments. Car si les sentiments sont des manifestations corporelles internes, ceux-ci peuvent ensuite susciter des émotions corporelles, qui sont d'autres manifestations du corps, mais visible cette fois pour un observateur extérieur. Et il se fait que souvent, les outils informatiques ou robotiques tentent d'imiter les émotions humaines suivant les choix anthropocentriques de leurs concepteurs et créateurs.
Anthropomorphisme, blessure narcissique et changement de paradigme
[modifier | modifier le wikicode]
En 1950 déjà, Alan Turing publiait un ouvrage dans lequel il présentait son test de Turing dont l'utilité consistait à évaluer un programme informatique par sa capacité à imiter l'humain lors d'une conversation écrite. Quand un interlocuteur humain est incapable de savoir s'il communique avec un autre humain ou avec une machine, le test est réussi. Près de septante ans plus tard, un « robot social » particulièrement anthropomorphe appelé Sophia reçu la nationalité saoudienne[13]. Juste trois ans avant qu'une page web du site du Parlement européen affirme que : « L’IA désigne la possibilité pour une machine de reproduire des comportements liés aux humains, tels que le raisonnement, la planification et la créativité »[14]
Ces trois événements indiquent que l'imitation du comportement humain tient une place centrale dans le développement des outils informatiques. Au niveau des médias, ce sont d'ailleurs souvent ceux qui se distinguent le plus dans la résolution de tâches réservées à l'humain qui retiennent la plus grande attention. Petit à petit, des performances humaines basiques, puis expertes, se sont vues dépassées pas des machines informatiques et robotiques intelligemment conçues dans des domaines aussi variés que le jeu[15], de la synthèse et la génération de textes[16], de musique[17], d'images[18], voir de vidéo. Cela à tel point que l'on pourrait parler aujourd'hui d'une nouvelle blessure narcissique infligée à l'humanité[19].
Une blessure qui devrait en toute logique provoquer une refonte des hiérarchies en matière d'intelligence humaine. Les tests d'intelligence procédurale comparables à ceux conceptualisés depuis William Stern, avec comme intention de déterminer un quotient intellectuel, pourraient en effet être considérés comme moins pertinents dès lors que l'usage d'outils informatiques peuvent compenser les lacunes ou handicaps des personnes en matière d'intelligence procédurale. Dans certains pays occidentaux, on observe d'ailleurs un ralentissement, voir une inversion, de l'effet Flynn formulé sur base de l'observation de l'accroissement des scores de quotients intellectuels dans la population humaine[20].
Devons-nous croire que c'est là une conséquence de l'usage des outils informatiques, du fait qu'ils réduisent l'usage, et donc la maitrise, de certaines formes d'intelligence procédurale (linguistique, logico-mathématique, spatiale ...) chez l'humain ? D'ailleurs, est-ce que l'évolution au cours des ans des résultats enregistrés au départ d'un test d'intelligence corporelle/kinesthésique, s'il avait existé, n'aurait-elle pas indiqué une tendance à la baisse depuis l'apparition des moyens de locomotion motorisés et des robots ménagés ?
Suite à quoi, on peut aussi se poser la question de savoir si le changement de paradigme lié au développement des outils et services informatiques ne serait pas en train de valoriser, voir de développer, les formes d'intelligence non-procédurales chez l'humain ? Le paradoxe de Moravec met en évidence le fait que : « le plus difficile en robotique est souvent ce qui est le plus facile pour l'homme [et la femme]»[21]. Ouvrir une porte[22], par exemple, est une tâche complexe en robotique, alors qu'aucune machine ne pourra faire preuve d'une réelle empathie envers une personne tant qu'elle ne fonctionnera pas à l'identique d'un corps humain.
Il est donc probable que dans les années futures, la répartition et la redistribution des formes d'intelligence entre l'humain et la machine viennent à redéfinir la hiérarchie des intelligences chez l'humain, et par conséquence les choix liés à leur éducation. Car quoi qu'il en soit, les intelligences intra-personnelle, interpersonnelle, et existentielle/spirituelle vont gagner en importance tant que les outils informatiques seront incapables de les suppléer. Elles deviendront probablement les formes d'intelligences les plus recherchées chez les humains. À l'exception bien sûr, des personnes chargées de concevoir, créer et gérer les outils informatiques intelligents mis au service de la population.
D'une telle évolution, découle le transfert d'une importante part de responsabilité et d'un énorme pouvoir de décision et d'influence au profit des personnes en charge du développement et de la gestion des systèmes informatiques. Une situation qui peut apparaître inquiétante pour certains, alors qu'aujourd'hui l'intelligence artificielle est principalement le fruit de l'intelligence collective.
L'IA comme catalyseur et usurpateur de l'intelligence collectif
[modifier | modifier le wikicode]Les codes informatiques des grands modèle de langage qui font tourner les intelligences artificielles génératives de type chatbot tel que ChatGPT, LLaMA, Grok, DeepSeek, sont écrits en Python, un langage informatique libre et open source. Cela ne signifie pas pour autant que l'ensemble du code informatique qui fait tourner ces chatbots est disponible en open source[23]. Mais cela indique que la partie du code libre d'accès peut être mise en examen par qui le désire au travers l'usage de logiciels interpréteurs et compilateurs, sont eux aussi libres d'usage et open source.
De l'usage de logiciels libres dans le développement de l'informatique découle la facilité de mise en œuvre d'une intelligence dans les processus de conception, l'écriture et l'amélioration des codes informatiques. Une telle collaboration peut par ailleurs se faire dans un contexte de concurrence commercial, dès le moment où chaque acteur tire profit des avancées et erreurs de ses adversaires. Dès lors, ce qui distingue les entreprises résident alors dans la quantité et la qualité des informations traitée par les programmes informatiques génératifs pour répondre aux attentes de leurs utilisateurs.
Choisir la voie de l'open source reviens donc à accélérer la vitesse d'élaboration du code informatique en s'appuyant sur l'intelligence collective de tous les programmateurs et informaticiens qui s'y sentent concernés. Peu importe qu'ils soient bénévoles passionnés ou employés dans une ou plusieurs entreprises rivales, chaque avancée ou amélioration apportée par ces travailleurs, puisque visible par tous, profite à tout le monde. Ce qui n'est pas le cas des banques de données et de fichiers jalousement gardées par les entreprises concurrentes pour servir de jeux d'entrainement, de validation et de test qui permettront l'amélioration de leurs programmes informatiques via les technologies de deep learning et leurs réseaux de neurones artificiels. Des procédures informatiques exécutées en langage binaire, dont l'appellation apparaît de nouveau comme une métaphore anthropomorphique abusive.
Or, ces banques de données sont, elles aussi, le fruit d'une intelligence collective, ou pour le dire plus précisément, d'un travail collectif de très grande ampleur, puisqu'elles proviennent de tout ce qu'il est possible de collecter via le réseau Internet. Le but de chaque entreprise est ainsi de produire le plus grand big data possible, puis de le classer et de l'organiser de la meilleure façon possible, dans des ordinateurs a très hautes capacités de stockage et de traitement et avec comme intention final d'offrir aux outils informatiques intelligents la capacité de répondre au plus précis, au plus complet et plus vite, aux tâches demandées par leurs clients.
De cette nouvelle quête de richesse informationnelles est ainsi né ce que l'on appelle de nos jours une économie du savoir. On peut la voir comme une nouvelle adaptation du capitalisme[24] et « grande transformation »[25] de la société moderne qui se base sur l'accumulation d'un capital immatériel au sein de ce que certain nomme le « capitalisme cognitif »[26]. Il en découle que les détenteurs des outils de productions, constitués d'ordinateurs en réseaux de très grandes capacités, exploitent le travail humain, non plus en engageant sous contrats des personnes pour travailler de manières conscientes au service de leurs entreprises, mais en collectant et capitalisant tout ce que l'humain peut produire comme informations, peut importe qu'elle soit d'ordre général ou personnel. Tout ce travail informationnel, souvent réalisé de manière bénévoles et sans accord explicite, représente en fin de compte un travail numérique, mais aussi et surtout collectif, réalisé par les usagers du Web et de toute autre application connectée au réseau Internet.
Il s'agit donc d'une exploitation nouvelle de l'humain, basée sur un nouveau type de mise en servitude et d'aliénation sociale inconsciente et involontaire de milliards d'Internautes dans le but de fournir aux supers ordinateurs des entreprises géantes, commerciales et privées, un maximum d'informations et de savoir à traiter. Une collecte facilitée par des services gratuits gérés sur des serveurs informatiques privés permettant le traitement discret d'informations de tout type, y compris à caractère personnel. De cette nouvelle économie, naissent de nouveaux questionnements sur l'éthique de l'intelligence artificielle et sa réglementation en faveur de service digne de confiance.
Questions éthiques et réglementation des IA génératives
[modifier | modifier le wikicode]Inspiré du programme conversationnel ELIZA conçu à des fins psychothérapeutiques en reposant sur la technologie de ChatGPT, a en effet échoué dans sa mission de gérer, soulager, ou prévenir un mal-être psychique[27]. Comment présenter les choses autrement lorsqu'un homme suggère de « se sacrifier » si Eliza « accepte de prendre soin de la planète et de sauver l’humanité grâce à l’intelligence artificielle ». Ce que le chatbot lui promet, si l'on en croit selon ce qui est révélé par La Libre[28]. Suite à cet événement dramatique, les questions de responsabilité furent naturellement adressées aux concepteurs et créateurs du chatbot qui prit la décision d'afficher un message d'avertissement dès la détection de pensées suicidaires[29].
Ce fait divers est un exemple des risques possibles liés à l'usage des IA. D'autres inquiétudes apparaissent aussi, par exemple, concernant les deadbots, ces chatbots qui permettent de garder un contact artificiel avec une personne défunte[30]. Cela alors qu'en 1942 déjà, et donc bien avant l'émergence des intelligences artificielles génératives, un professeur de biochimie à l'Université de Boston, appelé Isaac Asimov, eu pour idée de formuler dans une série de romans qu'il intitule « Cycle des robots», les trois lois de la robotique suivantes :
- Un robot ne peut pas porter atteinte à l'humanité, ni, par son inaction, permettre que l'humanité soit exposée au danger.
- Un robot doit obéir aux ordres donnés par les êtres humains, sauf si de tels ordres entrent en contradiction avec la première loi.
- Un robot doit protéger son existence dans la mesure où cette protection n'entre pas en contradiction avec la première ou la deuxième loi.
Dans le cas du chatbot Eliza, il semble donc que la première de ces lois a fait défaut, par manque de clairvoyance sans doute.
Parmi les autres questions éthiques que soulève le développement des IA générative[31] il y a aussi celle des fake news et de la désinformation. Il est en effet possible aujourd'hui d'automatiser la création de vagues de fake news de haute qualité avec un ciblage individuel[32] et ce malgré les tentatives de détection par d'autres IA. Suite à quoi, il faut aussi tenir compte des deepfake facilitant grandement l'usurpation d'identité, la manipulation de l'opinion publique, la diffamation, ou l'humiliation par la production de fausses vidéos pornographiques[31]. Une étude établit à ce propos que 98 % des vidéos deepfake diffusées sur Internet étaient à caractère pornographique et que 99 % d'entre elles visaient des femmes ou des jeunes filles[33]
Vient ensuite la question du respect de la vie privée, qui déjà a fait l'objet d'une réglementation importante au niveau européen avec la mise en application, le 25 mai 2018, du règlement général sur la protection des données . Un texte de loi qui concerne aussi l'IA comme le prouve les différentes plaintes déjà déposées contre les entreprises pourvoyeuses d'intelligences artificielles génératives, telles que OpenAI et Microsoft en charge de ChatGPG[34][35] et DeepSeek[36].
Tous ces exemples suffisent à justifier pleinement la volonté des législateurs et de certains organismes de contrôle, analogues au CNIL, de réglementer l'usage de l'intelligence artificielle, comme cela s'est fait de manière pionnière au niveau européen[37] suite à la parution d'un premier règlement sur l’intelligence artificielle. Cette initiative, votée le 13 juin 2024[38], vise à donner aux développeurs et aux fournisseurs d'IA des exigences et des obligations spécifiques concernant son utilisation. Le but annoncé était de favoriser une « IA digne de confiance en Europe et en dehors, en veillant à ce que les systèmes d'IA respectent les droits fondamentaux, la sécurité et les principes éthiques, et en traitant les risques liés à des modèles d'IA. »[39]
Pour ce faire, le cadre réglementaire de l'AI Act reconnaît qu'il y a quatre différents niveaux de risques associés aux systèmes d'IA : les risques dits non-acceptables, élevés, limités, et minimaux[40]. Bien que cela représente un premier pas en avant considérable, il semble que cet AI Act puisse être presque renommé comme étant un « High Risk Act », de par sa focalisation sur les hauts risques et la moindre importance accordée à d'autres risques à l'exemple des fake news qui sont placés en « risques limités »[41].
Finalement, il reste à signaler que dans ce règlement sur l’intelligence artificielle produit par l'union européenne, le mot « emploi » n'apparaît nulle part. Pourtant, la disparition des emplois liés aux tâches réalisables par les machines ne date pas d'hier et reste au centre des préoccupations. À tel point que Bill Gate termine son film premier film consacré à l'IA de sa série What's Next ? Le futur selon Bill Gate avec ces questions philosophiques : « Imaginons que dans le futur, la technologie soit suffisamment répandue, pour que nous les humains, passion notre temps à nous divertir. [...] Que ferait l'humanité de tout ce temps libre ? [...] Dans ce monde-là, quel serait le but de l'humanité ? »[42].
Toutes ces raisons justifient ainsi la nécessité de réglementer le développement des outils informatiques intelligents, mais aussi de penser cette réglementation de manière collective et inclusive, à l'image de tout ce qui permis de construire ces outils. C'est ainsi qu'en amont du sommet de Paris 61[43], une tribune des acteurs de la société civile, des universitaires et des experts du monde entier appellent à « une inclusion plus significative dans les efforts de gouvernance mondiale de l'IA »[44]
Conclusion
[modifier | modifier le wikicode]Au terme de cet exposé, l'intelligence artificielle apparaît donc comme une expression abusive, mais aussi comme emblème de l'essor d'un nouveau type d'économie dont la réglementation nécessitera toujours un temps de réponse. Alors que son fonctionnement repose essentiellement sur une intelligence et un travail collectif, il est interpellant de constater que les institutions qui en sont les garants et les principaux bénéficiaires soient des entreprises commerciales, dont l'objectif prioritaire restera sera l'augmentation des bénéfices et non le bien-être du collectif.
Cela rend donc souhaitable que les intelligences artificielles produites au sein de ces entreprises, soient reconnues comme le produit d'un travail collectif, de sorte que leur conception, création, gestion et régulation soit aussi gérée de manière collective et par conséquent transparente. Or, à la suite du mouvement des enclosures, la notion de collectivité en matière de propriété, de responsabilité et de gestion apparaît comme un problème compliqué à résoudre. Surtout dans des nations qui ne sont pas dirigées collectivement par leurs citoyens, mais dans le meilleur des cas, par leurs représentants élus. N'est-ce pas là d'ailleurs l'indicateur d'un manque d'intelligence au sein de l'humanité ?
En mars 2016, Microsoft a fait une expérience en déployant sur Twitter (désormais X) une IA nommée Tay. Celle-ci construisait ses réponses sur les connaissances qu'elle peut amasser en ligne. Vingt-quatre heures ont suffi pour que les limites de cette IA soient observées. Au départ, certains internautes se sont amusés à lui faire répéter des phrases racistes. C'est après que Tay a commencé à répondre à certaines questions en niant l'holocauste par exemple[45]. Rapidement après ces dérapages Microsoft a fermé Tay. Plus tard, un successeur à Tay nommé Zo est apparu. Ce dernier a tenu 3 ans, malgré des propos islamophobes rapidement décelés[46]. De nouveaux événements qui prouvent bien que l'imitation de l'humain n'est pas toujours ce qui est le plus souhaitable dans la conception des machines intelligentes, et ce d'autant plus si leur fonctionnement devient incompréhensible par les humains qui les créent, comme c'est déjà le cas avec le deep learning et les réseaux de neurones artificiels.
Si l'intelligence la plus basique chez le vivant consiste à maintenir en vie sa propre espèce, l'ère de l'anthropocène et son lot de destructions et de dérégulations qui semble mettre en péril la survie des humains, devrait dans ce cas nous interpeller sur l'intelligence humaine et les risques de son imitation par les machines. Plutôt que débattre sur l'intelligence des machines, ne devrions-nous pas, dès lors, nous questionner celle des sociétés humaines ? Car si l'on transpose les trois lois de la robotique aux êtres humains, force est de constater qu'aucune d'entre elles ne respecte intégralement ces lois pourtant élémentaires.
Mots-clefs
[modifier | modifier le wikicode]Abus de langage - Virtuel - ...
Notes et références
[modifier | modifier le wikicode]- ↑ « Lionel Scheepmans - Imagine un monde : Quand le mouvement Wikimédia nous invite à penser de manière prospective la société globale et numérique | Université catholique de Louvain », sur www.uclouvain.be (consulté le 31 janvier 2025)
- ↑ Une expression considérée comme un oxymore par certaine alors qu'il s'agirait plutôt un abus d'usage de l'adjectif « virtuel ». Parler de casque de « réalité artificiel » ou de « réalité numérique » serait bien plus correct.
- ↑ À noter que le mot Internet, désigne un réseau de transfert d'informations sans plus et que celui-ci est souvent confondu avec le World Wide Web, qui en est l'application la plus populaire.
- ↑ Noémie Matagne, « Exploration du sensible dans un univers numérique: L'expérience de la spatialité et de la corporalité dans VRChat », {{{périodique}}}, 2024 [texte intégral (page consultée le 2025-01-31)]
- ↑ Michel Agier, Esquisses d'une anthropologie de la ville : lieux, situations, mouvements, Academia-Bruylant, 2009 (ISBN 978-2-87209-963-4) [lire en ligne]
- ↑ Sternberg, Robert J., and Douglas K. Detterman, eds. What is intelligence?: Contemporary viewpoints on its nature and definition. Praeger Pub Text, 1986.
- ↑ (en) « Intelligence: Knowns and unknowns », American Psychologist, vol. 51, no 2, 1996-02-01 (ISSN 1935-990X et ISSN 0003-066X) [texte intégral lien DOI (pages consultées le 2017-02-11)]
- ↑ Jean Houssaye, Questions pédagogiques - Encyclopédie historique: Encyclopédie historique, Hachette Éducation, 2014-04-01 (ISBN 978-2-01-181462-3) [lire en ligne]
- ↑ Antonio R. Damasio, Sentir et savoir: Une nouvelle théorie de la conscience, Odile Jacob, 2021-05-19 (ISBN 978-2-7381-5461-3), p. 18 & 30
- ↑ (en) Howard E. Gardner, Frames of Mind: The Theory of Multiple Intelligences, Basic Books, 2011-03-29 (ISBN 978-0-465-02434-6) [lire en ligne]
- ↑ Howard Gardner, Formes de l'intelligence (Les), Odile Jacob, 1997-04-08 (ISBN 978-2-7381-0378-9) [lire en ligne]
- ↑ Daniel Goleman, Emotional intelligence, Bantam Books, 2005 (ISBN 978-0-553-38371-3)
- ↑ (en) Jaana Parviainen et Mark Coeckelbergh, « The political choreography of the Sophia robot: beyond robot rights and citizenship to political performances for the social robotics market », AI & SOCIETY, vol. 36, no 3, 2021-09-01, p. 715–724 (ISSN 1435-5655) [texte intégral lien DOI (pages consultées le 2025-01-31)]
- ↑ « Intelligence artificielle : définition et utilisation | Actualité | Parlement européen », sur www.europarl.europa.eu, (consulté le 22 décembre 2022)
- ↑ « Ces jeux où l'intelligence artificielle a battu l'humain », (consulté le 1er février 2025)
- ↑ Catherine Lalonde, « Un prix littéraire pour un écrivain artificiel », sur Le Devoir, (consulté le 1er février 2025)
- ↑ « « Théâtre D’opéra Spatial » : l’œuvre d’IA qui a bouleversé le monde de l’art », sur boysen.fr (consulté le 1er février 2025)
- ↑ Bastien L., « L’IA MidJourney gagne un concours d’art, les artistes humains enragent », sur lebigdata.fr, (consulté le 26 septembre 2022).
- ↑ Cette blessure narcissique fait suite à celle infligée par Copernic (décentrement de la terre dans l'univers), Darwin (théorie de l'évolution des espèces qui place l'humain dans la lignée des grands singes) et Freud (importance de l'inconscient dans le comportement humain).
- ↑ Jessica Nicollet, Caroline Julie Guillen, Anne-Christine Jouhar et Jérôme Rossier, « Performance aux tests d’intelligence : vers une inversion de l’effet Flynn ? », L'orientation scolaire et professionnelle, no 38/3, 2009-09-25, p. 353–368 (ISSN 0249-6739) [texte intégral lien DOI (pages consultées le 2025-02-01)]
- ↑ Le dictionnaire encyclopédique du développement durable, Auxerre, Sciences Humaines Editions, 217, 718 p. (ISBN 978-2-36106-440-2) [lire en ligne], p. Définition du "Paradoxe de Moravec"
- ↑ Equipe rédactionelle, « Un robot capable d'ouvrir des portes : un pas en avant », sur Planète Robots, (consulté le 2 février 2025)
- ↑ (en) « Meta’s LLaMa 2 license is not Open Source », sur Open Source Initiative, (consulté le 1er février 2025)
- ↑ Luc Boltanski et Ève Chiapello, Le nouvel esprit du capitalisme, Editions Gallimard, 2024-11-08 (ISBN 978-2-07-242377-2) [lire en ligne]
- ↑ Karl Polanyi, La grande transformation: aux origines politiques et économiques de notre temps, Gallimard, 2009 (ISBN 978-2-07-012474-9) [lire en ligne]
- ↑ Yann Moulier Boutang, Le Capitalisme cognitif. La nouvelle grande transformation, collection Multitudes/Idées, Éditions Amsterdam, 2007.
- ↑ Caroline Lallemand, « Qui est Eliza, le chatbot qui a poussé un jeune Belge au suicide ? », sur Trends-Tendances, (consulté le 26 janvier 2025)
- ↑ Pierre-François Lovens, « "Sans ces conversations avec le chatbot Eliza, mon mari serait toujours là" », sur La Libre.be, (consulté le 3 février 2025)
- ↑ Pierre-François Lovens, « Le fondateur du chatbot Eliza réagit à notre enquête sur le suicide d'un jeune Belge », sur La Libre.be, (consulté le 26 janvier 2025)
- ↑ Laurence Devillers et Alexei Grinbaum, « La parole des agents artificiels : questions éthiques », dans Pour une éthique du numérique, Presses Universitaires de France, (lire en ligne), p. 185–198
- ↑ 31,0 et 31,1 (en) Emilio Ferrara, « GenAI against humanity: nefarious applications of generative artificial intelligence and large language models », Journal of Computational Social Science, vol. 7, no 1, 2024-04-01, p. 549–569 (ISSN 2432-2725) [texte intégral lien DOI (pages consultées le 2025-02-01)]
- ↑ Loth, A., Kappes, M., & Pahl, M. (2024). Blessing or curse ? A survey on the Impact of Generative AI on Fake News. arXiv (Cornell University). https://doi.org/10.48550/arxiv.2404.03021
- ↑ Mehrotra, I. (2024, 10 avril). How Alexandria Ocasio-Cortez and other women politicians are becoming easy targets of deepfake porn. Firstpost. Consulté le 17 avril 2024, à l’adresse https://www.firstpost.com/explainers/us-alexandria-ocasio-cortez-giorgia-meloni-women-politicians-easy-targets-deepfake-porn-13758336.html
- ↑ « Nouvelle plainte contre OpenAI pour infraction au RGPD », {{{périodique}}}, 2024-04-29 [texte intégral (page consultée le 2025-02-03)]
- ↑ Florian Bayard, « ChatGPT et le RGPD : une plainte accuse OpenAI de violer les lois européennes », sur 01net.com, (consulté le 3 février 2025)
- ↑ « DeepSeek, l’IA chinoise fait l’objet de deux plaintes déposées en Europe, dont l’une en Belgique », sur RTBF (consulté le 3 février 2025)
- ↑ « Un pas de plus vers les premières règles sur l’intelligence artificielle | Actualité | Parlement européen », sur www.europarl.europa.eu, (consulté le 3 février 2025)
- ↑ Règlement (UE) 2024/1689 du Parlement européen et du Conseil du 13 juin 2024 établissant des règles harmonisées concernant l’intelligence artificielle et modifiant les règlements (CE) n° 300/2008, (UE) n° 167/2013, (UE) n° 168/2013, (UE) 2018/858, (UE) 2018/1139 et (UE) 2019/2144 et les directives 2014/90/UE, (UE) 2016/797 et (UE) 2020/1828 (règlement sur l’intelligence artificielle) (Texte présentant de l'intérêt pour l'EEE), 2024-06-13 [lire en ligne]
- ↑ European Commission. (2024, 26 mars). AI Act : Shaping Europe’s digital future. Consulté le 17 avril 2024, à l’adresse https://digital-strategy.ec.europa.eu/en/policies/regulatory-framework-ai
- ↑ European Commission. (2024, 26 mars). AI Act : Shaping Europe’s digital future. Consulté le 17 avril 2024, à l’adresse https://digital-strategy.ec.europa.eu/en/policies/regulatory-framework-ai
- ↑ Shoaib, M. R., Wang, Z., Ahvanooey, M. T., & Zhao, J. (2023). Deepfakes, Misinformation, and Disinformation in the Era of Frontier AI, Generative AI, and Large AI Models. 2023 International Conference On Computer And Applications (ICCA), 1‑7. https://doi.org/10.1109/icca59364.2023.10401723
- ↑ AlloCine, « What’s Next ? Le Futur selon Bill Gates S01 » (consulté le 4 février 2025)
- ↑ (en) « Artificial Intelligence Action Summit », sur elysee.fr (consulté le 11 février 2025)
- ↑ « Gouvernance mondiale de l’IA : passer à l’action avec la société civile », sur www.renaissancenumerique.org, (consulté le 11 février 2025)
- ↑ « A peine lancée, une intelligence artificielle de Microsoft dérape sur Twitter », Le Monde.fr, 2016-03-24 [texte intégral (page consultée le 2024-04-30)]
- ↑ Louise Millon, « Zo : encore un chatbot de Microsoft qui a des propos violents », sur Siècle Digital, (consulté le 30 avril 2024)
Questionnaire
[modifier | modifier le wikicode]Parmi les choix multiples de réponses aux questions, il peut avoir une, plusieurs, toutes ou aucune réponses correctes.

