Aller au contenu

Discussion:Anthropologie de l'intelligence artificielle/L'IA, une intelligence humaine et collective

Le contenu de la page n’est pas pris en charge dans d’autres langues.
Ajouter un sujet
Une page de Wikiversité, la communauté pédagogique libre.

Bienvenue sur cette page de discussion.

Cette page de discussion est entièrement dédiée à la page Anthropologie de l'intelligence artificielle/L'IA, une intelligence humaine et collective. Vous pouvez déposer ici des questions, des suggestions ou tout autres types de commentaires constructifs en cliquant sur « Ajouter un sujet » ou en répondant à un message déjà présent.

IA et responsabilité

[modifier le wikicode]

L'intelligence artificielle de dernière génération ne reçoit plus ses connaissances d'un humain qui la programme. Elle est dotée d'une capacité d'apprentissage. Les connaissances dont elle dispose, elle les a acquises lors de séances d'apprentissage sur de grandes masses d'informations, que ce soit par apprentissage supervisé par un humain ou non supervisé. Cela pose un problème aux humains qui ne comprennent pas les raisonnements qu'elle suit pour arriver à ses conclusions. Dans certains cas, la machine parvient à de meilleurs résultats que l'humain, sans que celui-ci comprenne comment elle y parvient. L'humain décidera de se servir ou de ne pas se servir de ces connaissances. Sur le plan de la connaissance, l'humain se trouve en rivalité avec la machine, mais il lui appartient de choisir, car seul lui peut passer à l'action. Lui seul prend la responsabilité de son action.

Un pas supplémentaire consiste à transférer la compétence d'apprentissage à des robots et donc à la prolonger avec des capacités d'action. Ces machines auront une certaine autonomie, non prévue par un humain, puisqu'elles enrichissent leurs connaissances en fonction des apprentissages qu'elles réalisent. Les finalités qu'elles poursuivront leur donneront un champ d'action plus ou moins large. Voici quelques exemples : transporter un passager d'un endroit à un autre (voiture autonome) ; dans le cadre d'un conflit armé, tuer des ennemis ; diriger une entreprise (suivi des résultats et gestion du personnel).

Dans des cas de ce type, l'humain, qui leur a assigné leur finalité, garde une responsabilité sur leurs actions, même si elles restent en partie imprévisibles. Cette responsabilité, il la prend a posteriori, alors que pour les machines du premier type, il la prend avant l'action, vu que l'action dépend uniquement de lui.

Un pas supplémentaire consisterait à fabriquer des machines qui fonctionnent comme un organisme et donc qui agissent pour s'auto-conserver. Cela les amènera à développer elles-mêmes des finalités. Dans ce scénario, nous entrons dans un monde qui relève encore aujourd'hui de la science-fiction, dans lequel une machine peut se voir reconnaître des droits et des devoirs, par exemple ne pas nuire aux humains. À quoi pourrait servir une telle machine ? Par exemple, à l'exploration spatiale, dans des contrées lointaines pour lesquelles une vie humaine ne suffit pas. Fernand Schmetz (discuter) 24 octobre 2023 à 20:52 (UTC)Répondre

Bonjour @Fernand Schmetz. Merci pour ce partage d'idée et d'information. Cela nourrit ma propre réflexion. Si tu veux poursuivre ta propre réflexion au sujet de l'avenir possible. Je te conseille de t'intéresser aussi à ce qui se passe en biologie synthétique. On est en train d'avancer sur la construction de « machines organiques ». Le génome est aujourd'hui perçu comme un jeu de légos qui permet de construire ce que l'on veut au départ de bio-brique.
Tout ceci nous ramène à notre propre ontologie. L'être humain peut aussi être vu comme une machine hyper sofistiquée dont la particularité est d'avoir un stage de conscience très élaboré (voir Damasio à ce sujet). Une machine qui n'est pas inimitable en soi.
Je reste disponible pour poursuivre cette conversation. Lionel Scheepmans Contact Concernant ma dysorthographie 27 octobre 2023 à 09:20 (UTC)Répondre

"AI Act" et IA génératrice de contenu

[modifier le wikicode]

Cet aperçu de l'analyse du terme "intelligence" quand on aborde l'IA est intéressant. Dans quelle mesure les lois et réglementations actuelles sont-elles adéquates pour encadrer le développement et l'utilisation de l'intelligence artificielle, notamment en ce qui concerne la responsabilité et la protection des droits humains ? Nous voyons désormais l'émergence d'IA génératrice de contenu. L'Union Européenne, via le cadre règlementaire de l'AI Act, reconnaît qu'il y a différents (4) niveaux de risques associés aux systèmes d'IA (risques non-acceptables, élevés, limités, et minimaux). Bien que cela représente un premier pas en avant considérable concernant la règlementation de ces systèmes, il semble que cet AI Act puisse être presque renommé comme étant un "High risk Act", de par sa focalisation majeure sur ceux-ci. Selon moi, cela risque de se faire au détriment des autres risques, qui pourtant portent atteinte aux individus : prenons l'exemple des deepfakes (via contenu audio et/ou vidéo), qui n'est placé qu'au niveau de "risque limité"... Pourtant, cela pose de nombreux préjudices, tels que la manipulation de l'opinion publique, la désinformation, la diffamation, voire même des recherches d'humiliation via des "nudification"/créations de deepfakes pornographiques - en majorité au détriment des femmes. Kassandra Parvais (discuter) 30 mars 2024 à 10:17 (UTC)Répondre

@Kassandra Parvais. Je t'avoue que je ne suis pas encore très avancé concernant le sujet de l'Intelligence artificiel. De plus, c'est quelque chose en plein développement et expérimentation et il n'est donc pas toujours facile d'en faire la synthèse ni de prendre du recul. Ce qui explique pourquoi ce chapitre est encore peu développé.
C'est aussi la raison pour laquelle je vous propose, comme exercice dans le cadre du séminaire, d'améliorer vous-même le chapitre. En conséquence, vas-y lance-toi puisque tu sais des choses que je ne connaissais pas encore. De mon côté, j'avais juste sous la main deux articles de la libre qui offrait un exemple concret des problèmes moraux et même légaux, auquel on peut être confronté avec l'intelligence artificielle. Les liens vers Internet archive sont repris ci-dessous. J'espèrais ainsi trouver une version des pages web accessible sans abonnement, mais cela ne semble malheureusement pas possible.
https://web.archive.org/web/20240123040315/https://www.lalibre.be/belgique/societe/2023/03/28/sans-ces-conversations-avec-le-chatbot-eliza-mon-mari-serait-toujours-la-LVSLWPC5WRDX7J2RCHNWPDST24/
https://web.archive.org/web/20230328044230/https://www.lalibre.be/belgique/societe/2023/03/28/le-fondateur-du-chatbot-eliza-reagit-a-notre-enquete-sur-le-suicide-dun-jeune-belge-VGN7HCUF6BFATBEPQ3CWZ7KKPM/
N'hésite pas à récupérer ses deux liens dans les améliorations que tu comptes faire au chapitre. Et bravo pour ta motivation. En tant qu'enseignant, c'est précieux pour la motivation d'avoir des participantes comme toi. Belle fin de journée ! Lionel Scheepmans Contact Concernant ma dysorthographie 1 avril 2024 à 17:32 (UTC)Répondre

L'IA et Robotique

[modifier le wikicode]

Je n'ai pas de question concernant le chapitre, mais je voudrais partager mes impressions sur celui-ci, que j'ai trouvé extrêmement captivant. En particulier, je souhaite exprimer mon émerveillement face aux avancées réalisées dans le domaine de l'intelligence artificielle, notamment avec des création telles que le "robot Sophia" que vous avez cité. Ces réalisations sont véritablement impressionnantes et témoignent du potentiel incroyable de la technologie moderne.

L'année dernière, alors que j'étais en troisième année de psychologie, j'ai eu l'occasion d'assister à une conférence qui parlait du lien entre la robotique et la psychologie cognitive. Que des robots étaient entrain d'être conçu dans le but d'aider les personnes autistes à progresser dans leur développement. Cette expérience a été à la fois fascinante et édifiante, car elle illustrait clairement la manière dont la technologie peut être utilisée pour le bien être des individus.

De plus, j'aimerais rajouter que malgré ces avancées prometteuses, je ressens également une certaine inquiétude quant à l'impact de l'intelligence artificielle sur notre propre intelligence. La question de ce qu'est réellement l'intelligence est complexe et sujette à débat, mais je crains que la facilité d'accès à l'information offerte par l'IA ne contribue à une forme de régression intellectuelle, à une perte de la capacité à réfléchir de manière critique et à générer des idées innovantes.

C'est évidemment personnel, mais je trouve ca intéressent de le partager avec toi. Margrd (discuter) 4 avril 2024 à 16:50 (UTC)Répondre

@Margrd, quand tu t'adresses à quelqu'un de particulier dans un message posté sur une page de discussion, prend la peine d'utiliser la fonction de notification accessible par l'icône d'un petit bonhomme surmonté d'un + à droite. Exactement comme je l'ai fait en début de ce présent message.
Tes commentaires sont intéressants et je t'invite, puisque cela fait partie des tâches à réaliser dans le cadre du séminaire, à améliorer le contenu du chapitre avec des informations sourcées qui font référence à ce que tu as appris lors de la conférence dont tu fais mention ci-dessus.
La question de la perte de capacité cognitive de l'humain par la délégation de tâches intellectuel à des machines est pertinente. On pourrait d'ailleurs certainement y trouver réponse dans la littérature, ce qui serait une autre amélioration a apporté au chapitre. Car le remplacement et le renforcement des habileté humaine par la technique ne date pas d'hier. L'écriture par exemple fut une révolution qui permit à l'humain d'être moins exposé à des problèmes de mémoire. Tout comme la machine à calculer, une intelligence artificielle, elle aussi, finalement, à remplacer l'usage des calculs écrits. Est-ce pour autant que les êtres humains furent sujets à « une forme de régression intellectuelle, à une perte de la capacité à réfléchir de manière critique et à générer des idées innovantes » ? Ce serait intéressant de répondre à la question en enrichissant le chapitre. Lionel Scheepmans Contact Concernant ma dysorthographie 4 avril 2024 à 17:30 (UTC)Répondre

Des échecs répétés

[modifier le wikicode]

Bonjour @Lionel Scheepmans,

Merci pour ce chapitre. Il me rappelle deux expériences qui ont eu lieu autour de l'IA. L'une était celle de Tay par Microsoft. C'était une IA censée se développer, notamment dans ses connaissances, via Twitter. Le fait amusant (et très embêtant) est que l'IA est devenue totalement raciste et hors de contrôle en un temps record (prouvant principalement la toxicité de ce réseau en particulier). La deuxième est une série de simulations de l'armée française (celle-ci s'intéresse de près à l'IA, donc brise déjà la 3ᵉ règle de la robotique). Toutes les simulations finissaient par l'IA qui se retournait contre les humains. Bien sûr, cela ne vaut pas grand-chose, mais tout de même là où l'IA compose le rêve chez certains, on voit que pour le moment, il semble plutôt intéressant que le développement reste géré humainement. Et malgré cet état non fini de l'IA, on en voit déjà les dérives dans son utilisation, comme Kassandra l'a très justement souligné dans son commentaire. Rémi Maillo (discuter) 15 avril 2024 à 14:13 (UTC)Répondre

C'est intéressant en effet @Rémi Maillo. Mon opinion d'ailleurs est que l'IA a beaucoup à nous apprendre, non pas à travers ce qu'elle est capable de produire, puisque ce ne sera jamais que du plagiat inspiré des productions humaines préalables, mais bien à travers ce qu'elle dévoile du fonctionnement des sociétés et de certaines logiques humaines. Tes exemples sont en ce sens explicite. L'IA a démontré la toxicité des réseaux sociaux, tout comme elle dévoile l'absurdité de la guerre, comme tout autre système menant à la destruction d'êtres humains.
À mon sens, et comme je le dis entre les lignes dans l'ébauche du chapitre, l'IA est une intelligence bien plus rationnelle que celle des hommes d'affaires ou des maitres de guerre. Mais donc, n'hésite pas à développer ton idée directement dans le chapitre, grâce à des références que tu pourrais trouver sur le net sur les deux cas de figure dont tu fais mention. Cela fait en effet partie des tâches à effectuer dans le cadre du séminaire. Lionel Scheepmans Contact Concernant ma dysorthographie 15 avril 2024 à 15:30 (UTC)Répondre
Ce que tu dis là me parait très intéressant. En tout cas, tu mets des mots que je ne parvenais pas à mettre. Je vais aller chercher quelques sources puis je vais compléter comme je peux. Merci beaucoup. Rémi Maillo (discuter) 15 avril 2024 à 16:59 (UTC)Répondre

Réduction du fossé numérique grâce à l'intelligence artificielle dans les zones rurales

[modifier le wikicode]

Bonjour Lionel, Merci pour ce chapitre sur l'IA! Je me demande, comment l'utilisation de l'intelligence artificielle pourrait-elle aider à réduire le fossé numérique entre les zones urbaines et rurales, en particulier dans les pays en développement où l'accès à la technologie est limité ?

Bon cours aujourd'hui! Mathias Wauthy (discuter) 17 avril 2024 à 08:03 (UTC)Répondre

Encore une question intéressante @Mathias Wauthy, merci de la poser. Ta question touche une technologie très récente et pour laquelle on manque de recul pour en faire une réelle analyse. Mais je peux déjà te donner une application concrète de l'intelligeance artificiel dans les jeux vidéo qui permet à des personnes vivant en milieu rural et qui aurait la chance de pouvoir jouer à un MMORPG. Il s'agit des systèmes automatiques de traduction des messages échangés entre les joueurs. Grâce à l'IA un joueur qui ne connait pas l'anglais, qui bien souvent est utilisée comme ligua franca dans toutes les activités sociales internationales, peut sans trop de difficulté et de limitation, converser par écrit avec d'autres joueurs.
En supposant que les personnes en milieu rural ont statistiquement moins de chance de connaître l'anglais, l'IA conversationnel permet ainsi de réduire le fossé dont tu parles et qu'il, comme déjà exprimer dans le précédent message que je t'ai adressé, n'existe pas uniquement pour des raisons économique et technique, mais aussi pour des raisons culturelles. Tel que la non maitrise de la langue anglaise alors que celle-ci est utilisée pour plus de 50 % des contenus accessibles via le réseau internet.
Je t'invite donc si tu le veux à améliorer toi-même le chapitre de la leçon sur l'écoumène numérique que tu viens de lire en ajoutant un paragraphe au sujet de l'usage des traducteurs automatique dans les sites de rencontre. Cela fait en effet partir des tâches à faire pour le séminaire et reprise dans les critères d'évaluation. Lionel Scheepmans Contact Concernant ma dysorthographie 17 avril 2024 à 13:29 (UTC)Répondre

Ajout de texte

[modifier le wikicode]

Bonjour @Lionel Scheepmans,

Au début de cette lecture, je me suis dit que j'allais te proposer comme commentaire de ce chapitre, qu'il serait intéressant de définir la notion d'intelligence, (ce qui manque selon moi en cette introduction) juste avant celle d'artificielle, afin d'avoir une explication complète du terme d'intelligence artificielle.

Au vu de ta demande d'intervention de ce matin, en plus d'émettre ce commentaire, je me suis donc permis, de moi-même ajouté du texte dans le but de définir cette notion⁣.

J'espère que cela te conviendra ! Master UCL (discuter) 17 avril 2024 à 13:43 (UTC)Répondre

C'est vraiment très à propos Master UCL et tu as du remarqué que je t'ai déjà remercié pour ces changements via un système de notification interne à Wikiversité. Te voici donc avec une tâche de plus accomplie. Comme toujours, si tu as des commentaires, question ou autre sur le reste du chapitre, n'hésite pas à les formuler ici, afin de poursuivre l'amélioration de la page en suscitant des réflexions chez les autres participants qui n'ont pas encore fait leur propre contribution sur la page. Une belle fin de journée ! Lionel Scheepmans Contact Concernant ma dysorthographie

L'intelligence artificielle a le potentiel de révolutionner profondément les industries et les stratégies commerciales, en favorisant l'innovation, l'efficacité et la croissance économique. Mais cette avancée soulève également des préoccupations quant à la centralisation du pouvoir économique entre les entreprises qui dominent le marché de l'IA, et son impact sur la concurrence et la diversité économique. Comme l'inégalité économique entre les entreprises qui ont les ressources nécessaires pour investir dans ces technologies et celles qui n'en ont pas. Cela donnerait un avantage certain au grande entreprise. Comment les nouvelle et petite entreprise pourrait concurrencé cela ? La perte d'emplois pourrait aussi être au rendez-vous car elle pourrait prendre la place de certaine employé peut être pas maintenant car nous somme encore loin de pouvoir faire entièrement confiance a L'IA mais dans 20, 30, ou 4O,Quand sera-t-il ? Ferrie Bachir (discuter) 17 avril 2024 à 16:27 (UTC)Répondre

Je partage complètement les idées que tu viens d'exprimer ci-dessus @Ferrie Bachir. Ce que je t'invite à faire maintenant, c'est de les exprimer directement dans le chapitre en le modifiant toi-même, comme cela est demandé dans le séminaire et comme certains participants l'ont déjà fait. N'oublie pas évidemment de sourcé tes idées de telle sorte à les présenter comme des faits et non pas comme un simple opinion. Dis-moi d'ailleurs si tu comprends bien le sens de cette dernière phrase s'il te plait. Lionel Scheepmans Contact Concernant ma dysorthographie 18 avril 2024 à 10:48 (UTC)Répondre

Tests de créativité de Torrance

[modifier le wikicode]

Je place dans cette page de discussion un lien vers un article intéressant qui aborde la créativité des intelligences artificielles génératives. Une première source qui peut ouvrir un débat sur la question tout en faisant référence au Tests de créativité de Torrance. Lionel Scheepmans Contact Concernant ma dysorthographie 14 mai 2024 à 12:06 (UTC)Répondre

Réflexion : GenIA & Art

[modifier le wikicode]

Une des craintes qui entoure le domaine des intelligences artificielles génératives est liée à l'art. En effet, avec l'avènement des IA génératives capables de créer des œuvres graphiques indissociables (ou presque) de productions humaines, une réflexion se doit d'être posée regardant l'essence même de ce que nous appelons 'art'. L'adage suivant propose une piste de réponse à cette question : “c'est n'est pas la destination qui. importe mais bien le chemin parcouru”.

Peut être que dans un monde où, la nature de la production du résultat final est incertaine, nous serons forcé de revoir notre conception de l'art, et peut être serons nous forcé de placer l'accent sur le procédé créatif des artistes plutôt que le résultat final.

Cependant, cette démarche réflexive ouvre la porte sur la question de la créativité, comme l'a souligné @Lionel Scheepmans. ExK0y (discuter) 14 mai 2024 à 13:18 (UTC)Répondre

En te lisant @ExK0y, je me dis que l'art contemporain⁣⁣, et le domaine de la performance, doivent voir une sorte de promotion dans les remises en question et la nouvelle blessure narcissique infligée par l'IA générative. Lionel Scheepmans Contact Concernant ma dysorthographie 14 mai 2024 à 14:08 (UTC)Répondre

IA et Etudes

[modifier le wikicode]

Bonjour @Lionel Scheepmans,

En lisant la partie "Encadrement des dérives liées au développement, à l'utilisation de l'IA " je me demande quel parti vont prendre les universités ou tout autre système éducatif face à la démocratisation de ces outils utilisant l'IA. Dans un premier temps, il semblerait qu'utiliser ces logicielles se rapproche de la triche par apport aux étudiants n'y ayant pas eu accès. Mais on peut aussi avancer qu'il faut vivre avec son temps, surtout si les IA se démocratisent dans le monde professionnel. M. Ledoyen (discuter) 14 mai 2024 à 19:00 (UTC)Répondre

Je n'ai pas d'avis pour l'instant. Mais ce que je peux te dire en revanche @M. Ledoyen, c'est que dans le procédé pédagogique mis en place pour ce séminaire, l'usage d'une IA générative serait la bienvenue, mais inefficace ou fastidieuse à utiliser pour assurer toutes les tâches qui sont demandées. Lionel Scheepmans Contact Concernant ma dysorthographie 14 mai 2024 à 23:00 (UTC)Répondre

Piste

[modifier le wikicode]

Merci pour ce chapitre. L'IA est en effet une question actuelle fort brulante. Cela reste pour moi un des points technologiques où je me demande va-t-on un jour arrêter l'évolution? Maintenant, je suis sure que beaucoup d'avantage de cette technologie sont utilisés de nos jours pour aider l'humain, je pense notamment au domaine de la médecine. Une piste d'élargissement serait de regarder à sa perception dans les productions audio-visuelles en comparaison à son utilisation dans notre quotidien. Mathleg18 (discuter) 14 mai 2024 à 20:47 (UTC)Répondre

@Mathleg18, je ne comprends pas ta phrase : « Une piste d'élargissement serait de regarder à sa perception dans les productions audio-visuelles en comparaison à son utilisation dans notre quotidien. » Lionel Scheepmans Contact Concernant ma dysorthographie 14 mai 2024 à 23:01 (UTC)Répondre

Le problème difficile de la conscience

[modifier le wikicode]

Comme toute question relative à la conscience, celle qui concerne l'existence de machines conscientes est une question d'ordre philosophique (dont traite plus spécifiquement la philosophie de l'esprit). C'est que la conscience est un phénomène essentiellement privé : la conscience, c'est la subjectivité, c'est l'effet que cela me fait de voir, entendre, goûter, toucher, sentir et ressentir (ce qu'on appelle les qualia). Or comment accéder au ressenti subjectif d'un individu ? La seule chose que l'on peut faire, c'est corréler certains états physiques (comme l'activation de certains ensembles neuronaux) avec certains états mentaux (comme la douleur). Mais il ne s'agit que de corrélations qui par ailleurs diffèrent d'un individu à un autre, d'une espèce à une autre. En effet, l'analyse d'une IRMf peut éventuellement nous informer sur le type d'expérience qui est vécue (peur, joie, etc.) par tel ou tel individu, mais elle ne nous dit rien sur le contenu précis de cette expérience (si l'individu pense à un monstre blanc ou à une araignée noire, à un ciel bleu ou une fôret verte). C'est ce que David Chalmers appelle le "problème difficile de la conscience". Imaginons maintenant que nous arrivions à créer un ensemble complexe de réseaux neuronaux artificiels. Devrait-on alors dire que ce système complexe engendre une conscience ? Nous ne pourrons jamais le savoir. Pour les fonctionnalistes, l’esprit (qui comprend les états mentaux conscients) n'est rien d'autre qu'un système complexe de calcul et de traitement de l’information et il se pourrait qu'un ordinateur ultrasophistiqué puisse être conscient. Mais pour John Searle, de tels ordinateurs ne pourraient que simuler ces états de conscience. Comme il l'a montré à travers sa célèbre expérience de pensée intitulée "la chambre chinoise", ce qui distingue un bot qui converse en chinois d'un véritable locuteur chinois, c'est que ce dernier ne fait pas que manipuler des symboles selon des règles formelles préétablies (syntaxe) : parler le chinois ne se réduit pas à dire certaines choses à certains moments, il s’agit également de signifier ou de représenter quelque chose (sémantique), autrement dit de vouloir dire ce que l’on dit, ce qui implique une conscience. Pour lui, l'intelligence artificielle sera toujours "faible" contrairement aux fonctionnalistes qui défendent l'hypothèse d'une intelligence artificielle forte. Geoffroy De Brabanter (discuter) 18 février 2025 à 16:00 (UTC)Répondre

Intéressant @Geoffroy De Brabanter. Pour ma part et à ce sujet, j'aime les idées de Damasio qui a la chance d'avoir un pied dans plusieurs disciplines. Pour lui, il n'y a pas de conscience sans corps. Et voici son hypothèse :
Mon hypothèse est la suivante : ce que produisent les anesthésiques, en perturbant les propriétés des canaux ioniques dans la bicouche des membranes cellulaires, c’est une interruption aussi simple que radicale de la faculté de sentir que nous venons de décrire. Les anesthésiques ne prennent pas spécifiquement pour cible l’esprit : il ne peut plus y avoir d’esprit une fois que l’aptitude à sentir est bloquée. La cible des anesthésiques n’est pas non plus la conscience.
En parlant des machines qui pourront disposer un corps artificiel remplis de capteurs, il dit aussi :
Ces machines « sensibles » finissent-elles par devenir des machines « conscientes » ? Pas si vite ! Elles développent bel et bien des éléments fonctionnels liés à la conscience, les sentiments étant l’une des étapes de l’apparition de la conscience. Mais les « sentiments » de ces machines sensibles ne ressemblent pas à ceux des êtres vivants. Le « degré » de conscience potentiel dont elles pourraient jouir dépendra de la complexité de leurs représentations internes, qui portent à la fois sur l’« intérieur de la machine » et sur son « environnement ».
Selon son point de vue donc, si les outils d'intelligence artificielle peuvent devenir « fort », si devront toujours posséder un corps pour expérimenter le phénomène de la conscience.
Si le dernier livre de Damasio t'intéresse, je peux te l'envoyer. Lionel Scheepmans Contact 20 février 2025 à 16:58 (UTC)Répondre
Pour complèter les infos sur l'anesthésie générale : https://www.sciencesetavenir.fr/sante/cerveau-et-psy/pourquoi-perd-on-conscience-pendant-une-anesthesie-generale_126844 Lionel Scheepmans Contact 20 février 2025 à 17:03 (UTC)Répondre
Suite aux lectures des articles Wikipédia dont tu fais mention, je me rends compte aussi que le mot Qualia semble avoir une définition très proche de ce que Damasio entend par sentiment. Tu trouves aussi ? Lionel Scheepmans Contact 20 février 2025 à 17:17 (UTC)Répondre
En effet, dans la mesure où les qualia font référence à tout ce qui est de l'ordre de l'expérience vécue (l'effet que cela fait de voir du rouge, de boire du thé, de ressentir de la joie, de percevoir le mouvement de ses intestins, etc.), les sentiments de Damasio entrent pleinement dans cette catégorie. Je pense que Damasio n'est pas étranger à ces concepts philosophiques puisque toute personne qui s'attèle à l'élaboration de ce genre de théories fondamentales ne peut faire l'impasse sur ces notions. Car au final, peu importe la théorie de la conscience évoquée (Anil Seth en recense plus d'une vingtaine), o Geoffroy De Brabanter (discuter) 20 février 2025 à 23:06 (UTC)Répondre
@Lionel Scheepmans EDIT : j'ai modifié à deux fois le wikicode car la fin de ma réponse n'apparaissait pas. Je constate que c'est encore le cas ce matin. J'écris donc la suite ici :
Car au final, peu importe la théorie de la conscience évoquée (Anil Seth en recense plus d'une vingtaine), on en revient toujours à la même chose : les états mentaux sont par définition subjectifs et privés (qualitatifs) tandis que les états physiques de l'organisme sont par définition objectifs et quantifiables, le tout étant de définir la relation qui unit les deux types d'états (c'est le sempiternel problème corps-esprit). Geoffroy De Brabanter (discuter) 21 février 2025 à 09:07 (UTC)Répondre
C'est étonnant que Damasio ne parle jamais de Qualia dans son dernier ouvrage.
Mais donc, on en revient à la question du dualisme et pour ma part, j'ai adopté un principe assez simple pour simplifier ma vie intellectuelle.
Comme la plupart des gens, j'aimerais beaucoup que l'esprit existe en tant qu'entité séparée du corps. C'est une pensée très efficace face à l'angoisse provoquée par la certitude de mourir physiquement.
Il est possible que les âmes existent, même si le manque de démonstrations rend la chose statistiquement peu probable. Car finalement, seule notre mort permettra de prouver par expérimentation l'existence de notre âme.
Du coup, je me dis que je préfère attendre la mort avant de réfléchir à une probable existence de l'âme, d'un dieu, ou de consacrer de l'énergie à toute chose transcendantale. Je trouve cela intelligent, car si mon esprit survit à mon décès physique, il pourra alors se concentrer pleinement sur ces questions, d'autant plus qu'il ne sera plus embarrassé par toutes ces attentions que le corps nécessite.
Et si l'âme n'est en fait qu'une conscience et que cette conscience est une émulation de mon corps physique, eh bien, je n'aurai pas perdu mon temps à réfléchir à des choses qui n'existent pas.
Du coup, de mon vivant, j'ai décidé de m'intéresser uniquement à ce qui est immanent. Lionel Scheepmans Contact 21 février 2025 à 23:20 (UTC)Répondre
Je te suis mais comme tu t'en doutes, les philosophes débordent de créativité pour tenter de fonder des systèmes théoriques cohérents capable de rendre compte des phénomènes subjectifs. Mais de manière plus générale, il faut bien voir que le dualisme n'est pas nécessairement lié à la question (spirituelle/religieuse) de l'âme : l'existence des qualia suffit pour postuler l'existence de deux types d'états dans le monde (les états physiques et les états mentaux) et donc être dualiste. Actuellement, le physicalisme non réductionniste est la position dominante en philosophie de l'esprit, c'est une pensée matérialiste moniste qui essaye néanmoins d'intégrer l'existence des phénomènes subjectifs en les qualifiant de non-réductibles (aux phénomènes physiques). Pour cela elle fait intervenir le concept d'émergence. Mais le maître en la matière, Jaegwon Kim, a soulevé les limites de cette position si bien qu'il faudrait selon lui être totalement réductionniste (car la position hybride du physicalisme non réductionniste ne tient pas). Le problème, c'est que les qualia résistent à cette réduction (de l'aveu de Kim lui-même qui caractérise son système métaphysique comme un "quasi-physicalisme", "physicalism or something near enough" étant le titre de son dernier ouvrage). Par conséquent, le dualisme reste une option plausible dans le débat corps-esprit sans nécessairement faire intervenir des éléments d'ordre religieux ou transcendants comme tu le dis (un article intéressant issu d'un ouvrage collectif parle du "dualisme déguisé des neurosciences" par exemple). Une autre option dont on parle de plus en plus est le panpsychisme qui tente à nouveau de rapatrier les états mentaux dans une système métaphysique moniste et physicaliste. Bref, bienvenue dans le monde de la métaphysique analytique 😁 Geoffroy De Brabanter (discuter) 22 février 2025 à 08:59 (UTC)Répondre
@Geoffroy De Brabanter C'est cool d'avoir un cours de philo en donnant cours d'anthropo ! Je vais lire tes liens avant de poursuivre la discussion. Entre temps, n'hésite pas à me dire ce que la philosophie analytique raconte sur l'émergence des outils informatiques intelligents. Lionel Scheepmans Contact 22 février 2025 à 15:35 (UTC)Répondre
Mais déjà. Comment les philosophes peuvent-ils faire abstraction des observations liées aux lésions cérébrale ? On sait depuis longtemps que certains qualia disparaissent en même temps que la partie du cerveau qui les héberge, non ? Il me semble que la démonstration suffit pour conclure que le cerveau est le siège physique de l'expérience subjective.
Après avoir lobotomisé le cerveau de Rosemary Kennedy, son expérience subjective s'est vue réduite à celle d'une enfant de deux ans. Cette horrible histoire ne suffit-elle pas à comprendre que le cerveau est le siège de l'expérience subjective et de permettre de penser que sans celui-ci, il n'y a ni conscience, ni âme, ni subjectivité, ni qualia, ni rien des expériences et phénomènes qui existait grâce à ce support physique ? Lionel Scheepmans Contact 22 février 2025 à 15:49 (UTC)Répondre
Ah mais évidemment, très peu contestent le fait que sans cerveau, pas de qualia. Mais ce qu'on observe, c'est l'émergence d'états mentaux (les qualia en question) au départ d'états physiques (certaines dispositions neuronales). Et la particularité de ces états mentaux, c'est qu'une fois apparus, ils ont le pouvoir de modifier les états physiques du cerveau (c'est bien l'intentionnalité, par exemple ma volonté de bouger mon bras, qui active les processus neuro-électriques via lesquels mon bras se lève effectivement). Mais tout cela nous amène sur le problème épineux de la causalité mentale. Je propose qu'on en reste là 🙃 Si tu veux un bon ouvrage d'introduction à la philosophie de l'esprit, je te conseille celui de Michael Esfeld intitulé Introduction à la philosophie de l'esprit (tu vas te perdre si tu navigues entre les différents liens wiki, il m'a fallu des années de travail doctoral pour comprendre tout ça... et j'me perds encore !). Geoffroy De Brabanter (discuter) 22 février 2025 à 16:50 (UTC)Répondre
D'où l'idée @Geoffroy De Brabanter de m'occupé de ces choses-là après ma mort. Si je peux =) Mais comme j'ai trouvé une version numérique du livre dont tu parles sur le net, je vais écouter ça avec grand intérêt. On en reste donc là pour les considérations philosophiques. C'était super dans tous les cas et encore une fois, ce serait dommage que tu ne termines pas ton doctorat. Moi, je trouve ça super intéressant et même super important. On en reparle en dehors de cette page si tu veux. Lionel Scheepmans Contact 22 février 2025 à 17:03 (UTC)Répondre
Merci pour ton intérêt, ça m'a fait plaisir d'échanger à ce sujet avec toi (mais pour la suite, on continuera tous les deux après notre mort, si on peut 😁). Geoffroy De Brabanter (discuter) 22 février 2025 à 17:12 (UTC)Répondre
Ok, rendez-vous dans l'au-delà. Inch Allah ! =) Lionel Scheepmans Contact 22 février 2025 à 17:22 (UTC)Répondre

ta question

[modifier le wikicode]

Arg quelle horreur ta question Lionel, je déteste ce genre de question, j'ai toujours du mal à la comprendre :(

Bref texte très intéressant qui met en avant l'ia et sa capacité à imiter, voire à surpasser les humains dans différents domaines! Souvent cela fait échoc aux films sciences-fictions, comme Terminator où notre cher Scharzenegger évolue au point de devenir carrément une menace pour nous, simples mortels. Skynet est une IA si autonome à l'intelligence suprème, que finalement elle perçoit le monde humain comme une menace pour la Terre. Ici, l'imitation des robots ne se limite donc plus à des tâches simples, comme dit le texte, mais aussi s'étend à des capacités complexes (planification et prise de décision). De plus on évoque aussi la blessure narcissique infigée à l'humanité par la supériorité de nos machines, comme T-800 qui est presque indiscernables des humaines. Mais là où le texte reste dans une perspective analytique, Terminator lui pousse la logique à l'extrème en imaginant un futur où l'ia a le contrôle. Cela vend du rêve! Sumathi De Medts (discuter) 22 février 2025 à 18:14 (UTC)Répondre

Quelle question ? Un futur ou l'IA a le contrôle... Elle ont déjà le contrôle d'un tas de choses. Les avions, la bourse, quoi d'autre ? Mais quel humain va programer un outils informatique nteligent de sorte à ce que sont contrôle nuise aux humains et donc à lui personnellement ? Lionel Scheepmans Contact 23 février 2025 à 03:10 (UTC)Répondre

Intelligence comme limitée à l'humain ?

[modifier le wikicode]

Peut-être que j'ai juste mal compris mais est-ce que le but est ici donc de limiter l'intelligence à la propriété humaine par son aptitude notamment à dépasser le simple réponse à une demande et son aptitude à ressentir des émotions ? Car si c'est le cas, un robot peut aussi parvenir à générer des réflexions autonomes et ressentir une forme d'empathie... Et est-ce que cela inclus les animaux dans l'intelligence ? Etant donné qu'eux aussi peuvent ressentir des émotions et être autonomes dans leurs réflexion. Voilà voilà je veux bien vos avis sur la question :)) Rhododendrove (discuter) 24 février 2025 à 20:54 (UTC)Répondre

CE que je tente d'expliquer dans le Texte, C'est qu'il me semble être un abus de language de dire qu'un programe informatique ou un robot est une intelligence. Ça peut être intelligent, car ça résout des problèmes, mais ce n'est pas une intelligence, car cela n'a pas d'intention. Ça fait juste ce que inhumain lui demande de faire. Même dans la créativité, cela ne fait que suivre un code informatique qui répond à des injonctions. On demande à l'IA d'écrire un texte, ou produire une image, et elle le fait par imitation et sans initiatives personnelles. Elle n'a pas de désire propre, pas de sentiments liés au fonctionnement interne du corps, comme les êtres vivants complexes. Pas d'hormones, pas de boule au ventre, pas de larmes, pas de coeur serré, pas de réelle joie ou peur. Cend contrairement aux mamifère qui éprouvent tous de la tristesse et des frustrations. Le chien, par exemple, de par sa sélection artificielle est très proche de l'homme et très empathique. Les robots actuels en son incapables comme le prouve le drame du chatbot Éliza. Et ils n'ont pas d'autonomie. Ils font ce pour quoi il sont programmés et d'ailleurs, quand il sont éteint, il ne font plus rien, jusqu'à ce qu'on les rallume. Ils ne dorment pas, ne vivent pas et ne meurent pas. Quand on fait ce qu'il faut, il fonctionnent, comme on leur demande de faire et c'est tout. Un peux comme certains humains malheureusemebt, mais sans aucun sentiment ni émotion réels. Mes idées sont-elles plus compréhensibles maintenant @Rhododendrove ? Lionel Scheepmans Contact 26 février 2025 à 02:03 (UTC)Répondre

Les 3 lois de la robotique

[modifier le wikicode]

Dés le débuts de ce chapitre j'ai pensé aux 3 lois de la robotique et quand elles ont été mentionnée plus tard j'ai été content de les voir mentionnée et qui plus est de la manière dont j'y avais pensé. Cependant je n'avais jamais eu l'idée des les appliquer à l'humain et en effet il serait peut-être bien de nous-même respecter l'intégralité de l'espèce humaine avant de vouloir que nos inventions la respecte, nous sommes quand même les inventeurs d'armes de destruction massive et de matière provoquant cancer et réchauffement climatique. Thomas Wauters (discuter) 26 février 2025 à 15:03 (UTC)Répondre

Oui @Thomas Wauters. Et c'est bien une chose qui rend dingue dans cette humanité. Et J'aimerais un jour comprendre comment et pourquoi on continue à faire toutes ces choses insencées. Pourquoi l'humain agit de manière aussi stupide alors qu'il est capable de produire des choses si intelligente ? Lionel Scheepmans Contact 26 février 2025 à 18:02 (UTC)Répondre

Intelligence simulée aujourd'hui mais pas demain?

[modifier le wikicode]

C'est plaisant de briser avec le sens commun, d'un côté en resituant le fait que l'IA n'est pas arrivée en 2022 avec les grandes avancées des IA génératives mais qu'il s'agit bien d'un concept qui prédate de nombreuses grandes évolutions. C'est aussi intéressant de s'éloigner de cette image "de forme d'intelligence toujours plus proche de l'homme" qui lorgne du côté de 2001 l'odyssée de l'espace. Toutefois on peut se demander si un jour une vraie forme de conscience artificielle ne pourrait être concrétisée en supposant qu'on puisse véritablement répliquer le cerveau humain et pas juste des suites logiques. Comme énoncé dans le texte, l'immense crédit porté aux IA repose sur leur exécutions de certaines tâches de manière presque instantané, là ou un humain est bien plus limité par son corps et son esprit, mais peut-être qu'il convient d'envisager un futur ou ces machines pourraient dépasser le stade de la restitution et du simulacre. Peut-être que dans le futur certains chercheurs tenteront de créer de "véritables" sentiments et une "véritable" conscience de soi à partir d'un système binaire? Là il sera capital de déterminer quand est-ce que nous sommes face à une forme de conscience et donc face à un être sentient. Sam Cel-inedion (discuter) 26 février 2025 à 17:38 (UTC)Répondre

@Sam Cel-inedion, Je pense que la science fiction nourrit beaucoup notre imagination au niveau de toute cette technologie. Et on n'est pas pret de mettre au point ce que l'on observe dans les film en images de synthèse. Suite à la remarque de Thomas, je me dis que l'on ferait mieu d'utiliser notre imagination améliorer l'existance humaine. Lionel Scheepmans Contact 26 février 2025 à 18:13 (UTC)Répondre

La place qu'on laisse à l'IA dans notre quotidien

[modifier le wikicode]

Comme j'ai pu brièvement abordé dans une autre discussion, il peut être intéressant de se pencher sur ce qu'on perd en utilisant l'IA. Nous avons le GPS et l'amenuisement de nos capacités d'orientation. Si nous utilisons de manière abusive et répété l'IA pour générer des "belles" tournures de phrases, allons-nous réduire notre capacité à rédiger ? J'aime imaginer l'utilisation de l'IA comme une balance où il faut peser le pour et le contre. Gagner du temps, de la facilité, ne plus s'encombrer de certaines tâches mais à quel prix ? Goelou (discuter) 26 février 2025 à 18:47 (UTC)Répondre

@Goelou. Moi, ça me plait que les IA puissent faire toutes ces tâches. J'ai grandi à une époque ou l'on jurait inintelligence des gens sur leurs orthographe. Étant multi dys, cela n'a pas été agréable pour moi. Tien. Je me demande si les IA générative de textes sont capable de simuler une mauvaise orthographe ? Pour faire croire que c'est un texte écrit par un humain. Lionel Scheepmans Contact 26 février 2025 à 20:11 (UTC)Répondre
Oui, c'est vraiment un outil très pratique, ce serait mentir de dire que je n'utilise pas moi-même l'intelligence artificielle. J'ai testé à l'instant et les IA peuvent effectivement générer des textes avec des fautes d'orthographes. Goelou (discuter) 27 février 2025 à 11:10 (UTC)Répondre
Hé héé @Goelou, ils ont pensé à tout pour tromper les profs ! Sauf ceux qui font bosser leur étudiants sur un Wiki ... J'ai beau en parler à tout le monde, même au learning Lab qui devrait être intéressé, mais tout le monde s'en fou. Que les étudiants en profitent alors ! Surtout quand ils savent que le prof ne va probablement pas lire les travaux remis, ou d'une manière tellement peu approfondie que cela ne vaut pas la peine de s'y investir. Vu leur charge de travail, ce n'est pas quelque chose de rare, malheureusement. Lionel Scheepmans Contact 27 février 2025 à 18:36 (UTC)Répondre

Vidéo sur l’IA

[modifier le wikicode]

Je vous recommande la vidéo «  l’horreur existentielle de l’usine à trombone » de Ego. Je n’arrive pas à ajouter le lien YouTube.

Si le sujet vous intéresse ! LolilolLalolita (discuter) 26 février 2025 à 19:35 (UTC)Répondre

Cool ! @LolilolLalolita Je vais regarder ça. Lionel Scheepmans Contact 27 février 2025 à 02:46 (UTC)Répondre
@LolilolLalolita salut. La vidéo est très bien faite et la voix du youtubeur me fait penser à celle de Paul Mirabel. Comme je n'ai pas trouver la réelle identité de Ego, c'est peut-être lui avec toute un équipe derrière, car une ascension pareil, et une qualité pareil, ça doit pas se faire tout seul. Tu crois pas ? Moi, ce qui me dérange dans la vidéo, comme tout le ramdam que l'on fait sur l'IA en général, c'est que l'on oublie qu'aucune IA ne pourra être aussi dangereuse pour les humains, que les humains eux-mêmes. C'est un peu comme si on déplaçait le problème, comme si l'IA allait devenir une nouvelle entité, comparable à quelque chose d'extraterrestre, qui allait mettre l'humanité en danger, alors qu'elle se met elle-même en danger et de manière potentiellement irréversible. Pour moi, l'IA ce n'est jamais qu'un outils sophistiqué produit par les humains, dont certains pourraient en faire un usage dangereux, mais pas tant qu'une bombe H qui existe pourtant depuis quelque années. Et le plus intéressant, c'est que l'IA suscite des peurs alors que les humains entre eux n'ont jamais respecté eux-mêmes les lois de la robotique, qu'ils ont pourtant imaginé pour se protéger des machines. Ensuite, un IA, c'est pas comme un virus. Tu coupes l'électricité et ça s'arrête et puis c'est pas tout le monde qui risque de l'attraper. T'en pense quoi toi ? Lionel Scheepmans Contact 27 février 2025 à 20:04 (UTC)Répondre

Education aux fake news ou contrôle permanent de l'IA

[modifier le wikicode]

La démultiplication des deepfake ainsi que des Fake News touchent de plus en plus de personnes dans le monde actuel. Les différentes formes de ces manœuvres de désinformation sont encore plus précises avec le temps et difficiles à détecter. L'effort pour ne pas tomber dans le panneau devrait-il venir des personnes devant s'éduquer à reconnaitre les deepfake, ou bien aux concepteurs des IA génératives de les contrôler plus fermement afin de faire baisser la présence de fake news sur le net ? La loi est-elle suffisante pour contribuer à une baisse de ces contenus ? Maximmer (discuter) 26 février 2025 à 20:39 (UTC)Répondre

@Maximmer. Je n'ai aucune connaissance statistique sur le sujet et aucune réponse à tes questions. Si tu trouves des infos sur le net, n'hésite pas à les partager ici. Ça pourtait m'ême fair l'objet d'un chapitre intéressent. Lionel Scheepmans Contact 27 février 2025 à 02:44 (UTC)Répondre