Nouvelles figures de l’utilisateur dans une économie de l’attention/Prototypage du dispositif/Mécanismes de responsabilisation individuelle sur les réseaux

Une page de Wikiversité, la communauté pédagogique libre.

La réponse de ChatGPT[1] :[modifier | modifier le wikicode]

Voici quelques mécanismes qui peuvent être mis en place pour responsabiliser les individus sur les réseaux sociaux :

  1. Des chartes de bonne conduite : il peut être utile de mettre en place une charte de bonne conduite sur les réseaux sociaux pour définir les règles et les comportements attendus des utilisateurs.
  2. Des outils de modération : il est possible de mettre en place des outils de modération pour surveiller et gérer les comportements inappropriés et les contenus inacceptables sur les réseaux sociaux.
  3. Des sanctions : il peut être nécessaire de mettre en place des sanctions pour responsabiliser les individus qui ne respectent pas les règles et les chartes de bonne conduite sur les réseaux sociaux. Ces sanctions peuvent être des avertissements, des bannissements temporaires ou définitifs, etc.
  4. Des campagnes de sensibilisation : il peut être utile de mettre en place des campagnes de sensibilisation pour promouvoir le respect et la bienveillance en ligne et responsabiliser les individus sur leurs comportements sur les réseaux sociaux.

Il est important de mettre en place des mécanismes pour responsabiliser les individus sur les réseaux sociaux et favoriser un comportement respectueux et bienveillant en ligne. Cela peut contribuer à créer un environnement de discussion sain et positif sur ces plateforme.

Notre proposition :[modifier | modifier le wikicode]

  1. Il est trop compliqué de rendre la plateforme responsable en cas de publication problématique, et les différents Etats se déresponsabilisent la plupart du temps. C'est donc la responsabilité individuelle de chaque individu et de ce qu'il publie qui est engagé. Néanmoins, il faut garder le principe d'anonymat possible, c'est un droit.
  2. Il faudrait donc que les différents réseaux sociaux mettent en place une sorte de double identification pour certifier l'identité de l'individu vis à vis de la plateforme, sans que cela lui empêche d’être anonyme vis à vis du grand public.
  3. En outre, pour gérer la présence ou non de contenus problématiques / illégaux, cela suit encore le principe de signalement par les autres individus de la plateforme, signalement qui passerait ensuite dans une "grille de fautes" prévues par la plateforme. En fonction de la gravité de la faute et de la quantité de signalements, la peine encourue est plus ou moins importante.
  4. Le fait que l'identité de l'individu soit connue par la plateforme (grâce à une double authentification via carte d'identité ou numéro de sécurité sociale par exemple) engage la responsabilité de l'individu en question et non de la plateforme qui aurait potentiellement pu "couvrir" un individu 100% anonyme car impossible de connaître son identité et donc de le sanctionner

Potentielle idée de modération :[modifier | modifier le wikicode]

Un message d'avertissement au moment de la publication des messages des utilisateurs pourrait servir de dissuasion à la prolifération des propos haineux et malveillants sur internet. Le fonctionnement pourrait être le même que celui qui existe déjà sur des plateformes comme Twitter pour lutter contre la propagation des fake news. Lorsqu'un utilisateur s'apprête à partager un article via un lien sans l'avoir lu, un message apparait demandant une confirmation que l'auteur du tweet souhaite publier son message sans avoir pris connaissance du contenu de l'article qu'il partage.

Quelques pistes de réflexions :

  • Ce message de prévention apparaît seulement pour les messages jugés potentiellement offensants par la plateforme.
  • Aujourd’hui en France certaines personnes commencent à être poursuivies par la justice pour ce genre de message.
  • Il s’agirait donc de montrer des exemples de messages sanctionnés ainsi que leurs conséquences.
  • Ce système n'empêchera pas la publication mais pourrait éventuellement servir de frein au moment de la publication et faire réfléchir l’utilisateur sur les conséquences de sa publication.
  • Un tel système serait possible si la plateforme s'assure de pouvoir identifier l’utilisateur derrière un compte. Le système de double authentification semble donc encore une piste à explorer, permettant d'assurer à chacun leur anonymat vis à vis de la communauté d'un réseau social tout en ayant une identité vérifiée et connue de la plateforme.

Une proposition de modération sur Twitch : Place de la paix[2][modifier | modifier le wikicode]

Place de la paix est une initiative conduite par deux streamers francophones de la plateforme Twitch : Aminematue et Rebeudeter. Cette initiative a pour but de limiter les comportements problématiques liés au harcèlement des streameuses et des streameurs. Il se concentre pour le moment sur trois points : la misogynie, le sexisme et le racisme. L'outil en lui-même est un simple bot (outil de modération usuel de la plateforme) qui agit comme un mirador. Il permet de placer "en quarantaine" des utilisateurs ayant un contenu suspect sur un chat Twitch. Ce type d'outil existait déjà sur la plateforme depuis longtemps, mais ce qui fait le caractère inédit de cette proposition, c'est qu'elle produit un listing commun à toutes les chaines communes du réseau place de la paix (PDP). Ainsi, si un utilisateur est mis en quarantaine, il ne peut plus écrire de messages dans le chat pendant 24h sur tous les streams du membre du réseau. Durant ce laps de temps, des modérateurs ont accès au listing de surveillance et peuvent consulter l'historique des messages de l’utilisateur suspect. Dès lors, ils peuvent confirmer que l'utilisateur est malveillant et il sera banni définitivement de toutes les chaines Twitch membres du réseau.

Cette initiative présente un réel intérêt pour lutter contre la malveillance de certains utilisateurs qui ne pourront plus sévir sur plusieurs chaînes. Copulé avec les systèmes actuels de sécurité de Twitch, il n'est possible d'autoriser à parler dans le chat uniquement les spectateurs qui ont un compte vérifié au moyen d'un numéro de téléphone. Ce dispositif permet de limiter la création de comptes à la chaîne sans crainte du bannissement.

Pourquoi un tel dispositif peut faire débat :[modifier | modifier le wikicode]

Premièrement, pour ajouter un utilisateur en quarantaine il faut utiliser une commande, qui sera visible par tous les utilisateurs dans le chat. La transparence peut être positive mais elle peut aussi risquer d'engendrer un lynchage par une partie de la communauté. On rentrerait alors dans une boucle de haine.

Deuxièmement, pour que les listes de bannis puissent fonctionner efficacement, il faut enregistrer un motif de bannissement. Le but étant de pouvoir retrouver après une liste de tous les utilisateurs suspects concernant un seul sujet. Si un modérateur fait une faute d'orthographe ou n'a tout simplement pas le temps de rentrer un motif, le bannissement risque de se perdre dans une liste inconnue avec peu de membres et des utilisateurs problématiques pourraient être remis en liberté.

Enfin, c'est un outil très puissant qui peut entraîner l'interdiction d'accès à des centaines de chaînes Twitch d'un coup. Les conséquences sont importantes et c'est le but, afin d'éradiquer les comportements problématiques, mais si une erreur est faite ou si il y a un abus de la part d'un.e modérateur.rice il n'y a pas encore de fonctionnalité permettant l'annulation de tous les bannissements. Il faut que les modérateurs de chaque chaine le fassent manuellement.

Pourquoi c'est intéressant dans notre perspective ?[modifier | modifier le wikicode]

C'est une initiative qui vient de la communauté, puisque la plateforme tarde à réagir. Ce sont deux streamers plébiscités qui ont pris l'initiative de ce dispositif inédit. La mise un place d'un tel processus n'entame pas l'intégrité de l'anonymat des personnes concernées par un bannissement multiple. Les signalements entrainent une sanction immédiate et efficace qui permet de contrôler la capacité de nuire des individus malveillants. La responsabilité de celui qui se rend coupable est engagée, il ne peut plus consulter les chaines Twitch de tous les streamers partenaires.

Le dispositif n'en est encore qu'à ses débuts, il est donc compliqué d'en mesurer les conséquences, mais il sera intéressant de se questionner sur les effets que cela à produit sur plusieurs aspects comme par exemple la variation de l'audience des streamers partenaires de la Place de la Paix, et ceux qui ne sont pas membres ou encore savoir si la réduction des contenus problématiques a été effective.

  1. ChatGPT
  2. « Place de la Paix », sur www.placedelapaix.fr (consulté le 21 décembre 2022)