Nouvelles figures de l’utilisateur dans une économie de l’attention/Travail pratique/Analyse des attentes/Hypothèse 1-1

Une page de Wikiversité, la communauté pédagogique libre.
Aller à la navigation Aller à la recherche

Le risque d'avoir accès à tous types de contenus risque d'exposer les personnes vulnérables à du contenu sensibles.

Dans un premier temps, on remarque que le contenu sensible sur diverses plateformes n'est pas râre, voir, est même demandé par une certaines catégories d'utilisateurs. L'intéret du public pour les séries ou les documentaires d'affaires criminelles en sont la preuve, et remonte fréquement les statistiques des audiences. Le youtuber français Cyrus North explique par exemple ce phénomène dans sa vidéo intitulée "Pourquoi sommes-nous fascinés par les serial killers? "[1]. En ce sens, il semblerai exister une attirance naturelle, une "curiosité morbide" des utilisateurs vers ce type de contenu.


Dans cette hypothèse, nous supposons qu'il existe 3 catégories d'utilisateurs :

  • Les utilisateurs volontaires et contrôlés : qui estiment connaitre leur limites par rapport au contenu sensible. Dans ce premier cas, le rôle des modérateurs serait partiellement remplacé par l'utilisateur lui-même.
  • Les utilisateurs sans limites : qui recherchent volontairement du contenu sensible en quête de sensation forte.
  • Les utilisateurs involontaires : qui tombent au hasard sur des vidéos sensibles.


Dans ce contexte, quel est le rôle de la modération, humaine ou algorithmique ?[2]

Selon les différents réseaux sociaux, la modération se révèle inégale, par exemple la modération de Tiktok sera plus indulgente avec certains comptes en se basant sur leurs nombres d'abonnés. [3] A l'inverse les modérateurs peuvent aussi invisibiliser certains sujets, qui peuvent être considérés comme étant problématique par la plateforme et ainsi faire baisser les revenus des personnes dépendant de leurs contenus sur ce réseau social.[4]

Toujours sur la modération algorithmique, celle-ci se révèle profondément inégale notamment sur les contenus renvoyant au genre de la personne. Nous pouvons prendre l'exemple de la poitrine sur Instagram : si celle d'un homme peut apparaître et rester indéfiniment sur le réseau, celle d'une femme sera de facto censurée par l'algorithme en charge de la modération, martelant son message phare "we removed your post because it doesn't follow our community guidelines" (Nous avons supprimé votre publication car elle ne respectait pas les règles de notre communauté). Notons qu'une mise à jour datée de 2020 permet aux personnes dotées d'une poitrine féminine de poster une photo si celle-ci est cachée "(...) en la tenant, la couvrant ou en croisant les bras".[5]

Concernant les modérateurs de ces réseaux, ils vont assister la plupart du temps à des scènes macabres et sanguinolentes et verront leurs santé mentale se dégrader allant leurs causer un traumatisme[6]. De plus, leurs conditions de travail ne permettent pas d'avoir une bonne qualité de vie et de prendre soin de leur santé mentale. [7]

Dans le contexte de la Loi "Avia" (2019-2020), certains commentaires et comptes LGBT ont pu faire l'objet d'une suppression par l'intermédiaire de la modération et d'une "discrimination algorithmique".[8]

Questions[modifier | modifier le wikicode]

Si un réseau social (Instagram, TikTok, Facebook) vous proposait demain d'avoir accès à du contenue extrème (violence, parti politique, homophobie, maltraitence animal, racisme...), l'accepteriez-vous? Si oui/non : sous quelles conditions et pourquoi ? (note : pour valider l'attirance de l'attention vers des contenus sensibles)

Pensez-vous que si il n'y avait pas de modérateurs vous arriveriez à déterminer ce qui est un contenu sensible ? (note : pour valider ou invalider la capacité perçue des individus à éviter la sur-exposition)

Utilisez-vous des pratiques pour éviter le contenu sensible (réglage, paramétrage...) ? Vous ennuient-elles?

Concidérez-vous que le non-accès à un contenu sensible peut être associé à de la censure et va à l'encontre de la liberté d'expression ?

Avez-vous l'impression que cacher l'existence du contenu sensible revients à vous tromper et vous cacher une partie de la réalité?

Comment mesurer le niveau d'exposition des utilisateurs ?

Sondage (date : novembre 2022)[modifier | modifier le wikicode]

Voici les résultats de l'hypothèse 1-1 d'un questionnaire créé dans le cadre d'un cours du Master 1 Design de Transitions (IAE Grenoble), où nous étudions les habitudes de consommation des utilisateurs vis-à-vis des plateformes numériques.

Question 1 Êtes-vous exposé à du contenu que vous estimez sensible sur les réseaux sociaux ( exemple : violence, parti politique, homophobie, maltraitance animale, racisme...) ?[modifier | modifier le wikicode]

Nombre de réponses : 197

Résultats :

  • 40,6 % : au moins 1 fois par semaine
  • 28,9 % : au moins 1 fois par jour
  • 20,8% : jamais
  • 6,1 % : oui, à chaque fois
  • 3,6% : je ne sais pas

Question 2 Si un réseau social (Instagram, TikTok, Facebook) vous proposait demain d'avoir accès à du contenu extrême (violence, parti politique, homophobie, maltraitance animale, racisme...), l'accepteriez-vous?[modifier | modifier le wikicode]

Nombre de réponses : 209

Résultats :

  • 78,5 % : non
  • 10,5 % : possible, mais sous conditions
  • 5,3 % : oui
  • 5,5 % : autres réponses

0,5 % des personnes interrogées ont répondu "possible, mais sous conditions". Nous leur avons donc demandé de préciser les conditions dont elles parlent :[modifier | modifier le wikicode]

Nombre de réponses : 22

  • A un certain quota par jour car je ne veux pas que ça
  • En choisissant les différents contenu avec un filtre
  • Sous condition de pouvoir revenir sur mon choix, et j'accepterai à la condition que j'estime l'information "sensible" nécessaire/intéressante à voir.
  • Possibilité de choisir le type de contenu auquel on veut être exposer et surtout quand on le souhaite, pour éviter d'être exposer quand on n'est pas dans les meilleures conditions
  • Dépendant du contenu
  • Limite d âge
  • Dans une certaine limite pour que je ne sois pas choquée, mais difficile à concevoir car très subjectif

  • Lanceur d'alerte
  • Via des comptes militants je suis exposé à du contenu sensible pour dénoncer ces pratiques. Donc possible, si c'est à conditions de dénoncer ces pratiques uniquement
  • Si j'estime qu'il est important que je m'informe sur le sujet
  • Pour défendre une cause
  • Des contenus pour dénoncer avec des TW
  • Si cela permet de dénoncer ces actes de violence (interview de victimes par exemple)
  • À condition que ce soit à des fins de sensibilisation et non de divertissement
  • Une prévention

  • Consentement avertissement sensibilisation
  • D’être « informé » d’abord discrètement
  • D être prévenu avant..
  • A condition d’avertissement
  • Être en connaissance que c’est un contenu sensible comportant de la violence ou du racisme…
  • Avoir un message en amont qui indique qu'il peut s'agir de contenus sensibles : avoir le choix ou non de regarder / consulter
  • Prévenir avant que le média ne s’affiche


Question 3 Pensez-vous pouvoir déterminer ce qui est un contenu sensible pour vous ?[modifier | modifier le wikicode]

Nombre de réponses : 211

Résultats :

  • 51,2 % : plutôt oui
  • 38,9 % : oui
  • 5,2 % : plutôt non
  • 2,4 % : non
  • 2,3 % : autres réponses

Question 4 Estimez-vous que les modérateurs font un travail adapté à votre profil afin de bloquer le contenu dit "sensible"?[modifier | modifier le wikicode]

Nombre de réponses : 197

Résultats :

  • 55,3 % : plutôt oui
  • 21,3 % : plutôt non
  • 11,7 % : oui
  • 7,6 % : non
  • 4,1 % : autres réponses

Question 5 Utilisez-vous des pratiques pour éviter le contenu sensible (réglage, paramétrage...) ?[modifier | modifier le wikicode]

Nombre de réponses : 211

Résultats :

  • 59,7 % : non
  • 23,7 % : oui
  • 12,3 % : je ne sais pas faire
  • 4,3 % : autres réponses

Question 6 "Le non-accès à un contenu sensible peut être associé à de la censure et va à l'encontre de la liberté d'expression"?[modifier | modifier le wikicode]

Nombre de réponses : 210

Résultats :

  • 35,7 % : pas d'accord
  • 31,9 % : ni en accord, ni en désaccord
  • 12,4 % : pas du tout d'accord
  • 12,4 % : d'accord
  • 1,9 % : tout à fait d'accord
  • 5,7 % : autres réponses

Question 7 "Cacher l'existence du contenu sensible revient à tromper l'utilisateur et cacher une partie de la réalité" ?[modifier | modifier le wikicode]

Nombre de réponses : 211

Résultats :

  • 31,8 % : pas d'accord
  • 24,6 % : d'accord
  • 22,7 % : ni en accord, ni en désaccord
  • 8,5 % : pas du tout d'accord
  • 3,3 % : tout à fait d'accord
  • 1,4 % : oui
  • 1,4 % : non
  • 6,3 % : autres réponses

Type de modération[modifier | modifier le wikicode]

Nous répertorions différents types d'auto-modération (contrôle de la part de l'utilisateur) avec notamment :

- Le site et application Sens critique dédié à la critique d'œuvre en tout genres où l'utilisateur a la possibilité de caviarder une partie de sa critique afin de ne pas spoiler à des personnes n'ayant pas encore prit connaissance de l'œuvre. Si la personne souhaite néanmoins accéder au contenu, il lui suffit de passer sa souris sur la partie grisée du texte, celle-ci s'affichera le temps que sa souris reste sur le contenu.

- Des paramètres directement intégrés au contenu qui est pré-signalé comme étant sensible par son auteur. Cette fonctionnalité existe sur Twitter et peut faire l'objet d'un usage abusif (photo normale déclarée comme sensible dans le but qu'elle soit floutée et attire de cette manière un utilisateur qui pensait tomber sur du contenu sensible). Notons qu'il est possible depuis les paramètres de son compte Twitter de ne pas faire apparaître ces photos dans la Timeline.

Références[modifier | modifier le wikicode]

  1. « Pourquoi sommes-nous fascinés par les serial killers ? » (consulté le 30 novembre 2022)
  2. (en) Andreas Veglis, « Moderation Techniques for Social Media Content », Social Computing and Social Media, Springer International Publishing, 2014, p. 137–148  (ISBN 978-3-319-07632-4) [texte intégral lien DOI (pages consultées le 2022-09-29)]
  3. Mathilde Rochefort, « TikTok appliquerait une modération à double vitesse selon la popularité des créateurs », sur Siècle Digital, (consulté le 29 septembre 2022)
  4. Condé Nast, « Facebook, Instagram, TikTok : Quand les réseaux sociaux censurent les gros », sur Vanity Fair, (consulté le 29 septembre 2022)
  5. « Instagram modifie ses règles sur la nudité face aux accusations de censure », sur www.rtl.fr (consulté le 24 décembre 2022)
  6. (en) Rosie Bradbury, Majd Al-Waheidi, « A factory line of terrors: TikTok's African content moderators complain they were treated like robots, reviewing videos of suicide and animal cruelty for less than $3 an hour. », sur Business Insider (consulté le 29 septembre 2022)
  7. « Les nettoyeurs du Web - The Cleaners - Regarder le documentaire complet », sur ARTE (consulté le 29 septembre 2022)
  8. Thibault Grison et Virginie Julliard, « Les enjeux de la modération automatisée sur les réseaux sociaux numériques : les mobilisations LGBT contre la loi Avia », Communication, technologies et développement, no  10, 2021-05-20 (ISSN 2491-1437) [texte intégral lien DOI (pages consultées le 2022-09-29)]