Guerre cognitive : faut-il reprendre en main les algorithmes des réseaux sociaux ?

  • posté 07/04 (23:21)
    +2 -4 -2 
    Les stratégies d'influence ont toujours existé, mais avec l'essor du numérique, elle a pris une forme beaucoup plus diffuse au sein de nos société avec les réseaux sociaux, l'IA générative et la concentration du pouvoir algorithmique entre quelques mains.
    Plusieurs enquêtes ont été ouvertes ces derniers mois, notamment sur les algorithmes utilisés par Tik Tok.
    L'Armée de Terre a développé une unité spécialisée pour constituer une armée numérique et lutter à la fois contre les cyber-attaques, les campagnes de désinformation, et tout ce qui touche aux questions de sécurité et de défense liées au numérique.
    Les fermes à trolls sont de plus en plus grandes, et les réseaux sociaux sont le principal moyen de diffusion.
    Pour en revenir à Tik Tok, les algorithmes sont différents selon qu'ils s'adressent à la jeunesse chinoise ou au reste du monde. Développant la curiosité pour les sciences et la culture, ainsi que le patriotisme pour les jeunes Chinois, ou au contraire, développant l'abêtissement, ou pire, le mal-être. Une récente enquête sur le fait de pousser au suicide ou à la mutilation chez les jeunes est édifiante.

    Forts de tous ces constats, une stratégie de défense doit pouvoir être trouvées, mais elle risque aussi de venir en contradiction avec la grand promesse de liberté qu'offre internet, en la restreignant.

    Du coup, la question est dans le titre : faut-il reprendre en main les algorithmes des réseaux sociaux ?
    Censure, shadowbanning, autres techniques. Comment s'y prendre ? Jusqu'où faut-il aller ?
    Et bien sur, la question induit une énorme question : quel est le danger quant à l'accès à l'information ?

    Pour moi, c'est cette dernière question qui est primordiale, car je pense que la reprise en main de ces algorithmes est nécessaire, mais j'y vois aussi les effets pervers d'une censure et d'un conditionnement "national" pour lutter contre un conditionnement "international".
    Afin de protéger nos libertés tout en nous protégeant des intoxications étrangères, je ne sais pas trop ce qui est faisable.

    ___

    Vous allez aimer me détester...
  • modéré 08/04 (22:09)
    +1 -1      
    *zip*
  • posté 08/04 (11:55)
    +1 -1      
    K a écrit :

    On a un comportement qui montre un intérêt pour un sujet X, et du coup la plateforme dont l'objectif est de te faire voir du contenu qui t'intéresse te montre du contenu du sujet X.


    Alors ce n'est pas tout à fait le cas de figure. En gros, les personnes ont regardé quelque chose en lien avec leur supposé mal-être et on leur propose un mode d'emploi pour se suicider ou se mutiler, ce qui n'est pas la même chose. Pour reprendre ta formulation, à un intérêt pour un sujet X, on lui propose un sujet dérivé de X, connexe à X, mais ce sujet dérivé de X pourrait tout autant être un tuto pour aller mieux non ?
    Je grossis le trait mais si demain quelqu'un de ton entourage te dit qu'il ne se sent pas bien, tu ne vas pas lui dire "la pendaison c'est rapide et très efficace" au bout de 45 minutes. Au contraire, tu vas essayer de l'écouter et de l'aider à s'en sortir.
    Ou si demain tu fais une recherche sur un problème de niveau d'huile dans ta voiture, tu vas te voir proposer des liens pour faire ta vidange, pas un lien pour détruire ta voiture.

    Je trouve très suspect donc que l'algorithme propose à une situation de mal-être quelque chose d'encore plus négatif.
    Perso, l'informatique n'est pas mon domaine, mais est-ce qu'un algorithme peut détecter le mal-être chez quelqu'un et lui proposer des choses qui vont l'aider au contraire de celui de Tik Tok qui va au contraire l'enfoncer ? Ca ne me semble pas impossible d'avoir un algorithme "bienveillant" ou protecteur.

    Et puis il y a aussi la question de comment on peut trouver de tels contenus en accès libres. Il y a des outils de modération automatique très voire trop réactifs sur les réseaux sociaux ou sur les chaînes Youtube (genre si tu parles d'une tapette à mouche ou à souris, tu te fais modérer parce que le mot "tapette" sera automatiquement associé à un propos homophobe), mais un tuto suicide ou mutilation ça passe étrangement sous les radars.

    Je vois plus la reprise en mais des algorithmes sous cet angle sur ce point précis.

    ___

    Vous allez aimer me détester...
  • posté 08/04 (14:09)
    +2 -3 -1 
    Arnold de Schartzenprout a écrit :

    Perso, l'informatique n'est pas mon domaine, mais est-ce qu'un algorithme peut détecter le mal-être chez quelqu'un et lui proposer des choses qui vont l'aider au contraire de celui de Tik Tok qui va au contraire l'enfoncer ? Ca ne me semble pas impossible d'avoir un algorithme "bienveillant" ou protecteur.


    Ce n'est pas impossible du tout : un algorithme peut environ faire ce qu'on veut qu'il fasse, à condition de savoir le décrire efficacement.

    Dans les cas que tu décris (et qui sont effectivement problématiques), il est difficile de déterminer s'il y a eu une intention de la part des concepteur d'un RS d'orienter les gens vers des contenus négatifs, ou s'ils se basent uniquement sur des formules généralistes qui donnent ce résultat dans ce cas précis (les formules généralistes ayant pour objectif de maximiser l'engagement, pas vraiment de nuire au public, d'ailleurs on ne comprend pas bien quel serait l'intérêt d'une plateforme comme tiktok de pousser ses clients au suicide). Ça ne change pas grand chose au fait que le résultat est fautif.

    Et puis il y a aussi la question de comment on peut trouver de tels contenus en accès libres


    La modération des contenus accessibles en ligne est un problème difficile. La plupart des réseaux sociaux ont (ou ont eu) des équipes dédiées à la modération en temps réel du contenu, et on parle d'un métier insupportable et délétère pour la santé mentale (genre tomber à 8h sur des vidéos de décapitation d'enfants). Je ne comprends pas bien ce que tu proposes, mais sans doute peux-tu imaginer que si tu disposes d'une solution simple, sans doute que d'autres y ont pensé et qu'elle ne marche pas.
  • modifié 08/04 (14:53)
    +2 -2      
    Un[*b]curieux a écrit :

    La modération des contenus accessibles en ligne est un problème difficile. La plupart des réseaux sociaux ont (ou ont eu) des équipes dédiées à la modération en temps réel du contenu, et on parle d'un métier insupportable et délétère pour la santé mentale (genre tomber à 8h sur des vidéos de décapitation d'enfants).

    A noter que la modération par IA n'est (à ma connaissance) pas une solution à ce problème.

    Pour entraîner une IA à reconnaître les contenus délétères, il faut l'éduquer. C'est à dire qu'il faut des gens dont le travail est de regarder non-stop des images choquantes (ou des textes choquants etc), pour les tagger "modérable/non-modérable", pour que l'IA puisse s'entraîner. C'est sans doute le pire métier se pratiquant entre une chaise et un clavier - encore pire que le taf de modération d'un réseau social.

    Peut-être que je me trompe ; j'espère. Mais je crois pas.
  • posté 08/04 (15:09)
    +1 -2 -1 
    gloubi a écrit :

    Il me semble que les décisions prises par les modérateurs sur les principaux RS sont enregistrées pour entrainer des IA à le faire ensuite. C'est problématique dans certains cas (un changement de contexte peut changer les critères et les rendre caduques, typiquement), mais à ce niveau tout ce qui permet de réduire le nombre de travailleur.euse.s en PTSD me semble bon à prendre.
  • modifié 13/04 (14:16)
    +1 -1      
    Un[*b]curieux a écrit :

    Je ne comprends pas bien ce que tu proposes, mais sans doute peux-tu imaginer que si tu disposes d'une solution simple, sans doute que d'autres y ont pensé et qu'elle ne marche pas.


    Je propose déjà de s'emparer du sujet. Je ne prétends pas qu'il y a de solution simple, mais avoir conscience du problème et agir au niveau de l'Etat.
    C'est d'ailleurs assez drôle, car je viens d'avoir l'info : la Grèce va interdire les réseaux sociaux aux moins de 15 ans à partir de l'an prochain.
    L'adolescence est probablement une des périodes les plus compliquées à traverser, fixer l'âge à 15 ans n'est pas déconnant.
    Je trouve toutefois que cette interdiction est justement un aveu d'impuissance à gérer le problème des algorithmes. Je rappelle que dans l'introduction, j'avais parlé du fait que l'algorithme de Tik Tok n'était visiblement pas le même en Chine mais propose des contenus éducatifs. Je partage là deux liens sur le sujets :
    - Lien 1 : Tiktok, outil éducatif seulement en Chine.
    - Lien 2 : la Chine utilise t'elle tiktok pour abrutir les enfants europeens.

    La Chine ne laisse pas le choix aux plateformes quant à ce qu'elles diffusent, du fait de la censure, et la plateforme est obligée de collaborer avec les autorités. De plus elle limite à 40 minutes d'utilisation par jour.

    Evidemment, tout peut se contourner, mais sans volonté d'agir dans cette guerre cognitive, c'est open bar pour ce genre de situation.

    ___

    Vous allez aimer me détester...
  • modifié 08/04 (17:39)
    +1 -3 -2 
    Arnold de Schartzenprout a écrit :

    Je propose déjà de s'emparer du sujet.


    Ça fait un moment que des tas de gens se sont emparés du sujet, il y a une carte ici des endroits où les RS sont bannis.

    Et ça me semble l'opposé d'une bonne idée : il y a plein de jeunes qui ont utilisé les RS pour se connecter avec d'autres personnes dont ils se sentent proches, et le ban des RS leur retire aussi cette possibilité. Bien entendu les moyens techniques pour bannir les jeunes s'accompagnent de surveillance des adultes, et souvent de mesures réactionnaires (typiquement rendre les contenus LGBT ou contenant des personnages LGBT inaccessibles aux enfants). Enfin, l'apprentissage du fonctionnement des RS ne peut pas s'envisager sans y être présent : on n'apprend pas à conduire en circuit fermé.

    L'approche éducative (mise en place en France avec le programme de SNT enseigné à tou.te.s en seconde) est une alternative bien plus séduisante à mon avis. Encore faudrait-il que ce soit correctement enseigné (ce n'est pas le cas aujourd'hui).
  • modifié 08/04 (18:05)
    +2 -1 +1 
    Un[*b]curieux a écrit :

    Ça fait un moment que des tas de gens se sont emparés du sujet, il y a une carte ici des endroits où les RS sont bannis.


    Pas bannis, mais qui donne les limitations d'âge par pays.
    C'est d'ailleurs assez cocasse de voir que la France a une limite d'âge pour l'utilisation des RS plus élevée que la Chine, où elle est à 13 ans. Comme quoi, ce n'est pas là le facteur le plus important, mais la qualité du contenu.
    Franchement, je ne trouve pas que l'on puisse dire que la France s'est véritablement emparée du sujet.

    Après, pour les cours de SNT, je te rejoins : ce n'est pas du tout bien enseigné. Ca n'a même rien à voir avec ce dont on parle quand tu regardes ce qui est enseigné en cours, ce sont plus des cours d'informatique, en tout cas, chez moi.
    Je ne sais pas si l'EN a fixé une feuille de route précise concernant ces cours et l'objectif pédagogique. En tout cas aujourd'hui, ça ne répond pas à la problématique dont on parle.

    ___

    Vous allez aimer me détester...
  • posté 08/04 (17:59)
    +1 -3 -2 
    Arnold de Schartzenprout a écrit :

    Je ne sais pas si l'EN a fixé une feuille de route précise concernant ces cours et l'objectif pédagogique.


    Est-ce que tu saurais prendre l'habitude de chercher et de poser les questions (à un moteur de recherche si besoin) avant de poster ? Le cours de SNT dispose d'un programme, comme 100% des enseignements dispensés par l'EN. T'as même le droit de le lire, c'est une info publique.