Guerre cognitive : faut-il reprendre en main les algorithmes des réseaux sociaux ?
-
posté 16/04 (16:59)Dire que ça n’a aucun sens pourrait être suffisant si :
- on n’avait pas l’exemple de la Chine où l’algorithme de Tik Tok n’est pas du tout le même que dans le reste du monde.
- on n’avait pas l’exemple d’une modération sur les RS de systématiquement modérer des mots comme « tapette » même si tu parles d’une tapette à mouches ou à souris. Donc « unlive » pourrait l’être de la même façon.
- on avait des services de modération et de régulation qui justement sont payés à coup de lance-pierre comme tu le dis justement. On a bien compris que les RS le font en trainant les pieds, parce qu’on les y oblige, et font le service minimum.
Tout ça pour dire que je trouve ton argumentation très libérale et une justification à un laisser faire coupable.
Pour moi, les choses les plus difficiles à modérer sont les publications faites sur le ton de l’humour alors qu’il n’y a à aucun moment un avertissement pour expliquer que les propos tenus sont une dénonciation de travers alterophobes.
Quand je vois les horreurs racistes diffusées sur des RS et particulièrement sur Tik Tok, j’ai l’impression qu’il n’y a personne pour contrôler les contenus.
On peut rapprocher ça des mises en vente de poupées sexuelles représentant des enfants sur des sites comme Shein : comment cela peut-il arriver ? À part l’absence d’une équipe de surveillance faisant un travail serieux parce que ça entraverait trop le business.
___
Vous allez aimer me détester... -
posté 16/04 (17:21)Arnold de Schartzenprout a écrit :
Aucun des points que tu mentionnes ne répond à ce que j'ai écrit. C'est juste un peu plus de bouillie par dessus la bouillie d'avant.
Dans le détail :
- dans le cas de TikTok, il n'y a pas de différence entre "un algorithme" et "deux algorithmes différents" : un algorithme unique peut utiliser le pays de consultation en entrée et être paramétré directement ou indirectement pour avoir un comportement différent en fonction du pays. Il est totalement impossible de prouver qu'il y a un algorithme différent, et encore moins qu'il y a une intention derrière, sauf à avoir accès aux spécifications réelles des produits (oui, je parle de celles pour lesquelles l'entreprise peut mentir si on les lui demande).
- quand j'ai parlé de "unalive", j'ai pointé vers la page wiki de l'algospeak. En lisant le contenu du lien, tu aurais appris qu'il s'adapte à la modération en vigueur, et donc c'est une course en avant. Cf ce que j'ai déjà écrit : si tu as une solution simple, c'est que tu t'es trompé.
- j'ai parlé de la question de la modération dans ce message, tu n'apportes rien de nouveau sur le sujet.je trouve ton argumentation très libérale
Je n'ai présenté aucun argument, j'ai décrit un truc qui s'appelle la réalité. -
modifié 16/04 (17:46)Un
curieux a écrit :- dans le cas de TikTok, il n'y a pas de différence entre "un algorithme" et "deux algorithmes différents" : un algorithme unique peut utiliser le pays de consultation en entrée et être paramétré directement ou indirectement pour avoir un comportement différent en fonction du pays. Il est totalement impossible de prouver qu'il y a un algorithme différent, et encore moins qu'il y a une intention derrière, sauf à avoir accès aux spécifications réelles des produits (oui, je parle de celles pour lesquelles l'entreprise peut mentir si on les lui demande).
J'ajouterais : si le but de l'algorithme est uniquement de générer de l'engagement (cliquer, commenter, rester), il est pas déconnant de penser qu'un même contenu puisse générer de l'engagement dans certaines cultures et pas dans d'autres. Et comme l'algorithme a aucune difficulté à détecter la culture de l'utilisateur (même si l'utilisateur passe par un vpn)...
... Ca semble plus crédible en tout cas que l'explication complotiste "il y a un grand plan chinois pour éliminer la population occidentale en augmentant le taux de suicide des ados de 2%".
... Bon après, ce genre de considérations obligerait à ouvrir la boîte de pandore, à se poser des questions comme "mais pourquoi le thème du suicide provoquerait un plus gros engagement en occident qu'en Chine ?". Personne à droite voudrait réfléchir à ce genre de question, c'est plus facile de dire que les chinois ils sont méchant alors que les américains ils sont gentils (la preuve, il n'y a pas ce genre de polémiques avec les algos de Facebook, de Youtube, d'Amazon, de Netflix, de... Bref, vous voyez bien que les américains ils sont gentils, leurs algorithmes ils sont bienveillants). -
posté 16/04 (19:22)Un
curieux a écrit :Je n'ai présenté aucun argument, j'ai décrit un truc qui s'appelle la réalité.
Alors ok, résumons ce que tu décris : il n'y a aucune solution face aux algorithmes des RS, seule l'éducation via les cours de SNT peuvent être efficaces. C'est bien ça ta position ?
___
Vous allez aimer me détester... -
posté 16/04 (19:49)Arnold de Schartzenprout a écrit :
Un
curieux a écrit :Je n'ai présenté aucun argument, j'ai décrit un truc qui s'appelle la réalité.
Alors ok, résumons ce que tu décris : il n'y a aucune solution face aux algorithmes des RS, seule l'éducation via les cours de SNT peuvent être efficaces. C'est bien ça ta position ?
Moi j'ai plutôt compris "il faut commencer par définir ce que tu appelles "reprendre en main les algorithmes".
Si tu veux que, dans la situation X, l'algorithme propose Y, c'est tout à fait faisable, testable, et mettable dans la loi. De ce que je comprends. Ceci étant il faut juste étendre X à "toutes les situations possibles" pour que ça ait le moindre impact. -
posté 16/04 (20:36)gloubi a écrit :
Moi j'ai plutôt compris "il faut commencer par définir ce que tu appelles "reprendre en main les algorithmes".
Si tu veux que, dans la situation X, l'algorithme propose Y, c'est tout à fait faisable, testable, et mettable dans la loi. De ce que je comprends. Ceci étant il faut juste étendre X à "toutes les situations possibles" pour que ça ait le moindre impact.
Alors je pense l'avoir défini, même si la formulation peut ne pas convenir à tout le monde.
J'aime bien la façon dont tu as posé le problème, c'est en effet une façon de présenter la chose de façon peut-être plus explicite.
En lisant ce que l'on se dit, je me dis qu'on peut envisager des algorithmes différents par âge.
Si on doit essayer de définir le genre de contenu suggéré, hors contenu publicitaire :
- Pour les plus jeunes (genre génération collège, 12/15 ans on va dire), un âge où on se cherche et où on est potentiellement plus fragile, des algorithmes à la chinoise, proposant du contenu surtout éducatif, avec un shadowban de tout ce qui peut-être violent. Avec une limitation journalière du temps de navigation
- Pour les plus de 16 ans jusqu'à 18 ans, toujours du contenu éducatif mais adapté à l'âge, avec toujours deux contenus contradictoires pour alimenter l'esprit critique. Concernant la violence, à définir jusqu'où ça peut aller. Limitation du temps de navigation plus longue.
- Pour les plus de 18 ans, conserver le contenu éducatif et contradictoire. Pour la violence, à définir également. Pas de limitation du temps de navigation (?).
D'une manière générale, j'ai envie d'associer la sexualité à la violence en terme d'autorisation.
En fait, ça me fait penser un peu aux avertissements pour les films : interdit au moins de 13 ans, 16 ans, 18 ans, mais appliqué aux RS.
Je ne sais pas ce que vous pensez de ce genre d'approche, si vous y voyez des biais.
___
Vous allez aimer me détester... -
modifié 16/04 (23:19)Arnold de Schartzenprout a écrit :
En lisant ce que l'on se dit, je me dis qu'on peut envisager des algorithmes différents par âge.
Deux remarques :
- vérifier qu'un algo respecte ça, c'est exactement ce que je disais il y a deux jours : « On a déjà accès aux algorithmes, il suffit d'avoir un compte sur une plateforme et de regarder ce que le RS te propose à la lecture. ». C'est pour cette remarque que tu me disais que je "confonds contrôler et tester".
- faire du filtrage en fonction de l'age, c'est exactement le point auquel je répondais ici. Là encore, rien de nouveau à part que tu reformules la même mauvaise idée avec des mots différents.
Insérer du blabla sur le mec qui a plus de questions que de réponse mais qui ignore tous les arguments en face, n'admet jamais avoir dit des conneries, et revient en boucle sur ses lubies. -
modifié 17/04 (09:23)Un
curieux a écrit :Insérer du blabla sur le mec qui a plus de questions que de réponse mais qui ignore tous les arguments en face, n'admet jamais avoir dit des conneries, et revient en boucle sur ses lubies.
Tu te sens obligé de vouloir faire le caïd du forum en racontant n'importe quoi ?
Non, tu n'as pas argumenté sur les deux points que je soulève. Je t'ai effectivement dit que tu n'utilisais pas le bon sens du verbe "contrôler" en le confondant avec "tester". Reprendre le contrôle ça signifie ne pas laisser les plateformes faire ce qu'elles veulent et se conformer à minima aux directives. C'est être pro-actif et ne pas laisser faire les algorithmes sans un sérieux encadrement voire bridage si nécessaire ou dire comme tu le fais "ça n'a aucun sens" ou que ce n'est pas possible (position que je t'ai demandé de préciser sur laquelle tu ne t'es toujours mouillé). Je te trouve très immobile sur cette question.
Et non, ta réponse que tu as mis en lien ne parle pas de contenus visibles différenciés en fonction de la classe d'âge mais est une cartographie de l'âge auquel on a le droit d'avoir accès aux réseaux sociaux. La différence est quand même importante entre "je n'ai pas le droit d'avoir accès aux RS du fait de mon âge" et "j'ai le droit, mais le contenu diffère, les mécanismes de recommandations n'étant pas les mêmes en fonction de mon âge".
Et là encore, c'est à l'Etat de légiférer sur cette obligation qui peut être imposée aux RS. C'est un réglage beaucoup plus fin que on ou off.
Et oui, j'ai beaucoup de questions, j'a eu des réponses en partie, parfois contradictoires, ce qui ne m'empêche pas de me faire un avis qui évolue tout au long de la discussion, comme cette proposition d'imposer aux RS d'avoir des algorithmes et des mécanismes de suggestion différents en fonction de l'âge de l'utilisateur qui m'est venu grâce à ces échanges dans lesquels il y a de l'information au milieu des petites remarques mesquines et de l'envie de s'imposer comme le patron du forum.
___
Vous allez aimer me détester... -
modifié 17/04 (10:04)Arnold de Schartzenprout a écrit :
Non, tu n'as pas argumenté sur les deux points que je soulève. Je t'ai effectivement dit que tu n'utilisais pas le bon sens du verbe "contrôler" en le confondant avec "tester".
Oui et c'était une idiotie de ta part, cf cette réponse très détaillée.
Si tu veux chipoter, tu as en fait encore plus tort que ce que j'ai écrit : lorsqu'il existe, pour les gens qui font de la sécurité informatique, une distinction entre le contrôle et le test, alors ce que je décris est intégralement du contrôle, le test étant par nature impossible à effectuer hors de l'entreprise.Et non, ta réponse que tu as mis en lien ne parle pas de contenus visibles différenciés en fonction de la classe d'âge mais est une cartographie de l'âge auquel on a le droit d'avoir accès aux réseaux sociaux.
Oui effectivement, l'argument intéressant était plutôt trois posts plus loin, et s'applique à l'identique. Je te le remets ici :
« il n'existe aucun système qui interdit l'accès aux enfants sans nuire à la liberté d'expression des adultes (en compromettant leur accès aux ressources ou leur anonymat). »La différence est quand même importante entre "je n'ai pas le droit d'avoir accès aux RS du fait de mon âge" et "j'ai le droit, mais le contenu diffère, les mécanismes de recommandations n'étant pas les mêmes en fonction de mon âge".
Non c'est en fait exactement la même chose : tu n'as plus accès au RS-tel-qu'un-adulte-le-voit (et tu as accès à la place au RS-tel-qu'un-enfant-le-voit).
Je veux bien le répéter : si tu entrevois une solution simple, c'est qu'elle est mauvaise. C'est d'autant plus vrai sachant que tu est complètement confus sur ces sujets.
Tiens, pour la blague : essaye de réfléchir à comment la plateforme détermine l'age de ses utilisateurs/utilisatrices. Ça fait 5 ans que des industries se cassent les dents sur le sujet… -
modifié 17/04 (10:33)Arnold de Schartzenprout a écrit :
- Pour les plus jeunes (genre génération collège, 12/15 ans on va dire), un âge où on se cherche et où on est potentiellement plus fragile, des algorithmes à la chinoise, proposant du contenu surtout éducatif, avec un shadowban de tout ce qui peut-être violent. Avec une limitation journalière du temps de navigation
Maintenant il faut que tu explique ce que l'algorithme doit reconnaitre comme du "contenu surtout éducatif".
Pour ce que j'en sais, du contenu éducatif, c'est par exemple le club dorothé ; en tout cas, c'était une promesse de bouygues lors de la privatisation de TF1, de proposer un "mieux disant culturel", et ce qu'on a eu c'est Ken le Survivant. Et la concession de TF1 a toujours été renouvelée ; donc en terme de jurisprudence (au sens, jusqu'à ce qu'une loi vienne dire le contraire), je pense pouvoir affirme qu'en France, tout ce qui était dans le Club Dorothée peut être considéré comme éducatif.
Note que je parle de la situation Française. La jurisprudence peut être différente ailleurs. Il me semble qu'au US, un dessin animé comme GI Joe est éducatif. Parce qu'il y avait un petit message de prévention à la fin. Et parce que si je ne me trompe pas, ça aurait été illégal, à l'époque, de diffuser un dessin animé non éducatif pour les enfants à la télé US : la série n'ayant pas été retirée de l'antenne, c'est bien qu'elle était éducative.
Bref, ça c'est les contenus reconnus comme éducatifs à des époques où il y avait quoi... 50 séries à évaluer par an ? 100 ? Je crois pas qu'une quelconque commission Théodule (dont je sais que tu es fan) parviendrait à faire une meilleure classification de ce qui est éducatif et ce qui l'est pas ; il faut donc que ce soit ton algorithme qui le fasse. Ce qui demande que tu définisse précisément ce que ça signifie ; sans ça, "éducatif" est juste un mot creux, l'algorithme se contentera de proposer GI Joe et Ken le Survivant.- Pour les plus de 16 ans jusqu'à 18 ans, toujours du contenu éducatif mais adapté à l'âge, avec toujours deux contenus contradictoires pour alimenter l'esprit critique. Concernant la violence, à définir jusqu'où ça peut aller. Limitation du temps de navigation plus longue.
Définis "contradictoire" maintenant.
Par exemple Pascal Praud présente des débats contradictoire, en général entre des fachos d'un côté et des nazis de l'autre. Et de façon générale, aux yeux de la loi française, CNews présente tous les des points de vue existants (sinon sa concession serait pas renouvelée). Donc si l'algo propose que du CNews, je suppose qu'on est bon niveau "contradictoire".
En fait on va faire même plus simple : il existe des gens qui, face à un débat, présentent systématiquement tous les points de vue, thèse antithèse etc. Par exemple, c'est ce que tu dis que tu fais. Donc si l'algorithme présente uniquement du contenu d'Arnold, c'est bon, on l'a le contradictoire ?
Un petit second point : le jeune écrit dans la barre de recherche de son RS préféré "les chambre à gaz ont-elles existées ?". L'algorithme doit donc lui présenter des contenus contradictoire. Peux-tu nous expliquer ce que soit lui présenter l'algorithme ?
Et enfin, concernant la violence, on est d'accord qu'en France, Ken le Survivant (et par extension tout ce qui est moins violent) est du contenu approprié à partir de 10 ans. Ou alors là aussi il va falloir que tu définisses.SpoilerD'une manière générale, j'ai envie d'associer la sexualité à la violence en terme d'autorisation.
Oui, la télé US des années 80-90 quoi. Pas de sexe, pas de violence, et plein de pubs pour former de bon consommateurs. Genre Gi Joe : pub de 20 minutes considérée comme du contenu éducatif non-violent (ils se tirent dessus avec des lasers, c'est pas des balles donc c'est pas violent).
Bah à ce stade, soit tu définis mieux tes termes pour que ça puisse faire un algo, soit tu dis directement "les RS pour les jeunes ça doit uniquement diffuser le Club Dorothée" (très facile à implémenter).