Guerre cognitive : faut-il reprendre en main les algorithmes des réseaux sociaux ?
-
modifié 15/04 (10:07)gloubi a écrit :
Mon point de vue est toujours qu'Arnold est extrêmement confus sur la plupart des sujets politiques (la liste d'exemples est vraiment longue). Mais comme une horloge arrêtée donne l'heure juste deux fois par jour, il arrive que soient pointées des choses intéressantes au milieu d'un fatras de trucs sans grand intérêt (l'excuse d'avoir "plus de questions que de réponses" tient assez peu quand on n'est pas capable d'accepter la moindre réponse, surtout quand tes interlocuteurs disposeraient d'un gros argument d'autorité sur le sujet).
Mais on peut déjà souligner que tout le monde ici semble d'accord pour dire que les RS ont des effets pervers (collecte et revente d'infos personnelles, influence politique, et peut-être d'autres trucs mais c'est tellement flou ou complotiste que je ne les inclus pas).
Il y a une divergence entre les idées d'Artemis et les miennes, sur l'échelle à laquelle on peut agir (niveau européen, étatique, ou collectif de petite échelle) pour diminuer ces nuisances. J'essaye de résumer ce qu'on a dit de ces trois niveaux :
Artémis dit que les niveaux étatiques et européens sont inefficaces parce qu'il y a une envie de la population de continuer à les utiliser (parallèle avec la drogue).
Pour ma part je distingue les deux, en pointant le rgpd comme un premier élément de protection. Je me méfie beaucoup du niveau étatique, la France étant particulièrement douée pour les atteintes aux droits fondamentaux sur internet (censure, arbitraire, délit de consultation de sites web, loi Avia, etc.).
Arnold dit qu'il veut des lois françaises, cite le rgpd, mais parle avec satisfaction de la montée du sentiment anti UE. Et au niveau Français, ces grands principes seraient obtenus par le respect des opinions des gens, même s'il n'est absolument pas clair que les gens y seraient favorables. Pour ne rien arranger, rien n'est clair dans "ces grands principes". On a bien compris l'étalage viriliste de reprendre en main blabla, mais si personne ne veut expliquer en quoi ça consiste, c'est ce qu'on appelle une posture.
Au niveau local, Artémis et moi (et Sato j'imagine) sommes d'accord pour dire qu'il y a plein de choses à faire, à commencer par travailler à informer les gens, organiser des collectifs et militer pour changer les comportements, soutenir les hackerspaces proches de chez vous voire les fréquenter.
Pour Arnold, "Ça ne convient pas pour les normies" (sans distinction : les normies peuvent pas faire un virement à LQDN semble-t-il, ni cuisiner 4 cookies et les apporter à des gens qui parlent informatique dans un local). Cela dit on peut être un peu optimiste : on est 6 ans après la mise en place d'un enseignement obligatoire SNT pour la quasi totalité de la population, 6 ans après la création d'un Capes pour recruter les enseignant.e.s qui s'en chargeront, il y a des entreprises qui louent du matériel sous logiciel libre pour des particuliers, il y a des initiatives pour se passer des OS propriétaires au gouvernement, dans des établissements scolaires, etc. Très vite la personne à la ramasse sur ces sujets n'est plus le normies mais le tonton-chiant-qui-a-un-avis. -
modifié 15/04 (14:09)Un
curieux a écrit :
Un sujet complexe peut te paraitre confus, à toi de faire l'effort de ne pas polémiquer dès lors qu'une problématique t'échappe.
Vu que tu éludes certaines questions, je vais t'aider à appréhender un peu mieux cette complexité.
Tu parles de la protection liée au RGPD. Je te réponds qu'il y a l'extra-territorialité du droit américain donc qu'il faut déjà tenir compte de ça, sans quoi le RGPD ne règlera rien en terme de protection des données.
On va prendre l'exemple que j'ai cité et pour lequel visiblement tu n'as pas saisi l'enjeu : nos données de santé confiée à Microsoft.
Microsoft... Entreprise américaine... Extra-territorialité du droit américain ---> fin de partie pour le RGPD.
Donc oui, Microsoft peut transmettre les données de santé des Français aux USA.
J'ai plusieurs exemple où par manque de souveraineté numérique, nous avons confié des missions à des opérateurs étrangers, américains ou détenus en partie par eux le plus souvent, et que cela pose problème sur la sécurité de nos données, comme avoir confié la veille numérique de Matignon à une entreprise canadienne contrôlée par des capitaux américains.
Je parle là de l'extra-territorialité du droit américain, mais on peut aussi parler de celle du droit chinois. Leur loi sur le renseignement national peut elle aussi faire craindre que des données personnelles appartenant à des citoyens étrangers et détenues par des entreprises chinoises soient transmises aux services de renseignement chinois.
Alors tu peux trouver complotiste le fait de pointer ces risques, c'est à ta libre appréciation, mais moi je trouve que c'est être pro-actif.
Quant au caractère volontaire de pousser les jeunes au suicide sur Tik-Tok, je le répète : quand Tik-Tok connait cet état de fait, sait que son algorithme pose problème, et ne fait rien, alors oui, c'est volontaire.
Tu disais toi-même en page 1 : "Ça ne change pas grand chose au fait que le résultat est fautif."
Je ne t'ai pas repris, parce que je ne cherche pas la polémique, mais on va clarifier : un résultat n'est jamais fautif. Demain, si tu tires sur quelqu'un avec une arme et que tu le tues, tu ne pourras pas dire "ce n'est pas ma faute, c'est le résultat qui est fautif". Le fautif, c'est celui qui commet l'acte. C'est celui qui met en place un algorithme, est informé des effets pervers, et ne fait rien.Arnold dit qu'il veut des lois françaises, cite le rgpd, mais parle avec satisfaction de la montée du sentiment anti UE.
Avec satisfaction ? Non, c'est un constat, tout simplement. Encore une chose que je dois débunker parce que tu racontes n'importe quoi.On a bien compris l'étalage viriliste de reprendre en main blabla, mais si personne ne veut expliquer en quoi ça consiste, c'est ce qu'on appelle une posture.
Je te laisse avec tes problèmes de virilité qui ne me regardent pas, mais je débunke encore une autre de affirmations mensongères : j'ai déjà expliqué en quoi cela consiste, tu l'as même quoté.
La reprise en mains des algorithmes, c'est de permettre l'Etat de contrôler les mécanismes de recommandation afin de les analyser et de faire la distinction entre suggestion et influence. C'est ce contrôle ou régulation des recommandations qui est central
Et toi tu confonds le mot "contrĂ´ler" et "tester". C'est volontaire ou tu n'as juste pas compris ?
Pourtant, tu as répondu très tôt à ma question sur la possibilité d'avoir un algorithme bienveillant. Je ne comprends pas non plus ta recherche de polémique sur ce point.Pour Arnold, "Ça ne convient pas pour les normies"
Là encore, je t'ai répondu que c'était la réponse de Satori, et que je suis d'accord avec cette réponse.
Là encore, tu éludes la question que je t'ai posé pour illustrer que ton voeux d'utiliser les alternatives proposées ne recueille pas l'adhésion : tes propres parents le font-ils ?
Linux c'est Ă peine plus de 4% d'utilisateurs particuliers, mĂŞme si le nombre augmente. Sur ce point je suis assez optimiste, surtout avec l'obsolescence de Windows 11 qui te force Ă jeter ton ordi Ă la poubelle alors qu'il fonctionne.
Les réseaux sociaux alternatifs proposés par Artemis, je n'en ai pas les chiffre, mais je pense que c'est encore moins.
La réalité elle est là , et elle est éloignée de ton fantasme, même s'il va dans le bon sens. Cela montre le travail à accomplir, mais si les développeurs ne rendent pas ces alternatives plus conviviales, ça ne décollera jamais.
Sans vouloir être péjoratif, pour l'instant, ces solutions s'adressent à des geeks, pas au grand public.
Après, libre à toi d'être optimiste quant aux fruits des courts de SNT, qui vivra verra. Je te rappelle au passage que nous sommes dans une société vieillissante qui ne fait pas assez d'enfants, donc quid de tous ceux qui ont plus de 15 ans (aller, 21 si on rajoute 6 ans d'ancienneté de SNT) ?
___
Vous allez aimer me détester... -
modifié 15/04 (18:24)Arnold de Schartzenprout a écrit :
Un sujet complexe peut te paraitre confus
Que les choses soient claires : dans les interlocuteurs qui ont un bagage suffisant pour appuyer un argument d'autorité dans cette conversation, je m'incluais. Le sujet n'est pas complexe de mon point de vue. Par contre, oui, tes propos sont confus, et tu mélanges tout (liberté de s'informer, reprendre en main les algorithmes, pouvoir de l'algorithme, etc.).Et toi tu confonds le mot "contrôler" et "tester". C'est volontaire ou tu n'as juste pas compris ?
Oui je confonds parce que c'est la même chose. S'il y a une distinction, elle n'est que dans ta tête. Je suis effectivement très curieux que tu nous expliques en quoi consiste le fait de contrôler un algorithme de recommandation d'un réseau social. Tu notes que ça fait 5 messages que je demande, 5 messages que tu évites soigneusement de décrire en quoi consisterait la "reprise en main des algorithmes". Tu as compris quand je disais qu'on n'est pas dans ta tête ?Là encore, tu éludes la question que je t'ai posé pour illustrer que ton voeux d'utiliser les alternatives proposées ne recueille pas l'adhésion : tes propres parents le font-ils ?
Tu m'excuseras de ne pas avoir envie de donner des informations sur ma famille sur ce forum. En quoi est-ce que c'est pertinent pour la conversation ?
Derniers points :
- tu me reproches de baser des espoirs sur le développement de communautés favorisant des logiciels libres. Tu dis que c'est un fantasme parce qu'ils sont aujourd'hui trop peu répandus (et tu racontes n'importe quoi à ce sujet, puisque… Android – 70% de parts de marché du smartphone en France – est un linux). Mais peu importe, puisque tu écrivais « Une utopie peut-être, mais est-on à une utopie près quand on parle de politique ? ». On est exactement dans ce qu'Artemis a décrit : il y a un cadre dans la conversation, avec des fantasmes qui sont acceptables (les tiens) et des remarques qui ne sont pas bienvenues (tout le reste). Ce n'est jamais précisé, jamais clair. Le sentiment que cela inspire n'est pas celui d'une personne "qui a plus de questions que de réponses", mais au contraire celui de quelqu'un qui sait vers où il veut amener la conversation : vers le coin de bar le plus proche, avec autant que possible de justifications d'un immobilisme un peu navrant. Finalement, tu auras réussi à t'auto-persuader qu'il est légitime de ne surtout rien faire, puisque c'est trop compliqué, et que tu es déjà convaincu que tu n'as rien à apprendre des gens qui ont investi du temps ou de l'énergie sur ces sujets.
- tu me prêtes des propos que je n'ai pas tenus au sujet du RGPD. J'ai dit qu'il existait, et qu'il apporte des protections aux citoyen.ne.s de l'UE (certainement pas que la protection est totale ou suffisante). J'ai expliqué comment faire quelque chose de suffisant, dans le point 8 de mon dernier gros post, n'hésite pas à t'y référer si tu veux répondre sur ce point. -
posté 15/04 (17:34)Arnold de Schartzenprout a écrit :
Linux c'est Ă peine plus de 4% d'utilisateurs particuliers,
[...]
mais si les développeurs ne rendent pas ces alternatives plus conviviales, ça ne décollera jamais.
Sans vouloir être péjoratif, pour l'instant, ces solutions s'adressent à des geeks, pas au grand public.
Ha bon ?
C'est quand la dernière fois que tu as installé un Linux, quelle distribution ? Basée Debian ou RedHat ?
j'utilise Linux depuis 1999, à l'époque, oui, il fallait s'y connaitre en informatique.
Depuis, 2010 environ, c'est 'user friendly'.
Aujourd'hui, je t'installe un Linux, si ça ne t'intéresse pas plus, tu ne sauras même pas si c'est des packages .deb ou .rpm . Tu auras une fenêtre avec un bouton pour valider l'installation/la mise à jour.
Il n'y a que deux trucs qui freinent la progression du Logiciel Libre, et de Linux :
- L'idée que les gens s'en font. Qu'il y a des distributions plus "faciles à prendre en main" que les derniers Windows
- Parfois il n'y a pas encore les pilotes pour certains périphériques (genre appareil photo très particulier)
Mais en aucun cas c'est par manque d'ergonomie, ou un 'défaut' des développeurs ... Tu installes KDE, un truc Allemand à l'origine, mais avec une version Française, tu utilises un Linux qui a une interface qui ressemble à Windows. ça a été créé exprès, pour que les gens puissent changer d'OS facilement. Et ça existe depuis, 2009 les premières versions ? -
posté 15/04 (19:46)Zarg a écrit :
Ce que tu dis là m'intéresse beaucoup, je vais t'envoyer un message en privé par rapport à Linux si tu veux bien. L'obsolescence de Windows est réellement insupportable, et à titre personnel je suis passé sous IOS il y a déjà 15 ans, mais pour mon ordi de boulot, je suis obligé de rester sous Windows, mon logiciel comptable n'étant pas compatible avec IOS.
Ma compagne a un ordinateur pourtant puissant, mais sous Windows10 et lĂ elle rage de devoir changer d'ordi car Ă priori Windows11 est trop lourd. Bref, une vraie plaie.
Et c'est vrai que j'en étais resté à cette image d'un Linux réservé à des utilisateurs avertis.
D'un manière générale, je suis d'accord sur le fait que beaucoup de choses sont liées aux habitudes que l'on a pris, et qu'il est difficile d'en changer. Personnellement, j'aurais beaucoup de mal à repasser sur PC à la place de Mac. Pas que je n'y arriverais pas, mais juste parce que j'en apprécie l'ergonomie et les fonctionnalités.
Pour faire raccord avec le sujet, en fait, pour l'histoire de la convivialité, je parlais principalement des réseaux sociaux alternatifs. Là aussi, surement une question d'habitude, mais aussi du fait que si ces réseaux sont peu utilisés, répandus, alors ils perdent le côté social de la chose.
Et sans personnaliser le problème, je pense que beaucoup de personnes sont dans ce cas. Ils ont trouvé un RS qui est convivial, qui rassemble beaucoup de connaissances, pourquoi en changer ? Si on leur pique leurs données, ça ne leur coûte rien. Par contre, ils se retrouvent influencés par ce que leur propose les algorithmes, sans même s'en douter. Et c'est là pour moi le principal problème : les mécanismes de recommandation.
___
Vous allez aimer me détester... -
modifié 16/04 (12:15)Allez petite digression concernant le contrôle d'algorithmes. Je vais commencer doucement, mais l'objectif est d'expliquer pourquoi "contrôler" un algorithme (sans précision) ne veut rien dire.
Un algorithme, dans un sens un peu technique, ça désigne n'importe quel traitement d'une information. Ranger les couverts dans un tiroir, c'est un algorithme et la plupart des algorithmes utilisés autour de vous sont assez indolores. Ici on va parler spécifiquement des algorithmes qui déterminent quel contenu s'affiche sur le feed d'un réseau social. On va supposer qu'un tel algorithme est codé dans un langage de programmation et exécuté sur un ordinateur, même si c'est une grossière simplification pour ne pas rentrer dans les détails d'architecture (qui sortiraient de mon champ d'expertise de toute façon).
1/ Qu'est-ce que peut faire un algorithme
Il y a toute une branche de l'informatique théorique qui s'attache à déterminer ce que peut ou ne peut pas faire un algorithme. Par exemple, on peut montrer qu'il existe un algorithme qui trie des nombres par ordre croissant, ou qu'il est impossible de faire un algorithme qui analyse un autre algorithme et détermine des propriétés intéressantes dessus. Et avec l'habitude, on finit par avoir une certaine intuition de ce que ça recouvre, donc si la question est de savoir s'il est théoriquement possible d'avoir un algorithme bienveillant, la réponse est clairement que oui c'est possible (pour autant qu'on puisse déterminer dans les grandes lignes ce qu'on veut dire par là , mais typiquement il est algorithmiquement faisable de filtrer les encouragements au suicide).
2/ Qu'est-ce qu'on voit de l'algorithme
Quand un algorithme produit des résultats, l'analyse peut se faire à plusieurs niveaux : on peut lire la spécification prévues pour ce code, on peut regarder le code source (écrit par des humains), on peut regarder le code compilé (transformé par des machines, et lu par l'ordinateur), on peut aller regarder au microscope électronique l'état des cellules mémoire pour surveiller l'exécution de l'algorithme, ou on peut regarder quels effets l'algorithme produit. Mais en fait tout dépend du contexte : si on ne peut pas faire confiance à la personne qu'on contrôle, alors seule les deux dernières méthodes donnent des résultats fiables.
Prenons d'abord une hypothèse favorable : je fais un audit interne pour une société, celle-ci a intérêt à ce que je puisse travailler efficacement, donc elle me fournit tous les éléments dont j'ai besoin. Dans ce cas, je vais vérifier la spécification, et vérifier que celle-ci est traduite correctement en code. Si l'algorithme dispose de paramètres, je vais aller regarder comment ils ont été déterminés. À la fin, je pourrai déterminer ce que fait l'algorithme.
Dans un cas défavorable, maintenant : la société peut très bien produire une spécification mais avoir du code qui ne correspond pas à cette spécification. Ou alors le code peut être correct mais le compilateur le compile exprès en quelque chose d'autre. Ou alors le code compilé peut être correct mais l'ordinateur qui l'exécute manipule le résultat. De même, dans le cas d'un algorithme à paramètres, on peut te mentir sur la manière d'obtenir les paramètres, ou sur leurs valeurs. Seul moyen de détecter des mensonges : le microscope électronique. Autant dire que cette dernière solution est déjà peu envisageable pour une machine à voter (système simple, qui tourne sur une machine dédiée sans OS, qui effectue une tâche simple en synchrone, etc.). C'est totalement hors de propos pour regarder un algo de recommandations de contenus sur un RS.
Or nous sommes clairement dans un cas défavorable : quelle que soit le principe que tu mets en place, un RS aura intérêt à te mentir, sachant qu'il est impossible de prouver qu'ils mentent. Il peut d'ailleurs te mentir sur le fait qu'il coopère (Ce ne serait pas une première).
3/ Pourquoi les algorithmes recommandent des contenus incitant des jeunes au suicide
Ce n'est pas parce qu'il existe un algorithme qui fait quelque chose que c'est forcément simple de le faire. Reprenons l'exemple des incitations au suicide données aux jeunes sur des RS. Un algorithme qui détermine qu'un contenu suscite de l'engagement ("je le montre à 100 utilisateurs, je regarde le pourcentage qui zappe avant la fin de la vidéo et si ce pourcentage est supérieur à X, je le montre à d'autres personnes") est super facile à écrire, et optimise assez bien la métrique intéressante pour les réseaux sociaux : les gens vont se retrouver exposés à des contenus cools, qui font qu'il restent sur l'appli, où ils sont exposés à de la publicité, et c'est ça qui rapporte de l'argent à la maison mère. Dans ce cas, l'exposition des jeunes à des contenus délétères est un effet secondaire de l'algorithme, il ne nécessite aucune intention malveillante particulière (c'était l'objet de la première réponse de K' d'ailleurs). Intention malveillante qui serait d'ailleurs parfaitement complotiste en l'espèce : qui suggèrerait que le modèle économique d'un RS consiste à pousser 10 client.e.s par an au suicide ? Pour déstabiliser l'occident rien de moins ?
À l'inverse, écrire un algorithme "bienveillant" nécessite plein de choses :
- analyser les contenus pour les classer
- ĂŞtre capable de le faire dans toutes les langues
- contourner les contournements qui existeront (bah oui quand les gens se rendent compte que parler de "mourir" donne droit Ă un shadowban, ils utilisent "unalive" Ă la place)
- mettre à jour tout ça en temps réel.
Et avant qu'on parle de l'IA qui va régler ce problème (technosolutionnisme de merde), je rappelle que la modération de contenus sur les RS est aujourd'hui effectuée par des travailleurs du clics, payés au lance-pierre pour récupérer des PTSD en devant observer manuellement des contenus (cf le travail d'Antonio Casilli).
Bref : ce n'est pas parce que quelque chose est techniquement possible que c'est forcément une bonne solution au problème posé.
4/ Vous reprendrez bien une couche de complexité ?
Ça date de bien avant les LLM, mais disons que ça a un peu explosé avec eux : il existe désormais tout un tas d'algorithmes dont le fonctionnement est parfaitement clair (tu prends l'entrée, tu la transformes en un vecteur de nombres, tu multiplies ça par une matrice et tu transformes la sortie en un texte / une image / whatever), mais dans lequel toute la complexité est en fait située dans les paramètres (ici, les valeurs de la matrice). Je vais pas me lancer dans un cours sur les réseaux de neurones, mais pour la conversation, il suffit de dire qu'avec un même code, on peut faire tout et son contraire juste en changeant les paramètres.
De tels algorithmes sont considérés comme des boites noires à la fois par les gens qui s'en servent, mais aussi par des gens qui les conçoivent : s'il existe bien des recherches pour donner du sens à ces paramètres et à leurs fonctions, la complexité des modèles a progressé bien plus vite que ces recherches. L'obtention de ces paramètres est donc en général le fruit d'un autre algorithme (appelé "apprentissage"), et pour dire les choses simplement, la plupart des apprentissages ne sont pas déterministes, certains sont très coûteux (mais on ne les réalise qu'une seule fois pour un grand nombre d'utilisation de ces paramètres ensuite).
La question est donc : s'il se trouve qu'un algorithme de recommandation de contenu est basé sur une boite noire, dont les paramètres sont issus d'un apprentissage non déterministe, que cette boite noire utilise des TAS d'entrées (genre l'actualité) et sachant qu'il n'est pas possible de faire vérifier un algorithme par un autre algorithme, on fait quoi ?
5/ Conclusion
Avec tous ces éléments, j'espère qu'il est désormais compréhensible par tout le monde pourquoi je tique très fort quand j'entends qu'il faut "contrôler" les algorithmes ou les "reprendre en main" : ça n'a scientifiquement aucun sens, ça ne peut venir que d'une personne qui ne comprend rien à ce dont elle parle. La seule chose fiable qui existe, c'est de regarder les sorties de l'algorithme et de décider si cela convient ou non (éventuellement en utilisant des statistiques), ce qui est déjà faisable par n'importe qui. -
modifié 16/04 (13:58)Non mais Un Curieux, tu as dit toi même qu’il etait tout à fait possible d’entraîner un algorithme à être bienveillant oui ou non ?
C’est ça qui est primordial dans un contrôle des algorithmes : s’assurer qu’il le reste et shadowban les contenus toxiques.
Je te dis ça en me plaçant du côté de l’agent régulateur qu’est l’Etat. Quelque part, techniquement, je me fiche de savoir comment il fonctionne. On ne demande pas à un juge de connaître la cinétique de la balle qui tue ou savoir démonter et remonter une arme.
On peut jouer sur la sémantiques pendant des pages mais le contrôle des algorithmes par l’Etat en sa qualité d’agent régulateur qui doit protéger sa population de tout un tas de menace, c’est de s’assurer que les RS autorisés en France n’orientent pas les usagers vers des contenus toxiques ou n’influencent pas les usagers en matière de politique ou mettent en péril la sécurité intérieure.
Et la reprise en main signifie d’imposer ceci aux RS, d’avoir accès aux informations sensibles sur la programmation de ces algorithmes (on parle quand même d’algorithmes « opaques » concernant Tik Tok) de ces entreprises en cas de manquement, et de sanctionner en cas de non coopération.
ÉDIT : juste pour etre encore plus clair. L’aspect technique, la faisabilité, d’arriver à des algorithmes bienveillants n’est pas le problème de l’Etat mais celui des concepteurs avant la mise sur le marché, et pendant qu’il est accessible pour réajuster les « intoxications » de leur algorithme.
___
Vous allez aimer me détester... -
modifié 16/04 (14:01)Arnold de Schartzenprout a écrit :
Non mais Un Curieux, tu as dit toi même qu’il etait tout à fait possible d’entraîner un algorithme à être bienveillant oui ou non ?
Mon post reprend précisément ce point et y répond (c'est l'objet du 3/).Et la reprise en main signifie d’imposer ceci aux RS, d’avoir accès aux informations sensibles sur la programmation de ces algorithmes
J'explique aussi pourquoi ça n'a aucun sens (c'est le 2/ et un peu le 4/). Tu peux demander à avoir accès à ce que tu veux, tu ne sauras jamais si ce qu'on te fournit est ce qui tourne vraiment (2/) et le plus vraisemblable est que tu ne puisses de toute façon rien en faire (4/).
Trop drôle que tu soulignes que l'algo de tik tok serait "opaque" comme si c'était un scoop, ça prouve vraiment que t'as rien lu du tout de mon message détaillé. So much pour le mec qui avait surtout des questions, hein. -
posté 16/04 (14:01)Oui, tu y réponds mais je vais te poser une question simple :
As tu le sentiment que ce travail soit fait avec serieux de la part de groupes qui d’enrichissent formidablement et ont largement les moyens d’être beaucoup plus efficaces en terme de vigilance ?
___
Vous allez aimer me détester... -
posté 16/04 (14:10)Arnold de Schartzenprout a écrit :
As tu le sentiment que ce travail soit fait avec serieux de la part de groupes qui d’enrichissent formidablement et ont largement les moyens d’être beaucoup plus efficaces en terme de vigilance ?
Mais de quoi tu parles ?
Il est question de contrôler un algorithme, je t'explique que ça n'a aucun sens, tu me demandes si le travail est fait sérieusement, mais WTF ?