ia / agents conversationnel
-
modifié 13/02 (13:30)En étant optimiste, dans 5 ans je suis au chômage.
A mon taf on commence à utiliser des agents conversationnels d'aide à la programmation, et... C'est n'importe quoi :
- Il fait le code à ma place, j'ai juste à reviewer son code à la fin. Il existe des cas où c'est plus rapide de programmer moi-même, mais en général (dès qu'il y a plusieurs chose à faire dans plusieurs fichier à faire interagir pour une même tâche), c'est plus rapide de le laisser faire puis vérifier.
- J'ai juste à lui expliquer "vaguement" ce qu'il faut faire.
- Il a compris l'essentiel de la teneur du projet sans que je lui explique. Avec quelques explications floues en plus, je suis sûr qu'il aurait pu le finir sans moi (je n'ai pas fait ça parce que je veux vérifier son code et pour ça il faut que j'opère tâche par tâche plutôt que tout faire d'un coup).
- Il a implémenté des trucs à partir de pseudo-code que je lui ai fourni.
- ... Mais il a même fait plus fort. "Ici c'est lent... or à cet endroit ce qu'on fait ressemble à inverser deux fois la matrice, il doit y avoir des formules pour faire sans inversion" -> il a trouvé les formules et m'a proposé de les implémenter (puis les a implémenté quand j'ai demandé) (si vous voulez plus de précisions, c'est des trucs basé sur les formules de Shur et/ou de Sherman–Morrison, dans des cas où on inverse la matrice, perturbe l'inverse, puis ré-inverse ; mais je lui a même pas donné les nom des formules relevantes, j'ai juste dit "ça ressemble à une double inversion").
- (sur un projet perso, pas au taf) Il pense à faire le genre de modif qu'on oublie de préciser à l'avance, puis auxquelle on pense parfois à l'implémentation, type "bon je programme telle checkbox et fais sa logique... Tiens au fait, quand on fait tel truc qui n'a rien à voir, il faut décocher la checkbox si elle est cochée parce que si l'utilisateur fait ça c'est qu'il ne veut pas cette checkbox à son prochain calcul".
- ... je pense que j'en oublie.
Bref, je suis passé d'un taf de conception/implémentation à "manager un stagiaire ia surdoué".
J'en ai profité pour prendre le même programme chez moi pour faire un projet perso... Qui me dépasse complètement (un truc où j'ai aucune des compétences nécessaires, autre que "je sais programmer"). Et donc, ben le projet avance vraiment vite. Pour donné un ordre de grandeur, en moins de deux heures on a fait la gui web locale (donc serveur, page, interactions...), ce qui m'aurait pris au bas mot deux semaines (me renseigner sur ce qui existe, tester, commencer à implémenter, débugger... Sur mon temps libre par ailleurs, donc pas 35h/semaine). En moins de deux ou trois soirées j'ai une base complète utilisable.
Bref, c'est une chose de savoir que de tels outils existeront/existent, c'en est une autre de voir à quel point ils sont déjà performants et à quel point on se retrouve pratiquement inutile à juste faire quelques vérifications et demander à l'ia les différents choix possibles.
Pour remettre en perspective, ChatGPT est sorti il y a un peu plus de 3 ans (30 novembre 2022). Et c'était de la merde (facile à faire halluciner, réponse pas du tout fiable, etc), quoi que vraiment impressionnant à l'époque de parler à un bot en langage naturel. Quand je dis que dans 5 ans je suis au chômage, il y a moins d'écart entre la merde qu'était chatGPT et l'agent qui programme à ma place maintenant, qu'entre maintenant et dans 5 ans : je ne vois pas comment quiconque peut avoir la moindre idée de ce que feront les ia conversationnelles dans 5 ans.
Je ne vois pas comment notre économie pourrait résister à cette lame de fond. A mon taf on voulait engager des spécialistes en applications web et des spécialistes ia pour certains projets, sachant qu'on en a besoin et qu'on est tous nuls à chier dans ces domaines... pourquoi on ferait ça maintenant ? On est nuls à chier, mais largement assez bons pour comprendre ces trucs si on nous les explique, reviewer les codes, etc : largement assez bons pour manager des ia le faisant. On est même probablement trop nombreux pour ces tâches.
Et mon taf, sans être au niveau d'un taf de recherche, est déjà technique : comprendre une problématique réelle, tenter de la translater en maths (compatible avec notre solution), étudier ces maths, conception de pseudo-code, implémentation. Si votre job est moins technique...
De l'autre côté il y a des points positifs : si je voulais je suis sûr que je pourrais programmer mon propre agent conversationnel d'aide à la programmation, en me faisant aider au départ par l'agent qu'on utilise au taf, et des modèles open-source que j'estime fiable. Et donc me libérer des agents conversationnel payants. Quand je vois à quel point j'avance vite sur mon projet perso où je n'y connais rien, rien ne me semble inaccessible.
On parle d'agent conversationnels en langage naturel, donc les trucs payant sont baisés : impossible de faire des outils propriétaires avec des problèmes de compatibilités et tout, le propre du langage naturel est d'être compatible avec tout (... ce qui parle la même langue). N'importe qui me semble maintenant pouvoir programmer, pour peu qu'il soit un peu prudent (qu'il prenne un agent conversationnel qu'il estime fiable et qu'il insiste sans cesse pour pas avoir de problème de sécurité). J'ai l'impression qu'à terme, les gafam sont mortes, parce que les méthodes de monopole ne peuvent pas fonctionner ici, et si tout le monde peut programmer ses propres outils... Et j'ai pas précisé, mais sur mon projet perso il a transformé un fichier texte où j'avais mis des données en vrac (un pense-bête en somme) en .json cohérent : vous avez même pas à connaître les formats de donnés généralement utilisés pour assurer la compatibilité avec d'autres trucs, vous faites votre propre format et le jour venu vous dites "rends-moi ça compatible avec ceci".
Bref, j'ai tendance à y voir globalement du positif. Sauf que l'économie... Je vois pas comment elle gère un changement si brusque si vite. Je parle de pratiquement tous les jobs "intellectuels" qui vont disparaitre dans moins de 10 ans : pas besoin d'un cabinet d'avocat, juste d'un avocat qui manage une ia qui va chercher les textes et jurisprudences et fais une base de plaidoirie et écrit les brouillons de mail et... etc, pour toute la partie de votre tafs qui demande de compiler et traiter des données, pas besoin de personnel (estimation d'un bien immobilier, répondre aux mails des vendeurs et acheteurs, gérer l'emploi du temps des visites en prenant en compte les temps de trajets ? -> ia. Faire un premier diagnostic médical et prévoir les analyses complémentaires pour affiner ? -> ia. Programmer l'ia répondant à vos besoins ? -> ia. etc).
Un système économique un peu intelligent gèrerait (autant d'"utilité" est fournie pour bien moins de travail ? Pas de problème, ce qui es produit est toujours fourni aux consommateurs comme avant, on réduit le temps de travail et on améliore les conditions de travail, et on ré-affecte certains travailleur - il n'y a pas de raison que seuls les travailleurs dans les services en profitent quand on peut aussi améliorer les conditions de travail des agriculteurs en leur octroyant des travailleurs qui ne sont plus nécessaire dans les services et en en profitant pour rendre ces travail moins pénibles et plus désirables) (ma parenthèse est très "mécaniste" avoir les travailleurs comme ressource de age of empire, mais vous voyez l'idée générale) ; mais le système capitaliste ??? J'ai envie de dire "lol", mais c'est un lol très sombre et amer. Au lieu du paradis on va avoir l'enfer...
EDIT : REMARQUE SUR LE SUJET : je souhaiterais qu'on exclut toute conversation sur "la destruction de l'humanité par les IA"/la singularité/comment être sûr de contrôler les ia... Bref, sur ce sujet on est dans le monde des bisounours où les ia sont fiables, gentilles, honnêtes etc. Et j'ai déjà l'impression que ça nous mène droit à des horribles dystopies, c'est là -dessus que j'aimerais l'avis de gens compétents et moins compétents. -
posté 13/02 (15:43)Sur ce sujet précis, il y a cet article court (Something Big Is Happening qui a été publié très récemment ; ce qu'il y a d'intéressant je trouve c'est que derrière la "hype" sur l'IA il y a quand même une progression continue et impressionnante des outils depuis 3 ans.
Je trouve qu'il y a plusieurs enjeux distincts :
--> est-ce que ça va changer notre travail au quotidien ? Clairement oui, par ex. via de la GenAI intégrée des plus gros (coding ?) aux plus petits de nos besoins : prise de note en meeting (à ce sujet l'AI de Notion est vraiment bluffante dans sa capacité à structurer les points clefs !), auto-filling à notre place des messages, etc. Mais finalement est-ce grave ou si important ?
--> est-ce que ça va faire disparaitre notre travail ? En partie seulement : je vais prendre 2 exemples :
----- dans ma boite on embauche encore des Product Designers et des UX Researchers, alors qu'en théorie on pourrait se dire que l'IA fait tout : mais il y a toujours le besoin "humain" d'aller voir les gens et s'assoir avec eux, pour comprendre leurs besoins, les orienter, etc. (au même titre que ce que peux faire un médecin généraliste par ex.)
----- et en terme d'expertise, on est encore loin de la dernière étape : par ex. peut-être que l'IA juridique saura créer un contrat clef-en-main en 2 minutes, mais derrière il faudra toujours (i) réfléchir à ce qui est important dans le contrat ou non, (ii) valider ou non les risques / enjeux du contrat dans le cadre d'une négociation. Et cela ça ne disparaîtra pas de sitôt.
--> est-ce que ça va faire disparaitre le travail en général ? J'en doute fortement ; ce que je vois plutôt c'est une démultiplication de ce qui peut être fait par tout un chacun, i.e. un gigantesque gain de productivité et du "niveau moyen" de ce que tout un chacun. A l'exemple de ton projet personnel : ce qui t'aurais pris 2 semaines te prend qques heures. Ce que ça veut dire c'est que beaucoup de choses vont devenir encore plus "plug and play", par ex. si qqun veut lancer son propre jeu vidéo, veut créer son site web, etc.... Et je ne saurais pas dire si c'est mal ou bien en soi.
Mon avis reste positif aujourd'hui ; et plus largement je me dis aussi qu'il risque d'y avoir un revirement idéologique sur comment taxer et intégrer les IAs à la société : si les IAs/agents deviennent vraiment très productifs, viendra la question de comment redistribuer la valeur ajoutée. Et étonnamment ce que je trouvais être un point de vue radical et fantaisiste ("taxer les robots") il y a qques années, est en train de devenir quelque chose de plus en plus réaliste.
___
"Savoir se libérer n'est rien ; l'ardu, c'est savoir être libre." (André Gide) -
modifié 13/02 (21:41)@Maki Ling je te répondrais un moment ou un autre.
J'ai juste oublié un truc complètement fou que m'a fait l'agent conversationnel : mon projet était dans un dossier avec un accent, et à cause de problèmes d'encodage ça empêchait l'agent de bien mettre les path (parce que la console de l'agent avait un autre encodage ou un truc du genre, et parce que le programme le laisse pas ouvrir une console dans le dossier mais seulement à la racine du disque ou je sais pas quoi, du coup il pouvait ni écrire de path totaux ni utiliser de path relatifs). Du coup je lui demande les solutions possibles, et lui dit qu'au pire je peux déplacer le projet. Finalement j'opte pour déplacer le projet (les solutions proposée ont l'air chiantes, et le projet était pas au bon endroit de toute façon). Et par flemme, je lui dis "bah vas-y déplace". Et là en surveillant d'un oeil, je me rend compte d'un truc bizarre : au lieu de faire quelques commande console avec un cp, il semble lire les fichiers et les recopier "à la main" (si les agents conversationnels avaient des mains pour taper sur un clavier). Du coup je lui demande, et comme à ce moment là je suis pas sûr des permissions qu'il a etc, je fais des hypothèses comme quoi il a pas accès aux lignes de commandes ou je sais pas quoi...
... Il me répond, à la cool "bah oui mais avec le problème d'encodage je peux pas mettre le path du dossier où on est (où les fichiers sont actuellement) [et il me rappelle que les consoles qu'il utilise sont pas ouvertes dans le dossier mais à la racine du disque]. Donc je peux pas écrire les arguments du cp. Donc je lis et je copie, 'à la main' comme tu dis - vu que j'ai pas à écrire le path pour lire un fichier dans le dossier courant."
Je trouve ce genre de prises de décisions complètement folles. Dans ma tête il y a peu de temps, on en était encore aux agents qui iraient se casser les dents sur une copie et me dire que ça marche pas (éventuellement en me signalant le problème après coup), pas à un agent qui comprend qu'il peut pas utiliser la méthode "normale" de copie de dossier avant même de tester (et avant moi), qui recherche une autre solution possible, puis applique son autre solution. -
posté 14/02 (12:55)Maki
Ling a écrit :----- et en terme d'expertise, on est encore loin de la dernière étape : par ex. peut-être que l'IA juridique saura créer un contrat clef-en-main en 2 minutes, mais derrière il faudra toujours (i) réfléchir à ce qui est important dans le contrat ou non, (ii) valider ou non les risques / enjeux du contrat dans le cadre d'une négociation. Et cela ça ne disparaîtra pas de sitôt.
C'est justement ce que j'essaies d'expliquer, de même que l'article que tu as mis en lien : on n'en est déjà plus là .
Les ia capables de rédiger un contrat clé en main une fois qu'on leur a expliqué ce qui est important, c'était un rêve il y a deux ans. Aujourd'hui, on en est aux ia qui réfléchissent elle-même aux risques et enjeux en leur donnant juste le contexte (les mails du client, de la partie adverse, les conversations, les documents officiels) puis qui font le contrat. Et puis tu peux relire le contrat... Et directement lui poser des questions sur pourquoi elle a fait tel ou tel choix. Et te rendre compte qu'elle a (presque) toujours raison, et te contenter de valider ses choix parce que ni toi, ni tes associés ne feraient un meilleur contrat, au mieux vous passerez du temps à faire aussi bien (mais un peu différent ici et là ).
Reste la partie négociation, en effet... Et encore. Je veux dire, dans le monde réel, combien de fois t'es-tu contenter de valider ce qu'avait négocié un autre ? Ton courtier d'assurance (si toi ou ta boîte en a un), tu lui as demandé de plus négocier ceci et cela ou tu as juste validé la proposition qu'il avait obtenu ? Ton agent immobilier (si tu as acheté ou vendu un bien immobilier en passant par une agence), tu lui a demandé de plus négocier tel point avec l'autre partie ou tu lui as juste dit "oui" ou "non" ? Et pour un avocat, il me semble qu'une partie du job est de faire accepter au client "je vous conseille de signer ça, on n'obtiendra pas mieux au tribunal" : c'est-à -dire, faire en sorte que le client valide ce qu'ont négocié les avocats pour eux. Au final dans l'essentiel des cas, même la négociation pourrait aussi bien se faire entre ia, avec une simple validation/non-validation des parties humaines à la fin, parce que c'est déjà comme ça que ça marche : d'autres négocient, les parties prenantes valident ou non l'accord obtenu entre les négociateurs.
... Mais soit, maintenant partons du principe que tu as raison, et que l'ia peut juste écrire le contrat après qu'un humain ait évalué les risques et enjeux et avant qu'un humain ne négocie ce contrat.
On passe donc de "un avocat, son associé, un stagiaire et un secrétaire pour lire les mails, planifier les rendez-vous, discuter avec les clients, lire le dossier, vérifier les jurisprudences et les lois, se renseigner sur les risques réels et ce qui est déjà arrivé, et enfin rédiger le contrat" à "un avocat et une ia pour faire tout ça, et plus rapidement donc pouvant traiter 2 fois plus d'affaires". Donc même dans ton cas tu as mis 7 personnes au chômage (l'associé, le stagiaire, le secrétaire et les 4 personnes du cabinets d'avocats que tu vient de mettre au chômage en traitant deux fois plus d'affaires).
... Alors soit, comme tu dis, s'asseoir avec les gens pour comprendre leur besoin c'est bien, donc tu engages des Product Designers et des UX Researchers... Sauf qu'on vit dans un monde capitaliste avec une concurrence libre et non faussée et toutes ces conneries. Reprends l'exemple de l'avocat : soit tu es celui qui vire tous son personnel, traite deux fois plus de dossier et en profite pour diviser ses tarifs par 4 (tout en touchant toujours plus d'argent). Soit tu es le cabinet qui a fait faillite à cause du cabinet qui a viré tout son personnel et divisé ses tarifs par 4. C'est pas un choix, dans le système tel qu'il est tu dois virer tout le monde et travailler avec des ia si tu veux pouvoir faire face à la concurrence qui le fait.ce que je vois plutôt c'est une démultiplication de ce qui peut être fait par tout un chacun, i.e. un gigantesque gain de productivité et du "niveau moyen" de ce que tout un chacun. A l'exemple de ton projet personnel : ce qui t'aurais pris 2 semaines te prend qques heures. Ce que ça veut dire c'est que beaucoup de choses vont devenir encore plus "plug and play", par ex. si qqun veut lancer son propre jeu vidéo, veut créer son site web, etc.... Et je ne saurais pas dire si c'est mal ou bien en soi.
Mon avis reste positif aujourd'hui
Je suis d'accord avec tout ça (y compris sur le côté positif) (je répète l'édit du premier post : j'exclus dans ce sujet les ia malveillantes, qui méritent leur sujet à part ; quand j'exclus ça, j'y vois que du positif).
Le problème, c'est que le système économique ne peut pas encaisser ça, et que je pense pas que quelques rustines suffiront à l'adapter. Tout le monde ne peut pas gagner sa coûte en devenant développeur de jeux vidéos, la demande ne va pas exploser à ce point (et la demande de petits jeux indés ne me semble pas si grande). -
posté 14/02 (17:09)gloubi a écrit :
En étant optimiste, dans 5 ans je suis au chômage.
Ok, alors partons de là , parce qu'au final, c'est ça qui devrait t'inquiéter le plus non ?
Tu es salarié, tu ne décideras pas de la politique de la boîte dans laquelle tu bosses, mais en revanche, tu peux anticiper les événements.
Qu'est-ce qui pourrait faire que ton boss te conserve malgré l'évolution de ton taf que tu dénonces ?
En admettant qu'effectivement en l'état actuel des choses, tu ne serves plus à rien dans ton entreprise dans 5 ans et que tu te fasses virer, vers quoi peux tu faire évoluer ton métier pour qu'il ne soit pas complètement obsolète ? Des formations complémentaires ? Un revirement à 180° ?
Je te demande ça parce que beaucoup de métiers, comme tu l'as dit, risquent de disparaitre du fait de l'IA, et qu'il est complètement utopique de s'imagine que ce gain productif profitera aux personnes qui en subiront les effets. On est dans un monde capitaliste, là aussi ni toi ni nous ne pourrons agir pour changer ça radicalement. Donc l'idée c'est d'anticiper ta propre obsolescence.
___
Vous allez aimer me détester... -
modifié 14/02 (17:48)S'il s'agit de s'occuper de mon petit cas personnel à moi et ce que je vais faire tout seul dans mon coin, je compte pas en discuter avec toi mais avec quelqu'un de compétent : une ia conversationnelle. Ici le but c'est de partager mon expérience pour partir en généralisation avec des gens qui auraient la même expérience/une autre/n'auraient pas regardé l'évolution des ia/autre, c'est bien pour ça que j'ai posté sur politique et société et pas sur entraide. Mon cas n'a d'intérêt que pour lancer le sujet, et indiquer ce que peuvent faire les ia de programmation à partir d'un cas réel pour ceux qui ne suivent pas l'actualité ia.
Mais si tu t'inquiète pour moi, laisse-moi te rassurer : tant que Mélenchon n'arrive pas au pouvoir, j'ai assez de capital pour ne pas avoir à m'inquiéter avant un bon moment (peut-être même jusqu'à ma mort). A moins que toute l'économie ne s'écroule évidemment, et dans ce cas c'est pas trois formations complémentaires et un virage à 180° qui y changeront quoi que ce soit. -
posté 14/02 (18:40)C'est bien de tout ceux qui seront impactés par la même problématique auxquels je pense, pas à toi en particulier. A moins que tu sois le seul au monde à faire ce métier mais j'en doute.
Tu sembles présenter cette évolution comme la fin de ton monde et du monde de plein de gens. Ben que vas tu faire ? Que peuvent-ils faire ? Il n'y a véritablement pas de place pour vous dans le futur ?
___
Vous allez aimer me détester... -
modifié 14/02 (22:26)gloubi a écrit :
Alors - grande première pour moi sur pol&soc. Je suis compétent pour parler du sujet; je travail dans le domaine de l'IA en entreprise depuis avant que les LLMs aient débarqué et de fait, forcément j'ai pleins d'opinions (but this time I can back it up).
Je vous avertis à priori que bien évidement c'est très subjectif et que ce n'est que mon avis - et sans vouloir faire de plugs - ma seule source de crédibilié vient du fait que je travail chez hopsworks.ai, une boite de software suédoise spécialisée dans l'infrastructure pour intelligence artificielle depuis 2018 (nottament issue de KTH). Si vous cherchez dans les blogs du site vous verrez mon dernier blog sur le vibe migrating, en partie lié au sujet du coup.- Il fait le code à ma place, j'ai juste à reviewer son code à la fin. Il existe des cas où c'est plus rapide de programmer moi-même
.
Dire qu'il existe des cas, cest sous entendre qu'il en existe ou ce n'est pas le cas - Je pense sincèrement que tu copes, si c'est ce que tu penses; il n'existe peu de circonstances ou ce ne serait pas plus rapide de lancer une team claude code pour faire ton job, au pire à 80% de la qualité que tu produits, mais en deux heures au lieux de deux sprints.
Ce que l'on voit, beaucoup, cest la fin d'un certain type d'ingénierie; dans mon entreprise on essaie de rationaliser cela depuis Avril dernier. Mais depuis disons Novembre plusieurs choses sont très claires pour nous:
- La fin d'une vision purement verticale / isolée d'ingénieur. Cela est devenue un (gros) frein; les teams chez nos clients comme chez nous, ou les ingénieurs n'ont pas la capacitée de conceveoir le produits de leur travail de façons disons "holistique" (sans vouloir utiliser du consulting-speak), son franchement en retard; mais freinent les autres sur la capacité d'implémentation. Donc, next point;
- Être capable de comprendre le produit / le marché est devevenu plus important que de savoir coder proprement.
- Tous les layers d'orchestrations, automatisations, wrapper sur des APIs vont sans doutes disparaitre; je peux vibe coder un headless crm/cms sur un vm ovh en deux heures, jai pas besoin de payer 200 balles a hubspot ou 2000 a salesforce pour cela. (traduction pour les moins techos; jai pas besoin de payer un service menssuel, si je peux le faire moi meme)
- Tester le code va devenir plus important que de savoir faire du code - si tu es capable de produire 10k lignes en un weekend; personne ne va review tes PR. Cest le gros bottleneck que l'on voit en ce moment. Shipper du code infra vibe coder cest quand meme dangereux.je ne vois pas comment quiconque peut avoir la moindre idée de ce que feront les ia conversationnelles dans 5 ans.
Vrai.
Mais - et je conçois que ce puisse être que peu de soulagement -,
Les progres que tu vois aujourdui cest des progrès software, pas des progrès de l'IA sous jacente tant que cela; les amélliorations des LLMs en eux même sont relativement marginales, ils sont meilleurs, mais pas tant meilleurs que cela. La grosse différence ce sont les software qui ont poussés entre temps autour de l'écosystem LLM pour arriver a leur donner un sandbox. Avant Claude Code, il y a eu pendant un moment Lovable (un wrapper UI); en un an, on peut dire que leur differentiateur est presque anéantis; ils vivent que du marketing basé sur les faits que les gens ne savent pas qu'ils peuvent faire mieux moins cher plus vite.
La trend cest la comodification... en partie grace a des pays comme la chine qui maintiens au moins en partie un écosystem pro-opensource. Ce que fait Anthropic avec disons un opus 4.6 aujourd'hui. Je pense, que dans 5 ans tu l'as qui tourne sur un VM perso; ils se fagocitent eux mêmes.Je ne vois pas comment notre économie pourrait résister à cette lame de fond
.
Bah, si tu as une idée, que tu penses que cette idée est utile. pour 200 balles par mois tu vas pouvoir faire ton propre trucs et si les gens se disent que le cout / temps / valeur est toujours avantageux pour eux de te payer plutot que de le maintenir; tu as un service qui est vendable et utilisable.
En vrai - cest comme aujourd'hui, sauf que tu as un effet d'enthropie bien plus rapide.le propre du langage naturel est d'être compatible avec tout
.
Alors oui et non; mais il y'a un point très interessant sous jacent - et pour les gens un peu plus technique qui n'y ont pas pensé; cela veux dire la mort des DLS (domaine specific language).
___
------------------ -
modifié 15/02 (12:03)Tyller a écrit :
Dire qu'il existe des cas, cest sous entendre qu'il en existe ou ce n'est pas le cas - Je pense sincèrement que tu copes, si c'est ce que tu penses; il n'existe peu de circonstances ou ce ne serait pas plus rapide de lancer une team claude code pour faire ton job, au pire à 80% de la qualité que tu produits, mais en deux heures au lieux de deux sprints.
Non je cope pas (... je *pense* pas coper), je peux reformuler : parfois c'est plus rapide de coder que d'expliquer ce que tu veux. Ou comparable (mais passer par ta team claude, ça veux dire expliquer, attendre que le message soit traité, attendre le code, reviewer : si ça te prends 3 minutes à expliquer et 5 minutes à coder, ça reste plus rapide de coder).
Evidemment c'est pas sur les même ordre de grandeur que "deux heures pour la team claude" : si le truc ne te prend ne serait-ce que une heure (et donc un temps négligeable pour l'ia), c'est sans doute plus rapide de passer par l'ia. Le cas que je dis, c'est surtout une fois que ton ia a codé l'essentiel : tu testes, tu vois qu'ici et là c'est pas exactement le comportement que tu veux (tel bouton est pas exactement où tu veux, à la réflexion il serait mieux dans tel onglet, il décoche pas telle checkbox qui devrait être décochée dans ce cas...), à ce stade ça peut être plus rapide de modifier que de demander une modification.
Et le temps d'explication peut exploser avec l'aspect technique. Quand je dois expliquer une opération matricielle à l'ia ("ici il faut inverser, perturber ceci comme ça, extraire cette partie, la mettre comme bloc de telle autre matrice..."), je m'assure de lui expliquer le but "non-mathématique", et le lien avec les maths, histoire d'être sûr qu'elle "comprenne" pourquoi on fait ces opérations bizarres et "intuite" pas autre chose (... et elle est très forte à intuiter des trucs juste - genre, en créant un parser pour une matrice symétrique sparse depuis un fichier texte, elle a ajouté d'elle-même la partie sous-diagonale, sachant que j'avais oublié de lui précisé que le fichier ne contenait que la partie sur-diagonale ; mais elle savait que la matrice était diagonale et avait le fichier à parser sous les yeux. Elle a une bonne intuition, mais je veux pas qu'elle intuite des trucs faux par manque de contexte). Quand le côté technique rend le tout long à expliquer, ça peut être plus rapide de le coder.
Note annexe puisque je parle de matrices : je fais 100% confiance aux librairies d'algèbre linéaire de python (autant en terme de justesse que d'optimisation). Pourquoi je ferais pas aussi 100% confiance à du code d'ia, une fois que j'ai constaté directement que son code était fiable dans tel contexte ? (cette question ne s'adresse pas à toi, mais ça ceux qui estiment l'ia pas fiable "par nature") (enfin si ça s'adresse un peu à toi concernant le PR - mais ici un point clé est "dans tel contexte" : pour l'instant j'ai pas demandé à l'ia de faire un projet entier, je l'ai pas utilisé avec des bases de données complexes etc : il y a plein de contextes où j'ai pas appris à lui faire confiance).- Tester le code va devenir plus important que de savoir faire du code - si tu es capable de produire 10k lignes en un weekend; personne ne va review tes PR. Cest le gros bottleneck que l'on voit en ce moment. Shipper du code infra vibe coder cest quand meme dangereux.
Là j'ai l'impression que c'est toi qui te base sur ce qui existe à cet instant précis. Qui "cope", comme tu dis. (... oui j'avoue, j'ai demandé à une ia de me traduire des parties de ton post, parce que ça jargonait trop pour moi x) )
... Qu'est-ce qui empêche *théoriquement* des ia de tester, reviewer, etc ? Tester du code, c'est encore plus automatisable que l'écrire. Et bien plus chiant, c'est pour ça que les développeurs le font souvent mal. Mais tu sais qui est très doué pour les tâches automatiques, et qui ne rechigne jamais à faire une tâche chiante ? Et je ne parle pas forcément d'une seule ia qui review à partir de ce que lui dit l'ia qui a écrit le code : ça peut très bien être plusieurs ia, se basant sur les consigne de départ et n'écoutant pas ce que disent les devs, et chacune avec des exigences prioritaires différentes (sécurité, optimisation, besoin client, etc). Bref, un ensemble d'ia aussi toxique que peut l'être un studio de développement.
Si rien ne l'empêche théoriquement (... et sans doute avec des idées 1000 fois meilleures que ce que je viens de poser rapidos), alors le fait que ça n'existe pas actuellement... Sachant qu'on sait que le besoin existe puisque c'est le bottleneck actuel... Est-ce que tu peux dire que ça n'existera pas, et de façon plus fiable que ce que font les humains actuellement, dans 6 mois ? Un an ? Deux ans ? Cinq ans ? (Et je rappelle que "dans 5 ans", c'est plus loin que "depuis la première version publique de chatgpt")
Arnold de Schartzenprout a écrit :Tu sembles présenter cette évolution comme la fin de ton monde et du monde de plein de gens. Ben que vas tu faire ? Que peuvent-ils faire ? Il n'y a véritablement pas de place pour vous dans le futur ?
Bah je t'ai déjà répondu :
gloubi a écrit :A moins que toute l'économie ne s'écroule évidemment, et dans ce cas c'est pas trois formations complémentaires et un virage à 180° qui y changeront quoi que ce soit.
etje ne vois pas comment quiconque peut avoir la moindre idée de ce que feront les ia conversationnelles dans 5 ans.
-
posté 15/02 (12:32)gloubi a écrit :
Fair enough sur le reste, mais;... Qu'est-ce qui empêche *théoriquement* des ia de tester, reviewer, etc ? Tester du code, c'est encore plus automatisable que l'écrire.
Alors automatiser l'ecriture des tests. Oui.
Automatiser la pratique de faire passer des tests. Oui aussi.
Sauf que si cest pas une feature très isolée dans un produit relativement simple, on a trois gros problèmes;
1 - l'ia n'a aucune comprehension 'produit' et cela n'a pas l'air d'etre facile a inculquer; si cela passe un test pour dire que le API est healthy, cest bien, mais ca te dit rien du fait que peut etre cet API casse le use-case d'une autre partie de la platforme car;
2 - Context explosion (les tests demandent beaucoup de tracing/lecture de contenu) + enchitification (aka dumb zone).
3 - Cross-context limitation; en gros, bah une 'instance' d'agent n'a de memoire et de contexte que durant l'existance de cette instance, ils peuvent communiquer un petit peu entre eux mais cest franchement pas d'un gros interet vu que cela tends aux points 1 et 2 encore plus rapidement.
Tu te retrouves avec une sorte de catch-22; si tu veux ameillorer faut que les contextes soient plus larges, si tu les elargis trop la qualité drop, si la qualité drop la fiabilité des reviews est moins bonne.
Ces points font que les reviewers sont toujours utile et le seront sans doutes encore plus dans un contexte ou les platformes et produits vont se complexifier bien plus rapidement bien plus facilement avec bien plus de dépendances. du coup un unit test ou regression test ne suffira plus et faudra pouvoir voir comment accepter de laisser passer du code dont on ne sait pas tout (ou trouver des moyens de le tester plus efficacement).
Après en effet, c'est le state of now. Dans le turfu on sait pas.
___
------------------
Ling