En étant optimiste, dans 5 ans je suis au chômage.
A mon taf on commence à utiliser des agents conversationnels d'aide à la programmation, et... C'est n'importe quoi :
- Il fait le code à ma place, j'ai juste à reviewer son code à la fin. Il existe des cas où c'est plus rapide de programmer moi-même, mais en général (dès qu'il y a plusieurs chose à faire dans plusieurs fichier à faire interagir pour une même tâche), c'est plus rapide de le laisser faire puis vérifier.
- J'ai juste à lui expliquer "vaguement" ce qu'il faut faire.
- Il a compris l'essentiel de la teneur du projet sans que je lui explique. Avec quelques explications floues en plus, je suis sûr qu'il aurait pu le finir sans moi (je n'ai pas fait ça parce que je veux vérifier son code et pour ça il faut que j'opère tâche par tâche plutôt que tout faire d'un coup).
- Il a implémenté des trucs à partir de pseudo-code que je lui ai fourni.
- ... Mais il a même fait plus fort. "Ici c'est lent... or à cet endroit ce qu'on fait ressemble à inverser deux fois la matrice, il doit y avoir des formules pour faire sans inversion" -> il a trouvé les formules et m'a proposé de les implémenter (puis les a implémenté quand j'ai demandé) (si vous voulez plus de précisions, c'est des trucs basé sur les formules de Shur et/ou de Sherman–Morrison, dans des cas où on inverse la matrice, perturbe l'inverse, puis ré-inverse ; mais je lui a même pas donné les nom des formules relevantes, j'ai juste dit "ça ressemble à une double inversion").
- (sur un projet perso, pas au taf) Il pense à faire le genre de modif qu'on oublie de préciser à l'avance, puis auxquelle on pense parfois à l'implémentation, type "bon je programme telle checkbox et fais sa logique... Tiens au fait, quand on fait tel truc qui n'a rien à voir, il faut décocher la checkbox si elle est cochée parce que si l'utilisateur fait ça c'est qu'il ne veut pas cette checkbox à son prochain calcul".
- ... je pense que j'en oublie.
Bref, je suis passé d'un taf de conception/implémentation à "manager un stagiaire ia surdoué".
J'en ai profité pour prendre le même programme chez moi pour faire un projet perso... Qui me dépasse complètement (un truc où j'ai aucune des compétences nécessaires, autre que "je sais programmer"). Et donc, ben le projet avance vraiment vite. Pour donné un ordre de grandeur, en moins de deux heures on a fait la gui web locale (donc serveur, page, interactions...), ce qui m'aurait pris au bas mot deux semaines (me renseigner sur ce qui existe, tester, commencer à implémenter, débugger... Sur mon temps libre par ailleurs, donc pas 35h/semaine). En moins de deux ou trois soirées j'ai une base complète utilisable.
Bref, c'est une chose de savoir que de tels outils existeront/existent, c'en est une autre de voir à quel point ils sont déjà performants et à quel point on se retrouve pratiquement inutile à juste faire quelques vérifications et demander à l'ia les différents choix possibles.
Pour remettre en perspective, ChatGPT est sorti il y a un peu plus de 3 ans (30 novembre 2022). Et c'était de la merde (facile à faire halluciner, réponse pas du tout fiable, etc), quoi que vraiment impressionnant à l'époque de parler à un bot en langage naturel. Quand je dis que dans 5 ans je suis au chômage, il y a moins d'écart entre la merde qu'était chatGPT et l'agent qui programme à ma place maintenant, qu'entre maintenant et dans 5 ans : je ne vois pas comment quiconque peut avoir la moindre idée de ce que feront les ia conversationnelles dans 5 ans.
Je ne vois pas comment notre économie pourrait résister à cette lame de fond. A mon taf on voulait engager des spécialistes en applications web et des spécialistes ia pour certains projets, sachant qu'on en a besoin et qu'on est tous nuls à chier dans ces domaines... pourquoi on ferait ça maintenant ? On est nuls à chier, mais largement assez bons pour comprendre ces trucs si on nous les explique, reviewer les codes, etc : largement assez bons pour manager des ia le faisant. On est même probablement trop nombreux pour ces tâches.
Et mon taf, sans être au niveau d'un taf de recherche, est déjà technique : comprendre une problématique réelle, tenter de la translater en maths (compatible avec notre solution), étudier ces maths, conception de pseudo-code, implémentation. Si votre job est moins technique...
De l'autre côté il y a des points positifs : si je voulais je suis sûr que je pourrais programmer mon propre agent conversationnel d'aide à la programmation, en me faisant aider au départ par l'agent qu'on utilise au taf, et des modèles open-source que j'estime fiable. Et donc me libérer des agents conversationnel payants. Quand je vois à quel point j'avance vite sur mon projet perso où je n'y connais rien, rien ne me semble inaccessible.
On parle d'agent conversationnels en langage naturel, donc les trucs payant sont baisés : impossible de faire des outils propriétaires avec des problèmes de compatibilités et tout, le propre du langage naturel est d'être compatible avec tout (... ce qui parle la même langue). N'importe qui me semble maintenant pouvoir programmer, pour peu qu'il soit un peu prudent (qu'il prenne un agent conversationnel qu'il estime fiable et qu'il insiste sans cesse pour pas avoir de problème de sécurité). J'ai l'impression qu'à terme, les gafam sont mortes, parce que les méthodes de monopole ne peuvent pas fonctionner ici, et si tout le monde peut programmer ses propres outils... Et j'ai pas précisé, mais sur mon projet perso il a transformé un fichier texte où j'avais mis des données en vrac (un pense-bête en somme) en .json cohérent : vous avez même pas à connaître les formats de donnés généralement utilisés pour assurer la compatibilité avec d'autres trucs, vous faites votre propre format et le jour venu vous dites "rends-moi ça compatible avec ceci".
Bref, j'ai tendance à y voir globalement du positif. Sauf que l'économie... Je vois pas comment elle gère un changement si brusque si vite. Je parle de
pratiquement tous les jobs "intellectuels" qui vont disparaitre dans moins de 10 ans : pas besoin d'un cabinet d'avocat, juste d'un avocat qui manage une ia qui va chercher les textes et jurisprudences et fais une base de plaidoirie et écrit les brouillons de mail et... etc, pour toute la partie de votre tafs qui demande de compiler et traiter des données, pas besoin de personnel (estimation d'un bien immobilier, répondre aux mails des vendeurs et acheteurs, gérer l'emploi du temps des visites en prenant en compte les temps de trajets ? -> ia. Faire un premier diagnostic médical et prévoir les analyses complémentaires pour affiner ? -> ia. Programmer l'ia répondant à vos besoins ? -> ia. etc).
Un système économique un peu intelligent gèrerait (autant d'"utilité" est fournie pour bien moins de travail ? Pas de problème, ce qui es produit est toujours fourni aux consommateurs comme avant, on réduit le temps de travail et on améliore les conditions de travail, et on ré-affecte certains travailleur - il n'y a pas de raison que seuls les travailleurs dans les services en profitent quand on peut aussi améliorer les conditions de travail des agriculteurs en leur octroyant des travailleurs qui ne sont plus nécessaire dans les services et en en profitant pour rendre ces travail moins pénibles et plus désirables) (ma parenthèse est très "mécaniste" avoir les travailleurs comme ressource de age of empire, mais vous voyez l'idée générale) ; mais le système capitaliste ??? J'ai envie de dire "lol", mais c'est un lol très sombre et amer. Au lieu du paradis on va avoir l'enfer...
EDIT : REMARQUE SUR LE SUJET : je souhaiterais qu'on exclut toute conversation sur "la destruction de l'humanité par les IA"/la singularité/comment être sûr de contrôler les ia... Bref, sur ce sujet on est dans le monde des bisounours où les ia sont fiables, gentilles, honnêtes etc. Et j'ai déjà l'impression que ça nous mène droit à des horribles dystopies, c'est là -dessus que j'aimerais l'avis de gens compétents et moins compétents.