Mon opinions sur l'IA

Il y a un tas d'adages qui sont des variations sur « les opinions c'est comme les trous du cul, tout le monde en a » suivi d'un jugement péjoratif sur leur pertinence ou le dégoût qu'elles devraient susciter. D'un autre côté, dans cette analogie un weblog est un recueil de planches anatomiques de proctologie, ce serait hypocrite de prétendre la surprise en trouvant mes opinions dans ces pages.

Je vais donc détailler ici les opinions que je tiens actuellement envers l'« intelligence artificielle », ou « IA ». C'est principalement destiné à mon seul public vraiment captif, à savoir moi‐du‐futur, mais n'hésitez pas à monter dans le wagon pour traverser avec moi cette attraction.

Je prends cette photo mentale maintenant parce que j'ai l'intuition (peut-être erronée) qu'on a passé l'apogée du cycle de la hype, et parce que je n'y ai pas encore été pleinement confrontée dans mon environnement professionnel immédiat et c'est sur le point de changer. Ce sont des choses qui sont susceptibles de faire évoluer les opinions développées ici ; je n'ai pas de raison particulière à préserver leur état actuel en particulier, en dehors de l'intuition que j'aurai peut-être un jour de comparer avec ce point de référence.

L'IA est un anti-concept

Je ne sais pas trop par où commencer cette explication, alors je vais partir de loin, désolée pour le rabâchage de trucs archi-connus (ou pas ?).

Il y a l'hypothèse de Sapir-Whorf, que je crois largement décrédibilisée aujourd'hui, selon laquelle la langue moule les représentations mentales, et influence ainsi la perception du monde. Sans ergoter sur le nombre de mots qui désignent une chose dans une langue ou sur les différents relativismes, il y a une version plus faible de l'énoncé qui me semble beaucoup plus convaincante, et je me demande pourquoi je ne l'ai jamais lue (est-ce évident, ou évidemment faux ?) :

Les concepts sont des outils de la pensée, en ce qu'ils permettent de rassembler des choses par leurs points communs, de différencier des choses par leurs points de divergence, et de relier utilement des choses entre elles. Avoir un certain concept dans sa boîte à outils mentale permet de s'en servir, et éventuellement de percevoir des points communs ou des divergences ou des relations qui seraient passées inaperçues autrement.

Il me semble que la valeur d'un concept se réduit complètement à son utilité, comme pour tous les outils. Le concept de personnes noires a probablement une utilité en dermatologie, par exemple quand il s'agit de choisir des longueurs d'onde de laser ; mais il est contre-productif (en l'occurrence, raciste) quand il s'agit de juger un être humain.

Depuis plusieurs mois, je range l'expression « intelligence artificielle », avec ses abréviations et ses traductions, parmi les concepts néfastes, dont l'utilité est négative, ou les « anti-concepts » qui gênent les activités mentales au lieu de les aider.

D'une part parce que ça désigne trop de choses qui sont trop différentes. Il y a autant de rapport entre AlphaFold et ChatGPT qu'entre un groupe électrogène et une voiture électrique, et les détails techniques qu'ils ont en commun sont d'un intérêt mineur par rapport à leur utilisation et à leur place dans le quotidien et dans la société.

D'autre part, parce que c'est un terme qui est le moteur d'une mode et la base d'un cycle de hype. Un peu comme la loi de Gresham et le marché des citrons, les utilisations hypées voire arnaqueuses chassent les utilisations légitimes, d'autant plus rapidement qu'il y a peu d'utilisations légitimes utiles pour commencer.

Résultat, depuis plusieurs mois, voire plus d'un an, j'utilise comme définition de travail pour « intelligence artificielle » quelque chose comme « mot-clé indéfini à la mode pour faire bien », qui représente soit une technique précise que le locuteur maîtrise mais passe sous silence pour abrutir son discours, soit une pensée magique qui ne s'assume pas, et le locuteur peut en être sincèrement convaincu ou juste chercher à escroquer son interlocuteur.

Dans tous ces cas, je veux rester loin de tout ça, et par précaution je préfère rester loin de tout ce qui utilise ces mots.

Réciproquement, je n'utilise moi-même plus ces mots au premier degré, et s'il m'arrive de ne pas prendre le temps de marquer les scare quotes, je n'emploie ces mots qu'en citant quelqu'un d'autre qui les a choisis et pour les méta-discussions comme le présent billet.

J'invite ainsi tous les gens qui veulent être pris au sérieux quand ils s'adressent à moi à éviter complètement ces mots. Ce n'est pas tellement plus long de dire « chatbot » ou « classifieur » ou « générateur », et c'est beaucoup plus utile à la communication.

Les LLM sont une technologie incomplète

J'ai l'impression que c'est une opinion controversée qui va m'attirer des ennuis, mais pour moi c'est évident qu'un LLM ne peut être qu'un composant logiciel qui fait des choses en rapport avec le langage.

J'entends bien qu'il peut y avoir des comportements émergents, comme la connaissance indirectement stockée dans le modèle d'une langue, ou comme la « réflexion » qui se ferait en parlant. Je ne dis pas non plus qu'ils sont complètement inutiles, ou qu'il y a pas de bénéfice qu'on peut en tirer dès aujourd'hui. Je n'arrive juste à croire que les LLM soient la meilleure façon d'obtenir ces comportements.

Je m'attends sérieusement à ce que le progrès logiciel fasse émerger d'autres composants qui remplissent ces fonctions avec de meilleurs résultats pour un coût moindre, et le modèle de langage (de taille adaptée à la situation) serait relégué aux fonctions en rapport avec une langue.

De la même façon, j'ai du mal à partager l'enthousiasme pour les générateurs de code, parce que les langages de programmation sont avant tout des outils destinés à l'utilisation par des humains. Je ne peux pas croire qu'un langage de programmation fait pour des humains soit le meilleur intermédiaire entre un LLM et un compilateur, et je ne conçois pas l'avenir du “vibe coding” autrement qu'avec le modèle de langage en front-end d'un compilateur. Ça me semble aussi idiot de générer du python ou du Go que personne ne va regarder, que de demander à un compilateur de générer un fichier assembleur avant de l'assembler et le lier.

Je peux imaginer que dans certains environnements (que ce soit en fonction de la nature du projet ou du caractère des intervenants) on puisse vouloir garder un humain dans la boucle, entre les générateurs opaques et une chaîne de compilation plus déterministe et validée. Et pour ces cas aussi, il me semble beaucoup plus pertinent d'avoir un langage de description approprié, qui utilise éventuellement des primitives issues d'un langage de programmation tel qu'on le connaît aujourd'hui, un peu comme dans la méthode B. Et même dans ces cas, je me demande si un modèle en roue libre ne resterait pas inférieur à un modèle qui pilote un (ou plusieurs) autre composant, par exemple qui ressemblerait à un serveur LSP.

Tout ça pour dire je conviens qu'il y a des progrès époustouflants dans ce qu'un algorithme arrive à faire avec du texte écrit dans des langues humaines, mais on est encore loin du sérieux et de la maîtrise que j'attends de l'ingénierie, surtout quand on prend du recul sur le « oh là là, ce programme produit un résultat similaire à ce que j'aurais fait (ou ce qu'on me demande de faire) à la main » pour regarder les choses sous forme de système.

Sans prédire que le parallèle continue à la suite du film, j'ai l'impression qu'on est au début de l'Apprenti sorcier, tout contents de voir un balai porter des seaux à notre place, de la même façon qu'on le ferait, sans penser aux conséquences indirectes ni à pourquoi ont fait ce qu'on fait comme on le fait.

Les langues humaines sont une mauvaise interface

Depuis le succès des LLM, on voit fleurir des chatbots partout, et je ne peux m'empêcher d'y voir une catastrophe en termes d'expérience utilisateur.

Alors je sais que je ne suis pas du tout représentative de la plupart des utilisateurs, donc c'est peut-être juste un problème pour moi ou pour une minorité de gens comme moi. Je suis tentée de le lier à mon aphantasie et à mon habitude de manipuler des concepts sans les sérialiser dans une langue, qui sont deux traits qui m'ont l'air peu répandus.

D'un autre côté, je suis assez vieille pour avoir connu l'époque où on parlait de domotique plutôt que de smarthome, et les commandes vocales ont toujours fait partie des idées flashy qui marchent très mal au quotidien.

C'est vrai que l'expression dans une langue humaine est un des plus petits dénominateurs à peu près commun entre les humains, donc que ça donne une forme d'interface « grand public », mais c'est à peu près le seul intérêt que ça a.

Les langues humaines ont évolué pour la communication entre humains qui partagent un contexte commun.

Dans un jeu de situations relativement étroites, le contexte est suffisamment évident pour être fourni à une machine, et les tâches suffisamment limitées pour être confiées indifféremment à un outil ou à un congénère. Par exemple, la consultation d'une base de connaissances simples.

Dans tous les autres cas, la langue va atteindre ses limites. Les langages de programmation permettent de construire un contexte beaucoup plus précisément et efficacement qu'une langue humaine. Les outils informatiques font des actions inhumaines qui sont mal décrites sans un jargon ad-hoc qui s'insère mal dans une langue (par exemple, pas plus tard qu'hier j'ai grep un tas de documents pour échanger les matches des lignes qui en ont exactement deux, et je ne vais même pas essayer de décrire la regexp).

Les révolutions sont lentes

Là encore, j'ai le privilège de l'âge : j'ai grandi dans un monde sans télécommunications généralisées, et j'ai vécu l'arrivée des connexions permanentes ; un peu avant ça j'avais vécu l'arrivée des systèmes de routage et de géolocalisation ; et un peu plus tard j'ai vécu l'apparition des ordiphones et leur généralisation progressive. Je crois que j'ai une petite idée d'à quoi ressemble une révolution du quotidien.

Comme le disait si bien William Gibson, « le futur est déjà là, il n'est juste pas également réparti. » C'était bien le cas pour toutes les révolutions que j'ai connues : la nouveauté technique est d'abord un objet de niche, puis un objet de luxe, puis un effort de classe moyenne, avant d'être vraiment généralisé.

Et inversement, le passé est encore là, dans des poches plus ou moins larges. L'automobile a révolutionné le transport individuel, et pourtant il y a encore des gens qui montent à cheval. Les compilateurs et les optimiseurs ont révolutionné la programmation, mais en 2018 j'ai travaillé avec quelqu'un qui était payé pour écrire de l'assembleur.

La « révolution de l'IA » n'a pas du tout le même feeling, au moins à mes yeux.

Je ne sais pas exactement cerner pourquoi. J'ai l'impression que c'est construit à l'envers, en commençant par la masse, mais ça ne va pas embarquer les classes supérieures par imitation, du coup ça ressemble plus à une exploitation des classes inférieures. À partir de là, l'urgence de prendre le train de cette révolution sous peine d'être complètement largué a plus le goût de la fausse urgence créée par un arnaqueur pour contourner la rationalité de sa victime.

Dans les révolutions passées, je n'ai jamais été dans les early adopters. Je crois que c'était plus par hasard que par philosophie, donc il y a peut-être des morceaux de renard aux raisins là-dedans, mais je préfère attendre de voir comment les technologiques se stabilisent avant de voir à quel point je peux compter dessus, quels sont ses modes de défaillance, et ensuite de faire la démarche de l'intégrer à ma vie.

S'il y a vraiment une singularité qui accélère continuellement au point qu'on ne peut jamais la rattraper si on part trop tard, tant pis pour moi. Pour l'instant ça ne me donne pas vraiment cette impression.

Mon avenir professionnel est incertain

Ces jours-ci, je reçois un salaire pour faire du développement logiciel. Je ne considère pas cette situation professionnelle comme stable à long terme, mais c'était déjà le cas avant que le grand public soit impressionné par Stable Diffusion puis par ChatGPT.

Je ne trouve plus la référence de l'article dans lequel j'ai lu que l'ingénierie logicielle est surpayée, parce que les politiques délirantes des GAFAM tirent l'ensemble des salaires vers le haut, et dès que leur modèle s'arrête (que ce soit à cause de la fin des taux directeurs nuls ou à cause de l'« IA » ou à cause d'autre chose), il y aura une correction pour ramener ce métier au niveau des autres ingénieries. Je l'ai trouvé assez convainquant.

Encore avant, j'ai été sensible à l'argumentaire que la crise sanitaire du Covid, qui a largement montré à quoi ressemble le télétravail généralisé, a en même temps montré la faisabilité de l'externalisation mondiale. Et je ne suis pas du tout concurrentielle avec les Indiens les moins chers. Et que mon emploi soit remplacé par des Indiens pas cher ou par un agent dont la technologie sous-jacente importe peu, le résultat pour moi est le même.

Je n'ai pas trop de problème avec ça, parce que contrairement à une bonne proportion des développeurs que je côtoie, je n'ai absolument aucun engagement émotionnel dans cette activité. Je fais ça parce que je peux le faire et ça me permet d'avoir un salaire et donc de manger et de dormir au chaud et au sec.

Si demain ce métier disparaît, ou ne peut plus être exercé dans des conditions que je considère comme supportables, je chercherai autre chose à faire. Et ce sera d'autant plus facile que plus de gens sont impactés, je me vois plus facilement rejoindre une solution collective que me battre toute seule.

Je crois en mon adaptabilité (je crois même que c'est une caractéristique de pratiquement tous les humains qui s'en donnent la peine), et je ne considère pas mon confort professionnel et ma rémunération comme des dûs, mais comme des avantages contingents que j'apprécie avoir en ce moment.

(Presque) tout l'écosystème est hideux

Sur ce point je suis peut-être un peu trop influencée par mes expériences professionnelles très récentes, j'ai un peu trop tardé à finir ce billet, mais je crois que je tenais déjà ces opinions depuis plusieurs mois.

J'ai l'habitude du côté plutôt propre et contrôlée de l'ingénierie logicielle. C'est encore trop artisanal pour mon goût, et ma notion d'ingénierie est probablement idéalisée.

Et à chaque fois que j'ai fait un effort sérieux pour essayer « ces histoires d'IA », j'ai eu l'impression d'un tas d'excréments qu'on jette sur le mur jusqu'à y voir vaguement les formes que l'on cherche.

L'expression “vibe coding” s'est répandue pour désigner le code généré par LLM sans trop de surveillance, mais c'est exactement l'expression qui me vient à l'esprit pour décrire le bricolage branlant que je rencontre à chaque fois qu'il est question d'« IA ».

Je crois que je ne suis pas la seule à déplorer l'état de l'écosystème Python, et une partie de mes critiques les rejoignent. Mais ça va plus loin que ça, le flux de données entre un GPU nVidia et pytorch n'a aucun sens, les méta-paramètres sont ajustés au petit bonheur la chance, il n'y a aucune dimension physique ni aucun type, etc. Ça touille des nombres sans aucun contrôle, et si on se rate dans la cohérence de l'interprétation des colonnes il n'y a rien pour le remarquer.

Dans mes moments les plus optimistes, j'imagine que dans le secret des OpenAI, Anthropic, Google, Facebook, etc, il y a des vrais ingénieurs qui font des choses propres et qui comprennent ce qu'ils font, et ça a tellement de valeur que c'est gardé secret. Le reste du temps, je me demande ce que cette version alpha de maquette fout en dehors d'un laboratoire de recherche.

Je trouve ça tellement repoussant de bout en bout que je me demanderais si je ne suis pas biaisée par le sujet, sauf qu'il y a dans ce monde des îlots d'ingénierie qui m'ont l'air suffisamment propres pour mon goût (comme llama.cpp ou TextSynth server).

Je me rends compte que je suis peut-être un peu trop méchante dans cette section, mais je ne sais pas trop comment le décrire autrement. Ça reste de l'ordre du ressenti personnel, et pas du jugement de valeur. C'est‐à-dire que ce sont des raisons pour lesquelles je n'ai personnellement aucune envie de participer à la mise en œuvre de ces technologies, mais je salue le courage et l'intelligence de tous ceux qui travaillent là-dedans et font avancer cette technologie, c'est grâce à des gens comme eux que les technologies finissent par être accessibles à des gens comme moi.

Commentaires

Pas de commentaire pour le moment.

Poster un commentaire

Mise en forme historique : pour mettre en valeur un mot ou un groupe de mot, tapez une étoile de part et d'autre, sans mettre d'espace entre l'étoile et le mot, comme ceci : *mise en valeur*. Pour insérer un lien, mettez le entre crochets, comme ceci : [http://instinctive.eu/].

Mise en forme markdown : voir le guide détaillé, en résumé c'est le Markdown traditionnel, sans HTML ni titres, mais avec les tables PHP-Markdown-Extra.

Attention : les balises HTML entrées dans les commentaires seront affichées telles quelles, et non pas interprétées.

Autour de cette page

 

Autour de cet article

  • Publié le 31 janvier 2026 à 15h10
  • État de la bête : peu d'intelligence, mais naturelle
  • Pas de commentaire
  • Tag : Autoexploration
  • Tag : Évènement
  • Tag : Humeur

Derniers commentaires

Tags

Archives

Site-level navigation and features

 

Instinctive.eu

Contact

Sections

Validation

Copyright © 2008-2026 Natacha Kerensikova

Butterfly images are copyright © 2008 Shoofly