L'échafaud(age)
Le Logiciel est mort ! Vive le Logiciel !
Bienvenue sur IA-Pulse Weekend. Cette édition porte le numéro 148. En vous abonnant, vous recevez tous les samedis matin, l’essentiel de ce qu’il s’est passé cette semaine autour de l’IA : un coup de gueule édito, une sélection de 3 actualités avec pour chacune un résumé rapide à lire, plus 1 article de fond pour ouvrir l’esprit et réfléchir et 1 podcast à écouter. Gérez votre abonnement.
⏱️Temps de lecture de cette newsletter par une unité carbone : 10 mins
Après avoir fait et dit n’importe quoi autour d’un assistant pas entièrement autonome, mais réel cauchemar de sécurité, et d’un réseau social synthétique où la marque des humains est au final bien plus présente que la légende en construction voulait bien l’avouer, nous pouvons nous remettre à travailler de manière sereine…
Ah en fait, non… Car cette semaine nous avons assisté à la fin du “Software”, voire même ultra pire, la fin du “Software As A Service”. Oh rien que ça. Des milliards de capitalisation boursière disparus -s’ils avaient déjà réellement existés-, des paniques incontrôlables sur les réseaux sociaux, etc. Tout ça à cause de 2 démos d'agents IA, et quelques plugins pour Cowork. On est peu de choses. Et le raisonnement est simple : si une “IA” peut automatiser un flux complet de travail, pourquoi payer un abonnement à un logiciel spécialisé ? Comme dirait l’autre, c’est pas faux et c’est séduisant en plus. Trop peut-être, car depuis 30 ans on annonce régulièrement la fin du logiciel. Et à chaque fois, il y a eu plus de logiciels après qu'avant, et pas moins.
C'est probablement ce qui va encore se passer. Non pas parce que les agents IA ne marchent pas, ils fonctionnent -avec beaucoup beaucoup beaucoup de supervision- mais parce que la demande actuelle de logiciels n'est même pas proche d'être satisfaite. Pensez à ce qu'était la banque en 1995 -bonjour les vieux. Et pensez à celle d’aujourd'hui : les options, fonctionnalités et services disponibles sont mille fois plus nombreux, et du coup il faut mille fois plus de logiciels pour les faire tourner.
Ce qu’on appelle “IA” ne va pas réduire cette complexité, elle risque bien de l'augmenter au contraire. Chaque domaine qui a tremblé cette semaine, juridique, médical, industriel, financier, va devenir encore plus sophistiqué, pas moins. Pourquoi ? Parce que les professionnels auront de meilleurs outils, et leurs clients aussi. Les banquiers de la fin des années 80 pensaient que le tableur allait leur permettre de déléguer le travail ennuyeux à quelques stagiaires. Dix ans plus tard, savoir construire un modèle financier sur tableur était devenu le minimum pour être embauché. “L'IA” risque bien de reproduire un schéma similaire.
En revanche ce qui va certainement changer, c'est la position du logiciel dans la chaîne de valeur. Les modèles d'IA eux-mêmes vont devenir des commodités, et la valeur ira aux entreprises qui construisent les “échafaudages” d'applications -scaffolding et scaffold vont devenir les mots de ce premier semestre- : c’est à dire les outils qui connectent ces modèles aux données et aux processus réels des clients. Autrement dit, du logiciel et du SaaS. Juste un étage plus haut dans la pile. D’ailleurs en cette fin de semaine, Microsoft a réagi à la sortie de Cowork en se demandant non pas comment s'en protéger, mais comment intégrer ce type d'agents dans ses propres produits. Quand votre supposé fossoyeur devient un composant de votre écosystème, c'est généralement signe que l'enterrement est, une fois de plus, prématuré.
Oui, certaines boites ne survivront pas. Oui, les éditeurs dont la seule “valeur ajoutée” est de stocker des données dans un formulaire en ligne vont avoir un problème. Et ça vaut pour tous les domaines et industries. Mais le nombre de processus et d'expériences dans le travail et la vie quotidienne qui n'ont pas encore été transformés par le logiciel est infiniment supérieur à ceux qui l'ont déjà été. Demain, il va y avoir plus de logiciels, pas moins. Plus de complexité, pas moins. Plus de compétences métier requises, pas moins.
La panique boursière de cette semaine repose donc sur l'idée que les agents IA vont remplacer les logiciels, et principalement les logiciels d'entreprise. Alors que chaque vague technologique précédente a produit l'effet inverse : plus de logiciels, plus de complexité, plus de spécialisation. Les entreprises qui ont disparu ne sont pas celles qui utilisaient du “Software”, mais celles qui ont cru qu'elles pouvaient s'en passer.
Comme vous allez pouvoir le constater dans la suite de cette édition, Claude et moi-même nous nous sommes amusés à tenter de reproduire le style et le ton un peu “moqueur” que j’emploie généralement en commentaires ou dans certains éditos. Techniquement, j’ai employé un “skill” -ou compétence en français- qui a été généré automatiquement à partir d’un “apprentissage” sur des exemples. J’ai utilisé le “Self-Learning Skill” de Philipp Schmid -voir plus bas dans les outils de la semaine- que j’ai modifié pour l’adapter d’un travail sur la documentation technique à un travail éditorial. J’aurais bien sûr pu faire ce skill édito directement, mais la démarche m’a amusé.
A noter que le meilleur des classifieurs commerciaux de textes IA/Humain actuel, j’ai nommé Pangram, classe les textes générés ainsi, la partie Actus de cette édition, comme des textes humains…
Cette semaine la partie de cette newsletter gérée par l’IA, les 3 clusters d’articles, a été générée par Claude Opus 4.6 + skill pour les résumés des sources, ainsi que la génération des clusters et des titres. Comme d’habitude j’ai fait quelques modifications, mais j’ai aussi laissé quelques tournures typiques des modèles de langage. Et bien entendu, mes commentaires éventuels sont en italique dans ces résumés. Le texte de “l’article qui fait réfléchir” est issu de Claude Opus 4.6. L’image d’illustration ci-dessous a été générée par Midjourney
📰 Les 3 infos de la semaine
🧑💼 L'industrie de l'IA a trouvé le métier du futur : manager de robots qui font des erreurs
Cette semaine, Anthropic et OpenAI ont lancé simultanément des produits bâtis sur la même promesse : au lieu de discuter avec un assistant IA, vous devriez diriger des équipes d’agents qui se répartissent le travail et tournent en parallèle - ah tiens on déjà vu la semaine dernière aussi, mais en version moins secure... Chez Anthropic, la fonctionnalité « agent teams » dans Claude Code permet de lancer plusieurs agents qui découpent une tâche, se coordonnent et avancent chacun de leur côté. L’écran ressemble à un terminal multi-fenêtres où le développeur navigue entre les agents avec Shift+Up/Down, reprend la main sur l’un pendant que les autres continuent. Chez OpenAI, on a fait de même avec Codex App, et on ajouté Frontier qui va plus loin dans la métaphore : chaque agent a son identité, ses permissions, sa mémoire, et se connecte aux CRM, outils de ticketing et entrepôts de données de l’entreprise. « Ce que nous faisons, c’est transformer les agents en véritables collègues IA », explique Barret Zoph, directeur général B2B d’OpenAI, sans que personne dans la salle ne semble avoir trouvé ça inquiétant.
Le problème, c’est que personne n’a démontré que ça marche mieux qu’un développeur seul. Aucune évaluation indépendante ne confirme la supériorité de ces systèmes multi-agents, et l’intervention humaine reste constante pour rattraper les erreurs. Qu’importe : Scott White, responsable produit entreprise chez Anthropic, a déjà trouvé le nom du phénomène. Après le « vibe coding », voici le « vibe working ». On attend le « vibe firing » pour compléter le tableau.
Pourquoi c’est important ? On a passé des décennies à se plaindre du middle management, et la grande idée de l'industrie de l'IA en 2026, c'est de transformer tout le monde en middle manager — sauf que cette fois, les subordonnés sont des modèles statistiques qui peuvent halluciner en silence pendant que vous regardez un autre écran -ah bravo Claude !
Pour aller plus loin : Ars Technica, WSJ, VentureBeat, Simon Willison, Anthropic, OpenAI
📆 5 février : Anthropic et OpenAI sortent chacun un modèle, et les benchmarks n'ont pas survécu à la journée
Les 2 autres propositions de titres de Claude Opus 4.6 skillé :
- Opus 4.6 contre GPT-5.3-Codex : la guerre des chiffres que personne ne sait vérifier
- Le jour où l’IA a appris à « participer à sa propre création » (et où il a fallu décoder ce que ça veut dire)
Le 5 février, Anthropic et OpenAI ont décidé de sortir chacun un nouveau modèle le même jour, parce qu’apparemment la concurrence dans l’IA se joue désormais à l’heure près. Côté Anthropic, Claude Opus 4.6 arrive avec une fenêtre de contexte d’un million de tokens en bêta — concrètement, le modèle peut ingérer et raisonner sur des volumes de code ou de texte que ses prédécesseurs auraient oubliés en route. Sur un benchmark de récupération d’information en contexte long (MRCR v2), Opus 4.6 obtient 76 %, contre 18,5 % pour Sonnet 4.5. Anthropic appelle ça résoudre le problème du « context rot », la dégradation des performances à mesure que la conversation s’allonge. Le modèle supporte aussi des sorties de 128 000 tokens et introduit un système de « pensée adaptative » où il décide lui-même quand raisonner plus profondément. Il est même devenu tellement capable qu’Anthropic recommande de baisser son niveau d’effort pour les tâches simples — on en est donc au stade où il faut apprendre à l’IA à réfléchir moins.
En face, OpenAI a riposté avec GPT-5.3-Codex, qui reprend la tête sur Terminal-Bench 2.0 avec 77,3 % contre environ 65 % pour Opus 4.6. OpenAI affirme que le modèle a été « instrumental dans sa propre création », ce qui, décortiqué, signifie qu’il a servi à déboguer son entraînement et gérer son déploiement — pas qu’il s’est engendré lui-même. L’ambition affichée va au-delà du code : Codex doit couvrir « tout le cycle de vie du logiciel » — débogage, déploiement, monitoring, rédaction de spécifications, tests. OpenAI promet aussi 25 % de vitesse en plus, et annonce que l’étape d’après, c’est de faire de Codex un outil qui « opère un ordinateur de bout en bout ». Ce qu’Anthropic a commencé à faire avec Cowork il y a quelques semaines. On tourne en rond, mais de plus en plus vite.
Pourquoi c'est important ? En l'espace de 72 heures, les deux entreprises les plus valorisées de l'IA ont chacune sorti un modèle qui prétend coder, déboguer et se déployer quasi seul — et le principal sujet de débat technique reste de savoir lequel obtient le meilleur score sur un benchmark que personne en dehors de l'industrie n'a jamais entendu nommer.
Pour aller plus loin : VentureBeat, Ars Technica, OpenAI, Anthropic
⏺️ Mistral sort un modèle vocal qui tourne sur un téléphone — et qui coûte moins cher qu'un café
Pendant qu’Anthropic et OpenAI se battent à coups de milliards pour construire des modèles toujours plus gros, Mistral a choisi la direction opposée : faire plus petit, plus rapide, et surtout plus local. La startup parisienne a lancé Voxtral Transcribe 2, deux modèles de transcription audio. Voxtral Mini Transcribe V2 traite les fichiers en lot avec, selon l’entreprise, le taux d’erreur le plus bas du marché, à 0,003 dollar la minute — soit cinq fois moins cher que la concurrence. Voxtral Realtime fait de la transcription en temps réel avec une latence de 200 millisecondes, dix fois plus rapide que le dernier modèle de Google. Ce dernier est publié sous licence Apache 2.0, téléchargeable librement sur Hugging Face.
Le point central, c’est la taille : 4 milliards de paramètres. Assez léger pour tourner sur un téléphone ou un ordinateur portable, sans envoyer la moindre donnée vers un serveur distant. Pour un hôpital qui transcrit des consultations ou une banque qui enregistre des appels de conseil, c’est un argument qui pèse bien plus qu’un score de benchmark.
Le problème de la transcription en entreprise, ce n’est pas seulement la précision et la confidentialité — c’est que votre outil de prise de notes actuel capte la musique d’ambiance, la conversation de la table d’à côté, et hallucine joyeusement à partir du bruit de la machine à café. Mistral dit avoir passé un temps considérable à régler ces problèmes dans les données d’entraînement, et a ajouté un système de « context biasing » : on donne au modèle une liste de termes spécialisés et il oriente sa transcription en conséquence, sans réentraînement. Pratique quand vos techniciens crient des noms de pièces que personne d’autre au monde ne sait épeler.
Pourquoi est-ce important ? Pendant que les géants américains empilent les GPU pour entraîner des modèles toujours plus massifs, Mistral sort un modèle de 4 milliards de paramètres qui tourne sur un téléphone, coûte un cinquième du prix de la concurrence, et mise sur le fait que les entreprises préféreront toujours un modèle un peu moins puissant qui garde leurs données sur place à un modèle spectaculaire qui les envoie sur un serveur à l’autre bout du monde.
Pour aller plus loin : Wired, VentureBeat, Mistral
🚀 9 lectures en plus
In Silicon Valley, A Priest and the Thinking Machines (The Information)
What You Need to Know About the AI Models Rattling Markets (WSJ)
AI Overviews Reduce Clicks by 58% (Ahrefs)
Amazon plans to use AI to speed up TV and film production (Reuters)
Claude has been having a moment — can it keep it up? (The Verge)
OpenAI Is Hiring Hundreds of AI Consultants to Boost Enterprise Sales (The Information)
This is the most misunderstood graph in AI (MIT Technology Review)
Microsoft Sales Chief Responds to Potential Rivalry with OpenAI’s New Agent Product (The Information)
🛠️ Des outils, des tutos et des modèles à tester
PaperBanana: Automating Academic Illustration for AI Scientists
Perplexity : Introducing Model Council
GABRIEL (Generalized Attribute Based Ratings Information Extraction Library) : A toolkit for social scientists and data scientists to measure quantitative attributes in text, images, or audio using the GPT API
Build intelligent employee onboarding with Gemini Enterprise
Reverse Engineering Your Software Architecture with Claude Code to Help Claude Code
🚨🚨🚨 Self-Learning Skill : Autonomous skill generator that enables AI agents to learn new technologies from the web
🧠 L’article qui fait réfléchir - et qu’il faut absolument lire
How AI agents can redefine universal design to increase accessibility
“L’information utile dépend de ce que tu peux faire avec tes limites : temps, calcul, énergie”
L’architecture numérique est en train de changer de logique sous nos yeux. Pendant des décennies, on a cherché à créer des interfaces qui fonctionnent pour tout le monde de la même manière. Mais cette approche montre ses limites : nous sommes tous différents, nos corps le sont, nos esprits aussi, et nos besoins ne se ressemblent pas. L’idée qui émerge aujourd’hui, c’est celle d’environnements qui s’ajustent à chaque personne, qui épousent nos singularités plutôt que de nous forcer à nous adapter. L’accessibilité ne devrait plus être une rustine qu’on colle après coup sur des systèmes pensés sans nous, mais le principe organisateur, le cœur battant de toute conception.
Les outils d’intelligence artificielle capables de comprendre simultanément la voix, l’image et le texte ouvrent des possibilités inédites. Ces systèmes peuvent maintenir une mémoire du contexte, se souvenir de ce qui vient de se passer, déléguer intelligemment certaines tâches à des modules spécialisés, et transformer notre relation aux machines en quelque chose de plus fluide, presque conversationnel. L’interface cesse d’être un simple outil qu’on manipule maladroitement : elle devient un partenaire qui comprend ce qu’on fait et anticipe nos besoins.
Concrètement, ça donne un assistant qui se souvient du trajet qu’on vient de parcourir et peut nous dire précisément où se trouvait cet arrêt de bus croisé il y a cinq minutes. Un lecteur vidéo qu’on peut interroger sur les détails d’une scène, comme on questionnerait un ami. Une plateforme d’apprentissage qui s’ajuste en temps réel à nos préférences sensorielles et cognitives, créant un parcours unique pour chacun.
Ce qui trouble, ce n’est peut-être pas tant le risque d’aliénation que la vitesse à laquelle ces systèmes deviennent invisibles. On s’habitue vite au confort. Et puis il y a cette question bizarre : si la technologie s’adapte parfaitement à moi -du calme Claude, est-ce que je deviens meilleur pour autant ? Ou juste mieux assisté ? La différence n’est pas anodine, même si personne ne sait vraiment ce qu’elle signifie.
📻 Le podcast de la semaine
Lobby : l’IA prend la grosse tech
Tout est dans le titre.
N’hésitez à me contacter si vous avez des remarques et suggestions sur cette newsletter, ou si dans votre entreprise vous cherchez à être accompagnés dans l’intégration d’outils IA et d’IA générative : olivier@255hex.ai
Partagez cette newsletter
Et si vous n’êtes pas abonné, il ne tient qu’à vous de le faire !
“Like Claude Code, Codex is really a general agent harness disguised as a tool for programmers” Simon Willison
Bon weekend !



