Colossale
L’autonomie construite sur la dépendance
Bienvenue sur IA-Pulse Weekend. Cette édition porte le numéro 161. En vous abonnant, vous recevez tous les samedis matin, l’essentiel de ce qu’il s’est passé cette semaine autour de l’IA : un coup de gueule édito, une sélection de 3 actualités avec pour chacune un résumé rapide à lire, plus 1 article de fond pour ouvrir l’esprit et réfléchir et 1 podcast à écouter. Gérez votre abonnement.
⏱️Temps de lecture de cette newsletter par une unité carbone : 9 mins
Cette semaine Anthropic a signé un deal avec SpaceX/xAI : toute la puissance de calcul du mega-datacenter Colossus 1, plus de 220 000 puces Nvidia, va être dédiée uniquement à l’entreprise et à son modèle Claude. Anthropic a pu annoncer au passage, grâce à ce deal, pouvoir relever les limites d’utilisations pour tous les abonnés à Claude. Un soulagement pour certains utilisateurs. On passera sur les questions éthiques, si chères à Dario le boss d’Anthropic, et d’image que posent cet accord : le “compute” est un besoin vital. D’ailleurs, quelques jours avant, Anthropic avait déjà annoncé un deal de même nature, pour combler son besoin de “compute”, mais cette fois avec Google. Un deal estimé à 200 milliards de dollars sur 5 ans.
Le site The Information évalue que les contrats impliquant Anthropic et OpenAI représentent désormais plus de la moitié des 2 000 milliards de dollars de commandes en attente chez les principaux fournisseurs de services cloud : Google, Microsoft, Amazon, Oracle et maintenant SpaceX/xAI - pour ne parler que des plus gros… Toute l’industrie du Cloud semble dépendante des projets de 2 “start-ups” qui brûlent, et brûlent, et brûlent encore de l’argent. Argent, dont une partie est fournie par cette même industrie qui vend de la puissance de calcul.
Ce besoin de puissance ne va théoriquement pas disparaitre de si tôt. Tous les acteurs de l’IA se sont lancés, ou se lancent, dans la conquête d’un marché qui fait rêver depuis que la Science Fiction en à fait un de ses thèmes fétiches. Et plus récemment depuis qu’un développeur en a fait une réalité dans son coin avec OpenClaw : le marché de l’assistant personnel à tout faire disponible H24.
Les vendeurs de pelles, ceux qui fabriquent la majorité des puces utilisées pour calculer et inférer, Nvidia et Google, sont heureux. Les utilisateurs, que nous sommes, sont éblouis au sens premier du terme. Le “compute” est devenu une drogue dure. Jusqu’à quand ?
Et pendant ce temps, le procès qui oppose Musk à Altman et OpenAI, nous renvoie une image bien humaine de toute cette industrie : une suite de personnages mesquins venant témoigner et dire “leur vérité”. Des gens qui s’aiment ou se sont aimés par intérêt, puis qui se détestent ou se sont détestés par intérêt, ou inversement. Rien que de très humain - toutes ressemblances avec d’autres procès plus proches de nous n’est pas fortuite. Au final, quelle que soit son issue, ce procès ne va pas changer grand chose aux fondements de cette industrie. Tout au plus, quelques milliards changeront de mains.
Cette semaine la partie de cette newsletter gérée par l’IA, les 3 clusters d’articles, a été générée par ChatGPT-5.5 Instant pour les résumés des sources, ainsi que la génération des clusters et des titres. Comme d’habitude j’ai fait quelques modifications, mais j’ai aussi laissé quelques tournures typiques des modèles de langage. Et bien entendu, mes commentaires éventuels sont en italique dans ces résumés. Le texte de “l’article qui fait réfléchir” est issu de ChatGPT-5.5 Instant . L’image d’illustration ci-dessous a été générée par Midjourney
📰 Les 3 infos de la semaine
🎈 Les IA commencent à faire des débriefs entre elles pendant la nuit
Cette semaine, lors de sa conférence pour les développeurs, Anthropic a annoncé ajouter une nouvelle couche aux agents basés sur Claude : une capacité baptisée « dreaming », qui consiste à revisiter régulièrement les sessions passées pour identifier ce qui mérite d’être conservé en mémoire. L’idée n’est pas de modifier le modèle lui-même, mais d’analyser les comportements, les erreurs récurrentes, les méthodes efficaces ou les habitudes de travail qui émergent au fil du temps. Ces informations sont ensuite transformées en notes structurées ou en « playbooks » réutilisables par les agents lors de futures tâches.
Cette approche vise un problème très concret : les agents IA perdent rapidement de l’information dans les projets longs ou complexes. Anthropic cherche donc à créer une boucle d’amélioration continue où plusieurs agents peuvent apprendre collectivement de leurs expériences passées. L’entreprise présente cela comme un moyen d’améliorer la fiabilité des systèmes multi-agents utilisés dans des contextes professionnels.
Lors d’une démonstration, des agents chargés de piloter des drones fictifs sur la Lune ont amélioré leurs performances après une session de « dreaming » effectuée pendant la nuit. Anthropic insiste aussi sur un point : tout reste observable et auditable par des humains. Les agents écrivent simplement des mémoires textuelles qu’un développeur peut inspecter.
Pourquoi est-ce important ? “Dreaming" : terme (non)technique, certainement pas choisi au hasard, désignant le fait de relire ses instructions, ses résultats et ses propres fichiers logs pour en tirer des leçons. Chez les humains, on appelle ça une rétro ou un post-mortem. Chacun ses obsessions. Sinon OpenClaw et les autres pratiquent les rêves depuis quelques mois maintenant. Sont-ils devenus si meilleurs ?
Pour aller plus loin : Ars Technica, Business Insider, VentureBeat, VentureBeat (2), Anthropic
🤹 Avec Remy dans la famille, Gemini pourrait devenir un agent personnel permanent
Google teste actuellement un nouvel agent IA nommé « Remy », intégré à une version expérimentale de Gemini réservée à ses employés. Le projet est décrit comme un « agent personnel 24/7 » capable d’agir au nom de l’utilisateur, de surveiller certains événements importants, d’automatiser des tâches complexes et d’apprendre progressivement ses préférences.
L’objectif est clair : dépasser le chatbot conversationnel classique pour transformer Gemini en véritable assistant autonome. Remy pourrait s’intégrer à Gmail, Google Calendar, Google Docs, Drive, Keep ou encore Android afin de gérer des rendez-vous, répondre à des messages, résumer des emails ou coordonner des workflows sans intervention constante.
Le point de référence implicite est OpenClaw, le projet open source qui a semé un léger chaos dans l’industrie cette année. OpenClaw peut manipuler un ordinateur presque comme un humain : cliquer, chercher, répondre, lancer des tâches. Suffisant pour provoquer une hystérie sur GitHub et ailleurs.
Google semble vouloir reprendre cette idée dans une version plus intégrée et plus contrôlée. Le projet est encore en phase de test mais beaucoup s’attendent à voir apparaître des démonstrations lors de la prochaine conférence Google I/O.
Pourquoi est-ce important ? Un peu comme Anthropic, OpenAI, Meta -voir avant et après dans cette édition-, Google se lance dans le développement d’un assistant/agent/compagnon IA à tout faire. Les geeks restent de grands fans de SF.
Pour aller plus loin : Business Insider, Digital Trends
🏪 Meta veut des agents IA, mais pas n’importe lesquels
Meta développe actuellement un agent IA baptisé « Hatch », directement inspiré d’OpenClaw -et un de plus…-. L’objectif : créer un assistant autonome capable d’effectuer des tâches concrètes pour les utilisateurs, tout en étant beaucoup plus simple à utiliser que les systèmes bricolés par les technophiles aujourd’hui.
Pour entraîner Hatch, Meta utilise des environnements web simulés reproduisant des plateformes comme Etsy, Reddit, DoorDash ou Outlook. Le système apprend à naviguer, cliquer, rechercher, remplir des tâches et gérer des workflows. Meta travaille aussi sur la mémoire de l’agent -lui aussi va rêver ?-, sa capacité à prendre des initiatives et sa gestion des outils externes.
En parallèle, Meta prépare un outil de shopping agentique intégré à Instagram. L’idée est qu’un utilisateur puisse cliquer sur un produit vu dans un Reel ou un post, obtenir des informations supplémentaires puis finaliser l’achat directement depuis l’interface. Cette stratégie s’inscrit dans la volonté de Mark Zuckerberg de transformer les agents IA en nouvelle interface centrale du web, aussi bien pour le travail que pour le commerce.
Le tout se déroule alors même que Meta fait face à des problèmes de sécurité internes liés à ses propres agents. Un système utilisé par les employés aurait récemment donné des instructions erronées ayant exposé des données sensibles à des personnes non autorisées. Pendant ce temps, Zuckerberg continue d’augmenter massivement les dépenses IA du groupe, jusqu’à 145 milliards de dollars cette année.
Pourquoi est-ce important ? Finalement le plus étrange c’est peut-être que toute l’industrie de la tech semble désormais considérer tout à fait normal de construire des logiciels agents auxquels on devrait plus ou moins progressivement déléguer nos clics, nos recherches, nos achats, une partie de notre attention et surtout nos intentions. Et le pire, c’est que nous allons déléguer tout ça sans aucun problème. Si, si.
Pour aller plus loin : The Information, FT
🚀 6 lectures en plus
OpenAI brings GPT-5-class reasoning to real-time voice — and it changes what voice agents can actually orchestrate (VentureBeat)
EU hits snooze on AI Act rules after industry backlash (The Register)
Netflix has its own, impressive AI-powered voice search (The Verge)
Miami startup Subquadratic claims 1,000x AI efficiency gain with SubQ model; researchers demand independent proof (VentureBeat)
Anthropic Inks Deal to Use All of SpaceX’s Colossus 1 Compute Capacity (WSJ)
Google making links in AI Mode and AI Overviews a bit more direct (9to5google)
🛠️ Des outils, des tutos et des modèles à tester
🚨 Open Design : The open-source alternative to Claude Design
GPT‑5.5 Instant: smarter, clearer, and more personalized - infos
GPT‑Realtime‑2, GPT‑Realtime‑Translate, GPT‑Realtime‑Whisper : Advancing voice intelligence with new models in the API
Kyutai Pocket TTS now supports six languages
How Agents Manage Other Agents: Four Subagents Patterns in 2026
Sakana Fugu: A Multi-Agent Orchestration System as a Foundation Model - infos
The app store for robots has arrived: Hugging Face launches open-source Reachy Mini App Store with 200+ apps
Collaborate with Claude across Excel, PowerPoint, Word and Outlook
🧠 L’article qui fait réfléchir - et qu’il faut absolument lire
What Jobs Can AI Learn? Measuring Exposure by Reinforcement Learning
“Oh, what have you done?”
Depuis deux ans, tout le monde regarde les mêmes métiers avec la même angoisse : rédacteurs, développeurs, consultants, analystes. Normal. Ce sont eux qu’on voit discuter avec ChatGPT ou Claude toute la journée. Alors on s’est raconté une histoire simple : plus un métier manipule du texte, plus il est menacé.
Pourtant, on regarde peut-être au mauvais endroit.
Le vrai sujet n’est pas seulement “est-ce que l’IA sait parler ?”. Le vrai sujet, c’est : “est-ce qu’une machine peut apprendre cette tâche en boucle avec des essais, des erreurs et un score de réussite ?”
Et là, la carte change complètement.
Des métiers qu’on imaginait relativement protégés deviennent soudain très exposés : supervision ferroviaire, contrôle industriel, opérations techniques, gestion de flux, monitoring. Pourquoi ? Parce que ces métiers ressemblent à des jeux vidéo pour machines. Il y a des règles. Des tableaux de bord. Des signaux. Des objectifs mesurables. Un système peut essayer, échouer, recommencer et progresser.
À l’inverse, certains métiers intellectuels résistent davantage que prévu. Pas parce que les modèles sont incapables d’écrire ou de conseiller. Mais parce qu’il est très difficile de dire objectivement ce qu’est “une bonne décision”, “une bonne stratégie” ou “une bonne œuvre créative”. Une IA peut générer mille réponses. Elle ne sait pas forcément laquelle compte vraiment.
Le truc presque absurde, c’est que les métiers qui semblaient les plus modernes — écrire, brainstormer, produire des idées — ne sont pas toujours les plus faciles à transformer en boucle d’apprentissage automatisée. Pendant ce temps, des métiers techniques beaucoup moins médiatisés deviennent des terrains d’entraînement idéaux pour l’IA.
Autrement dit : le futur de l’automatisation ressemble peut-être moins à un robot écrivain qu’à un stagiaire obsessionnel branché sur des tableaux de contrôle.
📻 Le podcast de la semaine
Andrej Karpathy: From Vibe Coding to Agentic Engineering
Attention quand le Prophète parle, on l’écoute - enfin gardez votre libre-arbitre hein…
N’hésitez à me contacter si vous avez des remarques et suggestions sur cette newsletter, ou si dans votre entreprise vous cherchez à être accompagnés dans l’intégration d’outils IA et d’IA générative : olivier@255hex.ai
Partagez cette newsletter
Et si vous n’êtes pas abonné, il ne tient qu’à vous de le faire !
“Say hello to the lunatic men
Tell them your secrets
They're like the grave”



