Simulacre et incarnation
Async
Bienvenue sur IA-Pulse Weekend. Cette édition porte le numéro 142. En vous abonnant, vous recevez tous les samedis matin, l’essentiel de ce qu’il s’est passé cette semaine autour de l’IA : un coup de gueule édito, une sélection de 3 actualités avec pour chacune un résumé rapide à lire, plus 1 article de fond pour ouvrir l’esprit et réfléchir et 1 podcast à écouter. Gérez votre abonnement.
⏱️Temps de lecture de cette newsletter par une unité carbone : 10 mins
Des phrases qui s’enchaînent, des “donc”, des “cependant” et des “alors” bien placés, trois ou quatre ou cinquante nuances hors cadre, quelques précautions cosmétiques pour la forme mais déclamées avec force pour -se- rassurer, et voilà, le raisonnement sonne comme il faut. Ça respire la maîtrise et ça rassure. Ça nous berce. Ou plutôt, ça nous éblouit comme une sorte de voix connue amicale et aimante, inspirée et enivrante, partageant des expériences communes et actuelles, qui connait déjà, elle, la fin d’un film qui se déroule hors du cadre.
Est-ce un raisonnement ou un effet de raisonnement ? La raison a-t-elle quelque chose de commun avec et dans ces moments ? Est-ce une cohérence de surface, une logique de salon, un monde où tout s’explique parce que tout s’écrit et parce tout est cadré comme il le faut ? Peu importe en fait, tout cela n’a aucune importance. Ce qui compte c’est de voir ces phrase s’enchainer dans le cadre prévu par le produit, par celui qui dicte et entraine dans le jeu qu’on a accepté de jouer sans en connaitre les conséquences à l’avance. Ces phrases, symboles d’une raison revendiquée comme lettrée, qui pourtant manquent d’expériences.
Les modèles monde défendus entre autres par Yann LeCun -je vous invite à écouter et regarder sa leçon inaugurale à l’École nationale des ponts et chaussée dont le lien est à la fin de cette édition- sont-ils une réponse à ce manque d’expérience ? Sont-ils le Common Ground, le terrain d’entente entre nos algorithmes cadrés et le Vrai -s’il existe- ? Ce Vrai qui a tellement mauvais caractère, qui n’est pas seulement et exclusivement une propriété des mots qui s’enchainent en phrases, et des phrases qui s’enchainent en paragraphes. Ce Vrai navigant continuellement entre cadre et hors cadre. Ce frottement entre ce qu’on pense, ce qu’on se dit à soi-même, ce qu’on dit aux autres, ce qu’on fait, et ce qui -nous- résiste. Ce décalage cadre/hors cadre qui nous fait confondre l’élégance d’un raisonnement ou d’un échange calculé par une machine et parfois même par un de nos semblables, avec l’épreuve du réel partagé sur un moment ou sur la longueur.
Notre parole c’est celle qui accepte d’avoir un corps responsable et traçable. Le reste, c’est du texte. Et on le sait, toi et moi, le texte peut tout faire. Même nous faire croire qu’on tient quelque chose ou que l’on tient à quelque chose. Andata.
Cette semaine la partie de cette newsletter gérée par l’IA, les 3 clusters d’articles, a été générée par ChatGPT 5.2 Thinking Heavy pour les résumés des articles sources, ainsi que la génération des clusters et des titres. Comme d’habitude j’ai fait quelques modifications, mais j’ai aussi laissé quelques tournures typiques des modèles de langage. Et bien entendu, mes commentaires éventuels sont en italique dans ces résumés. Le texte de “l’article qui fait réfléchir” est issu de Claude Opus 4.5 .
L’image d’illustration ci-dessous a été générée par Nano Banana Pro
📰 Les 3 infos de la semaine
🤑 Monétiser la conversation : les premiers contours d’une stratégie pub chez OpenAI
OpenAI travaille à l’introduction de publicités dans ChatGPT, en essayant de séparer clairement le cœur du produit et la logique publicitaire : l’idée est d’ajouter des systèmes dédiés capables de détecter l’intention commerciale d’une conversation, puis d’afficher des contenus sponsorisés pertinents, par exemple lors d’une demande de recommandation produit.
Plusieurs formats ont été explorés en interne : insertion d’éléments sponsorisés dans la réponse, affichage dans une colonne latérale, et présence d’un marquage explicite indiquant que certains résultats sont sponsorisés -à l’ouest rien de nouveau. Un autre scénario vise à retarder l’apparition de la publicité : la première réponse resterait neutre, puis une action de l’utilisateur (clic, demande de détails, comparaison) déclencherait un module sponsorisé -à ça c’est déjà plus original, mais un peu tendu pour les annonceurs : mais qui va garder les enfants va payer cher pour ça ?
Le sujet reste sensible -un peu plus même, parce que la monétisation ne doit pas casser la relation de confiance -sic- ni donner le sentiment que l’historique de conversation sert à “pousser” des réponses. Le contexte économique explique néanmoins l’exploration de solutions publicitaires : près de 900 millions d’utilisateurs actifs hebdomadaires, une base payante limitée (environ 5%), et des projections de monétisation des utilisateurs gratuits qui monteraient d’environ 2 $ par an dès l’an prochain. En parallèle, la part des requêtes utilisateurs liées à des produits achetables reste faible (2,1% en juin), d’où l’accélération des fonctions shopping (paiement intégré, recommandations, partenariats marchands, collecte de données catalogue) et l’intérêt déjà visible des marques, malgré le très peu d’informations concrètes et fiables disponibles.
Pourquoi est-ce important ? Bien entendu, si la publicité entre dans les réponses conversationnelles de ChatGPT, elle va déplacer l’équilibre entre utilité et confiance, et bousculé le modèle économique de l’assistant jusque là revendiqué par Altman et ses équipes. Et pourtant pendant qu’OpenAI se désespère, de son coté Google après avoir intégré des annonces dans les résultats d’AI Overviews et AI Mode au Etats-Unis, déploie ce système d’annonces dans une dizaine de pays dans le monde, uniquement à travers AI Overviews pour le moment.
Pour aller plus loin : The Information, Search Engine Roundtable
🏭 Nvidia choisit Groq face à la pression sur l’inférence
Nvidia a signé un accord de licence avec Groq autour d’une partie de sa technologie, et a recruté plusieurs dirigeants et ingénieurs clés de l’entreprise. Autrement dit : Nvidia ne rachète pas Groq, mais récupère des briques techniques et des personnes stratégiques. Groq, de son côté, continue d’exister et de vendre ses propres services (notamment GroqCloud), avec une nouvelle direction.
Pourquoi cet intérêt ? Parce qu’une grande partie de l’usage de l’IA ne se joue pas seulement à “entraîner” des modèles, mais à les faire tourner au quotidien pour répondre vite et à grande échelle : c’est l’inférence (générer une réponse, classer, résumer, assister un agent, etc.). Groq s’est fait connaître sur ce terrain, en visant une exécution très rapide et stable sur certains modèles.
Pour Nvidia, l’enjeu est double : renforcer son offre pour les charges d’inférence (latence, coûts, efficacité), et sécuriser des alternatives techniques dans un contexte où la mémoire très haut débit utilisée par beaucoup de GPU est un point de tension industriel. La forme “licence + recrutements” évite aussi la lourdeur d’un rachat complet -et les regards accusateurs des régulateurs.
Pourquoi est-ce important ? Nvidia a-t-elle senti le souffle du TPU sur sa nuque ?
Pour aller plus loin : CNBC, WSJ, The Information
🔨 Orchestrer plusieurs agents : une bonne idée… seulement si la tâche s’y prête
Une étude menée par des chercheurs de Google et du MIT met à l’épreuve une croyance devenue courante : “plus d’agents = meilleures performances”. Cette étude compare, à budget de calcul équivalent, un agent unique et plusieurs architectures multi-agents (indépendants, centralisés avec orchestrateur, décentralisés, hybrides) sur des tâches de cas d’usage professionnels. Un point important de l’étude est la distinction entre tâches “statiques” et tâches réellement “agentiques”, c’est-à-dire nécessitant des interactions itératives, des outils, et une adaptation au fil de l’exécution.
Le résultat est net : ajouter des agents peut produire de gros gains jusqu’à +80% sur des tâches décomposables et parallélisables, mais peut aussi dégrader fortement la performance jusqu’à –70% sur des tâches très séquentielles. Un seuil pratique apparaît : quand un agent unique dépasse 45% de réussite sur une tâche complexe, l’ajout d’autres agents apporte souvent peu, voire devient un handicap, il vaut mieux travailler et optimiser l’agent unique.
La coordination des différents agents a un coût mesurable : fragmentation du contexte quand on répartit le budget entre agents, surcoût d’échanges, et propagation d’erreurs. Sur des environnements riches en outils, au-delà de 10, les systèmes multi-agents subissent un handicap d’efficacité.
Enfin, la topologie compte : des agents indépendants amplifient fortement les erreurs, là où un orchestrateur les contient, et les tailles de systèmes efficaces restent aujourd’hui de composer de petites équipes d’agents, autour de 3 ou 4, car le coût de coordination croit d’une manière exponentielle avec leur nombre.
Des pistes existent (communication plus parcimonieuse, hiérarchies, asynchronisme, routage selon capacités), mais, en l’état, la recommandation opérationnelle est simple : tester d’abord un agent unique, n’ajouter des agents que si la tâche se découpe réellement, et choisir la coordination en fonction du risque d’erreur et du nombre d’outils.
Pourquoi est-ce important ? Avec les agents comme dans d’autres domaines, il faut se méfier du “plus” quantitatif.
Pour aller plus loin : VentureBeat, 🧠Towards a Science of Scaling Agent Systems
🚀 10 infos en plus
Even the Companies Making Humanoid Robots Think They’re Overhyped (WSJ)
Google was at risk of losing its dominance — until it promoted this AI executive (CNBC)
The Class Where ‘Screenagers’ Train to Navigate Social Media and A.I. (NYT)
China Is Worried AI Threatens Party Rule—and Is Trying to Tame It (WSJ)
Microsoft’s Nadella Pressures Deputies to Accelerate Copilot Improvements (The Information)
OpenAI says AI browsers may always be vulnerable to prompt injection attacks (TechCrunch) - nan, sans blague…
OpenAI Is Getting More Efficient at Running Its AI, Internal Financials Show (The Information)
Italy tells Meta to suspend its policy that bans rival AI chatbots from WhatsApp (TechCrunch)
While everyone talks about an AI bubble, Salesforce quietly added 6,000 enterprise customers in 3 months (VentureBeat)
🛠️ Des outils, des tutos et des modèles à tester
📺 Don’t Build Agents, Build Skills Instead – Barry Zhang & Mahesh Murag, Anthropic
How I Built Lightning-Fast Vector Search for Legal Documents
How we built a multi-agent system for superior business forecasting
Google Maps : Grounding Lite
How AI coding agents work—and what to remember if you use them
⭐LM Studio : How to fine-tune FunctionGemma and run it locally
🧠 L’article qui fait réfléchir - et qu’il faut absolument lire
La beauté de l’inutile
“I didn’t want to control myself. I wanted to let the music be.”
Personne ne rêve d’additionner des colonnes. Aucun enfant ne s’endort en imaginant des tableaux de données bien ordonnés. Et pourtant, c’est précisément là qu’on conduit les esprits neufs lorsqu’ils découvrent le code. On les conduit vers l’arithmétique besogneuse, vers le problème à résoudre, vers l’efficacité mesurable. Étrange choix.
Étrange aveu - surtout. Car cette obsession de l’utile immédiat révèle notre difficulté collective à concevoir la technique autrement que comme un outil servile. On domestique le code avant même de l’avoir laissé courir. On lui assigne des tâches de bureau alors qu’il pourrait peindre des aurores boréales, sculpter des sons impossibles, faire danser des géométries vivantes.
Le malentendu est ancien. Il remonte peut-être à cette fracture entre les arts et les sciences, à cette idée tenace que la rigueur exclut la fantaisie, que la machine appartient aux ingénieurs et la beauté aux artistes. Mais le code se moque de ces frontières. Il est simultanément langage logique et matière plastique, contrainte formelle et espace d’improvisation. Une partition qu’on exécute et qu’on compose dans le même geste.
Ceux qui ont découvert cette double nature parlent souvent d’une révélation. Le moment où l’écran a cessé d’afficher des chiffres pour faire apparaître une forme, un mouvement, une surprise. Le moment où le programme est devenu œuvre.
Pourquoi réserver cette épiphanie aux autodidactes obstinés, à ceux qui auront survécu aux exercices rébarbatifs pour découvrir, par accident, que leur clavier ouvrait sur l’infini ? Il faudrait inverser l’ordre des priorités. Donner et offrir en premier le vertige, la liberté du geste gratuit, l’émerveillement de créer sans justification et sans cadre. L’utilité vient naturellement après… elle vient toujours.
📻 Le podcast de la semaine
Yann Le Cun - Apprentissage profond et au-delà : les nouveaux défis de l’IA
Dans cette leçon inaugurale des 1ère année de l’École nationale des ponts et chaussée, Yann LeCun décrit l'IA comme une révolution comparable à l'imprimerie. Après avoir expliqué le Deep Learning, il critique l'incapacité des LLM à raisonner. Il propose l'architecture JEPA : des « modèles du monde » abstraits permettant à la machine de planifier pour atteindre le niveau humain.
N’hésitez à me contacter si vous avez des remarques et suggestions sur cette newsletter, ou si dans votre entreprise vous cherchez à être accompagnés dans l’intégration d’outils IA et d’IA générative : olivier@255hex.ai
Partagez cette newsletter
Et si vous n’êtes pas abonné, il ne tient qu’à vous de le faire !
“Generally, I dislike the process of making music based on a blueprint or purpose or aim. If I was an architect, I would be a bad one, because I don’t like having blueprints. Of course, without blueprints, nobody knows what the building will be. But that’s exactly what I like to do. I shouldn’t know what I’m making, or what it will be. I want to make something I don’t know, and that I’ve never done or never known. Hopefully, for me, it’s going to be a surprise, and a new experience.” Ryuichi Sakamoto, 2017
Bon weekend



