Alignement, renforcement et redressement
You don't know my kind, Dark necessities are part of my design
Bienvenue sur IA-Pulse Weekend. Cette édition porte le numéro 140. En vous abonnant, vous recevez tous les samedis matin, l’essentiel de ce qu’il s’est passé cette semaine autour de l’IA : un coup de gueule édito, une sélection de 3 actualités avec pour chacune un résumé rapide à lire, plus 1 article de fond pour ouvrir l’esprit et réfléchir et 1 podcast à écouter. Gérez votre abonnement.
⏱️Temps de lecture de cette newsletter par une unité carbone : 9 mins
Il a fallu une bonne dizaine de jours après le lancement -très médiatisé- d’un “code rouge” chez OpenAI, dont on parlait ici la semaine dernière, pour qu’il fasse son premier effet : la sortie -précipitée ?- de GPT 5.2.
On ne saura probablement jamais si cette version intermédiaire -non ce n’est pas une version majeure, contrairement à Gemini 3- était déjà bien avancée et/ou prévue pour sortir un peu plus tard avec peut-être d’autres fonctionnalité -multimodales par exemple- mais le résultat est là : un modèle qui cartonne dans tous les benchmarks, et qui reprend la première place devant ses concurrents directs. C’est beau. C’est presque magique. Maintenant il nous reste à voir si 5.2 est dans l’usage quotidien bien à la hauteur des résultats obtenus sur le papier. Les bench et les usages réels des humains sont des choses bien différentes. L’optimisation pour les résultats des uns, n’entraine pas obligatoirement l’optimisation pour les résultats des autres.
Cette semaine, c’est aussi la sortie d’une nouvelle version de la fonctionnalité “Deep Research” de Gemini. Disponible uniquement en version API actuellement, c’est le premier exemple d’agent disponible avec “Interactions API”, que les développeurs peuvent utiliser et embarquer -voir plus bas dans les liens de cette édition. Et contrairement à ce qu’on peut lire ça et là, non ce n’est pas une “réponse” de Google à la sortie de GPT 5.2… On ne compare pas un modèle avec ce type d’agent, d’interface ou de fonctionnalité, cela n’a rien à voir et n’a aucun sens. Et Google ne livre probablement pas aux développeurs un tel système sur un coup de tête “marketing”.
Enfin cette semaine, c’est aussi une -bonne- surprise avec la sortie de Devstral 2 et Mistral Vibe CLI -là aussi, voir plus bas dans les liens. Mistral livre un nouveau modèle open dédié au développement et au code, ainsi qu’une interface native. Pour celles et ceux qui le peuvent, je vous encourage à tester : c’est gratuit pour le moment.
Cette semaine la partie de cette newsletter gérée par l’IA, les 3 clusters d’articles, a été générée par ChatGPT 5.2 Thinking Standard pour les résumés des articles sources, ainsi que la génération des clusters et des titres. Comme d’habitude j’ai fait quelques modifications, mais j’ai aussi laissé quelques tournures typiques des modèles de langage. Et bien entendu, mes commentaires éventuels sont en italique dans ces résumés. Le texte de “l’article qui fait réfléchir” est issu de ChatGPT 5.2 Pro Extended Thinking.
L’image d’illustration ci-dessous a été générée par Midjourney et modifiée par Nano Banana Pro
📰 Les 3 infos de la semaine
🚀 Standardiser l’ère agentique
Les systèmes d’IA évoluent rapidement, passant de simples interfaces conversationnelles à des logiciels capables d’agir : consulter des données, déclencher des actions, dialoguer avec d’autres systèmes. Cette évolution pose un problème immédiat : comment permettre à ces agents de fonctionner ensemble sans multiplier les intégrations spécifiques, fragiles et coûteuses ?
Une réponse commence à émerger avec la mise en place d’un cadre commun pour les agents IA. Plusieurs grands acteurs technologiques, dont Anthropic, OpenAI et Google, se sont accordés pour mutualiser des briques techniques existantes : un protocole permettant aux agents d’accéder aux outils et aux données (MCP), un format décrivant le comportement attendu d’agents de développement (Agents md), et un framework d’agent exécutable localement (Goose). Ces éléments ne sont pas nouveaux, mais leur gouvernance change : ils passent sous l’égide d’une structure indépendante chargée d’assurer leur évolution ouverte et collective.
L’objectif est double. D’un côté, faciliter l’interopérabilité : un agent doit pouvoir se connecter à des services variés sans que chaque entreprise réinvente ses propres règles. De l’autre, renforcer la sécurité et la fiabilité, notamment face aux risques de détournement, d’accès non maîtrisé aux données ou d’attaques par manipulation de contexte.
Cette logique rappelle les fondations techniques qui ont permis l’essor du web : des standards imparfaits, mais suffisamment partagés pour créer un écosystème cohérent.
Pourquoi est-ce important ? Sans règles communes le web et Internet tels que nous les connaissons n’auraient jamais exister de cette manière. Est-ce que ces règles communes pour l’IA joueront le même rôle ? Rendez-vous dans 30 ans.
Pour aller plus loin : The Information, TechCrunch, The Verge, Wired
🤑 Disney face à l’IA de la Silicon Valley : pactiser et poursuivre
Disney a franchi un seuil symbolique cette semaine en investissant 1 milliard de dollars dans OpenAI tout en lui accordant des droits d’utilisation sur une partie de son catalogue de personnages. L’accord permet aux utilisateurs de Sora de créer de courtes vidéos mettant en scène des figures très identifiables, dans un cadre contractuel strict : limitations thématiques, absence de voix ou de traits d’acteurs, et contrôle éditorial sur une sélection de contenus diffusés sur une plateforme de streaming.
Cette ouverture contraste fortement avec la stratégie adoptée vis-à-vis d’autres acteurs du secteur. En parallèle de cet investissement, le groupe a engagé une série d’actions juridiques contre Google accusé d’exploiter ses œuvres sans autorisation, notamment via ses générateurs d’images et de vidéos. La ligne de fracture est claire : coopération encadrée avec certains partenaires, confrontation frontale avec ceux jugés récalcitrants.
Sur le fond, le débat se déplace. Les discussions portent moins actuellement sur l’entraînement des modèles que sur leurs résultats : ce que les systèmes produisent effectivement à partir des requêtes des utilisateurs -les outputs. Les détenteurs de droits cherchent à reprendre la main sur ces usages, conscients qu’il est difficile, voire impossible, d’empêcher totalement la reproduction implicite de personnages connus.
Pourquoi est-ce important ? Cet accord va-t-il servir de modèle de coexistence entre IA grand public et propriété intellectuelle des grands studios d’Hollywood, avec une économie basée sur les licences et le contrôle des outputs ? La guerre totale contre tous les acteurs de l’IA sans distinction, peut-être jugée sans réelle issue par certains, laisse place à des accords one-to-one. Les géants d’Hollywood ne sont pas les premiers à prendre ce chemin.
Pour aller plus loin : WSJ (1), WSJ (2), Wired, The Verge, Variety
🪩 Disco de Google : naviguer, assembler, générer
Google lance, via Google Labs, un navigateur expérimental nommé Disco -basé sur Chromium- dont la première idée forte s’appelle GenTabs : au lieu d’empiler des dizaines d’onglets, l’utilisateur peut obtenir une mini-application interactive générée à la volée par Gemini 3, à partir des onglets ouverts et de l’historique de chat.
En clair, plutôt que d’accumuler des onglets, la navigateur observe l’activité de l’utilisateur et suggère la création d’interfaces interactives adaptées à la tâche en cours : planifier un voyage, organiser des informations d’étude, comparer des options ou visualiser un concept. Ces interfaces sont générées à la demande, à partir du contenu consulté et d’instructions formulées en langage naturel.
Le principe repose sur une interaction continue entre pages web classiques et applications générées. Les sources restent visibles, accessibles et modifiables, tandis que l’outil synthétise les informations sous forme de cartes, de calendriers, de tableaux ou de visualisations. L’utilisateur peut affiner le résultat progressivement, en ajoutant de nouvelles pages ou en ajustant ses consignes.
Cette approche ne cherche pas à remplacer le web existant -dixit Google, mais à le réorganiser temporairement autour d’un objectif précis. Elle introduit une forme de collaboration entre l’utilisateur et le système : l’IA propose, l’utilisateur complète, corrige ou enrichit. L’expérience pose néanmoins plusieurs questions ouvertes : ces applications sont-elles temporaires ou partageables ? Peuvent-elles devenir des objets durables ? Où s’arrêtent le navigateur et l’outil de productivité ?
Pour le moment l’accès est réservé aux utilisateurs US, uniquement sur Mac et après inscription sur liste d’attente.
Pourquoi est-ce important ? Ce navigateur est le premier à reposer sur les principes du Generative UI dont on parlé ici il y a quelques semaines. Les grands modèles d’IA loin de se contenter de générer du langage sont en train de changer radicalement les interactions et les interfaces humains-machines, créant de nouvelles façons d’accéder à l’information.
Pour aller plus loin : 9to5google, The Verge, TechCrunch
🚀 10 infos en plus
Perplexity : How People Use AI Agents (Perplexity)
Anthropic : How enterprises are building AI agents in 2026 (Anthropic)
Microsoft : The Copilot Usage Report 2025 (Microsoft)
OpenAI : The state of enterprise AI (OpenAI)
Google is testing AI-powered article overviews on select publications’ Google News pages (TechCrunch)
Adobe brings Photoshop, Express, and Acrobat features to ChatGPT (TechCrunch)
Enterprise Agents Have a Reliability Problem (dbreunig)
A.I. Videos Have Flooded Social Media. No One Was Ready (NYT)
🧠FACTS Benchmark Suite: Systematically evaluating the factuality of large language models (Google DeepMind)
DeepSeek is Using Banned Nvidia Chips in Race to Build Next Model (The Information)
🛠️ Des outils, des tutos et des modèles à tester
Devstral 2 et Mistral Vibe CLI - Docs - Infos & infos & infos
GPT 5.2 - System Card - Infos
🔥A Googler explains how to “meta prompt” for incredible Veo videos
🧠 How attention actually works : An interactive walkthrough of the mechanism behind modern LLMs
🔥Building with Gemini 3, AI Studio, Antigravity, and Nano Banana
Interactions API: A unified foundation for models and agents
🧠 L’article qui fait réfléchir - et qu’il faut absolument lire
How human-AI interaction becomes more creative
”The darkness helps us all to shine, Do you want it, do you want it now?”
On s’imagine souvent qu’associer un esprit humain à une intelligence générative suffit à démultiplier l’inventivité. Or la créativité partagée ressemble moins à une étincelle automatique qu’à une compétence qui s’apprend. Répéter des séances de co‑idéation ne garantit rien si l’on se contente d’empiler des propositions. L’abondance peut même devenir un brouillard : on produit davantage, sans produire mieux, et l’on confond vitesse et profondeur.
Ce qui fait réellement grandir l’originalité, c’est la mise en tension des idées : questionner, contredire, combiner, préciser, reformuler. La valeur naît d’un va‑et‑vient où l’humain apporte contexte, jugement, sens et responsabilité, tandis que la machine offre variations, associations inattendues et endurance. La collaboration devient alors une chorégraphie évolutive : chacun ajuste sa part d’initiative, de critique et de révision, jusqu’à trouver un équilibre fécond.
Pour y parvenir, il aide de découper le travail créatif en activités distinctes — exploration, tri, argumentation, amélioration, mise en forme — et d’attribuer à chaque étape le bon niveau de participation. Plutôt qu’un choix binaire entre délégation totale et assistance vague, on obtient une palette de réglages finement pilotés.
Cette perspective invite à repenser les outils et les organisations. Les interfaces devraient soutenir des boucles de rétroaction, pousser à justifier un choix, provoquer la contradiction, conserver la mémoire des versions et des décisions. Côté management, former à l’art de dialoguer avec une IA — formuler une intention, demander une évaluation exigeante, exiger des alternatives, itérer — devient un levier de qualité.
Reste enfin une question : comment mesurer la créativité sans se laisser séduire par le volume ?
📻 Le podcast de la semaine
IA et psy : divan mon écran
Face à la montée des chatbots utilisés comme confidents ou soutiens psychologiques, l’émission analyse les risques de dépendance affective et d’impact sur la santé mentale, avec l’éclairage croisé d’une philosophe de l’IA et d’un psychiatre.
N’hésitez à me contacter si vous avez des remarques et suggestions sur cette newsletter, ou si dans votre entreprise vous cherchez à être accompagnés dans l’intégration d’outils IA et d’IA générative : olivier@255hex.ai
Partagez cette newsletter
Et si vous n’êtes pas abonné, il ne tient qu’à vous de le faire !
“People often overestimate what will happen in the next two years and underestimate what will happen in ten.” Bill Gates, 1996, “The Road Ahead”
Bon weekend




merci pour la partie agentique ! Je me suis permise de rebondir dessus .