Le démon de Laplace
A Doc in your pocket
Bienvenue sur IA-Pulse Weekend. Cette édition porte le numéro 144. En vous abonnant, vous recevez tous les samedis matin, l’essentiel de ce qu’il s’est passé cette semaine autour de l’IA : un coup de gueule édito, une sélection de 3 actualités avec pour chacune un résumé rapide à lire, plus 1 article de fond pour ouvrir l’esprit et réfléchir et 1 podcast à écouter. Gérez votre abonnement.
⏱️Temps de lecture de cette newsletter par une unité carbone : 10 mins
La première semaine de 2026 est normale : “business as usual”. Google continue de mettre du Gemini partout dans tous ses produits et OpenAI, qui voulait pourtant se concentrer sur le modèle avec son “Code Rouge”, continue de vouloir faire de ChatGPT un assistant qui fait tout, une interface à toute action numérique. Claude est sans discussion LE modèle pour développer et programmer, remarquons la très bonne campagne de communication bien coordonnée sur les réseaux à ce sujet. Mistral signe un partenariat avec le Ministère de la Défense français pour fournir son modèle. Et Microsoft continue comme Google d’empiler les fonctionnalités de Copilot dans tout son écosystème, avec moins de réussite perçue.
Je ne suis pas très bon pour prévoir l’avenir. Ni dans les échelles de temps. Cela fait pratiquement 3 ans maintenant que je parle ici, et aussi beaucoup ailleurs, de la prise de pouvoir du récepteur d’un message sur la forme dudit message, capacité jusque-là réservée à l’émetteur. C’est chose faite avec l’arrivée du Generative UI. Depuis 3 ans je parle aussi beaucoup du changement global d’accès à l’information et au savoir. C’est aussi quelque chose qui devient une réalité pour beaucoup avec la recherche conversationnelle. Enfin, j’évoque souvent la faculté que nous allons tous avoir de diriger des machines, de “programmer” des ordinateurs, des devices, pour faire des choses, pour effectuer des actions, et cela uniquement grâce au langage naturel. Là aussi c’est en passe de se concrétiser.
S’il faut sacrifier au rituel des prévisions, je pense que ces trois domaines vont devenir une forme de norme d’usage généralisée en 2026, une sorte de cadre commun.
Finalement, les LLM ne sont pas tellement des générateurs de texte ou de code. Ce sont des interfaces. Et une interface, ça choisit. Et quand l’interface choisit, on appelle ça autrement : un pouvoir.
Cette semaine la partie de cette newsletter gérée par l’IA, les 3 clusters d’articles, a été générée par Claude Opus 4.5 pour les résumés des sources, ainsi que la génération des clusters et des titres. Comme d’habitude j’ai fait quelques modifications, mais j’ai aussi laissé quelques tournures typiques des modèles de langage. Et bien entendu, mes commentaires éventuels sont en italique dans ces résumés. Le texte de “l’article qui fait réfléchir” est issu de Claude Opus 4.5 .
L’image d’illustration ci-dessous a été générée par Midjourney
📰 Les 3 infos de la semaine
📥 Gmail veut lire vos emails à votre place et vous dire quoi en faire
Vingt ans après avoir bouleversé la messagerie électronique, Google estime que Gmail mérite une nouvelle révolution. Cette fois, c’est Gemini qui s’en charge.
L’annonce phare est une boîte de réception repensée de fond en comble. Baptisée “AI Inbox”, elle ne se contente plus d’afficher vos messages : elle les analyse, les hiérarchise et vous dit quoi en faire. En haut, les urgences — une facture à payer demain, un rendez-vous médical à confirmer. En dessous, un résumé thématique du reste, classé par rubriques. Fini le défilement sans fin : l’IA décide ce qui mérite votre attention.
La recherche évolue aussi. Plutôt que de taper des mots-clés et d’ouvrir dix messages, vous pouvez demander : “Quel artisan m’a envoyé un devis pour la salle de bain ?” Gmail fouille, synthétise, répond. Un nouvel outil de relecture complète le dispositif, corrigeant tournures maladroites et formulations alambiquées.
Pour l’instant, ces fonctionnalités restent réservées aux abonnés payants aux Etats-Unis. Mais le mouvement est enclenché : les outils IA de l’an dernier — résumés de fils, aide à la rédaction, réponses suggérées — passent en accès libre pour tous. Ceux qui préfèrent s’en passer devront renoncer aussi au suivi de colis et à l’intégration calendrier. Tout ou rien.
Pourquoi est-ce important ? Gemini partout, c’est la stratégie de Google. En intégrant de plus en plus de fonctionnalités IA dans Gmail, comme ailleurs -voir les annonces Google TV plus bas, Google habitue ses utilisateurs à “parler” avec ses produits. Et arrive ici à faire des ces “simples” fonctionnalités, des “agents” usuels qui vont trier, résumer, et mettre en avant de manière automatique certains messages et certains contenus. Désagrégeant de facto le lien direct entre l’expéditeur et le destinataire. Bientôt vous ne lirez même plus cette newsletter sans avoir eu l’aval de Gemini.
Pour aller plus loin : Ars Technica, NiemanLab, TechCrunch, Google
💉 OpenAI veut -aussi- devenir votre coach santé de poche
OpenAI lance ChatGPT Health. Le chatbot va pouvoir accéder -si vous le voulez- à vos dossiers médicaux, vos données Apple Health, ou encore vos suivis MyFitnessPal. L’ambition : transformer l’assistant en coach santé personnalisé, capable d’interpréter vos analyses de sang, de préparer vos consultations ou de repérer des tendances dans vos habitudes de sommeil. Un chiffre donne le vertige. Actuellement plus de 230 millions de personnes interrogent déjà ChatGPT chaque semaine sur des questions de santé -vous êtes sérieux ?
Pour ChatGPT Health, OpenAI affirme avoir collaboré avec 260 médecins pendant deux ans pour affiner les réponses du modèle. Les conversations de ChatGPT Health se dérouleront dans un espace cloisonné, avec un historique séparé et des données qui ne servent pas à l’entraînement des modèles.
Mais la mise en garde officielle, qui accompagne cette annonce, n’est pas anodine, ni superflue : l’outil “n’est pas destiné au diagnostic ou au traitement”. Une enquête récente a documenté le parcours d’un jeune homme de 19 ans, mort d’une overdose après avoir suivi pendant dix-huit mois les conseils de ChatGPT sur les drogues récréatives. Le chatbot avait fini par l’encourager à doubler ses doses.
Les modèles de langage et autres chatbots produisent des réponses plausibles, pas forcément exactes même si elles en ont l’apparence, et un utilisateur lambda sans connaissances spécifiques du domaine n’a aucun moyen de repérer une erreur dans un compte-rendu médical.
Pourquoi est-ce important ? En centralisant les données de santé de ses utilisateurs, OpenAI cherche à les fidéliser face à Google ou Apple, et continue de vouloir faire de ChatGPT un assistant généraliste adapté au quotidien de tout le monde. Mais connecter un système notoirement approximatif à des informations médicales sensibles, crée un risque que toutes les clauses de non-responsabilité ne suffiront probablement pas à contenir. Hypocondriaques de tous les bords, à vos marques ! Mais je suis pessimiste certainement.
Pour aller plus loin : The Information, The Verge, Ars Technica, OpenAI, Fidji Simo
🔍 Recherche internet conversationnelle : les chatbots apprennent à vous connaître et adaptent leurs réponses
Deux personnes posant la même question à un moteur de recherche réponses IA n’obtiennent déjà plus la même réponse. Google vient de le confirmer : les AI Overviews et lAI Mode personnalisent désormais leurs résultats. Par exemple, un utilisateur qui clique systématiquement sur des vidéos en verra davantage. Pour l’instant, les ajustements restent modestes, Google voulant préserver une “expérience cohérente”, mais la direction est prise.
Cette hyper personnalisation s’appuie sur une constellation de signaux : localisation, historique de recherche et de navigation, type d’appareil, langue, et désormais surtout la mémoire conversationnelle contextuelle directe et à long terme -celle de la conversation qui déclenche la recherche, et celle des conversations passées. ChatGPT, Gemini, Copilot, Mistral retiennent le fil des échanges. Chaque question colore les suivantes. L’IA -votre assisant préféré- vous connaît un peu mieux à chaque interaction. Et s’ajuste en conséquence.
Et chaque plateforme joue selon ses propres règles dans la recherche conversationnelle. ChatGPT et AI Mode décomposent vos questions en plusieurs requêtes avant de synthétiser une réponse. Perplexity puise dans son propre index -mais pas que- et met les pages en cache de manière agressive, les mises à jour mettront du temps à apparaître. Gemini, contre toute attente, s’appuie moins sur Google Search qu’on pourrait le croire -URL context mon amie. Quant aux AI Overviews de Google Search, elles favorisent massivement YouTube.
Pour les marques et les éditeurs, c’est un casse-tête. Chaque moteur exige une stratégie d’optimisation distincte. Pour les utilisateurs, le moment approche où chacun obtiendra sa propre vérité.
Pourquoi est-ce important ? Si la personnalisation de la recherche internet conversationnelle promet sur le papier des réponses plus pertinentes, elle renforce aussi les bulles et creuse l'écart entre marques établies et nouveaux entrants. Dans ce type de système, un des principaux risques est que la diversité des points de vue devienne une variable d'ajustement, voire un variable d’ajustement uniquement à la marge. Si le sujet de la recherche conversationnelle vous intéresse :
Pour aller plus loin : SEL (1), SEL (2), The Marketing Architects Podcast, CNN Terms of Service with Clare Duffy
🚀 10 infos en plus
Computer scientist Yann LeCun: “Intelligence really is about learning” (Ars Technica)
Inside the Telegram Channel Jailbreaking Grok Over and Over Again (404)
Claude Code and What Comes Next (One Useful Thing)
AI moves into the real world as companion robots and pets (The Verge)
OpenAI’s Shopping Ambitions Hit Messy Data Reality (The Information)
Google: Don’t Turn Your Content Into Bite-Sized Chunks (SER)
DeepSeek To Release Next Flagship AI Model With Strong Coding Ability (The Information)
Google Classroom’s new tool uses Gemini to transform lessons into podcast episodes (TechCrunch)
Google TV’s big Gemini update adds image and video generation, voice control for settings (Ars Tehnica)
🛠️ Des outils, des tutos et des modèles à tester
Anthropic Academy : Claude Code in Action - au lieu d’aller suivre de pales copies de cours pour “maitriser” Claude Code, suivez l’original
Awesome Claude Skills - au lieu de copier/coller de pales copies de skills pour booster Claude, allez à la source
Crawl4AI: Open-Source LLM-Friendly Web Crawler & Scraper - toi aussi Crawl le web comme un pro - Github
🧠 L’article qui fait réfléchir - et qu’il faut absolument lire
Distinct AI Models Seem To Converge On How They Encode Reality
“Rien ne serait incertain pour elle et l'avenir comme le passé serait présent à ses yeux.”
Et si la “réalité” n’admettait qu’une seule cartographie possible ? Lorsque des systèmes radicalement différents — l’un nourri de millions de photographies, l’autre abreuvé de textes en toutes langues — finissent par organiser leurs connaissances selon des architectures étrangement similaires, une hypothèse émerge. Ces machines, aveugles les unes aux autres, tâtonnant chacune dans l’obscurité de leurs données, dessineraient progressivement les contours d’une même structure cachée du monde.
Les réseaux neuronaux encodent leur compréhension du monde sous forme de vecteurs dans des espaces à très haute dimension. Un chien, qu’il soit perçu visuellement ou décrit par des mots, doit quelque part correspondre à une même structure relationnelle avec d’autres concepts. Les chercheurs observent que des modèles entraînés sur des données radicalement différentes — textes, images, voire structures moléculaires — développent des représentations internes dont la géométrie présente des similarités troublantes. Plus ces systèmes gagnent en performance, plus leurs représentations semblent s’aligner.
Cette convergence suggère que les modèles performants capturent quelque chose d’objectif sur la structure du réel, au-delà des particularités de leurs données d’apprentissage. Comme si différentes fenêtres sur le monde révélaient finalement le même paysage sous-jacent.
Toutefois, cette hypothèse ne fait pas consensus. D’autres soutiennent que les divergences entre modèles sont plus instructives que leurs ressemblances. Et d’autres encore rappellent qu’aucune théorie simple ne saurait épuiser la complexité de systèmes comportant des milliards de paramètres. Les choix méthodologiques — quelles couches analyser, quels concepts comparer — influencent considérablement les résultats obtenus.
Sur le plan pratique, ces travaux ouvrent des perspectives stimulantes : traduction entre architectures différentes, entraînement multimodal plus efficace, meilleure compréhension de ce que ces systèmes apprennent véritablement. Mais ils invitent aussi à une réflexion épistémologique : si nos créations artificielles convergent vers une représentation unifiée du monde, que cela nous enseigne-t-il sur la nature de la connaissance elle-même ?
📻 Le podcast de la semaine
Stanford AI Club: Jeff Dean on Important AI Trends
Un cour magistral sur les avancées des 15 dernières années dans l’IA par Jeff Dean l’un des informaticiens les plus influents de l’ère informatique moderne, surtout connu comme directeur scientifique de Google et cofondateur de Google Brain.
Pour celles et ceux qui ne connaissent pas Jeff Dean, dîtes vous que son nom est utilisé de la même façon que celui de Chuck Norris pour des “blagues” de geeks : The Jeff Dean Facts.
N’hésitez à me contacter si vous avez des remarques et suggestions sur cette newsletter, ou si dans votre entreprise vous cherchez à être accompagnés dans l’intégration d’outils IA et d’IA générative : olivier@255hex.ai
Partagez cette newsletter
Et si vous n’êtes pas abonné, il ne tient qu’à vous de le faire !
“Understanding language is core to a lot of Google products such as Gmail.” Jeff Dean, 2019
Bon weekend





Quand tu dis que les LlM sont des interfaces est ce que l ambiguïté avec le rôle de UI est à dessein ? E g dans interface il y a 2 choses : l idée de présenter une forme graphique (des boutons…) ou audio et l idée de se mettre au milieu et de faire une sélection / d être un médiateur …quand tu parles de pouvoir je me dis que c’est ce deuxième aspect qui est finalement important et du coup je pense que le mot médiateur est peut-être plus fort … en tous cas beau rapport signal / bruit dans ce numéro !