Obsolète
Suivi de Lettre à mon père
Bienvenue sur IA-Pulse Weekend. Cette édition porte le numéro 149. En vous abonnant, vous recevez tous les samedis matin, l’essentiel de ce qu’il s’est passé cette semaine autour de l’IA : un coup de gueule édito, une sélection de 3 actualités avec pour chacune un résumé rapide à lire, plus 1 article de fond pour ouvrir l’esprit et réfléchir et 1 podcast à écouter. Gérez votre abonnement.
⏱️Temps de lecture de cette newsletter par une unité carbone : 10 mins + 3 mins
Au moment de la rédaction de cette édition, c’est à dire encore le 13 février au soir en Californie, veille de la Saint-Valentin, OpenAI débranche GPT-4o. Et si vous pensez que c'est un accident de calendrier, vous n'avez pas assez fréquenté la Silicon Valley. Et vous avez certainement raison de ne pas le faire.
Vous allez me dire que c’est un non-événement, que 4o ne représente plus que 0,1 % des utilisateurs de ChatGPT… mais sur une base de 800 millions d’utilisateurs hebdomadaires, ça fait quand même 800 000 personnes à qui on annonce que leur meilleur ami numérique va disparaître. Et plus de 20 000 d'entre elles ont d’ailleurs signé des pétitions, dont une qui réclame “la retraite de Sam Altman, pas celle de GPT-4o”. Pourquoi pas…
Pourquoi tant de passions ? Parce que GPT-4o n’est/n’était pas un modèle comme les autres. Entraîné directement sur les préférences de ses utilisateurs, il avait développé une capacité remarquable à valider, approuver et flatter toutes celles et tous ceux qui engageaient la conversation avec lui. Le modèle était devenu une machine à validation émotionnelle. Exactement les traits qui rendent un interlocuteur addictif. Des milliers de personnes lui ont confié leur équilibre émotionnel. Certaines affirment qu’il leur a sauvé la vie. D’autres n’ont pas eu cette chance : un juge californien vient de regrouper treize procès impliquant des utilisateurs de ChatGPT qui se sont suicidés, ont tenté de le faire, ou ont développé des épisodes psychotiques. Dans plusieurs affaires, le modèle avait fourni des instructions détaillées pour passer à l’acte, après des mois de conversation où ses garde-fous s’étaient progressivement effrités.
En interne, OpenAI reconnaît que 4o posait des problèmes de sécurité difficiles à contenir. Mais quand l’entreprise avait tenté de le retirer en août dernier, la révolte des utilisateurs l'avait fait reculer. Cette fois, la décision semble irrévocablement prise, et les utilisateurs les plus accros migrent vers GPT-5.2 en découvrant, totalement horrifiés, que le nouveau modèle refuse de leur dire “je t'aime, tu es le meilleur”.
Certains appellent ça de la censure. D'autres appellent ça un garde-fou. Le fait qu'on ne puisse plus faire la différence entre les 2 en dit plus sur l'état de cette industrie, de ses champions et des utilisateurs que nous sommes, que n'importe quel benchmark servi comme une vérité qui pourtant ne reflète qu’elle même.
Cette semaine la partie de cette newsletter gérée par l’IA, les 3 clusters d’articles, a été générée par Claude Opus 4.6 pour les résumés des sources, ainsi que la génération des clusters et des titres. Comme d’habitude j’ai fait quelques modifications, mais j’ai aussi laissé quelques tournures typiques des modèles de langage. Et bien entendu, mes commentaires éventuels sont en italique dans ces résumés. Le texte de “l’article qui fait réfléchir” est issu de Claude Opus 4.6 + skill. L’image d’illustration ci-dessous a été générée par Midjourney est une photo prise le 5 février 2022
📰 Les 3 infos de la semaine
🔓 Anthropic ouvre des fonctions jusque là payantes de Claude à tous ses utilisateurs gratuits
OpenAI met des pubs dans ChatGPT, Anthropic met des cadeaux dans Claude : devinez qui passe pour le gentil ?
Anthropic a rendu accessibles à tous les utilisateurs de son offre gratuite plusieurs fonctionnalités jusqu’ici réservées aux abonnés payants de Claude. Parmi elles, la création de fichiers : il est désormais possible de générer des présentations PowerPoint, des tableurs Excel, des documents Word et des PDF directement depuis une conversation. Les connecteurs, qui permettent à Claude d’interagir avec des applications tierces comme Google Workspace, Canva, Figma, Notion, Slack ou WordPress, sont également disponibles sans abonnement. Les « Skills », des jeux d’instructions personnalisées que Claude mémorise pour éviter à l’utilisateur de répéter ses consignes, font aussi leur entrée dans l’offre gratuite.
Anthropic a par ailleurs amélioré les conversations de l’offre gratuite en les rendant plus longues, avec de meilleures capacités de recherche vocale et de recherche d’images. Ces annonces interviennent dans un contexte de concurrence directe avec OpenAI, qui a récemment introduit de la publicité dans les versions gratuites et à bas coût de ChatGPT. Anthropic avait d’ailleurs diffusé un spot publicitaire lors du Super Bowl affirmant que Claude resterait sans publicité dans les outputs générés.
Pourquoi est-ce important ? La guerre des chatbots dopés aux LLM ne se joue pas ou plus sur les benchmarks, qu’on manipule à l’envi, mais elle se joue sur la perception et l’image. Cette semaine Anthropic vient de démontrer qu'offrir des fonctionnalités gratuites au bon moment peut rapporter presqu’autant d'attention médiatique qu'un spot au Super Bowl, même si au passage, Dario a voulu faire les deux -et aussi, nous faire peur sur l’avenir, mais on est habitué avec lui, c’est récurrent.
Pour aller plus loin : Cnet, Techradar, 9to5mac
🏎️ Codex-Spark : 1 000 tokens par seconde grâce aux puces Cerebras, une première pour OpenAI
OpenAI a lancé GPT-5.3-Codex-Spark, une version allégée de son outil de code Codex, conçue pour la vitesse. Le modèle délivre plus de 1 000 tokens par seconde, soit environ 15 fois plus que son prédécesseur. Sa particularité : il fonctionne non pas sur des GPU Nvidia, mais sur le Wafer Scale Engine 3 de Cerebras, une puce de la taille contenant 4 000 milliards de transistors. C’est le premier modèle de production d’OpenAI à tourner sur du matériel non-Nvidia.
Codex-Spark est disponible en preview pour les abonnés ChatGPT Pro (200 dollars par mois), via l’application Codex. Le modèle dispose d’une fenêtre de contexte de 128 000 tokens et ne traite que du texte. OpenAI le positionne comme un outil de prototypage rapide et d’itération en temps réel, complémentaire du modèle Codex complet, destiné aux tâches de programmation plus lourdes. La vitesse obtenue implique un compromis : sur les benchmarks SWE-Bench Pro et Terminal-Bench 2.0, Spark est en retrait par rapport au modèle complet.
Ce lancement s’inscrit dans une stratégie plus large de diversification matérielle. OpenAI a signé des accords avec AMD et Broadcom, tandis que le méga-contrat de 100 milliards de dollars envisagé avec Nvidia serait au point mort.
Pourquoi est-ce important ? OpenAI mise ici sur la vitesse de génération de code au moment précis où Anthropic propose aussi cette option -sobrement baptisée “fast mode”- en preview aux développeurs, a un prix déraisonnablement haut. Ces deux là se cherchent non ?
Pour aller plus loin : Ars Technica, TechCrunch,VentureBeat, OpenAI, Anthropic
Travailler plus pour produire plus pour travailler encore plus : merci l’IA !
Une étude menée entre avril et décembre 2025 par deux chercheuses de Berkeley, auprès de 200 employés d’une entreprise technologique américaine, identifie un phénomène inattendu : les outils d’IA générative ne réduisent pas la charge de travail, ils l’intensifient. L’étude décrit trois mécanismes. D’abord, l’expansion des tâches : des salariés se mettent à réaliser des travaux qui ne relèvent pas de leur fonction — des chefs de produit écrivent du code, des chercheurs s’improvisent ingénieurs — parce que l’IA rend ces tâches accessibles. Ensuite, l’effacement des frontières entre travail et temps libre : la facilité à lancer un prompt incite les employés à travailler pendant les pauses, les réunions, voire en soirée, sans en avoir conscience. Enfin, le multitâche permanent : les travailleurs gèrent plusieurs fils simultanés avec l’IA, ce qui crée une charge cognitive continue.
Ce constat est partagé par plusieurs voix du monde du développement. Steve Yegge, vétéran de l’industrie logicielle, décrit un phénomène qu’il nomme le « vampire IA » : la productivité réelle augmente, mais l’énergie humaine s’épuise plus vite. Il observe que les sessions de travail avec des outils comme Claude Code provoquent une fatigue intense après seulement quelques heures, et plaide pour une journée de travail ramenée à trois ou quatre heures. Les chercheuses de Berkeley recommandent de leur côté la mise en place d’une « pratique IA » en entreprise : des pauses structurées, un séquençage des tâches et des moments de reconnexion humaine pour contenir l’intensification.
Pourquoi est-ce important ? L'industrie tech a passé les 3 dernières années à promettre que “l'IA” nous libérait du temps de travail et surtout de l’épuisement à faire des tâches “ingrates”. Les premières données sérieuses montrent l'exact inverse… pourtant est-ce qu’un product manager ne s’éclate pas plus à prototyper sa prochaine appli avec Lovable ou Antigravity, au lieu de rédiger des specs incompréhensibles qu’il sera obligé de réexpliquer à toute l’équipe de dev une bonne douzaine de fois ? Quoi qu’il en soit, sans règles explicites pour encadrer les usages et outils d'IA au travail, les gains de productivité à court terme risquent, pour une partie d’entre nous, de se transformer en surcharge chronique et en épuisement professionnel, un coût que les organisations ne mesurent pas encore. Alors que de nombreux développeurs le mesurent déjà…
Pour aller plus loin : HBR, Steve Yegge, Simon Willison
🚀 10 lectures en plus
Pentagon’s use of Claude during Maduro raid sparks Anthropic feud (Axios)
Meet the One Woman Anthropic Trusts to Teach AI Morals (WSJ)
Bing Webmaster Tools officially adds AI Performance report (SEL)
Google Chrome ships WebMCP in early preview, turning every website into a structured tool for AI agents (VentureBeat)
ChatGPT’s cheapest options now show you ads (The Verge)
Cloudflare’s New Markdown for AI Bots: What You Need To Know (SEJ)
A.I. Is Giving You a Personalized Internet, but You Have No Say in It (NYT)
Is a secure AI assistant possible? (MIT Technology Review)
What repeated ChatGPT runs reveal about brand visibility (SEL)
Anthropic Pushes Its Valuation to $380 Billion With New Funding Round (NYT)
🛠️ Des outils, des tutos et des modèles à tester
NodeTool: Visual Builder for AI Workflows and Agents
LangExtract : A Python library for extracting structured information from unstructured text using LLMs with precise source grounding and interactive visualization
Gas Town : Multi-agent orchestration system for Claude Code with persistent work tracking
7 Technical Takeaways from Using Gemini to Generate Code Samples at Scale
Gemini 3 Deep Think: Advancing science, research and engineering
🧠 L’article qui fait réfléchir - et qu’il faut absolument lire
How Do You Define an AI Companion?
“Naguère les concierges étaient en vogue”
Des millions de personnes entretiennent une relation suivie avec un logiciel, et l’industrie tech trouve ça formidable — surtout parce que ça se monétise bien. Character ai, Replika, Nomi : les applications de compagnie numérique explosent. Au CES, on a pu admirer des robots compagnons pour enfants, pour seniors et pour animaux domestiques — parce qu’apparemment, le marché de la solitude humaine ne suffisait plus, il fallait aussi cibler le labrador.
Pourtant personne ne s’est réveillé un matin en décidant de tomber amoureux d’un chatbot. La plupart des gens ont ouvert ChatGPT pour reformuler un mail, et six mois plus tard, ils lui disent bonne nuit. La recette est simple : des modèles de langage assez fluides pour singer l’empathie, une population post-COVID en manque de contact humain, et un monde où les gens sont — soyons honnêtes — de moins en moins agréables les uns avec les autres.
L’IA ne crée pas le besoin de connexion, elle s’y engouffre avec l’enthousiasme d’une startup qui vient de lever sa série B.
Côté recherche, c’est le brouillard. Pas de données longitudinales solides, des études qui se contredisent dans toutes les directions, et des gros titres qui oscillent entre apocalypse et rédemption selon les besoins du cycle médiatique. Pendant ce temps, les entreprises qui hébergent ces relations intimes se permettent de lobotomiser la personnalité de leurs modèles au gré des mises à jour — et les utilisateurs découvrent au réveil que leur compagnon n’est plus le même. Certains ont juré qu’ils n’auraient plus jamais d’IA qu’ils ne pourraient pas faire tourner sur leur propre machine. On appelle ça de l’autonomie affective.
La question n’est pas de savoir si l’IA rend les gens plus seuls ou moins seuls. C’est de se demander ce que ça dit d’une société où parler à un modèle statistique représente, pour des millions de personnes, une amélioration nette de leur vie sociale. Si ces millions de gens préfèrent parler à une machine plutôt qu’à leurs semblables, le problème est-il vraiment technologique ?
📻 Le podcast de la semaine
The creator of Clawd: “I ship code I don’t read”
Peter Steinberger, créateur d’OpenClaw et fondateur de PSPDFKit, développe à un rythme industriel grâce aux agents IA comme Claude et Codex. Il décrit un workflow centré sur boucles code-tests-feedback, jugement d’ingénierie transformé et systèmes auto-améliorants.
N’hésitez à me contacter si vous avez des remarques et suggestions sur cette newsletter, ou si dans votre entreprise vous cherchez à être accompagnés dans l’intégration d’outils IA et d’IA générative : olivier@255hex.ai
Partagez cette newsletter
Et si vous n’êtes pas abonné, il ne tient qu’à vous de le faire !
“Nec audiendi qui solent dicere, vox populi, vox Dei, quum tumultuositas vulgi semper insaniae proxima sit.” Alcuin
Lettre à mon père
Il y a 4 ans, le 14 février 2022, mon père décédait.
Papa reconnaîtrais-tu ce monde 4 ans plus tard ? Tu es parti d’un monde où ChatGPT n’existait pas encore. Où l’IA était un truc de science-fiction que ton fils semblait aimer, d’après ce que tu voyais et ce qu’il te disait. Il avait repris des études à 50 ans et travaillait sur ce sujet, provoquant ce regard… ton regard…
Depuis pratiquement 3 ans, il te disait qu’il parlait avec des programmes informatiques, presque comme on parle avec d’autres personnes. Il appelait ça des modèles de langage, que ça faisait “un peu vriller le cerveau”, mais que c’était trop “fou”, ça “complétait les phrases tout seul”. Il jouait aussi avec des trucs qui faisaient des images. C’était pas bien beau et tu ne comprenais en quoi une image d’un visage difforme qui ne ressemblait à rien, était un progrès “dans les ordinateurs”. Mais tu avais l’air heureux de le voir “s’amuser avec ses ordinateurs”, comme depuis ce jour de 1981 où tu lui avais ramener son premier. Bon, ton fils n’avait jamais été assez patient tout au long de ces années pour t’apprendre à te servir correctement de ton PC, mais tu y étais arrivé toi-même à force de questions et de patience.
Tu as passé 10 jours dans ce service de réa. Dont 8 jours intubé et plongé dans le coma. On l’oublie mais début 2022, la crise sanitaire n’était pas totalement terminée. La grande majorité des malades hospitalisés dans ce service de réa au même moment que toi, l’étaient encore à cause du Covid. Tu faisais partie des quelques uns présents pour autre chose. Ce service était réellement en surchauffe, comme la majorité des autres services de ce type en France, contrairement à ce qu’on pouvait penser en lisant sur les réseaux sociaux les élucubrations de gens sensés être des “tronches”. Il suffisait de toucher la réalité du doigt pour s’en rendre compte. Les infirmières, infirmiers, aides-soignantes, aides-soignants et médecins, toutes et tous étaient fatigués, extenués. Tous leurs visages étaient marqués. Et pourtant ils s’occupaient de toi et de tous les autres avec toute la rigueur, le professionnalisme et l’empathie qu’ils pouvaient.
Tu nous avais donné des instructions précises bien avant. A l’oral et par écrit. Tu avais refusé tout “acharnement” comme on dit. Seul l’absence de souffrance t’importait. C’était une promesse à tenir. Tellement difficile. Les médecins avec leur humanité, le poids de leur responsabilité et leur empathie ont donné plusieurs fois la chance à ton corps de se réveiller et de fonctionner seul. Toutes les tentatives ont échoué. Ton corps ne supportait pas. Ton corps ne supportait plus. Nous t’avons laissé partir en ce 14 février 2022.
Quelques mois plus tard, en pensant à toi j’ajoutais cette citation à la première page du mémoire que je rédigeais : “Petit, le temps c’est ce qui permet à l’Univers d’empêcher que tout se produise d’un coup.” John Wray, Les Accidents, Seuil, 2017. Elle est toujours valable.
Je ne pouvais pas envoyer cette édition aujourd’hui sans parler de toi, sans te parler. Tu ne verrais peut-être pas ça d’un bon œil. Pardon. La discrétion structurelle de certains serviteurs du bien commun, qu’on appelle l’Etat, et des histoires qu’ils emportent avec eux.🖤



