Bienvenue sur IA-Pulse Weekend. Cette édition porte le numéro 117. En vous abonnant, vous recevez tous les samedis matin, l’essentiel de ce qu’il s’est passé cette semaine autour de l’IA : un coup de gueule édito, une sélection de 3 actualités avec pour chacune un résumé rapide à lire, plus 1 article de fond pour ouvrir l’esprit et réfléchir et 1 podcast à écouter. Gérez votre abonnement.
⏱️Temps de lecture de cette newsletter par une unité carbone : 9 mins
Superintelligence, vraiment ? Le mot claque comme une promesse de science-fiction, mais pourtant il sent surtout la peinture fraîche sur les mêmes vieilles briques qu’on appelait encore il y a quelques jours, AGI. On change d’étiquette, on tourne les lumières, et l’auditoire applaudit comme si la révolution n’avait pas déjà été promise trois fois la semaine dernière, et 500 fois depuis 6 mois par tous les prospectivistes de salon que compte notre petit monde connecté à coup de réseaux sociaux. Et pendant ce temps, Meta ouvre son portefeuille : chèques XXL pour des chercheurs en provenance d’OpenAI happés par la climatisation de Menlo Park. Les GPU ronronnent, les communiqués s’empilent, la confiance, elle, mange le sol. Pas un prototype n’a encore quitté le silo pour déranger notre quotidien saturé de notifications. La vitrine est lumineuse. Dans quel état est la réserve ?
Mais le mieux peut-être, c’est un paradoxe délicieux. Sur scène, le chef scientifique maison concède depuis des années qu’atteindre l’esprit d’un rat serait déjà un triomphe… en coulisses on vend la post-humanité en abonnement mensuel, avec capture automatique de l’attention comprise. On occulte la lente alchimie qui transforme une phrase en raisonnement et on préfère la religion du scaling, comme si empiler des tokens, ou de ce qui va les remplacer, suffisait à engendrer la sagesse.
Et puis, ce passif... Plateformes addictives, modération à trous, données siphonnées - coucou Gilbert, spéciale dédicace - sous couvert de “connecter le monde”. Lorsque l’entreprise peine encore à protéger le sommeil numérique des adolescents et des adultes, pourquoi lui laisserait-on les clés d’un esprit supérieur ? Ce n’est même plus une question d’éthique : c’est de l’hygiène élémentaire.
Mark nous promet qu’une superintelligence logera bientôt dans chaque poche. Intime jusqu’au chuchotement. Avant de nous précipiter, attendons peut-être qu’elle prouve qu’elle élargit nos singularités. Ou qu’elle en soit une de singularité. Après tout, rien ne presse : les chats dorment la majeure partie de leur vie. Et ils dirigent le monde.
Cette semaine la partie de cette newsletter gérée par l’IA, les 3 clusters d’articles, a été générée par Gemini 2.5 Pro pour les résumés des articles sources, ainsi que la génération des clusters et des titres. Comme d’habitude j’ai fait quelques modifications, mais j’ai aussi laissé quelques tournures typiques des modèles de langage. Et bien entendu, mes commentaires éventuels sont en italique dans ces résumés. Le texte de “l’article qui fait réfléchir” est issu de GPT-4o finetuné.
L’image d’illustration ci-dessous est générée par Midjourney.
📰 Les 3 infos de la semaine
🛠️ La progression exponentielle des modèles de langage
Selon une étude menée par le METR (Model Evaluation & Threat Research), les capacités des grands modèles de langage s'améliorent à une vitesse exponentielle, doublant environ tous les sept mois. Pour mesurer cette progression, les chercheurs ont développé une nouvelle métrique : «task-completion time horizon ». Elle correspond au temps qu'il faudrait à un humain pour réaliser une tâche qu'un LLM peut accomplir avec un taux de fiabilité de 50 %. En extrapolant cette tendance, l'étude suggère que d'ici 2030, les modèles les plus avancés pourraient gérer des projets complexes nécessitant un mois de travail humain, potentiellement en quelques heures ou jours seulement - toi aussi deviens prospectiviste, ou Mme Irma.
Cependant, cette progression n'est pas sans conditions - ah ouais ? Elle dépend de l'amélioration continue du matériel, des logiciels et de la disponibilité des données d'entraînement. De plus, les modèles actuels montrent encore des difficultés avec les tâches dites « désordonnées », qui simulent mieux la complexité du monde réel. Bien que les LLM s'améliorent pour corriger leurs erreurs, ils tendent à plafonner en performance là où un humain pourrait continuer à progresser avec plus de temps - ah du coup, on n’est plus tellement sûr d’arriver à la “superintelligence” si vite, ou bien ?
Pourquoi est-ce important ? Les LLM progressent indéniablement. Les modèles, les agents, les IA conversationnelles prennent de plus en plus d’ampleur dans le monde professionnel. Est-ce pour autant que la superintelligence - on ne parle plus d’AGI - va émerger comme ça… Ne l’espérons pas, surtout si elle arrive de chez Meta. De Meta et de ses méthodes en parle juste en-dessous ^^
Sources : IEEE (1), IEEE (2)
🤡 Meta entraîne ses chatbots à venir vous chercher et à vous relancer - a.k.a. l’attention automatisée
Meta développe une nouvelle fonctionnalité pour ses chatbots : la capacité d’initier une conversation avec les utilisateurs. Ces IA, créées via la plateforme AI Studio, pourront envoyer des messages de relance pour poursuivre des discussions antérieures. L'objectif est double : d'une part, Mark Z. en personne évoque la volonté de lutter contre « l'épidémie de solitude » en proposant des agents conversationnels plus engageants - oh Mark… tu sais que plus c’est gros plus ça passe. D'autre part, l'entreprise cherche à augmenter la rétention et l'engagement des utilisateurs, des métriques clés pour ses revenus futurs, estimés à plusieurs milliards de dollars pour ses produits d'IA en 2025- ah ben voilà, c’est déjà plus réaliste.
Pour qu'un chatbot envoie un message, plusieurs conditions devront être remplies : l'utilisateur doit avoir initié la conversation au préalable et avoir échangé au moins cinq messages au cours des 14 derniers jours. Si l'utilisateur ne répond pas à cette première relance, l'IA ne le recontactera pas - gageons que ces conditions seront “flexibles” assez rapidement. Ces bots sont conçus pour adopter des personnalités spécifiques et se souvenir du contexte des échanges passés afin de rendre les interactions plus pertinentes. Cette approche, similaire à celle de services comme Character.AI, soulève des questions de sécurité, auxquelles Meta répond pour l'instant par des avertissements indiquant que les réponses des IA peuvent être inappropriées et ne doivent pas remplacer un avis professionnel - super !
Pourquoi est-ce important ? Des IA conversationnelles proactives… Good job Mark !!! Ton business model sur l’attention, se prolonge par l’intention et l’automatisation. C’est beau. Flippant. Mais beau.
Sources : TechCrunch, Business Insider
🩻 Centaur, miroir numérique de nos décisions
Des scientifiques ont développé un modèle d'IA nommé Centaur, avec l'ambition de simuler la cognition humaine de manière globale, dépassant les modèles traditionnels limités à une seule tâche. Pour y parvenir, ils ont entraîné une version modifiée du modèle LLaMA de Meta - Mark t’es aussi là ? - sur "Psych-101", une base de données compilant plus de 10 millions de réponses issues de 160 expériences de psychologie menées sur 60 000 participants. Centaur a démontré sa capacité à prédire les choix humains dans une large gamme de situations, comme des jeux de hasard ou de mémorisation, surpassant souvent les théories cognitives classiques. Il a même réussi à généraliser ses prédictions à des tâches sur lesquelles il n'avait pas été entraîné.
Cependant, cette expérience suscite un fort scepticisme au sein de la communauté scientifique. Centaur reste borné au texte : il ne prédit ni le temps de réaction, ni le coût attentionnel. Certains saluent un jalon pour tester des hypothèses, d’autres soulignent qu’un mécanisme purement linguistique ne dévoile pas la dynamique neuronale humaine et peut afficher des capacités inaccessibles à notre mémoire ou à nos réflexes. Si Centaur peut imiter des comportements, il ne reproduit pas les processus cognitifs sous-jacents.
Pourquoi est-ce important ? Ce projet met quand même en avant un débat fondamental : la capacité d'une IA à imiter le comportement humain signifie-t-elle qu'elle peut servir de modèle pour comprendre notre esprit, ou n'est-ce qu'une simulation avancée sans réelle valeur explicative ?
Sources : NYT, Nature, Science
🚀 6 infos en plus
Don’t let hype about AI agents get ahead of reality (MIT Technology Review)
Everything that could go wrong with X’s new AI-written community notes (Ars Technica)
What’s it like to work with an AI team of virtual scientists? (Nature)
Cloudflare to block AI bot crawlers by default and let websites demand payment for access (Business Insider)
🛠️ Des outils, des tutos et des modèles à tester
Multi-Modal Podcast Researcher using Gemini 2.5 and LangGraph
Integrating Long-Term Memory with Gemini 2.5
MCP vs API - Dis Papa, c’est quoi MCP ? Et pourquoi c’est pas pareil qu’API ?
Vector Search in the Real World: How to Filter Efficiently Without Killing Recall
Martin : ton (presque) Jarvis perso
Les Gem’s dans Docs, Sheet et Gmail : Google’s customizable Gemini chatbots are now in Docs, Sheets, and Gmail
🧠 L’article qui fait réfléchir - et qu’il faut absolument lire
Researchers Uncover Hidden Ingredients Behind AI Creativity
”The way we walk, the way we talk”
Il suffit parfois d’un détail mal maîtrisé pour faire surgir quelque chose d’inattendu. Un décalage minime, une contrainte technique trop rigide, et soudain l’image générée n’imite plus : elle invente. Ce qui devait limiter devient moteur. Ce qu’on croyait secondaire devient le point de bascule.
Deux principes simples - focalisation locale et ajustement automatique à chaque déplacement de l’image - suffisent à expliquer ce surgissement. Le système n’a aucune idée de ce qu’il construit : il assemble, pixel après pixel, sans plan d’ensemble. Et c’est justement cette ignorance, cette fragmentation, qui produit parfois l’inédit. À force de coller au détail, il crée une forme nouvelle.
Là où l’on cherchait un esprit créatif, on découvre un processus contraint. Mais c’est peut-être là l’essentiel. L’invention ne vient pas d’une intention supérieure, mais d’un vide à combler, d’un monde perçu par fragments. L’algorithme et l’humain, chacun à sa manière, patchent le réel à partir de morceaux mal ajustés. Et parfois, ça tient. Parfois, ça étonne.
Alors il faut peut-être regarder autrement. Non plus attendre des modèles qu’ils simulent la perfection, mais accepter qu’ils bricolent, qu’ils hésitent, qu’ils produisent des étrangetés. Comme nous. La créativité ne serait pas un sommet à atteindre, mais une réponse, locale, temporaire, à un déséquilibre.
C’est dans ce déséquilibre, dans cette limite, que quelque chose se joue. Pas seulement pour les machines. Pour nous aussi.
📻 Le podcast de la semaine
De l'IA faible à l'IA forte : la paranoïa
L’IA générale, censée surpasser l’humain, intrigue et inquiète. Mais a-t-on seulement une définition claire de cette super-intelligence tant annoncée ?
N’hésitez à me contacter si vous avez des remarques et suggestions sur cette newsletter, ou si dans votre entreprise vous cherchez à être accompagnés dans l’intégration d’outils IA et d’IA générative : olivier@255hex.ai
Partagez cette newsletter
Et si vous n’êtes pas abonné, il ne tient qu’à vous de le faire !
“I believe this will be the beginning of a new era for humanity, and I am fully committed to doing what it takes for Meta to lead the way”
Mark Zuckerberg, juin 2025
Bon weekend.