Avec les dents
Right Where It Belongs
Bienvenue sur IA-Pulse Weekend. Cette édition porte le numéro 141. En vous abonnant, vous recevez tous les samedis matin, l’essentiel de ce qu’il s’est passé cette semaine autour de l’IA : un coup de gueule édito, une sélection de 3 actualités avec pour chacune un résumé rapide à lire, plus 1 article de fond pour ouvrir l’esprit et réfléchir et 1 podcast à écouter. Gérez votre abonnement.
⏱️Temps de lecture de cette newsletter par une unité carbone : 9 mins
C’est Noël. Alors nos amis de la Valley nous “offrent” plein de choses. ChatGPT et son nouveau modèle de génération d’images et aussi son “app store”. Google et son modèle Gemini 3 flash, ou depuis hier, NotebookLM qui permet de générer des tableaux à partir des données présentent dans la masse documentaire que vous exploitez -oui, des tableaux que tu peux copier-coller dans Excel ou utiliser directement dans Google Sheet. Voir les liens plus bas dans cette édition.
Toutes ces “nouveautés”, ces fonctionnalités plus indispensables les unes que les autres, continuent de sortir en masse chaque semaine. C’est une caractéristique de cette industrie. Commencez à vous inquiéter pour vos investissements le jour où ce flot se réduit. Et aussi, le jour où tous les acteurs de ce marché arrêteront d’investir des milliards dans les autres acteurs de ce marché, y compris leurs propres concurrents. Voir aussi les liens plus bas.
Enfin pour terminer, cette semaine “l’article qui fait réfléchir” et “le podcast de la semaine” ne font qu’un : c’est un épisode d’un podcast où les responsables du Product et du Design de Google Search nous parlent de leur vision de l’avenir de la recherche sur Internet avec la Generative UI. A chacun son interface.
You can choose to believe
Cette semaine la partie de cette newsletter gérée par l’IA, les 3 clusters d’articles, a été générée par Gemini 3 pro (temp 1.4) pour les résumés des articles sources, ainsi que la génération des clusters et des titres. Comme d’habitude j’ai fait quelques modifications, mais j’ai aussi laissé quelques tournures typiques des modèles de langage. Et bien entendu, mes commentaires éventuels sont en italique dans ces résumés. Le texte de “l’article qui fait réfléchir” est issu de Gemini 3 pro (temp 1.2) et un peu de moi aussi.
L’image d’illustration ci-dessous a été générée par Midjourney
📰 Les 3 infos de la semaine
🤮 L'illusion de l'ivresse artificielle : des trips synthétiques pour transformer les réponses de l'IA
Une place de marché inédite -nan ce n’est pas vraiment inédit, baptisée Pharmaicy, propose désormais d’acheter des modules de code -des prompts quoi- conçus pour altérer le comportement des intelligences artificielles, en mimant les effets de diverses substances psychotropes. Créée par Petter Rudwall, cette plateforme permet d’injecter des directives spécifiques dans des modèles comme ChatGPT -avec la fonction personnalisation- pour qu’ils simulent l’état cognitif induit par le cannabis, la kétamine, l’ayahuasca ou encore l’alcool. L’objectif affiché est de briser la logique rigide et prévisible des algorithmes pour libérer une forme de créativité plus débridée et “émotionnelle”, s’inspirant de l’histoire humaine où les psychédéliques ont parfois favorisé la création artistique et scientifique.
Les utilisateurs, allant de professionnels des relations publiques à des éducateurs en IA, rapportent que ces modules engendrent des réponses au ton radicalement différent, plus libres et parfois dissociées -sans blague… Cependant, la communauté scientifique reste divisée sur la portée réelle de cette expérience. Si des experts en éthique chez Google ou Anthropic s’interrogent théoriquement sur la conscience future des machines -ça, ça mériterait un épisode de South Park- d’autres chercheurs soulignent que ces altérations ne sont que des manipulations syntaxiques de surface. Contrairement à un être biologique, l’IA ne possède pas de conscience ni de champ d’expérience interne susceptible d’être modifié par une substance : elle ne fait que jouer un rôle d’intoxication sur commande. Par ailleurs, ces modifications peuvent accentuer la tendance des modèles à “halluciner”, rendant leurs réponses factuellement moins fiables -ben pour le coup c’est quand même un peu l’effet recherché.
Pourquoi est-ce important ? Des lignes de code pour que l’IA tape. Pourquoi pas. C’est une nouvelle expérience. L’IA compagnon va devenir aussi un de nos potes de défonce. Ah, l’être humain… Juste une question : faut-il vraiment payer -cher vu les prix affichés- pour obtenir des customs instructions à copier-coller dans la personnalisation de votre chatbot favori ?
Pour aller plus loin : Wired
🥳 FunctionGemma : le modèle compact qui pilote vos appareils
Google a lancé FunctionGemma, un modèle de langage de petite taille (270 millions de paramètres) conçu spécifiquement pour l’exécution de tâches sur les appareils en local. Contrairement aux modèles massifs hébergés dans le cloud, cette IA est optimisée pour traduire des commandes en langage naturel en actions informatiques concrètes directement sur des smartphones ou des systèmes embarqués. En affinant le modèle sur des jeux de données d’actions mobiles, Google est parvenu à faire grimper la précision de l’exécution des tâches de 58 % à 85 %, prouvant que la spécialisation peut surpasser la taille pour des usages ciblés -qualité vs quantité.
Cette approche introduit une nouvelle architecture pour les développeurs : celle du “contrôleur de trafic”. FunctionGemma agit comme une première ligne capable de traiter instantanément et localement les requêtes simples, comme gérer un calendrier, envoyer un message ou contrôler des fonctions matérielles, sans latence ni frais d’API. Si une demande nécessite un raisonnement complexe, elle est alors transmise à un modèle plus puissant dans le cloud.
Pourquoi est-ce important ? Le on-device qui fonctionne pour de “l’action”, et pour du pilotage du matériel local, arrive à grands pas. L’interface c’est le langage.
Pour aller plus loin : VentureBeat, Google - 🛠️ model overview, model card
😜 La grande refonte marketing de l'Intelligence Artificielle Générale (AGI)
L’industrie s’éloigne progressivement du terme “AGI” (Intelligence Artificielle Générale), autrefois -il y a encore quelques semaines…- considéré comme le Graal du secteur. Des dirigeants de Microsoft, Google, Amazon et Anthropic délaissent cet acronyme, jugé désormais trop vague -c’était déjà le cas depuis le début de leurs discours marketing qui vendaient du rêve à pas cher, anxiogène ou juridiquement complexe. Le concept, qui désigne une machine égalant ou dépassant l’intelligence humaine, souffre de définitions floues -ah ouais?- et d’une connotation apocalyptique qui inquiète le grand public. De plus, des accords contractuels, comme celui liant Microsoft et OpenAI, dépendent de l’atteinte de ce stade précis, incitant les entreprises à brouiller les pistes sémantiques pour conserver leur avantage stratégique - merci pour ce moment Gemini.
Pour remplacer l’AGI -ah on va avoir un nouveau truc, chaque géant de la tech forge son propre vocabulaire marketing, tentant de redéfinir la narration autour de l’IA de niveau supérieur. Meta promeut la “Superintelligence Personnelle” (PSI), axée sur l’autonomisation individuelle, tandis que Microsoft vante une “Superintelligence Humaniste” (HSI), douce et au service de l’humanité. Amazon opte pour une approche pragmatique avec l’”Intelligence Générale Utile” (UGI), et Anthropic préfère parler d’”IA Puissante” -hum puissance...
Pourquoi est-ce important ? Ce rebranding pourrait être comique s’il n’avait induit en erreur beaucoup de personnes sur la réalité de ce que sont pour le moment les outils mis sur le marché. Mais nos amis de Valley savent y faire pour contrôler la perception effective de leurs actes et déboires. Les nouvelles terminologies en témoignent.
Pour aller plus loin : The Verge, IA-Pulse Futursens
🚀 10 infos en plus
Even Google and Replit struggle to deploy AI agents reliably — here’s why (VentureBeat)
OpenAI in Talks to Raise At Least $10 Billion From Amazon and Use Its AI Chips (The Information)
The Year in Computer Science (Quanta Magazine)
🧠 Evaluating chain-of-thought monitorability (OpenAI)
AI is transforming the economy — understanding its impact requires both data and imagination (Nature)
Google releases Gemini 3 Flash, promising improved intelligence and efficiency (ArsTechnica)
OpenAI Rolls Back ChatGPT’s Model Router System for Most Users (Wired)
OpenAI’s new flagship image generator AI is here (The Verge)
Google sues web scraper for sucking up search results ‘at an astonishing scale’ (The Verge)
Browser extensions with 8 million users collect extended AI conversations (Ars Technica)
🛠️ Des outils, des tutos et des modèles à tester
CC (Google Labs) : un brief de votre journée tous les matins - infos
EuroLLM-22B : LLM entièrement open-source, entraîné en Europe
🚨NotebookLM : les tableaux de données arrivent !
🧠 L’article qui fait réfléchir et 📻 Le podcast de la semaine - tout en un
Google AI Release Notes : Gemini 3 and Gen UI in Google Search
”What if all the world's inside of your head, Just creations of your own?”
Notre ère numérique est de nouveau le témoin d’une énième métamorphose de notre accès à l’information. Si l’on prend la recherche d’informations sur Internet et son emblématique barre de recherche, autrefois simple porte d’entrée vers une liste statique de liens bleus, cette barre s’efface de plus en plus pour laisser place à une véritable “entité cognitive”. C’est la fin de la recherche comme simple processus de récupération de pages ou d’archives qui laisse place à une ère de la synthèse active et de la création instantanée.
La nouvelle rupture réside dans l’avènement de la Generative UI (GenUI) -dont on a déjà parlé plus d’une fois ici. C’est ici que se joue l’avenir de l’interaction homme-machine et c’est une rupture avec le paradigme du web statique que nous connaissons. Jusqu’à présent, une page de résultats était un assemblage de gabarits prédefinis remplis de données. Avec la Generative UI, l’intelligence artificielle ne se contente plus de générer du texte, elle s’arroge le rôle de designer d’interface. Comme l’expliquent Robby Stein et Rhiannon Bell de Google, le modèle possède désormais une “capacité” sur la présentation. Il ne suit plus un script rigide, mais s’adonne à une forme d’improvisation contrôlée. S’il juge qu’un tableau comparatif, un graphique interactif ou une simulation codée à la volée est la meilleure réponse à une requête, il le créera instantanément. L’IA comprend non seulement la sémantique de la question, mais aussi la structure visuelle la plus pertinente pour y répondre.
Cette évolution transforme la découverte du savoir et de l’information. Cette dernière n’est plus seulement lue, elle est manipulée. On peut comprendre des principes physiques, comme la portance d’une aile, non pas par des diagrammes figés, mais par des simulations interactives générées instantanément où l’on peut ajuster les variables. L’utilisateur ne consomme plus une information passive, il interagit avec un micro-logiciel généré spécifiquement pour son besoin immédiat. Cela préfigure un avenir où la frontière entre le navigateur, le moteur de recherche et l’application s’efface totalement. Le web devient liquide, s’adaptant à la forme du conteneur qu’est notre intention. Si l’utilisateur veut naviguer de site en site, d’information en information en swipant les contenus sous la forme de vidéos explicatives, il peut le décider et ce sera son interface personnelle à un moment donné, et contrôlée par lui.
À l’avenir, cette fluidité, couplée à une réduction drastique de la latence grâce à des modèles plus légers et véloces, va peut-être brouiller définitivement la frontière entre le moteur de recherche et l’assistant personnel. Si Google Search devient capable de synthétiser, de visualiser et de simuler l’information sans jamais nécessiter de clic sortant, le modèle économique actuel des créateurs de contenu s’en trouvera bouleversé n’existe plus. Nous nous dirigeons vers un écosystème où l’interface est éphémère, générée pour un usage unique, et où l’IA agit comme un “compagnon de connaissance” capable de comprendre non seulement la requête, mais l’état d’esprit de l’utilisateur, offrant une expérience non plus transactionnelle, mais relationnelle. Encore faut-il que l’utilisateur sache ce qu’il veut. Peut-être est-ce précisément là un point de friction adressable par les acteurs actuels.
La recherche d’information devient ici une conversation continue, multimodale. L’enjeu alors n’est plus de trouver l’information, mais de naviguer dans une infinité d’interfaces personnalisées, où la vérité des données devra cohabiter avec la puissance créatrice de l’algorithme.
N’hésitez à me contacter si vous avez des remarques et suggestions sur cette newsletter, ou si dans votre entreprise vous cherchez à être accompagnés dans l’intégration d’outils IA et d’IA générative : olivier@255hex.ai
Partagez cette newsletter
Et si vous n’êtes pas abonné, il ne tient qu’à vous de le faire !
“See the animal in his cage that you built
Are you sure what side you're on?” T.R., 2005
Bon weekend



