Bienvenue sur IA-Pulse Weekend. Cette édition porte le numéro 115. En vous abonnant, vous recevez tous les samedis matin, l’essentiel de ce qu’il s’est passé cette semaine autour de l’IA : un coup de gueule édito, une sélection de 3 actualités avec pour chacune un résumé rapide à lire, plus 1 article de fond pour ouvrir l’esprit et réfléchir et 1 podcast à écouter. Gérez votre abonnement.
⏱️Temps de lecture de cette newsletter par une unité carbone : 9 mins
L’idée revient avec une régularité temporelle quasi parfaite dans l’esprit de certains : le rêve d’une interface unique, fluide, capable d’absorber toutes les autres. Cette fois, ce n’est plus un moteur de recherche, un réseau social ou un assistant vocal, mais une forme d’intelligence centralisée, adaptative, installée partout. Une sorte de super-application, de tout-en-un, “d’application tout”. En 1995, le navigateur voulait devenir l’OS du web. Aujourd’hui en 2025, c’est un super-assistant multimodal qui prétend absorber chaque interaction, de notre Powerpoint de la réunion du lundi à la playlist de notre votre séance de sport du dimanche. En regardant, le plan est assez simple : des modèles toujours plus larges, branchés en direct sur nos mails, nos capteurs, nos terminaux, nos vies. Tout le reste n’est qu’interface et les histoires qui vont avec.
C’est une vision sans détour : une seule interface pour tout faire, tout comprendre, tout relier. Travailler, cuisiner, se déplacer, s’informer, converser, penser. C’est beau. Comme si le numérique cherchait, après tant de couches empilées au fil des ans, à revenir à un point d’entrée unique - mais augmenté, prédictif, omniprésent. Un demi-dieu numérique présent à nos cotés en permanence. L’ergonomie y gagne - peut-être. L’humain, certainement moins. Car ce qui s’annonce dans l’esprit des visionnaires qui ont des visions - c’est comme des chercheurs qui cherchent, envoyez des sioux - ce n’est pas seulement un confort technique, c’est une redéfinition en profondeur de nos systèmes d’intermédiation : plus besoin de choisir, de naviguer, d’articuler ou même de réfléchir. L’outil s’interpose, devine, répond, propose. Il apprend, aussi. Il s’impose, finalement. En permanence.
Mais la promesse d’un miracle d’interfaçage a probablement son revers pour les utilisateurs. Derrière la simplicité apparente, il y a la capture de notre attention, l’alignement simple et discret de, et sur, nos gestes, l’automatisation de nos réactions, et la standardisation douce de la pensée - le tout-en-un du prêt-à-penser. Le risque c’est la privatisation de notre bande passante cognitive. Si toutes les couches - recherche, information, commerce, travail, loisir - convergent vers un même cerveau statistique, où passera la concurrence ? Quel espace restera-t-il pour la divergence, l’opacité créative, le silence volontaire, l’aberration conceptuelle assumée ? Une interface unique tend naturellement vers un monopole : chaque requête qu’elle capte renforce son avantage, nourrit ses modèles et verrouille un peu plus l’écosystème dont elle est la forme et le fond. Elle lisse à l’infini pour prédire plus efficacement.
Notre histoire numérique récente nous l’a appris : l’ergonomie est certainement l’arme la plus douce pour imposer de nouvelles règles du jeu.
Cette semaine la partie de cette newsletter gérée par l’IA, les 3 clusters d’articles, a été générée par Gemini 2.5 Pro pour les résumés des articles sources, ainsi que la génération des clusters et des titres. Comme d’habitude j’ai fait quelques modifications, mais j’ai aussi laissé quelques tournures typiques des modèles de langage. Et bien entendu, mes commentaires éventuels sont en italique dans ces résumés. Le texte de “l’article qui fait réfléchir” est issu de Gemini 2.5 Pro.
L’image d’illustration ci-dessous est générée par Midjourney.
📰 Les 3 infos de la semaine
🤹 AI Mode Search Live : la recherche Google devient une conversation en direct
Google déploie actuellement une nouvelle fonctionnalité expérimentale nommée Search Live, qui permet d'avoir des conversations vocales avec son moteur de recherche. Intégrée à l'AI Mode, cette option est accessible via une nouvelle icône "Live". Les utilisateurs peuvent poser leurs questions à voix haute et recevoir une réponse audio générée par l'intelligence artificielle. Le système est conçu pour des échanges fluides, autorisant les questions de suivi pour affiner une recherche.
Durant la conversation, des liens web pertinents s'affichent à l'écran pour ceux qui souhaitent approfondir le sujet. La fonctionnalité peut opérer en arrière-plan, ce qui permet de continuer l'échange vocal tout en utilisant une autre application. Un bouton "transcription" donne accès à la version texte de la conversation et permet de poser des questions en les tapant. L'historique des échanges est conservé dans l'AI Mode pour une consultation ultérieure. Techniquement, Search Live s'appuie sur une version personnalisée du modèle Gemini. Pour l'instant, cette fonctionnalité est réservée aux utilisateurs aux États-Unis ayant activé l'expérimentation AI Mode. Google prévoit d'enrichir l'outil dans les mois à venir, notamment en y intégrant la possibilité de poser des questions à partir de ce que la caméra du téléphone filme en temps réel.
Pourquoi est-ce important ? La recherche conversationnelle testée sur tous les “modes” par Google, est certainement le signe que le géant cherche à ne pas se faire distancer sur la recherche avec et par l’IA. Nous assistons à un changement dans l’accès au savoir et à l’information, ce test en est un autre exemple - ça c’était mon couplet hebdomadaire habituel.
Sources : TechCrunch, Search Engine Land, The Verge, Google
🏄 YouTube s’apprête à intégrer le générateur de vidéos IA Veo 3 dans ses Shorts
YouTube a annoncé l'intégration de Veo 3, le modèle de génération de vidéo, au sein de son format de vidéos courtes, les Shorts. Ce déploiement est prévu pour la fin de l'été. Cette annonce intervient alors que les Shorts connaissent une croissance de dingue, atteignant désormais 200 milliards de vues quotidiennes. L'outil Veo 3 est capable de créer des vidéos et des pistes sonores à partir de simples prompts, avec actuellement une des meilleures qualité d'image pour ce type de modèle.
Cette intégration représente une avancée par rapport aux outils d'IA déjà disponibles pour les créateurs, comme Dream Screen qui génère des arrière-plans vidéo. Cependant, quelques ajustements sont nécessaires. Actuellement, Veo 3 produit des clips de 8 secondes au format paysage, tandis que les Shorts sont conçus pour un affichage vertical. Il est donc probable qu'une version adaptée du modèle soit développée pour ce format. La question du coût reste également en suspens. L'accès à Veo 3 est aujourd'hui conditionné à un abonnement onéreux, et le modèle tarifaire pour les créateurs de Shorts n'a pas encore été précisé. L'objectif affiché par la direction de YouTube est d'offrir de nouvelles possibilités créatives aux utilisateurs.
Pourquoi est-ce important ? L'intégration d'un outil de création vidéo par IA aussi puissant au sein d'une plateforme aussi massive que YouTube pourrait radicalement transformer la production de contenu et accélérer l'adoption de l'IA par le grand public. Coucou TikTok.
Sources : Ars Technica, Search Engine Journal
🤼 Midjourney lance son générateur de vidéo dans un contexte juridique tendu
Midjourney a lancé son premier modèle de création vidéo. Il s'agit d'un modèle image-to-video : les utilisateurs peuvent animer une image qu'ils ont générée sur la plateforme ou qu'ils ont téléchargée. L'outil, accessible via le site web, produit des clips de 5 secondes qu'il est possible d'étendre par tranches de quatre secondes, pour une durée totale pouvant atteindre une vingtaine de secondes. Des réglages permettent de contrôler le mouvement via des prompts textuels ou de choisir entre une animation de faible ou de forte intensité.
Cette nouvelle fonctionnalité est incluse dans les abonnements existants, qui débutent à 10 dollars par mois. Le coût d'une génération vidéo est environ huit fois supérieur à celui d'une image. Ce lancement est cependant assombri par un contexte juridique complexe. Quelques jours auparavant, Midjourney a été poursuivi en justice par Disney et Universal pour violation de droits d'auteur. Les studios accusent la plateforme d'avoir entraîné ses modèles sur des personnages protégés et de permettre leur reproduction. La plainte mentionnait spécifiquement le service vidéo à venir comme une source probable de futures infractions. Malgré cela, Midjourney ambitionne à terme de développer des modèles capables de créer des simulations de mondes ouverts en temps réel.
Pourquoi est-ce important ? Midjourney vise plus loin que la “simple génération” de vidéos. La génération de simulations en temps réel de mondes totalement ouverts semble bien être la vision des fondateurs.
Sources : VentureBeat, TechCrunch, The Verge
🚀 6 infos en plus
How can you make sure your brand shows up in LLM search? Adobe’s new LLM Optimizer seeks to provide the tools (VentureBeat)
The illusion of "The Illusion of Thinking" (Sean Goedecke)
How Much Energy Does AI Use? The People Who Know Aren’t Saying (Wired)
Google Search Console Now Counting AI Mode Clicks, Impressions & Positions (Search Engine Roundtable)
Agentic Misalignment: How LLMs could be insider threats (Anthropic) - Anthropic veut encore nous faire peur, ça devient une habitude chez Dario
🛠️ Des outils, des tutos et des modèles à tester
Gemini 2.5 : la nouvelle famille de modèles de Google est disponible - infos
Gemini API : Grounding avec Google Search
DeepResearch Bench: A Comprehensive Benchmark for Deep Research Agents - infos
Dia : navigateur web, successeur d’Arc Browser, qui intègre l’IA directement
OpenAI : Customer Service Agents Demo - infos
🧠 L’article qui fait réfléchir - et qu’il faut absolument lire
What happens when you feed AI nothing
”Don’t you, forget about me”
Et si la créativité artificielle pouvait jaillir du vide, libérée de toute influence et de toute mémoire ? Loin de se contenter d’imiter ou de réarranger des œuvres existantes, une approche radicale explore la génération de formes et de couleurs sans aucun apprentissage préalable sur des données. En reconfigurant l’architecture interne des réseaux neuronaux, il devient ainsi possible de les contraindre à produire une esthétique propre, née de leurs seules interactions structurelles.
Cette démarche offre une réponse élégante aux épineux problèmes éthiques et juridiques du droit d'auteur qui entravent une large part de la création numérique. Elle déplace le débat de la simple imitation vers l’émergence. Dès lors, la machine devient-elle une source de créativité pure, ou simplement un miroir sophistiqué des préférences de son concepteur, qui sélectionne et oriente les résultats les plus harmonieux ?
Cette expérimentation lève le voile sur le fonctionnement intime de l’intelligence artificielle, la ramenant à sa nature fondamentale : un ensemble de processus mathématiques dont on peut explorer les potentialités latentes. Cela redéfinit la relation entre le créateur et son outil, le transformant en un sculpteur d’algorithmes. La question n’est plus de savoir ce que l’IA peut générer à partir de ce qu’elle a appris, mais bien ce qu’elle peut révéler d’elle-même, et par extension, de notre propre regard.
📻 Le podcast de la semaine
Comptoir IA - Il met ChatGPT dans une peluche
La startup française Lookiz lance Ary, une peluche IA éducative et éthique, alternative innovante à Barbie GPT, sans abonnement et axée sur la sécurité. Jonathan Bibas, CEO de Lookiz, en parle au Micro de Nicolas Guyon.
N’hésitez à me contacter si vous avez des remarques et suggestions sur cette newsletter, ou si dans votre entreprise vous cherchez à être accompagnés dans l’intégration d’outils IA et d’IA générative : olivier@255hex.ai
Partagez cette newsletter
Et si vous n’êtes pas abonné, il ne tient qu’à vous de le faire !
“There is no reason that nature should actually be described by a theory of everything.” Sabine Hossenfelder
Bon weekend.