Bienvenue sur IA-Pulse Weekend. Cette édition porte le numéro 107. En vous abonnant, vous recevez tous les samedis matin, l’essentiel de ce qu’il s’est passé cette semaine autour de l’IA : un coup de gueule édito, une sélection de 3 actualités avec pour chacune un résumé rapide à lire, plus 1 article de fond pour ouvrir l’esprit et réfléchir et 1 podcast à écouter. Gérez votre abonnement.
⏱️Temps de lecture de cette newsletter par une unité carbone : 9 mins
Que nous le voulions ou non, que nous le ressentions ou non, que nous l’expérimentions ou non directement nous-mêmes, les habitudes et les usages d’accès à l’information et au savoir changent radicalement depuis que les LLM sont utilisés comme interface humain-machine grâce aux chatbots. Ces chatbots qui deviennent bien plus que de simples assistants conversationnels à mesure que des briques d’outils externes leur sont ajoutées.
L’inférence est partout. Sans même que nous nous en apercevions. Dans le monde plus de 1,5 milliard d’utilisateurs de Google ont été exposés à des résultats mis en forme par AI overviews le mois dernier. Certes, cette fonctionnalité n’est pas disponible dans notre pays, ce qui minimise sa portée pour nous. Les 500 millions d’utilisateurs hebdomadaires de ChatGPT en sont aussi une autre preuve, bien plus palpable chez nous.
Mais peut-être le plus troublant est l’utilisation des technologies d’IA générative sans même que nous nous en apercevions : Microsoft et sa pub, ou encore cette radio australienne et son DJ AI, ne sont que deux exemples. Et ne parlons même pas du ShadowAI en entreprise - je vous vois.
L’inférence est pour tous. Ces outils d’IA générative et ces modèles de langage sont en passe de devenir des commodités généralisées. Nous pouvons gloser à l’infini sur leur véritable intérêt, regretter leurs défauts et leurs défaillances, comme nous le faisions déjà il y a 25 ans sur le manque de pertinence de certains résultats de Google ou encore les années suivantes sur les manques et les imprécisions de Wikipédia - oui je sais nous avons “oublié” ces épisodes - il n’empêche : formuler des demandes en langage naturel et préciser son intentionnalité, c’est bien plus pratique que de parler en mots clés ou de cliquer sur des menus pour dérouler des fonctionnalités. Deal with it.
Cette semaine la partie de cette newsletter gérée par l’IA, les 3 clusters d’articles, a été générée par OpenAI o4-mini-high pour les résumés des articles sources, ainsi que la génération des clusters et des titres. Comme d’habitude j’ai fait quelques modifications, mais j’ai aussi laissé quelques tournures typiques des modèles de langage. Et bien entendu, mes commentaires éventuels sont en italique dans ces résumés. Le texte de “l’article qui fait réfléchir” est issu de OpenAI o4-mini-high .
L’image d’illustration ci-dessous est générée par Midjourney.
📰 Les 3 infos de la semaine
📢 ChatGPT Deep Research s’allège pour tous
OpenAI propose depuis quelques jours une version « allègée » de son outil Deep Research, capable de fouiller le web pour compiler des rapports de recherche. Alimentée par le modèle o4-mini, cette déclinaison produit des réponses plus courtes. Elle s’adresse à tous les utilisateurs gratuits de ChatGPT, ainsi qu’aux abonnés Plus, Team et Pro. Grâce à cette version, OpenAI peut proposer des limites d’utilisation supérieures tout en réduisant les coûts d’exploitation.
Le fonctionnement est simple : une fois le quota de requêtes « classiques » atteint pour les abonnés payants, les demandes basculent automatiquement vers la version légère. Les utilisateurs gratuits eux disposent uniquement de cinq tâches Deep Research légères par mois, tandis que les abonnés Plus et Team bénéficient d’un total de vingt-cinq tâches (entre version complète et légère) et les Pro de deux cent cinquante. Ce déploiement au grand publci s’inscrit dans un écosystème où d’autres acteurs, tels que Google avec Gemini, Microsoft avec Copilot, Perplexity ou xAI avec Grok, développent également des outils de recherche approfondie fondés sur des modèles de raisonnement capables de vérifier leurs propres conclusions.
Pourquoi est-ce important ? Le Deep Research, ou Deep Search suivant les appellations, est certainement le premier agent IA dont l’utilisation se démocratise dans le grand public. Et ce n’est peut-être pas un hasard si cette démocratisation passe par l’accès à l’information et notre manière de faire des recherches.
Sources : TechCrunch, The Verge, Zdnet
📺 Un carrousel AI Overviews débarque sur YouTube
YouTube expérimente un nouveau carrousel AI Overviews : un affichage enrichi par IA de résumés et de suggestions directement au sein des résultats de recherche vidéo. Pour l’instant, ce test est limité à un petit groupe d’abonnés Premium aux États-Unis et ne concerne que certaines requêtes en anglais focalisées sur le shopping par exemple « meilleurs casques anti-bruit » - comme de par hasard…- et les recherches locales comme « musées à visiter à San Francisco ».
Concrètement, l’IA analyse les vidéos pertinentes pour une requête donnée et met en avant des extraits jugés les plus informatifs, offrant ainsi un aperçu rapide avant de lancer la lecture complète. Pour cette version en texte, les utilisateurs peuvent ensuite approuver ou non les suggestions, permettant à Google de recueillir des retours pour ajuster l’algorithme. Cette nouvelle fonctionnalité montre la volonté de Google de rendre les recherches plus dynamiques.
L’enjeu est double : améliorer l’expérience de recherche en guidant l’utilisateur vers le contenu le plus pertinent, et mesurer l’impact sur la visibilité des créateurs, qui pourraient voir leur audience modifiée selon l’efficacité de ces extraits.
Pourquoi est-ce important ? Là aussi ce sont nos manières d’interagir avec les moteurs de recherche devenus des moteurs de réponses, et plus globalement d’accéder à l’information et au savoir qui changent. Le société du résumé, l’accès à des réponses formulées et la formulation des requêtes en langage naturel sont autant de changements aussi bien pris en compte et mis en place par les géants de l’IA que par les utilisateurs eux-mêmes dans leurs comportements.
Sources : Mashable, Adweek, Search Engine Land
🧑🔬 Nouveaux modèles Pleias-RAG : traçables et éthiques
La startup française Pleias annonce deux nouveaux modèles de petite taille optimisés pour le Retrieval-Augmented Generation (RAG) : Pleias-RAG-350M et Pleias-RAG-1B. Construits sur la famille Pleias 1.0, ces modèles sont formés exclusivement sur des données « ouvertes » - domaine public et open source, et distribués sous licence Apache 2.0, permettant un usage commercial libre et modifiable.
Ces modèles intègrent by design un système de citations exactes, avec un format inspiré de la référence Wikipédia, et génèrent des sorties multilingues structurées comprenant détection de langue, analyse de requête et sources, et réponse raisonnée. Cette capacité de citation en temps réel renforce la traçabilité, essentielle dans des secteurs régulés comme la santé, la finance ou le juridique - ou la presse. De plus, les modèles sont qualifiés de « proto-agentic » : ils évaluent automatiquement la complexité d’une requête et peuvent choisir de répondre, reformuler ou refuser selon l’adéquation des sources.
En termes de performance, Pleias-RAG-350M fournit un raisonnement complet en environ vingt secondes sur un système à 8 Go de RAM et se positionne devant la plupart des modèles pesant moins de 4 milliards de paramètres sur des benchmarks multilingues, sans dégradation notable en français, allemand, espagnol ou italien.
Pourquoi est-ce important ? Une alternative éthique, transparente et efficace aux grands modèles de langage, adaptée aux infrastructures limitées et aux besoins de traçabilité des organisations, c’est donc possible… et c’est fait en France, en Europe, vous savez là où la régulation empêche tout.
Sources : VentureBeat, Pierre-Carl Langlais - Linkedin
🚀 5 infos en plus
Google’s AI Overviews now reach more than 1.5 billion people every month (The Verge)
Crowdsourced AI benchmarks have serious flaws, some experts say - oh quelle surprise… (TechCrunch)
Adobe releases new Firefly image generation models and a redesigned Firefly web app (TechCrunch)
Here’s How Big the AI Revolution Really Is, in Four Charts (WSJ)
New study shows why simulated reasoning AI models don’t yet live up to their billing (Ars Technica)
🛠️ Des outils et des modèles à tester
Gemini Browser Agent : contrôler un navigateur avec Gemini 2.5 flash
Genspark : une collection d’agents assez impressionnants avec quelques utilisations gratuites par jour pour tester
Prompting : When you should lie to the language model
🧠 L’article qui fait réfléchir - et qu’il faut absolument lire
In the age of AI, we must protect human creativity as a natural resource
”Certaines vérités ne se formulent pas. Elles s'éprouvent, ou se perdent.”
Dans un paysage envahi par le flot continu de productions synthétiques, la créativité humaine se révèle inestimable. Les systèmes automatiques se distinguent par leur capacité à imiter, mais ils ignorent la richesse des émotions, le poids des expériences vécues et la singularité des parcours individuels. Chaque créateur puise dans son vécu des sensations, des questionnements et des rencontres fortuites qui se mêlent pour donner naissance à des idées originales. Cette diversité de regards et de sensibilités constitue le ferment d’un renouvellement constant de la pensée et d’une innovation toujours imprévisible.
Pourtant, l’aspiration massive et non régulée d’œuvres par les algorithmes menace d’épuiser ce gisement fragile. À la manière d’une surexploitation forestière, l’extraction systématique de contenus disponibles en ligne risque de générer une mer uniforme de textes, d’images et de musiques dénués d’âme. Les plateformes, submergées par des créations génériques, affaiblissent la visibilité des voix authentiques et capturent l’attention du public au détriment de la qualité. Il devient indispensable de redéfinir les règles : instaurer des mécanismes de reconnaissance, garantir une juste rétribution des auteurs et protéger des espaces où la variété culturelle peut s’épanouir.
Pour autant, la technologie n’est pas condamnée à jouer les antagonistes : elle peut devenir le tremplin de l’inventivité. Des assistants intelligents permettent de tester rapidement de nouvelles combinaisons d’idées, d’automatiser les tâches répétitives et de libérer du temps pour la réflexion. Le défi consiste à bâtir un cadre éthique et législatif où l’humain conserve la main et où la machine agit comme un levier. Comment concevoir des politiques de soutien adaptées aux créateurs ? Quelles plateformes encourageront la co-création et préserveront des zones d’expression originale ? Ces interrogations invitent à repenser notre rapport à l’innovation et à défendre la valeur unique de chaque regard. Protéger et nourrir la singularité de chacun demeure la voie la plus porteuse pour imaginer un avenir riche en découvertes et en perspectives nouvelles.
📻 Le podcast de la semaine
Father of AI: AI Needs PHYSICS to EVOLVE | prof. Yann LeCun
Une heure avec Yann LeCun. Si j’étais vous, je la passerais cette heure avec lui. My 2 cts.
N’hésitez à me contacter si vous avez des remarques et suggestions sur cette newsletter, ou si dans votre entreprise vous cherchez à être accompagnés dans l’intégration d’outils IA et d’IA générative : olivier@255hex.ai
Partagez cette newsletter
Et si vous n’êtes pas abonné, il ne tient qu’à vous de le faire !
“Le temps est devenu la seule chose que les physiciens savent mesurer avec une précision diabolique, tout en ignorant encore ce qu'il est, ou même s'il existe vraiment.” Gérard Berry
Bon weekend.
Il est tellement simple d'interagir avec l'IA, que nous prenons le risque de sacrifier notre singularité-créativité sur l’autel de la facilité.