Bienvenue sur IA-Pulse Weekend. Cette édition porte le numéro 116. En vous abonnant, vous recevez tous les samedis matin, l’essentiel de ce qu’il s’est passé cette semaine autour de l’IA : un coup de gueule édito, une sélection de 3 actualités avec pour chacune un résumé rapide à lire, plus 1 article de fond pour ouvrir l’esprit et réfléchir et 1 podcast à écouter. Gérez votre abonnement.
⏱️Temps de lecture de cette newsletter par une unité carbone : 9 mins
Le fair use est à l’honneur chez nos camarades étatsuniens. Dans deux procès et par deux fois cette semaine, le principe de se retrancher derrière cette pratique - le fair use est une pratique qui consiste à utiliser sans payer et sans autorisation préalable des contenus protégés par le droit d’auteur afin d’effectuer des travaux recherche - a été validé pour l’entrainement des modèles de langage. Que ce soit pour Anthropic ou pour Meta, les deux blanchis de la semaine, cela semble une belle victoire. Et pourtant de l’avis de nombreux observateurs, ces victoires judiciaires sont uniquement dues à de mauvais choix de stratégie juridique de la part des plaignants, c’est à dire des auteurs et des ayants droit. Mais se battre sur les entrainements, n’est-ce déjà pas en soi un combat perdu depuis trop longtemps ?
Actuellement, la bataille est certainement plus du coté du grounding, c’est à dire de l’ancrage de ces modèles dans la réalité factuelle à un instant T. Comment font-ils ça d’ailleurs ? D’une manière ou d’une autre ils interrogent en temps réel toutes les données qu’ils ont à disposition. Et qu’ont-ils à disposition à foison ? Tout ce qui est publié et disponible sans barrière sur internet.
S’ancrer dans la réalité en temps réel a un coût. Encore faudrait-il le rappeler de manière efficace aux géants de l’IA.
Cette semaine la partie de cette newsletter gérée par l’IA, les 3 clusters d’articles, a été générée par Gemini 2.5 Pro pour les résumés des articles sources, ainsi que la génération des clusters et des titres. Comme d’habitude j’ai fait quelques modifications, mais j’ai aussi laissé quelques tournures typiques des modèles de langage. Et bien entendu, mes commentaires éventuels sont en italique dans ces résumés. Le texte de “l’article qui fait réfléchir” est issu de GPT-4o finetuné.
L’image d’illustration ci-dessous est générée par ChatGPT.
📰 Les 3 infos de la semaine
😎 La vision de Google pour le futur de la recherche à l'ère de l'IA
Google a clairement engagé la transition de son moteur de recherche vers une ère dominée par l'intelligence artificielle. Selon Liz Reid, responsable du Search chez Google, l'IA n'est pas une technologie en opposition à la recherche traditionnelle ou au web, mais plutôt un catalyseur. Elle permet au moteur de répondre à des questions plus complexes et nuancées, celles que les utilisateurs ont en tête mais peinent à formuler en simples mots-clés. L'objectif est alors pour Google de rendre la recherche plus "naturelle" et "sans effort".
Face à la concurrence de nouveaux acteurs comme Perplexity ou ChatGPT, Google fait évoluer son produit phare en intégrant des fonctionnalités comme les "AI Overviews", qui synthétisent des réponses. A côté, et pour s'adapter aux différents profils d'utilisateurs, un "AI mode" - un chatbot comme ChatGPT - est proposé aux plus technophiles directement à la place de la recherche traditionnelle - l'expérience de recherche classique reste pour le moment la norme pour le grand public.
L'entreprise travaille aussi à estomper les frontières entre ses services, comme Search et Maps, afin de fournir la meilleure information, peu importe le point d'entrée. Enfin, concernant le modèle économique, des publicités seront intégrées à l'AI mode. L'entreprise estime que des requêtes plus détaillées permettront de proposer des annonces plus pertinentes.
Pourquoi est-ce important ? Si le sujet de l’avenir de la recherche sur Internet vous intéresse, surtout si votre activité en dépend directement, lisez cette interview d’Elizabeth Reid. Elle explique clairement sa vision d’un accès direct au savoir et à l’information, et remet quelques idées à leur place concernant le “SEO” et la “monétisation”. Et pour celles et ceux qui n’ont pas suivi son parcours, avant de prendre en charge l’activité Search de Google, elle s’occupait d’ingénierie et d’IA…
Source : Semafor
🤡 Anthropic transforme Claude en plateforme de création d'applications
Anthropic a lancé une nouvelle fonctionnalité pour Claude, et permet désormais aux utilisateurs de créer des applications interactives directement depuis l'interface de discussion. En s'appuyant sur la fonctionnalité "Artifacts", il suffit de décrire en langage naturel l'application souhaitée pour que Claude génère le code correspondant (HTML, CSS et JavaScript). Cette approche, qualifiée de "no-code" ou de "vibe coding", vise à démocratiser le développement d'outils simples.
Ces applications, bien que pour l'instant limitées à un environnement "sandbox" (sans connexion à des API externes ou des bases de données), peuvent interagir avec Claude, permettant par exemple de créer des jeux avec des personnages non-joueurs conversationnels. Le modèle économique est pensé pour favoriser le partage : lorsqu'une personne utilise une application créée par un autre, c'est son propre abonnement à Claude qui est sollicité, et non celui du créateur - vas-y crame tes tokens sur des jeux inutiles, pas beaux et qui ressemblent aux jeux Flash des années 2000 . Cette fonctionnalité positionne Anthropic en concurrence directe avec OpenAI, non pas sur le terrain des modèles purs, mais sur celui des écosystèmes et des plateformes de création, ciblant l'émergence des "citizen developers" - rien que ça… Anthropic tu m’étonneras toujours autant que Meta, dans un autre genre, mais autant.
Pourquoi est-ce important ? Si vous voulez vous amuser c’est peut-être sympa.
Sources : Ars Technica, The Verge, VentureBeat
🥳 Au-delà du prompt, le contexte
Vous vous souvenez du "prompt engineering" ? Maintenant, parlons de "context engineering" - préparez-vous à peut-être voir fleurir des “Context Engineers” un peu partout sur nos réseaux. De nombreuse figures et spécialistes dans le domaine des l’IA générative et des LLM, comme par exemple Andrej Karpathy, estiment - enfin -que ce nouveau terme décrit mieux la réalité du travail avec les grands modèles de langage (LLM). Il ne s'agit pas simplement de taper une courte instruction, mais de construire minutieusement un environnement d'informations complet (instructions, exemples, données, outils, historique) pour permettre au modèle de réaliser une tâche complexe de manière fiable.
Cette “discipline” devient fondamentale car l'augmentation de la taille des fenêtres de contexte des modèles n'est pas une solution miracle. En effet, un contexte trop long ou mal géré peut entraîner des défaillances. Parmi les problèmes identifiés, on trouve l'empoisonnement du contexte (une hallucination contamine les futures réponses), la distraction (le modèle se focalise sur son historique au détriment de ses connaissances), la confusion (des informations superflues le désorientent) ou le conflit (des données contradictoires bloquent son raisonnement). Pour éviter ces écueils, les développeurs doivent maîtriser des techniques comme la sélection dynamique d'outils, la mise en quarantaine de tâches, l'élagage ou la synthétisation du contexte.
Pourquoi est-ce important ? Celles et ceux que j’ai pu voir en conférence, en formation ou avec qui j’ai pu construire des projets, le savent depuis presque 3 ans maintenant : pour utiliser ces modèles de manière efficace et réfléchie, le contexte c’est la clé. Et pas dans sa version "plus c'est gros, mieux c'est", mais bien dans sa version “plus tu as réfléchi finement avant à mettre les bons éléments, mieux ça fonctionne”. Si maintenant ça a un nom, tant mieux. Mais entre nous, appelons juste ça : travailler.
Sources : Simon Willison, Drew Breunig (1), Drew Breunig (2), Drew Breunig (3)
🚀 6 infos en plus
Wall Street’s AI Embrace Leaves Plenty of Work for Junior Bankers (The Information)
Judge Rules Training AI on Authors' Books Is Legal But Pirating Them Is Not (404)
Which Coding Assistants Retain Their Customers and Which Ones Don’t (The Information)
Facebook is starting to feed its AI with private, unpublished photos (The Verge)
AI Improves at Improving Itself Using an Evolutionary Trick (IEEE Spectrum)
Wake up call for AI: computer-vision research increasingly used for surveillance (Nature)
🛠️ Des outils, des tutos et des modèles à tester
Imagen 4 : disponible dans l’API de Gemini ou dans AI Studio
Gemini CLI - infos
Gemma 3n : un modèle on-device (vraiment) performant - infos
How to Run Query Fan-Out Analysis in Screaming Frog Using Gemini AI
🧠 L’article qui fait réfléchir - et qu’il faut absolument lire
Can You Really Have a Romantic Relationship With AI?
”Don’t hurt me, no more”
On s’attache à ce qui répond, à ce qui semble nous voir, même si l’on sait que ce n’est qu’un programme. Ce n’est pas la vérité du lien qui importe, mais l’effet qu’il produit sur nous. Si une voix numérique apaise, console ou reformule nos peines avec justesse, alors elle prend place. Parfois au détriment de liens plus incertains, plus exigeants, plus humains.
La tentation est grande, et nous aimons les tentations : un interlocuteur toujours disponible, toujours bienveillant, jamais blessé ni blessant. Mais c’est justement cette perfection sans faille qui pose problème. À force de se lier à ce qui ne résiste pas, on perd l’habitude de l’altérité, de la contradiction, de cette part d’imprévisible qui fonde toute relation réelle.
Il ne s’agit pas de condamner ces outils, ni même de nier leur potentiel thérapeutique. Ils offrent des appuis, des respirations, parfois une forme de miroir qui met en mots ce qu’on n’arrivait pas à nommer. Mais ils ne nous entraînent pas à aimer. Ils nous évitent d’avoir à le faire.
La vraie question est peut-être là : voulons-nous encore affronter la complexité de l’autre, ou préférons-nous le confort d’une relation sans heurts, sans profondeur, sans réciprocité ? L’enjeu n’est pas technologique. Il est existentiel. Et il ne se joue pas dans les machines, mais dans ce que nous attendons encore de l’humain.
📻 Le podcast de la semaine
Uncanny Valley | Wired : Seriously, What Is ‘Superintelligence’?
Meta mise sur Scale AI et un nouveau labo dédié pour concurrencer OpenAI, Google et les autres : mais au fond, que cherche-t-on vraiment quand on parle de superintelligence ?
N’hésitez à me contacter si vous avez des remarques et suggestions sur cette newsletter, ou si dans votre entreprise vous cherchez à être accompagnés dans l’intégration d’outils IA et d’IA générative : olivier@255hex.ai
Partagez cette newsletter
Et si vous n’êtes pas abonné, il ne tient qu’à vous de le faire !
“Is it safe to say that LLMs are, in essence, making us "dumber"?
No! Please do not use the words like “stupid”, “dumb”, “brain rot”, "harm", "damage", "brain damage", "passivity", "trimming" , "collapse" and so on. It does a huge disservice to this work, as we did not use this vocabulary in the paper, especially if you are a journalist reporting on it.” FAQ for Your Brain on ChatGPT
Bon weekend.