Bienvenue sur IA-Pulse Weekend. Cette édition porte le numéro 101. En vous abonnant, vous recevez tous les samedis matin, l’essentiel de ce qu’il s’est passé cette semaine autour de l’IA : un coup de gueule édito, une sélection de 3 actualités avec pour chacune un résumé rapide à lire, plus 1 article de fond pour ouvrir l’esprit et réfléchir et 1 podcast à écouter. Gérez votre abonnement.
⏱️Temps de lecture de cette newsletter par une unité carbone : 8 mins
Depuis les années 70, le logiciel a dévoré le monde. Depuis 2 ans, ce que l’on nomme “l’IA”, elle, digère ce qu’il en reste à une vitesse jamais atteinte par aucun système auparavant. C’est comme si nous nous approchions de plus en plus près d’un horizon des événements.
L’actuel modèle de notre monde connecté, dominé par des logiciels, des applications cloisonnées et des marketplaces prélevant leur tribut, est en train de s’effondrer devant nos yeux. L’IA non contente d’assister et d’augmenter, maintenant orchestre. Plus de silos logiciels, plus de navigation entre icônes et fenêtres. Un assistant unique peut tout gérer, de la planification de voyage à l’optimisation financière, du date de ce week-end au burger libanais livré en 10 minutes à 23h. La notion même d’ouvrir une app va devenir archaïque. Les stores d’applications, bastions imprenables du numérique des millennials, vont vaciller. Plus d’écosystèmes fermés, plus de 30 % de commissions à ces physios digitaux gardiens des entrées du monde des apps, bien plus avides qu’un Sven Marquardt, mais aussi bien moins intègres et rigides.
L’IA dissout les intermédiaires et redistribue le pouvoir vers ceux qui détiennent les modèles, les données et l’expérience utilisateur. C’est encore imperceptible, mais ça arrive. Le modèle, c’est le produit.
La rupture ne consiste pas toujours à faire mieux, mais souvent à faire différemment, autrement. L’agent IA est un “autre”. Comme toi.
Cette semaine la partie de cette newsletter gérée par l’IA, les 3 clusters d’articles, a été générée par Gemma-3-27B pour les résumés des articles sources, ainsi que la génération des clusters et des titres. Comme d’habitude j’ai fait quelques modifications, mais j’ai aussi laissé quelques tournures typiques des modèles de langage. Et bien entendu, mes commentaires éventuels sont en italique dans ces résumés. Le texte de “l’article qui fait réfléchir” est issu d’un ping-pong entre Gemini 2.0 Flash Thinking Experimental 01-21 (temp. 1.4) et GPT-4o finetuné.
L’image d’illustration ci-dessous est générée par Midjourney.
📰 Les 3 infos de la semaine
🦾 OpenAI propose de nouveaux outils pour développer les agents IA en entreprise
OpenAI redouble d’efforts pour permettre aux entreprises de créer leurs propres agents d'intelligence artificielle, capables d'effectuer des tâches de manière autonome. La société a dévoilé cette semaine une plateforme de création d'agents, permettant aux entreprises de développer des bots spécialisés. A cette occasion, OpenAI a aussi communiquer sur l’augmentation du nombre d'utilisateurs professionnels payants de ChatGPT, qui a doublé en six mois, atteignant deux millions.
Cette annonce intervient dans un contexte de concurrence croissante et d'attentes élevées concernant les agents IA. Des entreprises comme Manus AI, basée en Chine, ont fait sensation avec des agents capables d'effectuer des tâches complexes. Cependant, l'adoption de cette technologie par les entreprises reste limitée, car elles hésitent à confier des tâches sensibles, comme les transactions financières ou le recrutement, à des systèmes d'IA - sans blague.
OpenAI mise sur l'amélioration continue de ses modèles d'IA, en particulier ceux axés sur le raisonnement, pour surmonter ces réticences. La société a déjà lancé des agents tels qu'Operator - disponible officiellement en France depuis cette semaine pour les détenteurs d’un compte pro ChatGPT a.k.a. “fais péter les 200 dollars par mois” - capable de naviguer sur le web pour effectuer des achats et gérer des dépenses, et un agent de recherche approfondie - Deep Research - capable de réaliser des études complexes en un temps record. La plateforme de création d'agents proposée par OpenAI permet aux développeurs d'utiliser n'importe lequel des modèles de la société, ainsi que des outils de recherche sur le web et d'accès aux fichiers. Le coût d'utilisation de la plateforme est basé sur le nombre de requêtes, d'actions et de données stockées, ainsi que sur l'utilisation des modèles d'IA. Des entreprises comme Stripe et Box ont déjà commencé à tester la plateforme, en développant des prototypes d'agents capables d'automatiser des tâches spécifiques.
Pourquoi est-ce important ? Si 2025 est bien la promesse de “l’année des agents”, vous ne devriez pas passer à coté de ces automatisations dopées aux LLM. Manus, Convergence et d’autres sont déjà entrés dans la danse. Operator sera-t-il la version la plus lisse ?
Sources : The Wall Street Journal, TechCrunch, Ars Technica
🚙 Gemma 3, le modèle 4x4 de Google
Google a mis en ligne cette semaine Gemma 3, une nouvelle version de son modèle d'IA “open source”, conçu pour les développeurs - mais pas que - souhaitant créer des applications d'IA performantes et efficaces. Gemma 3 a la capacité à fonctionner sur des appareils disposant de ressources limitées, tels que les téléphones et les ordinateurs portables, tout en offrant des performances comparables à celles de modèles plus volumineux.
Le nouveau modèle est disponible en quatre tailles différentes (1B, 4B, 12B et 27B paramètres), permettant aux développeurs de choisir la configuration la plus adaptée à leurs besoins et à leurs ressources. Gemma 3 offre également une fenêtre de contexte étendue de 128 K tokens, lui permettant de traiter des informations plus complexes et de comprendre des requêtes plus nuancées. Il prend en charge plus de 140 langues, analyse les images, les textes et les courtes vidéos, et permet l'automatisation de tâches grâce à la fonction d'appel de fonctions.
Les tests réalisés par Google montrent que Gemma 3 surpasse les performances de modèles concurrents tels que Llama-405B, DeepSeek-V3 et o3-mini - oui, enfin, il faut raison gardée... Côté sécurité, Google a intégré un système de vérification de la sécurité des images, ShieldGemma 2, capable de détecter et de bloquer les contenus inappropriés.
Pourquoi est-ce important ? Utilisée ici pour générer les clusters d’actualité de cette édition, la version à 27 milliards de paramètres est à la fois performante et efficiente. Ce n’est pas toujours le cas sur des modèles du même type.
Sources : The Verge, VentureBeat, Google
🥂 Google et OpenAI : “le Fair Use est à nous !”
En cette fin de semaine, Google et OpenAI ont publié des propositions en réponse à l'appel du gouvernement américain pour un plan d'action en matière d'IA. Les deux entreprises plaident de concert pour une approche très souple de la réglementation du droit d'auteur, en particulier en ce qui concerne l'utilisation de données protégées pour l'entraînement des modèles d'IA. Elles soutiennent que les exceptions de "fair use" et de "text and data mining" sont essentielles pour favoriser l'innovation et la recherche en IA.
Les deux entreprises estiment que les restrictions “excessives” sur l'utilisation de données protégées entravent le développement de l'IA et nuisent à la compétitivité des États-Unis. Elles proposent de clarifier et d'étendre les exceptions de "fair use" pour permettre aux développeurs d'IA d'utiliser des données publiées sur le web sans avoir à obtenir l'autorisation des détenteurs des droits d'auteur. Elles soulignent également la nécessité de trouver un équilibre entre la protection des droits d'auteur et la promotion de l'innovation - hey les gars, le déséquilibre est déjà en votre faveur…
Pourquoi est-ce important ? Les géants de la Silicon Valley ont un discours cohérent avec leurs actes. Depuis des années, ils n’ont que faire des droits d’auteur - des autres. Ils demandent juste que cela devienne officiel.
Source : CNBC, TechCrunch
🚀 3 infos en plus
Are Enterprises Actually Using Reasoning Models? (The Information)
Chinese Companies Rush to Put DeepSeek in Everything (Wired)
🛠️ Des outils et des modèles à tester
🔎 La nouvelle version du Deep Research de Google Gemini
🖼️ La génération multimodale (texte et image) directement avec Gemini 2.0 Flash Experimental dans AI Studio
🤖 L’agent Deep Work de Convergence AI
🧠 L’article qui fait réfléchir - et qu’il faut absolument lire
Sentiment Analysis Moves into Voice Interactions
”I Never Believed”
La voix, longtemps reléguée à un second plan par des algorithmes obsédés par le texte, resurgit aujourd’hui chargée d’une vérité inconfortable : elle dévoile bien plus qu’elle ne dit. Les mots mentent, s’arrangent, se maquillent. La voix, elle, trahit. L’intonation hésite, le rythme s’accélère, un silence s’étire : autant d’indices que les machines commencent tout juste à saisir, dévoilant un paysage émotionnel longtemps resté inaccessible.
C’est une avancée subtile pour certains : une technologie capable de capter en temps réel la frustration à peine naissante d’un client, ou cette minuscule fissure dans la voix qui annonce une détresse invisible. Les promesses sont immenses : services clients enfin réactifs, diagnostics médicaux affinés, stratégies marketing redoutablement précises. Mais derrière cette fascination immédiate perce déjà une inquiétude, silencieuse mais tenace.
Car la voix, si elle dévoile, trompe aussi. Son interprétation universelle est un leurre. Comment normaliser une émotion vocale quand chaque culture, chaque individu, porte son propre langage intérieur et extérieur ? Cette technologie, séduisante par sa précision affichée, risque paradoxalement d’augmenter le bruit plutôt que d’éclairer le signal. Elle impose aussi une question dérangeante : jusqu’où sommes-nous prêts à accepter que nos émotions, ces dernières parts irréductibles de notre intimité, soient disséquées, mesurées, et finalement exploitées ?
Ce nouveau regard technologique sur la voix nous ramène à une frontière familière mais toujours mouvante : celle qui sépare l’humain de la machine. L’ironie est que cette frontière ne cesse de s’estomper à mesure que la machine devient capable de percevoir ce que nous-mêmes ignorons parfois. Ce n’est plus seulement une question de technologie, mais une réflexion sur notre rapport à l’intime, sur l’équilibre précaire entre compréhension et intrusion, entre authenticité et artifice.
📻 Le podcast de la semaine
Comptoir IA - Vibe Coding : Coder Sans Coder, Le Futur Selon Mathieu !
Nicolas reçoit Mathieu Crucq, DG de Brainsonic, pour décrypter l’IA générative : Vibe Coding, avatars, vidéo et productivité. Il insiste sur l’expertise humaine, l’apprentissage actif et la nécessité d’une vision claire pour éviter les dérives et maximiser les opportunités offertes par l’IA.
N’hésitez à me contacter si vous avez des remarques et suggestions sur cette newsletter, ou si dans votre entreprise vous cherchez à être accompagnés dans l’intégration d’outils IA et d’IA générative : olivier@255hex.ai
Partagez cette newsletter
Et si vous n’êtes pas abonné, il ne tient qu’à vous de le faire !
“AI is never the answer. AI is the tool. Whatever skills you have, you can use AI to amplify them.” Mark Cuban.
Bon weekend.
Merci pour l'article sur les émotions et la voix. C'est un domaine qui, bien évidemment, heurte beaucoup les acteurs du spectacle vivant. Comprendre les évolutions techs permet d'anticiper les évolutions des chaines de valeur (Audio-book, doublage, voix-off, etc)