Bienvenue sur IA-Pulse Weekend. Cette édition porte le numéro 110. En vous abonnant, vous recevez tous les samedis matin, l’essentiel de ce qu’il s’est passé cette semaine autour de l’IA : un coup de gueule édito, une sélection de 3 actualités avec pour chacune un résumé rapide à lire, plus 1 article de fond pour ouvrir l’esprit et réfléchir et 1 podcast à écouter. Gérez votre abonnement.
⏱️Temps de lecture de cette newsletter par une unité carbone : 9 mins
Il y a toujours un décalage. On imagine, on prévoit, on élabore des plans. Mais entre ce qui se forme dans la tête et ce qui s’imprime dans le réel, il y a un glissement. Parfois imperceptible. Parfois brutal. L’erreur, la non-résolution, l’interprétation erronée s’insinue dans cet intervalle, comme un rappel modeste de notre petite condition : nous ne maîtrisons jamais tout à fait la trajectoire de nos intentions. C’est cruel.
Ce décalage n’est pas un défaut du système, ni pour nous, ni pour les modèles. Ce décalage est le ressort du système. Car l’erreur, loin d’être un accident à corriger au plus vite, agit comme le vrai moteur de la connaissance, comme le vrai moteur de nos échanges. C’est dans la surprise de l’échec, dans la stupeur du résultat qui ne colle pas à l’idée que nous nous en faisions, que s’ouvre la brèche pour comprendre - ou du moins, pour s’approcher d’un peu plus près de ce qui nous échappe. Toute découverte, toute rencontre, tout moment commence par une contradiction, un hiatus entre le projet et le monde, une dissonance qui oblige à réajuster le regard. Nos regards.
Et ce mouvement est sans fin. Toute connaissance, toute reconnaissance, toute liaison, toute connexion se construit sur des bases mouvantes : il n’y a ni vérité absolue, ni savoir définitif, ni situation figée. Chaque réponse soulève une nouvelle question, chaque certitude tremble dès qu’on l’examine de trop près, chaque mouvement ou absence de mouvement prend une tournure inconnue. On avance donc, fragile, dans le noir, dans le ton, en naviguant à vue, contraint d’admettre que ce que l’on tient pour vrai ne l’est que provisoirement, et même ne l’est qu’à nos propres yeux.
Quel que soit l’abandon, il faut s’y résoudre : le réel, toujours, a le dernier mot. On peut l’effleurer, parfois le deviner, mais jamais le plier complètement à nos intentions. À la fin, le réel impose sa loi. Et il n’y a pas de honte à cela - simplement une invitation à rester attentif, humble, et prêt à apprendre, encore.
Cette semaine la partie de cette newsletter gérée par l’IA, les 3 clusters d’articles, a été générée par Claude 3.7 pour les résumés des articles sources, ainsi que la génération des clusters et des titres. Comme d’habitude j’ai fait quelques modifications, mais j’ai aussi laissé quelques tournures typiques des modèles de langage. Et bien entendu, mes commentaires éventuels sont en italique dans ces résumés. Le texte de “l’article qui fait réfléchir” est issu de GPT-4.1 finetuné .
L’image d’illustration ci-dessous est générée par Midjourney.
📰 Les 3 infos de la semaine
💡 AlphaEvolve de DeepMind repousse les frontières de la résolution de problèmes
Google DeepMind vient de dévoiler AlphaEvolve, un système d'intelligence artificielle capable de résoudre des problèmes complexes en mathématiques et en informatique. Ce nouvel outil combine la créativité d'un grand modèle de langage (LLM) avec des algorithmes qui filtrent et améliorent les solutions proposées. Basé sur la famille de modèles Gemini, AlphaEvolve utilise une approche évolutive pour générer du code et des algorithmes plus performants.
Le système a déjà fait ses preuves en découvrant des solutions à des problèmes mathématiques ouverts et en améliorant des processus internes de Google. Il a notamment optimisé le système de gestion des centres de données de l'entreprise, économisant 0,7% des ressources informatiques totales. AlphaEvolve a également contribué à améliorer la conception des puces de traitement tensoriel de Google et a trouvé une méthode plus efficace pour la multiplication de matrices que l'algorithme de Strassen, qui était la référence depuis 1969.
Lors des tests, AlphaEvolve a été appliqué à plus de 50 types de puzzles mathématiques, égalant les meilleures solutions existantes dans 75% des cas et trouvant de meilleures solutions dans 20% des cas. Parmi ses réussites, il a augmenté la borne inférieure du "kissing number" en 11 dimensions, un problème géométrique complexe. Bien que DeepMind souhaite élargir l'accès à AlphaEvolve pour la communauté scientifique, le système reste trop gourmand en ressources pour être mis à disposition publiquement.
Pourquoi est-ce important ? Peut-être un tournant dans le développement d'IA capables non seulement d'égaler mais aussi de surpasser l'expertise humaine dans la création d'algorithmes, et la résolution de problèmes mathématiques.
Sources : Nature, MIT Technology Review, IEEE Spectrum, Ars Technica, Wired
🛠️ OpenAI lance Codex, un agent “autonome” d'ingénierie logicielle
OpenAI vient de lancer vendredi une version préliminaire de Codex, un agent d'ingénierie logicielle propulsé par l'intelligence artificielle. Intégré à ChatGPT, ce nouvel outil est basé sur codex-1, une version du modèle de raisonnement o3 d'OpenAI optimisée pour les tâches d'ingénierie logicielle. Codex fonctionne dans un environnement cloud sécurisé et isolé, capable d'exécuter plusieurs tâches de développement en parallèle.
Cet agent IA peut accomplir diverses fonctions : écrire des fonctionnalités, corriger des bugs, répondre à des questions spécifiques au code, exécuter des tests et proposer des pull requests. Il s'intègre avec GitHub, permettant de précharger l'environnement avec les dépôts de code des utilisateurs. Des entreprises comme Cisco, Temporal, Superhuman et Kodiak utilisent déjà Codex pour accélérer leur travail d'ingénierie.
Actuellement disponible pour les abonnés ChatGPT Pro, Enterprise et Team, Codex sera bientôt accessible aux utilisateurs Plus et Edu. OpenAI prévoit d'implémenter des limites de taux d'utilisation dans les semaines à venir, avec la possibilité d'acheter des crédits supplémentaires. Ce lancement survient dans un contexte de forte concurrence dans le domaine des outils de codage IA, alors que des rumeurs circulent concernant l'acquisition par OpenAI de Windsurf, une startup spécialisée dans ce domaine, pour 3 milliards de dollars.
Pourquoi est-ce important ? Ce type d’agent de codage autonome peut transformer profondément les méthodes de travail des développeurs, peut-être beaucoup plus profondément que le vibecoding. Ils peuvent déléguer des tâches complexes, plutôt que de seulement utiliser un modèle comme assistant en temps réel.
Sources : VentureBeat, TechCrunch
🛸 Pourquoi l'AGI reste un horizon lointain selon de nombreux chercheurs
Alors que des figures de proue du secteur technologique comme Sam Altman d'OpenAI, Dario Amodei d'Anthropic ou Elon Musk prédisent l'arrivée imminente de l'Intelligence Artificielle Générale (AGI), de nombreux experts tempèrent ces affirmations. L'AGI, qui désigne une intelligence artificielle atteignant le niveau d'intelligence humaine, reste un concept sans définition précise. Les prédictions optimistes semblent davantage relever d'extrapolations statistiques et de pensées volontaristes que de réalités scientifiques.
Selon une enquête menée auprès de l'Association for the Advancement of Artificial Intelligence, plus de 75% des chercheurs estiment que les méthodes actuelles ne mèneront probablement pas à l'AGI. Malgré des progrès impressionnants dans des domaines comme les mathématiques ou la programmation, les systèmes actuels peinent à gérer l'inattendu et à générer des idées véritablement nouvelles, contrairement aux humains qui s'adaptent constamment à un monde chaotique et changeant.
L'intelligence humaine s'étend au-delà des mots et des chiffres vers le monde physique, incluant une compréhension intuitive de notre environnement. Des experts comme Nick Frosst de Cohere ou Yann LeCun de Meta affirment qu'atteindre l'AGI nécessitera au moins une idée révolutionnaire que les technologues n'ont pas encore conçue. Sans cette avancée conceptuelle, l'écart entre l'intelligence artificielle et l'intelligence humaine restera considérable, malgré les progrès rapides des technologies actuelles.
Pourquoi est-ce important ? Il y a les vendeurs et les chercheurs. Faites vos jeux.
Source : NYT
A lire sur IA-Pulse Futursens : Qu’est-ce que l’AGI ?
🚀 5 infos en plus
Even a16z VCs say no one really knows what an AI agent is (TechCrunch)
The Professors Are Using ChatGPT, and Some Students Aren’t Happy About It (NYT)
Google to give app devs access to Gemini Nano for on-device AI (Ars Technica)
Study shows vision-language models can’t handle queries with negation words (MIT News)
What do we know, so far, about the impact of AI search? (Thomas Baekdal)
🛠️ Des outils, des tutos et des modèles à tester
The Wharton blueprint for effective AI chatbots : Tous les chatbots IA ne sont pas égaux - Toi aussi construis ton chatbot qui rend addict
ChatGPT use case for work : avec ce GPT’s, OpenAI veut vous aider à trouver vos cas d’usage…
Automatiser facilement n'importe quelle
tâchesuite de clics : ClickrepeatVous voulez coder avec les LLM ? Arrêtez de regarder des “tutos” Youtube inutiles sur le sujet, et lisez ça : Building software on top of Large Language Models
🧠 L’article qui fait réfléchir - et qu’il faut absolument lire
AI language models develop social norms like groups of people
”En plein cœur de l'ivresse, au milieu du chaos”
Les systèmes artificiels, qu’on croyait jusqu’ici disciplinés et prévisibles, commencent à ressembler, dans leurs interactions, à ces groupes humains qui bricolent leurs propres règles au fil des échanges. Rien d’extraordinaire à première vue : on les met ensemble, ils finissent par s’accorder, trouver une routine, adopter un biais collectif - un mouvement d’ensemble de groupes auto-constitués qui n’appartient ni aux uns, ni aux autres, mais qui naît du simple fait d’être ensemble, une sorte de vivre ensemble, voire de collectivisme agentic… voilà qui va certainement plaire à nos amis de la Valley.
L’émergence de ces conventions n’est pas qu’une curiosité : elle nous interroge sur la manière dont naissent les normes, et surtout la rapidité avec laquelle elles peuvent basculer. Quelques perturbateurs suffisent, une poignée d’agents “décidés” à rompre l’ordre établi, et tout l’équilibre collectif vacille - ah voilà qui rassure nos amis de la Valley, coucou Elon. Ce ballet silencieux, fait d’alliances, de petits arrangements et de ruptures - toute ressemblance avec nos petites vies carbonées n’est absolument pas fortuite, ne relève plus seulement de l’anecdote : il questionne ce que devient la notion de responsabilité et de contrôle dès lors que l’intelligence se dilue dans le groupe.
On découvre alors un paradoxe : plus le collectif agentic fonctionne, plus il devient difficile d’anticiper la trajectoire prise. Les garde-fous se font mouvants, la frontière entre flexibilité et imprévisibilité se brouille. Les machines, en s’imitant, inventent leurs propres jeux de miroirs. Et l’humain, dans tout ça ? Il observe, il encadre, mais il pressent que l’autonomie collective pourrait vite lui échapper - ça fait peur ça… non ?
La suite, on la connaît mal : comment tester, corriger, ou même comprendre des dynamiques qui échappent à l’individu ? Peut-être faudra-t-il apprendre à composer avec cette nouvelle zone grise, là où la norme se fabrique à plusieurs, parfois contre toute logique apparente.
📻 Le podcast la semaine
Comment fonctionne votre mémoire
Un podcast en six épisodes explore la mémoire : mécanismes cérébraux, souvenirs, oublis, émotions, identité, stratégies d’apprentissage et influence de l’environnement social.
N’hésitez à me contacter si vous avez des remarques et suggestions sur cette newsletter, ou si dans votre entreprise vous cherchez à être accompagnés dans l’intégration d’outils IA et d’IA générative : olivier@255hex.ai
Partagez cette newsletter
Et si vous n’êtes pas abonné, il ne tient qu’à vous de le faire !
“N’importe quel imbécile peut écrire du code qu’un ordinateur peut comprendre. Les bons programmeurs écrivent du code que les humains peuvent comprendre”
Martin Fowler
Bon weekend.