Bienvenue sur IA Pulse Weekend. Cette édition porte le numéro 79. En vous abonnant, vous recevez tous les samedis matin, l’essentiel de ce qu’il s’est passé cette semaine autour de l’IA : un coup de gueule édito, une sélection de 3 actualités avec pour chacune un résumé rapide à lire, plus 1 article de fond pour ouvrir l’esprit et réfléchir et 1 podcast à écouter. Gérez votre abonnement.
⏱️Temps de lecture de cette newsletter par une unité carbone : 10 mins
Et hop ! L’IA s’invite à la saison des Prix Nobel ! L’apprentissage automatique et les réseaux de neurones sont devenus les stars dans tous les domaines et toutes les sciences. Bravo ! Ses découvreurs et inventeurs en sont certainement très fiers.
On en parle donc ici cette semaine, avec le triomphe de Google. Dans les deux Prix Nobel se trouvent des chercheurs du géant de la pub et des moteurs de recherche. Un de ces chercheurs, Geoffrey Hinton, est très critique sur le chemin que prend sa créature algorithmique, il parviendrait même à nous faire peur. On parle aussi d’Adobe, qui lance un outil pour que les créateurs puissent protéger leurs œuvres et refuser qu’elles servent pour entraîner des modèles. On finit notre tour de l’actualité par une thématique de plus en plus forte : les agents IA et le pari que font certains sur leurs futures capacités.
Pour nous faire réfléchir ce weekend, je vous propose de lire un portrait de Yann Le Cun, qui contrairement à son camarade du Prix Turing 2018, Geoffrey Hinton - celui qui vient de gagner un Nobel et qui nous fait peur avec les IA qui vont nous détruire - nous invite à raison gardée et calme conservé - ça peut piquer dans le dos en revanche.
Cette semaine la partie de cette newsletter gérée par l’IA, les 3 clusters d’articles, a été générée par Claude-3.5-Sonnet pour les résumés des articles sources, la génération du cluster et de son titre. Comme d’habitude j’ai fait quelques modifications, mais j’ai aussi laissé quelques tournures typiques des modèles de langage. Et bien entendu, mes commentaires éventuels sont en italique dans ces résumés. Le texte de “l’article qui fait réfléchir” est issu d’un ping-pong entre o1-preview et Claude-3.5-Sonnet.
L’image d’illustration ci-dessous est générée par Midjourney.
📰 Les 3 infos de la semaine
🏆Google et DeepMind raflent deux Prix Nobel en sciences
Cette semaine, l'Académie royale des sciences de Suède a décerné les Prix Nobel de physique et de chimie à des chercheurs en intelligence artificielle, marquant ainsi la reconnaissance de l'impact croissant de l'IA dans le domaine scientifique.
Le Prix Nobel de physique a été attribué à Geoffrey Hinton, ancien vice-président et chercheur chez Google, et John Hopfield de l'Université de Princeton, pour leurs travaux pionniers sur les réseaux de neurones. Ces recherches, menées depuis les années 1980, ont jeté les bases de nombreuses technologies d'IA actuelles, notamment celles utilisées dans les conversations de type ChatGPT et la reconnaissance d'images.
Le lendemain, le Prix Nobel de chimie a été décerné à Demis Hassabis et John Jumper de Google DeepMind, ainsi qu'à David Baker de l'Université de Washington, pour leurs avancées dans la prédiction et la conception de structures protéiques. Leur travail, notamment avec le modèle AlphaFold, a permis de prédire rapidement et précisément la forme des protéines, ouvrant de nouvelles perspectives pour le développement de médicaments et de vaccins.
Ces récompenses soulignent l'importance croissante de l'IA dans la recherche scientifique, allant bien au-delà du domaine traditionnel de l'informatique. Elles reflètent également la puissance financière et stratégique des géants du numérique dans le développement de l'IA, Google ayant attiré des chercheurs de renom comme Hinton et acquis DeepMind en 2014.
Cependant, ces distinctions interviennent dans un contexte où les inquiétudes concernant les implications éthiques et sociétales de l'IA sont de plus en plus présentes. Geoffrey Hinton lui-même a quitté Google en 2023 pour pouvoir s'exprimer librement sur les risques potentiels de l'IA - il avait aussi atteint un âge assez avancé pour pouvoir mériter une bonne retraite.
Pourquoi est-ce important ? Cette reconnaissance par le comité Nobel de l'impact de l'IA sur les sciences traditionnelles marque un tournant dans la perception de cette technologie qui est maintenant présente partout.
Sources : The New York Times, The Guardian, The Wall Street Journal, Wired, Le Monde
Au sujet des travaux de Hinton qui lui valent le prix Nobel cette année et qui lui ont valu le prix Turing en 2018 - partagé avec Yann Le Cun et Yoshua Bengio, je vous laisse consulter une autre perspective -critique- qui dénonce “l’appropriation” de travaux d’autres chercheurs sans y faire référence, appropriation ayant rendu possible ce Nobel et ce prix Turing.
Jürgen Schmidhuber l’un des chercheurs plagié en parle : How 3 Turing Awardees Republished Key Methods and Ideas Whose Creators They Failed to Credit
👮 Adobe lance un outil pour protéger les créations contre le scraping des éditeurs d’IA
Adobe a annoncé cette semaine le lancement d'une nouvelle application web gratuite, Adobe Content Authenticity, pour aider les créateurs à protéger leurs œuvres et à recevoir l'attribution adéquate pour leur travail. Ce projet s'inscrit dans le cadre des efforts d'Adobe pour répondre aux préoccupations des artistes concernant l'utilisation non autorisée de leurs créations, notamment pour l'entraînement de modèles d'IA générative.
L'application permet aux créateurs d'appliquer des "Content Credentials" - des tags quoi - à leurs œuvres, fonctionnant comme une "étiquette nutritionnelle" pour le contenu numérique. Ces informations sécurisées peuvent inclure le nom du créateur, son site web, ses comptes de médias sociaux et d'autres détails. Elles restent attachées au contenu tout au long de son cycle de vie numérique, même en cas de capture d'écran.
Une fonctionnalité clé de l'application est la possibilité pour les créateurs de signaler qu'ils ne souhaitent pas que leur contenu soit utilisé pour entraîner des modèles d'IA générative. Bien qu'Adobe affirme que ses propres modèles Firefly ne sont entraînés que sur du contenu sous licence, cette option vise à influencer les pratiques des autres développeurs d'IA.
L'application s'intègre aux outils existants d'Adobe comme Photoshop, Lightroom et Firefly, mais permet également d'appliquer des Content Credentials à tout fichier image, vidéo ou audio, indépendamment de l'outil de création utilisé. Adobe lance également une extension Chrome pour vérifier les Content Credentials sur les sites web.
Pourquoi est-ce important ? Cette nouvelle application représente une première étape dans la protection des droits des créateurs à l'ère des modèles d’IA générative, offrant un outil accessible pour lutter contre l'utilisation non autorisée de contenu dans l’entraînement de ces modèles. Cependant, le succès de ce système dépendra largement de son adoption par d'autres entreprises technologiques - et c’est pas gagné.
Sources : Adobe, The Verge, MIT Technology Review
🤖 Les géants de la tech misent sur les agents IA
Les entreprises d'intelligence artificielle se tournent de plus en plus vers le développement d'agents IA, des programmes autonomes capables d'effectuer des tâches, de prendre des décisions et d'interagir avec leur environnement avec une intervention humaine minimale.
Des géants de la tech comme Microsoft, Google et OpenAI investissent massivement dans cette technologie. Microsoft propose par exemple des "Copilots" pour l'automatisation de tâches administratives, tandis que Google Cloud développe divers agents de productivité. De son côté OpenAI considère les agents comme une étape clé vers l'intelligence artificielle générale (AGI).
Ces agents IA se distinguent des chatbots traditionnels par leur capacité à s'adapter à des situations imprévues et à interagir avec différents systèmes, y compris d'autres outils d'IA. Ils promettent d'automatiser des tâches complexes comme la gestion des achats, la réservation de voyages ou la planification de réunions - pour celles et ceux intéressés : Qu’est-ce qu’un agent IA ?
Cependant, des problèmes persistent. Les démonstrations récentes de tous les acteurs ont révélé des lacunes dans la gestion de scénarios complexes. Un autre point à surmonter est la puissance de calcul importante actuellement nécessaire qui rend les agents coûteux à exploiter à grande échelle.
Malgré ces obstacles, les startups spécialisées dans les agents IA attirent des investissements considérables, avec 8,2 milliards de dollars de financement sur les 12 derniers mois. Des entreprises comme Sierra, fondée par l'ancien co-PDG de Salesforce, Bret Taylor, se concentrant sur des applications spécifiques comme le service client automatisé - peut-être le seul réel cas d’usage bankable rapidement pour le moment.
Pourquoi est-ce important ? L'engouement pour les agents IA révèle la quête de l'industrie pour monétiser les avancées en IA, avec des implications potentielles dans de nombreux secteurs économiques.
Sources : The Verge, The Information, Wired
🚀 3 infos en plus
Anthropic Says Its Chatbot Could Alter Its Hiring Plans (The Information)
OpenAI to integrate SearchGPT into ChatGPT before 2024 ends (Search Engine Land)
Everyone everywhere can now enjoy Imagen 3 in Gemini apps (Android Authority)
🔴 A lire sur IA-Pulse Lab
🧠 L’article qui fait réfléchir - et qu’il faut absolument lire
This AI Pioneer Thinks AI Is Dumber Than a Cat
Quercus cerris
Yann Le Cun, figure de proue de l'intelligence artificielle, professeur à l'Université de New York et responsable de la recherche en IA chez Meta, secoue le cocotier des discours apocalyptiques sur l'intelligence supposée des machines. Alors que certains de ses illustres confrères, Hinton en tête - voir au dessus, sonnent le tocsin d'une menace existentielle imminente, Le Cun balaie ces craintes d'un revers de main, les qualifiant d'exagérations pures et simples.
Mais ne vous y trompez pas : si Le Cun refuse de jouer les Cassandre, ce n'est pas par naïveté. Pour lui, l'IA actuelle, aussi utile soit-elle, reste un jouet comparé à l'intelligence de nos compagnons à quatre pattes de type félin. Ces systèmes, affirme-t-il, sont dépourvus des capacités cognitives fondamentales qui font l'intelligence : pas de modèle du monde physique, pas de mémoire persistante, pas de raisonnement digne de ce nom. Les grands modèles de langage (LLM) ? De simples prédicteurs de mots, créant l'illusion du raisonnement sans réelle compréhension. Un tour de passe-passe linguistique, en somme. C’est le cœur du débat actuel autour des capacités des LLM.
Mais qui a dit que le raisonnement déductif ou le raisonnement humain devaient être des étalons pour définir les capacité de raisonnement de ces objets ? Pour celles et ceux intéressés par le sujet je vous laisse découvrir deux points de vue sur cette question, exprimés à l’occasion de la publication d’un article sur le sujet par une équipe de chercheurs : celui de Damien Benveniste sur LinkedIn, et celui d’un des auteurs de l’article, Mehrdad Farajtabar sur X.
Le Cun s'attaque aussi à l'idée, qui se répand comme une traînée de poudre dans la Silicon Valley, en particulier par les discours marketing de Sam Altman d’OpenAI et de ses homologues chez Anthropic et X , qu'il suffirait d'empiler toujours plus de puissance de calcul et de données pour atteindre l'intelligence artificielle générale (AGI). Pour lui, c'est une impasse. La solution ? Une refonte en profondeur de notre approche de l'IA.
Le chercheur propose une voie alternative, s'inspirant de l'apprentissage humain et animal. Il plaide pour des modèles capables d'apprendre de manière autonome, en se frottant au monde réel à travers des expériences visuelles et sensorielles. C'est en dotant nos systèmes de capacités cognitives similaires à celles des enfants ou des animaux, argue-t-il, que nous pourrons espérer progresser vers une véritable intelligence artificielle.
Si Le Cun refuse de céder à la panique, il ne nie pas pour autant l'impact considérable de l'IA et des LLM dans notre quotidien. De la traduction en temps réel à la modération de contenu sur les réseaux sociaux, ces technologies ont déjà changé la donne. Pourtant, insiste-t-il, nous sommes encore à des années-lumière d'une IA dotée de conscience ou d'une intelligence comparable à la nôtre.
Alors, l'IA, révolution ou évolution ? Pour Le Cun, la réponse est claire : gardons la tête froide et continuons d'innover, sans céder ni à l'euphorie ni à la peur. L'avenir de l'IA se conjugue au présent de l'indicatif, pas au futur de l'apocalypse.
📻 Le podcast de la semaine
Tout se transforme : Faut-il avoir peur des IA ?
Jean- Sébastien Klein reçoit David Renaudie, expert en IA, dans cet épisode de “Tout se transforme”. Ils discutent des avancées, craintes et réalités de l'IA. David démystifie les peurs courantes, explique le fonctionnement des IA actuelles et conseille sur leur intégration réfléchie dans les entreprises.
👨🏽🦳👩🏽🦳 C’était mieux avant - Il y a 1 an
N’hésitez à me contacter si vous avez des remarques et suggestions sur cette newsletter, ou si dans votre entreprise vous cherchez à être accompagnés dans l’intégration d’outils IA et d’IA générative : olivier@255hex.ai
Partagez cette newsletter
Et si vous n’êtes pas abonné, il ne tient qu’à vous de le faire !
Bon weekend.