Bienvenue sur IA Pulse Weekend. Cette édition porte le numéro 77. En vous abonnant, vous recevez tous les samedis matin, l’essentiel de ce qu’il s’est passé cette semaine autour de l’IA : un coup de gueule édito, une sélection de 3 actualités avec pour chacune un résumé rapide à lire, plus 1 article de fond pour ouvrir l’esprit et réfléchir et 1 podcast à écouter.
⏱️Temps de lecture de cette newsletter par une unité carbone : 10 mins
Bonjour à toutes et tous, et bienvenue aux nouveaux abonnés.
Cette semaine avec Ulysse Rajim nous avons lancé une nouvelle rubrique dédiée à des sujets pratiques, IA-Pulse Lab, dont vous avez peut-être lu la première édition.
En tant qu’abonnés vous avez le choix de recevoir ou non par email les rubriques qui vous intéressent. Pour cela, il faut vous rendre dans la gestion de votre compte et choisir dans les options de notification les emails ou alertes que vous souhaitez recevoir. N’hésitez pas, ça évitera d’encombrer votre boite mails.
IA-Pulse est maintenant composée de 3 rubriques distinctes :
IA-Pulse Weekend, que vous lisez actuellement, est une newsletter hebdomadaire envoyée tous les samedis matin. Elle a pour but de vous donner un panorama de l’actu de la semaine sur l’IA générative. Le tout en 10 mins de lecture ou moins. Elle est écrite de manière coopérative entre l’humain - coucou, c’est moi - et des modèles de langage. Le ou les modèles de langage utilisés ne travaillent pas en autonomie mais sous supervision. Les erreurs éventuelles sur le fond ou sur la forme sont donc les miennes, et je suis le seul à les assumer. Le fonctionnement est expliqué à la fin de cet édito.
IA-Pulse Hors Série est une lettre épisodique sans parution définie. Elle a pour but d’explorer une thématique particulière autour de l’IA générative et des LLM à chaque parution.
IA-Pulse Lab est l’espace pratique et tutos. Ulysse a brillamment lancé cette rubrique avec son sujet sur l’automatisation de la veille informationnelle. Le rythme de parution est pour le moment quinzomadaire.
Sur ce, je vous laisse avec l’actu de la semaine.
Sam Altman nous fait le coup du messie et de la vision claire du monde de demain, tout en perdant une partie importante de son équipe et en voulant transformer OpenAI en entreprise de tech “normale”. Fini le labo de recherche, Vive l’entreprise tech valorisée à 150 milliards de dollars ! OpenAI c’est SamAI. Et pour fêter ça, le mode conversation avancée de ChatGPT est disponible pour toutes et tous. Sauf pour l’Union Européenne, la Suisse et le Royaume-Uni - pssst un VPN et ça passe… si, si… Et à côté de tout ça, que penser de Zuck et des annonces de Meta de cette semaine ? Un nouveau modèle multimodal, Llama 3.2, au service de Meta AI et de clones de stars - Meta nous avait déjà fait le coup des clones de ‘beautiful people’ l’an passé. Enfin, après Google, c’est au tour de Microsoft de nous sortir sa technologie pour limiter les hallucinations des LLM. Car oui, c’est bien beau toutes ces nouveautés et ces aventures à rebondissements, mais nos LLM souffrent encore et toujours actuellement du même mal : l’impossibilité de vérifier eux-mêmes si leurs productions se réfèrent à une réalité factuelle.
Cette semaine la partie de cette newsletter gérée par l’IA, les 3 clusters d’articles, a été générée par Claude-3.5-Sonnet pour les résumés des articles sources, la génération du cluster et de son titre. Comme d’habitude j’ai fait quelques modifications, mais j’ai aussi laissé quelques tournures typiques des modèles de langage. Et bien entendu, mes commentaires éventuels sont en italique dans ces résumés. Le texte de “l’article qui fait réfléchir” est issu d’un ping-pong entre cette semaine encore de o1-preview tout seul - Sam nous a encore dit que o1 savait réfléchir.
L’image d’illustration ci-dessous est générée par Midjourney.
📰 Les 3 infos de la semaine
🙉L’ère de l’intelligence d’OpenAI, entre vision et réalité
Sam Altman, PDG d'OpenAI, a partagé en début de semaine sa vision de l'avenir de l'intelligence artificielle. Dans un billet de blog intitulé "L'ère de l'intelligence", il prédit l'avènement d'une “IA superintelligente” dans "quelques milliers de jours" - whaou ça fait peur… brrr… Altman envisage un monde où l'IA apportera une prospérité sans précédent, résolvant des problèmes majeurs comme le changement climatique et permettant des avancées scientifiques majeures - le monde des Bisounours dopé aux LLM.
Cependant, cette vision optimiste contraste avec la réalité des turbulences internes que traverse actuellement OpenAI. La société a connu une série de départs de haut niveau, dont cette semaine celui de Mira Murati, directrice technologique, ainsi que du directeur de la recherche et d'un vice-président de la recherche. Ces départs s'inscrivent dans un contexte plus large de tensions au sein de l'entreprise, opposant la mission originelle de recherche pour le bien public à la nécessité de développer des produits rentables.
OpenAI fait face à des défis financiers importants, avec des coûts annuels estimés à 7 milliards de dollars pour des revenus de seulement 3 milliards. Pour y remédier, l'entreprise cherche à lever des fonds qui pourraient valoriser la société à 150 milliards de dollars. Parallèlement, des discussions sont en cours pour transformer OpenAI en une entreprise à but lucratif traditionnelle, s'éloignant de sa structure initiale de contrôle par une organisation à but non lucratif.
Ces changements soulèvent des questions sur l'équilibre entre l'ambition technologique et la viabilité financière. Certains employés craignent que la focalisation sur les produits ne détourne l'attention de la recherche pure. Et surtout, la pression pour lancer rapidement de nouvelles fonctionnalités a parfois conduit à des compromis sur la sécurité, comme lors du lancement précipité du modèle GPT-4o.
Pourquoi est-ce important ? Sam Altman joue et surjoue la carte communication à tous les niveaux, sur tous les sujets et sur tous les tons. Empruntant peut-être aux démarches de Bill Gates et de Steve Jobs une certaine forme de vision, il n’en reste pas moins que son objectif à court terme, ce sont les 150 milliards de valorisation.
Sources : Sam Altman, Ars Technica, Wired, The New York Times, The Wall Street Journal
🙈 Meta mise sur l'IA multimodale pour ses applications
Meta a annoncé cette semaine de nouvelles lunettes mais surtout une série d'améliorations de ses outils et modèles d'intelligence artificielle. Mark Zuckerberg a dévoilé que les assistants IA de Meta peuvent désormais parler et voir le monde qui les entoure. Cette évolution vers une IA multimodale ouvre la voie à des applications plus variées et intuitives dans les produits de l'entreprise.
L'un des points forts est le lancement de Llama 3.2, la première version des modèles IA gratuits de Meta à intégrer des capacités visuelles. Cette avancée élargit considérablement le champ d'application de Llama, le rendant pertinent pour la robotique, la réalité virtuelle et les agents IA. Certaines versions de Llama 3.2 sont également optimisées pour fonctionner sur des appareils mobiles, facilitant le développement d'applications IA exploitant la caméra ou l'écran des smartphones.
Sur le plan de l'interaction, Meta a annoncé que ses assistants IA, basés sur son chatbot Meta AI, auront désormais une gamme de voix de célébrités, incluant Dame Judi Dench et John Cena. De plus, l'IA de Meta pourra comprendre et éditer les photos des utilisateurs, offrant des capacités similaires à celles récemment introduites par Google pour ses smartphones Pixel.
Pourquoi est-ce important ? L'expansion des capacités d'IA de Meta, notamment dans les domaines de la vision et de la parole, pourrait transformer l'interaction des utilisateurs avec ses plateformes, renforçant sa position concurrentielle face à des acteurs comme OpenAI et Google dans le domaine de l'IA grand public.
Sources : Tech Crunch, Wired, The Information
🙊 Correction : l'arme de Microsoft contre les hallucinations IA
Microsoft vient de dévoiler un nouvel outil appelé "Correction", conçu pour détecter et corriger automatiquement les inexactitudes dans les sorties générées par l'IA. Cette fonctionnalité, disponible en preview dans le cadre de l'API Azure AI Content Safety, vise à améliorer la fiabilité des contenus générés par l'IA en les comparant à des sources spécifiées.
Le processus de correction se déroule en plusieurs étapes. Tout d'abord, un modèle classificateur identifie les passages potentiellement incorrects, fabriqués ou non pertinents dans le texte généré par l'IA. Ensuite, si des hallucinations sont détectées, un second modèle de langage tente de corriger ces erreurs en se basant sur des documents de référence spécifiés. Microsoft affirme que cette approche peut améliorer la fiabilité et la crédibilité du contenu généré par l'IA.
Cependant, des experts dans le domaine de l'IA émettent des réserves quant à l'efficacité de cette solution. Ils soulignent que les hallucinations sont inhérentes au fonctionnement même des modèles de langage actuels et que l'utilisation d'un autre modèle pour les corriger pourrait simplement déplacer le problème. De plus, certains craignent que cette approche ne crée un faux sentiment de sécurité chez les utilisateurs, les incitant à faire davantage confiance aux modèles qu'ils ne le devraient.
Pourquoi est-ce important ? L'introduction de cet outil par Microsoft reflète les efforts croissants de l'industrie pour améliorer la fiabilité de l'IA, un enjeu majeur pour l'adoption à grande échelle de cette technologie dans des contextes professionnels et sensibles.
Sources : Tech Crunch, The Verge, Venture Beat
🚀 3 infos en plus
Mark Zuckerberg: creators and publishers ‘overestimate the value’ of their work for training AI (The Verge)
OpenAI Training Data to Be Inspected in Authors’ Copyright Cases (The Hollywood Reporter)
A tiny new open-source AI model performs as well as powerful big ones (MIT Technology Review)
🔴 A lire sur IA-Pulse Lab
🧠 L’article qui fait réfléchir - et qu’il faut absolument lire
Do AI models produce more original ideas than researchers?
Les aventures du Professeur Thibault et de Mlle Hortense
L'apparition de modèles d'intelligence artificielle capables de générer des idées de recherche originales nous poussent à reconsidérer le rôle de la créativité humaine. Si des modèles d'IA peuvent proposer des concepts jugés plus novateurs que ceux de chercheurs expérimentés, que cela signifie-t-il pour l'avenir de la recherche scientifique ?
D'un côté, l'IA peut explorer un vaste éventail de possibilités en un temps record, sans être limitée par les biais cognitifs ou les habitudes de pensée qui peuvent freiner les humains. Elle peut combiner des informations provenant de multiples sources pour générer des idées que nous n'aurions peut-être pas envisagées. Cela suggère que l'IA pourrait être un outil puissant pour stimuler l'innovation et accélérer les découvertes scientifiques.
Mais la créativité humaine ne se résume pas à la génération d'idées nouvelles. Elle implique également l'intuition, l'expérience personnelle et la compréhension profonde des nuances d'un domaine. L'IA, aussi avancée soit-elle, ne possède pas de conscience ni d'expérience vécue. Elle ne peut pas ressentir la curiosité, l'émerveillement ou la passion qui motivent tant de chercheurs dans leur quête de connaissance.
De plus, la faisabilité des idées est primordiale. Une idée peut être brillante sur le papier, mais irréalisable en pratique. Les chercheurs humains apportent un jugement critique et une expertise qui sont essentiels pour évaluer et développer des concepts prometteurs. Ils peuvent anticiper les obstacles, adapter les approches et faire preuve de créativité pour surmonter les défis.
Et doit-on parler de l'éthique et de la responsabilité ? Les décisions sur les directions de recherche ont des implications profondes pour la société. Confier ces choix à une IA sans supervision humaine pourrait mener à des conséquences inattendues ou indésirables. L'innovation ne vient pas seulement des outils que nous utilisons, mais de la manière dont nous les intégrons dans notre quête pour comprendre le monde - avec ces ‘nous’, o1 se prend vraiment pour un humain, ou tente de le faire croire.
📻 Le podcast de la semaine
Parlez-moi d’IA : Initier les enfants à la créativité et la curiosité via l’IA avec Marion Laugier
L’émission n°43 de Parlez-moi d’IA explore comment initier les enfants à l’intelligence artificielle avec Marion Laugier, fondatrice de Juniors AI.
👨🏽🦳👩🏽🦳 C’était mieux avant - Il y a 1 an
N’hésitez à me contacter si vous avez des remarques et suggestions sur cette newsletter, ou si dans votre entreprise vous cherchez à être accompagnés dans l’intégration d’outils IA et d’IA générative : olivier@255hex.ai
Partagez cette newsletter
Et si vous n’êtes pas abonné, il ne tient qu’à vous de le faire !
Bon weekend.