Bienvenue sur IA-Pulse Weekend. Cette édition porte le numéro 83. En vous abonnant, vous recevez tous les samedis matin, l’essentiel de ce qu’il s’est passé cette semaine autour de l’IA : un coup de gueule édito, une sélection de 3 actualités avec pour chacune un résumé rapide à lire, plus 1 article de fond pour ouvrir l’esprit et réfléchir et 1 podcast à écouter. Gérez votre abonnement.
⏱️Temps de lecture de cette newsletter par une unité carbone : 9 mins
Donald Trump est de retour. Selon ses déclarations durant la campagne et les commentaires avisés - ou non - des observateurs éclairés - ou non, il va revoir la politique fédérale au sujet de l’IA, en particulier les obligations qui avaient été mises en place ou qui devaient être mises en place sur la sécurité des modèles et l’alignement sur les valeurs humaines - concept fourre-tout interprétable à l’envi. D’ailleurs, peut-être qu’au lieu de se focaliser quasiment uniquement sur cet alignement, nos amis de la Silicon Valley devraient développer davantage des outils d’observabilité capables d’analyser finement les résultats et les comportements des modèles et outils. Mais c’est une autre histoire.
Ce qu’a permis cette élection, c’est au moins pour Perplexity de tester un nouvel accès à l’information en temps réel avec l’aide de modèles d’IA. À cette échelle et pour un événement de cette ampleur, c’est la première fois. Les tests de différents acteurs pendant les JO de 2024 semblent déjà largement dépassés par rapport à ce qu’a fait le “moteur de réponses” cette semaine.
Pour continuer sur l’actualité, Mistral a lancé il y a quelques jours une API de modération de contenu. Se positionnant de facto en alternative crédible en Europe face à OpenAI. Et puis, certains commencent à se poser de bonnes questions sur l’emploi des assistants IA par les développeurs pour produire des lignes de code. Auront-ils les bonnes réponses ? C’est ici aussi une autre histoire.
Ne manquez pas le podcast de la semaine, il ne dure que 3 minutes. Il parle de catégories.
Cette semaine la partie de cette newsletter gérée par l’IA, les 3 clusters d’articles, a été générée par GPT-4o-mini pour les résumés des articles sources, et Claude-3.5-Sonnet pour la génération du cluster et de son titre. Comme d’habitude j’ai fait quelques modifications, mais j’ai aussi laissé quelques tournures typiques des modèles de langage. Et bien entendu, mes commentaires éventuels sont en italique dans ces résumés. Le texte de “l’article qui fait réfléchir” est issu d’un ping-pong entre Claude-3.5-Sonnet et o1-preview.
L’image d’illustration ci-dessous est générée par Midjourney.
📰 Les 3 infos de la semaine
🤫Le pari gagné de Perplexity pendant les élections américaines
Alors que les grands acteurs de l'IA ont préféré la prudence lors des élections américaines, Perplexity a pris le contrepied en proposant une couverture complète en temps réel. Un choix périlleux qui s'est avéré payant : son "Election Information Hub" a fourni des informations précises tout au long de la soirée électorale, là où le chatbot Grok d'Elon Musk multipliait les erreurs et où Google et OpenAI avaient choisi de rester muets, au moins aux Etats-Unis.
Ce projet de Perplexity est pour le moment unique de par sa mise en forme et sa méthodologie : des cartes électorales alimentées par l'Associated Press, des informations sur le vote issues de Democracy Works, et un système de questions-réponses encadré par des sources vérifiées. Cette combinaison de données officielles et d'intelligence artificielle a permis d'éviter en grande partie les écueils habituels des systèmes d'IA, comme les hallucinations ou les biais. Les résultats se sont révélés plutôt positifs, avec peu d'erreurs constatées et des corrections rapides lorsque nécessaire.
Mais n’oublions pas que ce type de projets éditorial comporte néanmoins des risques non négligeables. En se positionnant comme source directe d'information pendant un événement politique majeur, Perplexity s'est exposée davantage que ses concurrents. La nécessité de mettre à jour les données en continu et de maintenir une précision irréprochable a placé l'entreprise sous haute surveillance : la moindre erreur ou information inexacte aurait entaché durablement sa crédibilité.
Pourquoi est-ce important ? Cette démonstration sur un évènement de cette importance montre que des outils et modèles d’IA peuvent traiter de manière assez efficace de l'actualité en temps réel, même s’il reste des problèmes à corriger. Mais pour le moins, cette expérience ouvre peut-être la voie à de nouveaux modèles de diffusion de l'information. Car la réelle question qui est posée ici n’est pas tant d’automatiser ou de remplacer le travail des journalistes, mais peut-être plus de revoir la manière dont les médias, la presse, les éditeurs et les producteurs de contenus, diffusent les informations et nous permettent à toutes et tous d’en prendre connaissance.
Sources : Business Insider, Fortune, Tech Crunch, Tech Crunch (2), Wired
😮💨Sécurité et flexibilité : l’approche de Mistral pour la modération de contenu
La startup française Mistral a lancé cette semaine une API de modération de contenu, ajoutant un outil de taille à l’écosystème de l’intelligence artificielle en Europe. Basée sur le modèle Ministal 8B, cette API est capable de détecter et classer des contenus potentiellement sensibles dans neuf catégories, comme la violence, les propos haineux ou les informations personnelles. Cet outil se distingue par sa capacité multilingue, incluant des langues variées telles que le français, l’allemand et le chinois.
À une époque où les entreprises font face à des pressions croissantes pour renforcer la sécurité de leurs technologies, Mistral se démarque aussi par sa flexibilité : son API qui respecte les règles européennes de confidentialité et de protection des données, est adaptable aux exigences de chaque client, permettant ainsi une modération sur mesure.
Ce lancement s’inscrit dans une stratégie de partenariats avec des acteurs comme SAP, qui mettent eux aussi en avant la capacité de Mistral à respecter les normes européennes. Contrairement aux géants américains, qui privilégient des solutions basées sur le cloud, Mistral propose aussi des solutions embarquées sur les appareils, répondant ainsi aux attentes des entreprises soucieuses de la sécurité et de la latence.
Pourquoi est-ce important ? Avec ce nouveau produit, Mistral renforce sa position sur le marché en tant que fournisseur européen de solutions IA, et tente de répondre aux préoccupations croissantes en matière de sécurité et de conformité.
Sources : Tech Crunch, Venture Beat
🥸 Le paradoxe des assistants de code IA - on est tous le junior d’un autre
L'adoption massive des assistants de code IA révèle ses premières failles. Selon une analyse de GitClear portant sur 153 millions de lignes de code, le taux de "churn" - code rapidement modifié ou supprimé après sa mise en production - a bondi de 39% entre 2022 et 2023. Cette période correspond précisément à l'explosion de l'utilisation d'outils comme GitHub Copilot.
Le problème se situe notamment au niveau des développeurs juniors - ah... le problème c’est toujours l’humain, en particulier jeune - j’aime pas les jeunes, je suis vieux, je ne vais pas les défendre hein - mais jamais la technologie, nous le savons tous. Harish Mukhami, PDG de GibsonAI, pointe leur tendance à accepter les suggestions de code sans examen approfondi. Les assistants IA, privés du contexte global des projets et des discussions d'équipe, génèrent fréquemment du code redondant ou inutilement complexe, créant une dette technique invisible - ça dépend pour qui.
Et pourtant, les chiffres d’utilisation de ces assistants sont pourtant impressionnants : par exemple chez Google, l'IA génère plus d'un quart du nouveau code. GitHub Copilot produit près de la moitié du code dans les fichiers où il est activé. Mais là encore, cette productivité apparente masque cependant une réalité plus nuancée : les développeurs expérimentés acceptent moins de suggestions que leurs collègues juniors - bon alors accélérons le passage de junior à sénior, ça évitera de se poser plus de questions sur ces outils et leur emploi.
Des solutions émergent pour corriger ces dérives - ah quand même. Certaines entreprises restreignent l'usage des assistants au code standard. D'autres, comme Cursor, intègrent des fonctionnalités de révision automatique. Ou Sourcegraph qui développe des raccourcis personnalisés adaptés à chaque entreprise, permettant une utilisation plus contrôlée de l'IA.
Pourquoi est-ce important ? L'augmentation des problèmes de qualité du code menace directement la stabilité des applications futures, forçant le secteur à repenser l'intégration des assistants IA dans les pratiques de développement. Et donner la bonne formation et la bonne information aux “juniors”, on en parle ?
Source : The Information
🚀 3 infos en plus
Meta's AI feasts on user data (Axios)
News organisations are forced to accept Google AI crawlers, says FT policy chief (Press Gazette)
Even Microsoft Notepad is getting AI text editing now (The Verge)
🧠 L’article qui fait réfléchir - et qu’il faut absolument lire
Despite its impressive output, generative AI doesn’t have a coherent understanding of the world
Lights in the Sky
L'intelligence artificielle moderne, en particulier les grands modèles de langage (LLM), a atteint des performances impressionnantes, capables de rédiger de la poésie ou de générer du code informatique - enfin pas totalement, voir plus haut ^^. Cependant, cette aptitude à produire des résultats remarquables ne signifie pas nécessairement une compréhension profonde des concepts ou des règles qui gouvernent notre monde - déjà que les humains ne les comprennent pas eux-mêmes. Cette distinction entre performance et compréhension soulève des questions fondamentales sur la nature de l'intelligence et de la cognition, tant artificielle qu'humaine.
Des recherches récentes ont révélé que les LLM peuvent accomplir des tâches complexes en prédisant des séquences de données sans internaliser les structures ou les principes sous-jacents. Par exemple, un modèle peut fournir des directions routières précises ou effectuer des coups valides dans un jeu de société sans réellement comprendre la topographie d'une ville ou les règles du jeu. Cette lacune devient manifeste lorsque des modifications mineures sont introduites, comme l'ajout de détours dans un itinéraire : les performances du modèle se dégradent alors significativement.
Ce constat met en lumière un défi dans le développement des systèmes d'IA : leur capacité à s'adapter à des situations nouvelles ou légèrement modifiées. Il souligne la différence fondamentale entre la mémorisation de patterns et la compréhension profonde des principes. La question de la généralisation des apprentissages devient alors centrale. Comment concevoir des systèmes qui, au-delà de la simple reproduction de schémas, développent une véritable compréhension leur permettant de s'adapter et de généraliser efficacement ?
Cette réflexion nous conduit à reconsidérer nos méthodes d'entraînement et d'évaluation de l'IA. L'apparente maîtrise d'une tâche peut masquer une absence de compréhension des fondements qui la régissent. Il est donc essentiel de développer de nouveaux critères pour mesurer la véritable compréhension d'un système, plutôt que de se fier uniquement à ses performances sur des tâches spécifiques - halte à la tyrannie des benchmarks !!!!
Les implications de ces questionnements dépassent le cadre de l'intelligence artificielle. Elles nous invitent à réfléchir sur notre propre manière d'apprendre et de comprendre le monde. La distinction entre performance et compréhension nous rappelle l'importance d'une pensée critique et d'une assimilation profonde des concepts, plutôt que d'une simple accumulation de connaissances.
📻 Le podcast de la semaine
Pourquoi utilisons-nous des catégories ?
Les catégories permettent de structurer et simplifier notre compréhension du monde. Elles soulèvent la question de leur nature : sont-elles objectives ou des constructions mentales ?
👨🏽🦳👩🏽🦳 C’était mieux avant - Il y a 1 an
N’hésitez à me contacter si vous avez des remarques et suggestions sur cette newsletter, ou si dans votre entreprise vous cherchez à être accompagnés dans l’intégration d’outils IA et d’IA générative : olivier@255hex.ai
Partagez cette newsletter
Et si vous n’êtes pas abonné, il ne tient qu’à vous de le faire !
Bon weekend.