Bienvenue sur IA Pulse Weekend. Cette édition est le numéro 66. En vous abonnant, vous recevez tous les samedis matin, l’essentiel de ce qu’il s’est passé cette semaine autour de l’IA : un coup de gueule édito, une sélection de 3 actualités avec pour chacune un résumé rapide à lire, plus 1 article de fond pour ouvrir l’esprit et réfléchir et 1 podcast à écouter.
⏱️Temps de lecture de cette newsletter par une unité carbone : 8 mins
Voilà. Le calendrier d’application de l’AI Act européen est là. Bon courage ! Si, si, c’est sincère. Au même moment, et même si cela n’a rien à voir, Microsoft et Apple ont décidé ne pas siéger au board d’OpenAI. La peur du gendarme ? Vous les avez déjà vus reculer avant même d’avoir reçu une petite tape sur les doigts ?
Quoi qu’il en soit, revenons à des choses plus proches de nos basses préoccupations. Amazon vient de mettre en production Rufus, son chatbot d’assistance sur la version US de son application. Rufus va répondre aux questions et guider les clients d’Amazon tout le long de leur parcours d’achat. Sans rapport aucun, le fameux blog TUAW connu de tous les fans d’Apple et disparu au champ d’honneur il y a quelques années, vient de renaître. Une entreprise de communication hongkongaise l’a racheté et remis en ligne en utilisant l’IA générative pour créer plagier du contenu, allant jusqu’à utiliser les noms des anciens journalistes. Cette technique n’est pas nouvelle - coucou toi, et aussi toi là - mais c’est gros. Mais ce n’est quand même pas assez gros, puisque Google référence assez bien les contenus ainsi publiés. Et toujours aucun rapport, Google s’amuse à ressortir d’anciens robots mis au placard et à les doper avec Gemini. Le monde réel accessible aux LLM. C’est ce qui leur manquait.
Cette semaine pas de podcast, mais une playlist 100% IA pour vos vacances. Pas pire que celles qui vous sont proposées sous l’étiquette humaine et que vous pouvez écouter sur les plateformes. Les humains sont les premiers recycleurs du contenu humain. Les modèles d’IA ne font qu’améliorer cette capacité.
Cette semaine la partie de cette newsletter gérée par l’IA, les 3 clusters d’articles, a été générée par Gemini-1.5-Pro pour les résumés des articles sources, la génération du cluster et de son titre. Comme d’habitude j’ai fait quelques modifications, mais j’ai aussi laissé quelques tournures typiques des modèles de langage. Et bien entendu, mes commentaires éventuels sont en italique dans ces résumés. Le texte de “l’article qui fait réfléchir” est issu d’un ping-pong entre Claude-3.5-Sonnet et Gemini-1.5-Pro.
L’image d’illustration ci-dessous est générée par Midjourney.
📰 Les 3 infos de la semaine
🛍️ Rufus d'Amazon veut révolutionner l'expérience d’achat
Amazon a lancé Rufus, un assistant d'achat basé sur l'intelligence artificielle générative, pour tous ses clients américains via son application mobile. Rufus à pour but d’améliorer l'expérience d'achat en ligne en offrant une assistance personnalisée et en facilitant la découverte de produits.
Grâce à un modèle de langage spécialisé formé sur le catalogue des produits d'Amazon, les avis clients, les questions de la communauté et des données web publiques, Rufus peut répondre à une grande variété de requêtes. Il peut fournir des informations détaillées sur les produits, comparer des articles, effectuer des recommandations personnalisées, suivre les commandes et même répondre à des questions générales non liées aux achats.
Bien que Rufus soit encore en phase de développement, il représente déjà une voie dans l'utilisation de l'IA pour améliorer l'expérience client dans le domaine du commerce électronique. Cependant, son utilisation soulève également des questions importantes. Par exemple, la capacité de Rufus à répondre à des questions sur des sujets généraux, comme les élections américaines, soulève des préoccupations. L'absence de garde-fous spécifiques sur certains sujets pourrait potentiellement conduire à des réponses inappropriées ou trompeuses - c’est un chatbot, quoi…
Pourquoi est-ce important ? L'introduction de Rufus dans l’application mobile d’Amazon marque un tournant dans l'utilisation de l'IA dans le commerce en ligne. Tous les e-commerçants du monde regardent cette expérience avec intérêt. Rien n’est jamais neutre, chez Amazon.
Sources : Quartz, Bloomberg, Search Engine Land, The Verge, TechCrunch
🌈 L'IA et le plagiat au cœur de la renaissance de TUAW
TUAW, un ancien blog populaire dédié à Apple, a été récemment racheté par une société de publicité basée à Hong Kong, Web Orange Limited. Cette dernière a relancé le site en utilisant du contenu généré par l'intelligence artificielle, souvent en plagiant d'autres sources d'actualités et en utilisant faussement la signature des anciens auteurs de TUAW. Parmi ces auteurs, certains sont des journalistes renommés qui n'ont jamais donné leur accord pour cette utilisation abusive de leur identité et de leur travail.
Les contenus générés imitent le style des articles originaux, mais avec des modifications mineures, et comprend également des milliers d'anciens articles TUAW réécrits. Ces faux articles - faux ? - apparaissent dans les résultats de recherche Google aux côtés de sites d'actualités technologiques légitimes, induisant potentiellement les lecteurs en erreur - comme quoi les modèles de langage font du bon travail… enfin du bon travail… ils font des contenus à clics, quoi. Discover, si tu nous lis ^^
Bien que certains noms d'auteurs aient été retirés suite à des plaintes, le contenu généré par l'IA et les images volées sont toujours en ligne. Web Orange Limited affirme avoir "méticuleusement réécrit" - ha ha ha - le contenu à partir d'archives - ce que savent faire le mieux les modèles actuels, cette newsletter en est un exemple parmi d’autres. D'autres sites web appartenant à la même société semblent également utiliser du contenu généré par l'IA et de fausses identités d'auteurs.
Cette affaire soulève d'importantes questions éthiques et légales concernant le plagiat, la désinformation, l'usurpation d'identité et l'utilisation abusive de l'IA. Elle met en lumière les risques liés à la manipulation de l'information en ligne, à la diffusion de fausses nouvelles et à l'atteinte à la crédibilité de l'information et à la confiance des lecteurs - et accessoirement elle pose aussi questions sur la possibilité pour ces contenus d’être bien référencés, voire d’être très bien mis en avant par Discover & Co.
Pourquoi est-ce important ? Cette affaire met en avant la nécessité d'un débat sur l'éthique de l'IA et la responsabilité des entreprises dans l'utilisation de cette technologie, ainsi que sur la protection des droits d'auteur et de la propriété intellectuelle à l'ère numérique.
Sources : 404, Apple Insider, The Verge, Mac Rumors, Ars Technica
🤖 Gemini de Google transforme des robots obsolètes en assistants polyvalents
Google a utilisé son modèle d'IA, Gemini 1.5 Pro - le même qui génère ces lignes - pour améliorer les capacités de navigation et d'interaction de ces robots, les Every Day Robots. Ces robots, qui initialement font partie d’un projet abandonné, ont été sortis du placard et entraînés à comprendre leur environnement grâce à des vidéos d'exploration de bureaux et de maisons, ainsi qu'à des visites guidées des locaux de Google.
En combinant la compréhension de l'environnement par les robots avec le “raisonnement” de l'IA Gemini, les chercheurs ont permis aux robots de répondre à des commandes variées, qu'elles soient écrites, dessinées ou gestuelles. Les vidéos de démonstration montrent des employés donnant des instructions au robot, comme "Emmène-moi quelque part où je peux dessiner", et celui-ci les conduit à un tableau blanc. Dans d'autres exemples, le robot suit des instructions dessinées sur un tableau blanc pour se rendre dans une zone spécifique ou guide un utilisateur vers une prise de courant après avoir vu un téléphone et la question "Où puis-je charger cela ?".
Les tests ont montré un taux de réussite d'environ 90 % sur plus de 50 interactions et instructions différentes. Bien que le traitement des instructions puisse prendre entre 10 et 30 secondes - c’est un début - ces résultats ouvrent la voie à des applications potentielles dans divers domaines, tels que la livraison, l'assistance aux personnes, l'exploration ou même la recherche d'objets perdus.
Cette expérimentation est une réelle étape pratique dans l'intégration de l'intelligence artificielle et de la robotique. L'utilisation de modèles de langage avancés comme Gemini, capables de traiter du texte, des images et des vidéos, permet aux robots de mieux comprendre le monde qui les entoure et d'interagir de manière plus naturelle avec les humains.
Pourquoi est-ce important ? Ce développement pourrait révolutionner l'interaction homme-machine et ouvrir la voie à des robots plus autonomes et utiles dans de nombreux domaines, améliorant ainsi notre - “notre” ? Ça va Gemini, tu te prends pour “nous”, déjà ? - quotidien et facilitant de nombreuses tâches.
Sources : Wired, The Verge, TechCrunch
🧠 L’article qui fait réfléchir - et qu’il faut absolument lire
Reasoning skills of large language models are often overestimated
Le monde est la totalité des faits, non des choses
Les grands modèles de langage ont “révolutionné” le domaine de l'intelligence artificielle dans le grand public, suscitant à la fois admiration et interrogation. Ces systèmes impressionnent par leur capacité à générer du texte, à traduire et à répondre à des questions en traitant d'immenses volumes de données. Cependant, leur fonctionnement pose des questions sur la nature même de leur intelligence.
Bien qu'ils produisent des réponses souvent pertinentes et nuancées, leur "intelligence" semble davantage relever d'une mémorisation et d'une recombinaison sophistiquées que d'une véritable compréhension du monde. Cette distinction devient primordiale lorsque ces systèmes sont confrontés à des situations inédites ou des raisonnements abstraits. Un LLM peut exceller dans la discussion de concepts familiers dont il a “vu” des exemples dans ses données d’entrainement, mais se trouver “démuni” face à un problème nécessitant une réflexion originale ou une adaptation rapide à un contexte nouveau.
Cette dépendance à l'égard des données d'entraînement pose des questions quant à la fiabilité et à la robustesse de ces modèles. Comment garantir qu'ils ne reproduisent pas les biais et les erreurs présents dans leurs données d'apprentissage ? Comment s'assurer qu'ils ne se contentent pas de régurgiter des informations apprises par cœur, sans véritablement les comprendre ni les interpréter ?
Pour évaluer plus précisément les capacités des LLM, il est nécessaire de développer des méthodes d'évaluation plus sophistiquées. L'introduction de scénarios contrefactuels, où les paramètres des tâches sont subtilement modifiés, pourrait révéler les limites de généralisation des modèles. Par exemple, tester un modèle sur des calculs arithmétiques en base 12 plutôt qu'en base 10 pourrait mettre en lumière ses limites en matière de généralisation mathématique.
Pour dépasser les limitations des LLM, les chercheurs explorent plusieurs pistes. L'une d'elles consiste à développer des modèles capables d'apprendre à partir d'un nombre réduit d'exemples, de manière plus proche de l'apprentissage humain. Une autre approche vise à intégrer des mécanismes de raisonnement logique et de compréhension du sens commun, afin de permettre aux LLM de prendre des décisions et de s'adapter à des situations inédites. La diversification des données d'entraînement et l'utilisation de l'apprentissage par transfert pourraient également améliorer la capacité d'adaptation des modèles.
Les enjeux sont de taille, car les LLM sont de plus en plus utilisés dans des domaines aussi variés que la médecine, la justice ou l'éducation. Il est important développer des modèles plus transparents et plus fiables. Il faut communiquer clairement sur les capacités et les limites des LLM aux utilisateurs finaux, intégrer des mécanismes de contrôle et de validation par des experts humains, et mettre en place des réglementations adaptées.
Bien que les LLM fassent des progrès remarquables, il reste encore beaucoup à faire pour améliorer leur capacité de raisonnement et d'adaptation. L'avenir de l'intelligence artificielle dépend de notre capacité à construire des systèmes qui ne se contentent pas d'imiter l'intelligence humaine, mais qui l'augmentent et la complètent.
📻 Le podcast de la semaine
La playlist de Comptoir IA : Summer IA Hits Vol.1
Cette semaine pas de podcast, mais la playlist 100% IA de Comptoir IA. Sur l’autoroute de vos vacances, elle fera largement le job face à toutes ses concurrentes “humaines”. Si certains doutent encore des changements qui arrivent… Suno et Udio sont là pour les réveiller.
👨🏽🦳👩🏽🦳 C’était mieux avant - Il y a 1 an
GPT-4, CodeInterpreter, contrôle de la “super-intelligence” et Google crawle pour son IA : c’était il y a un an.
N’hésitez à me contacter si vous avez des remarques et suggestions sur cette newsletter, ou si dans votre entreprise vous cherchez à être accompagnés dans l’intégration d’outils IA et d’IA générative : olivier@255hex.ai
Partagez cette newsletter
Et si vous n’êtes pas abonné, il ne tient qu’à vous de le faire !
Bon weekend.