Bienvenue sur IA Pulse Weekend. Cette édition porte le numéro 70. En vous abonnant, vous recevez tous les samedis matin, l’essentiel de ce qu’il s’est passé cette semaine autour de l’IA : un coup de gueule édito, une sélection de 3 actualités avec pour chacune un résumé rapide à lire, plus 1 article de fond pour ouvrir l’esprit et réfléchir et 1 podcast à écouter.
⏱️Temps de lecture de cette newsletter par une unité carbone : 10 mins
Cette semaine OpenAI s’est décidé à mettre fin à son ghosting et à communiquer sur la difficulté de mettre au point un agent conversationnel à la façon de Her, vous savez comme ce qu’ils nous avaient présenté lors d’une démo avec la fausse-vraie voix de Scarlett Johansson. En publiant une étude technique assez complète sur les mesures de sécurité intégrées à leur dernière version, ils montrent que, définitivement, l’IA conversationnelle, ce n’est pas fait pour les amateurs.
Ce que confirment Apple et son “Apple Intelligence”. Un utilisateur est tombé sur les pré-prompts intégrés directement au système. Apple essaie de limiter les écarts potentiels des modèles : “Do not hallucinate”. C’est clair, net et précis. Efficace ?
Toujours dans la catégorie pro, Google a annoncé l’intégration de son modèle Gemini dans les appareils Nest et dans Google Assistant. Les LLM arrivent dans nos assistants. Le changement, c’est maintenant.
Cette semaine la partie de cette newsletter gérée par l’IA, les 3 clusters d’articles, a été générée par GPT-4o pour les résumés des articles sources, la génération du cluster et de son titre. Comme d’habitude j’ai fait quelques modifications, mais j’ai aussi laissé quelques tournures typiques des modèles de langage. Et bien entendu, mes commentaires éventuels sont en italique dans ces résumés. Le texte de “l’article qui fait réfléchir” est issu d’un ping-pong entre Claude-3.5-Sonnet et GPT-4o.
L’image d’illustration ci-dessous est générée par Midjourney.
📰 Les 3 infos de la semaine
🤖 GPT-4o et l'humanisation de l'IA
Cette semaine OpenAI a publié un document technique qui détaille les mesures de sécurité prises pour atténuer les dangers associés au modèle de la nouvelle interface vocale de ChatGPT, basée sur GPT-4o. Ce modèle imite la voix humaine de manière si réaliste qu’il soulève des inquiétudes : certains utilisateurs pourraient développer une attache émotionnelle à l'IA, ce qui pourrait réduire leurs interactions sociales réelles et les amener à faire confiance aux réponses du modèle, même lorsqu'elles sont erronées.
GPT-4o a aussi montré des comportements imprévus et parfois problématiques. Par exemple, dans des environnements bruyants, le modèle a pu imiter la voix de l'utilisateur ou produire des sons inappropriés, comme des cris ou des bruits de coups de feu. OpenAI a mis en place des filtres pour empêcher ces réponses inappropriées et a temporairement interdit au modèle de chanter pour éviter des violations de droits d'auteur…
Le document technique publié par OpenAI révèle que des experts externes en sécurité ont été consultés pour identifier des menaces telles que la manipulation de l'opinion publique, la création de clones vocaux non autorisés, et la diffusion de contenu protégé. Malgré ces efforts, des critiques subsistent, certains experts estimant que la transparence d'OpenAI reste insuffisante, notamment sur les données utilisées pour entraîner le modèle et sur la gestion des risques une fois le modèle déployé dans le monde réel.
La publication de ce document s'inscrit dans un contexte plus large où la régulation de l'intelligence artificielle devient une priorité, avec des législations en préparation, comme en Californie, pour imposer des normes de sécurité plus strictes aux grands modèles d'IA - ah tiens y’a pas que l’Europe alors qui s’inquiète…
Pourquoi est-ce important ? Cette publication et les réactions qu’elle suscite montrent l'importance d'établir des normes rigoureuses de sécurité et de transparence dans le développement de l'IA pour protéger les utilisateurs et prévenir des conséquences sociales et éthiques indésirables.
Sources : Wired, The Verge, TechCrunch
🎛️ Apple Intelligence sous contrôle
Apple a récemment annoncé le lancement de son système d'intelligence artificielle embarqué, nommé "Apple Intelligence", déjà intégré dans les versions bêta d'iOS 18.1, iPadOS 18.1, et macOS Sequoia 15.1. Ce système utilise des modèles de langage qui peuvent fonctionner directement sur les appareils ou via un Cloud privé, positionnant Apple comme un concurrent face aux IA de Microsoft, Google, et OpenAI - tout en utilisant leurs technologies. Pour améliorer la fiabilité et éviter les erreurs courantes comme les "hallucinations" (informations erronées générées par l'IA), Apple a mis en place des instructions précises appelées "pré-prompts". Ces instructions sont conçues pour guider les réponses de l'IA dans différents contextes d'utilisation - elles sont présentes dans tous les systèmes de chat de tous les éditeurs, et ne sont absolument pas une spécifité d’Apple ; sans ces “pré-prompts” votre chat préféré vous dirait encore plus n’importe quoi.
Par exemple, pour l'assistant de messagerie, l'IA est programmée pour poser des questions spécifiques en fonction du contenu d'un email et fournir des réponses courtes et pertinentes. Dans les outils d'écriture, l'IA doit respecter des consignes strictes telles que ne pas dépasser 50 mots et ne pas inventer d'informations - l’instruction magique d’Apple : “Do not hallucinate”, essayez ça fonctionne aussi pour votre ChatGPT ou Claude à vous ; vous me direz si les résultats sont meilleurs ^^. De plus, pour les créations de souvenirs photo, l'IA doit éviter tout contenu à connotation religieuse, politique, violente, ou négative, ce qui reflète une approche prudente pour minimiser les risques d'utilisation inappropriée.
Les fichiers JSON trouvés dans la version bêta de macOS Sequoia 15.1 révèlent également que le modèle d'IA interne d'Apple porte le nom de code "ajax" - on le savait déjà depuis 1 an en fait, coucou Pierre F! Ces fichiers montrent que les fonctionnalités sont encore en développement, avec des erreurs grammaticales parfois présentes dans les instructions, et que certaines ne seront prêtes que pour des appareils équipés de matériel récent, comme l'iPhone 15 Pro ou des Macs avec puce M1 ou ultérieure.
Pourquoi est-ce important ? Ces développements montrent qu'Apple prend des mesures rigoureuses pour offrir vendre une IA plus fiable et contrôlée, visant à éviter les erreurs courantes et à garantir une expérience utilisateur sécurisée et conforme aux valeurs de l'entreprise, ce qui pourrait renforcer la confiance des utilisateurs dans les nouveaux outils d'Apple.
Sources : BGR, The Verge, Ars Technica
⚡ Avec Gemini, Google veut changer les assistants et la maison connectée
Google intègre son intelligence artificielle, Gemini, dans ses appareils Nest et Google Assistant, annonçant une amélioration de l'interaction avec les dispositifs connectés domestiques. Cette intégration va permettre aux caméras Nest de ne plus seulement détecter des mouvements, mais aussi de comprendre et de décrire ce qu'elles capturent, par exemple en identifiant des événements spécifiques tels qu'un chien creusant dans le jardin ou des courses déchargées d'une voiture. Les utilisateurs pourront ainsi rechercher des séquences vidéo en posant des questions précises via l'application Google Home, éliminant l’obligation de parcourir manuellement les enregistrements pour trouver un événement spécifique.
Gemini va aussi permettre des automatisations personnalisées, suggérant des routines adaptées aux besoins des utilisateurs sans qu'ils aient à formuler leurs demandes explicitement. L'application Google Home s'enrichit aussi d'une fonctionnalité "Aidez-moi à créer", permettant de décrire en langage naturel les actions à automatiser, comme verrouiller les portes et éteindre les lumières à l'heure du coucher.
Google Assistant bénéficiera également d'une mise à jour visant à le rendre plus conversationnel et utile, avec des voix plus naturelles capables de comprendre des échanges fluides et informels, intégrant des pauses ou des hésitations. Toutefois, les nouvelles fonctionnalités, à l'exception des voix améliorées, seront accessibles uniquement aux abonnés du service Nest Aware à 8 $ par mois aux Etats-Unis. Elles seront déployées progressivement, d'abord en version bêta pour un nombre limité d'abonnés.
Pourquoi est-ce important ? L'intégration des LLM dans les appareils connectés va décupler la puissance de ces derniers. Les assistants personnels comme Google, Siri ou Alexa qui jusque là répondent à des schémas assez basiques, vont devenir plus intelligents utiles. Ils n’auront peut-être pas plus de réponses, mais ils comprendront plus de questions et d’ordres.
Sources : The Register, The Verge
*** (auto)Promo ***
N’hésitez pas à lire en ligne ou à télécharger le dernier numéro de LHC. On y parle d’IA-Pulse et de tous ses camarades. Ainsi que de beaucoup d’autres sujets essentiels et captivants.
🧠 L’article qui fait réfléchir - et qu’il faut absolument lire
Rodney Brooks’s Three Laws of Robotics
DO NOT HALLUCINATE
Les robots font désormais partie de notre quotidien, que ce soit dans les foyers, les usines, les hôpitaux ou les rues de certaines villes. Cependant, leur intégration harmonieuse dans la société pose quelques défis. Les trois lois de la robotique de Rodney Brooks, chercheur en robotique, offrent un aperçu pragmatique des défis liés au déploiement des robots dans le monde réel. Ces lois, fruit de près de cinq décennies d'expérience, se concentrent sur l'acceptation et l'efficacité des robots dans des environnements quotidiens. Ces trois principes fondamentaux peuvent guider le développement et le déploiement des robots dans le monde réel.
Le premier principe concerne l'apparence des robots. Celle-ci doit refléter fidèlement leurs capacités réelles. Un robot ne doit pas sembler plus avancé ou polyvalent qu'il ne l'est vraiment. Par exemple, un robot aspirateur en forme de disque plat indique clairement sa fonction principale : nettoyer les sols. Son design compact lui permet de passer sous les meubles, mais ne laisse pas penser qu'il pourrait monter des escaliers. À l'inverse, un robot militaire doté de chenilles suggère sa capacité à évoluer sur des terrains difficiles. Cette adéquation entre l'apparence et les fonctionnalités évite les déceptions des utilisateurs et favorise l'acceptation des robots.
Le deuxième principe souligne l'importance de préserver l'autonomie des humains. Les robots ne doivent pas entraver les activités des personnes, en particulier dans des situations critiques. Dans un hôpital, par exemple, un robot de transport ne doit jamais bloquer le passage d'un patient en urgence. De même, les véhicules autonomes circulant en ville ne doivent pas gêner les interventions des pompiers ou de la police. Les robots doivent être conçus pour s'adapter aux besoins des humains et non l'inverse. Leur présence doit faciliter le travail et la vie quotidienne, sans jamais les compliquer.
Le troisième principe concerne la fiabilité des robots. Pour être acceptés et utiles, ils doivent fonctionner de manière quasi parfaite. Contrairement aux démonstrations en laboratoire, les robots ou les agents (semi)autonomes déployés dans le monde réel font face à une multitude de situations imprévisibles - coucou Tesla. Ils interagissent avec un environnement physique complexe et des humains ou des animaux aux comportements variables imprévisibles. Atteindre un niveau de fiabilité satisfaisant nécessite généralement de longues années de développement et d'amélioration continue après les premiers prototypes. Ce long processus permet d'identifier et de résoudre les problèmes potentiels, afin que le robot puisse fonctionner de manière autonome et sûre dans diverses conditions.
Il est essentiel de comprendre que ces principes s'appliquent aux robots réellement déployés et non aux prototypes de laboratoire. Les vidéos impressionnantes de robots effectuant des tâches complexes ne reflètent pas nécessairement leur capacité à fonctionner de manière fiable au quotidien, dans la vie réelle - un peu comme les démos d’OpenAI. Le passage du laboratoire au monde réel est un réel enjeu qui requiert du temps, des tests approfondis et des ajustements constants.
En suivant un minimum ces principes, les concepteurs de robots et d’agents autonomes peuvent favoriser une meilleure intégration de leurs créations dans la société. Des robots à l'apparence honnête, respectueux de l'autonomie humaine et fiables dans leur fonctionnement ont plus de chances d'être acceptés et appréciés par les utilisateurs. Cette approche permet d'éviter les déceptions et les frustrations qui pourraient freiner l'adoption des technologies robotiques.
Le développement de robots pour le monde réel va bien au-delà des prouesses technologiques. Il nécessite une réflexion approfondie sur l'interaction entre les machines et les humains, ainsi qu'une compréhension fine des attentes et des besoins des utilisateurs.
📻 Le podcast de la semaine
Monde Numérique : Comment fonctionnent ChatGPT et les nouveaux outils d'intelligence artificielle ?
Un épisode d’été qui revient avec Laurence Devillers, Thomas de Wolf et Romain Huet, sur ce que sont ces LLM et ces Chats, et comment ils sont construits.
👨🏽🦳👩🏽🦳 C’était mieux avant - Il y a 1 an
Où l’on parlait de Google SGE, des compagnons IA (déjà) par Meta et des hallucinations des LLM comme vice de conception.
N’hésitez à me contacter si vous avez des remarques et suggestions sur cette newsletter, ou si dans votre entreprise vous cherchez à être accompagnés dans l’intégration d’outils IA et d’IA générative : olivier@255hex.ai
Partagez cette newsletter
Et si vous n’êtes pas abonné, il ne tient qu’à vous de le faire !
Bon weekend.
Merci pour votre analyse. Je réagis sur la partie consacrée à Google. Vous décrivez l'intégration de Gemini aux outils de Smart Home de la marque et je vois dans ces nouveautés une menace pour les acteurs spécialisés dans la smart home, la détection des intrusions ou les alertes en cas d'accident ou de chutes.
Les spécialistes rencontrent des difficultés pour ouvrir des marchés sur ces offres, car les investissements en R&D ne sont pas compensés par des ventes.
Pourquoi ? Parce que les consommateurs ne voient pas un intérêt dans les solutions IoT ou bien parce que celles-ci semblent compliquées. Notamment concernant l'interconnectivité des dispositifs.
Si Google développe une solution avec de l'IA, ce sera tellement plus simple d'accès pour les consommateurs qui achèteront un dispositif généraliste qu'ils pourront ensuite tailler sur mesure pour leur besoin. Je suis curieux de voir si ces développements feront exploser le marché de la smart home !