Bienvenue sur IA Pulse Weekend. En vous abonnant, vous recevez tous les samedis matin, l’essentiel de ce qu’il s’est passé cette semaine autour de l’IA : un coup de gueule édito, une sélection de 3 actualités avec pour chacune un résumé rapide à lire, plus 1 article de fond pour ouvrir l’esprit et réfléchir et 1 podcast à écouter.
⏱️Temps de lecture de cette newsletter par une unité carbone : 7 mins
Cette semaine tout le monde à l’Élysée ! Quelle belle réunion avec tous les talents intellectuels, techniques et business qui travaillent à faire de la France le numéro trois de l’IA dans le monde. C’était beau, et nous n’avons pas à rougir de ce côté-là. Talents qu’on a aussi retrouvés dès le lendemain, à la porte de Versailles à Paris, pour l’événement star de la planète tech en France, Vivatech. Encore une fois, c’est ici que ça se passe. L’excellence française donne le ton.
Alors, à y regarder de plus près, cette semaine a presque eu un côté émouvant. Surtout, quand d’un seul coup d’un seul, la nouvelle est tombée : H, nouvelle venue dans le monde des startups françaises qui se concentrent sur l’IA, a levé 220 millions d’euros. Directement. Bien entendu, toute ressemblance avec des périodes passées serait totalement une vue de l’esprit cynique et moqueur de quelques mauvais vieux bougres.
De l’autre côté de l’Atlantique et de l’actualité, pendant que Sam essaie de se sortir d’une sombre histoire de voix, Microsoft a présenté le futur du PC Windows dopé à l’IA. Une des fonctionnalités dévoilées a dans l’instant même fasciné, ou effrayé : elle s’appelle Recall. En parlant de faire peur, Google fait peur et se fait peur avec les résultats générés par “AI Overview” : la pizza à la colle n’est peut-être pas une bonne idée. Enfin les chercheurs d’Anthropic, les meilleurs élèves de la classe de l’entreprise qui voit loin pour notre bien, ont réussi à cartographier une partie du fonctionnement de leur LLM Claude. Une première de le monde des boites noires.
Cette semaine la partie de cette newsletter gérée par l’IA, les 3 clusters d’articles, a été générée par Gemini-1.5-Pro pour les résumés des articles sources, et pour la génération du cluster et de son titre. Comme d’habitude trop souvent j’ai fait quelques beaucoup de modifications, mais j’ai aussi laissé quelques tournures typiques des modèles de langage. Et bien entendu, mes commentaires éventuels sont en italique dans ces résumés. Le texte de “l’article qui fait réfléchir” est issu d’un ping-pong entre de Gemini-1.5-Pro et votre serviteur tout seul.
L’image d’illustration ci-dessous est générée par Midjourney.
📰 Les 3 infos de la semaine
🎁 "Recall", la nouvelle fonctionnalité de Windows qui divise
Microsoft franchit un nouveau cap dans l'intégration de l'intelligence artificielle à la future version de son système d'exploitation Windows avec "Copilot", un assistant personnel doté de fonctionnalités avancées. Parmi elles, "Recall" suscite des inquiétudes quant au respect de la vie privée des utilisateurs.
Concrètement, Recall enregistre en continu l'activité de l'utilisateur : captures d'écran, historique de navigation, applications utilisées, et même transcription de réunions en ligne. L'objectif affiché par Microsoft est de faciliter la recherche d'informations passées, permettant par exemple de retrouver un document consulté ou une présentation effectuée lors d'une réunion - le second cerveau en action.
Cependant, cette fonctionnalité implique la collecte et le stockage d'une quantité massive de données sensibles. Bien que Microsoft assure que ces données sont chiffrées et stockées localement sur l'appareil et accessibles uniquement par l'utilisateur authentifié, des risques de failles de sécurité ou d'accès non autorisé ne peuvent être écartés.
Face aux critiques, Microsoft met en avant la possibilité pour les utilisateurs de désactiver la fonctionnalité, de supprimer l'historique des captures ou d'exclure certaines applications et sites web de l'enregistrement. L'autorité britannique de surveillance des données a néanmoins ouvert une enquête sur Recall - avant l’Europe… c’est un signe, non ?
Pourquoi est-ce important ? L'arrivée de Recall cristallise les tensions inhérentes au développement de l'intelligence artificielle : la promesse d'une expérience utilisateur améliorée se heurte aux risques potentiels pour la vie privée. L'enjeu dépasse la simple question de la confidentialité des données, il touche à la définition même de notre espace privé à l'ère du numérique. Jusqu'où sommes-nous prêts à accepter que nos actions et nos données soient collectées et analysées au nom du progrès technologique ?
Sources : The Guardian, Quartz, Ars Technica
🛑 "AI Overview" de Google accumule les réponses absurdes
L'intégration de l'intelligence artificielle dans le moteur de recherche de Google, à travers la fonctionnalité "AI Overview", suscite des inquiétudes quant à la fiabilité de l'information et à la responsabilité des entreprises technologiques. Conçue pour fournir des réponses synthétiques aux requêtes complexes, l'outil a généré des informations erronées, voire dangereuses, allant de conseils culinaires absurdes à des recommandations médicales potentiellement nuisibles.
Bien que Google minimise ces erreurs, les qualifiant d'exceptionnelles et liées à la phase expérimentale de la fonctionnalité, l'incident soulève des questions importantes. La dépendance de l'IA à des sources d'information non vérifiées, combinée à l'absence de mécanismes transparents d'attribution et de vérification, risque de propager la désinformation et de compromettre la fiabilité des résultats de recherche.
Le problème est amplifiée par la position dominante de Google dans l'accès à l'information. Des millions d'utilisateurs pourraient être exposés à des informations erronées, ce qui soulève des questions éthiques et juridiques quant à la responsabilité de Google en tant que diffuseur d'information.
L'incident met également en lumière les défis liés à l'intégration rapide de l'IA dans des produits grand public. La course à l'innovation ne doit - devrait - pas se faire au détriment de la sécurité et de la fiabilité de l'information. L'établissement de normes claires pour l'IA générative, ainsi que la mise en place de mécanismes de contrôle et de responsabilisation, sont essentiels pour garantir un écosystème numérique fiable et digne de confiance.
Pourquoi est-ce important ? L'utilisation croissante de l'IA dans la recherche d'information pose les termes d’un débat crucial : comment concilier le développement rapide de l'IA avec la nécessité de garantir la fiabilité de l'information et la protection des utilisateurs ? Faut-il réguler davantage les entreprises technologiques, exiger plus de transparence dans le fonctionnement des algorithmes ou responsabiliser davantage les utilisateurs face à la masse d'informations disponibles en ligne ?
Sources : The Verge, Venture Beat, The New York Times, Vox
🗺️ Anthropic a cartographié l’esprit de Claude - amen
Une équipe de chercheurs d'Anthropic a réussi à percer - en partie - le fonctionnement interne des grands modèles de langage (LLM), considérés jusqu'alors comme des "boîtes noires". En utilisant une technique appelée "apprentissage de dictionnaire" sur leur propre LLM, Claude, ils ont découvert que l'information n'y est pas stockée de manière isolée, mais organisée en réseaux complexes de "caractéristiques".
Ces caractéristiques, identifiées par des motifs d'activation neuronale, représentent des concepts spécifiques. Il peut s'agir d'éléments concrets comme "Golden Gate Bridge" ou de notions abstraites comme "émotions". L'analyse de ces réseaux a révélé des liens logiques entre les caractéristiques, démontrant la capacité des LLM à établir des relations sémantiques complexes, comparables à une "carte conceptuelle" du modèle.
L'étude a également démontré qu'il est possible d'influencer le comportement du modèle en manipulant ces caractéristiques. Par exemple, l'amplification de la caractéristique "Golden Gate Bridge" a conduit Claude à se focaliser sur ce sujet, tandis que la manipulation d'autres caractéristiques a modifié sa propension à générer des discours haineux ou mensongers.
Ces découvertes sont importantes car elles ouvrent la voie à une meilleure compréhension et un contrôle accru des LLM. En comprenant comment ces modèles "pensent", il devient possible de les rendre plus fiables, plus sûrs et mieux alignés sur les valeurs humaines, permettant ainsi une collaboration homme-machine plus sûre et fructueuse.
Pourquoi est-ce important ? Cette avancée permet de dépasser l'opacité des LLM et d'envisager un avenir où l'intelligence artificielle, mieux comprise et contrôlée, pourrait être utilisée de manière plus responsable et éthique - ou pas.
Sources : Anthropic, Wired, Ars Technica
🧠 L’article qui fait réfléchir - et qu’il faut absolument lire
What’s wrong with the robots? An Oxford researcher explains how we can better illustrate AI news stories
Daft Punk are so cliché
Ouvrez un magazine, consultez un site d'actualités, et vous verrez l'Intelligence Artificielle partout. Mais regardez de plus près : robots humanoïdes aux regards froids, lignes de code nébuleuses sur fond bleu... Ces clichés visuels, bien que répandus, enferment l'IA dans une représentation simpliste et trompeuse.
Maggie Mustaklem, chercheuse à l'Université d'Oxford, tire la sonnette d'alarme. Pour elle, illustrer un article sur les modèles de langage avec un robot humanoïde est aussi absurde que d'illustrer un article sur les pommes avec une poire. Ces images, loin d'être anodines, influencent notre perception de l'IA et nourrissent les fantasmes et les peurs irrationnelles.
Comment expliquer cette omniprésence de clichés ? D'une part, les banques d'images manquent cruellement de diversité, proposant majoritairement des illustrations stéréotypées inspirées de la science-fiction. D'autre part, la communication visuelle autour de l'IA est souvent déconnectée de la réalité de la recherche, qui a pourtant fait des bonds de géant ces dernières années.
Ces images stéréotypées véhiculent des messages subtils mais puissants. L'anthropomorphisme à outrance laisse croire que l'IA est dotée d'une conscience et d'une intelligence comparable à l'humain, nourrissant ainsi des craintes infondées. De plus, la représentation futuriste et souvent masculine de l'IA masque la réalité actuelle de cette technologie, ses implications sociales et éthiques, et la diversité des acteurs qui la façonnent.
Heureusement, des alternatives existent. Des initiatives comme "Better Images of AI" proposent des représentations plus justes et nuancées, en collaborant avec des artistes pour créer des visuels originaux et pertinents.
L'IA générative, capable de créer des images à l'infini, pourrait sembler être la solution miracle. Mais attention: elle est elle-même nourrie par les biais existants. Son utilisation pour illustrer l'IA nécessite donc un regard critique et une vigilance accrue pour éviter de reproduire les clichés.
Il est temps de sortir des sentiers battus et de proposer une représentation visuelle de l'IA qui soit à la hauteur de sa complexité. Une représentation qui suscite la réflexion, l'émerveillement, et qui nous aide à mieux comprendre les enjeux et les promesses de cette technologie révolutionnaire.
📻 Le podcast de la semaine
Dialogue Machine - ActuIA : La stratégie Française pour l'IA - Gaël Varoquaux, DRR INRIA, Co-fondateur Scikit-learn
Thibault Neveu s'entretient avec Gaël Varoquaux sur son rapport sur l'IA. Gaël, directeur de recherche à l'Inria, se concentre sur l'IA, la santé publique et l'épidémiologie.
👨🏽🦳👩🏽🦳 C’était mieux avant - Il y a 1 an
L’année dernière les employés d’Apple avaient interdiction d’utiliser ChatGPT au travail pendant qu’OpenAI mettait en ligne la première appli ChatGPT pour iOS.
N’hésitez à me contacter si vous avez des remarques et suggestions sur cette newsletter, ou si dans votre entreprise vous cherchez à être accompagnés dans l’intégration d’outils IA et d’IA générative : olivier@255hex.ai
Partagez cette newsletter
Et si vous n’êtes pas abonné, il ne tient qu’à vous de le faire !
Bon weekend.