Bienvenue sur IA Pulse Weekend. Cette édition porte le numéro 81. En vous abonnant, vous recevez tous les samedis matin, l’essentiel de ce qu’il s’est passé cette semaine autour de l’IA : un coup de gueule édito, une sélection de 3 actualités avec pour chacune un résumé rapide à lire, plus 1 article de fond pour ouvrir l’esprit et réfléchir et 1 podcast à écouter. Gérez votre abonnement.
⏱️Temps de lecture de cette newsletter par une unité carbone : 9 mins
Il n’y aura pas d’Orion cette année, Sam a crié “FAKE NEWS” sur X et OpenAI a démenti la rumeur de la sortie de leur nouveau modèle - nom de code : Orion, d’ici fin décembre. Encore un bel emballement de quelques heures de notre microcosme autour de rumeurs parties d’une source anonyme. Si “hype” il y a, son premier niveau se situe bien là. Quoi qu’il en soit, grâce à ce jeu de dupes - OpenAI étant assez vague dans ses dénégations pour laisser la part à des spéculations à propos de la sortie d’autres technologies qu’Orion en 2024 - OpenAI reprend le devant de la scène médiatique avant le weekend, alors qu’Anthropic semblait avoir tué le game de la semaine dans ce domaine.
Car cette semaine a été marquée par la sortie d’une mise à jour de Claude avec en plus de l’arrivée de deux nouvelles fonctionnalités proposées par Anthropic : un analyseur de données capable de coder, et le spectaculaire agent capable d’interagir lui-même en direct avec un ordinateur et son système, un peu comme vous et moi. Moins spectaculaire mais toute aussi importante, la stratégie de Meta, qui après avoir mis à l’index les médias en réduisant leur visibilité sur ses réseaux commence à signer des partenariats avec eux pour alimenter Meta AI, et dans le même temps annonce un nouveau modèle dédié aux smartphones, plus puissant que tous les modèles de ce calibre existants. Enfin pour finir côté actus, Google tente de mettre en place une technologie de watermark pour marquer les textes qui sortent des modèles.
Cette semaine la partie de cette newsletter gérée par l’IA, les 3 clusters d’articles, a été générée par Claude-3.5-Sonnet (new) pour les résumés des articles sources, et pour la génération du cluster et de son titre. Comme d’habitude j’ai fait quelques modifications, mais j’ai aussi laissé quelques tournures typiques des modèles de langage. Et bien entendu, mes commentaires éventuels sont en italique dans ces résumés. Le texte de “l’article qui fait réfléchir” est issu d’un ping-pong entre de Claude-3.5-Sonnet tout seul.
L’image d’illustration ci-dessous est générée par Midjourney.
📰 Les 3 infos de la semaine
💻Claude franchit une nouvelle étape dans l'interaction homme-machine
Anthropic a lancé cette semaine une mise à jour de son modèle d'intelligence artificielle Claude, accompagnée de deux nouvelles fonctionnalités transformant la manière dont l'IA interagit avec les systèmes informatiques et les données.
La première fonctionnalité, baptisée "computer use", permet à Claude d'utiliser un ordinateur comme le ferait un humain. L'IA peut désormais voir l'écran via des captures, déplacer le curseur, cliquer sur des boutons et taper du texte de manière autonome. Les premiers utilisateurs rapportent des applications variées : Claude peut effectuer des recherches d'actualités en naviguant entre différents sites d'information, remplir automatiquement des formulaires en collectant des données dispersées, ou encore télécharger et analyser des jeux de données.
Des entreprises comme Replit, Asana et DoorDash explorent déjà ces possibilités pour automatiser des tâches complexes nécessitant parfois des centaines d'étapes. Par exemple, Replit utilise cette nouvelle fonctionnalité pour développer une fonction d'évaluation automatique des applications en cours de développement.
En même temps, Anthropic a lancé un nouvel outil d'analyse intégré à Claude permettant d'exécuter du code JavaScript pour le traitement de données. Cette fonctionnalité permet au chatbot d'effectuer des calculs complexes, d'analyser des fichiers CSV et de produire des visualisations en temps réel. Les équipes marketing peuvent ainsi analyser les interactions clients, les équipes commerciales peuvent étudier les données de vente mondiales, et les équipes produit peuvent évaluer l'engagement des utilisateurs pour orienter leurs priorités de développement, etc.
Bien que ces fonctionnalités soient encore au stade expérimental et parfois sujettes à des erreurs - de grosses erreurs et des problèmes de sécurité - Anthropic a choisi de les rendre disponibles rapidement pour recueillir les retours des développeurs et améliorer leur fonctionnement au fil du temps - et surtout occuper le terrain avant les autres.
Pourquoi est-ce important ? Ces fonctionnalités nous montrent des systèmes d'IA capables d'interagir de manière autonome avec les interfaces informatiques existantes, ouvrant la voie à une automatisation plus flexible et délirante des tâches numériques. Elles nous montrent aussi la rapidité d’évolution de ces modèles et des leurs fonctionnalités…
Sources : Anthropic, Anthropic, The Information, Venture Beat
📱Meta miniaturise ses modèles d'IA pour smartphones et renoue avec l'actualité via un partenariat Reuters
Meta fait évoluer sa stratégie d'intelligence artificielle sur deux fronts - qui pourraient bien se rejoindre. D'une part, l'entreprise développe des versions compressées de ses modèles Llama pour les smartphones et tablettes. D'autre part, elle signe un accord pluriannuel avec Reuters pour intégrer du contenu d'actualité à son assistant IA.
Les nouvelles versions allégées des modèles Llama 3.2 1B et 3B fonctionnent jusqu'à quatre fois plus rapidement tout en utilisant moins de la moitié de la mémoire des versions précédentes. Cette optimisation utilise une technique de compression appelée quantization. Les tests sur les smartphones OnePlus 12 montrent une réduction de 56% de la taille des modèles et une diminution de 41% de l'utilisation de la mémoire. Plus faciles et plus simples à faire tourner en local sur les devices mobiles, ces modèles vont favoriser l’intégration on device des IA avec à la clé plus de personnalisation, de confidentialité - oui ça on verra hein - et moins de besoins en ressources.
En parallèle, Meta s'associe à Reuters pour enrichir les réponses de son assistant IA aux questions d'actualité. Cet accord, qui prévoit une compensation financière pour Reuters, permettra aux utilisateurs américains d'obtenir des réponses citant et référençant des articles Reuters via les chatbots intégrés à Facebook, Instagram, WhatsApp et Messenger.
Ce partenariat est le premier accord de Meta dans l'ère de l'IA, marquant un changement de position par rapport à sa précédente stratégie de distanciation vis-à-vis du contenu d'actualité. Meta avait notamment supprimé le financement de son onglet Actualités et réduit la visibilité du contenu politique sur ses plateformes après l'élection de 2020. Voire a carrément viré tous les médias des ses feeds dans certains pays.
Pourquoi est-ce important ? Les modèles on device sont l’avenir de l’hyper personnalisation, gérée ou non par l’utilisateur final. Avec un flux d’informations vérifiées et disponible en continu couplé à ces modèles, avoir et maitriser son propre média d’actualités sur son smartphone est quasiment une réalité technique à la portée de n’importe quel utilisateur maitrisant le langage naturel.
Sources : Venture Beat, Silicon Angle, Axios, The Verge
🖊️ Google rend public son outil de marquage des textes IA
Google DeepMind a annoncé cette semaine la disponibilité pour tous de SynthID-Text, une technologie de filigrane permettant de marquer invisiblement les textes générés par l'intelligence artificielle. Ce système, déjà intégré au chatbot Gemini, est maintenant proposé en open source aux développeurs et entreprises.
Le fonctionnement de SynthID-Text repose sur une modification subtile du processus de génération de texte. Le système attribue des scores aléatoires aux mots candidats et privilégie ceux ayant les scores les plus élevés. Cette signature statistique, imperceptible pour les lecteurs humains, peut être détectée à l'aide d'une clé cryptographique. Les tests sur 20 millions de réponses de Gemini montrent que les utilisateurs ne perçoivent aucune différence de qualité entre les textes marqués et non marqués.
La technologie fonctionne particulièrement bien sur les textes longs, et nécessite au moins trois phrases pour être efficace. Son efficacité dépend également de la variété des réponses possibles : plus le modèle a de choix pour formuler une réponse, plus le filigrane est robuste. Cependant, le système présente des limites : le marquage peut être supprimé par une réécriture importante du texte ou sa traduction dans une autre langue...
Pourquoi est-ce important ? Dans un contexte où la prolifération des contenus générés par l'IA soulève des questions de confiance et d'authenticité, la disponibilité d'outils de marquage standardisés devient un enjeu majeur pour l'ensemble de l'écosystème numérique. Mais bon, comme il suffit de réécrire ou de traduire…
Sources : Nature, Nature, IEEE Spectrum, Ars Technica
🚀 3 infos en plus
Annoyed Redditors tanking Google Search results illustrates perils of AI scrapers (Ars Technica)
The Startup Fueling OpenAI and Anthropic’s Coding Race (The Information)
Adobe execs say artists need to embrace AI or get left behind (The Verge)
🧠 L’article qui fait réfléchir - et qu’il faut absolument lire
People are skeptical of headlines labeled as AI-generated, even if true or human-made, because they assume full AI automation
They’re talking about you boy, but you still the same
L'intelligence artificielle change totalement notre rapport à l'information, soulevant pas mal de questions sur la confiance et la perception des contenus numériques. Une problématique totalement fondamentale émerge : comment le public réagit-il face aux contenus étiquetés comme étant générés par l'IA ? Pas la méfiance - oh surprise…
La méfiance instinctive envers les contenus labellisés "IA" révèle un paradoxe. Cette réticence ne découle pas d'une association automatique avec la fausseté des informations, mais plutôt d'une présomption d'automatisation totale. Le public imagine, souvent à tort, une création entièrement robotisée, sans supervision humaine.
Cette perception erronée influence fortement la crédibilité accordée aux contenus, même lorsqu'ils sont factuellement exacts ou, ironiquement, créés par des humains mais étiquetés comme IA - c’est ça qui est drôle : nous ne savons pas faire le différence entre les deux, mais si c’est la machine qui est créditée comme auteur alors c’est nul... Ici, pour IA-Pulse, j’ai choisi la transparence : la machine écrit en grande partie les textes qui sont identifiés comme tels, mais je relis et valide tout. Rien n’est automatique. Et les éventuelles erreurs je les assume, elles sont les miennes.
Cette situation soulève des enjeux aussi bien pour l'avenir du journalisme et que de l'information numérique en général. L'étiquetage systématique des contenus IA pourrait paradoxalement nuire à la diffusion d'informations valides et utiles. La solution pourrait résider dans une approche plus nuancée, privilégiant l'identification des contenus problématiques plutôt qu'une focalisation sur leur origine.
Les implications dépassent d’ailleurs le simple cadre journalistique. Comment garantir la transparence sans alimenter des préjugés injustifiés ? Comment éduquer le public sur les différents niveaux d'intervention de l'IA, de la simple assistance rédactionnelle à la génération complète de contenu ?
Les perspectives d'évolution sont multiples. La normalisation progressive de l'usage de l'IA pourrait atténuer ces réticences initiales. Parallèlement, le développement d'un vocabulaire plus précis pour décrire les différents degrés d'implication de l'IA permettrait une meilleure compréhension publique.
L'enjeu ultime réside peut-être dans notre capacité collective à développer une littératie numérique plus sophistiquée, où l'évaluation des contenus se baserait sur leur qualité intrinsèque plutôt que sur leur mode de production - humains ou machines, même combat. Cette évolution nécessite un effort conjoint des plateformes, des créateurs de contenu et du public pour construire un écosystème informationnel plus mature et nuancé - bon courage.
📻 Le podcast de la semaine
Peut-on contrôler l'Intelligence Artificielle ?
Un épisode des matins de France Culture, qui réunit Daniel Andler et Amélie Cordier pour nous parler de superintelligence artificielle et de transformation du travail, sans remplacement total de l'humain par l'IA.
👨🏽🦳👩🏽🦳 C’était mieux avant - Il y a 1 an
N’hésitez à me contacter si vous avez des remarques et suggestions sur cette newsletter, ou si dans votre entreprise vous cherchez à être accompagnés dans l’intégration d’outils IA et d’IA générative : olivier@255hex.ai
Partagez cette newsletter
Et si vous n’êtes pas abonné, il ne tient qu’à vous de le faire !
Bon weekend.
Je suis tellement effarée de la crédulité des étudiants que j’ai régulièrement en face de moi dans mon cours sur l’IA que j’ai pris le parti de leur dire qu’ils devaient d’abord se dire que ce qu’ils avaient sous les yeux était d’abord faux, avant que d’être vrai. Je leur explique aussi la notion de post-vérité qu’instaurent de plus en plus les équipes de Trump (cf l’analyse de l’image IA de la petite fille « sinistrée » lors des dernières inondations aux US). Peut-être ai-je tort car c’est instiller chez eux une forme de méfiance systématique mais ils sont tellement enclins à croire tout ce qu’ils voient que je préfère agir ainsi.