Bienvenue sur IA Pulse Weekend. En vous abonnant, vous recevez tous les samedis matin, l’essentiel de ce qu’il s’est passé cette semaine autour de l’IA : un coup de gueule édito, une sélection de 3 actualités avec pour chacune un résumé rapide à lire, plus 1 article de fond pour ouvrir l’esprit et réfléchir et 1 podcast à écouter.
⏱️Temps de lecture de cette newsletter par une unité carbone : 9 mins
On a beau faire des annonces qui bluffent et qui mettent en émoi tout le public avide “d’innovations” - dont je fais partie, groupie que je suis - on est souvent rattrapé par des problèmes bien moins glamours.
Prenez Sam de chez OpenAI, notre ami qui nous veut du bien. Il annonce une nouvelle version d’un super modèle, l’entreprise organise un super moment plein de whaou et de paillettes dans les yeux. Et hop quelques jours plus tard il perd les têtes de son équipe ‘superalignement’. Equipe qui doit garantir que tout ce que fait OpenAI ne va pas détruire notre civilisation. Ah, du coup ça fait moins de paillettes, non ?
Et puis le lendemain de cette soirée géniale, un autre acteur, peut-être le plus grand, notre cher Google fait un tas d’annonces, équivalentes ou presque. Surtout, Google nous parle d’introduction de l’IA dans son produit phare : les résultats de recherche. Après une année de test avec SGE, Google annonce l’arrivée de “AI overviews” : des résumés de réponses au dessus des liens. Les éditeurs ont peur. Vont-ils perdre leur trafic ? Et patatras. Google n’a pas prévu - ou voulu, d’option pour désactiver ce “AI overviews”. Une partie des utilisateurs sont furieux. Depuis on voit apparaitre de plus en plus d’articles avec ce genre de titre : “How to keep AI out of your Google searches”. Bon en vrai, si vous voulez retrouver le Google d’il y a 20 ans, que des liens bleus, il y a des moyens pour ça.
Quant à nos autres amis d’Anthropic, enfin ils se décident à mettre officiellement à disposition de l’Europe, leur modèle Claude 3 dans sa version interface web équivalente à ChatGPT. On se demande ce qui a retenu aussi longtemps nos “nouveaux amis qui nous veulent que du bien” et qui semblent tellement à cheval sur l’éthique.
Cette semaine la partie de cette newsletter gérée par l’IA, les 3 clusters d’articles, a été générée par GPT-4o pour les résumés des articles sources, et pour la génération du cluster et de son titre. Comme d’habitude trop souvent j’ai fait quelques beaucoup de modifications, mais j’ai aussi laissé quelques tournures typiques des modèles de langage. Et bien entendu, mes commentaires éventuels sont en italique dans ces résumés. Le texte de “l’article qui fait réfléchir” est issu d’un ping-pong entre de GPT-4o et votre serviteur tout seul.
L’image d’illustration ci-dessous est générée par Midjourney.
📰 Les 3 infos de la semaine
🛸 Quand OpenAI repousse les limites et soulève des doutes
OpenAI a lancé cette semaine GPT-4o, une nouvelle version de son modèle de langage, offrant des capacités multimodales pour gérer texte, parole et vidéo. Ce modèle est plus rapide, moins coûteux et supporte plus de 50 langues. Il permet des interactions en temps réel avec des réponses émotionnellement nuancées et peut analyser des images, du code et des vidéos. GPT-4o vise à surpasser les assistants vocaux comme Siri et Google Assistant en offrant des fonctionnalités vocales et visuelles avancées - a priori ça ne va pas être si compliqué de faire mieux.
GPT-4o est accessible aux utilisateurs gratuits et payants de ChatGPT, avec des fonctionnalités supplémentaires pour les abonnés Plus et Team. Lors des démonstrations, le modèle a montré sa capacité à comprendre et répondre aux émotions des utilisateurs, à fournir des conseils de relaxation et à converser en plusieurs langues.
Cependant, ces avancées posent des questions éthiques et de sécurité. Les critiques soulignent que l’utilisation de voix féminines séduisantes comme celles proposées pendant les démonstrations - “Scarlett Johansson sors de ce smartphone !” - pourrait renforcer des stéréotypes de genre. Les chatbots anthropomorphisés pourraient manipuler les utilisateurs ou devenir addictifs - voire une totale addiction pour certaines unités carbone total in love de la voix susnommée, un peu comme dans un film… oh wait !!! La capacité de l’IA à simuler l’empathie pourrait aussi augmenter les risques de diffusion d’informations inexactes - c’est déjà fait.
Cette semaine aussi, deux départs majeurs chez OpenAI, ceux d'Ilya Sutskever et de Jan Leike, ont soulevé des préoccupations quant à la capacité de l'entreprise à développer et contrôler des IA “superintelligentes”. Ils dirigeaient l’équipe de “superalignement” - tout est “super” dans cette “superhistoire” - chargée d'assurer que les systèmes d'IA suivent les intentions humaines - qui sont toujours “super” aussi. Leur départ met en lumière les défis techniques et éthiques liés à l’alignement des IA.
Pourquoi est-ce important ? Les avancées de GPT-4o montrent la vitesse d’évolution des modèles de langage, mais aussi les risques éthiques et sécuritaires de ces évolutions. Les capacités émotionnelles sophistiquées peuvent manipuler les utilisateurs et diffuser des informations erronées, tandis que l'utilisation de voix féminines séduisantes risque de renforcer des stéréotypes. Les départs de Sutskever et Leike accentuent les préoccupations sur la capacité d’OpenAI à contrôler des IA superintelligentes, soulignant l’urgence de progrès techniques et éthiques pour sécuriser ces technologies. Tout cela est totalement parfait pour une entreprise en quête de solutions techniques et éthiques robustes.
Sources : OpenAI, OpenAI, OpenAI, BBC News, The New York Times, The Guardian, The Guardian, The Wall Street Journal, Wired, New Scientist
💣 Google I/O 2024 : l'IA d’Astra à Gemini, avec ou sans les liens ?
Lors de sa Google I/O 2024, Google a présenté sa dernière version de Gemini, notamment les modèle Gemini 1.5 Flash et Pro, optimisés pour des tâches nécessitant des réponses rapides et une capacité de contexte élargie à 2 millions de tokens pour la version Pro. Gemini 1.5 Pro sera intégré à Google Workspace, comme assistant dans des applications comme Docs, Sheets, et Gmail. Android 15 et Chrome bénéficieront également des avancées de Gemini, avec des fonctionnalités telles que la détection des arnaques et l'intégration de Gemini Nano pour la génération de texte - et de résumés à la volée.
Google a aussi dévoilé le projet Astra, un assistant IA multimodal capable d'interagir via les caméras des appareils, et Veo, un modèle génératif créant des vidéos à partir de textes et d'images. "Ask Photos" dans Google Photos permettra aux utilisateurs de poser des questions sur leurs galeries. Google Lens peut désormais traiter des recherches vidéo, et "Gems" permet la personnalisation de chatbots.
Mais une partie des annonces suscitent des préoccupations parmi les éditeurs en ligne, en particulier celles portant sur les résultats proposés par le moteur de recherche. Les éditeurs craignent une réduction du trafic en raison des "AI Overviews" qui succèdent à SGE. Ce sont des résumés générés par l’IA et placés en haut des résultats de recherche, avant les liens cliquables. Bien que ces “aperçus” puissent améliorer l'expérience utilisateur, ils pourraient aussi réduire les clics vers les sites des éditeurs - ah bon ? - compromettant ainsi leur modèle économique basé sur les publicités et abonnements.
Pourquoi est-ce important ? Ces annonces montrent la volonté de Google de transformer profondément l'expérience utilisateur avec l'IA, mais elles soulèvent aussi des questions cruciales sur l'impact économique pour les éditeurs en ligne et la manière dont l'IA s'intégrera dans la vie quotidienne des utilisateurs.
Sources : Google, The New York Times, Ars Technica, TechCrunch, Search Engine Land, MIT Technology Review
🔓 Anthropic lance Claude 3 en Europe
Anthropic, une entreprise d'intelligence artificielle fondée par d'anciens employés d'OpenAI, a lancé Claude 3 en Europe. Bien que Claude 3 soit disponible mondialement depuis plusieurs semaines, c'est la première fois qu'il est accessible - officiellement - en Europe. Claude 3 se décline en trois versions : Haiku, Sonnet et Opus, cette dernière étant la plus avancée et dédiées aux tâches complexes. Contrairement à ChatGPT, Claude ne génère pas d'images à la manière de DALL-E 3 dans ChatGPT, mais permet aux utilisateurs de fournir des images et des documents dans leurs prompts. Anthropic met l'accent sur la sécurité et l’éthique - on peut avoir le détails des règles ? - de son modèle en indiquant avoir mis en place des garde-fous stricts pour garantir une utilisation “safe” - nous sommes rassurés...
Les utilisateurs européens peuvent accéder à Claude via une version web gratuite et limitée au modèle Sonnet, une application iOS gratuite, et des abonnements individuels et pour les entreprises. L'abonnement Claude Pro, à 18 euros par mois, donne accès à toutes les versions, y compris Opus. Le plan Claude Team, pour 28 euros par mois et par utilisateur, vise les équipes et les entreprises avec un minimum de cinq utilisateurs. Anthropic a levé environ 7 à 8 milliards de dollars auprès d'investisseurs tels que Google, Salesforce, et Amazon.
Juste après cette annonce, Antrophic a indiqué que Mike Krieger, co-fondateur d'Instagram, a rejoint Anthropic en tant que directeur des produits. Son expérience dans le développement de produits intuitifs sera cruciale pour transformer la technologie avancée d'Anthropic en solutions commercialisables, notamment avec le lancement récent de l'application Claude pour iOS. Cette nomination intervient alors qu'Anthropic se positionne comme un concurrent sérieux sur le marché de l'IA générative, avec une stratégie axée sur l'intégration multilingue et la convivialité de l'interface.
Pourquoi est-ce important ? L'expansion de Claude 3 en Europe démocratise l'accès à une IA avancée, stimulant ainsi l'innovation et la compétitivité. Les investissements majeurs et la nomination de Mike Krieger renforcent la position d'Anthropic comme un acteur clé sur le marché de l'IA générative, tout en garantissant une utilisation éthique et sécurisée de la technologie - on attend de voir quand même, hein...
Sources : Anthropic, Le Monde, The Verge
🧠 L’article qui fait réfléchir - et qu’il faut absolument lire
Open Source Initiative tries to define Open Source AI
Open Weight N’EST PAS Open Source
L'Open Source Initiative (OSI), l'organisation à but non lucratif supervisant la définition de l'open source, cherche à définir ce qu'est l'intelligence artificielle open source - et ce n’est pas simple. Pour ce faire, elle organise une série d'ateliers mondiaux afin de recueillir les avis des parties concernées sur la définition de l'Open Source AI, une discussion qui dure depuis deux ans.
Le problème principal est qu'il n'existe pas de critères clairs pour déterminer si un système d'IA est open source. Actuellement, de nombreux modèles de machine learning sont proposés sous des licences open source comme MIT, GPL 3.0, GPL 2.0 et AFL 3.0. Cependant, le langage juridique de ces licences ne s'adapte pas forcément à l'utilisation des modèles de machine learning et des jeux de données. Par exemple, des termes comme "programme" s'appliquent à plus que le simple code source et les fichiers binaires dans le contexte des modèles de machine learning.
Stefano Maffulli, directeur exécutif de l'OSI, a expliqué que l'IA est différente des logiciels traditionnels et oblige tous les acteurs à revoir comment les principes de l'open source s'appliquent à ce domaine. Selon lui, il est crucial que chacun conserve le contrôle sur la technologie et que des définitions claires favorisent la transparence, la collaboration et l'innovation sans permission.
De son coté, Bruce Perens, auteur de la définition originale de l'open source, est sceptique quant à la nécessité de traiter l'IA séparément. Pour lui, le véritable problème est que les vendeurs de logiciels, y compris ceux d'IA, utilisent de manière détournée la dénomination "open source" pour des produits qui ne le sont pas vraiment. Perens craint que cela ne crée de la confusion autour de la “marque open source”, car l'OSI a déjà une définition qui s'applique à tous les logiciels.
Pour Perens, le problème fondamental avec l'IA générative est que sa production est “intrinsèquement du plagiat”. Les grands modèles de langage sont formés à partir de sites web, de contenus qui souvent ne sont pas libres de droits et même de logiciels open source, tout ça sans respecter les droits d'auteur. Pour lui les sorties produites par ces modèles ne sont qu'un mélange de leurs entrées. Il estime que ce problème sera traité par les tribunaux, tout comme cela a été le cas avec Napster - quelle belle promesse.
📻 Le podcast de la semaine
Avec Philosophie : L’IA, nouvel animal de compagnie ?
Les IA, non sensibles par définition, sont perçues comme des amis ou animaux de compagnie. Laurence Devillers et Dominique Lestel explorent les implications philosophiques, éthologiques et les défis de cette relation artificielle dans notre société.
👨🏽🦳👩🏽🦳 C’était mieux avant - Il y a 1 an
Il y a un an Google lançait sa SGE - qui vient d’accoucher de l’AI Overviews cette semaine, Spotify pensait pouvoir lutter contre les morceaux générés pas IA - qui commençaient à pourrir son catalogue, et les députés européens approuvaient une première version de l’AI Act.
*** Cette édition vous a été présentée en partenariat avec la newsletter Upmynt.
Découvrez comment mieux utiliser l'intelligence artificielle générative pour booster votre business.
N’hésitez à me contacter si vous avez des remarques et suggestions sur cette newsletter, ou si dans votre entreprise vous cherchez à être accompagnés dans l’intégration d’outils IA et d’IA générative : olivier@255hex.ai
Partagez cette newsletter
Et si vous n’êtes pas abonné, il ne tient qu’à vous de le faire !
Bon weekend.