Bienvenue sur IA Pulse Weekend. En vous abonnant, vous recevez tous les samedis matin, l’essentiel de ce qu’il s’est passé cette semaine autour de l’IA : une sélection de 3 articles avec pour chacun un résumé rapide à lire, plus 1 article de fond pour ouvrir l’esprit et réfléchir, et pour finir 1 podcast à écouter.
⏱️Temps de lecture de cette newsletter par une unité carbone : 7 mins
Quelle surprise ! X, ex-Twitter, nous apprend que nos échanges postés sur sa plateforme servent d’entraînement à un modèle d’IA. Et pourtant il y a quelques mois, en avril, certainement une autre époque, son propriétaire Elon Musk, nous disait clairement tout le mal qu’il pensait de cette vague d’IA générative, de ces modèles de langage qui allaient altérer le monde - enfin surtout le sien, et du risque que ces systèmes faisaient peser sur l’Humanité. Il avait même signé une lettre ouverte en ce sens. Bon, OK, le même jour il décidait de l’achat de 10 000 GPU par Twitter (pas encore X), pour pouvoir entraîner son propre modèle. This is it !
Mais X n’est pas la seule plateforme à se démener pour ne pas perdre le contact. Apple, reste même devant, en dépit de sa relative discrétion sur le sujet de l’IA générative depuis janvier. La firme qui depuis des mois préfère parler - à bon escient !- de Machine Learning, confirme qu’elle met le pa(r)quet en termes de dollars pour être encore et toujours la référence.
Autre plateforme, autre ambiance. Microsoft. L’entreprise est si sûre d’elle, de ses modèles d’IA générative et des revenus qui sont liés, qu’elle propose de prendre en charge les coûts des éventuelles condamnations que ses clients auraient à subir, s’ils étaient attaqués pour contrefaçon après avoir utilisé des contenus produits par ses outils d’IA générative. Techniquement, ça se joue.
Quant à Google, le géant essaie de ne pas mettre trop en colère les politiques du monde en entier, en commençant par ses plus proches. La firme a pris la décision que toutes les publicités ou messages officiels politiques qui utilisent l’IA générative pour altérer des images ou des sons, soient accompagnés d’un avertissement clairement visible sur Youtube et ses autres services. En particulier en période électorale.
Et pour finir en ce beau matin chaleureux, je vous propose de réfléchir à propos de l’arrivée des IA Compagnons et de l’importance que nous donnons à toute chose qui emploie notre langage naturel. La belle vie.
📰 Les 3 infos de la semaine
💵Apple is reportedly spending 'millions of dollars a day' on AI
Mashable, 06/09/2023
Apple investit massivement dans IA, dépensant “des millions de dollars par jour”. L'entreprise, qui a longtemps maintenu une certaine discrétion sur ses activités en IA, est en réalité un acteur très important dans ce domaine . Elle a développé son propre grand modèle de langage, nommé “Ajax”, envisagé pour le support client d'Apple Care - le seul cas d’usage “industriel” déjà en passe d’être généralisé.
Apple a également une unité spécialisée de 16 membres, appelée “Foundational Models”, dirigée par John Giannandrea, le chef de l'IA chez Apple. Cette unité est axée sur l'IA conversationnelle et travaille notamment à améliorer Siri - ce n’est pas un luxe. Parmi les projets en cours, Apple prévoit d'automatiser des tâches complexes via Siri, comme la création de GIF à partir de photos. D'autres développements incluent l'IA multimodale, capable de générer du texte à partir d'images et vice versa, ainsi que des logiciels pour créer des scènes 3D.
Contrairement à son image publique, Apple est un concurrent sérieux dans la course à l'IA - quelqu’un en doutait ?
🧑🏽⚖️ Microsoft to shield paid-up Copilot customers from any AI copyright brawls it starts
The Register, 07/09/2023
Microsoft a annoncé le "Copilot Copyright Commitment", visant à protéger les utilisateurs payants de son service d'IA générative Copilot contre les éventuelles poursuites pour violation du droit d'auteur : Microsoft assumera la responsabilité des risques juridiques liés aux revendications sur le droit d'auteur - rien que ça. Cette protection ne s'étend pas aux utilisateurs de la version gratuite de Bing ou GitHub Copilot.
L'annonce intervient dans un contexte où l'utilisation de données récupérées sur Internet pour former des modèles d'IA génératifs soulève des questions éthiques et juridiques. Plusieurs entreprises technologiques, dont OpenAI et Google, ont été poursuivies pour avoir prétendument utilisé du contenu protégé par le droit d'auteur dans la formation de leurs modèles. Microsoft cherche à rassurer les utilisateurs et à encourager l'adoption de ses services d'IA en assumant les risques juridiques, mais cette décision a des implications pour les modèles commerciaux des entreprises d'IA et pour le débat sur l'éthique de l'IA. La mesure soulève également des questions sur l'équité, car elle n'offre pas de protection aux utilisateurs de versions gratuites.
📺AI that alters voice and imagery in political ads will require disclosure on Google and YouTube
Quartz, 07/09/2023
Google a annoncé une nouvelle politique exigeant que les publicités politiques utilisant l'intelligence artificielle pour altérer des images ou des sons soient accompagnées d'un avertissement clairement visible. Cette mesure entrera en vigueur à partir de mi-novembre sur Youtube et tous les services Google. Elle s'appliquera aux élections aux États-Unis, en Inde, dans l'Union européenne et en Afrique du Sud.
Cette décision intervient alors que l'IA rend de plus en plus facile la création de contenus manipulés, y compris des deepfakes. Des campagnes politiques, comme celle du gouverneur de Floride Ron DeSantis, utilisent déjà cette technologie. La Federal Election Commission envisage également de réglementer au niveau fédéral les deepfakes dans les publicités politiques.
Google n'interdit pas l'utilisation totale de l'IA : des exceptions sont prévues pour des modifications mineures qui n'affectent pas le message de la publicité. La sénatrice américaine Amy Klobuchar a salué cette initiative, tout en soulignant que l'autorégulation n'était pas suffisante. Cette décision de Google pourrait inciter d'autres plateformes à suivre son exemple, mais elle soulève également des questions sur l'efficacité de l'autorégulation dans un domaine aussi sensible que la publicité politique.
🧠 L’article qui fait réfléchir - et qu’il faut absolument lire
How personalized AI could turn into a ‘frenemy’
Cause you don't really love me, you keep me hangin' on
Cette tribune de Swarat Chaudhuri, professeur de mathématiques à l’Université du Texas d’Austin, aborde une question cruciale de notre époque : les risques et les implications de l'intelligence artificielle personnalisée - celle que j’appelle avec d’autres, l’IA Compagnon. Il utilise le terme "frenemy" (ami-ennemi) pour caractériser ces systèmes d'IA qui, bien que conçus pour nous aider, sont également des outils de manipulation. D’ailleurs Google envisage de créer un "coach de vie" basé sur l'IA, capable de fournir des conseils sur divers aspects de la vie quotidienne - vous pensez que ce compagnon va fonctionner comment ?
Pour comprendre la puissance de ces systèmes, il faut d'abord en articuler les deux concepts clés : l'IA générative et la personnalisation. L'IA générative peut créer du contenu textuel fluide et cohérent, mais aussi des images, des vidéos et sons plus vrais que les vrais. La personnalisation, quant à elle, utilise des algorithmes d’apprentissage automatique pour adapter le contenu en fonction des préférences et des comportements de l'utilisateur. Lorsque ces deux technologies se combinent, elles créent des systèmes extrêmement précis qui peuvent prédire - au sens “prédictif” de l’IA, ce n’est pas Madame Soleil - nos besoins et désirs avec une précision étonnante. Précision étonnante qui découle de l’accès de ces systèmes à nos données, nos datas de toutes sortes, que nous leur fournissons volontairement et bien entendu de manière altruiste - vous aimez nos nouvelles vies digitales ?
Mais bien entendu ces IA sont d’abord conçues pour maximiser les revenus de leurs développeurs. Elles peuvent donc avoir des propensions à nous manipuler, par exemple en nous poussant à cliquer sur des publicités ou à maintenir des abonnements - des usages encore plutôt softs. De plus, leur capacité à générer du contenu en continu peut avoir un impact néfaste sur notre bien-être psychologique - ça ne vous rappelle rien ?
Les IA Compagnons, ces copilotes de nos vies, sont peut-être certainement les nouveaux agents d’une nouvelle forme encore plus “personnelle” de l’économie de l’attention. Les Compagnons arrivent directement à nous toucher par l’emploi du langage naturel dans une forme si personnalisée que nous pouvons que nous projeter avec nos sentiments. Nous conférons instinctivement une forme anthropomorphe à ces agents numériques, nous en faisons des égaux, des amis, des confidents ou des souffre-douleur. Notre cerveau tient pour acquis que celui qui maitrise le langage naturel est forcément un semblable. Bon courage ^^
📻 Le podcast de la semaine
Comptoir AI : Emmanuel Grimaud - Anthropologue
Nicolas reçoit Emmanuel Grimaud, anthropologue, qui explore les implications profondes de l'IA sur l'humanité. Il questionne les fondements du test de Turing et suggère que notre relation avec les machines nécessite une réévaluation. Grimaud utilise des concepts d'anthropologie pour examiner comment la technologie transforme notre espèce. Il a créé un robot Ganesh en Inde pour étudier l'identité et la spiritualité. Mettant en garde contre les pièges de la futurologie, il appelle à une réflexion éthique sur les usages de l'IA, de la surveillance au changement climatique.
Une conversation fascinante.
N’hésitez à me contacter si vous avez des remarques et suggestions : olivier@255hex.ai
Partagez cette newsletter
Et si vous n’êtes pas abonné, il ne tient qu’à vous de le faire !
Bon weekend !