Bienvenue sur IA Pulse Weekend. En vous abonnant, vous recevez tous les samedis matin, l’essentiel de ce qu’il s’est passé cette semaine autour l’IA : une sélection de 3 articles avec pour chacun un résumé rapide à lire, plus 1 article de fond pour ouvrir l’esprit et réfléchir, et pour finir 1 podcast à écouter.
Cette semaine c’est Google qui s’est amusé à nous faire peur ou rêver. Tout dépend du niveau de dépendance que nous avons à son moteur de recherche, à ses outils et à ses systèmes. Spotify s’énerve, mais officiellement pas vraiment pour la raison qu’on pouvait attendre. Quant à l’Europe, elle peut être fière d’être la première entité de cette taille à avoir fait le premier pas de la régulation de l’IA.
📰 Les 3 infos de la semaine
🔴The AI takeover of Google Search starts now
The Verge, 10/05/2023
Lors de sa conférence annuelle des développeurs, I/O, Google a annoncé une série d'intégrations d'outils IA permettant de créer du texte ou des images dans ses services, notamment son moteur de recherche.
Google lance une nouvelle fonctionnalité appelée Search Generative Experience (SGE), qui utilise de grands modèles de langage pour générer des instantanés de résultats de recherche. Ces instantanés présentent aux utilisateurs un résumé, des liens et des sources d'information pour une requête spécifique, en fonction de ce que les algorithmes de Google considèrent comme plus utile que les résultats standards.
Search Generative Experience est une “expérience” qui vise à améliorer la capacité de Google à répondre à des questions complexes et créatives, telles que la planification de vacances ou la recherche du meilleur restaurant. SGE fait partie de l'approche "AI-first" de Google, qui comprend également d'autres produits tels que Bard.
Google espère que SGE et les autres outils d'IA l'aideront à rester leader alors que le groupe subit une vive concurrence, notamment d'OpenAI, le créateur du robot conversationnel ChatGPT, appuyé par Microsoft.
En revanche, les éditeurs de sites web basés sur les clics ont du souci à se faire… A non, il reste Discover pour cliquer ^^
🔴 Spotify removes thousands of AI-generated songs
Mashable, 09/05/2023
Spotify a supprimé des dizaines de milliers de chansons créées par la startup d’intelligence artificielle Boomy, après que Universal Music a signalé une activité de streaming suspecte.
Les chansons ont été retirées de la plateforme en raison de soupçons d’utilisation de bots pour gonfler les flux, une pratique assez répandue.
Bien que l’anxiété liée à l’IA ait augmenté dans l’industrie musicale, ces suppressions n’étaient pas directement liées aux méthodes IA utilisées pour générer les chansons, mais plutôt à la manière dont leurs statistiques d’écoutes auraient été gonflées.
🟢7 questions sur l’IA Act, le projet européen de réglementation de l’intelligence artificielle
Numerama, 11/05/2023
L'IA Act est le projet de règlement européen visant à réguler l'usage et le développement de l'intelligence artificielle en fonction des risques qu'elle représente pour la santé, la sécurité, les droits fondamentaux des citoyens et l'environnement.
Les eurodéputés ont approuvé en commission de nouvelles règles pour assurer la supervision humaine, la sûreté, la traçabilité et la non-discrimination des systèmes d'IA. Certaines IA présentant des risques inacceptables, comme les systèmes de notation sociale ou d’identification biométrique à des fins répressives, seront interdites. D'autres devront respecter des obligations de transparence. Le texte permet également la création de bacs à sable réglementaires pour stimuler l'innovation.
Les eurodéputés ont étendu les zones à haut risque aux systèmes d'IA qui pourraient influencer les élections ou les recommandations des médias sociaux. Après une position commune décidée en commission, des négociations vont débuter entre le Parlement, la Commission et les États membres. L'IA Act devrait être adopté en version finale d'ici la fin de l'année.
🧠 L’article qui fait réfléchir - et qu’il faut absolument lire
« Les IA génératives font diversion à celles des réseaux sociaux »
Vous en doutiez ?
A lire cette interview d'El Mahdi El Mhamdi, ancien scientifique de chez Google. Il y a quelques mois, il a démissionné de son poste après que Google a refusé de publier un article qu'il avait écrit et qui mettait en garde contre le déploiement prématuré des nouvelles formes d'intelligence artificielle. Dans cette interview, il évoque ses préoccupations quant à la dimension politique de cette question, ainsi que ses recommandations en matière de réglementation technologique.
Cette démission fait suite au licenciement d’une partie de l'équipe d'éthique de l'IA de Google, en particulier les personnes qui la dirigeaient, dont les opinions favorables à la réglementation entraient en conflit avec la position pro-business de la direction générale de Google. El Mahdi El Mhamdi affirme que la réglementation est la seule solution à l'appétit illimité des grandes entreprises technologiques. Et pour sa part il appelle à un renversement de la charge de la preuve, de sorte que ce soit aux entreprises qui déploient ces technologies, et non aux victimes potentielles, de prouver qu'ils respectent les règles.
Le chercheur critique également la nature détournée de l'IA générative développée par les grandes entreprises technologiques, qu'il considère comme un écran de fumée visant à retarder la réglementation des IA et des algorithmes moins visibles mais qui ont une influence encore plus grande sur nos sociétés. Il affirme que l'IA la plus importante en termes de conséquences sociales est constituée par les systèmes de recommandation algorithmiques des réseaux sociaux, qui façonnent l'hygiène informationnelle de la planète. Il appelle à une action urgente dans ce domaine
📻 Le podcast de la semaine
IA génératives : du fake plus vrai que nature
Cet épisode d’Ex Machina met en lumière l'essor des intelligences artificielles génératives, comme ChatGPT, capables de créer des contenus presque indiscernables du vrai. Cette avancée, couplée à la viralité des réseaux sociaux et aux fake news, pose de nouveaux défis politiques et sociaux. Les IA, basées sur la probabilité, nécessitent une supervision humaine. Cela soulève des questions clés : comment améliorer les IA génératives ? Comment contrôler les contenus générés par ces machines ? Quel est le rôle des médias et des pouvoirs publics dans la lutte contre la désinformation ?
Autopromo : et une nouvelle si vous avez 1h50 devant vous (oui je parle de trop, vraiment…) vous pouvez nous retrouvez Christofer Ciminelli et moi-même dans le dernier épisode de son podcast Follow Me.
On y parle bien entendu d’IA, mais pas que.
N’hésitez pas à partager cette newsletter
Et si vous n’êtes pas abonné, il ne tient qu’à vous de le faire !
Bon weekend !