Bienvenue sur IA Pulse Weekend. Cette édition porte le numéro 78. En vous abonnant, vous recevez tous les samedis matin, l’essentiel de ce qu’il s’est passé cette semaine autour de l’IA : un coup de gueule édito, une sélection de 3 actualités avec pour chacune un résumé rapide à lire, plus 1 article de fond pour ouvrir l’esprit et réfléchir et 1 podcast à écouter. Gérez votre abonnement.
⏱️Temps de lecture de cette newsletter par une unité carbone : 8 mins
Des montagnes de milliards. 156 ? 157 milliards de dollars ? Ce serait la valorisation d’OpenAI après sa prochaine levée de fonds qui à elle seule doit s’élever à 6 milliards de dollars. Vertigineux. On comprend mieux pourquoi OpenAI doit constamment saturer de communications le paysage de l’IA. Prouver qu’elle vaut tous ces milliards. Une vraie activité à temps plein.
En cette fin de semaine, juste avant le weekend - et après l’envoi de la newsletter de l’ami Gilles, c’est un complot de la part de Meta - Meta nous a dévoilé un nouveau modèle de génération de vidéo. Modèle qui s’occupe aussi de faire le bande-son. Le Sora d’OpenAI n’a qu’à bien se tenir. D’ailleurs, nous l’attendons toujours.
De son côté Google continue d’avancer avec l’intégration de l’IA générative dans ses résultats de search. Il s’agit maintenant d’intégrer la publicité. Et il semble que Google a trouvé l’idée du “comment”. Là aussi, on attend toujours le SearchGPT d’OpenAI - quoi que…
Enfin, l’actualité de cette semaine c’est aussi et encore OpenAI et les annonces faites au DevDay2024. On ne les attendait plus. Comme quoi.
Cette semaine la partie de cette newsletter gérée par l’IA, les 3 clusters d’articles, a été générée par Claude-3.5-Sonnet et GPT-4o pour les résumés des articles sources, la génération du cluster et de son titre. Comme d’habitude j’ai fait quelques modifications, mais j’ai aussi laissé quelques tournures typiques des modèles de langage. Et bien entendu, mes commentaires éventuels sont en italique dans ces résumés. Le texte de “l’article qui fait réfléchir” est issu d’un ping-pong entre o1-preview et Claude-3.5-Sonnet.
L’image d’illustration ci-dessous est générée par Midjourney est une capture d’écran.
📰 Les 3 infos de la semaine
🎆La nouvelle arme de Meta dans la course à l'IA générative
Meta vient d’annoncer le lancement de Movie Gen, un modèle d'intelligence artificielle générative capable de créer des vidéos à partir de simples descriptions textuelles. Ce nouveau modèle permet de produire des séquences vidéo de 16 secondes en haute définition, avec une résolution de 1080p et une fréquence de 16 images par seconde.
La grande nouveauté de Movie Gen face à ses concurrents, est sa capacité à générer non seulement des vidéos, mais aussi des sons et de la musique d'ambiance synchronisés. Le système utilise un modèle de 30 milliards de paramètres pour la génération vidéo et un modèle de 13 milliards de paramètres pour l'audio. Cette approche multimodale permet de créer des contenus audiovisuels cohérents et immersifs.
Une autre fonctionnalité de Movie Gen est sa capacité d'édition précise. Les utilisateurs peuvent modifier des éléments spécifiques dans une vidéo existante, comme changer un objet ou une couleur, simplement en utilisant des commandes textuelles. Le système permet aussi - pour le meilleur et probablement pour le pire - de personnaliser les vidéos en intégrant des visages à partir d'une seule photo, ouvrant ainsi la voie à de nouvelles formes de création de contenu personnalisé - qu’en mots choisis ces choses là sont dites.
Meta positionne Movie Gen comme un outil destiné aussi bien aux créateurs de contenu en ligne qu'aux professionnels de l'industrie cinématographique. Bien que la société n'ait pas encore annoncé de date de sortie précise, elle prévoit d'intégrer cette technologie à Instagram en 2025, ce qui pourrait transformer la manière dont les utilisateurs créent et partagent du contenu sur la plateforme.
Pour son entrainement, le modèle Movie Gen s'est appuyée sur un vaste ensemble de données, comprenant 100 millions de vidéos et 1 milliard d'images. Cependant, Meta reste discret sur la provenance exacte de ces données - nan… tu m’étonnes, soulevant encore des questions potentielles sur les droits d'auteur et l'utilisation éthique des contenus en ligne pour l'entraînement des modèles d'IA.
Pourquoi est-ce important ? Le lancement de Movie Gen vient bousculer les acteurs qui tentent de prendre la place de leader sur ce maché des modèles vidéo. Y compris OpenAI qui peine à sortir son modèle, et qui vient de voir partir Tim Brooks, une des deux têtes pensantes de Sora.
Sources : Axios, The New York Times, Wired
💰 Google monétise ses résumés IA
Google poursuit l’intégration de l’IA dans ses résultats de recherche, en annonçant l’ajout de publicités au sein de ses « AI Overviews », des résumés générés par intelligence artificielle. Cette nouveauté vise à monétiser les résumés IA tout en offrant une nouvelle manière de connecter les utilisateurs à des produits ou services pertinents. Par exemple, lors d'une recherche sur comment se débarrasser d’une tâche sur un vêtement, Google non seulement propose un résumé sur les différentes options pour détacher comme il faut son vêtement préféré , mais affiche également des annonces sponsorisées pour des produits détachants - Unilever si tu nous lis...
Pour le moment, cette fonctionnalité est déployée uniquement aux États-Unis et sur les appareils mobiles. Les publicités apparaissent sous la forme de liens sponsorisés intégrés directement dans les résumés IA, avec un label "Sponsored" clairement visible. Google affirme que ces annonces sont particulièrement pertinentes pour les requêtes ayant un "angle commercial", comme la recherche de solutions pour enlever une tache d'herbe sur un jean - ou une tâche de café sur une chemise, ou encore une tâche de vin sur un blouson.
L’objectif de Google est clair : préserver sa position dominante dans le secteur des moteurs de recherche tout en répondant à la montée en puissance de concurrents comme OpenAI et Perplexity. Bien que ce nouveau format soit en phase de test, Google espère augmenter l’engagement des utilisateurs, notamment chez les jeunes adultes, une cible clé pour l’entreprise. Mais des critiques se sont déjà fait entendre quant à l’encombrement visuel des résumés par des publicités, et les experts s'interrogent sur les effets potentiels sur le trafic des éditeurs de contenu, qui pourrait diminuer si les utilisateurs trouvent directement ce qu'ils cherchent dans les résumés.
Pourquoi est-ce important ? En intégrant des publicités dans ses résumés IA, Google réinvente la monétisation de la recherche, au risque d'affecter l'écosystème des éditeurs web.
Sources : The Information, The Verge, Tech Crunch
🧑💻 DevDay 2024 : OpenAI simplifie l'IA pour les développeurs avec des outils plus accessibles
Lors de son événement DevDay 2024, OpenAI a dévoilé plusieurs mises à jour destinées à rendre ses outils IA plus accessibles et abordables pour les développeurs. Parmi les innovations les plus marquantes figurent l’API Realtime, qui permet des conversations vocales en temps réel, et le « Prompt Caching », une fonction permettant de réduire les coûts en réutilisant les requêtes précédentes. Ces évolutions visent à améliorer la fluidité et la rentabilité des applications basées sur l’IA.
L'introduction du « Model Distillation » permet également aux développeurs d'utiliser des modèles plus légers et moins coûteux tout en conservant une grande partie de la puissance des modèles plus avancés, rendant l'IA accessible à des entreprises avec des ressources limitées. Par ailleurs, la fine-tuning de la vision offre aux développeurs la possibilité de personnaliser la compréhension visuelle des modèles pour des tâches spécifiques, telles que l'analyse d'images médicales ou la détection d’objets dans des véhicules autonomes.
Contrairement à l'année précédente, l'événement de cette année a adopté une approche plus discrète, sans lancement de produit majeur. Le PDG Sam Altman - occupé à lever des fonds - n'a pas donné de keynote, laissant la place à l'équipe produit d'OpenAI pour présenter les nouvelles fonctionnalités.
Pourquoi est-ce important ? Ces nouvelles fonctionnalités d'OpenAI reflètent une vision stratégique dirigée vers le développement d’un écosystème de l'IA plus simple, pour rendre ces technologies plus accessibles et abordables pour les développeurs.
Sources : Venture Beat, Ars Technica
🚀 3 infos en plus
ChatGPT’s ‘Canvas’ interface makes it easier to write and code (The Verge)
Even the ‘godmother of AI’ has no idea what AGI is (Tech Crunch)
Le gouverneur de Californie met son veto à la loi sur la sécurité de l’IA (Le Monde)
🧠 L’article qui fait réfléchir - et qu’il faut absolument lire
Computer Scientists Combine Two ‘Beautiful’ Proof Methods
Dance of the Clairvoyants
La notion de preuve en mathématiques, traditionnellement perçue comme une suite logique menant d'hypothèses à une conclusion irréfutable, a été profondément transformée par l'informatique théorique. Cette évolution a ouvert de nouvelles perspectives sur la nature même de la vérité et de la connaissance, remettant en question nos conceptions classiques de la démonstration.
Deux innovations majeures ont émergé : les preuves à connaissance nulle, qui permettent de convaincre de la véracité d'une assertion sans en révéler les raisons sous-jacentes, préservant ainsi la confidentialité, et les preuves vérifiables de manière probabiliste, qui offrent la possibilité de valider une preuve en n'en examinant qu'une infime partie aléatoire, rendant la vérification beaucoup plus rapide.
La combinaison de ces deux méthodes a longtemps représenté un défi intellectuel insurmontable. Comment concilier la dissimulation totale de l'information, propre aux preuves à connaissance nulle qui reposent sur l'interactivité pour préserver le secret, avec la nécessité de distribuer l'information pour une vérification partielle et rapide, caractéristique des preuves vérifiables de manière probabiliste et non interactives ? Cette apparente contradiction a stimulé la créativité des chercheurs pendant des décennies.
Récemment, des scientifiques ont réussi à surmonter ce défi en combinant ces deux méthodes de manière optimale pour une classe importante de problèmes, notamment les problèmes de comptage. Cette avancée résout un problème qui avait déconcerté la communauté scientifique et ouvre la voie à de nouvelles applications en cryptographie et en sécurité informatique. La possibilité de prouver sans révéler pourrait révolutionner les transactions numériques, tandis que la vérification rapide de preuves complexes pourrait accélérer considérablement certains calculs.
Ces progrès nous invitent à réfléchir en profondeur sur la nature de la connaissance, de la certitude et de la confiance. Dans un monde où l'on peut être convaincu sans comprendre pleinement, où la vérité peut être établie sans être dévoilée, comment évoluent nos notions de confiance et de compréhension ? Cette convergence des méthodes de preuve soulève des questions sur la manière dont l'information peut être partagée, vérifiée et protégée simultanément. Elle ouvre aussi une réflexion vertigineuse sur la nature même du concept de la vérité dans un monde numérique.
📻 Le podcast de la semaine
Biocomputing : l'ordi-nature
Une nouvelle approche du biocomputing propose d'utiliser des cellules cérébrales pour créer des ordinateurs, remplaçant le silicium par des organoïdes issus de cellules souches. Le point sur ces recherches dans cet épisode de La Science CQFD.
👨🏽🦳👩🏽🦳 C’était mieux avant - Il y a 1 an
N’hésitez à me contacter si vous avez des remarques et suggestions sur cette newsletter, ou si dans votre entreprise vous cherchez à être accompagnés dans l’intégration d’outils IA et d’IA générative : olivier@255hex.ai
Partagez cette newsletter
Et si vous n’êtes pas abonné, il ne tient qu’à vous de le faire !
Bon weekend.