Bienvenue sur IA Pulse Weekend. En vous abonnant, vous recevez tous les samedis matin, l’essentiel de ce qu’il s’est passé cette semaine autour de l’IA : un coup de gueule édito, une sélection de 3 articles avec pour chacun un résumé rapide à lire, plus 1 article de fond pour ouvrir l’esprit et réfléchir, et pour finir 1 podcast à écouter.
⏱️Temps de lecture de cette newsletter par une unité carbone : 9 mins
Voilà, ça fait un an que ChatGPT a été mis sur le marché, jeté à la face du monde numérique. Le plus gros démarrage d’un service ou d’une application depuis le début de l’ère digitale. Et depuis un an, l’emballement, la frénésie du petit monde de la tech et du business autour des outils d’IA générative et des modèles de langage, ne semble pas avoir de fin. Quand Sam Altman se fait virer de son poste, les médias traitent cette information comme si une guerre était déclarée. Peut-être est-ce le cas. Je ne vais pas revenir en détails sur les théories entourant cet épisode, juste vous indiquer que “ah ben non peut-être que tout ça n’est pas lié à un projet qui aurait mis au point une intelligence supérieure, parce que ben ce projet n’existe pas vraiment et qu’on avait mal lu une dépêche d’agence qui était c’est vrai mal écrite” - euphémisme.
Quoi qu’il en soit, il ne se passe pas un jour sans que quelque chose arrive dans le monde des LLM et des IA génératives. C’était d’ailleurs le point de départ de la création de cette newsletter : aider mes amis, et m’aider moi-même, à faire un tri dans tout ce qui nous arrive. Et maintenant que le cercle des lecteurs a dépassé le cercle des connaissances amicales - merci vous êtes en moyenne 1 000 à lire cette lettre chaque semaine, il faut que j’explique de nouveau pour ceux qui n’étaient pas là au commencement comment est fabriquée cette infolettre. Le contenu au dessus de l’image, cet “édito”, est totalement écrit par moi. L’image juste en dessous est générée par un outil, en général Midjourney ou DALL-E. En dessous de l’image, les résumés des 3 articles et du podcast sont générés par GPT-4, puis revus et éventuellement, mais pas toujours, ajustés ou corrigés par moi. Quand j’interviens dans ces résumés, mes propos personnels sont en italique. Pour le texte de l’article qui fait réfléchir, c’est une collaboration homme-machine : je pars d’éléments résumés par le modèle de langage, que j’alimente avec mes propres réflexions. Le modèle mouline une nouvelle fois avec mes éléments et me génère un nouveau texte. Je termine en ajoutant des éléments provenant d’autres sources, des propos personnels et parfois des éléments stylistiques.
Et comme chaque semaine, depuis 34 semaines maintenant, l’actualité ce n’est pas que ChatGPT et OpenAI. C’est aussi Amazon qui se lance totalement dans la bataille de l’IA générative avec son assistant baptisé “Q”. Comme un air de déjà vu. On parle aussi de Stability qui vient de sortir un modèle capable de générer une image en temps réel. Et des chatbots compagnons à qui on donne la faculté d’imiter nos émotions, ou plus précisément la faculté de déclencher des émotions chez les humains. Ils deviennent nos nouveaux amis. Entièrement virtuels.
Et pour réfléchir, je vous emmène du côté “technique” de la force : nous allons voir arriver très rapidement des LLM et des modèles d’IA générative capables de fonctionner en local sur nos devices. Le récepteur - vous et moi, va avoir la technologie pour remodeler à sa guise et en temps réel l’information qui lui est envoyée. Sale temps pour les émetteurs.
📰 Les 3 infos de la semaine
🚀 Amazon’s Answer to ChatGPT Is a Workplace Assistant Called Q
Wired, 28/11/2023
Amazon Q, annoncé par Adam Selipsky, PDG d'Amazon Web Services (AWS), est un assistant AI génératif conçu pour améliorer la productivité professionnelle. Intégré à la plateforme AWS, Q vise à faciliter les tâches telles que la conversation, la génération de contenu et l'exécution d'actions, se positionnant comme une alternative à l'assistant Copilot de Microsoft.
Cet outil permet aux utilisateurs de poser des questions en langage naturel et d'interagir avec les systèmes et données de leur entreprise, tout en respectant les protocoles de sécurité et de confidentialité. Q ne se sert pas du contenu des utilisateurs pour entraîner ses modèles.
Formé sur 17 ans de connaissances AWS, Q offre des conseils sur les capacités, technologies, solutions et meilleures pratiques d'AWS. Les utilisateurs peuvent communiquer avec Q via diverses interfaces, y compris la console de gestion AWS, l'IDE et des plateformes de chat comme Slack.
Q assiste les utilisateurs dans le développement et la gestion d'applications sur AWS, aide à la génération de contenu, notamment en programmation, et facilite l'ajout de nouvelles fonctionnalités aux applications. Il possède une capacité de transformation de code pour les mises à niveau de langage, les migrations de framework et les correctifs de sécurité, réduisant le temps et l'effort nécessaires.
Q se connecte aussi à plus de 40 systèmes d'entreprise, utilisant l'IA générative et la recherche sémantique pour trouver des informations pertinentes. Il présente des réponses sous forme de tableaux, graphiques et listes, et permet des interactions approfondies.
🏎️ Stability AI turbocharges text-to-image generation with SDXL Turbo
Venture Beat, 29/11/2023
SDXL Turbo, développé par Stability AI, est une avancée majeure dans la génération d'images par IA à partir de textes. Ce modèle se distingue par sa capacité à créer des images en temps réel, une énorme amélioration en termes de vitesse par rapport aux modèles précédents. Cette performance est obtenue grâce à une réduction significative du nombre d'étapes de génération, passant de 50 à une seule, et à une charge de calcul moindre.
Le SDXL Turbo utilise la technique Adversarial Diffusion Distillation (ADD), combinant la qualité des modèles de diffusion avec la rapidité des GANs. Malgré sa vitesse, il maintient une qualité d'image élevée, avec une légère baisse par rapport aux versions non accélérées.
Ce modèle s'inscrit dans une tendance de développement de l'IA générative, visant d'abord la précision, puis l'optimisation pour la performance. Bien que pas encore prêt pour un usage commercial, SDXL Turbo est disponible en version betâ sur le service web Clipdrop, et son code et les poids du modèle sont accessibles sur Hugging Face sous licence de recherche non commerciale.
💖 L’amitié artificielle, nouvelle frontière de l’intelligence artificielle
Le Monde, 30/11/2023
L'évolution des amitiés artificielles avec l'intelligence artificielle représente un domaine en plein essor. Des plateformes comme ChatGPT d'OpenAI offrent des interactions conversationnelles sophistiquées, évitant toutefois de créer des liens affectifs. En contraste, d'autres technologies, à l'instar de My AI de Snapchat et les chatbots de Facebook, essaient d'imiter l'affection humaine.
Ces IA attirent un public varié, souvent en quête de compagnie ou de soutien émotionnel. Leur popularité est notable, particulièrement en Chine avec Xiaoice, illustrant un intérêt croissant pour ces formes d'interaction. Ces technologies offrent des avantages comme la stimulation sociale et intellectuelle, mais soulèvent également des questions éthiques et pratiques importantes.
Les implications de l'usage accru de ces IA pour des relations amicales sont multiples. Les préoccupations incluent l'impact sur la cohésion sociale, la dépendance éventuelle, et le risque de manipulation. Des incidents impliquant des utilisateurs de ces technologies ont révélé des conséquences parfois dramatiques.
Des appels à une réglementation et une clarification sur la nature non humaine de ces IA sont formulés. Néanmoins, ces technologies présentent des bénéfices potentiels, comparables à l'attachement envers les animaux domestiques ou les personnages fictifs. Il est essentiel de trouver un équilibre entre les avantages et les risques associés à l'amitié artificielle, dans le contexte d'une IA en constante évolution.
🧠 L’article qui fait réfléchir - et qu’il faut absolument lire
When AI Unplugs, All Bets Are Off
Your god is dead, And no one cares
L'ère des assistants personnels AI, fonctionnant de manière autonome et indépendante du cloud, arrive à la vitesse de la lumière. Lors du sommet Intel Innovation 2023, le PDG Pat Gelsinger a dévoilé les "AI PCs", un pas vers cette autonomie. Ces appareils, aussi développés par d'autres géants technologiques comme Apple et Qualcomm, promettent un changement dans l'exécution de l'AI au niveau local - il est déjà possible de faire “tourner” une version du LLM Mistral 7B sur un iPhone 15 Pro max.
Les modèles de langage de grande taille et les outils comme ChatGPT et DALL-E, bien qu'efficaces, dépendent actuellement de vastes centres de données et d'une connexion internet stable. Nous nous rendons tous compte de la lenteur de ces LLMs par exemple pour les interactions avec la parole - interactions qui nécessitent des modèles plus compacts et réactifs pour une utilisation en temps réel.
La réduction de la taille des modèles offre des avantages et permet de les faire fonctionner directement sur le device de l’utilisateur . Cette réduction diminue aussi les coûts de formation et accélère le temps d'inférence, essentiels pour les assistants IA en temps réel. L'inférence locale, traitant les données directement sur l'appareil de l'utilisateur, joue aussi un rôle positif - sur le papier, dans la protection de la vie privée. Sans compter la baisse des coûts énergétiques…
Des applications comme Rewind, fonctionnant sur Mac et PC, illustrent comment cette technologie peut renforcer la personnalisation et augmente la protection des utilisateurs. En traitant les données localement, ces assistants IA offrent une protection renforcée de la vie privée, peut-être l’enjeu principal dans nos sociétés sous inférence.
L’arrivée des assistants IA sur les devices personnels pourrait débuter dès 2024. Qualcomm, par exemple, intègre déjà des LLMs dans ses puces Snapdragon. Des assistants dédiés à des tâches spécifiques commencent à émerger dans divers produits et divers application. Copilote un jour, copilote toujours.
Nous allons certainement voir arriver des assistants IA personnalisés, autonomes et locaux, accessibles à tous en langage naturel. Ce mouvement offre des avantages en termes de vitesse, de coût, de personnalisation et de confidentialité, essayant ainsi de réduire la dépendance traditionnelle des outils et des modèles d’IA aux data centers et au cloud en général.
Mais vous pensez réellement que ces modèles vont être totalement neutres dans la manière dont ils vont remodeler, adapter, modifier, résumer, compiler les informations qui nous arrivent ?
📻 Le podcast de la semaine
Comptoir IA : Pierre-Carl Langlais - Les humanités digitales
Nicolas reçoit Pierre-Carl Langlais, spécialiste en LLM et créateur de "Le Bon LLM", et qui dirige la recherche chez Opsci. Pierre-Carl travaille, entre autres, sur l'analyse de textes anciens avec les LLM et anime une communauté pour partager des ressources sur ces modèles. Il nous explique qu’il voit les LLM comme une forme d'intelligence collective, tout en restant prudent sur leur potentiel de conscience.
*AUTOPROMO*
Si vous avez encore un peu de temps, vous pouvez lire “Droits d’auteur, IA générative, modèles fondation et modèles dérivés” dans IA-Pulse Hors Série. J’essaie de faire un modeste point sur la bataille pour la propriété intellectuelle à l'ère des modèles génératifs.
N’hésitez à me contacter si vous avez des remarques et suggestions sur cette newsletter, ou si dans votre entreprise vous cherchez à être accompagnés dans l’intégration d’outils IA et d’IA générative : olivier@255hex.ai
Partagez cette newsletter
Et si vous n’êtes pas abonné, il ne tient qu’à vous de le faire !
Bon weekend !