Bienvenue sur IA Pulse Weekend. En vous abonnant, vous recevez tous les samedis matin, l’essentiel de ce qu’il s’est passé cette semaine autour de l’IA : une sélection de 3 articles avec pour chacun un résumé rapide à lire, plus 1 article de fond pour ouvrir l’esprit et réfléchir, et pour finir 1 podcast à écouter.
⏱️Temps de lecture de cette newsletter par une unité carbone : 7 mins
Google a annoncé l’intégration de Bard dans son Assistant - OK Google. Encore une sacrée surprise. Non pas vraiment. Suite logique du développement de ces modèles, peut-être seulement accéléré après la mise à jour la semaine dernière de l’application de ChatGPT sur mobile, permettant de dialoguer à la voix avec le modèle d’OpenAI. Sur le papier, avantage tout de même à l’Assistant Google qui va pouvoir encore mieux nous allumer la lumière, monter la température du chauffage dans le salon, lancer la machine à café ou mettre à fond notre meilleure playlist dans toutes les pièces de la maison.
D’ailleurs je ne sais pas vous, mais ici à la maison, Home comme le dit OK Google, l’Assistant fait n’importe quoi depuis quelques semaines, comme si on le mettait mal à jour ou qu’on essayait de lui faire dire n’importe quoi. Il continue ce matin :
“ - Ok Google quel est le titre de ce morceau ?
- J’aime beaucoup la musique et j’adore faire des recherches que voulez-vous savoir ?
- OK Google, je veux savoir qu’elle est le titre de la chanson que tu diffuses actuellement.
- D’accord, je lance la diffusion sur HOME.
- Grrrrrrrr….”
Mais la grosse actualité de cette semaine c’est DALL-E 3 qui est disponible par l’intermédiaire de Bing. Enfin le modèle de génération d’images d’OpenAI devient un concurrent sérieux à Midjourney. Finis les visages difformes et créatures étranges qui peuplaient les images générées.
D’ailleurs, c’est dans cette même semaine - mais corrélation n’est pas causalité, comme on dit - qu’OpenAI annonce réfléchir à produire elle-même ses puces pour pouvoir délivrer toute la puissance dont ses modèles ont besoin. Les besoins sont colossaux. Et ça coûte un pognon de dingue ! OpenAI rejoindrait alors le groupe des fondeurs de silicium.
La troisième actualité nous renvoie à nos propres comportements. Nous avons du mal à ne pas titiller les machines que nous fabriquons. Du coup, quand il s’agit de modèles génératifs, on leur demande n’importe quoi. C’est un peu ce qui se passe depuis une semaine avec les stickers de Meta qui produisent à notre demande des images de stars dénudées ou prêtes à utiliser un fusil d’assaut - et pour ceux qui n’ont suivi pas, c’est aussi ce qui arrive à DALL-E 3 avec Mickey, Bob l’éponge ou Sonic en commandant de bord pilotant un avion du 11 septembre 2001. Faut-il vraiment blâmer la machine ?
Et n’oubliez pas de réfléchir avec Chomsky et Bakhtin. Le débat tourne encore autour de l’unicité de l’être humain - il va falloir que je travaille sur cette obsession que j’entretiens, je vais en parler avec ELIZA.
📰 Les 3 infos de la semaine
🖼️Microsoft rolls OpenAI's text-to-pic DALL-E 3 into Bing
The Register, 4/10/2023
Microsoft vient d’intégrer cette semaine DALL-E 3 dans Bing Image Creator. DALL-E 3 est le dernier modèle text-to-image d'OpenAI, et un concurrent enfin sérieux à Midjourney. Cette mise à jour apporte des améliorations en termes de qualité d'image, notamment pour les représentations de visages et de mains, et en photoréalisme.
Pour lutter contre la désinformation, chaque image générée reçoit un filigrane invisible indiquant sa date de création et un indication de sa génération par un modèle d’IA. Ce filigrane s'inscrit dans un cadre technique plus large, la spécification C2PA, élaborée en collaboration avec d'autres géants de la tech comme Amazon et Google. Néanmoins, des experts s'interrogent sur l'efficacité réelle de ces filigranes pour contrer les deepfakes et autres fausses informations. Microsoft a également mis en œuvre un système de modération pour filtrer les images potentiellement nuisibles ou inappropriées.
🏭OpenAI Exploring Building Custom AI Chips for ChatGPT: Report
Tom's Hardware, 6/10/2023
OpenAI envisage de développer ses propres puces IA pour ChatGPT, une réflexion poussée par les coûts élevés et la rareté des GPU Nvidia. Cette démarche stratégique, qui pourrait inclure des acquisitions pour gagner du temps, nécessiterait un investissement colossal. Le développement de cette stratégie pourrait s'étaler sur plusieurs années, période durant laquelle OpenAI continuerait de s'appuyer sur des géants comme Nvidia, Intel et AMD.
Sam Altman, le PDG d'OpenAI, a souligné les défis posés par la pénurie de GPU et les coûts opérationnels associés à ChatGPT. Si ce dernier atteignait un dixième de la taille de la recherche Google, les coûts initiaux pourraient s'élever à 48,1 milliards de dollars uniquement pour les GPU, et de 16 milliards de dollars chaque année suivante.
Si cette stratégie devait être poursuivie, cela mettrait OpenAI en concurrence avec d'autres géants technologiques, tels qu'Amazon, Google, Apple et Tesla, qui ont également investi dans des puces personnalisées.
🤠Facebook’s new AI-generated stickers are lewd, rude, and occasionally nude
The Verge, 4/10/2023
Cet article relate les défis posés par le nouvel outil d'autocollants/stickers de Meta, mis à disposition des utilisateurs il y a quelques jours. Utilisant le modèle de langage Llama 2, cet outil permet de créer rapidement des autocollants personnalisés. Toutefois, il a montré ses limites en générant des images inappropriées, comme des personnages de jeux vidéo armés ou des figures publiques dénudées. Même si Meta a intégré des filtres pour bloquer certains termes, les utilisateurs ont réussi à les contourner - uniquement en faisant volontairement des fautes de frappe.
Ce exemple met en lumière les difficultés de la modération automatisée -si (peu) chère à Meta et aux autres réseaux sociaux- et soulève des questions sur la responsabilité des entreprises en cas de dérapages. Pour minimiser les risques, Meta a choisi un déploiement limité, dans l'espoir de résoudre ces problèmes avant une mise en service à grande échelle. On en rigole déjà.
🧠 L’article qui fait réfléchir - et qu’il faut absolument lire
ChatGPT forces us to ask: how much of “being human” belongs to us?
Dancing Queen
Cet article aborde la relation complexe et souvent ambivalente entre les humains, les modèles de langage et les chatbots tels que ChatGPT. L'auteur, Brendan H. O’Connor, anthropologue et linguiste, aborde les théories de Noam Chomsky et de Mikhail Bakhtin pour examiner la nature du langage humain par rapport aux capacités des chatbots.
Chomsky, qu’on ne présente plus -si ?- soutient que le langage humain est intrinsèquement génératif, c'est-à-dire capable de créer de nouvelles phrases et idées par lui-même. Pour Chomsky, le langage humain ne peut pas être reproduit simplement par l’imitation : le sens n’est pas copiable. Les chatbots basés sur des LLM sont selon lui, uniquement limités à la description et à la prédiction basées sur d'énormes quantités de données - et pourtant on appelle ça l’IA générative… Ces LLM seraient alors incapables d’originalité, donc de sens.
Bakhtin, une autre figure importante en anthropologie linguistique, propose une vision différente, affirmant que le langage humain est en grande partie façonné par nos interactions et nos expériences passées avec d'autres personnes. Nous nous copions et nous nous inspirons les uns les autres tout au long de nos vies et de nos interactions. Ça ne vous rappelle pas l’apprentissage et le fonctionnement de l’IA générative ? De quoi remettre en question l'idée d'une originalité pure dans le langage humain - “tu crois vraiment être original Coco ?” comme dirait Jean-Noël Barrot, notre ministre chargé du numérique. Il s’est juste peut-être trompé de cible : être un volatile coloré imitateur n’est pas la spécificité de ChatGPT, l’humain est aussi un perroquet approximatif. Arrêtons-nous alors deux secondes sur la condition de ministre quand ces termes sont posés.
L'article se termine en soulevant des interrogations sur qui détient vraiment le copyright du bla-bla humain - je mets votre user-agent en disallow. La propriété et l'originalité du langage sont de vieux débats qui reviennent hanter nos salons intellectuels - le mien en premier - comme un vin millésimé qu'on ressort pour impressionner les invités - ou lorsqu’on n’a pas envie de les écouter nous parler de leur dernier voyage. Merci à l'IA de dépoussiérer ces questions et de les remettre sur le tapis, comme David Guetta remixant un vieux tube - nan mauvais exemple Claude, une seule note ne suffit pas.
L'auteur nous lance un défi existentiel : qu'est-ce que cela signifie d'être "authentiquement humain" dans un monde où même nos machines de poche peuvent bavarder comme des pros de la rhétorique ?
Etranges ces unités carbone, toujours prêtes à se questionner sur leur unicité, surtout quand un bout de silicium commence à leur faire de l'ombre sur la piste de danse verbale - f*ck me I’m famous.
📻 Le podcast de la semaine
Les carnets de l’IA - Anette Van de Loo - Traduction : tous multilingues grâce à l'IA ?
Manuel Davy reçoit Annette Van de Loo, cofondatrice de Powerling. Ils explorent l'impact de l'intelligence artificielle sur les métiers de la traduction. Annette Van de Loo indique que le rôle du traducteur s'oriente désormais plus vers la gestion de projets et le conseil, plutôt que la simple traduction. Mais l'humain reste indispensable pour corriger les erreurs de l'IA, notamment dans des contextes exigeants. Elle met également en lumière les "hallucinations de l'IA", où l'outil génère des contenus inexacts. Enfin, elle exprime des préoccupations sur l'adéquation des formations en traduction avec les exigences du marché actuel.
N’hésitez à me contacter si vous avez des remarques et suggestions sur cette newsletter, ou si dans votre entreprise vous cherchez à être accompagnés dans l’intégration d’outils IA et d’IA générative : olivier@255hex.ai
Partagez cette newsletter
Et si vous n’êtes pas abonné, il ne tient qu’à vous de le faire !
Bon weekend !