Bienvenue sur IA Pulse Weekend. En vous abonnant, vous recevez tous les samedis matin, l’essentiel de ce qu’il s’est passé cette semaine autour de l’IA : un coup de gueule édito, une sélection de 3 articles avec pour chacun un résumé rapide à lire, plus 1 article de fond pour ouvrir l’esprit et réfléchir, et pour finir 1 podcast à écouter.
⏱️Temps de lecture de cette newsletter par une unité carbone : 9 mins
L’humain est toujours aussi fascinant à tenter de déterminer du sens implicite, à extrapoler à partir d’un mot ou d’une phrase, ce que pense son interlocuteur qu’il soit son semblable ou, depuis l’avènement des IA conversationnelles, un agent synthétique. Cela nous arrive tous les jours à nous toutes et tous. C’est tellement humain. Nous nous projetons dans les paroles, les mots. Que nous le voulions ou non. Nous ne nous intéressons pas tant au sens premier, mais bien au sens supposé caché, le sens intentionnel mais non verbalisé des paroles de l’autre. Les machines, c’est le contraire. Et pour leur parler, elles nous forcent alors à remettre en question nos paradigmes de communication.
Cette semaine Google nous a présenté Gemini, le nouveau nom de Bard. Et surtout Google embrasse la stratégie d’abonnement pour utiliser son modèle le plus évolué. Stratégie qui semble avoir plutôt bien réussi à OpenAI avec ses 2 milliards de revenus en 2023. Mais s’il est un marché qui est en plein boum, c’est celui des données et des datasets. Un besoin vital pour tous les modèles et LLM - t’as pas de donnée, t’as pas d’IA.
Pour revenir aux rapports humains-machines, allons écouter les voix des agents vocaux, leur qualité d’imitation de nos voix humaines et essayons de réfléchir aux conséquences sur nos actes d’achats de cette technologie d’imitation bientôt totalement parfaite.
Cette semaine la partie de cette newsletter gérée par l’IA, les 3 premiers résumés d’articles, a été générée par Mixtral-8x7B-Chat puis revue par ChatGPT-4. Comme d’habitude trop souvent j’ai fait quelques modifications, mais j’ai aussi laissé quelques tournures typiques des modèles de langage. Et bien entendu, mes commentaires éventuels sont en italique dans ces résumés. Le texte de “l’article qui fait réfléchir” est issu d’un ping-pong entre Gemini-Pro et votre serviteur. L’image d’illustration ci-dessous est générée par Midjourney.
📰 Les 3 infos de la semaine
💳 Google Pushes Deeper Into AI With Chatbot Subscription Plan
The Wall Street Journal, 8/2/2024
Google a lancé cette semaine son nouveau chatbot - dans 150 pays, mais pas encore en France. Gemini, c’est son nom, remplace Bard - et vise à changer la manière dont les gens trouvent des informations en ligne. La guerre est là, pas ailleurs.
La version payante de ce chatbot est multimodale et capable de répondre à des prompts dans divers formats, tels que le texte, les images, l'audio et le code. Cette version payante est proposée à 19,99 dollars. La version gratuite du chatbot sera toujours disponible - une stratégie calquée sur celle d’OpenAI et de Microsoft.
Google, dont les revenus proviennent principalement de la publicité, cherche à diversifier ses sources de revenus face au ralentissement de la croissance de son activité principale. L'industrie technologique dans son ensemble cherche à tirer rapidement des profits des technologies de l'IA telles que les chatbots et les LLM, qui sont coûteux à développer et à livrer à de grands volumes d'utilisateurs.
Malgré la domination de Google dans la recherche en intelligence artificielle, la compagnie a été prise de court par le succès soudain de ChatGPT d'OpenAI, ce qui l'a poussée à développer Gemini Advanced. Gemini est déjà ou sera bientôt disponible, suivant les plateformes, en tant qu'application autonome pour les téléphones Android et dans l'application Google sur iPhone.
💰 OpenAI on track to hit $2bn revenue milestone as growth rockets
Financial Times, 9/2/2024
OpenAI a atteint des revenus annuels de 2 milliards de dollars, grâce en grande partie au succès de son produit phare, ChatGPT. L'entreprise, qui a été lancée comme un laboratoire de recherche sans but lucratif en 2015, est devenue une entreprise commerciale puissante depuis la création d'une filiale commerciale en 2020. OpenAI prévoit de doubler ses revenus pour dépasser les 4 milliards de dollars d'ici 2025, grâce à un intérêt soutenu de la part des clients professionnels qui cherchent à adopter des outils d'IA générative dans leur environnement de travail.
La croissance rapide d'OpenAI a été stimulée par l'intérêt pour l'IA générative, qui peut générer du code, du texte, des images, des vidéos et analyser des informations à partir des invites des utilisateurs. La concurrence est forte, y compris celle des entreprises technologiques de premier plan telles que Google et Meta, ainsi que celle des startups telles qu'Anthropic, Mistral et Cohere, qui commercialisent également l’accès à leurs LLM et à leurs produits d'IA.
Le PDG d'OpenAI, Sam Altman, a déclaré que l'entreprise reste déficitaire en raison des coûts élevés de développement et de fonctionnement de ses modèles. Altman s'est également exprimé sur la question de l'approvisionnement en semi-conducteurs, une ressource essentielle pour les entreprises d'IA, et a déclaré qu'OpenAI essaierait de contribuer à la construction d'une chaîne d'approvisionnement plus résiliente - Altman chercherait 7 billions (10 puissance 12) de dollars pour développer sa propre industrie de semi-conducteur.
🪙AI’s hunger games: A lucrative data market is exploding to feed insatiable LLMs
Venture Beat, 5/2/2024
Le marché des données pour alimenter les LLM est en pleine croissance, car de plus en plus d'entreprises cherchent à tirer parti de l'IA générative pour diverses applications. Ces modèles d'IA ont besoin de données pour fonctionner et s'améliorer, entraînant une demande croissante de jeux de données spécifiques et hautement spécialisés.
Des entreprises se sont spécialisées pour répondre à cette demande en offrant un service pour “découvrir” des données et mettre en relation les fournisseurs de données avec les acheteurs de données. Pour Brad Schneider le PDG de Nomad Data, une société se définissant elle-même comme un moteur de recherche de datasets, trouver les bons jeux de données pour les LLM est crucial pour les entreprises, car même si les données de formation sont importantes, les entreprises ont aussi un besoin de données au moment de l'inférence.
Les inférences continues requises par les entreprises utilisant des LLM transforment les modèles d'IA en machines insatiables qui dévorent des quantités astronomiques de données. Selon Schneider, les données de formation sont une part minuscule du marché par rapport à celles utilisées à l'inférence ou à la formation personnalisée des LLM.
Cerise sur le gâteau, les entreprises comme Nomad Data utilisent des LLM pour trouver de nouveaux fournisseurs de données, qui fournissent ensuite des données pour que les gens les utilisent avec leurs propres LLM pour la formation et l'inférence - c’est tellement beau.
🧠 L’article qui fait réfléchir - et qu’il faut absolument lire
The effect of anthropomorphism of virtual voice assistants on perceived safety as an antecedent to voice shopping
Do you remember, the bills you have to pay?
Une récente étude, publiée dans la revue Computers in Human Behavior et menée par des chercheurs de l'Université de Saragosse en Espagne, a mis en lumière l'impact significatif des qualités humaines des assistants vocaux sur les habitudes d'achat des utilisateurs - et vu le nombre et la qualité des agents vocaux qui vont débarquer sur nos smartphones et autres devices, cette étude n’est pas superflue.
Cette recherche révèle que la perception de sécurité et de confiance des utilisateurs augmente lorsque les assistants vocaux présentent des caractéristiques plus humaines, notamment à travers une voix chaleureuse et amicale, ce qui encourage leur utilisation pour des achats vocaux - ce que la pub télé ou radio pratique déjà depuis tellement d’année.
L'étude a été menée à travers une enquête en ligne auprès de participants déjà familiers avec la technologie des assistants vocaux. Ces derniers ont été répartis au hasard pour interagir avec l'un des trois assistants mentionnés, à travers l'écoute d'extraits audio lisant des critiques de produits. Cette méthode a permis d'évaluer leur perception des qualités humaines de l'assistant, en se concentrant sur la voix et le sentiment de présence ou de convivialité qu'il véhiculait. Les résultats ont indiqué que les participants se sentaient plus en sécurité et étaient plus enclins à utiliser ces technologies pour les achats lorsque les assistants vocaux démontraient des attributs humains prononcés.
Selon Guillermo Calahorra-Candao, auteur principal de l'étude, ces découvertes soulignent l'importance cruciale de l'aspect humain dans la conception des assistants vocaux. Il est démontré que plus un assistant vocal paraît humain, notamment en termes de voix, plus il est susceptible d'être perçu comme digne de confiance et adopté par les utilisateurs. Cette humanisation de la technologie pourrait donc être la clé d'une acceptation et d'une utilisation plus larges dans divers secteurs, bien au-delà du simple shopping - et encore, l’étude n’a pas porté sur des voix clonées…
Cependant, les chercheurs reconnaissent certaines limites à leurs travaux. Il faudrait explorer comment différents types de voix affectent la perception de sécurité, et dans ce cas précis le comportement d'achat, pour pouvoir enrichir la compréhension de l'impact de l'anthropomorphisme sur la confiance des utilisateurs - seriez-vous plus en confiance pour acheter votre prochain canapé avec une voix de femme suave ou un voix d’homme grave et rauque ?
Cette étude met en lumière, s’il en était encore besoin, l'importance des qualités humaines des assistants vocaux dans la perception de sécurité et les habitudes d'achat, suggérant que les entreprises et les développeurs doivent prêter une attention particulière à l'humanisation de ces technologies. En intégrant des éléments humains dans la conception des assistants vocaux, il est possible de favoriser une plus grande confiance et facilité d'utilisation parmi les consommateurs, ouvrant la voie à une adoption plus large de ces outils dans notre quotidien. Mais pousser trop loin ce mimétisme et cet anthropomorphisme, nous amène à nous poser des questions éthiques sur la manipulation rendue possible par ce type d’agents et les garde-fous que nous devons mettre en place.
📻 Le podcast de la semaine
Les carnets de l’IA - Laurent Daudet - Les fondamentaux de l’IA générative
Manuel Davy reçoit Laurent Daudet, chercheur et fondateur de LightOn. Laurent explique l'évolution de l'IA générative et des modèles de langage comme GPT-3. Sa société, LightOn développe des robots conversationnels améliorés pour une communication humaine simplifiée. Laurent est aussi le co-auteur avec Appupen de la bande dessinée Dream Machine, un exemple de collaboration homme-machine.
N’hésitez à me contacter si vous avez des remarques et suggestions sur cette newsletter, ou si dans votre entreprise vous cherchez à être accompagnés dans l’intégration d’outils IA et d’IA générative : olivier@255hex.ai
Partagez cette newsletter
Et si vous n’êtes pas abonné, il ne tient qu’à vous de le faire !
Bon weekend.