Tout le monde veut dominer le monde
Acting on your best behaviour, Turn your back on mother nature
Bienvenue sur IA Pulse Weekend. En vous abonnant, vous recevez tous les samedis matin, l’essentiel de ce qu’il s’est passé cette semaine autour de l’IA : une sélection de 3 articles avec pour chacun un résumé rapide à lire, plus 1 article de fond pour ouvrir l’esprit et réfléchir, et pour finir 1 podcast à écouter.
⏱️Temps de lecture de cette newsletter par une unité carbone : 8 mins
Donc l’art synthétique produit par les algorithmes des IA génératives ne peut pas faire l’objet d’un copyright, d’une protection. Au moins aux Etats-Unis, car c’est la conclusion d’un juge fédéral de l’autre côté de l’Atlantique. Sans “patte de l’humain”, l’art n’est pas de l’art… enfin, n’est pas de la création protégeable pour une utilisation commerciale - ou contre cette utilisation. Sauf bien entendu, si l’humain y met beaucoup du sien. Mais à partir de combien ? Bien au-delà du prompt ou seulement en réalisant un effet miroir dans Photoshop ? L’avenir va être fascinant pour les artistes, photographes, écrivains, cinéastes, journalistes, et bien entendu pour les juristes et les philosophes. En fait le présent l’est déjà.
Toujours de l’autre côté de l’Atlantique, la communauté éducative après avoir été effrayée et dépassée par l’irruption de ChatGPT, commence à vouloir apprivoiser les modèles de langage et les chatbots conversationnels en les intégrant dans l’enseignement. Guider est souvent mieux que d’interdire.
Même si c’est la démarche inverse que de nombreux sites ont choisi en bloquant l’accès d’OpenAI à leurs contenus. Et pas seulement des sites de presse. En deux semaines, quelques dizaines de sites du top 100 mondial ont barré la route à GPTbot. Les LLMs en tremblent déjà.
Et pourtant, les cas d’usage des chatbots dopés à l’IA se multiplient. En France, Cdiscount a mis en place un chatbot basé sur GPT 3.5 capable de répondre en langage naturel aux questions des clients sur ses produits. Avec un taux de satisfaction proche de celui des conversations avec des conseillers humains.
A ce propos, être proche de l’humain - trop proche peut-être, cette semaine pour réfléchir, je vous invite à lire un article paru dans Nature évoquant un groupe de chercheurs mettant en place une méthodologie afin d’identifier si une IA est consciente. Depuis des mois, certains nous abreuvent de leurs théories et ressentis sur ce sujet, nous effrayant d’une hypothétique suprématie de l’IA qui serait déjà sous nos yeux. Ils regardent les LLMs actuels et nous affirment qu’un “début de conscience” est en train de naitre à travers ces modèles de langage auto-régressifs basés sur des vecteurs et des probabilités.
Vous l’aurez compris à la lecture de ces derniers mots, je suis de ceux qui sont loin de penser comme eux - mais qui suis-je. Comme le doute est toujours générateur de questionnement, ma vraie interrogation, je vous la livre :
Quel est le pire pour l’humanité ? Que l’humain soit en train de construire une machine si parfaitement à son image qu’elle va le dépasser, prendre conscience de sa supériorité et forcément l’asservir ? Ou alors que l’humain se rende compte que son humanité, sa prétendue différence et unicité, soit si facilement en tous points imitable à la perfection par des algorithmes sans âmes et sans passion, gouvernés uniquement par des probabilités ?
Si vous avez un avis ou des avis, des réflexions, des remarques sur ces questions et ce sujet - ou d’autres, n’hésitez pas à m’envoyer un message : olivier@255hex.ai.
📰 Les 3 infos de la semaine
🚸 More schools want your kids to use Chat GPT. Really.
Politico, 23/08/2023
Après avoir initialement tenté de bloquer l'accès à l'IA générative et conversationnelle - particulièrement à ChatGPT, de nombreux établissements scolaires aux Etats-Unis, de la primaire à l’Université, cherchent désormais à l'intégrer dans l'enseignement. Environ 61 % des enseignants voient des utilisations éducatives légitimes et positives pour ChatGPT. De plus en plus d’établissements élaborent des règles pour en permettre en utilisation responsable de ces outils.
Des préoccupations subsistent concernant la tricherie et la protection de la vie privée des élèves et des étudiants. Certains établissements ont acheté des logiciels pour détecter l'utilisation de l'IA dans les devoirs, mais ces outils ne sont pas toujours jamais fiables. Les autorités administratives et les personnels de l’éducation cherchent à équilibrer le potentiel de l'IA générative et des modèles de langage avec la rigueur académique et la protection de la vie privée.
🛑 Major websites like Amazon and the New York Times are increasingly blocking OpenAI's web crawler GPTBot
Business Insider, 24/08/2023
Cet article rapporte que de nombreuses grandes entreprises, dont Amazon et le New York Times, AirBnB ou encore Ikea, bloquent activement GPTBot, le crawler d'OpenAI. Depuis son lancement il y a deux semaines, 70 des 1000 sites web les plus importants au monde ont bloqué GPTBot.
Une analyse d'Originality.ai a révélé que plus de 15% des 100 sites web les plus populaires ont décidé de bloquer GPTBot au cours des deux dernières semaines. Les six plus grands sites bloquant le bot sont Amazon, Nytimes, CNN, Wikihow, Shutterstock et Quora. Le blocage est effectué via le fichier robots.txt.
En France très peu de sites médias bloquent activement GPTbot à ce jour : TF1, les sites du service public (France Info, Radio France, RFI, France 24, France Bleue), les sites de l’éditeur Condé Nast (Vogue, GQ Magazine, Vanityfair et AD Magazine), L’Opinion et quelques autres sites de médias un peu moins connus.
Ces blocages montrent que la question de la propriété des données et des règles du droit d'auteur devient de plus en plus préoccupante, alors que plusieurs poursuites sont en cours aux Etats-Unis. L'auteur Stephen King a exprimé sa fascination "effrayante" pour l'avenir après avoir appris que ses livres avaient été utilisés dans des ensembles d'entraînement IA.
Quant à OpenAI, l’entreprise tente de réfuter l’idée que ChatGPT a été formé sur du matériel protégé par des droits d'auteur - pourtant comme quasiment tous les autres modèles de langage à ce jour.
🧑🏻💼Cdiscount met l'IA générative au service du conseil aux internautes
CIO, 22/08/2023
Cdiscount a intégré l'IA générative dans son service client en utilisant le modèle GPT-3.5 d'OpenAI. En partenariat avec la start-up iAdvize, ils ont développé un chatbot capable de répondre en langage naturel aux questions des clients sur les produits. Ce chatbot gère environ 40% des questions, libérant ainsi du temps pour les téléconseillers humains. Le taux de satisfaction des utilisateurs est de 70%, proche de celui des téléconseillers qui est de 80-85%.
Pour garantir la sécurité et l'éthique, Cdiscount a pris des mesures pour minimiser les erreurs du modèle, notamment en travaillant soigneusement le prompt et en modérant les questions et les réponses.
Ce cas d’usage souligne l'efficacité et le potentiel de l'IA générative dans le service client, tout en mettant en évidence les défis éthiques et de sécurité qui doivent être pris en compte pour une mise en œuvre réussie.
🧠 L’article qui fait réfléchir - et qu’il faut absolument lire
If AI becomes conscious: here’s how researchers will know
Welcome to your life, There's no turning back, Even while we sleep, We will find you
Cet article de Nature nous plonge dans cette question fascinante et étrange : comment pourrions-nous reconnaitre si un modèle d’IA parvenait à nous imiter parfaitement totalement, nous autres êtres humains, jusqu’à développer une conscience similaire aux êtres de chair et de sang ?
Un groupe de 19 chercheurs forcément brillants, allant des neuroscientifiques à des philosophes, s'est réuni pour créer une checklist de critères qui nous dira un jour si “Siri” est en train de vivre une crise existentielle ou si “Claude 2” se demande bien pourquoi il a été fait à notre image. Ces chercheurs se sont basés sur six théories neuroscientifiques, parce que, vous savez bien, une seule théorie ne suffit pas pour un sujet aussi délicat.
L'équipe nous rappelle principalement que si nos gadgets préférés deviennent conscients, cela va soulever quelques questions éthiques et morales mineures. Comme par exemple, devrions-nous encore leur demander de régler nos minuteries de cuisine ou bien leur commander d’écrire notre post LinkedIn à notre place ? Et surtout non, ne vous y trompez pas - make no mistake, les géants de la tech ne sont pas exactement en train de perdre le sommeil à cause de cela. Bien au contraire, ils se délectent du pouvoir commercial qu’ils ont à évoquer par touches successivement alarmistes puis angéliques, les “progrès” et les “débuts de conscience” qu’ils semblent “percevoir” dans leurs produits.
Bref, nos chercheurs ont donc pris les choses en main en adoptant une approche théorique, parce que rien n’est aussi "sérieux" qu’une bonne vieille théorie. Ils se sont concentré principalement sur la “conscience phénoménale” qui caractérise le vécu, le ressenti, l’expérience subjective d’un sujet.
Et ils ont même fini par jeter un œil à des modèles de langage comme ChatGPT. Résultat ? Eh bien disons que votre chatbot conversationnel, même s’il sait déjà en imiter le style sur commande, n'est pas encore prêt à discuter de Proust avec vous au coin du feu. Mais qui sait, la recherche est en cours ! - OK elle était trop facile, Mlle Hortense.
📻 Le podcast de la semaine
Now Futures : Ep 1 - Olivier Babeau - essayiste, économiste, fondateur de l’Institut Sapiens
Morgane Soulier - disclose : une de mes camarades de promo et amie, reçoit pour le premier épisode de son podcast, en partenariat avec Challenges, Olivier Babeau de l’Institut Sapiens. Ensemble ils parlent entre autre du rôle du divertissement passif, des pièges des réseaux sociaux et de l’économie de l’attention, et de la quête d'équilibre dans nos vies remplies par du numérique. Bien entendu, il y a un peu d’IA aussi.
N’hésitez à me contacter si vous avez des remarques et suggestions : olivier@255hex.ai
Partagez cette newsletter
Et si vous n’êtes pas abonné, il ne tient qu’à vous de le faire !
Bon weekend !