Bienvenue sur IA Pulse Weekend. En vous abonnant, vous recevez tous les samedis matin, l’essentiel de ce qu’il s’est passé cette semaine autour de l’IA : une sélection de 3 articles avec pour chacun un résumé rapide à lire, plus 1 article de fond pour ouvrir l’esprit et réfléchir, et pour finir 1 podcast à écouter.
⏱️Temps de lecture de cette newsletter par une unité carbone : 8 mins
Tchin, Tchin ! Cette semaine, OpenAI a enfin déployé la vision pour tous en France. Alléluia, Il voit ! Non content de lire, d’écrire, de coder et d’analyser des données, ChatGPT nous écoute, nous répond, nous regarde et nous décrit. Et, il ou elle ou iel - ChatGPT est genré ?- est capable aussi de produire des images
Vous vous sentez comment ? Ça va ? Non, mais c’est seulement une petite question comme ça, anodine, hein.
Juste un rappel, si jamais le flot des informations vous aurait fait oublier un détail : ça fait moins d’un an que ChatGPT a été mis à la disposition du grand public. Il y a encore deux ans, ce que nous voyons se dérouler sous nos yeux n’était pas envisagé à une échéance si courte, voire n’était pas envisagé du tout. Et vous pensez réellement que tout ça ne va pas modifier en profondeur nos sociétés occidentales ? Que ça va s’arrêter là ? La pilule, vous prenez la bleue ou la rouge ? Je vous recommande la lecture de l’article qui fait réfléchir, après les 3 actus de la semaine.
Et ce qui est “marrant”, c’est que ces IA génératives et conversationnelles s’alignent sur nous. Enfin, ça marche surtout dans l’autre sens : nos propres préjugés et nos croyances font en sorte que nous projetons a priori nos jugements sur les réponses que ces algorithmes nous donnent. C’est d’ailleurs ce que nous faisons aussi entre humains. Suivant le regard bienveillant ou non -j’aime pas les gens- que nous portons sur notre interlocuteur, ses réponses à nos questions seront perçues de manières différentes. C’est l’objet du premier article de la semaine.
Dans un tout autre domaine, quoique, cette semaine Google a annoncé que la firme allait indemniser ses clients qui seraient attaqués pour violation de copyright après avoir utilisé ses outils d’IA générative. Google rejoint Microsoft et Adobe qui ont mis en place une politique similaire. Ces gens sont tellement sûrs d’eux et, surtout, gentils avec nous.
Et pour terminer l’actu, parlons des Girlfriends virtuelles - ça marche aussi avec les Boyfriends, il n’y a pas non plus ici de question de genre- et de la solitude réelle engendrée par ces chatbots parfaits aux yeux de leurs utilisateurs. Une addiction forte. Qui coupe de la réalité qui nous entoure.
Décidément, l’Humain est une machine tellement prévisible que c’est presque un jeu d’enfant de le réduire à des algorithmes.
📰 Les 3 infos de la semaine
🧑🏼⚕️Your assumptions can change how an AI bot responds to you, new study suggests
BGR, 7/10/2023
Une étude du M.I.T. Media Lab suggère que les préjugés des utilisateurs peuvent influencer la manière dont une IA conversationnelle comme ChatGPT interagit avec eux, un phénomène nommé "effet placebo de l'IA". L'étude a divisé 300 participants en trois groupes, chacun recevant des informations différentes sur les intentions de l'IA avec laquelle ils allaient interagir. Les résultats ont montré que ces préjugés initiaux affectaient la perception des utilisateurs sur les réponses de l'IA, qu'elles soient perçues comme positives, neutres ou négatives.
Ce constat soulève quelques questions éthiques. Il met en évidence le potentiel de manipulation, volontaire ou non, dans les interactions homme-machine. Par exemple, si une IA est perçue comme empathique, les utilisateurs sont plus enclins à voir ses réponses comme positives. À l'inverse, une IA perçue comme manipulatrice suscite des réactions négatives. L'étude suggère également que les systèmes d'IA plus complexes sont plus susceptibles de refléter les préjugés de l'utilisateur, ce qui pourrait avoir des implications à long terme sur l'utilisation éthique de ces technologies.
🧑🏽⚖️Google to defend generative AI users from copyright claims
Reuters, 12/10/2023
Google a annoncé une politique d'indemnisation pour protéger les utilisateurs de ses produits d'IA générative contre les poursuites pour violation des droits d'auteur. Cette initiative s'inscrit dans une tendance plus large, avec des entreprises comme Microsoft et Adobe ayant également mis en place des mesures similaires pour protéger de la même manière leurs utilisateurs. Ce qui distingue Google, c'est son approche à deux volets qui couvre à la fois les données d'entraînement et les résultats générés par ses modèles d'IA. Sept produits spécifiques de Google, notamment Duet AI et diverses fonctionnalités de Vertex AI, sont couverts par cette politique. Cependant, la protection ne s'applique pas si les utilisateurs génèrent intentionnellement du contenu qui enfreint les droits d'autrui.
Cette initiative intervient dans un contexte de préoccupations croissantes concernant les implications éthiques et légales de l'IA générative, notamment en ce qui concerne la propriété intellectuelle. Les entreprises technologiques, plutôt que les utilisateurs finaux, sont généralement la cible des poursuites. Google a également précisé que cette protection était une réponse à la demande des clients pour une clarification explicite concernant les données d'entraînement potentiellement protégées par le droit d'auteur.
Google, comme Microsoft et Adobe, prend ainsi des mesures proactives pour naviguer dans le paysage juridique complexe et incertain entourant l'IA générative. Ces entreprises cherchent à rassurer à la fois les clients et les parties prenantes de l'industrie sur les questions de responsabilité et de droits d'auteur.
💘The rise of AI girlfriends is making male loneliness worse and risks ruining a generation of men, a professor says
Business Insider, 7/10/2023
Quel est l'impact des petites amies virtuelles utilisant l'IA sur la solitude masculine ? Selon la professeure Liberty Vittert, cette tendance de plus en plus répandue pourrait avoir des conséquences graves sur une génération d'hommes. Elle suggère que la "perfection" de ces relations virtuelles pourrait inciter certains hommes à délaisser les relations humaines, ce qui pourrait à terme affecter les taux de natalité et augmenter le nombre d'hommes célibataires. L'article cite des données du Pew Research Center indiquant que 63% des hommes de moins de 30 ans sont célibataires, contre 34% des femmes. Vittert met en garde contre le risque que ces IA renforcent l'isolement social, notamment parmi les jeunes hommes. Elle note également que la technologie derrière ces petites amies virtuelles évolue rapidement, ce qui pourrait brouiller davantage les frontières entre relations réelles et virtuelles.
🧠 L’article qui fait réfléchir - et qu’il faut absolument lire
How a billionaire-backed network of AI advisers took over Washington
Head like a hole
Le futur de la réglementation de l'intelligence artificielle est actuellement en discussion à Washington - comme souvent c’est là que ça se passe… coucou Bruxelles, et l'Institut Horizon y joue un rôle non négligeable.
Financé par la fondation Open Philanthropy, cet institut soutient financièrement des experts en IA qui travaillent au sein du Congrès américain, de diverses agences gouvernementales et de think tanks de premier plan. Un lobby comme on en connait beaucoup d’autres là-bas, ou ici. Ces experts, ou "fellows", sont activement impliqués dans les discussions et les négociations qui peuvent avoir une influence sur la future législation réglementant l'IA. Mais l'impact d'Open Philanthropy ne s'arrête pas à l'Institut Horizon. La fondation a également investi massivement dans des institutions de recherche clés, telles que RAND et le Center for Security and Emerging Technology (CSET).
L'objectif global déclaré est de concentrer le débat public sur les risques à long terme associés à l'IA, y compris des scénarios catastrophiques comme la destruction potentielle de l'humanité. Ce sont les fameux “long-termistes”, mais oui vous savez bien, ceux qui ont fait sortir il y a 6 mois une lettre ouverte demandant l’arrêt des recherches en IA parce que Terminator allait arriver. Même Surtout Elon Musk avait signé cette lettre, tout en achetant au même moment des milliers de GPU pour créer son propre LLM et en continuant à implanter des puces dans le cerveau de petits singes - Terminator ne devait pas lui faire si peur. Mais cette orientation des débats vers un avenir prophétique soulève bien des préoccupations quant à la possibilité que des problèmes plus immédiats, tels que les biais algorithmiques, les atteintes à la vie privée et la désinformation, soient négligés. Toute ressemblance avec… Non, rien.
Quand même il convient de souligner qu’Open Philanthropy a surtout des liens étroits avec des entreprises clés du secteur de l'IA, notamment OpenAI et Anthropic. Cette proximité avec des acteurs industriels majeurs soulève des questions légitimes sur l'objectivité et l'indépendance des politiques et des recommandations que la fondation et ses affiliés pourraient promouvoir. Par exemple, comme ça, des régimes de licence favorables à ces entreprises pourraient être mis en place, au détriment de la concurrence et de l'innovation : “Nous, nous savons ce qui est bien. Nous sommes tellement en avance. Nous avons déjà fait et corrigé les erreurs. Ne laissez pas d’autres faire n’importe quoi, ça serait forcément dangereux pour vous.”
Alors comme pour n’importe quel lobby, les décideurs politiques devraient être pleinement conscients - on peut rêver non ? - de ces dynamiques complexes pour élaborer une réglementation qui soit à la fois équilibrée et représentative. L’IA n’est, au final, qu’une question humaine comme les autres.
📻 Le podcast de la semaine
Artistes face à l'IA : que reste-t-il du droit d'auteur ?
Une émission d’une heure qu’il faut absolument écouter pour toutes celles et tous ceux qui s’intéressent à la question de la paternité des œuvres synthétiques.
On y explore les défis posés par l'IA générative au droit d'auteur et à la propriété intellectuelle, notamment dans le secteur de l'image. Trois experts partagent leurs perspectives. Pierre Ciot, photographe, met en avant les risques pour l'authenticité de l'information et le journalisme. Thierry Tuot, conseiller d'État, souligne que les cadres juridiques actuels sont obsolètes pour ces nouvelles technologies. Mélanie Clément-Fontaine, professeure en droit, rappelle entre autre que si une œuvre originale n'est pas reconnaissable dans le résultat produit par l'IA, il n'y a pas d'atteinte au droit de propriété intellectuelle. Au final, il est certainement indispensable de repenser les lois et les modèles économiques pour s'adapter à cette nouvelle réalité.
N’hésitez à me contacter si vous avez des remarques et suggestions sur cette newsletter, ou si dans votre entreprise vous cherchez à être accompagnés dans l’intégration d’outils IA et d’IA générative : olivier@255hex.ai
Partagez cette newsletter
Et si vous n’êtes pas abonné, il ne tient qu’à vous de le faire !
Bon weekend !