Bienvenue sur IA Pulse Weekend. En vous abonnant, vous recevez tous les samedis matin, l’essentiel de ce qu’il s’est passé cette semaine autour de l’IA : une sélection de 3 articles avec pour chacun un résumé rapide à lire, plus 1 article de fond pour ouvrir l’esprit et réfléchir, et pour finir 1 podcast à écouter.
⏱️Temps de lecture de cette newsletter par une unité carbone : 8 mins
Cette semaine pendant que les grands du monde de la technologie se réunissaient au Royaume-Uni avec les représentants des nations pour discuter de la somme de toutes les peurs et des espoirs que certains mettent dans l’IA - avec un Elon Musk en pleine forme faisant à la fois office d’expert et de Bouffon du Roi - POTUS nous gratifiait depuis sa Maison Blanche d’un règlement qui va s’imposer à tous, et par ricochet même à nous européens. Sauf bien entendu si vous n’utilisez aucune technologie ni aucun produit provenant de nos cousins américains.
En parlant d’Elon, c’est aujourd’hui qu’il présente au monde xAI le “meilleur modèle [d’IA] qui existe”. Certainement le fruit, au moins en partie, des calculs des 10 000 GPU qu’il a achetés d’une main, pendant que de l’autre il signait une lettre devenue fameuse, demandant une pause voire un arrêt dans l’avancée de l’IA. C’était il y a 7 ou 8 mois. Une éternité.
Du côté d’OpenAI, Sam Altman continue de faire avancer son produit phare qui a changé la face du monde il y a presqu’un an maintenant : ChatGPT. Ce dernier devient de plus en plus multimodal, c’est-à-dire qu’il peut traiter tout type de document en entrée - voire en sortie. Cette semaine une mise à jour de ChatGPT a tué le business model - bancal - de quelques doux rêveurs qui avaient “développé” des applications ou des plug-ins permettant de faire analyser par ChatGPT de gros documents PDF. Depuis mercredi, c’est possible nativement dans ChatGPT.
Que ceux qui n’ont pas encore la fonctionnalité se rassurent, elle est déployée par vague et ne devrait plus tarder pour eux. Et que ceux qui s’appuient sur les API d’OpenAI pour développer leur business en tirent les leçons.
Et sujet qui m’est cher, la troisième actu de cette semaine parle des apprentis sorciers qui pensent qu’ils vont pouvoir se passer de collaborateurs humains grâce à ces IA génératives et conversationnelles. Il en existe partout. Même chez Microsoft qui se prend les pieds dans le tapis, en utilisant sans supervision humaine un modèle automatisant la production et la diffusion d’articles sur MSN News. Et le résultat est à la hauteur des espérances : une cata. Les modèles d’IA actuels ne sont pas en mesure de travailler et de publier des articles sans supervision humaine.
Sauf, bien entendu, si on n’a que faire du résultat ou si on ne ressent aucune responsabilité sociale dans la diffusion d’informations et de contenus. Ces personnes existent, on en trouve sur quelques réseaux dits sociaux, souvent à quelques tweets de soi.
Et comme cette semaine a été très très très chargée, j’aurais pu aussi parler d’Adobe qui vend des photos fake de la guerre entre Israël et le Hamas, de Microsoft -encore- qui développe un petit modèle de langage aussi performant que le gros GPT, de Google qui investit 2 milliards dans Anthropic -le papa de Claude, des artistes qui ont perdu un premier procès pour violation de copyright contre Midjourney et Stable Diffusion, de Microsoft -toujours !- qui a mis à disposition de ses gros clients un copilote dans Office 365, ou encore de Scarlett Johansson qui attaque en justice les développeurs d’une application qui utilisent sa voix clonée sans son autorisation. Au lieu de tout ça, sous la tempête, nous allons réfléchir ensemble à l’impact que ces IA génératives et conversationnelles ont sur nos façons de penser et de raisonner.
Ou alors, nous pouvons aussi parler poésie et IA. Vous le sentez comment ?
📰 Les 3 infos de la semaine
🏛️ White House offers a new strategy for AI — and picks new fights
Politico, 30/10/2023
Le président Biden a signé un décret exécutif instaurant une politique gouvernementale globale sur l'IA, visant à établir des normes et des règles pour encadrer cette technologie. Ce décret s'attaque à des problématiques variées, incluant la discrimination algorithmique, la cybersécurité et la vie privée. Il est considéré comme l'action la plus ferme jamais prise par un gouvernement sur la sécurité et la confiance en l'IA.
Le décret prévoit l'utilisation de l'IA par les agences fédérales tout en prévenant les biais potentiels, et exige que les développeurs de grands modèles d'IA suivent de nouvelles directives de sécurité. Il utilise le Defense Production Act datant de l’époque de la Guerre de Corée, pour surveiller les entreprises développant des systèmes d'IA avancés, et délègue au Département du Commerce le pouvoir de fixer des exigences en matière de rapports.
Face à l'inaction du Congrès, ce décret pourrait définir la relation entre Washington et un secteur technologique peu réglementé. Des tensions sont attendues avec l'industrie technologique, qui n'est pas habituée à une réglementation significative. Le décret soulève aussi des questions sur la capacité des agences fédérales à mettre en œuvre ces changements systémiques, et le financement nécessaire dépendra du Congrès.
📖 ChatGPT can now analyze any PDF you send it
Mashable, 30/10/2023
OpenAI a introduit une mise à jour pour ChatGPT Plus, permettant aux utilisateurs d’uploader et d'analyser des documents PDF. Cette fonctionnalité étend les capacités de ChatGPT au-delà des interactions textuelles, lui permettant de fournir des résumés et d'extraire des données de documents uploadés. L'auteur de cet article, Stan Schroeder, a expérimenté cette fonctionnalité avec des résultats mitigés : ChatGPT n'a pas pu analyser un PDF de "Macbeth" à cause de son formatage, mais a réussi à traiter un article scientifique, en fournissant un résumé et des points clés.
Cette mise à jour pose un risque potentiel pour de nombreuses startups IA qui se sont spécialisées dans des fonctionnalités similaires. L'amélioration de l'efficacité dans le traitement de documents volumineux est une promesse clé de ces startups, mais l'intégration par OpenAI de cette fonctionnalité directement dans ChatGPT pourrait diminuer leur pertinence.
Actuellement, la mise à jour est disponible pour certains abonnés de ChatGPT Plus, sans date annoncée pour un déploiement plus large.
🤦 How Microsoft is making a mess of the news after replacing staff with AI
CNN, 2/11/2023
Cet article de CNN met en évidence les conséquence de l'automatisation de la curation de contenu par Microsoft sur son site d'actualités MSN News, où l'IA est désormais privilégiée au détriment des éditeurs et rédacteurs humains. Cette transition a conduit à la diffusion de plusieurs contenus problématiques. Deux exemples particulièrement marquants illustrent les défaillances du système.
Le premier est la diffusion d'une histoire infondée affirmant que le président Joe Biden s'était endormi lors d'une cérémonie commémorative pour les victimes d'un incendie de forêt à Maui, ce qui a suscité une vague de désinformation sur les réseaux sociaux. Le second exemple concerne un sondage généré automatiquement par IA, demandant aux lecteurs de spéculer sur les causes du décès tragique d'une jeune femme en Australie, ce qui a été perçu comme une démarche insensible et a provoqué un tollé public.
Ces incidents ont mis en lumière les risques associés à l'usage non régulé de l'IA dans la sélection des articles d’actualité, soulevant des questions sur la responsabilité éditoriale de Microsoft et l'éthique journalistique. En réponse, Microsoft a désactivé les sondages sur les articles et a annoncé une enquête pour prévenir de tels problèmes à l'avenir. Cependant, ces erreurs ont déjà soulevé des inquiétudes quant à l'impact potentiel de l'IA sur la qualité de l'information et la confiance du public dans les médias numériques.
🧠 L’article qui fait réfléchir - et qu’il faut absolument lire
Dumbing down or wising up: how will generative AI change the way we think?
I am the eye in the sky, Looking at you, I can read your mind, I am the maker of rules
Dans cet article trois chercheuses de l’Université de Queensland, Sarah Vivienne Bentley, Claire Mason et Einat Grimberg, nous invitent à explorer les implications de l'intelligence artificielle générative sur notre processus de pensée.
Avec des outils comme ChatGPT qui gèrent et synthétisent des informations pour nous, elles s'interrogent sur les conséquences de cette externalisation de la gestion de l'information sur notre cognition. De même, l'IA personnalisée qui adapte le contenu aux besoins de l'utilisateur - les compagnons, soulève des inquiétudes quant à la propriété des données, les biais, la désinformation et la manipulation des individus.
Elles rappellent que l'arrivée d'Internet dans les années 1990 a déjà modifié notre accès à l'information, affectant notre cognition, notre mémoire et notre créativité - que ceux qui étaient là avant tentent de se remémorer. Par exemple, l'effet Google décrit comment la recherche en ligne améliore notre capacité à localiser des informations tout en diminuant notre capacité à les retenir. Cela peut libérer de l'espace mental pour la créativité, mais cela peut également entraîner une plus grande dépendance et une facilité à être distrait - la société du spectacle et l’économie de l’attention l’ont bien compris !
Les 3 chercheuses mettent en lumière les risques de biais cognitifs avec l'IA générative, comme le biais d'automatisation, où nous surévaluons l'intégrité des informations fournies par les machines, et l'effet de simple exposition, qui nous rend plus enclins à faire confiance à des informations nous semblant familières - ça vous rappelle votre dernier prompt ou votre dernier tweet, non ? Elles citent une étude de 2016 sur Facebook montrant que les utilisateurs se sentent mieux informés en fonction de la quantité de contenus d'actualité en ligne, indépendamment de la quantité réellement lue, et comment les bulles de filtrage sur les réseaux sociaux limitent la diversité des contenus auxquels nous sommes exposés, augmentant la polarisation idéologique et l'exposition informations factuellement fausses.
Certes l'IA générative semble révolutionnaire pour la société, notamment dans l'éducation, le travail et les sciences. Mais essayons de concevoir des outils d'IA qui favorisent l'autonomie humaine et la pensée critique, pour que ces compagnons “pensants et aimants” nous aident à créer l'avenir que nous désirons - quelle belle phrase, plutôt que celui qui serait uniquement dicté par des algorithmes sans âmes au service des gains de nos cousins Californiens.
📻 Le podcast de la semaine
Intelligence artificielle et poésie : la rime riche
Depuis les années 1950, l'IA explore la création poétique, interrogeant la capacité créatrice des machines. Dans Sciences Chrono, Thierry Poibeau, du CNRS et du projet OUPOCO, retrace l'évolution de la poésie numérique, depuis les premiers ordinateurs jusqu'aux IA génératives actuelles qui produisent des poèmes sur demande, soulignant l'impact et les questionnements éthiques soulevés par cette pratique.
N’hésitez à me contacter si vous avez des remarques et suggestions sur cette newsletter, ou si dans votre entreprise vous cherchez à être accompagnés dans l’intégration d’outils IA et d’IA générative : olivier@255hex.ai
Partagez cette newsletter
Et si vous n’êtes pas abonné, il ne tient qu’à vous de le faire !
Bon weekend !