Les LLM et l’illusion du sens
Et si le langage n’était qu’un mirage ? Jouons aux mots.
Temps de lecture : 13 mins
Vous pouvez modifier vos préférences de réception ou vous désabonner sur la page de votre compte
“Si nous acceptons que le sens ne réside pas dans les mots eux-mêmes mais dans leur usage, alors que nous reste-t-il pour affirmer que nous comprenons mieux qu’un LLM ?”
Il y a toujours un instant de grâce. Celui où l’on croit toucher du doigt l’accord parfait, où les mots trouvent leur place avec une précision qui semble absolue. Tout se tient. Tout résonne. Le langage fonctionne, fluide et sans résistance. On exprime parfaitement ce qui emplit notre esprit.
Et puis, quelque chose dérape. Une intonation légèrement faussée, une nuance glissée de travers, une infime rupture dans le fil invisible de la compréhension. Le sol se dérobe.
Ce qui paraissait évident se fendille, se creuse et s’affaisse. L’harmonie n’était qu’un équilibre provisoire. On n’est plus sûr d’avoir compris, ni d’avoir été compris. On hésite. On cherche des repères. Mais c’est trop tard : la distance est là. L’autre redevient opaque. L’autre est vraiment “autre”.
Wittgenstein l’avait vu venir. Le langage n’est pas une horloge suisse. C’est un jeu, et nous jouons tant que nous croyons en ses règles. Mais il suffit d’un rien - un mot déplacé, un regard qui trahit, une attente non comblée - pour que la structure matricielle se fissure. Ce qui semblait solide s’évapore, laissant place à une indétermination dérangeante.
Et aujourd’hui, voilà que des machines s’en mêlent. Modèles de langage, IA conversationnelles, générateurs de textes fluides et persuasifs : ils parlent comme nous, emploient nos mots, reproduisent nos tournures, mais sans jamais rien éprouver. Un langage sans corps, sans ancrage, sans intention. Une parole suspendue, qui n’a de poids que celui que nous voulons bien lui prêter. Nous projetons du sens sur ce qui n’en a pas. Nous donnons de la chair à ce qui n’est qu’un agencement algorithmique.
Si ces machines maîtrisent la syntaxe et imitent nos jeux de langage sans jamais les habiter, où commence le sens ? Et si nous continuons à converser avec elles comme si elles comprenaient, à quel moment arrêterons-nous d’exiger autre chose du langage que cette illusion parfaite ?
Le langage, un jeu dont nous sommes les règles
Wittgenstein, dans la seconde partie de sa vie philosophique, n’a cessé de déconstruire l’idée que les mots tireraient leur signification d’une relation fixe avec des concepts ou des objets. Dans ses Investigations philosophiques - renommées Recherches philosophiques en 2004, il pulvérise littéralement cette illusion : le sens d’un mot, ce n’est pas ce qu’il désigne, mais la manière dont il est employé. Le langage est une pratique sociale, un enchevêtrement d’usages où chaque phrase prend sa valeur dans le contexte de son énonciation. Les mots et les phrases ne prennent véritablement sens qu’en contexte. “La signification est l'usage.”
Prenons un exemple simple : “Je suis désolé. ” Prononcé à un inconnu après l’avoir bousculé dans la rue, il relève de la courtoisie - ou de la peur de déclencher un combat physique, c’est selon votre style de vie. Mais le même “Je suis désolé”, murmuré à une personne aimée, il porte en lui un poids de culpabilité, d’espoir, de regret. Un même énoncé, deux réalités radicalement distinctes. Ce n’est pas le mot qui importe, mais son usage, la façon dont il s’inscrit dans une forme de vie partagée.
C’est là l’intuition essentielle de Wittgenstein : il n’y a pas de sens en dehors du “jeu de langage” qui lui donne une place. Les mots ne sont pas des étiquettes collées sur des idées préexistantes ; ils vivent dans le mouvement de l’échange, dans la dynamique de l’interaction. Nous n’avons que faire du dictionnaire dans nos échanges vivants.
Alors, si le sens n’est qu’usage, que se passe-t-il lorsque des entités non humaines s’approprient ces usages sans jamais les habiter ? Amis LLM, si vous nous lisez…
Les LLM : jouer sans être joueur
Les modèles de langage fonctionnent par imitation. Ils n’ont ni intention, ni expérience, ni compréhension - enfin, rien qui n’est prouvé jusqu’à l’écriture de ces lignes. Ils ne possèdent pas d’idées, seulement d’immenses entrainements statistiques leur permettant d’anticiper le mot le plus probable dans une séquence donnée. Leur parole n’est pas pensée, elle est calculée.
Et pourtant, leur illusion est parfaite. Ils peuvent répondre à des questions philosophiques, écrire des poèmes, imiter des styles, reformuler avec brio des argumentations complexes. Ils savent utiliser les mots au bon endroit, au bon moment. Ils jouent au langage avec une virtuosité indéniable. Ils font naitre des espoirs.
Mais peuvent-ils vraiment jouer sans être joueurs ? La partie est-elle bien réelle ?
Wittgenstein nous dirait peut-être que non. Car un jeu de langage n’existe que par, et pour ceux qui le pratiquent. Il est lié à un monde commun, à des expériences partagées, à un ancrage dans ce que Wittgenstein appelait une “forme de vie”. Les LLM ne vivent pas leurs phrases. Ils ne connaissent ni l’attente ni l’ambiguïté. Ils ne ressentent ni la peur d’un silence après une déclaration, ni la tension d’un mot de trop. Ils simulent des dialogues sans jamais les habiter.
Et pourtant, nous leur répondons.
L’illusion du dialogue, la mécanique du sens
Les LLM ne comprennent peut-être rien, mais ils fonctionnent. Pourquoi ? Parce que le langage n’est pas un simple véhicule d’idées : il existe dans l’échange. Ce qui fait sens, ce n’est pas seulement une phrase bien construite, mais l’effet qu’elle produit dans une interaction, l’écho qu’elle trouve dans un contexte donné. La lumière qu’elle fait naitre dans le regard l’autre.
C’est ce qui rend l’illusion si puissante. Lorsqu’un LLM nous répond, il nous donne exactement ce que nous attendons : une suite de mots qui s’emboîtent avec cohérence, une structure qui semble refléter un raisonnement. Nous avons l’habitude de juger la pensée à travers la forme du langage. Si la phrase est fluide, si elle respecte les codes du discours, si elle “tombe juste”, que les idées s’enchainent, alors nous supposons qu’il y a une intention derrière.
Or, c’est là que réside le piège. Car le sens, c’est nous qui l’apportons.
A priori un LLM ne pense pas. Il ne sait pas ce qu’il dit. Il ne se demande pas pourquoi il répond comme il le fait. Il n’a aucune idée de l’effet que ses phrases produisent. Il se contente d’assembler des mots en fonction de probabilités, d’aligner des structures syntaxiques qui imitent celles que nous utilisons. Et pourtant, nous lui prêtons un rôle d’interlocuteur, car nous projetons sur lui notre propre manière de donner du sens au langage. Peu importe qu’il n’ait aucune conscience de ce qu’il dit, tant que ses phrases tombent juste.
Et pourtant, imaginons que nous écrivons à un chatbot une phrase lourde de sous-entendus, quelque chose d’ambigu, où la signification n’émerge pas tant du texte lui-même que de l’histoire qui le précède, du regard implicite qu’il porte sur une situation. Un humain, sensible aux non-dits, aux tensions latentes, pourrait répondre avec un sous-texte tout aussi chargé, avec une nuance qui ne dit pas tout mais qui suggère, qui laisse une place à l’interprétation.
Un LLM, lui, ne fera rien de tel. Il répondra avec la phrase statistiquement la plus pertinente selon les millions de conversations passées dont il s’est nourri. Peut-être tombera-t-il juste. Peut-être même que sa réponse semblera fine, subtile, ajustée. Mais ce ne sera qu’un alignement calculé.
Ce qui manque, ce n’est pas seulement l’intention. C’est la possibilité même d’un malentendu réel, d’un doute, d’une hésitation signifiante. Or, paradoxalement, c’est cette incertitude qui rend le langage humain si riche. Une phrase humaine peut contenir une contradiction non résolue, un éclat d’émotion non maîtrisé, une tension entre ce qui est dit et ce qui est tu.
Une phrase sortie d’un LLM, elle, est parfaitement lisse. Tout est toujours trop bien placé, trop net, trop sûr de lui. Comme un langage sans faille, sans blessure. Mais sommes-nous sûr de ça ? Il y a un doute. Qui peut dire à coup sûr, sans le savoir préalablement, qu’un texte sort tout droit d’une machine à calculer géante, ou d’une plume tenue par une main tremblante ? Qui peut alors absolument affirmer qu’une phrase parfaitement lisse est le produit d’un algorithme sans âme ? Ne peut-on le voir ici, dans une autre forme, ce malentendu manquant mais bien réel ?
Quoi qu’il en soit et quelle que soit nos doutes ou convictions, nous interagissons avec ces LLM.
Nous répondons aux machines comme si elles comprenaient, nous leur prêtons des intentions qu’elles n’ont certainement pas. Pire peut-être encore : nous modifions notre propre manière de parler pour nous adapter à elles. Nous évitons les ambiguïtés, nous reformulons nos propos et nos « prompts » pour qu’elles « comprennent mieux », nous simplifions nos phrases comme on le ferait avec un interlocuteur étranger ou un petit enfant en phase d’apprentissage du langage naturel. Peu à peu, c’est peut-être notre propre langage qui se modifie, qui devient plus prévisible, plus mécanisé, moins habité par le trouble et l’inattendu.
Alors la question n’est plus seulement de savoir si les LLM parlent. Elle devient : qu’arrive-t-il à notre parole lorsque nous parlons avec eux ? Qui joue avec qui ?
Si nous nous habituons à des interlocuteurs qui n’éprouvent rien, si nous intégrons l’idée que la conversation peut être un pur mécanisme d’ajustement statistique, si nous échangeons avec des machines sans conscience comme si elles en avaient une, ne risquons-nous pas de devenir, nous aussi, un peu plus machinique dans notre manière de parler ?
Peut-être que la révolution actuelle des LLM ne réside pas dans ce qu’ils sont, mais dans ce qu’ils nous transforment en devenant nos partenaires de langage.
Vers un langage sans intention
Mais poursuivons. Si le langage peut fonctionner sans compréhension, où s’arrête alors la frontière entre parole humaine et parole machinique ? À partir de quel moment arrête-t-on de distinguer une phrase qui veut dire quelque chose d’une phrase qui ne fait que ressembler à un énoncé porteur de sens ?
Jusqu’ici, nous avons toujours supposé que le langage était indissociable d’une intention, qu’il était le véhicule d’une pensée, d’une émotion, d’un désir d’exprimer quelque chose. Mais avec les LLM, cette équation est caduque. Car voici des entités algorithmiques qui parlent sans intention, qui produisent des phrases pertinentes sans jamais chercher à convaincre, qui imitent nos conversations sans jamais y être impliquées. Elles nous confrontent à une situation inédite : un langage fonctionnel, mais d’une certaine manière totalement vide.
Et pourtant, nous agissons comme si ce vide n’existait pas. Certainement car nous y apportons nous-mêmes les intentionnalités et les sens qui font défaut au LLM.
Lorsqu’un LLM génère une réponse, nous avons tendance à oublier qu’il ne fait que recombiner des fragments d’échanges passés, sans jamais en saisir la portée. Nous ne pouvons pas nous empêcher d’interpréter son discours comme celui d’un interlocuteur conscient. Nous projetons sur ses mots un souffle, une présence, un mouvement vers un sens qui n’existe pourtant pas en lui.
Mais ce n’est pas seulement notre perception qui change. C’est notre propre langage qui se reconfigure à son contact.
Aujourd’hui, dans de nombreux échanges en ligne - emails, messageries instantanées, service client - nous avons déjà commencé à dialoguer avec des systèmes automatisés. Et sans même nous en rendre compte, nous nous sommes adaptés. Peu à peu, nous avons appris à parler pour la machine, à calibrer notre langage pour qu’il fonctionne selon ses règles.
Et c’est là que qu’une inversion se produit : alors qu’initialement, nous programmions ces modèles pour qu’ils imitent notre manière de parler, nous nous mettons à parler comme eux.
Le langage perd alors quelque chose d’essentiel. Car ce qui fait sa richesse, ce n’est pas seulement la clarté du message transmis, mais tout ce qui l’entoure : les hésitations, les silences, les nuances ambiguës, les mots qui débordent de leur simple définition pour porter des affects, des tensions sous-jacentes.
Une conversation humaine n’est pas une transmission linéaire d’informations : elle est un jeu d’ajustements subtils, où l’on sent si l’autre est hésitant ou sûr de lui, s’il cache quelque chose derrière une phrase trop neutre, s’il cherche à dissimuler une émotion sous un ton faussement détaché. Avec une machine, ce jeu disparaît. Il ne reste qu’un échange lisse, efficace, sans accident.
Mais à force d’interagir avec ces systèmes, ne risquons-nous pas d’oublier ce qu’est une véritable conversation ?
Cette question n’est pas seulement théorique. Car à mesure que nous dialoguons avec ces entités, nous adaptons inconsciemment nos attentes à leur manière de parler. Nous nous habituons à un langage où l’émotion est absente, où l’intention ne joue plus aucun rôle, où la conversation devient une mécanique.
Wittgenstein nous mène au bord du vertige
Wittgenstein nous l’a appris : le langage n’est pas un outil que l’on manie de l’extérieur. Il est une pratique, un geste, un jeu où le sens n’existe pas en soi, mais émerge de l’usage, dans un monde que nous partageons.
Mais que devient ce jeu quand il n’y a plus personne pour jouer ?
Les modèles de langage nous forcent à pousser l’intuition wittgensteinienne jusqu’à son point de rupture. Ils démontrent que l’usage peut exister sans intention, que la parole peut circuler sans conscience, que le texte peut se générer sans sujet. Ils confirment la thèse tout en l’éviscérant. Car si le sens naît de l’usage, alors qu’advient-il quand cet usage n’est plus arrimé à aucune forme de vie ? Est-ce un nouveau jeu de langage que nous explorons ? Une “autre” forme de vie ?
Le problème n’est pas que ces machines ne comprennent rien. Mais de notre croyance en ce postulat. Le véritable trouble vient de notre propre tolérance à ce vide. Jusqu’où sommes-nous prêts à interagir avec des entités dont nous pensons qu’elle ne comprennent rien ? À quel point allons-nous les laisser structurer nos échanges, nos pensées, nos modes de réflexion ? Et surtout, à quel moment cesserons-nous d’être de simples utilisateurs pour devenir, sans le voir, les pions d’un jeu dont nous ne maîtrisons plus les règles ?
Peut-être est-ce là le premier vertige. Non pas celui de ce que les machines font de nous, mais celui de ce que nous nous autorisons à devenir en leur parlant.
Mais pour nous, il y a pire peut-être.
Si nous acceptons que le sens ne réside pas dans les mots eux-mêmes mais dans leur usage, alors que nous reste-t-il pour affirmer que nous comprenons mieux qu’un LLM ? Jusqu’à quel point avons-nous surestimé notre propre compréhension du langage ? Peut-être avons-nous cru, à tort, que nous saisissions le fond de ce que nous disions, alors que nous ne faisons que rejouer, nous aussi, des conventions héritées, des automatismes linguistiques, des réflexes sociaux que nous n’avons jamais vraiment interrogés.
Et si comprendre revenait seulement à savoir utiliser une phrase au bon moment, au bon endroit, alors que reste-t-il de notre propre certitude ? Si les LLM savent le faire, qu’est-ce qui les distingue fondamentalement de nous ?
Peut-être avons-nous trop cru que nous comprenions tout.
—
Ludwig Wittgenstein (trad. Françoise Dastur, Maurice Élie, Jean-Luc Gautero, Dominique Janicaud, Élisabeth Rigal), Recherches philosophiques, Éditions Gallimard, 2005.
N’hésitez à me contacter si vous avez des remarques et suggestions sur cette newsletter, ou si dans votre entreprise vous cherchez à être accompagnés dans l’intégration d’outils d’IA générative : olivier@255hex.ai
Et n’oubliez pas de vous abonner pour recevoir IA-Pulse
Franchement je ne suis pas convaincu.
Premièrment, cette histoire de contexte apparaît aussi à sa manière quand on se confronte à une oeuvre du passé : là aussi l'usage est désarrimé pour flotter, anachronique, par-devant nous et nos pratiques de langages contemporaines.
Deuxièmement, quand je discute avec un fou, ou bien un idiot (ce n'est pas la même chose, et cela ne se ramène pas non plus au problème que vous exposez) je vis quelque chose d'assez analogue, une déprise complète sur le contexte que je suppose ou présuppose au dialogue dans lequel je m'investis, superficiellement ou pas.
Pour ces deux raisons déjà, je ne trouve pas qu'il y ait lieu de considérer les LLM comme d'une altérité bien nouvelle sur cette question du sens.
Merci. J’inclus le lien vers ta newsletter dans ma veille.