AI Mode : la recherche Google pilotée par l’IA conversationnelle
Quand Google éclate vos questions façon puzzle
Temps de lecture : 10 mins
Vous pouvez modifier vos préférences de réception ou vous désabonner sur la page de votre compte
Merci à Max Leroy pour la relecture et les insights.
Il suffit désormais de taper ou dicter à son assistant de recherche personnel une demande comme : “Meilleures boutiques vintage pour les meubles modernes du milieu du 20ème siècle. J'essaie de trouver une table basse ou un meuble à disques sympa.” Deux secondes plus tard, l’écran affiche un texte rédigé, un tableau comparatif de quatre ou cinq boutiques, quelques visuels et des liens vers des fiches-produits et les adresses des boutiques - le tout sans le moindre clic de l'utilisateur.
Cette démonstration est signée AI Mode, la nouvelle interface de recherche que Google déploie, pour le moment aux Etats-Unis, depuis I/O 2025. Pour livrer un résultat aussi riche sans exploser les temps de réponse, le moteur ne lance plus une requête unique : il en expédie une myriade en parallèle, un procédé baptisé “query fan-out”. Chaque question devient ainsi une rafale d’appels à des index spécialisés, puis un modèle Gemini 2.5 se charge de la mise en forme et des éventuelles citations.
Dans les coulisses, le dispositif ressemble à un chef d’orchestre “hyperactif” : dès qu’une requête arrive, un LLM repère les entités clés, les contraintes et l’intention - ici encore comme avant, c’est l’intentionnalité détectée derrière les mots et les phrases qui est la clé.
Si la question vaut la peine d’être “éventaillée”, éclatée en plusieurs sous-questions, un planificateur génère des dizaines de variantes : paraphrases, filtres ‘site:’, mots-clés supplémentaires piochés dans la base de connaissances de Google et organisés en phrases par un LLM, requêtes vers Google News, YouTube ou le Shopping Graph, etc. Chaque sous-requête reçoit un mini-budget de temps - quelques dizaines de millisecondes - avant de partir frapper à la porte de son index dédié. Les réponses reviennent, sont dé-dupliquées, scorées selon les critères E-E-A-T (expérience, expertise, autorité, fiabilité) - eh oui, si vous pensiez vous débarrasser de vos pénalités actuelles comme ça… - puis remises à Gemini 2.5. C’est le LLM utilisé actuellement et qui est chargé d’écrire une synthèse au ton conversationnel et de saupoudrer des liens sources en plus ou moins grande quantité. Le tout doit tenir sous 500 ms, budget temps annoncé par Google.
Cette bascule n’est pas née d’un caprice technologique, elle répond à trois contraintes convergentes :
d’abord, la complexité grandissante des requêtes : nous formulons des questions longues, mêlant chiffres, contexte et intention d’achat ou autre, que le vieux schéma “une requête, un classement” couvrait mal;
ensuite, la montée de la multimodalité : texte, vidéo, audio, données structurées… chaque format vit dans un index séparé;
enfin, la pression sur la vitesse : plus Google enrichit la réponse, plus il doit lutter contre la latence du 99ᵉ percentile, ces requêtes lentes qui ternissent la perception de rapidité. Le query fan-out est la rustine “élégante” : on démultiplie les appels, on annule les plus lents quand une réponse concurrente arrive, et on recolle le puzzle juste à temps. Pratique, non ?
Techniquement, chaque requête AI Mode déclenche en moyenne 25 à 40 sous-requêtes, mais en mode “Deep (Re)Search”, utilisé pour des dossiers, des synthèses plus consistantes ou encore des requêtes de veille, la rafale dépasse parfois plusieurs centaines de requêtes - le temps alloué est alors beaucoup grand.
En coulisses, Google utilise une grosse “centrale de tri” pour gérer ces dizaines ou centaines de petites requêtes : il garde les infos temporaires dans une base de données maison et met de côté les questions les plus fréquentes dans une super-mémoire cache, économisant ainsi du temps de calcul. Mais même avec ces astuces, chaque recherche en AI Mode coûte actuellement deux à trois fois plus qu’une recherche classique selon Google.
Cette mécanique de “faisceau de requêtes” marque un tournant historique dans notre manière d'appréhender le search. En effet, plutôt que de chercher uniquement une correspondance exacte avec la requête initiale, le modèle raisonne sur la requête pour en extraire le sens, puis va chercher de manière proactive des informations connexes. On passe d’une recherche déterministe - mêmes résultats, ou quasi, pour la même requête - à une recherche probabiliste et contextuelle : les sous-requêtes et donc la réponse pourront varier selon le contexte de l’utilisateur, son historique ou même des choix aléatoires de l’algorithme. Deux personnes posant la même question peuvent recevoir des réponses formulées différemment, basées sur des sources partiellement différentes, car le modèle a exploré des pistes variées adaptées à chacun.
Dans cette architecture, chaque étape - de la réception de la requête, la collecte de contexte utilisateur, la génération de requêtes synthétiques multiples, la récupération des documents, la classification de l’intention, la sélection du bon modèle spécialisé, jusqu’à la rédaction finale et l’affichage - est optimisée pour fournir une réponse précise, complète et personnalisée.
Ainsi, le moteur en Mode IA n’est plus un simple indexeur de pages web : c’est un interprète intelligent capable de dialoguer. Il tient compte du contexte - historique de recherche de l’utilisateur, localisation, préférences passées - et maintient une mémoire de la conversation.
Par exemple, après une première réponse, l’utilisateur peut affiner sa question, et l’IA s’appuiera sur l’échange précédent pour répondre de manière de plus en plus personnalisée. Cette dimension ‘étatful’ - à état persistant - signifie aussi ici que la même requête posée par deux personnes différentes - ou encore par la même personne à deux moments différents - va enclencher des chemins de recherche distincts en fonction du contexte récupéré en amont.
L’hyperpersonnalisation est donc double : à la fois par la nature même du fonctionnement du query fan-out, mais aussi par des mécanismes contextuels plus fins propres à chaque utilisateur sur l’instant même de chaque conversation, et qui seront probablement intégrés à terme dans une sorte d'assistant ou d’agent de recherche disponible en permanence.
Pour le grand public, AI Mode promet des réponses plus complètes et moins de va-et-vient.
Pour les professionnels - médias, communicants, marketeurs - le changement est tectonique. La métrique qui comptait hier, la position idéale en p1 dans les dix liens bleus, devient secondaire : l’enjeu désormais, c’est l’éligibilité. Être “servable” parmi les trente sous-requêtes d’un fan-out est la nouvelle bataille. Certains éditeurs américains observent déjà un recul de 15 % à 20 % des clics organiques sur des verticales fortement prises en charge par AI Mode. Les marques, elles, notent un - tout petit - transfert du trafic vers les fiches-produits directement mises en avant dans la réponse.
Vue du côté des rédactions des médias, l’équation change. L’ancien tunnel “impression → clic → session/visite” se raccourcit : l’information essentielle est déjà sous les yeux de l’utilisateur. Le clic devient un bonus, parfois superflu. Or, les revenus publicitaires, les abonnements, les marques reposaient sur cette visite. Il faut donc déplacer la bataille : être cité, être crédité, être reconnaissable dans la réponse. Cela passe par un contenu “LLM-friendly” : paragraphes brefs, titres et sous-titres explicites, données structurées (HowTo, Product, FAQ), signaux d’autorité lisibles par la machine. Le SEO bouge, mais ne disparaît pas - sans parler de la présence encore forte de Discover et de ses petits camarades.
Les communicants et marketeurs ne sont pas épargnés non plus. Quand AI Mode place une fiche-produit dans la réponse, le haut du funnel - découverte et considération - se fond en une ligne. Vos landing pages doivent arriver riches, rapides, mobiles. Et les équipes data devraient déjà chercher à analyser les “follow-up questions”, ces fameuses questions de suivies : chaque relance de l’utilisateur vaut insight sur ses freins, ses critères, ses motivations.
Au final, la mécanique de la recherche conversationnelle se rapproche davantage d’un assistant ou d’un agent personnel qui va puiser du savoir un peu partout, plutôt que d’un classement de liens. Le modèle explore toutes les directions “pertinentes” à partir de la question posée, puis construit une réponse sur mesure.
Pour les créateurs de contenu, cela signifie que chaque contenu pertinent peut être sélectionné par l’IA même s’il ne correspond pas textuellement à la requête, à condition qu’il réponde à l’une des sous-questions générées. Mais à l’inverse, un contenu qui n’est pertinent que pour la requête initiale et pas pour les multiples reformulations pourrait être tout simplement ignoré. Cela change radicalement l’approche de l’optimisation : il faut anticiper non seulement les mots-clés de l’utilisateur, mais aussi toute la nébuleuse de questions implicites que le modèle pourrait poser autour. Tâche impossible ? Pas sûr, pour cela les LLM sont nos amis… Non ?
Le query fan-out ouvre aussi des portes. Les bases de données spécialisées - météo, résultats sportifs, bourse, cinéma etc. - peuvent négocier des flux API pour être interrogées directement, ou encore les médias rassurés par la mise en place de paywall peuvent accorder des licences basées sur des extraits optimisés au lieu d’offrir l’intégralité de leurs contenus. D’autres expérimentent des formats que le LLM ne peuvent pas - encore - ou mal résumer : reportages interactifs, infographies animées, expériences data-journalistique. Car plus l’IA synthétise, plus le lecteur valorise le grain de sel humain - profondeur, ton, narration - qui échappe au robot.
Reste la question qui fâche. Google ne dévoile pas la liste exacte des sous-requêtes ni leur pondération dans le score final. Ni même le “raisonnement” du modèle Gemini 2.5 dans cette utilisation. Difficile, donc, d’auditer la neutralité ou la diversité des sources. Un query fan-out mal calibré risque d’étouffer les voix locales, les médias de niche, les perspectives minoritaires, ou au contraire les surpondérer. Les régulateurs devraient s’en inquiéter et les rédactions aussi. Pour l’instant, la seule arme consiste à surveiller son taux d’apparition, signaler les absences, et plaider pour une plus grande transparence algorithmique. Pas facile chez nous, quand l’expérience n’est disponible qu’aux Etats-Unis pour le moment.
Sur le terrain dans chaque entreprise qui produit du contenu au sens large, la feuille de route tient en cinq verbes : auditer, optimiser, négocier, expérimenter, veiller.
Auditez dès que possible la visibilité de vos contenus dans AI Mode. Optimisez la structure, la vitesse, la clarté. Négociez des partenariats quand votre base de données vaut de l’or - et certains médias sont assis sur des mines d’or. Mais aussi, il vous faut sans tarder expérimenter des chats internes ou des features conversationnelles pour apprendre le nouveau langage utilisateur et constater comment les modèles réagissent à vos contenus. Ceci n’est pas une option, même si le fameux ROI sera de zéro ou même négatif à court terme : dès maintenant apprenez et engrangez de l'expérience avec ces outils. Enfin c’est une évidence, veillez et surveillez les annonces de Google : le query fan-out évolue en continu et pourrait demain privilégier des critères encore inconnus. Google a clairement indiqué que les similarités initiales entre le SEO traditionnel et l’ère de l’IA ne seraient que temporaires.
A mesure que les capacités de mémoire, de personnalisation et d’agentivité - l’IA pouvant réaliser des actions pour l’utilisateur - grandissent, les résultats deviendront hautement personnalisés et variables, rendant caduque la notion même de position moyenne sur un mot-clé donné. En d’autres termes, la visibilité ne sera plus un produit du classement sur un mot-clé unique ou un ensemble de mots-clé, mais le fait d’être la source de confiance la plus fréquemment extraite à travers des dizaines de sous-requêtes générées par la machine.
Soyons lucides : la recherche n’est plus un classement de dix liens, mais une conversation orchestrée par l’IA. Pour rester dans la pièce, il faut devenir un invité incontournable, même si l’on n’est plus la vedette en haut de l’affiche. Cela demande des ajustements techniques, éditoriaux, stratégiques. Mais c’est aussi l’occasion de repositionner la valeur humaine : l’enquête, la vérification, la créativité narrative. Face à la synthèse automatisée, l’angle original, la contextualisation pointue et l’empathie resteront des atouts que le LLM ne sait pas copier.
Le query fan-out marque la fin d’une époque où la visibilité dépendait avant tout d’un rang dans la SERP. Il inaugure un monde où la présence se négocie sous forme de fragments, d’API, de citations, d’éléments de confiance. Les professionnels qui prendront ce virage tôt - en adaptant contenu, technique et business models - gagneront une longueur d’avance. Dans l’économie de l’attention et de l’automatisation, être le premier à “comprendre” les règles cachées d’un nouvel algorithme, c’est peut-être déjà se hisser dans la lumière.
Tableau 1 - Recherche classique vs. recherche en Mode AI (AI Mode)
Comme le montre le tableau 1, la notion même de rang et de clic s’érode fortement avec l’AI Mode. L’absence de “10 liens” présentés à l’utilisateur se traduit par l’absence d’impressions au sens traditionnel - une URL affichée. Si un site web est utilisé comme source par le modèle, l’utilisateur le saura éventuellement via une petite mention ou une citation en bas de réponse, mais rien ne garantit qu’il cliquera dessus. L’engagement direct avec le site devient optionnel, là où il était autrefois requis pour consommer le contenu. De même, la requête elle-même n’est plus le seul vecteur d’accès : le modèle la transforme, en crée d’autres, si bien que le contenu d’un site peut être sélectionné sur des requêtes que personne n’a tapées directement - nouvelle notion : requêtes synthétiques.
Tableau 2 - Érosion des métriques traditionnelles
Le tableau 2 montre que la visibilité est dissociée du trafic immédiat. Un site peut avoir une excellente visibilité “virtuelle”, en étant très utilisé par l’IA dans les réponses, mais sans en récolter le trafic sur ses pages. Cela rappelle l’époque où les annonceurs visaient le share of voice sur les ondes télé/radio : on cherche à être vu et cité, même si cela ne se traduit pas instantanément par un clic. Certains parlent ainsi de faire évoluer le CTR traditionnel vers le Click-Through Reputation, c’est-à-dire de mesurer la réputation d’un contenu à travers sa réutilisation par les modèles d’IA plutôt que le passage de l’utilisateur sur une page ou un site.
Actuellement les KPI classiques du SEO subissent une érosion mesurable dès les premières implémentations de l’IA dans la recherche. Des premières études soulignent que la chute de ces métriques n’est que la partie émergée de l’iceberg : ce qu’elle révèle surtout, c’est que les indicateurs actuels ne suffisent plus à cartographier la performance dans un contexte de recherche IA. Il faut inventer et adopter de nouvelles unités de mesure centrées non plus sur le clic, mais sur la présence dans l’écosystème d’information. Et bien entendu, cela va de pair avec de nouveaux outils et approches pour maximiser cette présence.
Pour en savoir plus :
AI in Search: Going beyond information to intelligence (Elizabeth Reid - Google)
AI Overviews and AI Mode in Search (pdf Google)
Search with stateful chat (Brevet Google)
The News Pipeline: Economic and Strategic Implications of AI for News Distribution (Alex Webb, Amrutha Nair - Stanford Business )
How AI Mode Works and How SEO Can Prepare for the Future of Search (Mike King - Ipullrank)
Query Fan-Out: A Data-Driven Approach to AI Search Visibility (Andrea Volpini - Wordlift)
Why AI Mode will replace traditional search as Google’s default interface (Gianluca Fiorelli - iloveseo)
Google AI Mode’s Query Fan-Out Technique: What is it and How Does it Mean for SEO? (Aleyda Solis)
Google I/O 2025 : Google Reloaded (IA-Pulse)
N’hésitez à me contacter si vous avez des remarques et suggestions sur cette newsletter, ou si dans votre entreprise vous cherchez à être accompagnés dans l’intégration d’outils d’IA générative : olivier@255hex.ai
Et n’oubliez pas de vous abonner pour recevoir IA-Pulse