Comment utiliser les données AEO de Bing Webmaster Tools pour prendre de l’avance
Bing a sorti la première plateforme officielle de suivi des performances IA, en se focalisant sur les citations et les requêtes d’ancrage. Mais au-delà de l’excitation de la nouveauté, que peut bien nous apporter un rapport sur l’utilisation de Microsoft Copilot et des résumés IA de Bing ?
Voici plusieurs moyens de le mettre à profit pour en sortir gagnant :

Coucou GPT-5
Malgré le manque d’intérêt que peut parfois susciter l’écosystème Web de Microsoft, souvent considéré comme un repère de baby-boomers, il existe une subtilité qui devrait rassurer tout le monde : Copilot est basé sur GPT-5. C’est-à-dire qu’une partie des données partagées par Bing Webmaster Tools provient en réalité d’OpenAI. Est-ce que l’on sait exactement lesquelles ? Non.
L’autre point intéressant est que les mentions ne font pas partie des métriques suivies, juste les citations pour le moment avec les requêtes d’ancrage (grounding queries) correspondantes. Considérant l’emphase de Fabrice Canel (product manager de Bing derrière tout ça) sur la monétisation de la recherche organique, c’est une indication supplémentaire que les citations sont ce qu’il y a de plus « fiable », ou de moins vaseux pour contribuer aux objectifs de l’entreprise.
Les actions techniques
Maintenant du concret dans l’abstrait : que peut-on mettre en place pour tirer le meilleur parti possible de ces nouvelles données au niveau technique ?
En premier lieu : croiser les données de vos logs liés à Bingbot avec les données de citations par page sur une période donnée.
Observez la liste des actions prises sur le site dans cette période (si vous n’avez pas de document de suivi comme ça mentionnant au minimum action + date de lancement, commencez sans attendre), étudiez les variations de crawl de Bingbot puis les variations du nombre de citations.
L’objectif est de trouver la formule gagnante : action + augmentation du taux de crawl + augmentation du nombre de citations.
Vous l’avez trouvé ? Maintenant il est temps de vérifier vos conversions en provenance de sources IA afin de confirmer (dans la mesure du possible, tout au moins corréler) que cela a un impact sur plusieurs LLMs.
Vous avez une piste ? Il s’agit maintenant de répliquer votre action ailleurs afin de valider votre hypothèse. Du SEO en somme.
Exemple :
- Vous avez activé le rendu côté serveur le 15 novembre sur un groupe de pages
- Vous observez le nombre de citations du 15 au 30 novembre sur Bing Webmaster Tools et vous comparez aux 15 jours précédents
- Vous observez le volume de crawl de Bingbot du 15 au 30 novembre et vous comparez aux 15 jours précédents
- Vous cherchez à trouver une hausse pour ces deux métriques qui soit significative statistiquement (>=5%)
- Vous en tirez une hypothèse (cette action a fonctionné/n’a pas fonctionné)
- Vous répliquez à plus grande échelle si c’est positif. Vous n’allez pas plus loin et vous trouvez une autre action à expérimenter si c’est négatif.
- Vous créez un artefact Claude ou vous documentez votre processus dans le but de recommencer sans effort. La prochaine fois, vous n’aurez plus qu’à charger les nouveaux jeux de données pour avoir de premières estimations et hypothèses rapides.
Comme pour tout ce qui touche au SEO, ce n’est pas une science exacte, mais ça permet de donner une direction à ses efforts en maximisant ses chances d’impact tout en prenant en compte les données disponibles, sans attendre la Webmaster Tools d’OpenAI.
Les actions de contenu
Il est temps de se pencher d’un peu plus près sur les requêtes d’ancrage. Bien que ce soit ce qu’il y a de plus proche des mots-clés, il ne s’agit pas là de véritables commandes/prompts entrés par les utilisateurs, mais le libellé qui leur est assigné (voir la publication de JC Chouinard).
C’est-à-dire qu’il s’agit des requêtes clés utilisées par l’IA pour aller chercher du contenu.

Sachant cela, il est désormais possible d’établir les types de phrases les plus populaires qui incitent le LLM à venir chercher vos pages, mais surtout de voir ceux qui ne sont pas aussi performants.
Une fois la recherche d’opportunités de visibilité effectuée, il ne reste qu’à observer les résultats donnés par les différents prompts (pas que sur Copilot), voir ce qui ressort puis ajouter différents passages qui combleraient les trous dans la raquette, avant enfin d’évaluer si l’on a gagné en visibilité.
NotebookLM est typiquement un très bon outil pour cela, même s’il s’agit dans ce cas de Gemini. Il permet d’ajouter un nombre défini de sources texte, liens, vidéos (incluant ceux des concurrents qui vous font de l’ombre) puis d’entrer une commande et d’obtenir la réponse. Optimisez votre contenu, relancez la commande et observez instantanément si vous êtes mentionné/cité aux endroits où vous ne l’étiez pas avant, pas besoin d’attendre. Voici une vidéo montrant le processus.
De nouveau, ce n’est pas OpenAI ni aucun outil Microsoft, mais c’est une manière imparfaite d’évaluer quels changements apporter à son contenu avec des résultats immédiats. Sinon, il est toujours possible d’effectuer les changements, d’attendre un peu et d’observer l’évolution.
En résumé
Bing Webmaster Tools est un premier pas, évidemment perfectible (le filtre des performances par URL aurait été appréciable), mais il montre la voie.
Les actions recommandées actuellement sont donc :
- Croiser ses données de logs pour le user-agent Bingbot avec les citations de Bing Webmaster Tools sur des périodes données
- Exploiter les requêtes d’ancrage les moins populaires fournies par Bing Webmaster Tools, observer les réponses et mettre à jour son contenu en conséquence
Il y a fort à parier que Google et OpenAI publieront les leurs cette année, possiblement avant l’été, c’est pourquoi il est l’heure de prendre de l’avance avant que tout le monde ne se rue sur ces nouveaux jouets.
