Comment empêcher que deux erreurs 403 ne fassent couler votre site

Parmi la myriade d’erreurs et de problèmes que l’on peut détecter dans la Google Search Console, il en existe deux qui sont des indicateurs clairs que G a un problème avec vous, et je ne parle pas d’actions manuelles. Voici comment les repérer avant qu’il ne soit trop tard :

Le nombre 403 au centre d'une explosion

La chute

C’est un scénario familier pour bon nombre de référenceurs : une chute de trafic soudaine après une mise à jour d’algorithme (ou non) et la source de cette baisse n’apparaît pas clairement. L’un des premiers réflexes est de regarder la GSC afin de voir si l’apparition ou l’aggravation de tel ou tel problème peut expliquer les événements, et c’est la bonne démarche.

En revanche, deux points sont généralement oubliés ou sous-estimés lors de l’inspection de base, qui peuvent être révélateurs de problèmes profonds.

Il s’agit des sections Sitemaps et robots.txt.

La 403

Une fois que l’on se rend dans Sitemaps et Paramètres > Exploration > Robots.txt, Une petite encoche verte indique que Googlebot a réussi à récupérer ces fichiers. Dans ce cas, tout va pour le mieux dans le meilleur des mondes.

En revanche, si vous avez une inscription rouge vous indiquant que l’un ou l’autre n’a pas pu être récupéré, il vous faut de suite comprendre pourquoi.

Pour le sitemap, ce peut être aussi simple qu’une extension (Yoast SEO, au hasard) qui n’a pas été mise à jour et, dans ce cas, la résolution est assez simple. Mais si ce n’est pas ça, et que vous observez un problème similaire dans l’espace robots.txt, alors vous pouvez demander une nouvelle exploration (en cliquant sur les 3 petits points à côté du fichier).

Si à ce moment là, vous recevez une erreur 403, il est temps de s’inquiéter.

Erreur 403 lors d'une demande d'exploration du fichier robots.txt dans la Google Search Console.

C’est de l’aveu même des représentants de Google l’une des erreurs les plus problématiques que le moteur peut renvoyer, indiquant que la communication avec votre site est bouchée.

La source

Si une 403 est établie, cela veut dire que d’une manière ou d’une autre, votre serveur ne permet pas à Google d’explorer le site.

Afin de comprendre pourquoi, voici une liste de causes fréquentes :

  • L’un de vos systèmes de protection bloque les adresses IP de Google
  • Votre CDN (comme Cloudflare) empêche l’accès
  • Votre hébergeur applique des filtres à certaines requêtes entrantes

Pour connaître les détails, rendez-vous dans les logs, cherchez les adresses de vos sitemaps et fichier robots.txt puis observez les infos. Envoyez-les ensuite à l’équipe technique dédiée à ces questions afin qu’ils poursuivent l’investigation de leur côté.

Ce type de problèmes laissé en suspens peut faire très mal à votre trafic et doit être traité en priorité.

Laisser un commentaire/Leave A Comment

S’abonner à la newsletter

Inscrivez-vous à la newsletter du Copain Référenceur et recevez tous les lundis les dernières actualités Tech SEO ainsi que des conseils pratiques pour optimiser et monétiser votre site web :