Chute brutale de trafic : Comment réagir techniquement (et remonter la pente) ?
Hantise de la plupart des référenceurs, la chute soudaine de trafic organique donne des sueurs froides. Si beaucoup savent comment réagir au niveau du contenu, plus rares sont ceux qui connaissent les réflexes techniques. Voici quelques étapes cruciales :
Procédure habituelle ?
La Search Console et Google Analytics/Looker/Matomo indique un plongeon vertigineux de votre trafic et les conversions suivent… Au secours ! On respire, on garde son calme.
Avant de plonger dans la technique pure, voyons une liste des points à étudier en premier :
- Est-ce qu’il y a un problème de tracking ? C’est à dire est-ce que le trafic est proprement listé dans votre outil GA ou autre ? Ça arrive beaucoup plus souvent qu’on ne le croit.
- Est-ce que toutes les pages ont été impactées ou juste quelques-unes ?
- S’il impacte un nombre de pages limité, quels ont été les changements effectués dessus ?
- Si l’impact concerne toutes les pages, est-ce que le trafic est tombé à 0 du jour au lendemain ou est-ce simplement réduit ?
- Est-ce que le robots.txt permet le crawl de toutes les pages importantes ?
- Est-ce que des balises noindex se sont glissées par inadvertance sur les pages ?
- Est-ce que le domaine et le serveur répondent normalement ?
- Et le clou du spectacle : est-ce que la date de la chute coïncide avec une mise à jour d’algorithme ?
Il s’agit là de vérifications d’usage à faire peu importe le type de problème soupçonné.
C’est la mise à jour de Google !
Autre procédure de contrôle standard, déterminer si l’on a été frappé par une maj d’algorithme. Elles sont fréquentes et si la première liste n’a rien donné, alors c’est un choix éduqué que d’anticiper des facéties de la part de Google. Il devient naturel de se poser les bonnes questions :
- Est-ce que votre site a perdu des positions en rapport avec des requêtes importantes ?
- Est-ce que les pages qui ont baissé sont adaptées aux requêtes et aux besoins de l’utilisateur à ce stade de son processus de recherche ?
- Ces pages sont-elles optimisées d’un point de vue technique et du contenu pour répondre aux besoins des requêtes ? Offrent-elles une qualité supérieure, une réponse plus complète que celles des concurrents ?
Disons que tous ces points ont été vérifiés et que l’on soupçonne la qualité technique du site d’être responsable.
Au coeur du problème technique en SEO
Le côté technique du SEO réserve de belles surprises, car les problèmes peuvent s’y accumuler silencieusement jusqu’au jour où, patatra, tout saute.
En dehors des blocages standards type noindex ou disallow, les principaux points techniques qui peuvent induire une chute brutale sont par exemple :
- Une baisse des scores de signaux Web essentiels (Core Web Vitals) et une vitesse de chargement moins bonne (agissant principalement comme différentiateurs avec la compétition et récemment bien récompensés par Google lorsque des avancées sont de mise)
- La création d’une foule de pages dupliquées, principalement via des paramètres d’url (?param=1¶m=2) qui impacte le budget de crawl et l’architecture même du site
La réaction à adopter est la suivante :
- Se plonger dans Indexation > Pages de la Google Search Console et regarder les erreurs, principalement « Explorée, actuellement non indéxée » et erreurs serveur.
- Toujours dans la GSC, se rendre dans Paramètres > Statistiques sur l’exploration et regarder les réponses. Si un nombre anormal d’erreurs est mentionné (comme des erreurs de DNS par exemple), bingo.
- Encore dans la GSC, se rendre dans Core Web Vitals et observer si un changement du vert vers le rouge s’est effectué brutalement, et diagnostiquer pourquoi sur les pages mentionnées.
Est-ce qu’un nouvel élément bouge et crée des problèmes de CLS ? Est-ce que toutes les images en unes ont été remplacées par une version très nette mais très lourde, impactant le LCP ? - Vérifications de tous les scripts tiers qui chargent sur la page via l’onglet Performance de Chrome Dev Tools, et observer les anomalies.
Une fois les scripts et fichiers CSS suspects identifiés, demandez aux différentes parties s’ils ont une idée de leur présence et retirez ceux qui n’ont pas de fonction cruciale (par exemple, un script TikTok Analytics n’est de manière générale pas nécessaire en soi, c’est un luxe). - Se rendre dans Chrome Dev Tools > Performance Insights et ralentir réseaux et CPU pour mimer des appareils moins performants.
Est-ce que c’est un problème qui toucherait plus une certaine catégorie de visiteurs, à faible connexion ?
Une fois ces actes effectués, il y a de grandes chances de dénicher le coupable, si le problème vient bien de la technique. Bien sûr, des troubles plus subtils existent mais ils sont l’exception et pas la règle.
Peu importe son niveau, ces chutes sont inévitables pour X raisons (nous ne sommes pas les seuls à toucher au site, changement d’algorithme, oubli quelconque, négligence, etc…).
S’y préparer permettra d’en affaiblir les effets et de ménager son stress. Ne pas s’y préparer, c’est en payer le prix tôt ou tard.