5 raisons pour lesquelles vos pages indexées par Google sont en baisse - Arobasenet.com




5 raisons pour lesquelles vos pages indexées par Google sont en baisse

Il est essentiel de faire indexer vos pages Web par Google (et d'autres moteurs de recherche). Les pages qui ne sont pas indexées ne peuvent pas être classées dans les résultats de recherche. Ce qui en

5 raisons pour lesquelles vos pages indexées par Google sont en baisse




Mais, il arrive que votre nombre de pages précédemment indexées soient tout d’un coup en baisse. Ce qui entraîne inéluctablement une chute brutale du trafic organique.

Alors, comment voir que le nombre de pages que vous avez indexées ? Vous pouvez :

  1. Utiliser l’opérateur “site:”
    • Insérez site: devant un site ou un nom de domaine


  2. Vérifier l'état des soumissions de votre fichier Sitemap XML dans la section “Sitemaps” de Google Search Console.
    • Vous y découvrirez le nombre total de pages connues de Google, ainsi que les pages envoyées par vous. Les pages bloquées par des robots ou supprimées ne sont en principe pas affichées dans la valeur totale indexée.


  3. Vérifier votre état global d'indexation : la vue d'ensemble de votre couverture.

Chacun des éléments ci-dessus donnera des chiffres différents, mais pourquoi ils sont différents est une autre histoire.

Pour l'instant, nous allons juste parler d'analyser une diminution du nombre de pages indexées signalées par Google.

Si vos pages ne sont pas indexées, cela pourrait être un signe que Google peut ne pas aimer votre page ou ne pas être en mesure de l'explorer facilement. Par conséquent, si votre nombre de pages indexées commence à diminuer, cela pourrait être dû à l'un ou l'autre de ces cas :

  • Vous avez été impacté par une pénalité Google.

  • Google pense que vos pages ne sont pas pertinentes.

  • Google ne peut pas explorer vos pages.

Voici quelques conseils sur la façon de diagnostiquer et de résoudre le problème de la diminution du nombre de pages indexées.


1. Les Pages se chargent-elles correctement ?


Assurez-vous qu'elles ont le bon code d'état d'en-tête HTTP 200.

Le serveur a-t-il connu des temps d'arrêt fréquents ou longs ? Le nom de domaine a-t-il récemment expiré et a-t-il été renouvelé tardivement ?

Élément d'action


Vous pouvez utiliser un outil de vérification gratuit de l'état d'en-tête HTTP pour déterminer si l'état approprié est là.

Pour les gros sites, les outils d'exploration typiques tels que Xenu, DeepCrawl, Screaming Frog ou Botify peuvent les tester.

Le code d'état HTTP d'en-tête correct est 200. Parfois, certaines erreurs 3xx (sauf le 301), 4xx, ou 5xx peuvent apparaître. Aucune de ces nouvelles ne sont de bonnes nouvelles pour les URL que vous voulez indexer.


2. Vos URL ont-elles changées récemment ?


Parfois, un changement dans le CMS, la programmation backend, ou le paramètre de serveur qui entraîne un changement dans le domaine, sous-domaine, ou dossier peut par conséquent modifier les URL d'un site.

Les moteurs de recherche peuvent se souvenir des anciennes URL, mais, si elles ne sont pas redirigées correctement, beaucoup de pages peuvent être désindexées.

Élément d'action


Espérons qu'une copie de l'ancien site peut encore être visité d'une manière ou d'une autre pour prendre note de toutes les anciennes URL afin que vous puissiez cartographier les redirections 301 vers les nouvelles URL correspondantes.


3. Avez-vous résolu des problèmes de contenu dupliqué ?


La correction du contenu en double implique souvent la mise en œuvre de balises canoniques, de redirections 301, de balises meta noindex ou disallow dans le fichier robots.txt.

Tout cela peut entraîner une diminution des URL indexées. Il s'agit d'un exemple où la diminution des pages indexées peut être une bonne chose.

Élément d'action


Puisque c'est bon pour votre site, la seule chose que vous devez faire est de vérifier que c'est certainement la cause de la diminution des pages indexées et pas autre chose.


4. Est-ce que les délais de chargement de vos pages sont longs ?


Certains serveurs ont des restrictions de bande passante en raison du coût associé qui vient avec. Notamment sur les serveurs mutualisés. Ces serveurs peuvent avoir besoin d'être mis à niveau.

Parfois, le problème est lié au matériel et peut être résolu en améliorant votre traitement matériel ou limitation de mémoire.

Certains sites bloquent les adresses IP lorsque les visiteurs accèdent à trop de pages à un certain rythme. Ce paramètre est un moyen strict d'éviter toute tentative de piratage DDOS, mais cela peut également avoir un impact négatif sur votre site.

Typiquement, cela est surveillé au deuxième réglage d'une page et si le seuil est trop bas, les robots du moteur de recherche normal explorant votre site peuvent atteindre le seuil et ne peuvent alors pas explorer le site correctement.

Élément d'action


S'il s'agit d'une limitation de la bande passante du serveur, alors il pourrait être un moment approprié pour mettre à niveau (upgrader) les services.

S'il s'agit d'un problème de traitement de serveur ou mémoire, en dehors de la mise à niveau du matériel, vérifiez si vous avez tout type de technologie de mise en cache serveur en place, cela donnera moins de pression sur le serveur.

Si un logiciel anti-DDOS est en place, essayez soit d'assouplir les paramètres de blocage ou ajoutez Googlebot à la liste blanche pour qu'il ne soit pas bloqué à tout moment. Méfiez-vous cependant, il y a quelques faux googlebots qui existent aussi.

Assurez-vous de détecter Googlebot correctement.

Détecter Bingbot a une procédure similaire.


5. Les robots des moteurs de recherche voient-ils votre site différemment ?


Parfois, ce que les robots des moteurs de recherche voient est différent de ce que nous voyons. Certains développeurs construisent des sites d'une manière préférée sans connaître les implications SEO.

De temps en temps, un CMS préféré sera utilisé sans vérifier s'il est optimisé pour les moteurs de recherche. Parfois, il pourrait avoir été fait exprès par un SEO qui tente de dissimuler du contenu (cloaking), pour essayer de duper les moteurs de recherche.

Parfois, le site a été compromis par les pirates, qui provoquent une page différente d'être montrée à Google pour promouvoir leurs liens cachés ou masquer les redirections 301 vers leur propre site.

La pire situation serait les pages qui sont infectées par un certain type de malware au point que Google désindexe automatiquement les pages immédiatement une fois détectées.

Élément d'action


L'utilisation de la fonction “Explorer comme Google”  est la meilleure façon de voir si Googlebot voit le même contenu que vous.

Vous pouvez également essayer de traduire la page dans Google Translate même si vous n'avez pas l'intention de traduire dans la langue ou vérifier la page "Cache de Google", mais il y a aussi des moyens autour de ceux-ci pour toujours masquer le contenu derrière eux.


Une diminution des pages indexées n'est pas toujours mauvaise


La plupart du temps, une diminution des pages indexées peut signifier une mauvaise chose, mais un correctif pour contenu dupliqué, contenu non-pertinent, ou contenu de mauvaise qualité pourrait également entraîner une diminution du nombre de pages indexées, ce qui est une bonne chose.

Essayez d'évaluer votre site en examinant les 5 raisons possibles pour lesquelles le nombre de vos pages indexées est en diminution.

Source

Aucun commentaire

Remarque : Seul un membre de ce blog est autorisé à enregistrer un commentaire.