Retour au blog

Pourquoi ma page ne s’indexe t-elle pas ?

Créer un site internet est de plus en plus facile au fil des années. Cependant qui dit site internet dit également pages web et là, le défi se corse. En effet, créer une page web ne signifie par pour autant qu’elle soit indexée sur la toile. Nous allons découvrir ensemble comment créer une page web optimisée en SEO et décider ou non de l’indexer dans les SERP des moteurs de recherche.

Les différents cas de figure

Il existe deux types de statuts pour les pages web :

  • Indexée : signifie que la page web est trouvable dans les SERP du moteur de recherche (par exemple https://www.monsite.fr considérée comme page d’accueil est accessible avec le lien bleu des résultats de recherche)
  • Non-indexée : signifie que la page web est introuvable dans les SERP du moteur de recherche (par exemple https://www.monsite.fr/produits/chemise considérée comme page produit n’apparaît pas comme lien bleu dans les résultats de recherche)

Pour qu’une page soit indexée dans les SERP plusieurs éléments sont à prendre en considération. En effet, ce n’est pas parce-que les robots d’indexation (GoogleBot, BingBot pour les plus connus) vont trouver votre page web qu’ils vont la référencer dans les SERP.

Voici une liste non-exhaustive des différentes raisons à cela :

1 : Votre page web ne contient pas ou trop peu de contenu pertinent

Comme vu dans notre article sur les Quality Raters (https://www.ki-noz.com/actualites-seo-mois-octobre-2021/) il est indispensable d’optimiser sa page en fonction des intentions de recherche des internautes. En effet, la règle d’or stipule que chaque page doit répondre à une question en particulier. Si l’objectif est de mettre en avant un produit comme par exemple une planche à voile, il faudra alors créer une page dédiée comprenant des photos du produits avec des balises alternatives détaillées, du texte unique et de qualité présentant le produit avec suffisamment d’éléments pour être identifiée par le moteur de recherche comme pertinente, des articles produit en suggestion comme par exemple des kits de réparation ou d’entretien, un call to action visible et la possibilité de payer en ligne de manière sécurisée. Si en revanche l’objectif est de parler des activités autour de la planche à voile et de ce sport en général, l’intention de recherche ne sera pas la même et par conséquent le contenu sera différent. Vouloir acheter une planche à voile et souhaiter se renseigner sur ce sport n’est pas la même chose. Maximiser ses chances d’être indexé repose donc sur la quantité et la qualité du contenu. Pour rappel voici comment optimiser une page web en SEO (mettre le lien de l’article de Logan pour les détails type titre H1, meta-description, mots-clés, netlinking et autre…)

2 : Il y a trop de similarités dans vos contenus

Vous avez trouvé un super template sur WordPress et vous vous empressez de dupliquer 30 fois la même page en changeant uniquement quelques mots dans les titres et dans le contenu en pensant que vous avez trouvé la recette magique : grosse erreur ! Les robots d’indexation, en crawlant (analysant) vos pages vont émettre un diagnostic appelé « near duplicate content » à traduire par « contenu quasi-dupliqué » ayant un impact négatif dans le référencement naturel de vos pages web. En effet, Google (pour prendre ce moteur en exemple) met en avant le besoin de pertinence des contenus en fonction des intentions de recherche des internautes dans un soucis de qualité continue. Sur un thème précis, Google choisira la page web qui dispose du meilleur contenu avec les meilleurs retour (plus votre page web est unique, partagée et identifiée comme source potentiellement importante, plus celle-ci sera mis en avant dans les SERP). Il faut donc réaliser des pages web unique à forte valeur ajoutée et ne répondant qu’à une seule question

3 : Vous n’avez pas maillé votre pages web

Votre site web est composé d’une multitude de pages différentes nécessitant d’être plus ou moins mises en avant en fonction de leur contenu. Un produit, un service, une information importante ou une promotion doit être mis en avant contrairement aux CGV ou à la page de paiement. Pour cela, il faut user d’une stratégie de maillage interne qui consiste à mettre des liens entre les pages afin de faire comprendre au moteur de recherche qu’elles sont importantes. Prenons un exemple simple : vous disposez sur votre site d’une URL se déroulant de la manière suivante « https://www.monsite.fr/categorie/chemise/homme/blackfriday/ ». Afin de rendre votre page accessible et augmenter les chances d’être indexé dans les SERP, vous devez créer du contenu pertinent en premier lieu. Vous devez ensuite mettre des balises d’encrage sur chaque page menant à la suivante ou à la précédente. La page « blackfriday » doit donc être maillée sur la page « homme » et la page « chemise » à travers des liens ascendants et descendants permettant d’accéder à cette page en permanence. Dans l’idéal on créée une page « blackfriday » accessible directement depuis la page d’accueil afin de générer plus de trafic et donc optimiser les chances d’être indexé rapidement en profitant de la notoriété de l’ensemble de ces pages. On ajoute également l’URL de la page dans le sitemap.xml et des liens vers des pages proches comme « chemise femme » afin de consolider le trafic vers la page de destination

4 : Vous n’avez pas créé de fichier sitemap.xml

Le sitemap.xml est un fichier d’aide à l’exploration des URL indexables que l’on souhaite voir indexées sur son site. Sans ce fichier, les moteurs de recherche finiront par explorer vos pages dans le temps sans garantie de résultats car peu optimisé pour l’indexation. Ce fichier doit être positionné sur une plateforme dédiée au SEO comme Google Search Console ou Bing Webmaster Tool. Réaliser de manière méthodique ce fichier vous permettra de gagner beaucoup de temps en facilitant le crawl des robots d’indexation. Les robots d’indexation disposent d’un temps de crawl spécifique c’est pourquoi il est très important de les « aider » via ce type d’outil afin d’être indexé le plus rapidement possible

5 : Vous avez créé un fichier robots.txt trop restrictif

Le fichier robot.txt renseigne les URL et les paramètres à ne pas crawler contrairement au sitemap.xml (comprendre ne pas analyser) par les robots d’indexation. Il s’agit en général d’éléments non-pertinents pour l’utilisateur comme les pages liées aux CGV, certaines images, les moyens de paiement, le panier d’achat, les contenus dupliqués etc (mettre article cf Logan). Comme vu précédemment, les robots d’indexation disposent d’un budget crawl définis par les moteurs de recherche et ce pour deux raisons : ne pas surcharger les serveurs et ralentir les sites web (quand ils sont conséquents) et ne pas indexer de pages et liens inutiles nocifs pour le SEO. Le fichier robots.txt doit indiquer le sitemap.xml car c’est le premier élément que les robots d’indexation lieront. Enfin vous pouvez taper /robots.txt à la fin d’une URL afin de savoir si la page web est concernée par le fichier

6 : Vous utilisez encore un Minitel

Grand nostalgique des années 80 vous avez décidé de rester sur l’ancien réseau Transpac et votre navigateur est internet explorer. Sachez qu’il est impossible de développer votre site web sur cette plateforme cependant vous pouvez mettre votre Minitel dans votre musée personnel des vieux objets électroniques à côté de votre bipeur Tatoo

Blague à part il faut bien comprendre qu’un site web ne s’improvise pas. Votre site web peut être en ligne et vous pouvez accéder à l’ensemble de ses pages en interne (comprendre les voir sur le moteur de recherche) sans être pour autant indexé dans les SERP. Voici une petite astuce pour voir combien de vos pages sont indexées :
tapez « site:www.adressedevotrresite.extension(fr, com, bzh…) » et voyez ce qui se passe sur le moteur de recherche. Vous saurez si la page que vous souhaitez voir indexée est… indexée

Les différents codes http empêchant l’indexation d’une page

Vous pouvez faire un diagnostic vous permettant de mettre en avant les pages posant problème via des outils d’analyse d’URL comme ScreamingFrog. Vous trouverez par exemple :

Code 404 « Non répertorié » : la source demandée n’existe plus. La requête client ne peut pas aboutir car l’URL de destination n’est pas la bonne (on utilise alors des redirections)

Code 503 « Service indisponible » : vous avez un problème avec la disponibilité de votre serveur et par conséquent de votre page de destination

Code 0 « Délais d’expiration » : la page ne peut pas s’afficher en raison d’un blocage comme avec un pare-feu par exemple

L’objectif est d’avoir l’ensemble de ses pages de son site en code 200 et d’utiliser des redirections si besoin en fonction de l’évolution de son site web (refonte, changement de nom de domaine etc.). Si vous remarquez des erreurs n’hésitez pas à prendre contact avec notre équipe de professionnels.

L’analyse d’une URL avec Google Search Console

Il existe trois grands cas de figure pour comprendre le statut actuel d’une URL et de la page web concernée. En effet, une URL indexable ne signifie pas indexée pour les 4 raisons vues préalablement.

1 : Bloquée par le fichier robots.txt

Le fichier robots.txt n’a pas été correctement réalisé. Une page ou l’ensemble de vos pages est toujours en « noindex » et il est donc impossible pour les GoogleBot d’explorer et d’indexer vos pages

2 : Explorée, actuellement non indexée

La page web à été explorée par les GoogleBot cependant elle n’est pas encore indexée en raison, principalement, du manque de pertinence du contenu. Il est très important de construire ses pages correctement comme vu précédemment

3 : Détectée, actuellement non indexée

Les GoogleBot ont bien trouvé votre page cependant ils ne l’ont pas encore explorée. Ce genre de problème arrive souvent sur les sites générant peu de trafic ou ayant des problèmes liés à leurs serveurs

Pour plus d’informations vous pouvez vous rendre sur le support d’aide dédiée à Google Search Console (https://support.google.com/webmasters/answer/9128668?hl=fr)

Conclusion :

Comme nous avons pu le constater, une page web doit être construite méthodiquement sous peine de ne pas être indexée dans les SERP. Il ne faut donc rien laisser au hasard :

  • Contenu de qualité
  • Contenu en quantité suffisante et pas de duplicate content
  • Réaliser le fichier sitemap.xml
  • Réaliser le fichier robots.txt
  • Mailler vos pas en interne
  • Optimiser ses URL
  • Penser SEO et servir d’outils spécifiques

L’équipe Ki-Noz vous propose de solutionner l’ensemble de vos problématiques liées à l’optimisation de vos pages afin de vous placer idéalement dans les SERP de Mountain View et des autres !