Empêcher l'exploration de certaines URLs par Google

mceclip0.png

 

Il peut arriver que certaines URLs de votre boutique ne nécessitent pas d'exploration de Google, car leur contenu n'est pas forcément pertinent pour votre référencement. Pour empêcher Google d'explorer certaines pages, vous pourrez modifier votre fichier robots.txt depuis la rubrique Configuration (roue crantée) > SEO robots.txt.

Qu'est-ce que le fichier robots.txt ?

Le fichier robots.txt indique aux robots d'exploration d'un moteur de recherche les URL auxquelles il peut accéder sur votre boutique. Il est situé à la racine de votre site. 👉 Retrouvez l'aide Google détaillée à ce sujet.

Comment empêcher l'exploration de vos URLs ?

Pour modifier votre fichier robots.txt depuis la rubrique Configuration (roue crantée) > SEO robots.txt, sélectionnez le mode manuel de création :

 

 

Voici ce qu'il faudra ajouter dans votre fichier : 

User-agent: *
Disallow: */d/
Disallow: */f/
Disallow: /URL

La dernière ligne "Disallow: /URL" correspond à l'URL dont vous souhaitez empêcher l'exploration. Il faudra donc remplacer "/URL" par l'URL de la page concernée, sans sa racine (nom de domaine). Exemple ci-dessous avec une fiche produit :

 


L'URL complète du produit est la suivante :
https://www.lovely-ears.fr/les-vintages/boucles-d-oreilles-a-pompons-et-franges.html

La partie de l'URL à renseigner dans Disallow sera: /les-vintages/boucles-d-oreilles-a-pompons-et-franges. Pour désindexer cette URL, il faudra donc ajouter dans le fichier robots.txt : 

User-agent: *
Disallow: */d/
Disallow: */f/
Disallow: /les-vintages/boucles-d-oreilles-a-pompons-et-franges


💡 Si vous souhaitez désindexer plusieurs URLs, il faudra simplement ajouter de nouvelles lignes de vos URLs à désindexer, à votre fichier Robots.txt.

User-agent: *
Disallow: */d/
Disallow: */f/
Disallow: /URL
Disallow: /URL
Disallow: /URL
Disallow: /URL


💬 N’hésitez pas à contacter vos Business Coachs si vous avez des questions !