Vous pouvez désindexer votre ou vos url(s) en modifiant votre fichier Robots.txt directement depuis la rubrique : Configuration (roue crantée) > SEO > robot.txt

Pourquoi désindexer des Urls de votre site ?

Faire disparaître une page de votre site web des résultats de Google peut être essentiel pour éviter des erreurs 404, pour ne pas afficher des pages qui n’ont pas d’intérêt ou encore, pour ne pas référencer une page avec un contenu trop proche d’une autre de vos pages, qui serait considéré comme étant du contenu dupliqué. 

Qu'est-ce qu'un fichier Robots.txt ?

Le fichier Robots.txt permet à Google de savoir quelle page de votre site référencer ou non.

👉 Retrouvez une aide Google à ce sujet.


Comment désindexer vos URLs ?

Vous devez ici sélectionner le mode manuel de création :

Voici ce qu'il faudra ajouter : 

User-agent: *
Disallow: */d/
Disallow: */f/
Disallow: /URL

La dernière ligne "Disallow: /URL" correspond à l'url que vous souhaitez désindexer. 

Il faudra à la place de /URL mettre l'URL que vous souhaitez désindexer.
Vous récupérez le lien et vous ajoutez la partie du lien après le nom de domaine.

Prenons pour exemple, ce produit :


L'URL complète du produit est :
https://www.lovely-ears.fr/les-vintages/boucles-d-oreilles-a-pompons-et-franges.html

La partie de l'URL à renseigner dans Disallow est : /les-vintages/boucles-d-oreilles-a-pompons-et-franges

Pour désindexer cette URL, il faudra donc ajouter dans le robots.txt : 

User-agent: *
Disallow: */d/
Disallow: */f/
Disallow: /les-vintages/boucles-d-oreilles-a-pompons-et-franges


💡 Si vous souhaitez désindexer plusieurs URLs, il faudra simplement ajouter de nouvelles lignes de vos URLs à désindexer, à votre fichier Robots.txt.

User-agent: *
Disallow: */d/
Disallow: */f/
Disallow: /URL
Disallow: /URL
Disallow: /URL
Disallow: /URL


Dernière mise à jour le  : 08/04/2020

Avez-vous trouvé votre réponse?