Ignorer les URL dans robot.txt avec des parameters spécifiques?

Je voudrais que Google ignore les URL comme ceci:

http://www.mydomain.com/new-printers?dir=asc&order=price&p=3

Toutes les URL qui ont les parameters dir, order et price doivent être ignorées mais je n’ai pas d’expérience avec Robots.txt.

Une idée?

Voici une solution si vous souhaitez interdire les chaînes de requête:

Disallow: /*?* 

ou si vous voulez être plus précis sur votre chaîne de requête:

 Disallow: /*?dir=*&order=*&p=* 

Vous pouvez également append au fichier robots.txt l’URL à autoriser

 Allow: /new-printer$ 

Le $ s’assurera que seule la /new-printer sera autorisée.

Plus d’informations:

http://code.google.com/web/controlcrawlindex/docs/robots_txt.html

http://sanzon.wordpress.com/2008/04/29/advanced-usage-of-robotstxt-w-queryssortingngs/

Vous pouvez bloquer ces parameters de chaîne de requête spécifiques avec les lignes suivantes

 Disallow: /*?*dir= Disallow: /*?*order= Disallow: /*?*p= 

Donc, si une URL contient dir= , order= ou p= n’importe où dans la chaîne de requête, elle sera bloquée.

Enregistrez votre site Web avec les outils Google WebMaster. Là, vous pouvez dire à Google comment gérer vos parameters.

Configuration du site -> Paramètres URL

Vous devriez avoir les pages qui contiennent ces parameters indiquent qu’ils devraient être exclus de l’indexation via la balise META robots. par exemple