Jusqu'à maintenant, les robots (spiders) des moteurs de recherche avaient le plus grand mal, de façon assez compréhensible, à remplir des formulaires de recherche pour aller rechercher des pages web sur un site donné. Exemple-type : une site immobilier sur lequel, pour consulter les fiches de vente ou location, il faudrait choisir une région, un budget, un type de bien, etc. Les robots des spiders ne savent pas exécuter ce type de fonction de façon "intelligente" et ces possibilités d'exploration représentaient jusqu'à maintenant un blocage pour eux.

Cependant, Google vient d'indiquer sur son blog qu'il faisait actuellement des expérimentations pour tenter d'accéder à des pages web en remplissant" "le plus intelligemment possible" les formulaires de saisie rencontrés sur certains sites. Pour les champs de texte, il tente de trouver des termes pertinents dans le contenu de la page. Pour les autres type de champ (bouton radio, menu déroulant, etc.), il opte pour les différents choix proposés dans le code HTML. Google indique sur son blog que seul un petit nombre de sites "de grande qualité" font l'objet de ce traitement, sans toutefois les nommer...

brevet Microsoft anchor text
Source : Abondance

http://www.google.fr/support/webmasters/bin/topic.py?topic=8843

Source :
Crawling through HTML forms (Google)

Articles connexes sur ce site :

- Google teste la directive "Noindex" dans les fichiers robots.txt (26 novembre 2007)

Toutes les pages du réseau Abondance pour la requête spider...