> > Google ferait-il de l'aérophagie ?

Google ferait-il de l'aérophagie ?


Notez cet article

On le sait, Yahoo! a annoncé, au mois d'août dernier, un index de 20 milliards de documents, proposant ainsi sur le papier la plus grosse base de données de documents sur le web pour un moteur de recherche. Dans la foulée, fin septembre, Google enterrait la hache de guerre dans la bataille à "celui qui a le plus gros" et indiquait qu'il n'afficherait plus le nombre de pages indexées sur ses pages d'accueil.

Cette décision a été plutôt bien reçue par les observateurs des moteurs de recherche, car les annonces successives tournaient parfois au jeu de "celui qui fait pipi le plus loin". Bon, on y a tous joué à la récré étant gamin (enfin, surtout les garçons...), mais c'est vrai qu'on se lasse au bout d'un moment de ce type de jeux et qu'on passe rapidement à des choses plus constructives... Pour les outils de recherche, il est vite advenu que la pertinence était de façon évidente bien plus importante que la taille de l'index et que ce combat était vain à court terme. Pourquoi proposer des milliers de résultats si seuls une centaine sont vraiment pertinents ? Qui va, déjà, lire cette centaine de liens ?

Donc, d'un certain côté, la qualité a primé sur la quantité et le discours sur la taille du Web et des index des moteurs est en train de s'estomper. Ce n'est finalement pas une si mauvaise chose...

Sauf que... sans en parler, Google a de son côté grossi son index de façon très forte à la rentrée des classes 2005 (avec le retour des récrés ? 😉 ). Pour renvoyer plus de résultats, en quantité, que Yahoo! ? Peut-être. Mais il semblerait que cela se soit fait au détriment de la qualité... En effet, il semblerait que Google ait "fait le forcing" pour renforcer ses pages de résultats de liens affichés comme "Complémentaires". Exemple :

De plus en plus de ces pages se retrouvent dans les résultats du moteur de recherche. Il semblerait qu'elles soient là plutôt "pour faire le nombre" et ne semblent pas apporter une pertinence réellement supplémentaire. Il s'agit parfois de doublons de pages déjà présentes dans l'index "majeur" et très souvent de documents non crawlés (mis à jour par les robots du moteur) depuis des mois, voire des trimestres. Certains affichent une balise meta "robots noindex" et sont interdits de crawl par un fichier "robots.txt" depuis plus de 6 mois. Pourtant, ils sont encore là...

Pourquoi ces documents sont-ils affichés alors qu'ils n'apportent pas réellement de pertinence supplémentaire à l'internaute ? Nul ne le sait, car à part des considérations quantitatives, ils ne servent pas à grand chose. Finalement, la seule bonne nouvelle dans tout cela, c'est que ces résultats, Google "se les garde" et ne les fournit pas à ses sites affiliés. Des outils comme Free, Club-Internet, Numericable et Mozbot (seuls moteurs de recherche en France à afficher les résultats de Google dans le cadre d'un contrat de partenariat) ne proposent aucun lien issu des "résultats complémentaires" car Google ne les envoie pas dans ses "feeds" à ses partenaires. Peut-être s'agit-il d'un test de la part de Google et que ces liens pour la plupart inutiles vont disparaître bientôt, ce qui, sincèrement, ne serait pas un mal...

Commentaires : 6
  1. Anonymous 24 novembre 2005 at 10 h 46 min

    Tout à fait d'accord et j'ajoute que Google a supprimé ou déclassé des pages Googlement incorrectes en Aout et qu'il les a remis en circuit en Septembre. Quand il veut faire du chiffre, Google semble moins regardant coté "blackhat".
    Et entre nous, l'"éthique" (dont se prévaut le moteur et qqs moralistes en mal de combat social) est un ensemble de valeurs bien plus importantes que la bonne tenue ou l'usage marchand des résultats de recherche.
    La vraie vie est ailleurs. 😉
    Je signe
    Anonyme,
    mais pas sur que Blogger soit le bon endroit pour le rester vis à vis du "Grand Frere" cf 1984.

  2. marc 25 novembre 2005 at 0 h 31 min

    Merci pour vos écrits qui aident les débutants à comprendre le net

  3. editoweb magazine 26 novembre 2005 at 17 h 58 min

    Le site "Abondance " se trouve en page 2 de Google dans une rubrique qui indique 34 millions de references.
    Ce blog est lié à " Abondance".
    A noter: Google semble selon mon humble experience donner à son robot des instructions d'indexation prioritaires concernant les sites à fortes interactivité et à contenu remis à jour automatiquement.
    Il faut relier cette idée au projet MOZILLA et à son insistance à mettre en valeur les fils de syndications.
    Google ne fait pas de segregation mais du Marketing dont la politique s'inscrit bien dans le concept de consolider l'Internet en tant que la plus grande et la plus rapide plateforme d'echange et de partage de l'info.
    Dans ce sens, les enjeux financiers sont enormes!

  4. Christophe 28 novembre 2005 at 22 h 50 min

    Donc rien à voir avec les "supplemental results" d'août 2003 ? Le moteur expliquait alors : "Google augmente les résultats pour les requêtes complexes en cherchant au sein d'un index supplémentaire comportant plus de pages web"
    http://c.asselin.free.fr/french/aout03/google_supplemental.htm

  5. Anonymous 5 décembre 2005 at 10 h 06 min

    Je pense que ces résultats complémentaire sont une archive du Web, un peu au même titre que archive.org.

    Le but de Google pourrait être de conserver une copie de chaque page publiée sur la toile, pour en ressortir le contenu en cas de besoin.

    L'idée serait de se dire : "pourquoi une page pertinente est forcément une page en ligne ?". On pourrait donc imaginer Google sur certaine recherche très pointue par exemple, nous ressortir une page publiée en 2002. D'ailleurs pourquoi pas si aucune page plus pertinente n'a été publiée depuis ...

  6. editoweb-Mylinea 7 décembre 2005 at 10 h 24 min

    Pourtant si; Les resultats suplementaires qu'offrent Google sont un moyen de lier les infos et d'augmenter la pertinence du lien de depart,en tissant une toile entre les liens.
    Je sais ce n'est pas trés clair...
    Google est boulimique il dévore les infos et nous oblige à les partagerdans une dimention d'hypernomadisme des hommes et des idées.
    Ceci etant, il n'est pas exlu que le veritable objectif assigné à googlebot ne soit pas tout simplement de developper pour son "Maitre" le plus grand support publicitaire jamais imaginé.
    Le manque de performance de Advence avec son incidence immediate sur les nombreuses "impertinences" d'Adsense
    sont un handicap à surmonter.
    Merci christophe de m'aider à reflechir.
    Et bravo abondance pour ce Blog et cette formidable plateforme de partage.
    Merci de m'avoir lu
    Henri Vario
    EditoWeb Magazine

Un site du Réseau Abondance | Olivier Andrieu | Contact | Publicité sur le site