> > Google va modifier son algorithme pour éviter qu'un même site truste les résultats

Google va modifier son algorithme pour éviter qu'un même site truste les résultats


Notez cet article

matt cutts

Matt Cutts explique que l'algorithme du moteur de recherche va être prochainement modifié pour afficher moins de résultats issus d'un même site dans les SERP...

Matt Cutts a posté une nouvelle vidéo (4'47", tee-shirt noir "spam report"), répondant à la question Why does Google show multiple results from the same domain? ou, en français, "Pourquoi Google montre-t-il parfois plusieurs résultats d'un même site (i.e. même nom de domaine) dans ses SERP (pages de résultats) ?.

Matt Cutts explique qu'au début de Google, il n'y avait aucune restriction : un même site pouvait fournir de très nombreux résultats dans une même page. Puis, ceux-ci ont longtemps été "clusterisés" (système de "host clustering") et on ne pouvait alors voir que deux liens au maximum, émanant d'un même site dans une SERP.

La situation était alors meilleure et les résultats plus diversifiés, mais les webmasters ont alors "éclaté" leurs sites en différents sous-domaines, chacun étant considéré comme un site à part entière par le moteur. La situation s'est donc rapidement dégradée. Matt Cutts explique qu'aujourd'hui, un même site web peut afficher un ou deux liens dans la SERP, mais les liens suivants auront de plus en plus de difficultés à se positionner, pour laisser la place à d'autres sources d'informations. Mais, selon lui, si les meilleurs résultats, sans contestation possible, se trouvent sur une même site, il se peut que celui-ci truste de nombreuses positions dans la SERP.

Il annonce également une nouveauté qui devrait prochainement être mise en production sur le moteur à ce niveau : lorsque vous voyez, dans la SERP, un ensemble (par exemple 4 ou 5) de résultats issus d'un même site et que vous visualisez les pages de résultats suivantes, Google ne vous montrera plus de liens issus de ce même site. Le but est alors de proposer les meilleurs résultats possibles à l'internaute tout en garantissant une diversité de bonne qualité dans les sources d'information.

Matt Cutts termine la vidéo en demandant de lui envoyer, par mail, tweet ou toute autre voie, des exemples de page de résultats de mauvaise qualité car "truffées" de liens issus de sources uniques, afin d'améliorer le système.

Google a fait plusieurs communications de ce type par le passé, indiquant que la situation s'améliorerait à l'avenir. Beaucoup de ces tentatives n'ont hélas pas donné des résultats extraordinaires. Espérons que celle-ci sera plus efficace...


Source de l'image :Google

Commentaires : 26
  1. Hervé 20 mai 2013 at 18 h 40 min

    Il était temps parce que depuis l'ouverture de la ménagerie, les SERP sont devenus un joli bazar sur certaines requêtes.

  2. thibaut tualaweb 20 mai 2013 at 19 h 31 min

    J’attendais cette MAJ avec impatience face à ces gros qui abusent souvent des sous domaines.

  3. Olivier 20 mai 2013 at 20 h 11 min

    En gros ils vont faire un random sur les résultats...

  4. chemseddine 20 mai 2013 at 21 h 33 min

    Une très bonne initiative pour évité de tourouvé le même résultat je tombe toujours dans cette situation

  5. Jasmine 20 mai 2013 at 23 h 46 min

    Au lieu de causer, Matt Cutts ferait mieux de travailler.

    Il répète souvent les mêmes choses depuis des années et cela change à peine à travers le temps.

    Est-ce si compliqué de limiter le nombre de fois qu'un même site apparaît sur la première page ?? S'il a dix doigts, il devrait y arriver sans trop de problème !

  6. blondiau 21 mai 2013 at 6 h 13 min

    Oui c'est très bien ...
    Mais d'un autre côté, qu'en est-il du: " Chaque page est référencée individuellement"?
    Qu'est-ce que cela va donner pour les entreprises multi pôles?
    .... et si c'est efficace, Comment se faire rémunérer pour le référencement ?

  7. Thileq 21 mai 2013 at 6 h 49 min

    Cela pose un souci pour les sites chez free.fr.
    Le nom de domaine définit un site à part entière, indépendant des autres.
    Ce système va favoriser un site plutôt qu'un autre, et en occulter d'autres tout aussi pertinents...

  8. Kinito 21 mai 2013 at 9 h 11 min

    Je pense que c'est une bonne chose pour diversifier les résultats dans les Serps et laisser plus de chance au plus petit sur certaines requêtes concurrentielles... Puis Google se veut pertinent, alors mettre 7 urls d'un même domaine sur une requête ne va pas dans ce sens !
    Donc c'est une bonne MAJ 😉

  9. Simon Conan 21 mai 2013 at 9 h 34 min

    Sur le fond une amélioration positive ! Mais Google continue à semer une ambiance délétère au sein du monde du référencement. Outil de disavow, envoie "des exemples de page de résultats de mauvaise qualité car "truffées" de liens issus de sources uniques".
    Si, je me répète, sur le fond cette amélioration permettra une plus grande diversité des résultats et, a priori, une remontée de plus de sites, certains SEO vont se laisser tenter par le "collaboratisme" introduit par nos chers amis Googlers

  10. Fourmigue 21 mai 2013 at 13 h 12 min

    Tu le dis très bien à la fin de l'article, c'est pas la première tentative. A surveiller.

    Après c'est peut être un peu vicieux ce que je vais dire, mais c'est un excellent, nouveau, moyen trouvé par GG pour enlever de la visibilité aux "gros" pour en récupérer un peu 😉

  11. Olivier 21 mai 2013 at 13 h 17 min

    Une maj qui parait normale car afficher 3 fois le même site sur une requêtes n'est pas vraiment pertinent pour un moteur de recherche. Le max que j'ai vu c'est un site présent 5 fois en première page, adword, google map et 3 résultats..., ça limite la concurrence.

  12. Annuaire Français 21 mai 2013 at 13 h 23 min

    Google met le doigt sur les sous domaines ... ceux-ci sont rares a truster des pages.
    Si l'on compare le 188000 et Pgaes jaunes, le premier ayant des sous-domaines ne trust pas les résultats ou très rarement, a contrario de Pages jaunes qui démultiplie les techniques black hat reproché par Google.

    En effet, pages jaunes démultiplie les pages sans résultat, avec des réponses sur des villes voisines, passant de 8 millions a 1 milliard de pages .... rien que ca! Outre les redirections de plus de 2000 noms de domaines, les pages construites uniquement pour les moteurs et tout le reste en BL et réseaux sociaux, Google est bien complice avec PJ qui trust parfois 600 résultats sur 1000 ....

    Mais, selon MattC, si les meilleurs résultats, sans contestation possible, se trouvent sur une même site, il se peut que celui-ci truste de nombreuses positions dans la SERP.
    Et ce jour là ... les poules auront des dents ...
    Pour nous, pas de soucis, au besoin nous restructurerons une nouvelle fois .

  13. agence web 21 mai 2013 at 14 h 43 min

    Encore de l'effet d'annonce sur la pertinence du moteur et ces modifications perpétuelles pour une qualité maximale blablabla ... et pourtant, il suffit de regarder dans les serps pour trouver du blackhat en tête de liste et sur certaines longues traînes des sites qui trustent l'ensemble des résultats d'une page.

  14. Steve 21 mai 2013 at 15 h 42 min

    c'est très bien il va donc y avoir beaucoup de surprise car la recherche sera aussi unique

  15. Ranmaster 22 mai 2013 at 10 h 44 min

    C'est pas trop top... depuis le temps qu'ils nous le promettent. Enfin on va voir, ne nous excitons pas trop avant de voir les résultats.

  16. Annuaire Français 22 mai 2013 at 11 h 17 min

    Ce qui m'a titillé, c'est qu'il y a peu, Google a conseillé de passer en sous-domaine puis là, il déclare que c'est la faute de passer en sous-domaines, comme si l'on était des tricheurs.

    Hors, il y a quelques semaines, c'est vrai qu'en tapant "machine industrielle 94" on avait la liste avec 94 puis du 78 puis d'autres département, de sorte que les pages trustaient les 3:4 des résultats. Nous avons un linking pour les départements limitrophes afin d'aider l'internaute.

    C'est a Google de rectifier le tir (il semble que ce soit déjà fait) et vu que je n'ai pas une bonne interprétation de l'Anglais, je prends cela (les sous domaines) comme un reproche d'abus qui pourrais être sanctionné, ce qui n'est peut etre pas le cas ...? (c'est la parano de l'annuairiste aussi ...)

  17. Winsiders 22 mai 2013 at 13 h 05 min

    J'ai l'impression que je lis cette annonce tous les ans... avec la lutte contre le spam on page et le fait que faire des backlinks c'est pas bien...

  18. Andrea 22 mai 2013 at 23 h 15 min

    Le niveau de serpomètre était à 6 hier et de 7 aujourd'hui! On peut se demander si l'algo de diversification vient d'être lancé ou si on est en plein dans l'élaboration de pingouin 2.0

    Comment savoir, en tout cas ça bouge beaucoup et je trouve cet algo génial pour les petits sites qui se font marché dessus par les leaders qui bloquent les premières pages..

    C'est vraiment bien que Google réagisse aux commentaires des webmasters et décide donc de protéger "pour une fois" les petits sites.

    Ca fait penser aux lois qui protège les petits commerçants en empêchant les leaders de s'implanter dans n'importe quelle zone géographique.

    Bref, hate de voir ce que ca va donner dans les SERPs.

  19. Rankmaster 23 mai 2013 at 6 h 53 min

    ... J'ai l'impression que je lis cette annonce tous les ans... avec la lutte contre le spam on page et le fait que faire des backlinks c'est pas bien...

    +1

  20. externalisation fonction support 23 mai 2013 at 7 h 23 min

    Une maj qui parait normale car afficher 3 fois le même site sur une requêtes n'est pas vraiment pertinent pour un moteur de recherche. Le max que j'ai vu c'est un site présent 5 fois en première page, adword, google map et 3 résultats..., ça limite la concurrence.

  21. Ceinture 23 mai 2013 at 10 h 32 min

    Google nous fait souvent des annonces mais sans réelle résultats sur les SERP, je suis assez pessimiste quand à la mis en œuvre de cette mise à jour

  22. Plateforme rédacteur 23 mai 2013 at 22 h 09 min

    Il est très drôle de lire que le numéro 1 des moteurs de recherche pour la pertinence conseille aux webmasters qu'il ne se gêne pas de sanctionner selon son bon vouloir, de l'aider (avant il s'agissait seulement de spam report) dans la lutte contre ses propres failles.
    Google serait-il en bêta test ?

  23. CladX 23 mai 2013 at 22 h 28 min

    Mouarf... sur certaines requetes je vois toujours plusieurs ndd/sous ndd genre les over-blog (qui sont des sous dom) peuvent encore truster le truc ^^

  24. Yugi 24 mai 2013 at 0 h 03 min

    Merci pour la news, je pense que c'est une bonne chose car cela va faire du ménage dans les SERP enfin en théorie car en pratique on voit encore des sites dégueu truster encore la première page ( SERP domination ).

    Les MFA "propre" vont remonter je pense.

    Au plaisir.

  25. référencement 24 mai 2013 at 5 h 51 min

    Je trouve cette décision de google être une assez bonne idée. Pourquoi? par le simple raison qu'avec un seul site qui figure dans le moteur de recherche, les internautes iront alors vérifier les autres pages du site, donc y rester beaucoup plus longtemps. Mais à ce moment là, le site doit impérativement être de bonne qualité, contenu et visuel, et doit attirer l'attention.

  26. Greiche & Scaff l'examen de la vue au Canada 10 décembre 2013 at 1 h 44 min

    Encore une directive de google qui vise a reduire le travail des SEO... Bonne nouvelle pour celui qui recherche, mais pas dans notre camp ! 😛

Un site du Réseau Abondance | Olivier Andrieu | Contact | Publicité sur le site