> > Google veut pénaliser les sites trop optimisés. C'est pas déjà fait ?

Google veut pénaliser les sites trop optimisés. C'est pas déjà fait ?


Notez cet article

Matt Cutts

Etonnante déclaration de Matt Cutts lors d'un salon américain la semaine dernière : plusieurs personnes de son équipe travailleraient à une pénalité visant les sites sur-optimisés en SEO. Mais jusqu'à maintenant, sur quoi bossaient-ils alors ?...

Matt Cuttsa annoncé lors d'un salon américain que son équipe travaillait sur une pénalité qui pourrait frapper les sites "over-optimized ou "overly SEO’ed", soit en clair, trop fortement optimisés pour les moteurs de recherche. Plusieurs personnes de son équipe travailleraient depuis plusieurs mois sur ce projet actuellement pour pénaliser des sites qui emploieraient, par exemple, trop de mots clés dans les pages ou gagneraient plus de liens que "la normale".

Cette nouvelle pénalité entrerait en lice dans les prochaines semaines selon Matt Cutts, et en tout cas au cours de l'année 2012. Voici le transcript de ce qu'a dit le googler à cette occasion : "We try to make the GoogleBot smarter, try to make our relevance more adaptive, so that if people don't so SEO we handle that. And we are also looking at the people who abuse it, who put too many keywords on a page, exchange way too many links, or whatever else they are doing to go beyond what you normally expect. We have several engineers on my team working on this right now".

Cette annonce est assez surprenante car ce travail de détection n'est-il pas fait par Matt Cutts et l'équipe "Search Quality" depuis des années maintenant ? Et quelle pénalité pourrait-elle être plus forte qu'une black-list ou un déclassement ? La déclinaison des différentes pénalités possibles n'est-elle pas assez large actuellement ? Il est quand même étonnant d'entendre Matt Cutts dire : "nous travaillons à pénaliser les sites ur-optimisés pour les pénaliser et nous espérons y arriver dans quelques mois". Ben, depuis quelques années, ils faisaient quoi, alors, la Search Quality Team ??

En bonus, voici une vidéo, publiée en 2009, dans laquelle Matt Cutts parlait déjà de "sur-optimisation" de sites web pour les moteurs de recherche, ce qui montre bien que le sujet est dans l'actualité depuis longtemps déjà 🙂 :


Source de l'image : Google

Commentaires : 5
  1. Arobasenet 19 mars 2012 at 8 h 34 min

    Ce que Matt Cutts semble nous faire comprendre, c'est que les calculs algorithmiques ne peuvent pas à eux seuls éradiquer le webspamming.

    On se souvient encore de son appel assez récent aux webmasters alors que Google Panda était censé mettre fin, ou du moins, atténuer drastiquement la montée des sites de contenus de faible qualité sur les SERPs.

    D'où l'intérêt pour Google de la conjonction de Search Plus the world et la recherche sémantique...

  2. Keyword Office 19 mars 2012 at 10 h 29 min

    A mon humble avis, il ne s'agit que de communication. Car même si la search quality team travaillait déjà sur ces pratiques de sur-optimisation, je pense qu'ils ne le disaient pas assez. En tout cas, ils "n’effrayaient" pas assez ces sites. Il faut donc en reparler de temps en temps pour faire des piqûres de rappel.

  3. Libellule 19 mars 2012 at 21 h 31 min

    Effectivement de nombreux sites ont déjà subi des pénalités pour over-optimisation SEO ! Ce n'est donc pas nouveau, mais comme le dit Keyword Office, c'est un travail de communication.

    Depuis le filtre Panda, Google semble danser d'un pied sur l'autre sans vraiment savoir comment s'y prendre avec cette communauté de référenceurs / SEO. Par petites touches, la firme tente de restreindre leur champ d'action, mais pas techniquement car elle ne peut rivaliser avec des millions de SEO répartis sur toute la planète.

    Non, elle le fait commercialement, en cherchant à faire peur aux clients / éditeurs de sites eux-même. Parole de Libellule / Dragonfly 😉

  4. Anonymous 20 mars 2012 at 22 h 41 min

    Si c'est le cas je pense qu'il s'agit d'une bonne nouvelle, car souvent les résultats des recherches ne sont pas pertinents (les 1° sont ceux qui ont mis le plus d'argent dans le référencement alors que de petits sites de qualité supérieures sont loin).
    Puis en tant que développeur web, cette façon (hypocrite?) de rechercher a tout pris le bon format pour plaire au bots est pesant.

  5. anonymous 18 mai 2012 at 11 h 16 min

    il ne faut pas oublier que ce que veut protéger en premier google ... c'est les clics sur les liens sponsorisés adwords qui apparaissent en haut des page de recherche sur les mots clés qui rapportent !!

    il a laissé se développer pendant un premier temps les sites adsense ... mais en a t'il encore l'intention ?

    les repousser au fin fond du classement par ce biais ?

Un site du Réseau Abondance | Olivier Andrieu | Contact | Publicité sur le site