matt cutts

Matt Cutts explique dans une vidéo qu'il est difficile de savoir si un site a hérité d'une pénalité algorithmique de la part du moteur. Pourtant, ne serait-il pas plus simple de fournir aux webmasters des outils professionnels pour travailler dans le bon sens ?...

Matt Cutts vient de mettre en ligne une nouvelle vidéo (4'23", tee-shirt noir "spam report"), répondant à la question How can I tell if my site is affected by a particular algorithm? ou, en français, "Comment savoir si mon site est pénalisé par tel ou tel algorithme ?".

Matt Cutts, hélas, noie le poisson et ne répond pas vraiment à la question. Il indique que c'est "délicat", qu'il faut vérifier dans les Webmaster Tools s'il ne s'agit pas d'une action manuelle ou d'un problème d'indexation par les robots de Google. Si ce n'est pas le cas, il explique que les dates de lancement des filtres comme Panda et Penguin sont annoncées via des tweets et qu'on peut comparer la date d'une chute de trafic éventuelle avec le moment correspondant au lancement de ces filtres. bref, du travail d'amateur qui ne peut pas satisfaire un SEO un tant soit peu professionnel. Sont-ce là les critères de qualité qui régissent les travaux des ingénieurs chez Google ? On a du mal à le croire...

La réalité est pourtant que, pour ce qui est des pénalités (actions) manuelles, les procédures sont aujourd'hui balisées : message dans les Webmaster Tools, exemples de liens factices fournis (si le problème vient de là), possibilité de demande de reconsidération du site, réponse de Google suite à cette demande, etc. Sur ce point, on sait où l'on va. Ce n'est pas toujours très simple, mais il y a un chemin qui est tracé et on peut le suivre...

Il n'en est pas du tout de même des pénalités algorithmiques (Panda, Penguin et bien d'autres) pour lesquelles c'est la plus complète bouteille à l'encre. L'opacité est totale à ce niveau de la part de Google, et on peut estimer que ce n'est pas normal, d'autant plus que, dans ce cas, de nombreux sites innocents sont parfois frappés par ce type de pénalité (les algorithmes ne sont pas infaillibles). S'il y a une rubrique "Actions manuelles" dans les Google Webmaster Tools, pourquoi n'existerait-il pas son pendant pour les pénalités algorithmiques ? Au moins, on saurait vraiment si le site est pénalisé et cela cesserait de nourrir des suppositions et des fantasmes ("j'ai perdu 3 places ! Mon site est pénalisé !"). Est-ce vraiment si compliqué ? Mais peut-être que Google veut créer une "machine à fantasme" collant à sa stratégie de FUD ? Allez savoir... Qu'il n'y ait pas de demande de reconsidération auprès d'une personne de la Search Quality Team, on peut bien le comprendre puisque tout est automatisé ici. Mais on pourrait demander à ce que l'algorithme qui a pénalisé le site soit "relancé", d'une façon ou d'une autre, une fois qu'on a corrigé d'éventuels problèmes ? Est-ce trop demander ?

Au lieu de ça, on se retrouve avec des sites innocents qui ne savent pas quoi faire pour supprimer une pénalité injuste. Ou des sites pénalisés par Penguin, ayant corrigé leur liens toxiques et étant obligés d'attendre pendant des mois un nouveau lancement du filtre pour que les choses reviennent (si tout va bien) à la normale.

Il suffirait à Google de faire pour les pénalités algorithmiques la même chose que ce qu'il a fait pour les actions manuelles, mais, pour rester logique dans sa démarche, de façon automatisée : un message dans les Webmaster Tools lorsqu'une pénalité est appliquée et une possibilité de "relancer la machine" pour vérifier que tout est OK. Il pourrait y avoir des "garde-fous" mais au moins, on saurait où aller, comme pour les actions manuelles. Pourquoi ne le fait-il pas ?

Alors, espérons que Google nous entende et nous donne en 2014 les outils pour travailler de façon efficace et professionnelle, pour un Web de meilleure qualité. N'est-ce pas ce qu'il désire ? 😉

Source de l'image : Google