Goossip : Annuaires, Negative SEO, Penguin, Crawl, Nouveaux Liens, Historique et Redirections 301

Quelques infos sur Google et son moteur de recherche, glanées ici et là de façon officieuse ces derniers jours, avec le poids des annuaires dans l'algorithme du moteur, Penguin, le negative SEO et l'augmentation de la fréquence de crawl sur un site, le délai de prise en compte d'un nouveau lien, l'Historique d'une page et d'un site dans l'algorithme et les nombreuses redirections 301 vers une page d'accueil. Grosse semaine...

Voici une petite compilation des informations fournies par les porte-paroles officiels de Google ces derniers jours sur différents réseaux informels (Twitter, Hangouts, Google+, forums, conférences, etc.). Donc "gossip" (rumeur) + Google = "Goosssip" 🙂 La communication du moteur de recherche étant parfois plus ou moins sujette à caution, nous indiquons, dans les lignes ci-dessous, le niveau de confiance (taux de fiabilité) que nous accordons à l'information fournie par Google (de 1 à 3 étoiles, 3 étoiles représentant le taux de confiance maximal) - et non pas à la source qui en parle.

SujetInformationTaux  de  fiabilitéSource
Annuaires John Mueller et Gary Illyes ont tous les deux indiqué sur Twitter que les annuaires n'étaient pas une bonne voie à suivre pour créer des liens de qualité. En même temps, difficile d'imaginer une autre vision de leur part au sujet de ces outils, il est vrai totalement inutilisé par les internautes à l'heure actuelle (et qui ne valent leur existence donc qu'au seul SEO en règle générale)...Search Engine Roundtable
Negative SEO Gary Illyes a indiqué sur Twitter qu'il n'avait jamais vu un exemple de negative sEO réussi et efficace. Selon lui, le filtre Penguin est totalement imperméable au negative SEO.Search Engine Roundtable.
Crawl et Penguin John Mueller a indiqué qu'une augmentation du crawl d'un site par les robots de Google n'étaient en rien le signe de la prise en compte du site par Penguin (ou Panda). Ces filtres algorithmiques (qu'ils soient ou pas en temps réel) n'affectent pas la fréquence et d'exploration d'un site par les robots.TheSemPost.
Fréquence de crawl John Mueller a indiqué dans ce même hangout que si Googlebot ne visite pas souvent un site et s'il n'explore pas l'arborescence de façon profonde, alors ceci est sûrement un signe que la source d'information est considérée comme de faible qualité par le moteur.TheSemPost.
Prise en compte d'un nouveau lien John Mueller a expliqué dans un hangout que, lorsqu'un nouveau backlink est identifié vers une page, il est pris en compte quasiment immédiatement dans l'algorithme, surtout si l'URL de destination est déjà connue du moteur.TheSemPost.
Pénalités Penguin De nombreux webmasters ont constaté que certains sites, qui avaient été pénalisés dans le passé par Penguin, ont vu ces pénalités levées depuis le lancement de Penguin 4.0. Gary Illyes l'a confirmé sur Twitter, indiquant que ces prises en compte étaient en phase finale et que tout devrait être prochainement bouclé.Search Engine Roundtable.
Historique John Mueller a expliqué, dans un des hangouts dans lesquels il intervient souvent, que certains algorithmes de Google prennent en compte l'historique d'un site et ses changements dans le temps. Mais il n'a pas indiqué quel type de changement était pris en compte (contenu ? code ? liens ?).TheSemPost.
Redirections 301 John Mueller, enfin, a indiqué que lorsque de trop nombreuses redirections 301 étaient effectuées (par exemple lors d'une refonte) vers la page d'accueil d'un site, ces redirections étaient considérées comme des "soft 404" (page ayant le fonctionnement d'une erreur 404 mais sans en renvoyer le code). Le PageRank ne sera donc pas transmis à la homepage.Search Engine Roundtable.
logo-infos-google
Goossip (Infos Google).
Source de l'image : Google