Quelques infos sur Google et son moteur de recherche, glanées ici et là de façon officieuse ces derniers jours, avec au programme cette semaine quelques réponses à ces angoissantes questions : Les filtres Panda et Penguin impactent-il au niveau de la page ou du site complet ? le fait de dupliquer une même image dans plusieurs pages peut-il poser problème en SEO ? Google favorise-t-il les contenus "frais" ? Quelle redirection utiliser lors d'une migration HTTPS ? Google tient-il compte de la réputation de l'auteur d'un contenu ?
Voici une petite compilation des informations fournies par les porte-paroles officiels de Google ces derniers jours sur différents réseaux informels (Twitter, Hangouts, Google+, forums, conférences, etc.). Donc "gossips" (rumeur) + Google = "Goossips" 🙂
La communication du moteur de recherche étant parfois plus ou moins sujette à caution, nous indiquons, dans les lignes ci-dessous, le niveau de confiance (taux de fiabilité) que nous accordons à l'information fournie par Google (de 1 à 3 étoiles, 3 étoiles représentant le taux de confiance maximal) - et non pas à la source qui en parle.
Panda et Penguin |
Lors du salon Search Masters Brazil, Gary Illyes a confirmé que, si les données étaient toujours collectées par Google au niveau des pages d'un site site web, de façon individuelle, d'éventuelles "pénalités algorithmiques" étaient traitées par la suite différemment : Panda impactera le site entier, alors que Penguin touchera une ou plusieurs pages de façon spécifique. Des informations qu'on avait déjà, mais une confirmation n'est jamais mauvaise. |
Source : Search Engine Roundtable |
Taux de fiabilité : ![]() ![]() ![]() |
![]() |
Images |
John Mueller a indiqué sur Twitter qu'une image pouvait se retrouver à l'identique (sous le même nom de fichier ou pas) sur un même site, ou sur plusieurs sites différents, cela ne posait aucun problème à Google, et que cette situation était d'ailleurs très courante. |
Source : Search Engine Roundtable |
Taux de fiabilité : ![]() ![]() ![]() |
![]() |
Fraîcheur |
A la question posée sur Twitter : "Does Google favor "fresh" content?", John Mueller a répondu "No". D'après John, le moteur de recherche ne favoriserait pas le contenu "frais". |
Source : Search Engine Roundtable |
Taux de fiabilité : ![]() |
![]() |
Migration HTTPS |
John Mueller a indiqué lors d'un hangout que "Google recommande fortement les redirections 301 lors d'une migration HTTPS", et donc pour passer les URL de HTTP vers HTTPS, alors qu'on lui parlait de 302 ou de 303. |
Source : Search Engine Roundtable |
Taux de fiabilité : ![]() ![]() ![]() |
![]() |
Authorship, AuthorRank |
John Mueller a indiqué lors d'un hangout que le moteur de recherche ne tenait pas compte de la réputation d'un auteur dans ses analyses. La question venait du fait que ce point est parfois évoqué dans le guide pour les Quality Raters que Google publie de temps en temps. Pas d'AuthorRank donc à l'heure actuelle, selon John. |
Source : Search Engine Journal |
Taux de fiabilité : ![]() ![]() |
![]() |

Pour la question de la fraîcheur, comme souvent en SEO, je nuancerais plutôt en disant que ça dépend des requêtes. Pour celles qui ne nécessitent pas forcément de fraîcheur (par exemple « définition colocation ») y a des pages anciennes avec du contenu dit « evergreen » qui se classent très bien en top position.
Toutes requêtes étant dans le spectre d’une actualité, ou d’une saisonnalité subit la loi de l’algorithme « QDF. Sinon en effet, sur des termes « génériques » non soumis à des actus ou à de la saisonnalité la fraîcheur du contenu a que très peu d’impact en effet. Il s’agit donc d’anticiper un maximum : repérage des marronniers, veille sur l’actualité, pour ne pas se tromper de stratégie SEO et de calendrier de publication !