> > Google : pas de « listes blanches » pour Panda et Penguin

Google : pas de « listes blanches » pour Panda et Penguin


Google : pas de « listes blanches » pour Panda et Penguin
3 (60%) 6 votes

boite spam

Google , par l'intermédiaire de John Mueller, a indiqué et confirmé hier que s'il utilisait parfois des systèmes de 'listes blanches' (whitelists) pour donner une impunité à certains sites dans des cas particuliers, Panda et Penguin n'étaient pas concernés par de tels systèmes...

En mars 2011, Google avait annoncé qu'il utilisait des "white lists" (listes blanches) pour certains de ses algorithmes. Ces listes de sites permettent à ceux qui en font partie de ne pas être touchés par certaines pénalités. Des listes qui (mais est-il nécessaire de le dire ?) ne sont pas publiques...

John Mueller l'a confirmé hier dans un hangout en indiquant qu'effectivement ces "listes blanches" existaient "pour des cas individuels" et parfois de façon temporaire, le temps de corriger certaines erreurs (notamment pour le filtre Safe Search qui génère certains "faux positifs" ou sites web qui tombent dans le filtre sans être concernés a priori). Mais il a précisé que ni Panda ni Penguin ne fonctionnaient avec de tels systèmes. Tout le monde est mis dans le même sac (ou la même galère éventuellement). A écouter à partir de la 23ème minute dans la vidéo ci-dessous :



Source de l'image : YouTube

Commentaires : 6
  1. Alexandre SANTONI 12 février 2015 at 9 h 31 min

    Ca démontre que certaines franges de leur algorithme, y compris sur les pénalités, ne sont pas au top. Courage aux petits sites pris dans les griffes d'une pénalité pas vraiment justifiée qui ne seront jamais passé whitelist.

  2. Farid 12 février 2015 at 12 h 16 min

    Et si on recoupe les listes blanches avec les données whois par exemple (au hasard complètement fortuitement) on en arrive à créer d'autres indicateurs pertinents pour l'algo ? (Ex : site a whitelisté proprio x / site b pas whitelisté mais proprio x aussi > gain de trust ?)

  3. patrick 12 février 2015 at 21 h 00 min

    On connait au moins un site qui est dedans et qui ne bouge pas des premières places depuis des lustres, je crois que le web se dirige tout droit vers un monopole des grands groupes, car il n'y pas que le temps passé à concevoir, il y a aussi les frais de serveur, c'est dommage beaucoup de petits éditeurs disparaitront avec leur talent, beaucoup de sites sont au fond des serps n'y ont pas leur place. Vraiment dommage !

  4. Yann 13 février 2015 at 9 h 14 min

    Si certains experts s’inquiètent de la puissance de l'Intelligence Artificielle, cette démonstration marque bien que l'humain est encore présent pour placer des priorités culturelles.

    Certains sites ressortent en premier, mais ils sont également fortement sollicités par le public (on ne retire pas un dictionnaire d'une bibliothèque).

    Ce qui est plus inquiétant, c'est la clairvoyance en matière d'optimisation de certains sites qui font toujours le maximum sans jamais en faire de trop.

  5. Marie KISTLER 5 mars 2015 at 17 h 08 min

    Olivier, penses-tu qu'il est nécessaire de corriger des temps de chargement trop longs pour respecter les règles et éviter une pénalité Panda ? Où bien est-ce toujours un critère qui ne mérite pas tant d'attention. Avez-vous des exemples de réussite qui inclut une correction de ce critère ? Thanks

  6. Olivier Andrieu 5 mars 2015 at 19 h 06 min

    @ Marie Kistler :
    1. Panda est totalement déconnecté des notions de temps de chargement des pages.
    2. C'est le temps de réaction du serveur (TTFB) qui est pris en compte par Google, plutôt que le temps d'affichage des pages.
    3. Ca a un impact sur le crawl du site par les robots (et l'expérience utilisateur), mais je n'ai aucun exemple de site ayant perdu ou gagné des places sur ce critère.
    Voir le guide Abondance sur les "50 mythes SEO" 🙂
    http://www.abondance.com/actualites/20140902-14235-50-mythes-seo-guide-pdf.html

Un site du Réseau Abondance | Olivier Andrieu | Contact | Publicité sur le site