Les deux moteurs de recherche Bing et Google ont avoué au salon SMX West utiliser des "listes blanches" de sites qui ne sont pas impactés par certains algorithmes de détection du spam...

Lors de la conférence "Spam Police" au salon SMX West, Google et Bing ont officellement admis utiliser des "exception lists" ou "listes blanches" de sites qui ne doivent pas être touchés par les algorithmes de détection de spam.

Matt Cutts a notamment indiqué qu'il n'existe pas à proprement parler de strictes "listes d'intouchables", mais que pour certaines fonctions de détection de spam de l'algorithme, des exceptions pouvaient être faites pour certains sites de façon individuelle. Mais il a ajouté qu'aucune "whitelist" n'avait été créée pour la dernière mise à jour (Panda/Farmer) de son algorithme. Pour l'instant...

Les deux moteurs ont indiqué que les algorithmes automatiques n'étaient jamais fiables à 100% et qu'ils nécessitaient parfois des "corrections" effectuées grâce à ces listes... Qui ne sont, bien entendu, pas publiques...

Spam
Source de l'image : Abondance

Articles connexes sur ce site :
- Google : des filtres humains pour détecter le spam (11 mars 2011)
- Une extension Chrome pour bloquer les sites indésirables et lutter contre le spam (15 février 2011)
- Google rachète BeatThatQuote.com... Et le pénalise aussitôt ! (9 mars 2011)
- Les 25 sites les plus pénalisés par le nouvel algorithme de Google (28 février 2011)
- Nouvel algorithme de pertinence pour Google (25 février 2011)
- Une extension Chrome pour bloquer les sites indésirables et lutter contre le spam (15 février 2011)
- 2011, l'année de la lutte contre le spam et les "content farms" pour Google ? (24 janvier 2011)
- Google pourrait améliorer sa détection du cloaking en 2011 (29 décembre 2010)
- 1 million de pages de spam créées chaque heure selon Blekko (10 janvier 2011)