> > Google Décodé : les 300 critères de classement par Raphaël Richard

Google Décodé : les 300 critères de classement par Raphaël Richard


Notez cet article

Raphaël Richard, spécialiste du webmarketing, publie une étude nommée Google Décodé, qui a pour ambition d'analyser les 300 critères utilisés par Google pour définir la pertinence, personnaliser ou pénaliser un site web...

Raphaël Richard, dirigeant d'une agence de référencement française et acteur "historique" du domaine dans l'Hexagone, livre dans l'étude Google Décodé" qui vient de paraître les 300 critères de classement qui sont, selon lui, pris en compte par Google dans son algorithme de pertinence.

"Pour diminuer le temps de veille sur le fonctionnement de Google, je cherche depuis des années un ouvrage qui donnerait la liste de tous ses critères de classement. Mais je ne l'ai jamais trouvé" commente Raphaël Richard. "Il y a deux ans, Matt Cutts a affirmé que l'algorithme de Google tenait compte de 200 critères, qui ce qui corroborait nos estimations internes (230 à 250 critères de classement et apparition de 20 à 30 nouveaux critères par an). J'ai donc décidé de compléter ma liste personnelle qui contenait 70 critères de classement.

"Mais, lors de mes formations au référencement, lorsque je présentais cette liste des 70 premiers critères, on m'a rapidement posé des questions sur le poids relatif de chaque critère. Ma première réponse a consisté à attribuer un pourcentage à chaque critère dans l'algorithme. Cela s'est rapidement avéré insatisfaisant car si la présence du mot clé dans la balise H1 s'avérait être le critère ayant le plus de poids pour les mots clés long tail, ce n'était pas la balise H1 qui permettait à un site de gagner une position sur les mots cles short tail. J'ai mis 18 mois pour élaborer une nouvelle thèse représentant le mode de calcul du score de pertinence de Google que je présente dans une vidéo sur le site", conclut l'auteur de l'étude.

Les principaux enseignements de l'étude sont les suivants, selon son auteur :

- Les sites qui sont bien référencés satisfont rarement plus de 50 à 60 critères de classement de Google sur un total de 300. Les sites mal référencés satisfont, pour leur part, un nombre de critères de classement encore moins important (20 à 30).

- Très souvent, les trois premiers sites du haut de la page, se positionnent pour des raisons très différentes : l'un marquant un grand nombre sur les critères liés à la confiance, l'autre sur des critères liés aux liens pointant vers lui et le dernier bénéficiant d'une structure de site très favorable.

Les chiffres clés de l'étude :

- Google repose sur un réseau de 5 à 10 millions d'ordinateurs. Chaque ordinateur répond en moyenne 200 ou 300 internautes.
- L'algorithme de classement tient compte de 300 à 350 critères de classement : 227 critères sont pris en compte sur le moteur de recherche généraliste, 147 critères de classement et conditions d'indexation, 26 pénalités, 9 sanctions prises par Google et 25 critères de personnalisation.
- 70 critères concernent les moteurs de recherche spécialisés de Google (Adresses, Vidéo, Blogs, Image : recherche universelle / universal search).
- 30 nouveaux critères viennent s'ajouter tous les ans aux précédents.
- 100 millions de sites web indexés dans le monde.
- Plus de 1 000 milliards de documents mis en ligne.

Certains vont certainement railler ce travail en évoquant un prix trop élevé (1 290 euros pour la version complète), mais le tome 1 (80 pages) est disponible gratuitement en téléchargement. Plutôt présenté sous la forme d'un livre blanc sur le fonctionnement de Google, ce premier tome est intéressant mais ne livre pas les secrets qui sont censés se trouver dans le Tome 2 (que nous n'avons pas lu et que nous ne pouvons donc pas juger). On regrettera cependant que les critères révélés dans des extraits sur le site JDN sont assez complexes à comprendre au travers de phrases parfois absconces. Exemple : "La présence du mot clé dans le nom de domaine (...) renforce la pertinence d'un site. Mais l'effet de ce facteur, encore considéré comme primordial par de nombreux référenceurs, est confondu avec une conséquence de la présence du mot clé dans le nom de domaine". Difficile de comprendre le sens d'une telle phrase, le phénomène se renouvellant plusieurs fois dans ces "bonnes feuilles" en pré-publication. Dommage...

Ce travail n'en reste pas moins conséquent et, bien que son prix ne le mette pas à la portée d'un webmaster indépendant ou d'un passionné du Web, il vaut certainement la peine d'être consulté pour faire avancer nos connaissances des algorithmes du célèbre moteur de recherche. L'apparition d'un livre pointu sur le sujet (il en existe tellement qui ne font qu'effleurer le sujet...) est toujours une bonne nouvelle...

Google Decode
Source de l'image : Google Décodé

Articles connexes sur ce site :
- Livre : Recherche éveillée sur Internet : mode d'emploi, par Béatrice Foenix-Riou (19 avril 2011)
- Livre : Internet Marketing 2010 (1er mars 2010)
- Le livre "Réussir son référencement Web" est disponible sur l'iPad (28 mai 2010)
- Le livre "Net recherche" reçoit le prix IEC'10 (12 novembre 2010)

Commentaires : 60
  1. Jean-Charles 22 juin 2011 at 7 h 27 min

    Bonjour.
    Travail conséquent certes mais, à travers 80 pages, apprendre que les balises meta keywords sont utilisées par Google... A moins que ce livre n'ait été réalisé sur plusieurs années, on est à même de douter de son bien fondé.
    Du coup, partir sur le tome 2 à ce prix, c'est un peu vu comme l'attrape couillon du siècle non?

  2. id meneo 22 juin 2011 at 7 h 43 min

    1290€, ce prix me semble complètement délirant. Et si on suit le raisonnement apparent du livre il suffit d'analyser les premiers pour savoir où on pêche?
    Suis bien curieux quand même... si quelqu'un l'a lu, un vrai compte rendu serait appréciable.

  3. Loïc 22 juin 2011 at 7 h 52 min

    Même avis que mes prédécesseurs, même si le livre à été créer après une étude sérieuse il est peu probable qu'il soit l'exacte réalité, et pour ce tarif j'espère que l'auteur vient lui-même nous faire la lecture !

    Pour l'exemple entre guillemets, on peut supposer qu'il parle du fait que le mot-clé sert en conséquence d'ancre pour tous les sites qui font un lien directement sur l'url.

  4. Anonymous 22 juin 2011 at 8 h 35 min

    Il est également regrettable qu'il soit impossible de télécharger le tome 1 ... J'ai rempli le formulaire il y a une heure et je n'ai pas reçu le mail.
    Suis-je la seule dans ce cas ?

  5. Anonymous 22 juin 2011 at 9 h 37 min

    Il me semble que tu parlais de détecter les arnaques SEO dans un précédent billet...
    On est en plein dedans.

  6. Abondance 22 juin 2011 at 9 h 39 min

    Ouais bon, pour ce type de remarques, je préférerais qu'elles ne soient pas anonymes...
    a+

  7. Marc L. 22 juin 2011 at 11 h 49 min

    Perso, j'ai un peu le sentiment qu'il y a un peu de flou, même si l'étude semble conséquente. Depuis 1999, j'ai toujours passé du temps a décortiquer les premiers pour savoir grossomodo la "bonne recette du jour". Aujoud'hui c'est bcp + difficile.

    J'ai donc fait mon premier site de test, très modestement, une première ébauche de 150 critères. L'auteur parle du ALT dans les images ... moi je dis vrai et faux ... j'ai testé 5 tailles d'images ... certaines sont prises en comptes, d'autres pas ... (petites et géante ne sont pas dans les résultats, seulement celles de 310x220 et 510x370 ... 10 euros l'infos 😉

    Donc, il faut le détail de la manière dont est réalisé le test pour tirer des conclusions. Car pour "certifier" un critère, il faut parfois faire 10 tests différents...

    Voilà, je vais finalement mettre en chantier ce gigantesque plan de site de test que j'ai en tête avec quelques dizaines de milliers de paramètres, puis en faire un bouquin a 500 euros, histoire de casser un peu le marché ! je rigole bien sûr, ce sera 2000 euros ...

    Cela dit, je n'investirais pas une telle somme car elle me semble excessive, et le livre d'Olivier et quelques autres me suffisent.

  8. Anonymous 22 juin 2011 at 12 h 17 min

    Bonjour Olivier,

    Après avoir lu les commentaires sur l'article du JDN, les réactions sur WRI, et ne pas avoir cherché plus loin il est vrai que je me suis étonné de voir ici un article pour ce livre.

    L'avez-vous lu (le T2)? Est-il, selon vous, aussi pertinent que son auteur l'affirme?
    Confirmez-vous connaitre l'auteur et son expertise dans le métier comme il l'affirme? (ce ne sont pas des accusations, je cherche simplement à me faire une idée sur l'ouvrage et l'auteur que je ne connais - et ne connaissant pas tout le monde je ne peux me fier à mes seules connaissances).

    En tout cas l'objectif et la recherche sont louables quant aux conclusions je reste un peu sur ma faim en lisant votre article/critique.

  9. Abondance 22 juin 2011 at 12 h 19 min

    Bonjour
    Oui je connais l'auteur depuis plus de 10 ans et je ne pense pas qu'il s'agisse d'un escroc ou autre chose comme j'ai pu le lire.
    C'est pourquoi j'en ai parlé, sans avoir lu le tome 2 puisque je ne l'ai pas eu.
    Il me semblait important de signaler cet ouvrage, à chacun de se faire son idée ensuite.
    Cordialement

  10. Izumaki 22 juin 2011 at 12 h 21 min

    c'est trop !! 1290 euro même si pour un livre avec une étude de cas sérieuse !
    la Tome 1 devrai résumé le tous a mon avis si c'est vraiment un résumé de la TOME 2
    Une prix de 129 soit trop logique non ?

  11. Anonymous 22 juin 2011 at 12 h 48 min

    Merci pour cette réponse, voilà qui déjà rassure un peu plus et permet maintenant d'avoir une approche plus intéressée que suspicieuse.

    Cordialement,

  12. Anonymous 22 juin 2011 at 13 h 18 min

    Rebonjour, je suis l'anonyme de 10h35. Je n'ai malheureusement toujours pas pu télécharger le tome 1.
    Je pensais recevoir un email après avoir rempli le formulaire. j'ai essayé 2 fois, rien.
    Si quelqu'un pouvait m'indiquer comment je puis obtenir le document, puisque vous semblez l'avoir lu, je lui en serais fort reconnaissante. J'aimerais le lire.

  13. Marc L. 22 juin 2011 at 14 h 02 min

    On peu se cotiser pour financer l'achat du tome 2 pour Olivier, et ensuite, il nous fait sa synthèse? ;-)) Cela dit, pour une société de référencement, c'est juste le prix d'un petit client qui ne paie pas ...! Quitte a perdre, autant gagner ! ;-)) lol

  14. Guillaume 22 juin 2011 at 14 h 47 min

    Olivier:
    que vous décidiez de soutenir un ami se conçoit parfaitement, et parle pour l'auteur. Mais la moindre des choses aurait été de préciser dans le corps de l'article que vous n'avez vous-même pas lu l'ouvrage, que pourtant vous n'hésitez pas à reccomander et à juger utile.

    C'ests tout de même un peu délicat, comme position...

  15. Arobasenet 22 juin 2011 at 14 h 56 min

    Comme tous les passionnés du référencement internet, j'ai lu les "bonnes feuilles" de cet ouvrage sur JDN
    Je me demandais s'ils avaient fait exprès pour flinguer cet ouvrage... Franchement, ce ne sont pas ces "bonnes feuilles" qui vont faire vendre ce livre. Surtout avec les phrases absconses qu'Olivier soulignait...
    Pour un tel prix, des extraits plus pertinents que les sujets qu'on rencontre chaque jour le net auraient été plus vendeur ! Mais bon...

    • Sigitas 20 septembre 2012 at 10 h 56 min

      Bonjour,Pour la question K, la notoin de classe d'adresse de re9seau A, B ou C n'existe plus depuis le milieu des anne9es 1990. Cette notoin ne joue plus aucun rf4le dans l'attribution de plages d'adresses et dans le fonctionnement du routage sur internet.

  16. Raphael Richard 22 juin 2011 at 15 h 28 min

    Reponse de l'auteur de l'etude

    Je reponds sur la méthodologie qui est decrite en page 13 du tome 1 (il suffit parfois de prendre le temps de lire)

    8 types de travaux ont été réalisé:
    1. Etude des caractéristiques des apparaissant sur les premières pages de résultats de Google,
    2. Analyse de l'évolution du référencement de certains sites leaders en référencement (sites les mieux référencés sur les mots « référencement », « crédit » , «mutuelle » , « voyage », « travel », « home loan », « mortgage »),
    3. Analyse de l'évolution du référencement de sites ordinaires,
    4. Analyse des thèses défendues par les 10 meilleurs blogs américains sur le référencement,
    5. Analyse comparée des techniques utilisées par les vainqueurs des concours de référencement,
    6. Analyse des liens soumis par les référenceurs de sites XXX, jeux d'argent et viagra (réputés pour leurs méthodes agressives) dans le réseau de 20 annuaires gérés par l'auteur de l'étude,
    7. Analyse des informations diffusées officiellement par des représentants de Google,
    8. Réalisation d'environ 5000 tests permettant d'évaluer environ 600 critères de classement, réalisés entre 2006 et 2011, sur plus de 500 sites (300 sites de clients de CVFM, l'agence de référencement créée par Raphaël Richard et 200 sites appartenant au réseau de la société Neodia, également créé par l'auteur de l'étude):
    Test A/B de positionnement, mesurant l'impact d'un critère supposé sur le positionnement
    Test multivariables de positionnement, mesurant l'impact combiné supposé de plusieurs critères avérés sur le positionnement
    Test d'héritage mesurant les effets de redirection vers une page de sites existants, de noms de domaine supprimés puis réactivés,
    Tests d'évolution dans le temps du poids de chaque critère
    Test de référencement parallèle (positionnement de plusieurs sites présentant des caractèristiques différentes sur un même mot clé)

  17. Raphael Richard 22 juin 2011 at 15 h 29 min

    Reponse de l'auteur (2)
    Je vous livre mon sentiment sur les reactions negatives. Elles sont revelatrices de plusieurs, de mon point de vue:
    - les limites de la communication journalistique: je n'ai pas affirmé que l'etude etait sur à 100%. J'ai affirme que j'etais certain qu'il s'agissait de l'etude la plus exhaustive sur le sujet 'criteres de classement'
    - la facon dont l'information est traitee a l'ere internet: beaucoup d'affect, peu d'analyse: 222 tweets, des dizaines de messages qui s'arretent sur des points de details et oublient totalement l'essentiel
    - mon manque de notoriete personnelle,
    - la complexite de la these que je defends dans l'etude (qui n'est pourtant que representation simplifiee du fonctionnement beaucoup plus complexe de Google).
    - publier la partie a faible valeur de l'etude, fut elle composées de 80 pages utiles, etait peut etre un mauvais choix dans la mesure ou, en depit des avertissements sur le fait qu'il s'agit d'une version pour debutant, les "experts" ont pense qu'elle refletait le niveau de la seconde partie.

    Pour conclure cette intervention, je vous rappelle que j'indique dans les video:
    - l'etude a le merite d'exister. C'est la premiere fois qu'un referenceur prend le temps de realiser cette liste.
    - cette liste est serieuse, mais elle n'est ni certifiee par des protocoles de tests inebranlable
    - La these sur le calcul du score de pertinence est une reponse fine à la question du "quel est le poids de tel critère ?". Il s'agit uniquement d'une these, mais qui permet d'analyser de facon beaucoup plus fine le referencement d'un site.

    Concernant son prix: l'etude s'adresse aux entreprises pour qui le referencement est strategiqu. Elle correspond à 2 journées de conseil d'un referenceur debutant et au prix d'un seminaire de 2 jours ou l'on ne nous donne pas la liste des 300 criteres de Google (on nous donne bien d'autres choses interessantes, mais pas cela). Si la liste est effectivement serieuse, le prix me parait donc coherent.

  18. Marie-Aude 22 juin 2011 at 15 h 34 min

    Bonjour Olivier,
    je fais partie des gens qui se sont étonnés de beaucoup de choses par rapport à ce qui est présenté (mais je refuse le terme de railler).

    J'ai lu "les bonnes feuilles", j'ai lu les 80 pages. Cela m'a décidé à ne pas acheter le tome 2.
    - Parce que comme vous le dites, un certain nombre de formulations sont tellement obscures qu'on ne sait pas finalement ce qui est dit, sauf si on sait déjà ce que l'auteur à en tête (mais dans ce cas pourquoi acheter un livre).
    - Parce que le papier blanc ne m'a pas convaincue, et nous avons déjà analysé un de ses éléments sur WRI pour arriver à la conclusion que l'explication avancée par l'auteur sur une présentation de résultats Google était complètement fausse.
    - Parce que les quelques extraits présentés dans le JDN me semblent "faux". Dire par exemple que le filtre anti spam ne se déclenche qu'après 40 à 50 répétitions du mot clé dans le contenu contredit mon expérience (ou alors c'est la "totalité" du contenu, ie le code, qui inclus les url, etc), et que donner un chiffre absolu ici et pas un pourcentage me semble faux
    - pour d'autres raisons "annexes" que j'ai discutées sur WRI, et que je m'abstiendrai de reproduire ici par courtoisie

    Vous faites partie des référenceurs que je respecte. Si vous dites "j'ai lu le tome2 ça vaut son prix, achetez le", je passerai par dessus mes préjugés, je me dirai que son auteur est un piètre marketeur, et j'irai l'acheter.

    Mais là, j'ai plutôt l'impression d'une sorte de "cp" critiquant ceux qui se sont donné la peine de faire une analyse de tous les éléments disponibles, sans connaitre l'auteur. Et je trouve cela dommage.

    (PS il y a un problème quand on élargit la zone de saisie du commentaire [carré en bas à droite] elle se superpose aux boutons publier un commentaire et aperçu, et il n'est pas possible de revenir en arrière)

  19. Anonymous 22 juin 2011 at 16 h 03 min

    Je me suis inscrit et j'ai eu le tome 1, l'étude des premières pages est plutôt très correct . Je termine les 86 pages du t1 et je vous donnerais un avis final :). A titre perso, j'aurais facilement mis autour des 300 € pour une étude...Mais 1200 € surtout si ce n'est pas si extraordinaire que cela 🙂 je trouve cela chère !

    @+

    Jp

  20. Marc L. 22 juin 2011 at 16 h 11 min

    ... Olivier acculé au mur ... il va devoir acheter le tome 2 ... mais il va garder les infos pour lui ! ;-)) j'arrête mes plaisanteries. Reste que si j'avais ma boite de référencement, je me sentirais obligé de l'acheter, au cas où ! (je louperais un détail ... crucial).

  21. Marc L. 22 juin 2011 at 16 h 14 min

    PS : +1 Marie Aude sur le mauvais Marketing, a sa place, j'aurais quand même montré le tome 2 et rencontré Olivier, qui reste un pilier et de confiance dans l'info du référencement ...

  22. Anonymous 22 juin 2011 at 17 h 33 min

    OK sur le fait, qu'olivier devrait nous donner son avis sur le tome 2 et avoir la possibilité de le voir, après sans hésitation je l’achèterais!

  23. Abondance 22 juin 2011 at 17 h 50 min

    @ Marie-Aude : merci pour le commentaire mais c'est dommage qu'il ne soit pa splus précis : quel élément a-t-il été testé sur WRI ? En quoi l'explication donnée par l'auteur d el'étude est-elle fausse ? Merci d'être plus précise afin que la critique soit réellemen tconstructive.

  24. Abondance 22 juin 2011 at 17 h 56 min

    @ Guillaume : bien vu, j'ai légèrement changé le texte de l'article dans ton sens...
    En même temps, Raphaël Richard n'est pas un "ami", au sens où je l'entends (je n'ai pas plus de 10 amis sur cette planète et je me sens pourtant privilégié dans ce domaine), mais quelqu'un que je connais depuis plus de 10 ans et qui me semble assez sérieux pour avoir réalisé dans cette étude un travail digne d'intérêt (et je lui fais confiance sur ce point, même si je n'ai pas lu le tome 2).
    Après, c'est comme pour tout dans ce domaine: on prend l'info, on la corrèlle avec sa propre expérience et on avance ainsi.
    Le seul truc où je tique, c'est le prix de l'étude qui ne correspond pas à ma vision (fournir le plus d'infos possible sur le SEO au plus de monde possible). Mais je n'ai peut-être pas la bonne approche non plus, je suis conscient que vendre un travail trop peu cher peut le décrédibiliser, chacun son approche, après tout...
    Lorsque j'avais vendu mon livre "Référencement 2.0" au format PDF en téléchargement à prix très abordable, j'en avais vendu vraiment beaucoup. Du coup, faut-il vendre beaucoup à un prix abordable, ou peu d'exemplaires mais très cher ? Chacun a sa réponse...
    cdt

  25. Abondance 22 juin 2011 at 17 h 56 min

    En tout cas, je suis très heureux que ça suscite un débat 🙂

  26. Abondance 22 juin 2011 at 17 h 59 min

    Mais à mon avis, le problème majeur de cette étude, c'est l'article du JDN, qui est catastrophiquement mauvais et je suis d'accord avec Marie-Aude pour dire que c'est une superbe contre-publicité... Bad luck...

  27. Marie-Aude 22 juin 2011 at 18 h 38 min

    @Abondance, en fait je ne voulais pas reprendre le contenu... pour résumer, page 47 il est dit que le "bloc bourse" apparait en clair pour Lafarge et pas pour d'autres sociétés cotées "Le bloc bourse apparaît directe car l'essentiel des recherches sont effectuées par des professionnels" ce qui est "rapide" comme explication. Après des vérifications sur un certain nombre de sociétés côtées, grand public ou pas, il semblerait plutôt que la présence du bloc bourse soit lié à la présence de la cotation (avec les références) sur la page d'accueil du site, et que deuxième point qui reste une pure hypothèse, elle soit "étendue" pour Lafarge parce qu'elle est sur la page d'accueil du site .fr (ce qui n'est pas le cas des autres sociétés, où elle apparait sur la page du site corporate en .com, en deuxième position). Tout cela reste des hypothèses prudentes, sur un échantillon non représentatif, mais elles ont l'avantage de reposer sur des éléments concrets du code, donc un truc que l'algo peut analyser, et pas la qualité de professionnel de ceux qui font la recherche.

    C'est peut être un point de détail (sûrement en fait ^^) mais en même temps quand on n'a pas grand chose à se mettre sous la dent (au sens positif du terme : qu'est ce qui dans les 80 pages va me convaincre d'acheter le tome 2 ?) on regarde tous les détails.

    Moi je suis une PME outsourcée au Maroc. Le prix de l'étude représente un montant important. Et je sais très bien que le ROI n'est pas immédiat : il ne suffit pas de lire le dico pour être intelligent il faut aussi comprendre, adapter, analyser, mettre en place. Et c'est pour cela que je parle de mauvais marketing (et pas seulement dans les outrances du JDN, on sait que les journalistes transforment les trucs, et je ne tiens par rigueur à l'auteur de ce qu'il ne dit pas), je pense être assez représentative d'une bonne partie de la cible "grand public internet".
    Les acheteurs dans les grosses boites, ceux qui connaissent les compétences de R. Richard n'auront même pas besoin de tout ça, à la limite pour eux ce n'est pas assez cher.
    Enfin bon on s'égare ^^

  28. Marc L. 22 juin 2011 at 20 h 41 min

    Effectivement, l'annonce stimule le dialogue !
    Merci Richard d'être intervenu. Toutefois, je ne suis pas d'accord concernant le prix qui devrait s'identifier à une conférence. A moins de louer le Parc des Prince, et encore. Un ouvrage, qui sera peut-etre vendu a 5000 exemplaires, ca représente 5 millions d'euros de marge... Tout travail mérite salaire, mais faire une conférence de 5 000 personnes (réalisable) et par contre, que cette conf rapporte au moins 5 millions d'euros, il y a peu de personnes dans le monde de faire de telles conférences ...

    Et puis, il faut penser au libraires ... outre le système de leur rémunération, il leur faut une armoire sous scellée ou un coffre fort ! Bonne chance toutefois ;-))

  29. Anonymous 22 juin 2011 at 21 h 33 min

    Faire l'annonce d'un ebook SEO sur un site aussi sérieux qu'Abondance, c'est assez étonnant. Avouez le, c'est pour faire le buzz que vous faites ça ? Dans deux jours on va nous dire que c'était une blague et que c'était lié à une opération de communication ?

  30. Anonymous 23 juin 2011 at 4 h 33 min

    Merci à l'auteur pour les dernières réponses. OK que le prix correspond à deux petits jours de formation...,mais sans la prise en charge des organismes de formation et de leur financement 🙂 . Je suis un particulier passionné et pour moi cela parait un peu cher, mais pourquoi pas. Bonne continuation.

  31. Abondance 23 juin 2011 at 5 h 48 min

    @anonyme : faire un commentaire comme ça sur un site aussi sérieux qu'Abondance, c'est assez étonnant. Avouez-le, c'est pour faire le troll que vous faites ça ?
    🙂

  32. Recherche Alternative 23 juin 2011 at 8 h 57 min

    L'idée d'une telle étude est très séduisante, tellement le flou autour du fonctionnement de Google croît au fil des années jusqu'au point de devenir "usine à gaz".

    Et ce n'est pas le concours Pandaranol en cours qui me contredira (d'ailleurs, il serait bon de sortir une étude sur les leçons à tirer de ce concours).

    Tout (et son contraire) est dit à propos du fonctionnement de Google, de ces fameux critères, etc. Donc qu'une bible sorte sur le sujet, j'applaudis. Si cela peut permettre de poser les choses, tant mieux.

    Mais est-ce "aussi facile" que ça ? Si, à l'heure où le livre est paru, certains critères sont déjà déclassés, ne serait-ce que 10%, c'est déjà la catastrophe car cela replonge le lecteur dans le flou...

  33. Yann Faurie 23 juin 2011 at 9 h 18 min

    Bonjour,

    J'ai pu rencontrer Mr Raphaël Richard lors d'une convention web, au cours de laquelle il animait une conférence sur le webmarketing. J'en ai retiré une très bonne impression, corroborée par le passif (très riche dans le web) de cette personne.
    Je vais donc apporter un crédit important à ce qui est présenté. Merci Olivier pour l'info.

    Je précise que je ne suis pas affilié à Mr Richard (Postant à visage découvert, vous pouvez vérifier).

  34. Guillaume 23 juin 2011 at 13 h 19 min

    le passif, c'est justement quand on a pas assez à son actif...
    Beau lapsus.. 😉

  35. Yann Faurie 23 juin 2011 at 13 h 36 min

    @Guillaume : Il s'agit simplement de VOTRE interprétation 😉

  36. Jean-Baptiste 23 juin 2011 at 14 h 29 min

    L'article du JDN ne tient pas vraiment la route, on pourrait même dire que ça sent le guest blogging.
    Pour avoir parcouru le tome 1, on est vraiment tenté jusqu'à voir le prix.
    Par la suite, quelques incohérences tout autour du phénomène Google décodé distillent le doute et il n'y a pas que les fautes d'orthographe mais aussi toutes ces imperfections contextuelles (par exemple sur une des vidéos, illustration avec "tour effeil" ).
    Et comme sur l'essentiel, les avis des ténors du référencement sont plutôt rares
    Je ne met pas en doute le fait que l'on puisse découvrir des critères malconnus, mais répéter continuellement les tests de validation n'ont pas pu être achevés n'incite pas à investir en l'état.

  37. Herve 23 juin 2011 at 14 h 43 min

    De l'auteur "600 critères de classement, réalisés entre 2006 et 2011" ... quand on sait que l'algo peut bouger jusqu'à plusieurs fois par jour quels sont donc les critères pertinents aujourd’hui ? Lesquels le seront encore ce soir ?

    Comme beaucoup je trouve que de d'appuyer la promo d'un ouvrage à ce prix que l'on a pas lu avec sa notoriété est un peut border line.

    Enfin la meilleure preuve étant l'exemple, l'auteur peut-il nous indiquer quelques uns des sites dont il s'occupe bien placés dans des secteurs bien concurrentiels ?

  38. Abondance 23 juin 2011 at 14 h 46 min

    @ Hervé : lorsque vous écrirez un livre sur le SEO, prévenez-moi, j'en parlerai... 😉
    PS : votre profil Blogger ne s'affiche pas quand on clique dessus ?
    cdt

  39. Troll de Troyes 23 juin 2011 at 14 h 48 min

    Hervé, c'est l'anonyme qui a tenté le troll précédent et qui revient à la charge :=)

  40. Hervé Chuzeville 23 juin 2011 at 15 h 21 min

    Bonjour,

    L'idée d'une recherche des critères de Google est une bonne idée.

    Le prix de l'étude est frustrant pour les particuliers.

    Si l'auteur est un de vos amis, Olivier, pourquoi ne vous a-t-il pas offert son bouquin ? (Ca aurait été la meilleure promotion qu'il puisse faire, puisque vous êtes un expert du domaine, qui plus est lu par de nombreux intéressés par le domaine...)

  41. Anonymous 23 juin 2011 at 15 h 28 min

    Aller le test ultime :
    tous les sites que "Mr 300 critères" a optimisés ont échappé à Mayday et Panda.
    OUI ?? NON ?? SUPER ??
    J'ai bien l'impression qu'il va falloir 20 critères de plus la semaine prochaine ou fin Juillet.

    Pour info, Olivier Duffez, son labo (donc qqs pointures du SEO) restent modestes et dans l'expectative face aux baisses de trafic de la semaine dernière. Et je n'en fait pas partie bien sur.

    pour info, chaque année DEOMoz interroge 50 à 100 SEO influents et il chiffre chaque facteur en faisant la moyenne. si on compare 2005 à 2011 (paru), il y a des facteurs qui ont bien disparu et des nouveaux, ne serait-ce que le poid des médias sociaux.
    A bon entendeur ....

  42. Abondance 23 juin 2011 at 15 h 33 min

    @Anonyme (grrrrr, mais pourquoi poster en anonyme ???) : à ma connaissance, je n'ai eu pour l'instant aucune preuve que certains sites aient connu des pertes de trafic significatives en France pour l'instant. Je parle de preuves sur le trafic, pas sur les positionnements (ce qui n'a pas grand chose à voir in fine...)...
    Et sinon le site c'est SeoMOz, Pas Deomoz ni Dmoz :-))
    cdt

  43. Marc L. 23 juin 2011 at 16 h 03 min

    C'est vrai que sur mon site de test personnel, il y a des "trous" ou des incohérences sur certaines balises, qui curieusement apparaissent en premier en terme de valeur.
    Est-ce un oublis dans l'algorithme de Google? Cela va-t-il changer?

    L'auteur n'es pas niais, loin de là, et je doute qu'il publie des recettes expérimentées en 2006, elles existent depuis cette date et le test en est bien meilleur. Bien que, est-ce applicable a un nouveau site?

    Mais il est vrai que le temps de terminer un bouquin, l'algo peut changer beaucoup ... et rendre désuet une bonne partie du contenu de l'ouvrage, chèrement acquis. Un accès à un site,moyennant finance, serait plus approprié, éventuellement.
    Toutefois, l'auteur peut aussi revenir sur le prix, et de toute manière, je persiste, pour un pro, il semble difficile de ne pas aller mettre le nez dedans...

  44. Briac 24 juin 2011 at 12 h 34 min

    Je travaillais avec Raphaël il y a plus de 2 ans. Et je peux vous affirmer qu'il travaillait déjà sur cette étude.
    Le SEO est une science... Soit vous attendez de savoir ce qu'il faut faire et vous laissez les autres faire les tests pour vous (90% des SEO), soit vous êtes un chercheur et vous proposez des choses nouvelles (réflexions, analyses, méthodes d'optimisations). Dans le 1er cas, vous êtes septique pour tout ce qui est nouveau dans le 2e cas, vous vous exposez aux critiques.

    L'étude n'est surement pas parfaite (orthographe, critères has been, manière d'expliquer certaines réflexions et analyses) mais moi ce que je trouve surtout intéressant au delà des 70-80 ou 300 critères, c'est la manière de penser "optimisation SEO" de Raphaël.

    @Olivier : Je pense que ce que veut dire Raphael lorsqu'il parle du nom de domaine, c'est que ce qui fait gagner des points en SEO ce n'est pas d'avoir un mot clé dans son nom de domaine à proprement dit mais que lorsque l'on a un nom de domaine avec un mot clé, il est bien plus simple de récupérer des backlinks sémantiquement riche naturellement. Le critère qui fait gagner des points ici n'est pas le nom de domaine mais bien les backlinks.

  45. Anonymous 24 juin 2011 at 18 h 28 min

    Bonne idée, le site avec abonnement :), car de mon côté ma direction pense que c'est cher payé pour une étude et que cela concernera au pire des boites de référencement voulant être au goût du jour...Dommage pour moi, car ce livre m'intrigue (je suis passionné du métier), mais à titre perso je ne peux pas mettre ce prix.

  46. Marc L. 24 juin 2011 at 23 h 00 min

    le site a l'avantage de dresser un tableau de classement des effets de critères qui changent avec l'algorithme et le temps. Mon site de test est fait comme ca. Et je vois que Google passe au moins 10 fois pour "comprendre" un site. Le classement change tout le temps au début. Après un mois, ca se stabilise pas mal. Mais cela peu changer du jour au lendemain. Et il faut attendre l'édition de l'année suivante pour avoir des infos .. n'est-ce pas Olivier? ... sourire ;-))
    Bon, olivier a le site, c'est déjà un plus.

  47. Anonymous 25 juin 2011 at 0 h 51 min

    Raphaël Richard prépare un autre ouvrage qui s'intitulera :

    "Retourne-toi et ferme les yeux, tu verras, ça fait même pas mal !"

    Le prix de vente n'est pas encore fixé mais, selon certains spécialistes de l'enfilage de courges en brochettes, il devrait être de 3.546.432,47 € à peu près.

    Anne Honyme

  48. Anonymous 25 juin 2011 at 0 h 58 min

    WHOUAAAH !!! Merci pour l'info Anne Honyme, j'en réserve un tout de suite.

    AH ! ZUT ! J'ai plus de vaseline...

    Jean-Pierre Prenduron

  49. Abondance 25 juin 2011 at 5 h 39 min

    J'adore le grand courage de ce type de commentaire écrit de façon anonyme... Chapeau les gars !

  50. Guillaume 25 juin 2011 at 10 h 39 min

    @abondance: surtout ceuw qui postent comme anonyme mais signent de leur nom + prénom ? 😉

  51. Abondance 25 juin 2011 at 11 h 24 min

    Je vois qu'on est d'accord 🙂

  52. Anonymous 25 juin 2011 at 18 h 23 min

    Y devrait pas modérer, ça fait du ranking, lol

  53. Marc L. 25 juin 2011 at 18 h 25 min

    Bah, si Olivier le voulais, il pourrais associer l'ip avec l'heure, chercher dans les logs tous les posts de la même ip et probablement découvrir l'anonyme "fustigeur". D'accord ou pas, anonyme ou pas, le langage mal caché de légume et d'anatomie (...) me dérange sur un site comme celui-ci. Je viens chercher des infos, des avis pertinents, du pour et du contre, pas des insultes a demi cachées.
    Marc Longo (le vrai) ;-))

  54. Anonymous 25 juin 2011 at 19 h 36 min

    Bah, si Olivier le voulai(s) => avec un T please, c'est mieux en bon français.

    Lol, en voilà une bonne idée: éplucher un log Apache sans savoir exactement ce que l'on cherche, pour finir par peut-être tomber sur une ou plusieurs IP(s) dynamique(s) après quelques heures, IP(s) dont l'une va peut-être correspondre à un cyber-café, une autre à un proxy...

    LOL! Faut arrêter de regarder les séries françaises sur TF1

  55. Sébastien 27 juin 2011 at 13 h 53 min

    Pour rebondir sur le commentaire de Briac, tout comme lui, j'ai travaillé pendant plus de trois ans avec Raphaël, devenant même son associé.
    Ce que j'ai lu ici m'a profondément touché dans la mesure où il s'agit souvent de conclusions hâtives et d'un lynchage en règle qui ne laisse aucun crédit, ni chance à l'auteur de l'étude.
    Certes, comme le souligne Briac, certains points de l'étude sont perfectibles et discutables, mais cela ne concerne bien souvent que la forme et non le fond.
    J'ai appris le métier aux côtés de Raphaël, et je peux vous assurer que ses analyses, tests, conclusions... ne sont pas sortis de son chapeau. Tout comme je suis à peu près certain de ne pas être un charlatan ou de ceux qui font du tort au métier de référenceur. Laissons donc la forme de côté pour s'intéresser davantage au contenu et débattre (intelligemment), comme cela est précisé sur WRI. Et pour les plus curieux, il me semble que Raphaël les a invité à le contacter... C'est encore le meilleur moyen de se faire une idée du sérieux du "bonhomme"... 🙂

  56. Marc L. 27 juin 2011 at 20 h 23 min

    Je ne doute pas moi aussi que Raphaël a fait un long, lourd, minutieux et intelligent travail. Je suis encore plus nul en orthographe (en anglais etc ... mais diplôme avec 21/20 en science ...) et je ne prends pas souvent la peine d'utiliser un correcteur . Je ne ne jettes pas la pierre pour cela.
    Cette annonce sur son bouquin est bien sûr très intéressante, mais le prix est vraiment coriace !
    Sur mes sites de test, je viens de constater que depuis ce matin, les classements ont été complètement bouleversés pour certains type de données. Panda ou pas, je ne sais pas, mais bouleversement quand même.

    Donc je trouve que la pérennité du contenu du livre est extrêmement volatile et justifie la retenue face au prix. A moins que Raphaël mette un service "complémentaire" en ligne pour ceux qui l'achèterons?

    En projet en ce moment et plus de moyens, l'ouvrage n'est pas a ma portée financière, mais si j'étais un pro du ref ou avec des recettes, je me sentirais obligé de l'acheter avec une petite grimace ;-))

  57. Marc L. 1 juillet 2011 at 12 h 19 min

    Rien de nouveau coté analyse du contenu du tome 2 ?
    malgré 2 demandes, j'ai pas reçu le tome 1, mais avec la recherche .pdf, google me l'a donné direct en pdf. Je suis très suspicieux sur la rigueur de la méthode, car le nombre de combinaisons possible est pour moi de 3 125 000 et l'ouvrage dit avoir fait 5000 tests. Cela dit, 5000, c'est déjà pas mal. Mais on aimerais bien avoir l'avis du expert sur ce tome 2 ...

  58. Etpiquoiencore 10 septembre 2012 at 4 h 35 min

    Que de blabla ... mais que de blabla ! C'est vraiment la masturbation mentale de l'informaticien qui veux se faire aussi intelligent que tous les autres. Mon site à moi est en première page de Google et alterne entre la troisième page et la sixième depuis 5 ans et j'ai jamais dépensé un seul centime dans toutes les conneries que l'on peut lire partout.
    Je ne sait pas si je suis le plus intelligent mais la position de mon site me porte à croire que je suis le moins con.

  59. Etpiquoiencore 10 septembre 2012 at 4 h 36 min

    Que de blabla ... mais que de blabla ! C'est vraiment la masturbation mentale de l'informaticien qui veux se faire aussi intelligent que tous les autres. Mon site à moi est en première page de Google et alterne entre la troisième place et la sixième depuis 5 ans et j'ai jamais dépensé un seul centime dans toutes les conneries que l'on peut lire partout.
    Je ne sait pas si je suis le plus intelligent mais la position de mon site me porte à croire que je suis le moins con.

Un site du Réseau Abondance | Olivier Andrieu | Contact | Publicité sur le site