> > Nouvelle étude sur le taux de clics dans les SERP des moteurs : 18,2% des clics pour la première position

Nouvelle étude sur le taux de clics dans les SERP des moteurs : 18,2% des clics pour la première position


Nouvelle étude sur le taux de clics dans les SERP des moteurs : 18,2% des clics pour la première position
5 (100%) 1 vote

Une nouvelle étude, menée par la société Slingshot, mesure le taux de clics dans les pages de résultats de Google en fonction du rang (de 1 à 10) du lien affiché...

En avril dernier, la société Optify publiait une étude montrant que les trois premiers résultats proposés par les moteurs de recherche thésaurisaient près de 60% des clics des internautes : le premier lien captait 36,4% des clics, le deuxième 12,5% et le troisième 9,5%, soit 58,4% en tout pour le podium de résultats.

Aujourd'hui, une nouvelle étude, citée par Brioude et menée par Slingshot SEO, donne cette fois les résultats suivants : 18,2% des clics pour le premier lien, 10,1% pour le deuxième et 7,2% pour le troisième. Soit 35,5% pour le podium, loin donc des résultats d'Optify.

Etude Slingshot
Source de l'image : Slingshot

L'étude de Slingshot compare d'ailleurs ses résultats à ceux d'Optify et d'Enquiro en 2007 et constate effectivement des différences notables dans les chiffres renvoyés, imputables selon Slingshot à des méthodologies différentes et des changements intervenus entre temps dans les SERP de Google :

Etude Slingshot
Source de l'image : Slingshot

Enfin, Slingshot note que le taux de clic est totalement différent dans les SERP selon que la recherche universelle (affichage d'images, de vidéos, etc.) est affichée (Blended SERP CTR dans les chiffres affichés ci-dessous) ou pas, ce qui est assez logique :

Etude Slingshot
Source de l'image : Slingshot

Articles connexes sur ce site :
- Le premier résultat Google capte 36% des clics, les 3 premiers près de 60% ! (28 avril 2011)
- Infographie : taux de clics dans les SERP de Google (29 avril 2011)
- SEO Campus 2010 : Un tableau de bord référencement sans notion de positionnement : utopie ou réalité ? (23 février 2010)
- Quelques statistiques sur le Pagerank et les SERP (13 novembre 2007)
- Etude : le snippet, élément déterminant dans les Serps ! (30 août 2010)
- L'eye-tracking condamne Cuil (18 septembre 2008)

Commentaires : 15
  1. Olivier 3 août 2011 at 6 h 50 min

    Très intéressant mais le décalage entre les résultats de l'étude Optify et ceux de l'étude slingshot sont difficilement compréhensibles !

    Pour Slingshot, si on cumule tous les clics des 10 premiers liens, on arrive seulement à 52 %...Donc la deuxième page et les suivantes attireraient près de la moitié des clics ! C'est assez étonnant, non ?

  2. Abondance 3 août 2011 at 6 h 58 min

    Oui je suis assez d'accord, je trouve l'étude d'Optify plus "logique", plus crédible...
    cdt

  3. Virginie 3 août 2011 at 7 h 24 min

    Etonnant, oui et non. Il y aurait une différence de taux de clic entre les recherches généraliste et les recherches de longue traîne qui, elles, amèneraient plus de clics dans les pages 2 et 3.

  4. Thomas Barbéra 3 août 2011 at 7 h 38 min

    Enfin, 1 personne sur 2 qui va en 2nd page, on est quand même loin de la moyenne globale je pense. On doit y arriver à peine sur des requêtes de longue traîne comme le souligne Virginie.

  5. Annuaire bâtiment 3 août 2011 at 7 h 51 min

    J'ai un raisonnement qui pourrait peut être éclaircir la différence de résultats :

    Est ce que cette nouvelle étude prend en compte les clics Adwords?

  6. Nicolas,E-seo 3 août 2011 at 9 h 20 min

    Hum, on oublie vraiment l'aspect universel qui prend juste toute la visibilité au jour d'aujourd'hui...

    Un exemple d'expérience :

    Je suis 4ème avec un site perso pour une requête fortement tapé, mon traf nat ne dépasse pas les 600 visites/jour.

    Lorsque j'ai le même positionnement sous GG news, je tape facilement 6000v/jour pour cette seule requête...

    Soit au bas mot 10x plus, même si la part des personnes venant directement depuis GG news est majoritaire,celle cliquant directement depuis le SERPS est hyper élevé dû au thumb.

    Ajoutons à cela les requêtes marchandes pourrit par GG SHopping, les requêtes locales par LBC, ou encore les requêtes d'ordres général, musique, film, avec youtube et images...

    Bref, je trouve que 18.2% de clic, c'est déjà pas mal vu les différents médias présent sur une homepage comme Google.

  7. Anonymous 3 août 2011 at 10 h 34 min

    C'est quoi le thumb ? J'ai cherché sur internet et je ne trouve pas !

  8. Abondance 3 août 2011 at 11 h 13 min

    Thumb = thumbnail = vignette 🙂
    Enfin, je pense 🙂
    cdt

  9. Ruben 3 août 2011 at 11 h 44 min

    Il me semble important d'analyser également les 11e te 12e positions qui potentiellement pourraient connaitre un meilleur taux de clic que les 8-9-10e positions.

  10. Thomas Barbéra 3 août 2011 at 12 h 23 min

    C'est vrai que si l'on ajoute Adwords, Shopping et les recherches locales, on s'approche peut-être de ces statistiques. Il serait intéressant d'en savoir plus sur la méthodologie.

  11. Nicolas, Allogarage 3 août 2011 at 12 h 32 min

    Aujourd'hui avec Google Webmaster Tools, on a les moyens de connaître de façon précise le CTR en fonction de sa position... A quoi bon une énième étude?

  12. Annuaire Français 3 août 2011 at 13 h 33 min

    Une étude qui selon nous, reflète bien la "bonne progression" de Google sur l'aménagement des serps : être plutôt éclectique. Nous pensons aussi que la présence dans les serps des Google adresse ont conduits à ces changements. En effet, ces adresses ne sont pas assez explicites pour l'internaute. Quelle confiance, quelle certitudes, quels critères de choix sur un nom adresse et tel ? Aucun.

    L'usager aura plutôt tendance à aller plus bas dans la page, voire la deuxième page pour trouver des extraits de descriptions qui feront basculer son choix.

    Cela rejoint la question de @RUBEN sur les clics de la 11ème et 12ème positions, qui pourraient avoir un meilleur taux de clics que la 9ème position.

  13. Le Juge 3 août 2011 at 15 h 57 min

    A noter qu'en début de l'article original il y a une longue explication sur la méthodologie employée et la difficulté de mettre en place ce genre d'étude compte tenu de la faible "stabilité" des résultats naturels

  14. Tixobalt 4 août 2011 at 15 h 39 min

    Faible stabilité en effet. Sans parler des résultats personalisés selon l'IP, l'historique du navigateur, la géolocalisation etc.

  15. Denis 6 septembre 2011 at 12 h 46 min

    Finalement, on en sait rien ?

Un site du Réseau Abondance | Olivier Andrieu | Contact | Publicité sur le site