Web 2.0, Contenu caché et pénalités Google (Questions/réponses avec Google #2)

   
(English version - machine translation)

Rappel du contexte : voici donc la suite de notre série de questions/réponses avec Google avec une question souvent posée au sujet des contenus "cachés", notamment dans le cadre de sites web 2.0.

En effet, la règle d'or énoncée par Google pour le contenu textuel d'une page web est claire : "tout ce que l'internaute voit, le moteur doit le voir, tout ce que le moteur voit, l'internaute doit le voir." Donc, si l'on suit cette règle à la lettre, on comprend que tout le contenu indexable par le moteur de recherche doit être visible par l'internaute lorsque la page est affichée.

Or, cela n'est pas toujours le cas, notamment sur les sites web "2.0" pour lesquels du texte est souvent "pré-chargé", bien présent dans la page web, mais non affiché par défaut. Par exemple : plusieurs onglets peuvent être proposés sur une page web, le contenu de chaque onglet étant présent dans le code HTML. Mais ces contenus n'apparaîtront que si on clique sur les onglets en question, pour faire apparaître instantanément le contenu de cette zone (voir un exemple parlant ici : http://webfx.eae.net/dhtml/tabpane/tabpane.html. Dans ce cas, en un sens, on cache du contenu à l'internaute, tout du moins au premier affichage de la page. Est-ce alors répréhensible ?

De a même façon, l'utilisation d'attributs "visibility:hidden" ou "display:none" peut être nécessaire au bon "non-affichage" ou à la mise en page de certaines parties de textes dans ce type de site. Là encore, y a-t-il un risque de pénalité si ce type de fonction est utilisée ?

Nous avons posé la question à Google et à Ambroise Fensterbank et voici sa réponse :

Question Abondance : On sait que la notion de "contenu caché" est préjudiciable dans le cadre d'une bonne prise en compte de son contenu par Google. Cependant, notamment dans le cas de sites Web "2.0", on peut être amené à utiliser des attributs "visibility:hidden" ou "display:none", à des fins de mise en pages, par exemple pour précharger le contenu d'un onglet non visualisé sur la page par défaut, mais qui pourra être affiché si on sélectionne cette zone d'information (en cliquant sur l'onglet correspondant, par exemple). Cette technique est-elle préjudiciable ?
 

La réponse de Google : Non, l'emploi de cette technique n'est pas préjudiciable dans ce cas, car cela ne va pas tromper les utilisateurs de Google.
En général, nous recommandons de montrer la même chose à Googlebot et à vos visiteurs. Mais parfois, les webmasters ont besoin de montrer du contenu de façon différente aux visiteurs et aux moteurs de recherche, pour leur design par exemple. Dans ce cas, cela ne pose pas de problèmes.
Si vous utilisez du code JavaScript, notamment, assurez-vous que le contenu soit accessible aux utilisateurs qui ne peuvent pas l'exécuter (tel que Googlebot) et que ça n'entrave pas la navigabilité du site. Vous pouvez utiliser un navigateur en mode texte tel que Lynx pour avoir une idée de ce que Googlebot voit de votre site.

Notre commentaire : la règle "tout ce que l'internaute voit, le moteur doit le voir, tout ce que le moteur voit, l'internaute doit le voir" doit donc être interprétée avant tout en termes de "bon sens". S'il y a tentative de "tricherie" auprès de Google en tentant de tromper les internautes, la pénalisation sera mise en place. Si du texte n'est pas affiché mais que cela est nécessaire pour la mise en pages, cela ne posera pas de problèmes a priori. On peut penser également à la création de texte en "visibility:hidden" mis "derrière" un logo au format image par exemple. Si le texte "caché" décrit parfaitement le contenu de l'image (exemple : "Logo de l'entreprise Tartempion"), cela devrait "passer" sans problèmes. Si le texte "caché" est un prétexte pour indiquer une dizaine de mots clés ("Tartempion : chaussures de sport, chaussures de tennis, chaussures de basket, chaussures pour sportifs, chaussures pas cher"), cela devient vite "limite" et donc potentiellement pénalisable. Tout est question de bon sens et de nuances parfois dans le petit monde du référencement :-)

Rappel de la première Question à Google : Les underscores dans les URL (Questions/réponses avec Google #1)

Commentaires : 25
  1. Dan 9 novembre 2009 at 10 h 03 min Reply

    "Tout est question de bon sens et de nuances"
    Exacte et c'est ce qui fait tout la richesse de ce métier :-D

  2. Agence AxeNet 9 novembre 2009 at 10 h 09 min Reply

    Cette logique du bon sens est appréciable et rassurante...

    Même si j'ai parfois vu des sanctions pour cette raison alors qu'aucune volonté de tricher n'était présente, et qu'en contrepartie, je vois parfois de véritables entourloupes non sanctionnées.

    Encore une fois, merci à Ambroise et Google pour ces éclaircissements de règles parfois indigestes des conseils aux webmasters, et bravo à Abondance pour avoir convaincu Google d'accepter de s'exprimer ici.

  3. b2f-concept 9 novembre 2009 at 10 h 27 min Reply

    Je crois plutot que Google dit ce qu'ils aimeraient pouvoir faire. Sur pas mal de cas, le visibility hidden avec une tartine de mots clés avec des liens vers d'autres pages, et bien ca marche.

  4. Michel Babin 9 novembre 2009 at 13 h 03 min Reply

    C'est d'autant plus logique que Google utilise une telle pratique dans son centre d'aide aux webmasters :)

    http://www.google.com/support/webmasters/bin/answer.py?hl=fr&answer=156412
    (Quels éléments souhaitez-vous supprimer ?)

  5. Abondance 9 novembre 2009 at 13 h 06 min Reply

    Exact !
    Ouf, Google ne sera pas pénalisé...
    :-)))
    a+

  6. Blog Paradi-SEO 9 novembre 2009 at 16 h 31 min Reply

    Certes, mais un bot est-il capable de bon sens, même avec une armée d'ingénieurs de grand talent derrière ?

  7. kadafi 9 novembre 2009 at 16 h 53 min Reply

    comme toujours avec google il y a une différence entre la théorie et la pratique.

  8. Gwaradenn 9 novembre 2009 at 19 h 17 min Reply

    On sait très bien que Google ne fait pas la différence, mais qu'il tente d'aiguiller les webmasters dans le droit chemin (le sien) à coup de "conseils" et sanctions.

  9. Gautier 10 novembre 2009 at 9 h 26 min Reply

    Euh... il est dans quelle direction le bon sens ?

    A part ça, merci Google et Olivier pour cet éclaircissement.

    Récemment je me demandais l'opportunité de ne pas afficher un formulaire d'inscription pour des personnes déjà inscrites.

    Visiblement, Google ne pénaliserait pas. (ou tout du moins, si on l'est et que ce n'est pas légitime/justifié selon sa direction du "bon sens", on pourra leur envoyer cette page :-).

    Gautier

  10. Mathieu 12 novembre 2009 at 13 h 33 min Reply

    Un "keyword stuffing à l'ancienne" :) lèvera tout de suite un flag.

    Finalement, on en revient à la qualité du contenu... Le keyword stuffing, même visible, ne serait-il pas simplement détecté ?
    Alors que dans le même temps un texte unique bien rédigé et invisible ne passerait-il pas inaperçu ?
    Je me le demande ...

  11. Anonymous 12 novembre 2009 at 14 h 21 min Reply

    Il y a de nombreuses façons de cacher du contenu, google ne le verra pas et votre site s'est trouvera mieux classé.

    Progression de la 9è place à la 2è en un mois alors qu'il s'agit de la seule modif....

    Il y a ce que veux google et il y a la réalité.

  12. Anonymous 12 novembre 2009 at 16 h 42 min Reply

    Et quels sont ces techniques selon toi ?

  13. Anonymous 12 novembre 2009 at 16 h 43 min Reply

    car bcp sont sanctionner par Google

  14. Patrick 13 novembre 2009 at 10 h 33 min Reply

    Sous les conseils de Ambroise Fensterbank je viens d'installer lynx pour voir ce que voit le moteur ( cf http://www.fdisk.com/doslynx/wlynx/lynx_w32.2.8.2rel.1.zip ) , résultat Googlebot est une TAUPE ! D'un autre coté si tout le monde repassait en mode textuel on irait certainement très vite au niveau du chargement des pages ..

    Je ne comprends pas pourquoi la règle d'or énoncée par Google "tout ce que l'internaute voit, le moteur doit le voir" devrait s'appliquer uniquement au contenu textuel. C'est une limitation technologique , un site tout en Flash est invisible pour Googlebot , est-ce qu'il faut arrêter de faire des sites en Flash ?

    Le moteur Googlebot ressemble à la machine de Joseph Cugnot ( le fardier à vapeur) qui essaye de rouler sur les autoroutes 4 voies d'aujourd'hui .

    A quand un moteur capable de reconnaître les images et les vidéos ? Rouler avec le moteur de Googlebot sur les autoroutes de l'information en 2009 c'est déjà enfreindre le code de la route numérique , le moteur est en sous vitesse et c'est dangereux pour les autres conducteurs.

    C'est dommage que Googlebot fasse aussi fonctionner "Radarbot" qui pénalise tout ceux qui passent a coté de lui trop vite pour pouvoir être reconnu. Il y a des excès de vitesse partout car il y a des des chauffards partout mais si le moteur textuel GoogleBot est lent et poussif et qu'il n'est plus adapté au système routier à qui la faute ? La pénalisation peut effectivement empêcher certains excès de vitesse mais pendant combien de temps va t-on rester textuel car un moteur n'arrive pas a suivre ce qui se fait en matière de contenu non plus basé sur du texte mais de plus en plus sur des images et des vidéos ?

  15. Laurent 13 novembre 2009 at 16 h 13 min Reply

    Pire !
    Lisez bien les recommandations de Joachim Kupke, éminent Googler, http://www.audettemedia.com/blog/9-seo-takeaways-smx-east/

    Il est écrit noir sur blanc que le webmaster ne devrait pas interdire le crawl du contenu, même dupliqué. Il faudrait laisser Google décider lui-même quelle est la page qui prime.

  16. Abondance 14 novembre 2009 at 7 h 29 min Reply

    Bjr
    @Laurent : euh, quel est le rapport entre le duplicate content et le sujet du post ???
    Merci de cet éclaircissement.
    PS : pour le duplicate content, la balise "link rel canonical" simplifie maintenant la donne...
    Cdt

  17. Anonymous 16 novembre 2009 at 10 h 26 min Reply

    Evidemment tout est une question d'harmonie.

    Le contenu caché web 2.0 ou pas n'est pas un probléme en soit.
    Beaucoup de site cache du contenu !!
    les methodes CSS et javascript ne sont pas pour autant les moins dangereuses !!
    D'experience les display none et visibility hidden sont quand même à proscrire. (sandbox)

    Par contre les methodes pures html valide w3c ont toujours été accepté par google.

    Pour ma part j'utilise pour les sites 2.0 des blocs statique pure html toujours aussi efficace en terme de ref.
    Bien sur ce "bombing" reste en harmonie avec le contenu du site et ne vient que renforcer le visible.

  18. Mapics 11 février 2010 at 19 h 34 min Reply

    Comme quoi rien n'est figé et que bon nombres de règles change, car j'ai toujours vue que l'ont déconseillais le contenue caché. merci pour cette éclaircissement.

  19. Anonymous 22 avril 2010 at 14 h 07 min Reply

    j'aime bien le gars qui dit : "D'experience les display none et visibility hidden sont quand même à proscrire."
    alors que le gars de google dit l'inverse dans la réponse ;-)

  20. Anonymous 27 août 2010 at 7 h 01 min Reply

    Merci pour ce billet qui apporte des réponses très éclairantes.

  21. Totobox 15 janvier 2011 at 10 h 21 min Reply

    J'ai peut etre (surement) un probleme de sandbox avec Google vu l'effondrement de mon site en un an.

    J'ai utilisé une petite zone cachée en entete pour insérer quelques mots clés complémentaire. De plus, ces petites zones se retrouvaient quasiment identiques sur des dizaines de pages, donc, risque de duplicate.

    je viens de tout enlever car je n'avais plus que 900 pages indéxées dans l'index primaire sur un total de 110 000 ... il y a encore quelques mois, j'avais encore 4 000 pages dans l'index primaire ...

    Depuis 3 jours, la seule chose qui a changée, c'est que je suis remonté a 1400 pages indexées dans le primaire ...

    Reste a attendre, je vous donnerais le resultat ...
    toutefois, je ne saurais pas si la cause etait le texte caché, le duplicate content ou les 2 ...
    Totobox

  22. Francois 21 mai 2011 at 20 h 45 min Reply

    Je partage l'avis de BLOG PARADI SEO : Google a-t-il du bon sens ?
    Et comment parvient-il réellement à faire la distinction entre un javascript de "plié-déplié" et un javascript destiné purement à une optimisation black hat ?
    Je serais curieux de connaître les résultats du test de TOTOBOX.

  23. Expert SEO 13 juin 2011 at 15 h 45 min Reply

    Il n'y a donc qu'une question à se poser pour résoudre ce problème ... Se mettre dans la peau d'un internaute.

  24. Marc L. 23 juin 2011 at 12 h 53 min Reply

    Je reviens sur ce sujet sur une autre façon de penser et de procéder :

    Je souhaites compléter mes pages avec des informations "recueillies" ci et là sur la toile, mais je ne veux pas les les utiliser comme moyens d'indexation ou d'optimisation et je décide de ne pas les montrer au robot en les plaçants dans un fichier .js .

    Ces informations recueillies sont bien en rapport avec mon sujet et sont là uniquement comme services complémentaire et utile pour le visiteur.

    Je risque la sanction?

  25. Avocat 28 février 2012 at 10 h 48 min Reply

    Merci pour ces précisions.
    Tous ces critères d'opti on-page me paraissent dépassés / insignifiants ... mais je dois me tromper.
    Cdt.

Laisser un commentaire (charte de saisie de commentaire)

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *


*

Un site du Réseau Abondance  : Information : Abondance - Forums Abondance - Boutique Abondance - Livre Référencement - Formation DVD Référencement | Outils : Outiref - Visiref - Spider SimulatorDivers / Jeux : Googlefight - Googland |  Moteurs de recherche : Mozbot.fr - Mozbot.com - Grifil.net - SearchWings