Goossips : PDF, Crawl et Blocage de Ressources

Quelques infos sur Google et son moteur de recherche, glanées ici et là de façon officieuse ces derniers jours, avec au programme cette semaine quelques réponses à ces angoissantes questions : Un fichier PDF est-il compatible mobile ? Le Crawl Budget est-il si important que cela ? Et un crawl fréquent d'un site est-il synonyme de meilleurs classements ? Faut-il bloquer des ressources spécifiquement pour Googlebot ?

Voici une petite compilation des informations fournies par les porte-paroles officiels de Google ces derniers jours sur différents réseaux informels (Twitter, Hangouts, Google+, forums, conférences, etc.). Donc "gossips" (rumeur) + Google = "Goossips" 🙂 La communication du moteur de recherche étant parfois plus ou moins sujette à caution, nous indiquons, dans les lignes ci-dessous, le niveau de confiance (taux de fiabilité) que nous accordons à l'information fournie par Google (de 1 à 3 étoiles, 3 étoiles représentant le taux de confiance maximal) - et non pas à la source qui en parle.

 PDF
John Mueller a rappelé une évidence sur Twitter en expliquant qu'un document PDF ne peut pas être "mobile friendly" ou en tout cas que Google ne les voyait pas ainsi...
Source : Search Engine Roundtable
Taux de fiabilité :
Notre avis : Effectivement, un document PDF ne va pas adapter son affichage au terminal utilisé par le mobinaute, il n'est donc pas mobile friendly. Ceci dit, cela n'empêchera pas un site de passer dans l'index "mobile first" par ailleurs, même s'il propose de nombreux fichiers PDF...
 Crawl Budget
John Mueller a indiqué, toujours sur Twitter, que la notion de "crawl budget" était souvent surévaluée par les webmasters. S'intéresser à ce point peut être efficace pour les très gros sites, pas pour les plus petits.
Source : Search Engine Roundtablel
Taux de fiabilité :
Notre avis : On est assez d'accord. Un site de quelques dizaines ou centaines de pages n'a pas trop de soucis à se faire en termes d'indexation (si le site est bien réalisé par ailleurs, bien sûr). Au-delà de plusieurs milliers de pages, la question du crawl budget devient plus prégnante. Pour des dizaines de milliers de pages et plus, il est (très) important...
 Blocage de Ressources
Toujours John Mueller qui explique dans un hangout qu'il ne conseille pas de bloquer des ressources uniquement pour Google, car cela peut jouer sur la façon dont le moteur de recherche "voit" la page. Et cela peut donc modifier son analyse. Exemple : bloquer pour Googlebot une ressource Javascript qui serait trop lente à s'afficher, pour des raisons de web performance.
Source : TheSemPost
Taux de fiabilité :
Notre avis : Outre le fait qu'il s'agit ici (plus ou moins) de cloaking, il peut également être dangereux de bloquer des ressources uniquement pour un moteur de recherche. A la limite, il vaut mieux tenter d'améliorer la ressource en question plutôt que de la bloquer :-)....
 Crawl Régulier
John Mueller, toujours lui, a expliqué sur Twitter qu'un crawl régulier sur un site n'était pas synonyme de meilleur classement et qu'en règle générale, la régularité du crawl n'avait pas de corrélation directe avec le ranking.
Source : Search Engine Journal
Taux de fiabilité :
Notre avis : Bien sûr. Le crawl est avant tout dépendant de la fréquence de mise à jour de vos contenus. Si votre site est assez statique, le crawl sera assez faible en périodicité. Pour un site d'actualité mis à jour quotidiennement, il en ira bien sûr différemment. Mais rien ne dit qu'il sera bien classé par ce qu'il est crawlé souvent.
logo-infos-google
Goossip (Infos Google). Source : Google