Quelques infos sur Google (et Bing parfois) et son moteur de recherche, glanées ici et là de façon officieuse ces derniers jours. Au programme, cette semaine : la limite du budget crawl a-t-elle vraiment un sens ? Que faire des paramètres UTM dans les URL ?

Voici une petite compilation des informations fournies par les porte-paroles officiels de Google ces derniers jours sur différents réseaux informels (Twitter, Hangouts, forums, conférences, etc.). Donc « gossips » (rumeur) + Google = « Goossips » 🙂

La communication du moteur de recherche étant parfois plus ou moins sujette à caution, nous indiquons, dans les lignes ci-dessous, le niveau de confiance (taux de fiabilité) que nous accordons à l'information fournie par Google (de 1 à 3 étoiles, 3 étoiles représentant le taux de confiance maximal) - et non pas à la source qui en parle.

 

Des précisions sur les limites du Budget Crawl
Sur Reddit, John Mueller a répondu à une question portant sur le budget crawl, et plus spécifiquement si un grand nombre de redirections 301 aboutissant à des erreurs 410 pouvaient épuiser ce budget crawl. John Mueller a déclaré que le concept de  budget crawl était un concept inventé par les SEO destinée à expliquer pourquoi certains sites sont peu explorés. En réalité, Google n’impose aucune limite. Il souligne également que cette situation est surtout un problème pour les grands sites et que si un site de plus petite envergure rencontre des problèmes de crawl, cela peut vouloir dire que Google ne voit pas l’intérêt d’explorer davantage de pages. Par ailleurs, John Mueller a également précisé que la combinaison de 301 et 410 était une pratique acceptée par Google.
Source : Search Engine Journal
Taux de fiabilité :
Même s’il n’existe pas de limite de crawl en théorie, les robots sont toutefois conçus pour explorer les sites sans surcharger les serveurs. D’autres éléments, comme la vitesse de réponse du serveur, peuvent également exercer une influence sur ce point.

 

Désavouer les paramètres UTM dans les URL n’a pas d’intérêt pour votre classement
John Mueller a expliqué que bloquer des URL contenant des paramètres UTM ne contribuait pas à améliorer le crawl ou le classement sur Google Search. Il recommande plutôt de maintenir des URL propres et cohérentes, en précisant que les balises canoniques aideraient avec le temps à nettoyer les paramètres d’URL aléatoires. Il conseille également de ne pas les bloquer avec le fichier robots.txt, mais plutôt de régler le problème à la source.
Source : Search Engine Roundtable
Taux de fiabilité :
Rien de forcément très nouveau, John Mueller ayant déjà préconisé cette approche dans de précédentes déclarations.