Une infographie qui explique les fondamentaux des systèmes de crawl de sites web et d'indexation de pages par les robots des moteurs de recherche et de Googlebot en particulier...
Notre infographie du vendredi est proposée aujourd'hui par QuickSprout et propose quelques infos sur la prise en compte des sites par les robots de Google (qui crawlent 20 milliards de sites web par jour), émet 7 hypothèses sur le fait que Googlebot puisse ne pas indexer la totalité de vos pages et prodigue des conseils pour lui proposer une "journée portes ouvertes" (cliquez sur l'image pour en obtenir une version agrandie) :
Olivier Andrieu était consultant SEO indépendant. Il a créé la société Abondance en 1996 et le site abondance.com en 1998. En 2023, il a décidé de prendre sa « retraite SEO » pour se consacrer à son activité de scénariste de BD à temps plein.
ActuMoteurs, la newsletter hebdo d'Abondance
Rejoignez nos 20 000 abonnés et recevez, chaque semaine, tous nos articles dans votre boite mail !
Les données transmises par le biais de ce formulaire sont uniquement destinées à Abondance. Elles ne seront en aucun cas cédées à des tiers. Vous pouvez vous désabonner à tout moment en cliquant sur les liens de désinscriptions présents dans chacun de nos emails. Pour plus d’informations, vous pouvez consulter l’intégralité de notre politique de traitement de vos données personnelles.
3 Commentaires
Ecoaliffe
sur 27 janvier 2015 à 15 h 58 min
Infographie très instructive ! merci.
Grâce à vous j’ai pu indexer plus facilement mon site!
Si google n’arrive pas à crawler tout le web, alors comment sait-on combien de sites ne sont pas indexés ? Ce serait purement spéculatif sur une base statistique?
Existe-t-il des crawlers qui ne respectent pas la directive noindex du robots?
L'équipe Abondance vous propose d'analyser les performances SEO de votre site web.
Un audit chez Abondance c'est : ✔ Une analyse SEO complète orientée business
✔ Des recommandations concrètes et priorisées
✔ Livrées sur un rapport Notion simple à prendre en main
✔ Et une restitution orale pour tout vous expliquer
Calculez le prix d'un audit SEO grâce à notre simulateur et confiez-nous la réalisation de cet audit SEO. Une analyse sur-mesure qui sera réalisé par nos experts.
Infographie très instructive ! merci.
Grâce à vous j’ai pu indexer plus facilement mon site!
Vincent, j’imagine que tu voulais dire « disallow » quand tu parlais de directive dans le fichier robots.txt !
merci pour cette infographie.
Si google n’arrive pas à crawler tout le web, alors comment sait-on combien de sites ne sont pas indexés ? Ce serait purement spéculatif sur une base statistique?
Existe-t-il des crawlers qui ne respectent pas la directive noindex du robots?