Depuis 2024, le paramètre « num=100 », qui permettait d’afficher 100 résultats par page sur Google, ne fonctionne plus de façon fiable. Entre tests aléatoires, exigences techniques accrues et nouveaux défis pour les outils SEO, ce retrait touche de plein fouet les professionnels du référencement. Analyse des causes, des conséquences concrètes et des retours terrain autour de ce changement majeur.

Ce qu'il faut retenir :

  • Google teste et limite désormais l’affichage de 100 résultats par page via « num=100 », qui n’est plus garanti ni stable.
  • Ce changement impacte fortement les outils SEO, forçant à revoir l’infrastructure technique et les stratégies de suivi de positionnement.
  • La pagination et l’obligation de JavaScript élèvent les coûts et la complexité pour récupérer la data, notamment en scraping./li>
  • La fiabilisation et l’accès rapide au TOP 100 de la SERP deviennent incertains pour les pros du secteur.

La fin du paramètre « num=100 » : Google change la donne pour l'affichage des SERP

Depuis la fin 2023, une changement est en train de bouleverser les habitudes des référenceurs et des acteurs du web : le paramètre « num=100 », utilisé pour forcer Google à afficher 100 résultats sur une seule page, a perdu sa fiabilité. Ce changement, d’abord observé dans les forums et relayé par des experts comme Barry Schwartz (Search Engine Roundtable), provoque de nombreux dysfonctionnements pour les utilisateurs avancés et les outils SEO.

Un fonctionnement devenu aléatoire et instable

À partir de l’automne 2024, plusieurs signaux montrent que l’option « &num=100 » n’est plus systématiquement prise en charge par Google. Lorsque ce paramètre est ajouté à l’URL de recherche, il ne fonctionne plus qu’environ une fois sur deux, et son comportement varie selon que l’on est connecté ou non à un compte Google. Pour certains, il ne marche qu’en mode déconnecté, pour d’autres, il n’a tout simplement plus d’effet, quel que soit le contexte. Cet « A/B test » géant a été constaté sur X (ex-Twitter) et confirmé par de nombreux SEO, dont les outils de suivi de rang rencontrent désormais des incohérences et des capchas aléatoires.

Des conséquences techniques et économiques majeures pour le SEO

Comme le rappel Fabien Barry de Monitorank dans une publication sur LinkedIn, la suppression du paramètre « num=100 » a contraint les outils de suivi de positions à s’adapter très rapidement. Déjà, à l’introduction du scroll continu dans les SERP en novembre 2023, certains avaient dû opter pour des navigateurs headless afin de simuler le comportement utilisateur et exécuter le JavaScript chargé de générer la page. Cette solution a fait exploser les coûts d’infrastructure (jusqu’à x5) pour les acteurs du secteur, notamment à cause du lourd recours à la RAM et au CPU.

Fin juin 2024, le retour de la pagination classique n’a pas fait revenir le support natif du « num=100 », tout en rendant les chargements de pages suivantes encore plus lourds (DOM complet à chaque page, plus de rechargement « léger » en AJAX)[Fabien Barry LinkedIn].

La conséquence ? Chaque nouvelle page demandée nécessite de télécharger à nouveau la majorité du contenu, ce qui multiplie le temps de requête et les ressources serveur, faisant grimper les coûts à x7 par rapport à l’époque où le « num=100 » était supporté. Les tentatives d’optimisation (désactivation du JS, récupération sélective des blocs de résultats) permettent de gagner en efficacité, mais ne compensent pas les volumes inutiles téléchargés, surtout lorsqu’un proxy est bloqué dès la troisième page, coupant partiellement l’accès au TOP 100 en un seul appel.

La fiabilisation de la donnée, un nouveau défi pour les outils SEO

La perte du « num=100 » impose une nouvelle philosophie aux outils SEO : privilégier la fiabilité et la représentativité de l’information extraite. Fabien Barry explique avoir fait le choix de restreindre le tracking à seulement 5 pages afin d’offrir de la data de meilleure qualité malgré une augmentation tarifaire de 20 %. Pour certains, cette situation signe la fin de la récupération facile du TOP 100 et amène les professionnels à se poser la question : un TOP 100 est-il encore pertinent ou utile dans les pratiques actuelles ?

Depuis janvier 2025, Google va plus loin en forçant l’activation du JavaScript sur ses SERP, preuve supplémentaire que les bots SEO sont dans le collimateur de la firme de Mountain View. L’évolution n’est donc pas qu’un simple test d’UX : elle traduit une volonté claire de compliquer la collecte massive d’informations destinées aux outils tiers, tout en mettant en avant la protection de ses infrastructures et ses données.