Beaucoup imaginent encore GPT en train de « naviguer » sur des pages complètes comme un humain, alors qu’en réalité le modèle ne voit que de minuscules fenêtres de texte, strictement limitées et contrôlées. Comprendre cette mécanique de snippets, d’open(), de contextes Low/Medium/High et de fenêtre coulissante est aujourd’hui indspensable pour le SEO et pour tous ceux qui conçoivent des produits autour des APIs d’assistants.
Ce qu'il faut retenir :
- GPT ne « browse » pas : il ne reçoit ni HTML, ni page complète, seulement des petits objets structurés avec titre, URL et court extrait./li>
- Les fonctions open() et click() ne font qu’ouvrir des fenêtres de texte supplémentaires, elles n’enlèvent jamais les limites de taille ni de citation.
- Même en multipliant les expansions et en passant en « High context », GPT ne peut pas reconstruire une page entière.
- Pour le SEO, les premières lignes et les snippets deviennent le vrai terrain de jeu : ce sont eux qui nourrissent les réponses des LLM et non l’intégralité de vos contenus.
Comment GPT reçoit le web
Lorsqu’un assistant GPT fait un appel Web Search, il ne reçoit pas la page, mais un petit objet structuré qui ressemble à une « carte de résultat » de moteur de recherche. Cet objet contient le titre, l’URL, un court extrait de 1 à 3 phrases, parfois des métadonnées (date, score), et un identifiant interne de type turn0search0.
Ce qui est tout aussi important, c’est ce que le modèle ne voit pas : il n’a pas accès au HTML brut, ni à la page complète, ni à la navigation du site, encore moins à la structure globale du document. Pour produire une réponse, il doit donc se contenter de ces petits morceaux de texte comme base de « grounding » sur le monde réel.
Open(), click() et la navigation par fenêtres
Chaque snippet renvoyé par la recherche est accompagné d’un identifiant de récupération qui permet au modèle de demander plus de contexte. Deux opérations principales existent dans ce cadre : open() et click(), qui simulent une forme de scroll et de suivi de liens, mais toujours dans un cadre très restreint.
- open() récupère une portion de texte plus grande sur la même page, centrée autour d’un numéro de ligne. C’est l’équivalent d’un défilement dans l’article, mais sous forme de fenêtre textuelle limitée.
- click() suit un lien sortant depuis le snippet actuel et charge la page liée comme un nouveau snippet avec les mêmes règles de taille et de structure. Là encore, on reste dans le paradigme de « cartes de contenu », pas de navigation libre.
La logique de fenêtre coulissante
Les appels à open() ne sont pas limités à une seule fois : le modèle peut demander des fenêtres successives à différentes hauteurs du document. Par exemple, open() à la ligne 1, puis à la ligne 50, puis à la ligne 120, chaque appel ramenant une nouvelle fenêtre de texte centrée autour de cette zone.
Ce comportement crée une véritable « fenêtre coulissante » (slinding window) : GPT ne voit jamais toute la page d’un coup, mais une série de tranches séquentielles. Dans un test décrit par Dan Petrovic dans son article, les premières fenêtres ne contiennent que le titre, la date et l’introduction de l’article « BlockRank », puis des sections plus profondes sur le fonctionnement, les performances et enfin la conclusion, toujours via ces tranches successives.
Pourquoi GPT ne peut pas voir la page entière
En théorie, multiplier les open() à différentes lignes pourrait sembler suffisant pour parcourir quasiment toute une page. En pratique, ce n’est pas possible, car plusieurs garde‑fous techniques entrent en jeu :
- Chaque fenêtre est plafonnée en taille,
- Le nombre de réponses d’outils par tour est limité,
- Le modèle lui‑même est soumis à des limites strictes sur la quantité de texte qu’il peut restituer.
Même si le modèle a vu plusieurs fenêtres d’un même article, il n’a pas le droit de recracher de longs passages ni de reproduire l’intégralité du contenu. Il est explicitement obligé de résumer plutôt que de citer, ce qui protège les contenus d’une reproduction brute et maintient le rôle de « synthétiseur » plutôt que de « copieur » intégral.
Les deux types de limites : retrieval et output
Dan Petrovic distingue deux catégories de contraintes : les limites de récupération (retrieval) et les limites de sortie (output) :
- Côté retrieval, chaque open() renvoie une fenêtre de taille fixe, même si la page fait des milliers de mots, et la configuration de contexte choisie par le développeur (Low, Medium, High) contrôle la hauteur de cette fenêtre.
- Côté output, même si le modèle a absorbé plusieurs fenêtres, il reste encadré par des règles qui l’empêchent de reproduire de longues séquences de texte ou l’intégralité d’un document. Résultat : GPT est conçu pour renvoyer des synthèses courtes, reformulées et combinées, et non des copies intégrales de contenus web.
Low, medium, high : le rôle de la taille de contexte
Dans la console de configuration des assistants, le développeur choisit un niveau de « web context » : Low, Medium ou High. GPT ne décide pas lui‑même de ce paramètre, il se contente de recevoir des fenêtres plus ou moins grandes en fonction du réglage sélectionné.
Ces niveaux impactent trois aspects :
- La longueur du snippet initial,
- La taille de chaque fenêtre d’expansion
- La quantité de contenu adjacente incluse autour de la zone ciblée.
En passant de Low à High, on obtient des tranches plus « hautes », c’est‑à‑dire des extraits plus longs et plus riches, mais toujours soumis aux plafonds de taille et aux limites de sortie évoqués plus tôt.
Exemple concret : disséquer une page avec des fenêtres
Pour illustrer ce fonctionnement, l’article utilise un cas réel : une page de blog technique est explorée via différentes tailles de contexte et des appels successifs à open() :
- En Low context, le modèle ne voit d’abord qu’un minuscule extrait, à peine suffisant pour comprendre de quoi parle la page, accompagné de quelques snippets connexes provenant du même site (liste d’articles, bio de l’auteur, page de conférence).
- En ouvrant la page autour de la ligne 1, GPT récupère ensuite le titre « BlockRank: A Faster, Smarter Way to Rank Documents with LLMs », la date, la catégorie et les premières lignes d’introduction, mais l’intro reste tronquée.
- De nouveaux open() plus bas dans le texte donnent accès à la section « How BlockRank Works », puis à la partie « Performance », puis encore plus loin aux sections sur l’implémentation open source et la conclusion, toujours sous forme de fenêtres limitées.
Ce que voient (et ne voient pas) les développeurs
Un point souvent mal compris : ces fenêtres textuelles sont invisibles pour les développeurs qui utilisent l’API. Ce que le modèle « voit » dans son contexte interne (snippets, fenêtres ouvertes, etc.) n’est pas directement exposé dans les réponses retournées aux développeurs, qui ne reçoivent que la réponse finale générée par GPT.
Dans la pratique, le développeur a donc une vision indirecte du processus : il configure le niveau de contexte, autorise ou non la recherche web, mais n’accède ni au détail des fenêtres ni à leur contenu brut. Cela renforce l’idée que GPT n’est pas un navigateur programmable au sens classique, mais un modèle de langage branché sur une couche de récupération contrôlée.
Implications pour le SEO : le règne du snippet
Pour le SEO, ce modèle de vision « par tranches » change complètement la priorité : ce qui nourrit GPT, ce n’est pas l’intégralité de votre page, mais les extraits qui seront sélectionnés comme snippets. L’ouverture de contexte se fait à partir de ces petites cartes de résultat qui ressemblent à ce que l'on retrouve dans une SERP : titre, URL, court texte, métadonnées.
Concrètement, cela signifie que les premières phrases de vos contenus, celles qui risquent le plus d’être extraites, deviennent particulièrement stratégiques. Si elles ne résument pas clairement le sujet, ne contiennent pas les réponses clés ou sont trop vagues, vos pages peuvent être indexées et visibles sans réellement nourrir les réponses des IA.
Implications pour les produits et intégrations d’api
Pour les équipes produit qui utilisent l’Assistants API, comprendre ces limites permet d’éviter des attentes irréalistes. Un assistant n’est pas un mini‑navigateur capable de charger un site complet et d’y faire ce que vous feriez par vos propres moyens ; il enchaîne des appels à des fenêtres textuelles, chacune de taille limitée, avec une empreinte mémoire et des quotas de réponses par tour.
Dans la conception d’agents, cela se traduit par des choix pragmatiques : privilégier des sources déjà structurées, limiter la profondeur de scroll automatisé et accepter qu’un agent ne puisse pas analyser exhaustivement une page très longue dans un seul échange. C’est aussi un argument en faveur de contenus plus denses, bien structurés, qui livrent rapidement l’essentiel dans les premiers blocs de texte.
Pourquoi ce n’est pas un outil interne spécifique
L’article insiste sur le fait que tout ce qui est décrit repose sur le même outil Web Search disponible dans les Assistants API. Les capacités de snippets, d’open() et de click() ne sont pas des super‑fonctions réservées à une version interne, mais bien le comportement standard quand la recherche web est activée dans un assistant.
Pour les développeurs, cela veut dire que la façon dont GPT voit leur site à travers ces fenêtres est directement liée aux réglages qu’ils appliquent (taille de contexte, autorisation de la recherche) et à la qualité des snippets générés par les moteurs. Pour les référenceurs, cela confirme que l’optimisation AI/LLM se jouera autant sur la forme des extraits que sur les signaux classiques de ranking.
Une nouvelle grille de lecture pour le SEO
En combinant ce modèle de vision en fenêtres avec les travaux plus larges sur le IA SEO, on peut se construire une grille de lecture plus réaliste la façon dont les IA voient les sites. Les LLMs ne construisent pas leurs réponses à partir de pages entières soigneusement désignées, mais à partir de petits blocs textuels, parfois générés automatiquement par les moteurs, puis enrichis via quelques open() ciblés.
Cela rejoint l’idée que l’optimisation pour les IA ne se limite pas à se positionner en première place, mais à être sélectionné et cité à partir de snippets courts et denses que les modèles peuvent consommer facilement. Comprendre la mécanique de snippets, de fenêtres et de limites de sortie est donc une base indispensable pour quiconque veut sérieusement travailler le SEO à l’ère des LLMs.







