Goossips : HTTP/3, Scraping et AI

Quelques infos sur Google (et Bing parfois) et son moteur de recherche, glanées ici et là de façon officieuse ces derniers jours, avec au programme cette semaine quelques réponses à ces angoissantes questions : Le protocole HTTP/3 apportera-t-il un avantage en termes de SEO ? Comment réagit Google lorsqu'un site scrape (copie-colle) un contenu depuis un autre site puis le modifie via AI ?

Voici une petite compilation des informations fournies par les porte-paroles officiels de Google ces derniers jours sur différents réseaux informels (Twitter, Hangouts, forums, conférences, etc.). Donc « gossips » (rumeur) + Google = « Goossips » 🙂

La communication du moteur de recherche étant parfois plus ou moins sujette à caution, nous indiquons, dans les lignes ci-dessous, le niveau de confiance (taux de fiabilité) que nous accordons à l'information fournie par Google (de 1 à 3 étoiles, 3 étoiles représentant le taux de confiance maximal) - et non pas à la source qui en parle.

  

HTTP/3
John Mueller a indiqué lors d'un hangout pour webmasters que la nouvelle version du protocole web, HTTP/3, ne devrait pas aider les sites web en termes de SEO ni même de Core Web Vitals. Et l'utilisation de ce protocole sur un serveur ne sera pas un critère pris en compte par le moteur de façon négative ou positive. Il a conclu en indiquant que Google n'utilisait pas (encore) ce protocole pour son crawl...
Source : Search Engine Roundtable
Taux de fiabilité :
La question se serait posée tôt ou tard, il est donc bon d'avoir la réponse dès maintenant...

  

Scraping et AI
Duy Nguyen, un autre porte-parole SEO de Google, dans le même hangout que ci-dessus, a répondu à une question sur les textes scrapés sur le Web puis modifié à l'aide d'algorithmes d'intelligence artificielle avant d'être réinjecté sur des pages et soumis à l'indexation du moteur : « le scraping de contenu, même avec quelques modifications, est contraire à notre politique en matière de spam. Google dispose de nombreux algorithmes pour s'attaquer à de tels comportements et rétrograder les sites qui scrapent le contenu d'autres sites ». Et il a préconisé de faire un spam report si on identifiait un site faisant cela...
Source : Search Engine Roundtable
Taux de fiabilité :
Les spams reports n'ayant en génénral aucune incidence à court terme sur les sites spammy, ceux-ci pourront continuer leur petite cuisine pendant des mois avant d'être détectés, hélas. Et on se rend bien compte que de nombreux sites passent sous les radars du moteur à ce niveau...

  

Goossips : HTTP/3, Scraping et AI
Goossips : HTTP/3, Scraping et AI. Source : Google