Google l'a répété une fois de plus : le contenu généré automatiquement par des algorithmes de type GPT-3 est considéré comme du spam et est donc pénalisable par le moteur de recherche. Tout est ensuite certainement affaire de nuances...

John Mueller (Google) l'a indiqué (à nouveau, car ce n'est pas une nouveauté) lors d'un récent hangout avec des webmasters : le contenu généré automatiquement grâce à l'intelligence artificielle et des outils comme GPT-3 et assimilés, est considéré comme du spam et va à l'encontre de ses recommandations pour les webmasters. Il est donc potentiellement passible de pénalités de la part du moteur de recherche.

Une page dédié à ce contenu généré automatiquement est d'ailleurs disponible dans ces recommandations. Voici ce qu'elle dit :

Le contenu généré automatiquement repose sur la programmation. Lorsque ce contenu est destiné à manipuler les classements de recherche plutôt qu'à aider les utilisateurs, Google peut intervenir. Voici quelques exemples (liste non exhaustive) :

  • Texte qui contient peut-être certains mots clés de recherche mais qui n'a aucun sens pour le lecteur ;
  • Texte traduit par un outil automatisé sans intervention humaine, ni correction avant publication ;
  • Texte généré par des processus automatisés, tels que les chaînes de Markov ;
  • Texte généré à l'aide de techniques automatisées de synonymie ou d'obscurcissement ;
  • Texte généré en détournant des résultats de recherche ou des flux Atom/RSS ;
  • Assemblage ou combinaison de contenus issus de différentes pages Web sans ajout de valeur.

Si vous hébergez un tel contenu sur votre site, empêchez son affichage dans la recherche Google.

Quand on sait que Google sait aujourd'hui faire la différence entre un texte rédigé par des humains et un texte conçu par un algorithme, on peut comprendre que le texte créé par intelligence artificielle comporte des risques non négligeables.

On peut cependant aussi comparer cette situation à celle du spinning : si c'est fait avec des méthodes de bourin (massivement et sans intervention humaine), il est évident que c'est condamnable parce que détectable (qui plus est, c'est éthiquement et humainement blâmable). Mais si les algorithmes ne sont que des outils secondaires et qu'une partie humaine est ajoutée à un « premier jet » réalisé par une machine, il y a de fortes chances que cela soit totalement indéctectable et non pénalisé.

Il reste donc à savoir à quel niveau on se positionne sur l'échelle du bourinage… 🙂

La question posée à John Mueller lors du hangout pour webmasters. Source : YouTube