Google a lancé une petite bombe ce matin avec la prochaine arrivée (pour les requêtes anglophones dans un premier temps) de BERT, la plus grosse évolution de l'algorithme depuis 5 ans. Attention, gros changements à prévoir dans les SERP sous peu...

Attention, grosse mise à jour de l'algorithme en vue chez Google, selon l'annconce effectuée ce matin sur le blog officiel du moteur.

Dénomée BERT (acronyme de Bidirectional Encoder Representations from Transformers, une technique basée sur les réseaux neuronaux pour le traitement du langage naturel (NLP)), cette mise à jour va, selon les dires du moteur, être une avancée importante dans l'évolution de la recherche sur le Web : "Grâce aux dernières avancées de notre équipe de recherche dans la science de la compréhension du langage - rendue possible grâce à l'apprentissage automatique - nous améliorons considérablement la façon dont nous comprenons les requêtes, ce qui représente le plus grand bond en avant des cinq dernières années et l'un des plus grands bonds en avant dans l'histoire du Search. " Rien que ça…

BERT est conçue pour mieux comprendre le contexte de l'intention de recherche

L'idée de BERT est d'utiliser des modèles qui traitent les mots les uns par rapport aux autres dans une phrase, plutôt qu'un par un dans l'ordre de la lecture. Les modèles BERT peuvent donc considérer le contexte complet d'un mot en examinant les mots qui le précèdent et le suivent, ce qui est particulièrement utile pour comprendre l'intention derrière les requêtes de recherche. Le contexte de l'intention de recherche sera alors plus facilement analysé et la réponse plus précise et pertinente.

Un des exemples fourni est la requête "do estheticians stand a lot at work?" : auparavant, l'algorithme utilisait une approche consistant à faire correspondre les mots-clés, c'est-à-dire à faire correspondre le terme "stand-alone" dans le résultat avec le mot "stand" dans la requête. Mais ce n'était pas l'utilisation correcte du mot "stand" dans le contexte. Le modèle BERT comprend désormais que le mot "stand" est lié au concept des exigences physiques d'un travail, et affiche une réponse plus utile.

Exemple de résultat avant et après BERT sur la requête "do estheticians stand a lot at work". Source de l'image : Google

Ce nouveau système devrait toucher environ 10% des recherches en anglais dans un premier temps, et il sera adaptés à d'autres langues à court et moyen termes. BERT est déjà appliqué dans de nombreux pays pour les featured snippets, avec des améliorations significatives dans des langues comme le coréen, le hindi et le portugais.

Bref, les SERP devraient prochainement jouer au yo-yo pour la langue anglaise prochainement, et en français à court terme. Autant être vigilant et analyser cette évolution dès qu'elle arrivera sur nos côtes. Ça risque de swinguer fort !