Le SEO BERT (Bidirectional Encoder Representations from Transformers) est une mise à jour de l’algorithme de Google, introduite en 2019, visant à améliorer la compréhension de la recherche en langage naturel. BERT, qui signifie “ représentions bidirectionnelles à partir de transformateurs “, est un réseau neuronal basé sur le transformer, un type de modèle d’apprentissage en profondeur introduit en 2017.
Selon le blog de Google AI, BERT est une méthode de pré-formation d’un modèle de langage naturel qui a permis d’améliorer significativement les performances dans 11 tâches de traitement du langage naturel.
Il est important de comprendre que BERT n’est pas quelque chose que les propriétaires de sites ou les experts SEO peuvent “ optimiser “. Au contraire, BERT est une mise à jour axée sur l’amélioration de la compréhension du langage naturel de Google, avec une attention particulière accordée à la compréhension des requêtes de recherche en langage naturel.
Il y a différentes manières dont BERT peut affecter la recherche. Par exemple, BERT peut aider Google à comprendre l’intention derrière une requête de recherche à partir du contexte. Supposons qu’un utilisateur effectue une recherche pour “tickets de train pour Paris”. Avant BERT, Google pourrait interpréter cette requête comme étant en relation avec les horaires des trains vers Paris. Cependant, avec BERT, Google peut comprendre que l’utilisateur cherche à acheter des billets de train Paris, et non à regarder les horaires.
En outre, BERT peut également aider Google à comprendre la signification des prépositions dans une requête. Par exemple, la requête “visas pour étudiants américains en France” pourrait être interprétée très différemment si le mot “en” est mal compris. Grâce à BERT, Google peut comprendre que “en” indique le lieu où les étudiants sont situés, plutôt que le lieu d’origine des visas.
En conclusion, la meilleure façon d’optimiser pour BERT est d’écrire du contenu naturel et de haute qualité qui répond efficacement aux requêtes des utilisateurs. Comme l’a déclaré Danny Sullivan, conseiller de la recherche publique chez Google : “Écrivez pour les utilisateurs, pas pour les moteurs de recherche”.
Sources utilisées :
1. “Understanding searches better than ever before”. Google AI Blog. https://ai.googleblog.com/2019/10/understanding-searches-better-than-ever.html
2. “What Is BERT? – Whiteboard Friday”. Moz. https://moz.com/blog/what-is-bert
3. “Neural machine translation by jointly learning to align and translate”. arXiv. https://arxiv.org/abs/1409.0473
4. “Google BERT Update – What it Means”. Search Engine Journal. https://www.searchenginejournal.com/google-bert-update/332161/