Google BERT y SEO

BERT (modelo de lenguaje)

BERT (Bidirectional Encoder Representations from Transformers) o Representación de Codificador Bidireccional de Transformadores es una técnica basada en redes neuronales para el pre-entrenamiento del procesamiento del lenguaje natural (PLN) desarrollada por Google.​

https://es.wikipedia.org/wiki/BERT_(modelo_de_lenguaje)

BERT Y SEO

Esta actualización del algoritmo está enfocado a entender mejor las búsquedas del usuario y por lo tanto ofrecer resultados más relevantes según su intención de búsqueda. Es uno de los grandes avances del buscador en los últimos años.

La popularización de las búsquedas largas, ya sea por las búsquedas realizadas con la voz, o la evolución en el uso que hacemos del buscador, ha hecho que Google desarrolle su algoritmo en esta dirección.

Gracias a las investigaciones y desarrollos realizados por Google en el procesamiento del lenguaje natural y la inteligencia artificial, ahora puede valorar mejor elementos de las búsquedas que antes le costaba entender para generar los resultados en las SERP (páginas de resultados). Este sistema está pensado para búsquedas en formato de oraciones, donde las preposiciones, conjunciones, pronombres y contexto de las palabras son claves en la comprensión de la intención de búsqueda del usuario.

Es un cambio muy interesante que marca la tendencia futura del funcionamiento del buscador más popular del mundo, y nos indica el camino a seguir a los profesionales SEO. Pensar cada vez más en el usuario y crear contenido de calidad, redactado de forma natural, útil y relevante para las personas.

Vía Blog oficial Google