top of page
  • Foto del escritorStreetflow

Bienvenido BERT:

Actualizado: 8 jun 2022

El último algoritmo de búsqueda de Google para comprender mejor el lenguaje natural


BERT Bidirectional Encoder Representations from Transformers, en español: representaciones de codificador bidireccional de transformadores. En reumen es un modelo grande, computacionalmente intensivo que establece el estado del arte para la comprensión del lenguaje natural cuando se lanzó en octubre del año pasado. Con el ajuste fino, se puede aplicar a una amplia gama de tareas del lenguaje, como la comprensión de lectura, el análisis de sentimientos o texto de preguntas y respuestas. 

Entrenado en un corpus masivo de 3.3 mil millones de palabras en inglés, BERT funciona excepcionalmente bien, mejor que un humano promedio en algunos casos, para entender el idioma. Su fortaleza es su capacidad para entrenar en conjuntos de datos no etiquetados y, con una modificación mínima, generalizarse a una amplia gama de aplicaciones. 

El mismo BERT puede usarse para comprender varios idiomas y ajustarse para realizar tareas específicas como traducción, autocompletar o clasificar los resultados de búsqueda. Esta versatilidad lo convierte en una opción popular para desarrollar una comprensión compleja del lenguaje natural. 

La base de BERT es la capa Transformer , una alternativa a las redes neuronales recurrentes que aplica una técnica de atención, analizando una oración al enfocar la atención en las palabras más relevantes que vienen antes y después. 

La declaración "Hay una grúa fuera de la ventana", por ejemplo, podría describir un pájaro o un sitio de construcción, dependiendo de si la oración termina con "de la cabaña junto al lago" o "de mi oficina". Usando un método conocido como codificación bidireccional o no direccional, los modelos de lenguaje como BERT pueden usar claves de contexto para comprender mejor qué significado se aplica en cada caso.

Los principales modelos de procesamiento de idiomas en todos los dominios de hoy se basan en BERT, incluidos BioBERT (para documentos biomédicos) y SciBERT (para publicaciones científicas).




RankBrain no está muerto.

RankBrain fue el primer método de inteligencia artificial de Google para comprender consultas en 2015. Analiza tanto las consultas como el contenido de las páginas web en el índice de Google para comprender mejor cuáles son los significados de las palabras. BERT no reemplaza a RankBrain, es un método adicional para comprender el contenido y las consultas. Es aditivo para el sistema de clasificación de Google. RankBrain puede y seguirá siendo utilizado para algunas consultas. Pero cuando Google cree que una consulta se puede entender mejor con la ayuda de BERT, Google la usará. De hecho, una sola consulta puede usar múltiples métodos, incluido BERT, para comprender la consulta.

¿Cómo es eso? Google explicó que hay muchas maneras en que puede entender el significado del idioma en su consulta y cómo se relaciona con el contenido en la web. Por ejemplo, si escribe mal algo, los sistemas de ortografía de Google pueden ayudarlo a encontrar la palabra correcta para obtener lo que necesita. Y / o si usa una palabra que es sinónimo de la palabra real que está en documentos relevantes, Google puede coincidir con esos. BERT es otra señal que Google usa para comprender el lenguaje. Dependiendo de lo que busque, cualquiera de estas señales o una combinación de ellas podría usarse más para comprender su consulta y proporcionar un resultado relevante.

¿Se puede optimizar para BERT?

Es inprobable. Google nos ha dicho que los SEO no pueden optimizar realmente para RankBrain. Pero sí significa que Google está mejorando en la comprensión del lenguaje natural. Simplemente escriba contenido para los usuarios, como siempre lo hace. Estos son los esfuerzos de Google para comprender mejor la consulta del buscador y hacerla coincidir mejor con resultados más relevantes.

Por qué nos importa Nos importa, no solo porque Google dijo que este cambio "representa el mayor avance en los últimos cinco años, y uno de los mayores avances en la historia de la Búsqueda".

Pero también porque el 10% de todas las consultas se han visto afectadas por esta actualización. Ese es un gran cambio. Vimos informes no confirmados de actualizaciones de algoritmos a mediados de semana y a principios de esta semana , que pueden estar relacionados con este cambio.

Le recomendamos que consulte para ver los cambios en el tráfico de búsqueda en algún momento de la próxima semana y ver cuánto se vio afectado su sitio por este cambio. Si fue así, profundice en qué páginas de destino se vieron afectadas y para qué consultas. Puede notar que esas páginas no se convirtieron y el tráfico de búsqueda que Google envió esas páginas no terminó siendo realmente útil.

Lo observaremos de cerca y puede esperar más contenido de nosotros en BERT en el futuro.



36 visualizaciones1 comentario
bottom of page