BERT de Google para los profesionales del marketing

Google está de vuelta, la semana pasada lanzando una nueva actualización de su algoritmo de motor de búsqueda que dice que le ayudará a entender mejor los matices y el contexto de las palabras en las búsquedas y a hacer coincidir mejor esas consultas con los resultados más relevantes. Y es uno grande – Google espera que este nuevo algoritmo de búsqueda tenga un impacto de hasta el 10% de todas las búsquedas en la plataforma en todo el mundo como indica la experta en posicionamiento web barcelona

Todo está basado en una tecnología de red neuronal llamada «Bidirectional Encoder Representations from Transformers» (BERT), que también marca la primera vez que Google utiliza sus últimos chips Tensor Processing Unit (TPU) para servir a los resultados de búsqueda. Al combinar las dos palabras clave de las consultas que ve con el contenido de las páginas web del índice de contexto de Google, la idea es crear una mejor comprensión de cuáles son los verdaderos significados de palabras específicas a medida que se utilizan.

Google mencionó por primera vez el BERT el año pasado y creó el código abierto para su implementación y los modelos pre-entrenados. Los transformadores son uno de los desarrollos más recientes en el aprendizaje de máquinas. Funcionan especialmente bien para datos en los que la secuencia de los elementos es importante, lo que obviamente los convierte en una herramienta útil para trabajar con el lenguaje natural y, por lo tanto, las consultas de búsqueda.

Cómo funciona el BERT
Explicación de Google….

«El año pasado, introdujimos una técnica basada en una red neuronal de código abierto para la formación previa al procesamiento del lenguaje natural (PNL) llamada Bidirectional Encoder Representations from Transformers (Representaciones de encoders bidireccionales de transformadores), o como la llamamos BERT, para abreviar. Esta tecnología permite a cualquiera entrenar su propio sistema de respuesta de preguntas de última generación.

«Este gran avance fue el resultado de la investigación de Google sobre transformadores: modelos que procesan las palabras en relación con todas las demás palabras de una frase, en lugar de una por una en orden. Por lo tanto, los modelos BERT pueden considerar el contexto completo de una palabra observando las palabras que aparecen antes y después de ella, especialmente útiles para comprender la intención que hay detrás de las consultas de búsqueda.

«Pero no son sólo los avances en software los que pueden hacer esto posible: también necesitábamos nuevo hardware. Algunos de los modelos que podemos construir con BERT son tan complejos que sobrepasan los límites de lo que podemos hacer usando hardware tradicional, así que por primera vez estamos usando los últimos TPUs en nube para servir los resultados de búsqueda y obtener información más relevante rápidamente».

Ejemplos de BERT en acción
Vale, eso es un montón de detalles. ¿Qué significa todo esto en el mundo real?

La historia corta es que el motor de búsqueda de Google ahora, al aplicar modelos BERT tanto a los fragmentos de ranking como a los destacados, será capaz de hacer un trabajo mucho mejor conectando a los usuarios con información verdaderamente relevante. Lo dice la compañía: «De hecho, cuando se trata de resultados de ranking, BERT ayudará a Search a entender mejor una de cada 10 búsquedas en los EE.UU. en inglés, y llevaremos esto a más idiomas y lugares con el tiempo».

En la práctica, parece que esto se centra en hacer un mejor uso de las palabras que buscamos.

Por ejemplo, la búsqueda de la frase: «2019 brasilero viajero a ee.uu. necesita visa» se basa en la palabra «to» y su relación con las otras palabras de la consulta. Se trata de un brasileño que viaja a Estados Unidos, y no al revés.

Resultado anterior: Páginas sobre ciudadanos estadounidenses que viajan a Brasil. Esa redacción se perdería.

Resultado del BERT: Al captar este matiz, los resultados de esta consulta pueden ser mucho más relevantes.

Veamos otro ejemplo de búsqueda….

Considere la frase: «¿puede conseguir medicamentos para alguien en una farmacia?»

Resultado anterior: Un enlace a un artículo de MedlinePlus del 2017 sobre cómo surtir una receta.

Resultado del BERT: El motor de búsqueda de Google ahora muestra un artículo de 2002 del Departamento de Salud y Servicios Humanos sobre cómo hacer que un amigo o familiar recoja el medicamento en su nombre. Consigue el matiz.

Cómo utilizar el BERT en el marketing
Como con cada actualización del algoritmo de búsqueda de Google, el verdadero impacto de BERT en la industria está por verse. Pero, hay espacio para la esperanza de que esta tecnología hará un mejor trabajo al poner en contacto a los usuarios interesados con el contenido que realmente les ayuda.

Y eso es algo muy bueno.

Particularmente para consultas más largas, más conversacionales, o búsquedas donde las preposiciones como «for» y «to» importan mucho al significado, Search será capaz de entender el contexto de las palabras en su consulta. Usted puede buscar de una manera que se sienta natural para usted.

Esto significa resultados de búsqueda que se sienten más conversacionales y que reflejan la forma en que la gente habla. Ahí es donde la mayoría del tráfico de búsqueda ha estado yendo recientemente, así que este es un gran paso en la dirección correcta que debería ayudar a aclarar la confusión en torno a esos matices.

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *