BERT está basado en un sistema de redes neuronales orientado a la interpretación del lenguaje natural (NPL).
La idea de este sistema es olvidarse de la interpretación, palabra por palabra y centrarse en el contexto. De esta forma generará consultas mucho más exactas a la base de datos.
BERT es Bidirectional Encoder Representations from Transformers, pero vamos a tratar de traducir esto para humanos.
Esto va de codificación bidireccional en el lenguaje para transformaciones, lo cual sigue pareciendo idioma alienígena, pero ya veréis como no es así. Para eso emplearemos ejemplos muy similares a los que utilizó Nayak en su post, anteriormente mencionado.
Hasta la fecha, en el mundo SEO se hablaba de preposiciones que carecen de importancia a la hora de posicionar una keyword. Daba lo mismo poner viaje a Madrid que Viaje Madrid. Y os invito a hacer el experimento.
Pero regresemos al ejemplo que, seguro os ayudará a entender el cambio que trata de imprimir BERT. Estaremos todos de acuerdo en que no es lo mismo comprar un billete de Valencia a Madrid que de Madrid a Valencia.
Si ahora ponemos una búsqueda en Google con los términos “billete de avión de valencia a Madrid, los resultados van a incluir no sólo los resultados de Valencia a Madrid, sino también los de Madrid a Valencia.