Google Bert

Què és Google BERT?

Les últimes representacions de la representació del codificador bidireccional de transformadors (representacions de codificadors bidireccionals dels transformadors) representen la representació del BTT.

Es tracta d’una base tècnica en redisseny de neuronals per a l’entrenament previ del processament del llenguatge natural (PNL). Els models de BERT poden interpretar el context complet d’una paraula que analitza les paraules que encara existien abans i després, que són molt útils per comprendre la intenció de cerca que té l’usuari per realitzar la consulta. Actualment s’estan processant les paraules de la cerca de manera lineal, una detecció d’altra, que posa el focus en cadascun dels termes sense tenir en compte el context.

 

Pandu Nayac (Google Fellow i vicepresident, cerca) afirma que es tracta d’abordar aquest canvi que té molt d’ampliar el maquinari tradicional, utilitzant els últims TPU al núvol per a construir els models de BERT i obtenir la informació més rellevant i més ràpida possible.

 

Per què serveix Google BERT segons una  experta en posicionamiento web barcelona?

El 15% de les diàries búsquedes que es realitzen a Google són nous, no existeix informació prèvia sobre si els resultats més coincidents coincideixen amb la intenció de la cerca de l’usuari. Algun cop que els usuaris no saben exactament les paraules que tenen que s’utilitzen per cercar les qüestions interessants, es poden aprendre i no saben com començar.

 

Per aquest motiu, BERT tracta de comprendre el llenguatge humà, descobrirà el que està buscant l’usuari i mostrarà informació sobre la informació útil. Especial per a búsquedas a les presentacions «a», «de», «per a» o la negació «no» son important per al significat.

Barry Schwartz va afirmar el passat dia 25 d’octubre que es devia actualitzar que s’havia vist afectat al 10% de les consultes en anglès als Estats Units. Amb el temps s’amplia a més idiomes i països, encara que encara no es confirma la possibilitat d’arribar a Espanya.

Respecte als fragments destacats, afirma Pandu Nayac que ja està utilitzant un model de BERT per a millorar en 24 països. Estem creant millores significatives en els idiomes coreans, hindi i portuguès.

 

Quant a velvet

consultora de marketing online a https://www.seowebconsultora.es i gerent de la agencia marketing digital http://mentedigital.es/
Aquesta entrada ha esta publicada en General. Afegeix a les adreces d'interès l'enllaç permanent.