Vi förklarar Google Bert i ett nötskal

Kan folks nyfikenhet verkligen mättas? Och viktigast av allt, Google kan verkligen svara på alla frågor som ställs? Svaret är i princip nej. Pandu Nayak bekräftade detta för oss i ett tal och hävdade att Google tar emot miljarder och miljarder "förfrågningar" varje dag, varav nästan 15 % är nya eller aldrig sett tidigare. Inte en liten andel, om vi tänker efter. Och sedan, vad ska man göra?

Måste anges en algoritm som prediktivt svarar på frågor som inte går att förutse. Välkommen Bidirectional Encoder Representations från Transformers aka Google-vän Bert. Google Bert är, förklarat i enkla termer, ett neuralt nätverk som bearbetar det naturliga mänskliga språket och sätter sig som mål, att lyckas, att bättre förstå sammanhanget för frågan för att tillhandahålla mer relevanta svar, med överskridna förståelsegränser bland dem, som i alla fall har så god precisionsmarginal att det till och med verkar lite störande.

Google Bert släpptes officiellt den 9 december 2019 i Italien.

Neuralt nätverk voodoo

Det ser ut som svart magi, men det är faktiskt ett komplext system av matematiska och statistiska modeller som sätter ihop... verkligen fungerar. Vi pratar om neurala nätverk, eller de intelligenta system som lär sig från en databas och från den information som matas in av människor. System som, i ett nötskal, utvecklas av sig själva, matas av människor, för att tillfredsställa deras nyfikenhet. Det magiska är att de verkligen fungerar, även om det absolut inte är något "häxigt" med dem. Ett neuralt nätverk lär sig av sin omgivning och växer och drar slutsatser som det ibland inte har data att nå med kraften att relatera den information det har till sitt förfogande. Om du vill veta mer om neurala nätverk, fråga en expert. Denna definition kommer från en tjej som en dag kom över en underbar artikel på engelska om neurala nätverk och utvecklade vördnad för sin otroliga kraft. Jag är bara en nybörjare som närmar mig ämnet. Jag lämnar den tekniska förklaringen till den behöriga personen.

Nu, tillbaka till Google Bert.

Google Bert (och dess mycket omtalade uppdatering)

BERTI är det nya Uppdatering av Googles algoritm, en ny sökmotor som försöker matcha sökningar med de mest relevanta resultaten. Natural Language Processing är grunden för denna uppdatering och består i att lägga till alla Googles algoritmer för att förstå orden i frasen som anges i sökrutan och ge en övergripande betydelse till frasen, i dess semantiska sammanhang. En helt enkelt revolutionerande nyhet.

BERTI undersöker sammanhanget och analyserar inte bara orden tagna individuellt. På så sätt, om du googlar "Jag fångade en krabba", får du inte resultat som rör kungskrabban på den amerikanska kontinentens Atlantkust, utan endast resultat i förhållande till att "du hade fel". Det här exemplet är väldigt generalistiskt och beskriver inte perfekt vad Google Bert faktiskt kan göra, men det ger dig en uppfattning om det allmänna konceptet bakom detsamma.

Google Bert: Hur kan det hjälpa din bloggs SEO?

Okej, allt väldigt trevligt, men hur kommer denna BERT att förändra sättet jag använder SEO på min webbplats? Hur kommer min rankning att förändras?

Vissa säger att inflytandet förmodligen kommer att vara minimalt och att BERT inte kommer att ha den transcendentala inverkan som den målades med. I verkligheten kan något förändras. Vi håller oss alltid inom möjligheternas sfär eftersom, som du väl vet, Googles algoritmer är Fatimas fjärde hemlighet.

BERT kunde göra dig tappa trafik när din webbplats inte tydligt har definierat sammanhanget där den fungerar. Även nyckelorden a lång svans (de long tail nyckelord) skulle kunna få en ännu mer övervägande betydelse inom staben på ett stycke.

Vad tycker du om Google BERT? Hur kommer det att förändra vår inställning till onpage och offpage SEO?