Grandi novità su Google: è stato rilasciato l’aggiornamento denominato Bert, che grazie alle reti neurali rende il popolare motore di ricerca sempre più intelligente nel capire il linguaggio umano. Ma come funziona ? Beh, per parafrasare Nanni Moretti in “Palombella rossa” potremmo dire che…
Le parole sono importanti !!!
La rivoluzione dell’ultimo aggiornamento sta tutta in una parola: CONTESTO.
Se infatti, fino a poco tempo fa, il motore di Google si basava sulla corrispondenza di parole della ricerca e parole contenute sulle pagine indicizzate, adesso il focus si sposta sul contesto in cui queste parole si trovano, permettendo di fornire dei risultati quanto più possibile pertinenti, escludendo invece i contesti non pertinenti.
Come si è ottenuto questo miglioramento ?
Piuttosto che su un algoritmo scritto da programmatori con regole e sottoregole da rispettare, il nuovo algoritmo BERT (acronimo di Bidirectional Encoder Representations from Transformers) ha “imparato” autonomamente come funziona il contesto delle frasi, con un processo di apprendimento guidato: in pratica, si sono date in pasto diverse frasi a cui sono state rimosse casualmente alcune parole, che il sistema ha cercato via via di rimpiazzare: in base al punteggio ottenuto di volta in volta, il sistema è diventato sempre più accurato e preciso nel ricostruire i testi, e quindi a riconoscere il contesto della frase. Questa abilità poi è stata usata per comprendere meglio le richieste inviate al motore di ricerca.
Alcuni esempi
Per capire come il nuovo aggiornamento migliora le ricerche, la stessa Google ha rilasciato degli esempi che vi presento qui.
In questo esempio, inserendo la richiesta “2019 viaggiatori da Brasile a USA hanno bisogno di Visa”, prima di BERT il primo risultato restituiva un articolo del Washington Post che parla del viaggio opposto (dagli USA al Brasile), perché si basava su parole come viaggiatore, USA, Brasile, VISA che erano presenti nell’articolo, e quindi il semplice algoritmo parole chiave<->ricerca, insieme a una fonte attendibile e ad alto punteggio come il Washington Post, costituiva un buon punteggio di pertinenza, ma a ben vedere NON E’ l’informazione ricercata; dopo BERT invece il contesto della frase, e l’espressione “viaggiatori da USA a Brasile” denota una ricerca di tipo turistico in una ben determinata direzione, e quindi porta come primo risultato la pagina del sito dell’Ambasciata USA in Brasile che contiene proprio l’informazione richiesta.
In quest’altro esempio, la ricerca chiede se gli estetisti passano molto tempo in piedi al lavoro, e si vede come prima di BERT si viene indirizzati a una pagina per nulla pertinente, mentre nella seconda già ci si trova in un sito che spiega come funziona il lavoro indicato. Altri esempi fanno vedere come la ricerca di “libri di esercizi di matematica per adulti” porti in entrambi i casi su Amazon, ma prima di BERT il risultato è un libro di matematica per bambini da 6 a 8 anni (ignorando la parola adulti) mentre dopo BERT tutto il contesto della frase è utile, e infatti si rimanda sempre ad Amazon, ma proprio al tipo di libro richiesto.
Cosa significa questo per la SEO ?
Questo passaggio ovviamente non è nulla di inaspettato, visto che Google migliora costantemente l’intelligenza dei suoi algoritmi al fine di fornire agli utenti un servizio quanto più possibile preciso. Dal punto di vista di chi scrive per il web, si conferma decisamente il trend verso contenuti sempre più specifici, pertinenti e ben scritti: per cui, se avete speso tanto tempo a curare i vostri contenuti, scrivendo articoli di qualità, non copincollati, con informazioni interessanti e ben spiegate, non avete nulla da temere; se invece siete avvezzi a tecniche di “inganno” dei motori di ricerca, inserendo parole chiave ripetute in testi di scarsa qualità e titoli acchiappaclick… beh, forse è il caso di cominciare a lavorare sulla qualità, non credete ?