Home » Google: gli algoritmi Mum e Bert per migliorare i risultati di ricerca

Google: gli algoritmi Mum e Bert per migliorare i risultati di ricerca

Google introduce Mum e Bert, due nuovi algoritmi per migliorare i risultati di ricerca del motore.

Categorie Corsari senza bussola · J.A.R.V.I.S

Il problema dell’affidabilità e coerenza dei risultati è da sempre un cruccio per i motori di ricerca. Google, in questo senso, sta introducendo Mum e Bert, due algoritmi per migliorare le ricerche e fornire risultati sempre più personalizzati e affidabili. Gli algoritmi sono stati presentati lo scorso anno alla conferenza degli sviluppatori, ma l’azienda li sta introducendo soltanto in questo periodo.

Bert, in realtà, ha già debuttato 3 anni fa, a fine ottobre 2019, aggiungendosi alla squadra di algoritmi del motore di ricerca. Al momento del rilascio l’algoritmo funzionava solo con la lingua inglese, ma nel corso del tempo i team di sviluppo hanno continuato a perfezionare Bert, ampliando le sue capacità.

Mum e Bert, i nuovi algoritmi di Google

Mum e Bert sono i nuovi algoritmi Google che permetteranno al motore di ricerca di migliorare in modo significativo la qualità dei risultati. Molto diversi tra loro, i due modelli saranno presto disponibili in diverse lingue e impatteranno significativamente le ricerche.

Mum

Mum è il più potente tra i due algoritmi e anche quello più recente. Acronimo per Multitask Unified Model, l’algoritmo si pone l’obiettivo di rispondere a domande complesse per le quali una semplice ricerca non è sufficiente.

Prendiamo l’esempio riportato sul blog Google: uno scalatore, dopo aver scalato il monte Adams, vuole affrontare il Fuji e deve raccogliere tutte le informazioni necessarie per prepararsi al meglio. Per sapere come allenarsi e se comprare nuova attrezzatura, il nostro scalatore deve svolgere diverse ricerche: “Quanto è alto il monte Fuji?“, “Qual è il clima principale?“, “Qual è il percorso più facile/difficile?“, e così via. Tutte queste domande possono essere riassunte in un unico quesito: Ho scalato il monte Adams e ora voglio scalare il Fuji: cosa devo fare di diverso per prepararmi?

google mum bert
Fonte: blog.google

Sarebbe comodo porre la domanda a un esperto, ma non è così semplice trovarne uno, e soprattutto richiederebbe tempo. MUM cerca di unire tutte le informazioni per fornire una risposta esaustiva a una domanda più vicina al linguaggio e al pensiero naturale.

L’algoritmo ha accesso a una conoscenza molto più vasta rispetto ai precedenti, ed è in grado di comprendere le diverse sfumature dei termini di ricerca. Nel contesto delle scalate, prepararsi può significare sia l’acquisto di nuova attrezzatura, sia la preparazione atletica dello scalatore; MUM è in grado di unire i due significati e fornire risultati utili per ogni necessità, ad esempio trovando articoli, video, immagini e prodotti consigliati.

MUM, inoltre, può lavorare non solo con input testuali, ma anche con immagini e pagine web simultaneamente. Sempre rifacendoci all’esempio dello scalatore, l’utente potrebbe sottoporre a MUM una foto delle proprio scarpe da trekking e chiedere se sono adatte per la prossima scalata. L’algoritmo è in grado di riconoscere il tipo di stivaletti e specificare se sono idonei, fornendo eventualmente le alternative migliori da acquistare.

Bert

Bert, o Bidirectional Encoder Representations for Transformers, viene usato nella fase di pre-training per i processi di elaborazione del linguaggio naturale (Natural language processing, NLP). La tecnica sviluppata da Google è open-source e sfrutta i testi presi dal web per allenare i sistemi di question answering.

Si tratta di un algoritmo bidirezionale e contestuale: considera tutte le parole della frase (non solo a quelle precedenti a quella che racchiude il significato) ed è in grado di riconoscere il contesto alle parole, quindi un diverso significato. Contrariamente alle tecniche context-free, dove una parola assume sempre un solo significato, BERT può contestualizzare la frase. Prendiamo come esempio le seguenti frasi:

Ieri sera sono andato a letto presto.

A causa della forte pioggia, il letto del fiume è pieno di detriti.

La parola “letto” ha due accezioni diverse. BERT riconosce il differente significato della stessa parola nelle due frasi, e può quindi fornire risultati più precisi a seconda della ricerca. Per comprendere la reale potenza del modello, Google ha fornito una dimostrazione di come cambiano le ricerche con BERT:

can you get medicine for someone pharmacy

La domanda “posso prendere delle medicine per qualcuno” sottintende “posso prendere le medicine al posto di qualcuno“, implicazione che i metodi classici non riescono a cogliere. Gli algoritmi normalmente usati pongono l’attenzione su medicine e farmacia, e forniscono risultati, ad esempio, su come ottenere una ricetta per un farmaco oppure l’indirizzo della farmacia più vicina. BERT, al contrario, coglie che l’utente vuole porre l’attenzione su per qualcuno e mostra per primi i risultati che rispondo alla domanda.

google mum bert
Fonte: blog.google