Il problema dell’affidabilità e coerenza dei risultati è da sempre un cruccio per i motori di ricerca. Google, in questo senso, sta introducendo Mum e Bert, due algoritmi per migliorare le ricerche e fornire risultati sempre più personalizzati e affidabili. Gli algoritmi sono stati presentati lo scorso anno alla conferenza degli sviluppatori, ma l’azienda li sta introducendo soltanto in questo periodo.
Bert, in realtà, ha già debuttato 3 anni fa, a fine ottobre 2019, aggiungendosi alla squadra di algoritmi del motore di ricerca. Al momento del rilascio l’algoritmo funzionava solo con la lingua inglese, ma nel corso del tempo i team di sviluppo hanno continuato a perfezionare Bert, ampliando le sue capacità.
Mum e Bert sono i nuovi algoritmi Google che permetteranno al motore di ricerca di migliorare in modo significativo la qualità dei risultati. Molto diversi tra loro, i due modelli saranno presto disponibili in diverse lingue e impatteranno significativamente le ricerche.
Mum è il più potente tra i due algoritmi e anche quello più recente. Acronimo per Multitask Unified Model, l’algoritmo si pone l’obiettivo di rispondere a domande complesse per le quali una semplice ricerca non è sufficiente.
Prendiamo l’esempio riportato sul blog Google: uno scalatore, dopo aver scalato il monte Adams, vuole affrontare il Fuji e deve raccogliere tutte le informazioni necessarie per prepararsi al meglio. Per sapere come allenarsi e se comprare nuova attrezzatura, il nostro scalatore deve svolgere diverse ricerche: “Quanto è alto il monte Fuji?“, “Qual è il clima principale?“, “Qual è il percorso più facile/difficile?“, e così via. Tutte queste domande possono essere riassunte in un unico quesito: “Ho scalato il monte Adams e ora voglio scalare il Fuji: cosa devo fare di diverso per prepararmi?“
Sarebbe comodo porre la domanda a un esperto, ma non è così semplice trovarne uno, e soprattutto richiederebbe tempo. MUM cerca di unire tutte le informazioni per fornire una risposta esaustiva a una domanda più vicina al linguaggio e al pensiero naturale.
L’algoritmo ha accesso a una conoscenza molto più vasta rispetto ai precedenti, ed è in grado di comprendere le diverse sfumature dei termini di ricerca. Nel contesto delle scalate, prepararsi può significare sia l’acquisto di nuova attrezzatura, sia la preparazione atletica dello scalatore; MUM è in grado di unire i due significati e fornire risultati utili per ogni necessità, ad esempio trovando articoli, video, immagini e prodotti consigliati.
MUM, inoltre, può lavorare non solo con input testuali, ma anche con immagini e pagine web simultaneamente. Sempre rifacendoci all’esempio dello scalatore, l’utente potrebbe sottoporre a MUM una foto delle proprio scarpe da trekking e chiedere se sono adatte per la prossima scalata. L’algoritmo è in grado di riconoscere il tipo di stivaletti e specificare se sono idonei, fornendo eventualmente le alternative migliori da acquistare.
Bert, o Bidirectional Encoder Representations for Transformers, viene usato nella fase di pre-training per i processi di elaborazione del linguaggio naturale (Natural language processing, NLP). La tecnica sviluppata da Google è open-source e sfrutta i testi presi dal web per allenare i sistemi di question answering.
Si tratta di un algoritmo bidirezionale e contestuale: considera tutte le parole della frase (non solo a quelle precedenti a quella che racchiude il significato) ed è in grado di riconoscere il contesto alle parole, quindi un diverso significato. Contrariamente alle tecniche context-free, dove una parola assume sempre un solo significato, BERT può contestualizzare la frase. Prendiamo come esempio le seguenti frasi:
Ieri sera sono andato a letto presto.
A causa della forte pioggia, il letto del fiume è pieno di detriti.
La parola “letto” ha due accezioni diverse. BERT riconosce il differente significato della stessa parola nelle due frasi, e può quindi fornire risultati più precisi a seconda della ricerca. Per comprendere la reale potenza del modello, Google ha fornito una dimostrazione di come cambiano le ricerche con BERT:
can you get medicine for someone pharmacy
La domanda “posso prendere delle medicine per qualcuno” sottintende “posso prendere le medicine al posto di qualcuno“, implicazione che i metodi classici non riescono a cogliere. Gli algoritmi normalmente usati pongono l’attenzione su medicine e farmacia, e forniscono risultati, ad esempio, su come ottenere una ricetta per un farmaco oppure l’indirizzo della farmacia più vicina. BERT, al contrario, coglie che l’utente vuole porre l’attenzione su per qualcuno e mostra per primi i risultati che rispondo alla domanda.