Algoritmi più precisi: scoperta una soluzione per eliminare il bias delle AI senza conoscere le correlazioni spurie in anticipo

Algoritmi particolarizzati

Algoritmi più precisi (Canva) - systemscue.it

Per addestrare i modelli di IA, spesso ci si basa su semplici immagini che la portano, poi, a incamerare informazioni sbagliate.

L’intelligenza artificiale sta rapidamente diventando una tecnologia fondamentale in molti settori. Ma uno dei problemi principali, riguarda le “correlazioni spurie“. Ovvero, verificantisi quando un modello di IA prende decisioni basate su informazioni che non son effettivamente rilevanti per la sua funzione, portando dunque a risultati distorti e imprecisi. E un esempio comune di correlazioni spurie si verifica quando un modello di IA impara a riconoscere pattern non significativi, come nel caso di un sistema il quale identifica cani solo dal collare che indossano, come unica caratteristica distintiva. Anziché caratteristiche più rilevanti, come la pelliccia o le orecchie.

Le correlazioni spurie nascono frequentemente durante il processo di addestramento di un modello di IA. E quando i dati utilizzati per addestrare il modello, contengono caratteristiche non correlate o irrilevanti per l’obiettivo finale, l’algoritmo può far affidamento solo su siffatte informazioni, portando dunque a decisioni sbagliate. Per esempio, se i cani da addestramento indossano, nelle foto, sempre collari, l’IA potrebbe appunto imparare a riconoscere un cane semplicemente dalla presenza di un collare.

Tradizionalmente, per risolvere il problema delle correlazioni spurie, i professionisti cercano di identificare le caratteristiche specifiche che causano il disturbo. E una volta identificate, si può procedere a modificare i set di dati (aumentando, per esempio, il numero di immagini che non contengono collari), per bilanciare meglio l’addestramento del modello. Sebbene questa soluzione sia efficace solo quando le caratteristiche spurie son chiare e identificabili (ma non è questo il caso).

Di recente, i ricercatori della North Carolina State University hanno sviluppato una nuova tecnica la quale affronta il problema delle correlazioni spurie, anche quando non è possibile identificare esattamente che caratteristiche causano il problema. E la soluzione proposta, prevede la rimozione di una piccola parte dei dati di addestramento, basata sulla difficoltà intrinseca di questi campioni, al fin di eliminare i dati problematici che causano il comportamento spurio, del modello.

La teoria dietro il “data pruning”

Il concetto di “data pruning” si basa sull’idea che alcuni campioni di dati, siano più complessi e difficili da comprendere, rispetto ad altri. Campioni complessi i quali, spesso, son quelli che portano l’IA a far difatti affidamento su informazioni non rilevanti, creando quindi correlazioni spurie. Ma che se eliminati i campioni difficili, si riduce quindi la possibilità che l’algoritmo apprenda correlazioni dannose.

Il principale vantaggio di questa tecnica è che non è necessario identificare esplicitamente le correlazioni spurie. Un grande passo avanti, di fondo, poiché permette di affrontare il problema in modo più efficace, anche in assenza di una comprensione precisa di quali caratteristiche stiano causando l’errore. Inoltre, i ricercatori hanno dimostrato che l’applicazione di questa tecnica porta a miglioramenti nelle prestazioni dei modelli, rispetto persino a metodi tradizionali, che si basano sull’identificazione delle caratteristiche spurie.

Modelli per addestrate correttamente l'intelligenza artificiale
Modelli di IA (Canva) – systemscue.it

I risultati della ricerca

Gli esperimenti condotti dai ricercatori, hanno dunque dimostrato che il “data pruning” migliora significativamente le prestazioni dei modelli di IA. In particolare, i risultati hanno superato quelli ottenuti utilizzando tecniche convenzionali, ove le caratteristiche spurie erano identificabili. Un approccio avente quindi il potenziale di risolvere problemi complessi di prestazioni, senza la necessità di modificare manualmente i set di dati. O identificare, magari, le caratteristiche specifiche che causano gli errori.

I risultati di questa ricerca, son stati pubblicati e presentati alla Conferenza Internazionale sulle Rappresentazioni dell’Apprendimento (ICLR), a Singapore, dove son stati ben accolti dalla comunità scientifica. La tecnica proposta, potrebbe avere persino implicazioni significative, per il futuro dell’intelligenza artificiale; soprattutto in contesti in cui non è possibile determinare facilmente le fonti di errore nei modelli. Un lavoro che apre, dunque, la strada a nuove metodologie di addestramento più robuste, e meno vulnerabili alle correlazioni spurie. Migliorando quindi affidabilità ed efficienza, dei sistemi di IA.