Scopri come l’intelligenza artificiale sta aiutando a decifrare le espressioni facciali di lemuri e gibboni grazie all’Università di Torino.
L’Università di Torino ha portato a termine un progetto pionieristico: utilizzare l’intelligenza artificiale (IA) per decodificare le espressioni facciali di lemuri e gibboni. Se l’IA viene spesso applicata per riconoscere e interpretare le espressioni umane, il suo impiego nel campo del comportamento animale, e in particolare sui primati non umani, rappresenta una novità assoluta.
Pubblicata sulla rivista Ecological Informatics, questa ricerca offre un approccio innovativo all’analisi del comportamento facciale e apre nuove strade nello studio della comunicazione animale e dei gesti espressivi. L’importanza di studiare le espressioni facciali nella comunicazione animale è nota da tempo, ma le tecniche tradizionali di analisi manuale risultano lente e soggette a interpretazioni soggettive.
L’adozione del deep learning ha invece permesso di classificare i gesti facciali e vocalizzati su grandi insiemi di dati con rapidità e precisione. Il progetto condotto dall’Università di Torino ha indagato in particolare le espressioni associate all’apertura della bocca e alle emissioni vocali e ha constatato l’efficacia di algoritmi specifici per l’analisi di dati visivi complessi.
“Quando abbiamo iniziato tre anni fa, non c’erano applicazioni del genere per i primati non umani,” racconta Filippo Carugati, dottorando e primo autore della ricerca. “Siamo riusciti a fare un salto significativo grazie al progresso tecnologico e alle potenzialità del deep learning, che apre ora la possibilità di condurre studi comparativi su larga scala.”
La ricerca è stata possibile anche grazie a una stazione di osservazione nella foresta di Maromizaha, in Madagascar, dove studenti e dottorandi hanno raccolto dati sui lemuri direttamente in natura. Questa esperienza ha fornito un vantaggio significativo rispetto a molte altre ricerche che si limitano a osservazioni in cattività poiché ha fornito uno sguardo più autentico sul comportamento dei primati nel loro habitat naturale. Sono stati utilizzati algoritmi per classificare i gesti facciali e vocali di diverse specie, con una precisione che in alcuni casi ha superato il 90%.
“Storicamente, lo studio delle espressioni facciali di lemuri e scimmie è stato affidato a interpretazioni soggettive”, spiega il Professor Marco Gamba, zoologo e presidente del corso di laurea in “Evoluzione del Comportamento Animale e dell’Uomo”. “Grazie agli algoritmi, siamo riusciti a ridurre l’elemento soggettivo e a ottenere risultati con un livello di accuratezza impressionante, superiore al 95% in alcuni casi. Questo rende più obiettiva e veloce l’analisi.”
Perché proprio lemuri e gibboni? Questi primati possiedono un repertorio di espressioni facciali e vocalizzazioni complesso, che li rende ideali per testare la capacità dell’intelligenza artificiale di decodificare i segnali comportamentali. Tuttavia, il successo dello studio non si basa solo sulla tecnologia. L’approccio multidisciplinare ha visto coinvolti zoologi, etologi e ingegneri, competenze diverse sono servite per ottimizzare gli algoritmi e garantire risultati attendibili.
Il successo di questo progetto offre scenari promettenti per il futuro dello studio dei primati e di altri animali. Le potenzialità di applicare tecnologie di IA per comprendere il comportamento animale sono enormi. Esse consentono analisi più approfondite e su larga scala, con implicazioni nel campo della conservazione e della comunicazione animale. Questa ricerca rappresenta solo l’inizio: la possibilità di decodificare le emozioni e le interazioni dei primati con maggiore precisione apre nuove prospettive per lo studio comparato.