Primo Piano

Ecco la nuova famiglia di intelligenze artificiali tutte italiane

L’intelligenza artificiale parte dall’Italia: ecco quali sono le intelligenze artificiali nate nel nostro Paese.

Negli ultimi mesi, l’intelligenza artificiale in Italia ha visto un notevole sviluppo, grazie alla nascita di nuovi modelli linguistici italiani come Minerva e Llamantino 3. Questi strumenti non solo rappresentano un passo avanti nella ricerca tecnologica, ma sono anche fondamentali per l’innovazione nel contesto scientifico e sociale del nostro paese. Durante la prima Conferenza generale di Fair – Future AI Research, svoltasi a Napoli, esperti e ricercatori si sono riuniti per discutere le opportunità e le sfide associate a questi nuovi modelli.

Crescita dei modelli IA italiani

Fino a poco tempo fa, l’italiano era poco rappresentato nel campo dei modelli di intelligenza artificiale, dominato da sistemi sviluppati principalmente in lingua inglese. Roberto Navigli, dell’Università Sapienza e a capo del progetto Minerva, ha evidenziato che l’assenza di modelli aperti e adattabili in italiano ha spinto la comunità scientifica a esplorare due approcci: creare un modello completamente nuovo, come Minerva, o riaddestrare un modello esistente come Llamantino 3. Questa dualità offre vantaggi e svantaggi, ma entrambe le strade sono valide per il progresso della ricerca in ambito IA.

Navigli ha dichiarato: «Modelli molto grandi adattati alla nostra lingua hanno ottime prestazioni, mentre modelli nativi permettono di verificare i contenuti utilizzati, una questione cruciale per la sicurezza». La necessità di avere controllo sui dati utilizzati per addestrare questi modelli è fondamentale per evitare vulnerabilità e garantire che le IA siano sicure e affidabili.

Approcci nello sviluppo di LLM

La conferenza ha anche messo in luce i vari approcci allo sviluppo di Large Language Models (LLM). I ricercatori stanno cercando di comprendere le leggi matematiche e fisiche che governano questi sistemi complessi, un compito che si avvale di teorie derivanti dal lavoro del Nobel italiano Giorgio Parisi. Federica Gerace, dell’Università di Bologna, ha affermato che, sebbene le IA siano progettate dagli esseri umani, la loro funzionalità spesso supera la nostra comprensione. Questo porta a domande fondamentali sul loro comportamento e sulle loro capacità di apprendimento.

Matteo Negri, fisico della Sapienza, ha aggiunto che uno dei principali obiettivi della ricerca è scoprire perché le IA a volte agiscano in modo contraddittorio rispetto alle aspettative teoriche. I transformer, i blocchi fondamentali dell’architettura di machine learning, sono al centro di questa indagine. Attraverso la ricerca, gli scienziati stanno iniziando a scoprire come questi strumenti possano essere utilizzati anche per risolvere problemi nella fisica.

Ecco la nuova famiglia di intelligenze artificiali tutte italiane (Pexels FOTO) – www.systemscue.it

Rischi della coevoluzione uomo-IA

Tuttavia, l’espansione dell’IA non è priva di rischi. Durante la conferenza, Dino Pedreschi, esperto di Computer Science all’Università di Pisa, ha sottolineato i pericoli legati alla coevoluzione tra uomo e intelligenza artificiale. La nostra crescente dipendenza da questi sistemi potrebbe portare a decisioni basate su informazioni distorte, generando una spirale di dati sempre meno diversificati. Questo fenomeno è già evidente nei navigatori GPS, dove l’affollamento di percorsi suggeriti può portare a ingorghi stradali.

Il web, inoltre, si sta riempiendo di contenuti generati dalle IA, il che potrebbe portare a una produzione di informazioni di bassa qualità. Pedreschi ha avvertito: «Dobbiamo governare questi fenomeni fin da subito, sviluppando modelli pubblici per evitare discriminazioni e mantenere la diversità».

Necessità di regole e diversità nei modelli IA

La questione della regolamentazione e della diversità nei modelli di intelligenza artificiale è diventata cruciale. Durante la conferenza, è emerso con chiarezza che è essenziale stabilire un quadro normativo che garantisca l’efficacia e l’equità degli strumenti IA. È fondamentale evitare che poche aziende dominino il mercato con modelli che possano alimentare bias o discriminazioni. La centralizzazione della tecnologia IA potrebbe compromettere la validità delle soluzioni proposte per le sfide sociali.

La diversità nei modelli non solo promuove un’innovazione equa, ma è anche necessaria per un ambiente di apprendimento sano. Ogni modello di IA deve riflettere una varietà di prospettive e dati per evitare la formazione di bolle informative, un problema già evidente nel contesto delle fake news.

Published by
Ilenia Albanese