ChatGPT presto sarà superato dalla concorrenza: il nuovo progetto di intelligenza artificiale di Nvidia batte tutti!
L’intelligenza artificiale (IA) è ormai una delle forze trainanti più potenti nel panorama tecnologico globale. Dalle auto a guida autonoma ai sistemi di assistenza vocale, dalle piattaforme di raccomandazione ai chatbot, l’IA sta rapidamente trasformando il nostro modo di vivere, lavorare e comunicare. Le sue applicazioni sono così vaste e diversificate che vanno dalla medicina alla finanza, dall’intrattenimento all’educazione. Tuttavia, ciò che realmente caratterizza l’IA non è solo la sua vasta gamma di utilizzi, ma la sua capacità di evolversi e migliorarsi con una rapidità senza precedenti.
Uno degli aspetti più interessanti di questa evoluzione è la costante competizione tra le aziende tecnologiche per sviluppare i modelli di IA più avanzati ed efficienti. In questo contesto, Nvidia ha recentemente fatto parlare di sé con il lancio di un nuovo modello di intelligenza artificiale che potrebbe ridefinire le prestazioni e l’efficacia dei sistemi attuali.
Il 15 ottobre 2024, Nvidia ha sorpreso il mondo dell’IA con il lancio di un nuovo modello denominato Llama-3.1-Nemotron-70B-Instruct, una versione avanzata basata sul modello open-source Llama-3.1-70B di Meta. Il modello, che non è stato presentato con grandi annunci ma che ha rapidamente catturato l’attenzione degli esperti del settore, ha già dimostrato di superare i sistemi di IA più all’avanguardia, tra cui GPT-4o di OpenAI e Claude-3 di Anthropic.
Secondo un post condiviso su X (ex Twitter) dall’account Nvidia AI Developer, Llama-3.1-Nemotron-70B-Instruct è descritto come “un modello leader” nella Chatbot Arena di lmarena.AI, una piattaforma dove i modelli di IA vengono messi a confronto in test di prestazioni e funzionalità. Il modello non è solo un aggiornamento del modello di base di Meta, ma incorpora importanti miglioramenti sviluppati da Nvidia, che lo rendono particolarmente potente.
Il nome stesso del modello riflette l’integrazione tra Meta e Nvidia. Mentre la parte “Llama-3.1-70B-Instruct” fa riferimento al modello di base di Meta, l’aggiunta del termine “Nemotron” evidenzia l’apporto tecnologico di Nvidia. Meta ha creato la cosiddetta “mandria” di modelli Llama, pensata per essere una risorsa open-source su cui gli sviluppatori possono lavorare e migliorare. Nvidia ha raccolto questa sfida e ha potenziato il modello originale con nuove tecniche di messa a punto e l’utilizzo dei propri hardware e set di dati, progettando una versione che potrebbe rivelarsi tra le più performanti sul mercato.
Secondo Nvidia, Nemotron è stato sviluppato con l’obiettivo di essere più “utile” rispetto ad altri modelli di punta come ChatGPT e Claude-3. L’azienda ha impiegato set di dati altamente selezionati e ha implementato avanzate tecniche di addestramento per rendere il modello estremamente efficace in molteplici scenari.
Misurare le prestazioni di un modello di intelligenza artificiale non è un compito semplice. A differenza di parametri scientifici oggettivi, come la temperatura, le prestazioni dell’IA sono influenzate da una serie di fattori soggettivi e contestuali. I ricercatori e gli sviluppatori utilizzano test comparativi per stabilire quanto bene un modello risponda a determinate query, ma la valutazione finale spesso dipende dal giudizio umano.
In questo contesto, Nvidia afferma che Llama-3.1-Nemotron-70B-Instruct supera in modo significativo modelli già noti come GPT-4o e Claude-3. Anche se non appare ancora ufficialmente nelle classifiche della Chatbot Arena, un ingegnere di Nvidia ha dichiarato che il modello ha ottenuto un punteggio di 85 in un test automatizzato “Hard”. Questo punteggio, se confermato, posizionerebbe Nemotron come uno dei modelli più performanti attualmente disponibili.
È interessante notare che il modello di base utilizzato da Nvidia, Llama-3.1-70B di Meta, non è il più grande della sua categoria. Esiste infatti una versione ancora più grande, Llama-3.1-405B, che incorpora un numero di parametri molto superiore. Tuttavia, Nvidia è riuscita a ottimizzare un modello di medie dimensioni, portandolo a competere con giganti come GPT-4o, che si stima utilizzi oltre 1 trilione di parametri.