J.A.R.V.I.S

GPT-4 imita il pensiero umano, ma non lo capisce davvero

I ricercatori dell’Università di Amsterdam hanno studiato GPT-4 e sono giunti alla conclusione che imita il pensiero umano, senza capirlo

Sono tanti coloro che ogni giorno sfruttano ChatGPT con motore GPT-4 per ottenere risposte e informazioni. Alcuni lo usano ormai come assistente personale. D’altronde, tale IA sembra essere dotata di una propria coscienza capace di comprendere e riprodurre il pensiero umano.

Ma è davvero così? A quanto pare no. Dei ricercatori dell’Università di Amsterdam sono giunti alla conclusione che l’IA GPT-4 imita molto bene il pensiero umano ma in realtà non riesce a comprenderlo appieno.

In particolare, il gruppo, in collaborazione con alcuni ricercatori del Santa Fe Institute, ha evidenziato come GPT-4 e l’IA in generale non sia in grado di risolvere dei problemi analogici. In alcuni test potrebbero essere efficaci, ma in altri potrebbero mostrare determinate lacune, specialmente quando vengono modificati gli elementi di partenza.

Ma come si è arrivati a questa conclusione? E quali sono i risvolti di tale studio? Ecco tutto quello che c’è da scoprire sul pensiero umano in relazione all’IA.

IA, i test per associarli al pensiero umano

Le ricercatrici Martha Lewis dell’Università di Amsterdam e Melanie Mitchell del Santa Fe Institute hanno unito le forze per svolgere alcune prove sul pensiero analogico dell’IA. In linea di massima, gli esseri umani fanno delle analogie come “la tazza sta a caffè come scodella sta a zuppa”. Prendendo questo metodo di ragionamento come esempio, le ricercatrici hanno preparato delle “sfide” da far superare all’IA che coinvolgessero schemi con lettere, matrici di numeri (nelle quali bisognava identificare il numero mancante) e analogie delle storie.

Il risultato? GPT-4 si comportava bene in un primo momento, ma, nel caso delle matrici di numeri, se la posizione del numero mancante veniva modificata in un secondo momento mostrava delle grosse limitazioni. In merito ai test sulle storie, GPT-4 optava per la prima risposta, senza analizzare il contesto effettivo. Inoltre, quando gli elementi di una storia venivano riformulati, l’IA faceva parecchia fatica, mostrando una dipendenza da somiglianze superficiali e non un vero ragionamento causale.

GPT-4, al momento non mostra un ragionamento umano (DepositPhotos) – SystemsCUE

Cosa dimostra tale esperimento?

Lo studio dell’Università di Amsterdam ha dimostrato come, per quanto GPT-4 sia un modello avanzato, non abbia una vera comprensione astratta. La capacità dell’IA di adattarsi a situazioni che cambiano o evolvono è inferiore a quella degli esseri umani al momento. Il ragionamento dell’IA si basa sul riconoscere gli schemi e non sul formulare un pensiero come accade con il cervello umano.

Questo test evidenzia anche come sia prematuro affidarsi troppo all’IA quando si parla di settori critici come educazione, diritto e in alcuni casi, anche sanità. Questo perché in tali settori è indispensabile il giudizio umano per evitare errori o fraintendimenti.

Published by
Claudio Vittozzi