Home » La rivoluzione dell’AI: la sfida di Intel

La rivoluzione dell’AI: la sfida di Intel

Terminato il “Festival dell’Intelligenza Artificiale” svoltosi a Milano nel mese di febbraio, continuiamo a proporre alcune delle tante occasioni, dei tanti spunti di riflessione offerti da questo appuntamento con il mondo del digitale. Una due giorni di Formazione, Cultura, Conoscenza, Intrattenimento che ha riunito persone provenienti da tutto lo “Stivale”. Ma non è finita qui!

Categorie J.A.R.V.I.S · Stampa

Per professionisti, studenti, imprese e per chiunque sia appassionato di tecnologia e voglia immergersi nel futuro prossimo, sollevando così un lembo, di quel grande velo che separa il presente dal futuro della primavera tecnologica che ci aspetta, non resta che prendere parte al prossimo appuntamento: La Fiera Internazionale sull’Innovazione e il Digitale. Una 3 giorni dove a farla da padrone saranno: oltre 100 eventi, Formazione, Incontri B2B, Networking, Cultura, Concerti, Show e Intrattenimento. Quindi, segnatevi questa data e questo luogo: 13-14-15 giugno 2024, Bologna Fiere.

Intel

Tornando al “Festival dell’Intelligenza Artificiale” un importante punto di vista è stato quello espresso da Walter Riviera (Tech Lead EMEA Intel corporation). Riviera, in Intel dal 2017 come AI TSS (Technical Solution Specialist) si occupa di AI e in particolare “progetti di intelligenza artificiale nel settore Data Center” area EMEA (Europa, Medio Oriente e Africa). Venti minuti in cui l’ingegnere di Intel ha discusso dell’impatto rivoluzionario che avrà l’AI e di come Intel intende affrontare questa sfida.

Riguardo l’AI, l’attenzione si è spostata subito sul macro-mondo (Llm). Acronimo che sta per large language model (Modelli di Linguaggi Grandi, basati su machine learning). Un modello di apprendimento automatico specializzato nella comprensione e nella generazione di testo naturale. Questo modello linguistico è alla base dell’intelligenza artificiale generativa come ChatGPT di OpenAI.

Ma come si è arrivati a tutto questo? Modelli di linguaggio larghi (Llm), machine learning, intelligenza artificiale generativa sono stati creati solo allo scopo di farci porre domande a ChatGPT? Suggerirci ricette? O aiutarci nello studio?

Fonte: AI*Festiva

In principio era la riga di comando

Queste applicazioni rappresentano la punta dell’iceberg della rivoluzione che porterà l’intelligenza artificiale. Ma facciamo un passo indietro. In principio fu la riga di comando; in “pochi” anni si è passati da: PC gestiti a riga di comando con scintillanti cursori lampeggianti su monitor a fosfori verdi e vecchie automobili con dashboard a strumentazione analogica a computer e auto gestite da pannelli con interfaccia grafica (GUI). Ci si potrebbe chiedere: perché? La risposta sembra scontata ma non lo è! L’obiettivo principale è stato facilitare l’interazione visuale uomo-macchina in maniera tale che questi strumenti raggiungessero il maggior numero possibile di consumatori. Per raggiungere questo obiettivo bisognava permettere anche a persone prive di competenze specialistiche, l’uso agevole, di un PC. Permettendogli di sfruttare tutta la potenza della macchina. Anche chi non aveva particolari conoscenze informatiche aveva un mezzo in più per interagire con un PC, fargli compiere un lavoro. Quindi una evoluzione dettata dalla necessità di allargare il target a cui destinare dispositivi elettronici.

Dalla riga di comando all’intelligenza artificiale

E oggi? Considerato che dalle interfacce grafiche si è passati ai comandi vocali, ci si potrebbe chiedere a cosa servono tastiera e mouse? Probabilmente resteranno ma non come prima, mutatis mutandis, queste innovazioni puntano ad allargare ancora di più il bacino dei consumatori. Basti pensare alle persone anziane che non hanno dimestichezza con i dispositivi di input. In casi simili, queste innovazioni, potrebbero permettere l’invio di una mail usando solo comandi vocali. Ma si potrebbe allargare ulteriormente il campo di applicazione, come all’assistenza. Il sostegno a persone non autosufficienti, monitorandole a distanza con l’utilizzo di tutta una serie di sensori gestiti dall’AI e capaci di inviare al momento opportuno tutta una serie di messaggi di allerta.

Prossima frontiera

Ad oggi grazie agli (Llm) riusciamo a far leggere, interpretare e scrivere testo naturale alle macchine (ChatGPT), ma la prossima frontiera riguarda la multimodalità. Con la multimodalità si riuscirà ad accogliere, in ingresso, nuovi tipi di dati. Dati quali: immagini, video e audio. Questo apre un universo sconfinato di nuove possibilità. Lascia intendere come l’AI è molto di più di quello per cui viene oggi utilizzata. L’AI è uno strumento che potrà arricchire ogni aspetto della nostra vita.

Fonte: AI*Festival

I riferimenti secondo Intel

Per Intel, l’AI non è una risposta al “Cosa” ma al “Come”. Che significato ha tutto questo? Intel lo articola in quattro punti chiave:

  • Accelerate innovation: una spinta sempre maggiore verso l’innovazione e una maggiore massimizzazione del valore.
  • Maximize value: Cosa intende Intel per massimizzare il valore? I dati stanno ribaltando il concetto di valore. Considerato che devono essere inviolabili, le informazioni sono così importanti da fare in modo che le infrastrutture siano costruite in funzione dei dati. Questa prospettiva introduce un nuovo concetto, un nuovo paradigma.
  • AI everywhere
  • Responsible AI
Fonte: AI*Festival

Il Federated learning

Questi algoritmi creano una collaborazione tra diversi attori dando vita ad un modello Federato. Per apprendere autonomamente l’intelligenza artificiale ha la necessità di addestrarsi utilizzando enormi quantità di dati. Questa enorme mole di dati può essere distribuita e quindi prelevata da diverse fonti. Lo spostamento e l’utilizzo di informazioni da basi di dati già esistenti pone problemi di privacy e sicurezza.

Ad esempio: l’utilizzo di informazioni sensibili di tipo medico. A questo tipo di problemi cerca di porre rimedio la tecnica del modello Federated learning. Un paradigma di tipo collaborativo. Con questo metodo non sono più i dati a viaggiare, ad essere scambiati, ma le correlazioni, i parametri appresi dai modelli allenati sui dati posseduti da ciascuna Entità. I dati, non essendo più scambiati e non lasciano il luogo a cui appartengono, godono di maggiore protezione e sicurezza. Ma anche questa tecnica non è esente da problemi.

Intel, AI e PC

In risposta alle esigenze di privacy e sicurezza, considerata la necessità di dover allenare l’AI con enormi quantità di dati, magari dovendoli spostare anche da remoto, Intel nel dicembre scorso ha lanciato l’AI PC. Un Personal Computer che contiene tre unità computazionali (CPU, GPU integrata, NPU). Nella NPU (Neural Processing Unit) risiederanno dei software. Tra i vari compiti che avranno questi software ci sarà quello di verificare se durante le normali attività si stanno inavvertitamente condividendo dati sensibili. Queste funzioni prendono il nome di: “Protection Guard”. Ecco, la direzione tracciata, l’AI everywhere. L’ AI al servizio della sicurezza informatica.

Fonte: AI*Festival

Non solo, in questa architettura, alcuni dei processi eseguiti in background durante le ordinare operazioni, non impegneranno più le risorse computazionali della CPU o della GPU ma sfrutteranno quelle della NPU, continuando ad essere eseguiti in background ma gestiti in maniera più efficiente. Intel ha intrapreso un vero e proprio percorso che definisce Responsible AI, in cui la casa produttrice di microprocessori s’impegna a far progredire la tecnologia AI in maniera responsabile limitandone gli usi potenzialmente dannosi. A questo scopo è riconducibile la creazione di FakeCatcher una tecnologia che permette di verificare l’autenticità di video in cui compaiono persone. Oppure il C2PA consorzio di cui Intel è parte che ha messo a punto un protocollo per l’autenticità dei contenuti online.