Come riconoscere le immagini generate dall’intelligenza artificiale? Ci aiuterà Google, che ci spiegherà come fare.
Nel contesto attuale, dove la distinzione tra realtà e artefatti digitali sta diventando sempre più sfumata, Google ha annunciato un progetto innovativo per affrontare questa sfida. L’azienda prevede di lanciare una tecnologia che aiuterà gli utenti a identificare se un’immagine è stata scattata da una fotocamera tradizionale, se è stata alterata mediante software di editing come Photoshop o se è stata generata da modelli di intelligenza artificiale (AI). Questo nuovo sistema, previsto per l’autunno del 2024, rappresenta un passo significativo verso la trasparenza nell’uso delle immagini online.
La funzionalità di ricerca, che verrà integrata nei risultati di Google, includerà un’etichetta che avviserà gli utenti sull’origine delle immagini, fornendo informazioni su se l’immagine è autentica, modificata o generata dall’AI. Questo avviso sarà molto probabilmente etichettato con la dicitura “informazioni su quest’immagine”, fornendo così un chiaro punto di riferimento per chi naviga nel vasto mare di contenuti visivi disponibili online.
Questa iniziativa è parte del più ampio sforzo della Coalition for Content Provenance and Authenticity (CP2A), un’alleanza di grandi aziende tecnologiche, tra cui Amazon, Microsoft, Adobe, OpenAI e ora Google, dedicata alla regolamentazione delle immagini generate da AI.
Il CP2A è un standard tecnico progettato per le immagini, con l’obiettivo di tracciare l’origine e il processo di creazione delle stesse. Questo sistema opera in sinergia con hardware e software per creare sentieri digitali che documentano la provenienza delle immagini. La nuova versione 2.1 del CP2A, sviluppata da Google, rappresenta un passo avanti nella capacità di determinare l’autenticità delle immagini attraverso una lista di fiducia che permetterà ai motori di ricerca di discernere se un’immagine è reale o generata da AI.
Laurie Richardson, vice president of trust and safety di Google, ha spiegato come funziona questo sistema: “Se i dati mostrano che un’immagine è stata scattata con un modello di fotocamera specifico, la lista di fiducia aiuta a convalidare che questa informazione sia accurata”. Questo approccio non solo aiuta a verificare la veridicità delle immagini, ma fornisce anche una base solida per la fiducia tra gli utenti e il contenuto che visualizzano.
Oltre all’uso nei risultati di ricerca, Google prevede di implementare questa tecnologia anche negli annunci pubblicitari per garantire la trasparenza tra utenti e produttori. Richardson ha affermato che “l’obiettivo è di intensificare questo processo nel tempo e di utilizzare i segnali C2PA per informare come applicheremo le politiche chiave”. È previsto che anche YouTube beneficerà di queste informazioni, con aggiornamenti che informeranno gli spettatori sull’autenticità del contenuto registrato con una fotocamera, attesi entro la fine dell’anno.
Tuttavia, nonostante le buone intenzioni di Google, l’implementazione del CP2A si sta rivelando estremamente difficile. Le limitazioni hardware delle fotocamere stesse rappresentano una barriera significativa; attualmente, solo un numero ristretto di modelli di marchi come Leica e Sony supporta il standard tecnico del CP2A. Anche se Nikon e Canon hanno accettato di adottare questo standard nei loro nuovi modelli, sia Apple che Google non si sono ancora impegnate ad adottarlo per i loro smartphone.
La volontà di Google di promuovere la trasparenza e la distinzione tra immagini autentiche e quelle generate da AI è lodevole, ma le sfide tecniche rimangono considerevoli. Questo progetto non solo avrà un impatto sulle modalità di interazione degli utenti con i contenuti visivi, ma potrebbe anche influenzare profondamente l’industria della tecnologia e della comunicazione visiva nel suo complesso.