Home » Digital Services Act: nuove regole per la responsabilità dei contenuti online

Digital Services Act: nuove regole per la responsabilità dei contenuti online

Il Digital Services Act, in vigore dal 25 agosto, ridefinisce le regole della responsabilità dei contenuti online con norme più stringenti

Categorie Welcome Simon

Il Digital Services Act (DSA), il nuovo regolamento dell’Unione Europea, in vigore dal 25 agosto 2023, ridefinisce le regole sulla responsabilità dei contenuti online. Questo atto normativo rappresenta una svolta significativa. Infatti, l’approccio precedente, sviluppato negli anni ’90, non rispondeva più in modo adeguato alle sfide poste dalle piattaforme sul web.

Le nuove regole per le piattaforme online

Il Digital Services Act è entrato già in vigore il 16 novembre 2022. Ma dal 25 agosto che inizierà a far sentire i suoi effetti, portando con sé una serie di nuove regole che interessano le piattaforme online. Contrariamente alle disposizioni precedenti, questo nuovo regolamento sarà uniformemente applicato in tutti gli Stati membri dell’Unione Europea. Il provvedimento garantirà agli utenti gli stessi diritti ovunque e alle aziende una maggiore coerenza normativa. Le piattaforme coinvolte vanno oltre i social network e includono anche motori di ricerca, marketplace e servizi di hosting. Tuttavia, le disposizioni non saranno uniformi per tutti. Le piattaforme più grandi, le cosiddette “Very Large Online Platforms” (VLOP) e “Very Large Online Search Engines” (VLOSE), che superano i 45 milioni di utenti mensili attivi in Europa, saranno soggette a requisiti più rigorosi.

digital services act

Cosa prevede il Digital Services Act?

Il Digital Services Act (DSA) introduce una serie di nuovi requisiti per le piattaforme online, specialmente per le VLOP e le VLOSE. Queste grandi piattaforme sono ora tenute a istituire un “punto di contatto” dedicato alle segnalazioni provenienti dalle autorità e dagli utenti. Questo punto di contatto agirà come intermediario tra le piattaforme e coloro che segnalano contenuti illegali o dannosi, garantendo tempestivamente l’eventuale rimozione di tali contenuti. L’obiettivo principale del DSA è affrontare la diffusione di contenuti dannosi online, oltre a tutelare la privacy e la libertà di espressione. Il regolamento mira a promuovere un ambiente di innovazione competitivo e a prevenire abusi di posizione dominante da parte delle grandi piattaforme. Queste dovranno adottare sistemi di segnalazione più efficienti e pratiche di moderazione dei contenuti trasparenti. Ciò aiuterà a garantire che i contenuti dannosi vengano individuati rapidamente per poi procedere alla rimozione.

Inoltre, il DSA promuove la trasparenza riguardo al funzionamento degli algoritmi, limitando così l’uso di algoritmi che potrebbero amplificare la disinformazione o promuovere la polarizzazione. Uno dei pilastri del DSA è la visione politica che ne sottende la creazione. L’Unione Europea cerca di affermare la sua sovranità digitale, stabilendo le proprie norme nel mondo digitale anziché adattarsi a standard globali imposti da altri. La sovranità digitale non è solo una questione di regolamentazione, ma implica anche la protezione della privacy degli utenti e la promozione dell’innovazione europea. L’Unione Europea infatti cerca di ridurre la dipendenza da tecnologie e servizi stranieri, promuovendo lo sviluppo di soluzioni digitali in linea con i propri standard. Questo approccio vuole garantire che le decisioni in ambito digitale siano prese all’interno dell’UE, rispettando le leggi e i valori europei.

digital services act

L’impatto del Digital Services Act sulle Big Tech

Il DSA segna un nuovo inizio per le “Big Tech”, le aziende tecnologiche con un ruolo di primo piano nell’attuale panorama digitale. Queste aziende includono social network come Facebook, Instagram e Twitter, ma anche servizi di prenotazione come Booking.com e marketplace come Amazon e Alibaba. A partire dal 25 agosto tutte queste aziende dovranno conformarsi alle nuove normative. Le piattaforme VLOP e VLOSE, in particolare, saranno oggetto di un’attenzione particolare. La loro vasta portata e influenza nell’ambito digitale le rendono soggette a requisiti più stringenti. Questi permetteranno di garantire la sicurezza degli utenti e la conformità alle norme di responsabilità dei contenuti.

Le piattaforme saranno tenute a dimostrare trasparenza nei loro processi di moderazione dei contenuti. Le Big Tech dovranno rivedere e ristrutturare le loro pratiche aziendali per conformarsi alle nuove norme. Questo potrebbe comportare la creazione di team dedicati alla conformità normativa, all’implementazione di nuovi strumenti per il monitoraggio dei contenuti e alla revisione delle politiche di utilizzo dei dati.