Tastiera di un computer con tasto cin la scritta Digital Services Act © Cristian Storto/Shutterstock

© Cristian Storto/Shutterstock

Con la legge sui servizi digitali (Digital Services Act) l’Unione europea punta a stabilire nuovi standard sugli obblighi e le responsabilità di social network e altri grandi piattaforme nella gestione dei contenuti problematici. Il risultato è frutto di un dialogo continuo tra Commissione, Parlamento e Consiglio, con il coinvolgimento della società civile

18/05/2022 -  Federico Caruso

Nelle prime ore di sabato 23 aprile è stato raggiunto un accordo politico tra il Parlamento europeo e il Consiglio dell’Unione europea sul testo della legge sui servizi digitali, o Digital Services Act (DSA). Si tratta, in estrema sintesi, di una norma che intende definire degli standard comuni su come gestire i contenuti illegali o dannosi pubblicati sulle piattaforme digitali. Le misure si rivolgono in larga parte alle piattaforme con oltre 45 milioni di utenti, quindi i grandi social network come Facebook, Twitter o TikTok, ma anche motori di ricerca come Google e siti di e-commerce come Amazon.

La legge imputa a queste ultime una serie di responsabilità e oneri volti a tutelare gli utenti in termini di contrasto alla disinformazione, discorsi d’odio e in generale di tutela dei diritti digitali, a fronte dell’enorme concentrazione di potere in mano a poche aziende nella decisione di ciò che può essere o meno considerato un contenuto “dannoso” o “pericoloso”. Per chi trasgredisce, le multe possono arrivare fino al 6 per cento del fatturato.

Si tratta di un testo la cui importanza è stata sottolineata, oltre che dalle istituzioni europee, da diversi attori che si impegnano per la tutela dei diritti degli utenti. Com’è prevedibile per un regolamento che interviene su un tema così complesso, ai commenti positivi si sono affiancate voci che ne sottolineano i limiti e le occasioni mancate.

A distanza di alcune settimane dall’annuncio, e nonostante si sia ancora in attesa del testo definitivo che sarà pubblicato a seguito degli incontri tecnici di questi giorni, proviamo a fare qualche considerazione su alcune delle misure più rilevanti contenute nella legge.

Trasparenza degli algoritmi

Tra le principali novità introdotte dal regolamento c’è l’obbligo per le grandi piattaforme di condurre con regolarità delle valutazioni sul possibile impatto negativo sulla società dei loro servizi e di sottoporsi a delle verifiche indipendenti. Inoltre dovrà essere assicurata la trasparenza sugli algoritmi usati per stabilire quali contenuti mostrare agli utenti e con quale priorità. La misura fa parte di un pacchetto di emendamenti introdotto dal Parlamento Europeo e mira ad assicurare da un lato la libertà di espressione e il pluralismo dell’informazione, dall’altro il contrasto alla disinformazione. «Le piattaforme dovranno pubblicare i criteri principali usati dai loro algoritmi – ha spiegato a OBCT Patrick Breyer, europarlamentare tedesco del gruppo dei Verdi –. Anche i ricercatori vi avranno accesso e potranno indagare gli effetti degli algoritmi».

In linea di principio si tratta di un’iniziativa condivisibile, ma è l’applicazione pratica che apre qualche dubbio. Come hanno detto a Wired fonti anonime interne a Twitter, «il primo problema è che non c’è un unico algoritmo che guida le decisioni di Twitter, a differenza di quello che lasciano intendere certe dichiarazioni di Elon Musk». Le decisioni, spiegano ancora gli informatori, sono il risultato dell’interazione tra diversi algoritmi che compiono «una complessa danza in cima a una montagna di dati e una moltitudine di azioni umane». Inoltre gli algoritmi usati da Twitter (ma il principio vale per tutte le grandi piattaforme) sono basati su sistemi di apprendimento automatico (machine learning) che prendono decisioni sulla base di modelli in continua evoluzione. Non è quindi possibile “indagare l’algoritmo” semplicemente pubblicando online il codice sorgente. Al contrario, bisognerebbe ricreare una simulazione realistica di quanto accade sulla piattaforma. Ma non è detto che poi questa dia risultati affidabili, perché nel frattempo i modelli della piattaforma vera e propria saranno cambiati in risposta all’enorme flusso di dati in arrivo.

Moderazione dei contenuti

Sempre in tema di trasparenza e contrasto alla disinformazione, il DSA prevede un miglioramento della moderazione dei contenuti, introdotto su proposta del Parlamento Europeo. Le grandi piattaforme dovranno informare direttamente gli utenti su eventuali contenuti cancellati, iniziative di shadow ban (la pratica di nascondere i commenti di un utente senza però cancellarli) o sul blocco dell’account, e offrire dei canali per opporsi. Inoltre agli utenti sarà garantita la possibilità di segnalare contenuti ritenuti illegali, con l’obbligo per le piattaforme di dare seguito alle segnalazioni in maniera trasparente.

Tra gli obiettivi del regolamento c’è la limitazione della discrezionalità che oggi hanno le piattaforme nel rimuovere o nascondere contenuti che reputano in qualche modo dannosi. Secondo Breyer, «contenuti legali non dovrebbero essere rimossi per presunta dannosità, per proteggere la libertà di espressione». L’europarlamentare tedesco si spinge oltre, sostenendo che «non sta alle piattaforme monitorare i propri servizi in cerca di contenuti potenzialmente illegali. Non è l’accessibilità di quei contenuti il problema ma l’uso di algoritmi che, per generare profitto, diffondono contenuti problematici a utenti che non vorrebbero vederli. Spero che il DSA spinga le piattaforme ad assumere più personale, meglio formato e pagato, piuttosto che incrementare l’uso di algoritmi censori soggetti a errori».

Recommender system, pubblicità mirata, dark pattern

Tra i temi toccati dal pacchetto di emendamenti del PE, quello sugli algoritmi che stabiliscono i criteri con cui le piattaforme selezionano e danno rilevanza ai contenuti mostrati all’utente: in pratica quello che vediamo (o non vediamo) quando scorriamo il newsfeed dei nostri profili social o esploriamo Youtube con il nostro account. L’obiettivo era, ancora una volta, garantire maggiore trasparenza, ma anche dare all’utente la libertà di scegliere su quali criteri fondare la propria esperienza “social”. È un tema importante perché i contenuti che generano più engagement (coinvolgimento) sono quelli che polarizzano il dibattito, spesso legati a posizioni politiche estreme, disinformazione, discorsi d’odio, ed è bene che l’utente sappia ciò che sta vedendo è scelto (anche) sulla base di queste dinamiche, e che possa decidere di uscirne.

Il DSA introdurrà l’obbligo per le piattaforme di spiegare secondo quali criteri avviene tale selezione, e di offrire un’opzione affinché i contenuti siano selezionati secondo criteri non basati sulla profilazione dell’utente, per esempio in ordine meramente cronologico. Se questo è certamente positivo, secondo alcuni si poteva osare di più. C’è chi, come Breyer, si aspettava un passo in avanti verso l’interoperabilità del servizio, ossia la possibilità che all’utente fosse garantito «il diritto all’uso di algoritmi di classificazione esterni» (cioè sviluppati da organizzazioni esterne alle piattaforme), basati su criteri trasparenti e sotto il controllo dell’utente, ma così non è stato.

Grazie al contributo del PE, si sono fatti importanti passi avanti sul bando definitivo della pubblicità mirata e dei cosiddetti dark pattern . Sul primo aspetto, la nuova legge stabilisce che sulle piattaforme non sarà più possibile mostrare pubblicità mirata ai minori, e che in ogni caso questa non potrà essere basata sulle tipologie di dati sensibili previste dal GDPR (stato di salute, religione, orientamento politico e sessuale, ecc.). Il PE prevede inoltre che ci siano margini di intervento in futuro anche sul tema del tracciamento dei dati e della relativa sorveglianza pubblicitaria. «Ci sarà l’opportunità di affrontare la questione della “pubblicità di sorveglianza” nella ePrivacy regulation – ha spiegato Breyer –. Il Parlamento europeo preme anche per l’introduzione di un meccanismo che impedisca il tracciamento dell’utente (do not track ) e il diritto all’accesso [ai propri dati di navigazione] per coloro che lo utilizzano. Anche il dossier sulla pubblicità politica [un’altra proposta legislativa in discussione che andrà a integrare il DSA, ndr] è un’occasione per occuparsi degli annunci di sorveglianza a fini politici».

Avanzamento benché limitato per quanto riguarda i dark pattern, ossia quegli espedienti di design che puntano a spingere l’utente a fare una certa scelta (per esempio sottoscrivere un contratto o condividere i propri dati personali), nel testo approvato dal Parlamento europeo si precisa che saranno vietati solo sulle piattaforme interessate dal DSA, e non in generale.

Dalla teoria alla pratica

L’attenzione ora è rivolta all’applicabilità del regolamento. Per prevenire quanto accaduto con il GDPR, che a fronte di un testo generalmente apprezzato si è poi dovuto scontrare con lo scarso interesse di alcune agenzie nazionali a comminare multe alle grandi aziende con sede legale nel paese (Irlanda e Lussemburgo i casi più eclatanti), la Commissione europea ha avocato a sé l’applicazione del DSA, in collaborazione con le autorità dei diversi stati membri.

Innanzitutto c’è la questione del personale. Come spiega Politico , la Commissione ha annunciato l’assunzione di 150 persone tra giuristi ed esperti di algoritmi, e ci si chiede se saranno sufficienti. Per fare un confronto il Regno Unito punta ad assumere 500 persone che si occuperanno di assicurare l’applicazione dell’Online Safety Bill , una legge simile al DSA.

A pagare saranno direttamente le grandi piattaforme, a cui sarà chiesto di versare fino allo 0,05 per cento dei loro guadagni annuali, con cui la Commissione punta a raccogliere circa 30 milioni di euro all’anno. Secondo fonti anonime sentite da Politico, questa misura si è resa necessaria perché l’applicazione del DSA non è rientrata nella negoziazione del budget 2021-2027 dell’UE.

Nei prossimi giorni si attende la pubblicazione del testo definitivo della legge, che poi sarà approvato formalmente dal Parlamento e dal Consiglio dell’Unione europea. Il regolamento inizierà a essere applicabile a 15 mesi dall’entrata in vigore, o comunque non oltre l’1 gennaio 2024. Da quel momento le grandi piattaforme avranno ulteriori quattro mesi di tempo per adattarsi alle nuove regole.

Questo materiale è pubblicato nel contesto del progetto "Parlamento dei diritti 3", cofinanziato dall'Unione europea (UE) nel quadro del programma di sovvenzioni del Parlamento europeo (PE) per la comunicazione. Il PE non è in alcun modo responsabile delle informazioni o dei punti di vista espressi nel quadro del progetto. La responsabilità sui contenuti è di OBC Transeuropa e non riflette in alcun modo l'opinione dell'UE. Vai alla pagina “Il Parlamento dei diritti 3”.


Hai pensato a un abbonamento a OBC Transeuropa? Sosterrai il nostro lavoro e riceverai articoli in anteprima e più contenuti. Abbonati a OBCT!