Convegno Corecom Lombardia
LA NUOVA RIFORMA EUROPEA SUL DIGITALE
Milano, 13 maggio 2021
Intervento di Laura Aria
Premessa
Viviamo non in un’epoca di cambiamento, ma in cambiamento d’epoca.
Ormai le tecnologie dell’informazione e della comunicazione non costituiscono più un settore a sé stante, ma il fondamento di tutti i sistemi economici innovativi.
Ciò ha rafforzato sempre più l’esigenza di superare la tradizionale disciplina dei media, attraverso un’impostazione tecnologicamente neutrale, complice anche il passaggio dalla scarsità delle frequenze dell’etere terrestre a quello dell’abbondanza tipico dei service providers.
In questo scenario, le forze di mercato non sono – da sole – sufficienti a garantire lo sviluppo di un settore così strategico per il suo rapporto con i diritti fondamentali: l’aumento dell’offerta, infatti, non significa necessariamente l’ampliamento delle fonti di informazione, ben potendo detti “canali” essere appannaggio di pochi operatori. Il prodotto fruito, tra l’altro, non sempre risponde a quei criteri di veridicità e correttezza che da sempre hanno caratterizzato l’informazione tradizionale
Si è resa, pertanto, necessaria, una valutazione dell’efficacia, dell’efficienza, della pertinenza e coerenza delle norme esistenti.
SMAV E LEGGE DI DELEGAZIONE EUROPEA
È in questo scenario che un nuovo quadro giuridico per le piattaforme digitali sta prendendo forma, da un lato, per l’approssimarsi del recepimento della direttiva Smav, ormai in uno stato avanzato, stante l’avvenuta approvazione della legge n. 53/2021 (“legge di delegazione europea 2019-2020”) che, all’articolo 3, fissa i principi e i criteri direttivi per l’attuazione della direttiva.
Dall’altro, la pubblicazione delle due proposte legislative presentate dalla Commissione europea (Digital Services Act e Digital Market Act) è destinata ad alimentare per i prossimi anni il dibattito istituzionale europeo e nazionale intorno al ruolo e alla natura delle piattaforme online. La direttiva (UE) 2018/1808 (c.d. “SMAV 2”) – che modifica la direttiva 2010/13/UE, relativa alla fornitura di servizi di media audiovisivi (direttiva sui servizi di media audiovisivi, “Direttiva SMAV”) – mira ad adeguare la previgente normativa all’evoluzione del mercato dei servizi di media audiovisivi, caratterizzato dalla convergenza tra televisione e servizi Internet. A tal fine viene innanzitutto aggiornato l’apparato definitorio introducendo concetti come “servizio di piattaforma per la condivisione di video” , “video generato dall’utente” , “fornitore della piattaforma per la condivisione di video” .
Si apre così la strada a un contesto normativo più equo per l’intero settore dei media, dal momento che queste nuove forme di fruizione dei contenuti vengono assoggettate a regole comuni.
Uno degli aspetti di rilievo è l’introduzione, a livello normativo, di procedure di co-regolazione.
La direttiva, infatti, prevede che gli Stati membri incoraggiano il ricorso alla co-regolamentazione e all’autoregolamentazione tramite codici di condotta adottati a livello nazionale, mentre alla Commissione europea spetta il compito di agevolare la messa a punto di codici di condotta dell’Unione, conformemente ai principi di sussidiarietà e proporzionalità.
I codici di condotta devono:
- essere concepiti in modo da essere ampiamente accettati dai principali soggetti interessati;
- stabilire chiaramente e senza ambiguità i loro obiettivi;
- fornire un monitoraggio e una valutazione regolari, trasparenti e indipendenti degli obiettivi fissati;
- prevedere un’applicazione effettiva, comprensiva di sanzioni effettive e proporzionate.
La co-regolamentazione, già utilizzata nel settore dei servizi di broadcasting, viene quindi estesa anche alle piattaforme di video sharing, che la Direttiva definisce come la fornitura di programmi, video generati dagli utenti o entrambi per il grande pubblico al fine di informare, intrattenere o istruire attraverso reti di comunicazioni elettroniche, mentre l’organizzazione del servizio è determinata dal fornitore della piattaforma con mezzi automatici o algoritmi. Anche i social media sono ricompresi nell’ambito di applicazione della Direttiva nella misura in cui la fornitura di programmi e di video generati dagli utenti costituisce una loro funzionalità essenziale.
È proprio sulla già menzionata co-regolamentazione che la direttiva punta la sua efficacia. Con detto istituto, infatti, gli stakeholder e i poteri pubblici condividono il ruolo di regolamentazione, mentre l’osservanza delle regole, demandata a soggetti terzi indipendenti è assicurata da un adeguato apparato sanzionatorio. Ecco allora un primo punto di questa riflessione: la co-regolamentazione sembra decisamente superare in efficacia l’autoregolamentazione.
Oltre ai codici di condotta, sono previste misure appropriate per tutelare i minori dai contenuti che possono nuocere al loro sviluppo fisico, mentale o morale e il grande pubblico dai contenuti che istigano alla violenza o all’odio nei confronti di un gruppo o di un membro di un gruppo per uno dei motivi di cui all’articolo 21 della Carta dei diritti fondamentali dell’Unione europea o la cui diffusione costituisce reato ai sensi del diritto dell’Unione.
Si tratta di misure volte ad assicurare meccanismi trasparenti e di facile uso affinché gli utenti delle piattaforme possano segnalare illeciti o contenuti inappropriati e conoscere il seguito dato alla segnalazione, nonché ad introdurre sistemi adeguati di gestione e risoluzione dei reclami degli utenti. A ciò si accompagnano sistemi per verificare l’età degli utenti, a protezione dei minori e sistemi di parental control concepiti ad hoc per la piattaforme.
La legge di delegazione europea rafforza questi presidi, prevedendo, tra i principi e i criteri direttivi per il recepimento della direttiva SMAV, un obbligo informativo, a carico di tutti i fornitori di servizi di media, comprese le piattaforme e i social network, in merito a contenuti, anche pubblicitari, da loro ospitati. Sono altresì previste apposite misure nei confronti di utilizzatori di profili fittizi o di soggetti inesistenti o tramite l’appropriazione di identità altrui, al fine di alterare lo scambio di opinioni.
Materie la cui cura è affidata dal Legislatore all’AGCom quale Autorità nazionale di regolamentazione di settore, anche attraverso le più opportune forme di autoregolamentazione e co-regolamentazione.
Come del resto già avviene nel settore delle comunicazioni elettroniche, anche le procedure di risoluzione extragiudiziale delle controversie e la sua regolamentazione e implementazione vengono affidate all’Autorità per le garanzie nelle comunicazioni: l’utente assurge così a “utente/consumatore” superando la tradizionale segmentazione settoriale che vedeva da un lato gli utenti radiotelevisivi e dall’altro i consumatori dei servizi di telecomunicazione.
Su un piano sistematico, il Legislatore delegato, in sede di recepimento, dovrà provvedere al riordino complessivo della normativa nazionale. Tale previsione è inserita nel comma 1 dell’art. 3 della Legge di delegazione e afferma innanzitutto l’importante principio secondo cui, nell’esercizio della delega per l’attuazione del menzionato atto europeo, il Governo è tenuto a riordinare le disposizioni dell’attuale Testo unico dei servizi di media audiovisivi e radiofonici (Tusmar), attraverso l’emanazione di un nuovo Testo unico dei servizi di media digitali, alla luce dell’evoluzione tecnologica intervenuta.
È prevista, inoltre, l’introduzione di misure finalizzate all’adeguamento delle prescrizioni per le comunicazioni commerciali da applicare anche ai servizi di piattaforma per la condivisione di video, nonché la previsione di codici di condotta per proteggere i minori dalla pubblicità relativa a prodotti alimentari e bevande ad alto contenuto di sale, zucchero e grassi (oltre che alcoliche).
Da ultimo, tra i criteri direttivi della legge di delegazione europea, figura quello di promuovere l’alfabetizzazione digitale da parte dei fornitori di servizi di media e dei fornitori di piattaforme di condivisione dei video.
Si tratta di un impegno che intende rispondere alla ormai sempre più crescente necessità dei cittadini di sfruttare in modo più consapevole il potenziale comunicativo e informativo del web e partecipare in modo attivo alla società dell’informazione. L’obiettivo formativo è quello di fornire le necessarie conoscenze e abilità relative all’accesso tecnologico-procedurale e ai linguaggi della comunicazione digitale.
Solo in tal modo, infatti, si potranno acquisire una serie di competenze che consentiranno di condividere informazioni e contenuti con altre persone, di interagire con le community di interesse, e più in generale di beneficiare delle opportunità offerte dalle piattaforme.
Non sorprende allora che, già nel 2006, in una Raccomandazione del Parlamento europeo e del Consiglio relativa alle competenze per l’apprendimento permanente, l’istruzione digitale veniva qualificata come un’abilità chiave nell’arco della vita, necessaria per la realizzazione e lo sviluppo personale, la cittadinanza attiva, l’inclusione digitale e l’occupazione.
Negli anni poi prezioso è stato il lavoro di media education svolto dai Corecom che testimonia l’impegno e la presenza sul territorio di questi Comitati. Proprio il Corecom Lombardia – che oggi ospita questo interessante dibattito – ha dal 2014 ha avviato un progetto di formazione continuo in tale materia con l’obiettivo di assicurare una maggiore consapevolezza nella fruizione dei media, a riprova di una sempre attenta presenza sul territorio di riferimento.
Del resto, il ruolo delle istituzioni è fondamentale nel percorso diretto a fornire ai cittadini competenze e conoscenze per utilizzare i media in modo efficace e sicuro approfondendo i criteri per acquisire capacità critica, formulare giudizi e riconoscere i limiti entro i quali agire in rete senza uscire dalla sfera della legalità.
DIGITAL SERVICE ACT
La nuova direttiva Smav non apporta innovazioni in merito all’individuazione di un regime di responsabilità delle piattaforme online che distribuiscono contenuti, limitandosi a richiamare, sul punto il regime delineato dalla direttiva e-Commerce del 2000.
Sotto questo profilo, in un’ottica di sistema, assume grande rilievo la recente proposta legislativa di Digital Service Act (DSA), definita a dicembre 2020 dalla Commissione europea. Tale proposta, unitamente al Digital Market Act (DMA), costituisce un cruciale punto di svolta introducendo un nuovo approccio “regolatorio” verso le piattaforme e i gatekeeper.
Più in particolare, il DSA si pone l’obiettivo di introdurre norme proporzionate e bilanciate per meglio regolare l’ecosistema digitale, promuovendo l’innovazione e la competitività e incrementando il livello di tutela dei consumatori e la salvaguardia dei diritti fondamentali online.
L’obiettivo è quello di istituire un quadro innovativo in materia di trasparenza e responsabilità delle piattaforme online. Ed è, in questo senso, che il DSA interviene sulla Direttiva E-Commerce, con l’obiettivo di rinnovarla, pur tuttavia mantenendo la validità dei principi fondamentali ivi stabiliti.
Da un punto di vista strutturale, non ci troviamo di fronte a una modifica del regime di responsabilità stabilito dalla Direttiva E-Commerce. Infatti, il regolamento pur “sopprimendo” i tanti contestati articoli da 12 a 15 della direttiva del 2000, li riproduce al suo interno, mantenendo pertanto le esenzioni di responsabilità per i prestatori dei servizi conformemente alla giurisprudenza della Corte di giustizia dell’Unione europea. Un’operazione questa che inevitabilmente non “sposta” gli equilibri (o più che altro i disequilibri) che finora hanno caratterizzato l’attività delle piattaforme e che continua a escludere un obbligo generalizzato di sorveglianza.
Nello stesso tempo, però, essa introduce un modello di regolazione orizzontale asimmetrica volto a rafforzare i livelli di trasparenza e accountability degli intermediari in base alle loro dimensioni. Elemento di novità è proprio l’introduzione di un regime di responsabilità “a gradoni” con un set di obblighi di due diligence per tutti i provider di servizi di intermediazione, per i servizi di hosting, per le piattaforme online e per le “very large online platform”, proporzionato in ragione delle loro dimensioni, impatti sul mercato, e della natura dei loro servizi e contenuti.
Si tratta di un intervento che, sebbene non superi l’esenzione di responsabilità escludendo comunque l’obbligo di controllo preventivo sui contenuti veicolati dalle piattaforme, è in grado di graduarla, puntando a inasprire le sanzioni per gli intermediari nel caso di mancata rimozione dei contenuti lesivi a seguito di un ordine impartito dalle autorità giudiziarie o amministrative di settore.
In tal senso, la nuova proposta di “Legge digitale” restituisce al sistema un opportuno bilanciamento tra esigenze di mercato e quelle di tutela: limitare tout court la crescita di servizi ormai essenziali per le interazioni tra soggetti del mercato, nuocerebbe non solo all’innovazione e alla concorrenza tra imprese, ma anche al pluralismo e alla libertà di espressione degli utenti nel web, come pure al progresso scientifico, culturale e artistico.
L’intervento europeo in commento si connota quindi per aver sapientemente coniugato, almeno negli intenti, una crescita sostenibile del digitale attraverso l’adeguato bilanciamento della protezione dei diritti degli utenti, che pur deve essere elevata, e l’esigenza – altrettanto cruciale – di favorire l’innovazione e la concorrenza, nonché la salvaguardia della democrazia.
Ed è proprio con questo intento che il DSA introduce misure proporzionate e mira a contrastare più efficacemente la disinformazione e l’hate speech, riscrivendo la dialettica tra libertà di espressione e di informazione e potere politico ed economico nella sfera del pluralismo online, attraverso una regolazione che mette al centro i diritti fondamentali e, al contempo, promuove una maggiore competitività nel mercato unico e una spinta costante all’innovazione.
In questo, il ruolo degli attori istituzionali diviene cruciale. Il DSA, infatti, propone anche una articolata struttura della governance, di vigilanza dei servizi digitali in ambito nazionale ed europeo, nonché strumenti volti a rafforzare la cooperazione tra la Commissione e le autorità degli Stati membri, proponendo importanti miglioramenti in termini di efficienza nella cooperazione tra Stati membri, attraverso misure rafforzate di assistenza e di vigilanza a livello UE.
Ciò sul presupposto di definire una adeguata ripartizione delle responsabilità tra i servizi intermediari, i destinatari di tali servizi e le autorità pubbliche attraverso un approccio controllato alla gestione dei rischi, in cui il sistema di governance svolge un ruolo importante ai fini dell’applicazione delle norme.
Dovrà quindi essere designata una o più autorità nazionale responsabile dell’applicazione ed esecuzione del Regolamento: il Digital Services Coordinator, autorità imparziale e indipendente da qualsiasi ingerenza esterna pubblica o privata, che funga da “point of contact” – essendo chiamato a contribuire all’applicazione ed attuazione efficace e coerente del Regolamento all’interno dell’UE – responsabile di assicurare il coordinamento a livello nazionale in relazione a tutte le questioni relative al DSA, cooperando con i diversi Coordinatori dei servizi digitali, nonché con le altre autorità nazionali competenti, con il Comitato consultivo europeo per il servizi digitali e con la Commissione europea.
Si tratta di misure che si inseriscono in un’ottica di miglioramento dei meccanismi per la rimozione dei contenuti illegali e per l’efficace tutela dei diritti fondamentali degli utenti online, compresa la libertà di parola. Non solo. Queste misure intendono, altresì, creare un maggiore controllo pubblico sulle piattaforme online, specie per quelle Big Tech in grado di sopportare gli oneri della regolamentazione.
Ed è in tale contesto che il DSA produce un impatto diretto anche sulla Direttiva SMAV in quanto le norme trasversali ivi contenute potranno colmare la lacuna derivante dalla mancata previsione di tale profilo nelle norme settoriali come la nuova Smav.
La scelta, poi, di uno strumento normativo direttamente applicabile, quale è il Regolamento, conferma l’intenzione della Commissione europea di agire nel senso di un’armonizzazione delle normative nazionali, che hanno manifestato carenze nell’obiettivo della protezione dei consumatori contro la diffusione di contenuti, prodotti e servizi illeciti online, ma in alcuni casi hanno anche comportato ostacoli alla crescita delle imprese europee, riducendo la loro competitività nel mercato unico.
Accanto al DSA – iniziativa orizzontale che ha come focus principale la responsabilità in capo agli intermediari online rispetto ai contenuti di terzi, e la sicurezza degli utenti, sul presupposto che ciò che è vietato offline è vietato anche online – la Commissione, sempre nell’ambito del cosiddetto EU Digital Package, ha pubblicato un’ulteriore proposta di regolamento. Il DMA riguarda gli squilibri economici e, nello specifico, tratta delle pratiche commerciali sleali che possono essere poste in essere dalle piattaforme gatekeeper.
Tanto il DMA quanto il DSA pongono al loro centro i servizi di intermediazione digitale ed è importante chiarire come i presupposti per i quali si può ritenere necessario un intervento regolatorio non sono necessariamente negativi, bensì insiti negli ecosistemi delle piattaforme digitali, comprendendo forti effetti di rete, alte barriere all’ingresso o all’uscita, economie di scala e di scopo, controllo dei dati, eccetera.
INDAGINE RELATIVA AI SERVIZI OFFERTI SULLE PIATTAFORME ONLINE
In questo articolato scenario, l’Autorità, che, ormai da anni, affronta i complessi meccanismi che governano il funzionamento delle piattaforme online, ha di recente avviato un’indagine conoscitiva sul tema[1], finalizzata alla enucleazione puntuale delle principali problematiche e delle più urgenti criticità emerse nel nuovo contesto tecnologico allo scopo di individuare, attraverso la raccolta ogni più utile elemento conoscitivo, gli strumenti più efficaci per affrontare le rilevanti e imminenti sfide che attendono i regolatori nazionali.
L’indagine concorre alla raccolta di opinioni e informazioni utili a corroborare le riflessioni dell’Autorità sui temi oggetto delle proposte legislative europee DSA e DMA e, in una successiva fase, semplificare e rendere più rapida l’applicazione delle nuove norme europee, nella misura in cui esse, auspicabilmente, prevederanno un coinvolgimento dell’Autorità in ambito nazionale.
La dimensione orizzontale delle due proposte legislative europee rende infatti particolarmente utile un’analisi puntuale dei gradi di intersezione tra le nuove norme e le disposizioni specifiche vigenti.
Tornando all’Indagine, più in dettaglio, essa ha l’ambizione di intercettare tutti i servizi attualmente offerti sulle piattaforme online facendone emergere, accanto ai vantaggi individuali e collettivi anche i rischi e le problematiche: dai comportamenti illeciti che mettono in pericolo le piccole e medie imprese, all’hate speech e più in generale alle violazioni individuali o massive dei diritti fondamentali capaci di compromettere l’integrità dei processi democratici, l’autonomia decisionale degli individui, la tenuta del tessuto sociale, il pluralismo informativo e la tutela dei minori.
Dal punto di vista operativo, l’approccio intende tracciare in via preliminare la mappatura dei “servizi infrastrutturali” esistenti sul mercato, per poi successivamente individuare le problematiche generate o associate a ciascuna tipologia di servizio; senza tuttavia tralasciare una rappresentazione dell’attuale quadro normativo nazionale, europeo ed internazionale, né tantomeno una ricognizione e comparazione degli interventi legislativi, regolamentari o giurisprudenziali attualmente in essere in ciascuno Stato Membro dell’Unione Europea e nel contesto internazionale.
Si tratta certamente di una sfida complessa a cui l’Autorità non è nuova e che si inscrive, a sua volta, nell’ambito di un più vasto quadro di iniziative di better regulation adottate dal Regolatore.
Negli anni più recenti ultimi anni infatti, AGCom, nell’esercizio delle funzioni di vigilanza ad essa assegnate, ha avviato una serie di iniziative che coinvolgono le piattaforme online e, più in generale, i soggetti che offrono servizi nell’ambito della società dell’informazione.
In taluni casi, si è trattato di competenze specifiche assegnate dalla legge, a presidio di diritti di significativa rilevanza (si pensi al diritto d’autore, alla disciplina del secondary ticketing, alle iniziative connesse all’applicazione del cd “Decreto dignità”), in altri casi, in assenza di uno specifico presidio legislativo, è stata intrapresa la strada del confronto con le piattaforme (è il caso delle esperienze relative al Tavolo pluralismo, al regolamento in materia di hate speech) per estendere anche ai servizi digitali strumenti di tutela dei diritti fondamentali, con l’obiettivo di concorrere alla realizzazione di un level playing field .
Con l’adozione di queste molteplici iniziative, l’Autorità, ha progressivamente ampliato la sua prospettiva su temi di più vasta portata che toccano la qualità dell’informazione, i diritti degli individui nell’ecosistema online, l’uso di big data da parte delle piattaforme online.
CONCLUSIONI
I servizi online hanno trasformato il vivere quotidiano dei cittadini e hanno aperto alle imprese nuovi mercati e nuovi segmenti di pubblico. Con l’enorme quantità di dati che le piattaforme online acquisiscono, inoltre, esse possono consentire la fornitura all’utente di un servizio di qualità migliore, con un beneficio per quest’ultimo in termini di riduzione dei costi di ricerca e transazione nel mercato. Questi sviluppi hanno stimolato l’innovazione, abbassato i prezzi e creato posti di lavoro in tutto il sistema economico.
Le piattaforme online costituiscono ormai uno dei principali canali d’accesso ai consumatori per la vendita di beni e servizi, anche fisici, delle più diverse tipologie. Se si guarda all’innovazione tecnologica in un’ottica comportamentale, è evidente che si producono nuovi comportamenti dei consumatori e nuovi stili di approccio alle attività economiche. In effetti, gran parte del valore prodotto dalle nuove tecnologie si colloca nella differenziazione rispetto ai tradizionali modelli.
Proprio i profondi mutamenti che si sono verificati nelle modalità e nelle alternative di fruizione dei contenuti e dei servizi, nonché nelle condizioni di scambio e condivisione di risorse da parte degli utenti, hanno poi determinato una significativa modificazione anche delle condizioni competitive presenti sul mercato, con ripercussioni sulla catena del valore e sull’intero “ecosistema” digitale, nonché sui diritti degli utenti.
Ecco che allora a fronte di cambiamenti tecnologici sempre più rapidi, anche i tradizionali strumenti di analisi sembrano vacillare.
Le sfide poste dallo sviluppo dell’economia digitale richiedono uno sfruttamento ancor più “convergente” delle sinergie esistenti tra tutte le Istituzioni coinvolte al fine di consentire una migliore comprensione dei nuovi fenomeni in atto. Ciò potrà consentire un affinamento della strumentazione posta a salvaguardia di interessi pubblici primari quali il pluralismo informativo, la concorrenza, la tutela del consumatore e la privacy di cittadini e utenti.
Ciascun organismo pubblico incaricato della cura di questi interessi, nell’ambito delle proprie competenze, potrà meglio garantire gli obiettivi istituzionali, nella misura in cui saprà cogliere a pieno le opportunità offerte da una proficua cooperazione per contribuire a fronteggiare le criticità dell’economia digitale e a coglierne le opportunità di crescita e sviluppo sociale ed economico, chiaramente anche alla luce della disciplina europea e alla costante di un giusto equilibrio tra le varie esigenze del mercato e la protezione dei consumatori.
[1] La Delibera n. 44/21/CONS relativa all’indagine è stata approvata all’unanimità dal Consiglio nel corso della seduta del 4 febbraio scorso.