L’attività delle piattaforme tra DSA e Direttiva SMAV. La frontiera di una nuova regolazione?

0

Il mondo delle piattaforme risulta profondamente mutato e il perdurare della pandemia induce a ritenere che si tratti di una evoluzione ancora in corso. E, quindi, occorre prendere coscienza di una trasformazione che avrà effetti permanenti di lungo periodo di fronte ai quali tutti i soggetti coinvolti devono essere in grado di fornire adeguate risposte ai nuovi scenari indotti dalla rapidità dei processi tecnologici, tenendo presente anche il nuovo quadro europeo che si sta delineando e l’impatto che esso avrà sui sistemi di regolazione nazionale.

Un nuovo quadro giuridico per le piattaforme digitali sta prendendo forma, da un lato, per l’approssimarsi del recepimento della direttiva Smav, atteso lo stato dei lavori parlamentari del disegno di legge di delegazione europea che, all’articolo 3, fissa i principi ed i criteri direttivi per l’attuazione della direttiva. Dall’altro, la pubblicazione delle due proposte legislative presentate dalla Commissione europea (Digital Services Act e Digital Market Act) è destinata ad alimentare il dibattito istituzionale europeo e internazionale per i prossimi anni, a cui prenderà parte attiva anche l’AGCom.

Da un punto di vista sistematico, l’intervento si pone in un’ottica ampia. Il pacchetto DSA è parte della Strategia europea per il digitale, promossa con enfasi dalla Commissione von der Leyen, volta alla creazione di un mercato unico per i servizi digitali e di un ambiente online innovativo e competitivo. L’impegno europeo è duplice: si intende, da un lato, colmare le lacune esistenti e, dall’altro, evitare la frammentazione del quadro legislativo di riferimento in ragione della possibile proliferazione di norme nazionali.

In tal senso, la Commissione, non appena insediata, ha, da subito, posto il tema della disciplina del mondo digitale al centro della propria agenda quinquennale, attraverso la Comunicazione “Shaping Europe’s Digital Future”.

Di questo impegno, ne è prova anche la recente presentazione – lo scorso 3 dicembre – del Piano d’azione per la democrazia europea (EDAP), che intende responsabilizzare i media (e chiunque distribuisca contenuti), e costruire democrazie più resilienti in tutta l’Unione. Si tratta di un intervento di rilievo che coinvolge, non solo i broadcastertradizionali, ma anche le video sharing platform identificate con la Direttiva SMAV e il ben più ampio insieme delle piattaforme online. L’obiettivo dichiarato è di fornire un set di misure destinate ad accompagnare la rivoluzione digitale in atto, attraverso le quali i cittadini possano essere messi in condizione di operare scelte, esprimere liberamente le proprie opinioni e partecipare a un dibattito aperto e non falsato da tentativi di manipolazione.

Non può essere altrettanto trascurata l’iniziativa legislativa del Digital Markets Act (DMA), che introduce un regime pro-concorrenziale specifico per i “gatekeepers”, con l’obiettivo di mantenere il mercato interno europeo “fair and competitive”. In questo modo si interverrà nei confronti di quelle piattaforme che, per il proprio potere di mercato globale, sono capaci di incidere – o addirittura determinare – i parametri per il grado futuro di innovazione, di scelta dei consumatori e concorrenza nel settore digitale e più in generale nel mercato europeo.

Con particolare riguardo al mondo dei media, sappiamo bene che televisione, internet, telefonia, infrastrutture e social costituiscono ormai un fitto reticolo di mezzi di informazione, non facile da governare dato il mutamento delle logiche e i nuovi modelli di business sui quali si fonda la comunicazione. Questa consapevolezza deve sollecitare regole chiare, dirò a breve, regole minime comuni.

Un passaggio assai importante è costituito dalla trasposizione della nuova direttiva europea sui servizi media audiovisivi che introduce importanti novità di co-regolazione per le piattaforme di video sharing.

Par chiara la necessità di provvedere quanto prima anzitutto al riordino – tanto auspicato – delle disposizioni del Testo Unico dei servizi di media audiovisivi e radiofonici e all’emanazione di un nuovo testo unico dei servizi di media digitali con adeguamento delle disposizioni e delle definizioni, comprese quelle relative ai servizi di piattaforma per la condivisione di video, alla luce dell’evoluzione tecnologica e di mercato.

Sul punto, come noto, il refit della direttiva estende l’ambito di applicazione della regolamentazione alle piattaforme di condivisione video. In tal modo, si è preso atto della significativa e assai rapida evoluzione del mercato dei servizi di media audiovisivi, anche dovuta alla convergenza tra la televisione e i servizi internet, cui già facevo cenno prima.

Ciò ha richiesto l’inserimento di una definizione ad hoc che individua il “servizio di piattaforma per la condivisione di video” quale fornitura di programmi, video generati dagli utenti o entrambi per il grande pubblico – per i quali il fornitore della piattaforma per la condivisione di video non ha responsabilità editoriale – al fine di informare, intrattenere o istruire attraverso reti di comunicazioni elettroniche, la cui organizzazione è determinata dal fornitore della piattaforma per la condivisione di video, anche con mezzi automatici o algoritmi, in particolare mediante visualizzazione, attribuzione di tag e sequenziamento.

Resta un’esenzione dalla responsabilità per le informazioni illecite trasmesse, ovvero memorizzate in maniera automatica, intermedia e temporanea, ovvero memorizzate da taluni fornitori di servizi della società dell’informazione. È inoltre escluso un obbligo generale di sorveglianza di tali informazioni, né sussiste un obbligo generale di ricercare attivamente fatti o circostanze che indichino la presenza di attività illecite.

Anche i social media rientrerebbero nel campo di applicazione della regolamentazione – sebbene l’obiettivo della direttiva Smav non fosse primariamente quella di disciplinare detti servizi in quanto tali – ma solo nella misura in cui la fornitura di programmi e di video generati dagli utenti costituisca una loro funzionalità essenziale, al fine di proteggere i minori da contenuti nocivi e tutti i cittadini dall’istigazione all’odio, alla violenza e al terrorismo.

Al riguardo, l’evento drammatico della bambina di Palermo – che è stato oggetto di un tempestivo intervento del Garante Privacy – interroga sull’esigenza primaria di predisporre mezzi di tutela automatica e avanzata di interessi quali la tutela dei minori che, anche nell’ottica del legislatore comunitario, appaiono non limitati ai media tradizionali.

Tornando all’analisi, ai richiamati fini di tutela, sono pertanto previste misure appropriate per tutelare i minori dai contenuti che possono nuocere al loro sviluppo fisico, mentale o morale e il grande pubblico dai contenuti che istigano alla violenza o all’odio nei confronti di un gruppo o di un membro di un gruppo per uno dei motivi di cui all’articolo 21 della Carta dei diritti fondamentali dell’Unione europea o la cui diffusione costituisce reato ai sensi del diritto dell’Unione.

Si tratta di misure (previste all’art. 28-ter e) volte ad assicurare meccanismi trasparenti e di facile uso affinché gli utenti delle piattaforme per la condivisione di video possano segnalare o indicare al fornitore interessato i contenuti forniti sulla sua piattaforma medesima. Sono altresì previsti sistemi mediante i quali i fornitori possano spiegare agli utenti quale seguito sia stato dato alla segnalazione, nonché sistemi per verificare l’età degli utenti e valutare i contenuti forniti. È altresì prevista la possibilità di dotarsi di sistemi di controllo parentale e, più in generale, di procedure trasparenti, di facile uso ed efficaci per la gestione e la risoluzione dei reclami degli utenti nei confronti dei fornitori di piattaforme per la condivisione di video.

Non è solo la trasparenza il pilastro su cui è costruito il regime delle piattaforme di video sharing nella Smav. È, infatti, sulla co-regolamentazione che la direttiva punta la sua efficacia: nella sua forma minima, invero, la co-regolamentazione fornisce un collegamento giuridico tra l’autoregolamentazione e il legislatore nazionale, in conformità delle tradizioni giuridiche degli Stati membri. Nella co-regolamentazione le parti interessate e il governo o le autorità o gli organismi nazionali di regolamentazione condividono il ruolo di regolamentazione. Il ruolo delle autorità pubbliche competenti comprende il riconoscimento del regime di co-regolamentazione, l’audit dei suoi processi e il suo finanziamento. Ciò dovrebbe consentire l’intervento statale qualora i suoi obiettivi non siano conseguiti.

Ecco allora un primo puntello di questa riflessione: il meccanismo della co-regolamentazione sembra decisamente superare in efficacia lo strumento dell’autoregolamentazione, quale iniziativa volontaria che permette agli operatori economici, alle parti sociali, alle organizzazioni non governative e alle associazioni di adottare fra di loro e per sé stessi orientamenti comuni. Tuttavia, se l’autoregolamentazione può essere uno strumento complementare per attuare determinate disposizioni della direttiva, non deve sostituirsi ai compiti del legislatore nazionale. La stagione della lotta contro la disinformazione rivela la scarsa efficacia dello strumento in assenza di un quadro normativo e di un presidio sanzionatorio vincolanti.

In occasione della previsione dei principi e dei criteri per il recepimento della Smav, il legislatore nazionale sembra puntare ad un rafforzamento della tutela. Occorre segnalare la previsione di misure che assicurino un’adeguata tutela della dignità umana e dei minori riguardo ai contenuti audiovisivi, compresi i video generati dagli utenti, e alle comunicazioni commerciali da parte delle piattaforme per la condivisione dei video: compiti, questi, che, unitamente a quelli di promozione di procedure di auto-regolamentazione e co-regolamentazione, dovrebbero essere affidati proprio all’AGCom quale Autorità nazionale di regolamentazione di settore.

Si è previsto in particolare, con una modifica approvata in occasione dell’esame dal parte del Senato, che i fornitori di servizi di media, comprese le piattaforme social, forniscano agli utenti informazioni sufficienti in merito a contenuti, anche pubblicitari, che possano nuocere allo sviluppo fisico, mentale o morale dei minori, ivi compreso il divieto di pubblicità relativa al gioco d’azzardo, prevedendo inoltre specifiche misure nei confronti di chi utilizza profili fittizi di soggetti inesistenti ovvero tramite l’appropriazione di identità altrui, al fine di alterare lo scambio di opinioni, per ingenerare allarmi, per trarre vantaggio dalla diffusione di notizie false.

Un fatto di assoluta novità è l’introduzione di misure specifiche a tutela dei consumatori dei servizi di media audiovisivi, lineari e non lineari, anche mediante il ricorso a procedure di risoluzione extragiudiziale delle controversie e a meccanismi di indennizzo in caso di disservizi, come già avviene nel settore delle comunicazioni elettroniche. Anche la regolazione di tali procedure dovrebbe essere affidata all’Autorità per le garanzie nelle comunicazioni.

Infine, la stessa legge di delegazione esorta ad aggiornare i compiti dell’Autorità per le garanzie nelle comunicazioni, nell’ottica dell’ulteriore rafforzamento delle prerogative di indipendenza. Le novità legislative in discussione, pertanto, rivestono un rilievo fondamentale per AGCom, che sarà – tra l’altro – chiamata a contribuire al funzionamento dell’organismo di cooperazione regolamentare nel settore dell’audiovisivo. L’ERGA, infatti, ne uscirà potenziato e dotato di nuove competenze, con l’obiettivo del perseguimento del mercato unico europeo. E proprio in seno all’ERGA, l’AGCom ha contribuito all’analisi e all’elaborazione di proposte concrete per l’applicazione della nuova direttiva, coordinando le attività di una task force specificamente dedicata all’analisi dei profili innovativi introdotti dalla riforma e le possibili ricadute applicative.

Ora, se la direttiva Smav costituisce un enorme passo in avanti verso la modernizzazione del quadro giuridico del nuovo scenario digitale con l’obiettivo di tutelare le persone e la loro dignità sulla rete, con il Digital Service Act la Commissione europea mostra la volontà di voler riaffermare la centralità dell’individualità umana nell’ecosistema digitale sottraendo alle piattaforme (e, quindi, alle società private) il potere di operare scelte potenzialmente in grado di condizionare l’esercizio di diritti fondamentali dei cittadini europei e di effettuare un bilanciamento tra principi costituzionali talvolta confliggenti, come la libertà di espressione e il rispetto della dignità umana.

La proposta si colloca quale cornice generale di una serie di altre misure adottate in questi anni che invece sono definite lex specialis, trovando quindi applicazione nella misura in cui il diritto dell’Unione non contenga disposizioni più specifiche ad essi applicabili. Segnatamente gli obblighi previsti dalla Direttiva 2010/13/CE, come modificata dalla Direttiva (UE) 2018/1808, sulla piattaforma di video sharing per quanto riguarda i contenuti audiovisivi e le comunicazioni commerciali audiovisive continueranno ad applicarsi.

Ne deriva una disciplina che si compone come un mosaico comportando un affinamento della strumentazione posta a salvaguardia di interessi pubblici primari, pluralismo, concorrenza, tutela dell’utente. La proposta si regge sul pilastro del contrasto ai contenuti illegali, escludendo ancora un obbligo di controllo preventivo sui contenuti a carico delle piattaforme medesime, puntando invece al modello di business inasprendo le sanzioni economiche nel caso di mancata rimozione successiva alla pubblicazione dei contenuti stessi (fino al 6% del fatturato).

Sul versante del contrasto ai contenuti illegali, la proposta di regolamento individua questi ultimi nell’informazione non conforme al diritto dell’Unione o al diritto di uno Stato membro, indipendentemente dall’oggetto preciso materia o natura di tale legge, compiendo così un notevole passo avanti cui si aggiungono puntuali misure di moderazione dei contenuti e i relativi obblighi di due diligence.

Si tratta di rilevare, identificare e affrontare contenuti illegali o informazioni incompatibili con i termini e le condizioni, comprese le misure adottate che influenzano la disponibilità, la visibilità e l’accessibilità a quel contenuto illegale o a quelle informazioni, come la retrocessione, la disabilitazione dell’accesso o la loro rimozione, o la capacità dei destinatari di fornire tali informazioni, come la chiusura o la sospensione dell’account di un destinatario.

La valutazione, rimessa alle piattaforme, è ancorata a talune circostanze:

– il numero assoluto di elementi di contenuto manifestamente illegale o di comunicazioni o reclami manifestamente infondati, presentati nell’ultimo anno;

– la loro proporzione relativa rispetto al numero totale di elementi di informazione forniti o avvisi presentati nell’ultimo anno;

– la gravità degli abusi e le sue conseguenze;

– l’intenzione del destinatario, individuo, entità o denunciante.

La premessa risiede nella predisposizione di termini e condizioni redatti in modo chiaro e dettagliato sì da rendere manifesta la politica del fornitore in relazione all’uso improprio della piattaforma medesima.

Si aggiunge, di conseguenza, un necessario sistema di gestione dei reclami, la creazione del compliance officer e la designazione dell’autorità nazionale del Digital Service Coordinator competente che dovrà interfacciarsi con le piattaforme.

Tali obblighi, tuttavia, non si estendono a tutte le piattaforme. La proposta fornisce un quadro generale prevedendo quindi delle eccezioni per quanto riguarda le micro o piccole imprese, e degli obblighi aggiuntivi per quelle piattaforme che sono ritenute “very large online platforms” definendo una soglia stimata in oltre 45 milioni di destinatari del servizio. In questo caso, la proposta definisce uno standard più elevato di trasparenza e responsabilità su come i fornitori di tali piattaforme moderano i contenuti, sulla pubblicità e sui processi algoritmici.

Pertanto, una prima analisi del testo pubblicato pone in evidenza come non si tratti di una vera e propria modifica del sistema di responsabilità quanto piuttosto di alcuni aggiustamenti volti a incrementare il livello di trasparenza e accountability degli intermediari. Non è un caso che tra le misure proposte sia possibile notare nuovi obblighi di due diligence e trasparenza con particolare riferimento alle procedure di notice and takedown dei contenuti illegali e la possibilità di contestare le decisioni di moderazione dei contenuti delle piattaforme.

Sono potenziati i diritti di accesso, di traducibilità e di conoscenza dei processi di automazione algoritmica e sul piano procedurale si incrementa la tutela dell’individuo nei confronti delle piattaforme. E ben venga il rafforzamento della dimensione procedurale della protezione degli utenti.

Tali piattaforme saranno quindi obbligate a sviluppare strumenti di gestione appropriati a mitigare i rischi sistemici connessi alle proprie attività.

Il ricorso alla co-regolamentazione e il rafforzamento delle misure di trasparenza della decisione algoritmica sembrano delineare una regolazione che si propone di compiere il passaggio dalla centralità del mercato unico digitale alla costruzione di una solida democrazia digitale, contrastando l’opacità dello spazio digitale.

Del resto, il modello di business adottato dagli OTT ha aperto nuove sfide all’industria dei media e reso sempre più necessario lo sviluppo di un quadro regolatorio delle grandi piattaforme. Per la prima volta, si predispone una specifica disciplina ex ante, articolata su un sistema orizzontale di divieti e obblighi applicabili a tali soggetti (quali quelli di trasparenza e non discriminazione) e su possibili rimedi specifici, da definire caso per caso, in ragione delle criticità presentate da singole piattaforme dotate di quel significant intermediation power che consente loro di controllare in modo più o meno incisivo l’accesso a un numero rilevante di utenti finali o di servizi, beni, o contenuti particolarmente rilevanti (anche all’interno di singoli settori economici), oppure di proporsi come “partner commerciale inevitabile” per i soggetti che effettuano attività di business sulla piattaforma stessa.

In tal senso, il superamento del modello dell’autoregolazione affidata a quella che viene da più parti qualificata “oligarchia digitale” si può salutare di certo con favore: insufficiente sarebbe lasciare alle piattaforme le valutazioni in applicazione di soli standard contrattuali.

Al contempo, è opportuno sfuggire alla facile trappola di un’arida contrapposizione fra autoregolamentazione e rigida regolazione. Occorre pensare ad un intervento sistematico, soprattutto lungimirante, altrimenti la regolazione non sarà mai al passo coi tempi e rischia di definire regole già superate. Un intervento equilibrato fra la tutela della libertà di espressione e di informare, da un lato, e la dignità dell’uomo, dall’altro, e ruolo e responsabilità delle piattaforme del web, dall’altro ancora.

Sul punto, trovo efficace la nuova declinazione del rapporto autorità/libertà evocata anche dal Presidente Lasorella che si realizza nel mondo dei bit e che sollecita una riflessione sul bilanciamento fra le esigenze di libertà e quelle di controllo: controllo e regolamentazione “mite” conforme al principio di proporzionalità.

Anche negli USA è possibile apprezzare segni di un mutamento nell’approccio a queste tematiche e, con ogni evidenza, ciò esorta anche noi ad essere meno “europacentrici” favorendo la proficua ricerca di tratti comuni da condividere.

Penso ad una sorta di new digital deal che punti ad un’“armonizzazione minima”, transatlantica, attesa la dimensione dei soggetti interessati, che solleciti un approccio intergovernativo per elaborare una sorta di passaporto verdeda assegnare a chi osservi puntuali meccanismi procedurali che spazino da obblighi di trasparenza algoritmica al data due process per il rafforzamento delle tutele degli utenti. Di qui consegue di certo una maggiore responsabilizzazione quantomeno sul piano delle procedure atteso che non si tratta più di limitarsi ad ospitare contenuti, bensì di assumere decisioni para-editoriali sulla permanenza in rete.

In questo senso, una possibile direzione comune che muove dalle misure di trasparenza e di democrazia procedurale, atteso che, invece, i valori sostanziali possono mostrarsi divisivi.

È certo anche che un linguaggio comune, una proficua cooperazione, potrà contribuire a fronteggiare le criticità dell’economia digitale e a coglierne le opportunità di innovazione, crescita e sviluppo sociale ed economico.

Aggiungo infine solo un rapido richiamo ad una best practice elaborata dall’AGCom immaginando che possa tornare utile al dibattito.

L’Autorità, adottando un regolamento per la tutela amministrativa del diritto d’autore online, ha avuto il merito di aver colto le necessità sottese all’esigenza di innalzamento del livello di tutela in un’economia di mercato transazionale in cui la fruizione online di contenuti ha effetti pienamente sostitutivi della fruizione offline, pur non tralasciando il bilanciamento dei diversi interessi dei titolari dei diritti, delle piattaforme e degli utenti.

Come noto, in forza di detto regolamento – di recente modificato per poter intervenire più velocemente su violazioni particolarmente gravi, reiterazioni e attività di pubblicizzazione e commercializzazione di strumenti d’aggiramento dei diritti d’autore – l’Autorità può emettere diversi tipi di ordini, ma la risposta varia a seconda della violazione, e del luogo in cui si trovano i server del sito su cui la stessa è commessa. C’è infatti una efficiente interazione tra l’Autorità e i maggiori intermediari in quanto il meccanismo istaurato dal Regolamento è piuttosto simile al sistema di notice and take down previsto dal DMCA statunitense (il Digital Millennium Copyright Act, la legge degli Stati Uniti d’America sul copyright). A differenza di quest’ultimo, però, il primo si svolge in una cornice istituzionale che ha l’obiettivo di contemperare i diversi interessi coinvolti e non prevede una diretta interazione tra titolari dei diritti, contraffattori e intermediari.

Tuttavia, un livello di armonizzazione maggiore, o l’individuazione di strumenti transnazionali sarebbero comunque auspicabili in quanto non sempre l’Autorità può adottare provvedimenti realmente efficaci in considerazione del carattere ubiquitario delle violazioni perpetrate in rete e, ancora, della diversità degli strumenti di reazione dei diversi ordinamenti, anche europei.

Non solo. Nella prospettiva della fruizione consapevole delle opere audiovisive destinate al web, utile potrebbe essere anche l’esperienza maturata dall’Autorità in materia di classificazione delle opere audiovisive destinate al web e dei videogiochi che, al fine di garantire la più ampia tutela dei minori, ha previsto una apposita classificazione per ciascuna classe d’età che risponde all’esigenza di cogliere, in modo quanto più puntuale possibile, ciò che si ritiene accettabile per questa particolare categoria di utenti. Si tratta di un’attività opportuna – che richiede un costante aggiornamento – tenuto conto della fase storica attuale, caratterizzata per l’alto tasso di evoluzione del comparto mediale e per l’emergere di fenomeni altamente problematici nell’ambito del sistema dei media.

Per far avanzare ulteriormente le frontiere della legalità in internet, ritengo che queste esperienze possano certamente costituire un modello da cui partire.

Share this article!
Share.

About Author

Leave A Reply