Uno dei pilastri del Digital Services Act europeo che sarà lanciato nel mese di dicembre riguarda il contrasto delle piattaforme digitali ai cosiddetti ‘contenuti illegali’.
Questa complessa tematica si articola lungo due direzioni, peraltro intrecciate: la natura del contenuto da un lato, la dimensione della piattaforma dall’altro. La tensione tra queste due direzioni riguarda la scelta di un approccio (e dunque di forme di tutela) orizzontale, per tutte le piattaforme che abbiano determinati requisiti, rispetto ad un approccio effect-based che punti quindi a contrastare a diffusione massiva di determinati contenuti su vasta scala.
Il tema è tutt’altro che banale in quanto poi la stessa definizione di ‘contenuto illegale’, e la certezza giuridica della stessa e del suo grado di enforcement, variano in funzione del tipo di contenuto: dal copyright all’hatespeech, dal cyberbullismo alla disinformazione, da contenuti violenti all’online advertising ingannevole.
Se per alcuni contenuti la verifica del requisito di (il)legalità è di tipo binario, come nel caso del copyright – pur con tutta una serie di tutele e di procedure – assai più complessa è la questione che riguarda l’hatespeech o la disinformazione on-line. E’ dunque assai probabile, come emerge anche dai documenti posti in consultazione dalla Commissione europea, che il nuovo framework preveda ancora un doppio registro fatto di nuova regolamentazione tout court (sul solco della direttiva e-commerce) e di autoregolamentazione o, meglio, co-regolamentazione (sul solco della direttiva sui servizi media audio-visivi per le piattaforme di video-sharing) per quei contenuti la cui natura impone che non vi sia alcuna regolazione diretta sotto il profilo definitorio o di controllo . In sostanza, nella definizione delle pratiche di hatespeech, come anche delle scelte di moderazione dei contenuti in relazione a notizie false o a strategie di disinformazione (incluse quelle che, ad esempio, hanno riguardato il Covid-19), è probabile che si segua il percorso fin qui fatto dalla Commissione europea, e in Italia da Agcom, con codici volontari di condotta che le piattaforme s’impegnano ad applicare in base a criteri che esse stesse hanno esplicitato e sui quali basano la propria ‘politica quasi-editoriale’. Dunque, il regolatore europeo potrebbe limitarsi a sanzionare eventuali inadempienze rispetto a codici di condotta volontari. In questo caso, l’elemento nuovo risiederebbe nella forte imposizione di trasparenza in merito all’uso dei dati e al funzionamento degli algoritmi, anche in relazione all’applicazione dei codici di regolamentazione. In Italia, l’indagine conoscitiva sui big data di Antitrust, Agcom e Garante Privacy, aveva concluso che, in assenza di strumenti efficaci di monitoraggio, audit e inspection su dati e algoritmi, e in genere su meccanismi di intelligenza artificiale applicati alla moderazione dei contenuti, l’autoregolamentazione appariva fortemente insoddisfacente e discriminatoria negli esiti. Ma c’è anche un altro pezzo della storia che riguarda le modalità di selezione inconsapevole, perché algoritmica, di contenuti da parte dei singoli utenti, il loro grado di comprensione dei filtri e la loro stessa capacità di scegliere da sé il filtro informativo cui sono esposti. Le ultime elezioni americane, ad esempio, hanno mostrato modalità diverse di moderazione e di ‘tagging’ tra le diverse piattaforme, anche quando hanno agito nella medesima direzione.
Uno dei recenti interventi della Presidenza Trump è stato l’Ordine esecutivo con il quale è stato chiesto al parlamento e alle istituzioni (tra cui FCC e FTC) di occuparsi della revisione della sezione 230 del Communications Decency Act, nella parte in cui essa assicura un’esenzione di responsabilità alle piattaforme sia per contenuti di terzi sia per la moderazione degli stessi che la piattaforma decida di effettuare, ancorché in buona fede. La posizione espressa da Trump è che le piattaforme debbano limitarsi ad essere passive carriers di contenuti di terzi, e che non possano più avere esenzione se esercitano moderazione sui contenuti. Trump puntava a svelare una presunta contraddizione: se le piattaforme online moderano i contenuti in base ai propri codici di condotta – è la tesi di Trump – allora esse si comportano come editori e non possono quindi godere delle eccezioni alla responsabilità (editoriale) che la sezione 230 del Communications Decency Act del 1996 riconosce loro.
Il riferimento è al punto c.1 della norma che chiarisce come le piattaforme che intermediano on line contenuti di terzi – così come gli utenti che vi condividano informazioni di terzi – non possano essere ritenuti civilmente responsabili per quei contenuti. Questa norma, che in realtà serve ad escludere responsabilità in sede civile, viene letta, un po’ forzosamente, come una norma a tutela del free speech. Ma ciò che l’Ordine esecutivo dimentica è che il punto c.2 della stessa norma estende l’eccezione anche alle attività “editoriali” delle piattaforme, in relazione precisamente alle scelte compiute dagli intermediari sulla selezione di contenuti ritenuti, in buona fede, dalle piattaforme come “objectionable”, anche laddove – e qui sta il messaggio più forte – si tratti di contenuti protetti sotto il profilo costituzionale. Incluso il primo emendamento.
Non solo, quindi, la norma non vincola la salvaguardia all’assenza di attività editoriale, ma riconosce quest’ultima anche rispetto a forme di speech protette dalla costituzione, a condizione che tali interventi siano svolti in buona fede.
L’Ordine esecutivo avrebbe dovuto quindi, come solo in parte fa, contestare la buona fede delle policy di selezione e moderazione dei contenuti di Twitter e non sostenere, erroneamente, che la pratica in sé di intervento sui contenuti comporti il venir meno della protezione di legge.
In aggiunta a ciò, va ricordato che secondo una costante interpretazione della Corte Suprema, anche in casi molto recenti, le due salvaguardie (riportate come c.1 e c.2) sono del tutto indipendenti. Ne consegue che la libertà di scelta della piattaforma (se in buona fede) sia del tutto indipendente dalla esenzione sulla responsabilità civile per i contenuti di terzi.
Sotto accusa non vi è poi solo il codice di autoregolazione per la selezione e la rimozione di taluni contenuti (ad esempio per hatespeech o incitamento alla violenza), ma anche il ‘flagging’ che le piattaforme introducono su notizie false o fuorvianti con link all’approfondimento. Qui, oltre a quanto detto, si propone il divieto di counterspeech della piattaforma la quale dovrebbe rinunciare ad applicare una policy di fact-checking, anche se affidata al ruolo di fact-checkers terzi e indipendenti.
Su questo punto, uno dei mantra della difesa del free speech nel dibattito costituzionale americano, è che il counterspeech è la precondizione per la sua tutela. E’ la famosa dottrina del free marketplace of ideas enunciata dal giudice Holmes nel lontano 1919. Sarebbe ben strano immaginare che la tutela del free speech debba essere accompagnata da un ambiente esclusivo, impedendo il counterspeech, a maggior ragione quando esso si limita al fact-checking. Sarebbe una forma di compelled speech, e quindi di censura, anch’essa contraria al primo emendamento.
Immaginare che le piattaforme debbano essere solo il luogo neutrale e automatico del free speech degli utenti equivale da un lato a non comprendere il filtro algoritmico, che comunque seleziona i contenuti, e dall’altro a dare campo libero alle strategie organizzate di disinformazione online, di cui pure l’Order, giustamente, si lamenta. La moderazione è necessaria per contrastare questi fenomeni a patto che sia in buona fede, indipendente, trasparente e non discriminatoria.
E’ poi paradossale che la ‘regolazione’ richiamata nell’Order comporti il trasformare le piattaforme in puri editori, i quali aumenterebbero e non diminuirebbero il controllo e la selezione dei contenuti, peraltro indipendentemente dal requisito di buona fede.
Le critiche condivisibili, riportate nell’Order, riguardano invece (i) la specificità delle grandi piattaforme; (ii) l’assenza di piena trasparenza e accountability nell’applicazione delle policy; (iii) l’assenza di informazioni chiare agli utenti. A questi andrebbero aggiunti: (iv) il ruolo di filtro, spesso non consapevole agli utenti, della profilazione algoritmica dei contenuti; (v) lo sfruttamento economico dei dati; (vi) la capacità di individuare e contrastare strategie organizzate di disinformazione online. Ma l’Order non si occupa specificamente di questo. Non chiede più regolazione nel senso di maggiore trasparenza, né chiede che si dettagli il requisito di buona fede. Si limita ad un intervento che ha il sapore della influenza politica, riproponendo uno dei tipici casi di violazione di free speech del primo emendamento: la produzione di leggi e regole da parte del potere politico che limitino la libertà d’espressione, inclusa quella dei gestori delle piattaforme, a maggior ragione se la legge riconosce già loro questo diritto.
Qualche settimana, la FCC, per bocca del suo presidente, ha annunciato l’intenzione di pubblicare nuove linee guida sull’applicazione della sezione 230 alle piattaforme. Sarà interessante capire cosa accadrà con la nuova presidenza Usa e come eventuali iniziative statunitensi si rapporteranno alle novità del Digital Services Act, anche in tema di politiche di moderazione volontaria da parte delle piattaforme e di definizione della loro responsabilità. Immaginare che le piattaforme debbano essere solo il luogo neutrale e automatico del free speech degli utenti equivarrebbe da un lato a non comprendere come funzioni il filtro algoritmico, che comunque seleziona i contenuti, e dall’altro a dare campo libero alle strategie organizzate di disinformazione online, di cui non mancano, purtroppo, quotidiane evidenze. Siamo solo agli inizi di un percorso che si annuncia assai complesso, ma nondimeno irrinunciabile.
*L’autore è docente Ordinario di Politica economica presso l’Università LUMSA