La scelta della Commissione europea di intervenire, con il Digital Services Act, sul nodo degli obblighi e delle responsabilità delle piattaforme è molto più di una (mera) opzione regolatoria. E’ una scelta politica strategica e, in certa misura, persino identitaria, in quanto contribuisce a delineare, in maniera ancora più netta, l’identità- dal punto di vista non solo giuridico ma, in senso più lato, assiologico- dell’Unione europea. Questa scelta esprime la consapevolezza di come, sul terreno del digitale, si giochi una partita fondamentale per la democrazia e per lo Stato di diritto, che non può essere lasciata al laissez faire dei rapporti (di forza) del mercato, alle magnifiche sorti e progressive della tecnica, né alla pretesa autonomia della logica negoziale.
Vicende come quelle di Cambridge Analytica – e, prima, di Apple-Fbi, sia pur sul diverso terreno delle “servitù di giustizia”- dimostrano come i grandi attori della new economy abbiano acquisito ed esercitino poteri riconducibili non più al solo piano commerciale, ma tali invece da incidere, in misura rilevante, su ambiti pubblicistici per definizione, quale in primo luogo quello dell’esercizio delle libertà e dei suoi limiti. Non possono, in altri termini, essere – come ha scritto Antonello Soro – i protocolli informatici o le condizioni generali di contratto, unilateralmente stabilite dai big tech, il codice normativo del digitale, su cui fondare diritti e doveri, nel contesto in cui più di ogni altro si dispiega la nostra esistenza.
Non è un rischio così remoto, se si pensa alle vicende dell’oscuramento di profili Facebook di movimenti politici come Forza Nuova e, soprattutto Casapound. In questi casi – come ha ricordato il Presidente del Garante, Pasquale Stanzione – la giurisprudenza si è misurata con la difficoltà di stabilire il confine oltre il quale l’autonomia privata (di cui il contratto che regola il servizio di social network è, pur sempre, espressione), esiga invece una peculiare forma di eteroregolazione funzionale alla garanzia dei diritti e delle libertà incise da questi contratti.
Fino a che punto, insomma, l’oscuramento della pagina di un movimento politico può ridursi a mero recesso dal contratto di fornitura del servizio di social network? O deve, questa libertà negoziale, essere esercitata tenendo conto delle implicazioni che ha sui diritti di partecipazione politica dei singoli e dei gruppi? Ed è davvero ammissibile onerare soggetti privati, che legittimamente agiscono secondo logiche commerciali, della valutazione di liceità dei contenuti diffusi, alla stregua di policies interne che riflettono bilanciamenti tra diritti e libertà, complessi persino per il giudice?
Su questo punto l’ordinanza del Tribunale di Roma del 29 aprile scorso, sulla vicenda Casapound, è netta nell’escludere la possibilità di “riconoscere ad un soggetto privato, quale Facebook Ireland, sulla base di disposizioni negoziali e quindi in virtù della disparità di forza contrattuale, poteri sostanzialmente incidenti sulla libertà di manifestazione del pensiero e di associazione, tali da eccedere i limiti che lo stesso legislatore si è dato nella norma penale”.
Osserva, del resto, in linea generale, il Tribunale, come la “qualificazione del rapporto in termini contrattuali e l’assenza di disposizioni normative speciali non implicano che la sua disciplina sia rimessa senza limiti alla contrattazione fra le parti ed al rapporto di forza fra le stesse né che l’esercizio dei poteri contrattuali sia insindacabile”.
Il tema sollevato dalla vicenda Casapound – significativamente risolto in modo molto diverso nel caso, affine, di Forza Nuova – ripropone, del resto, le questioni già emerse rispetto al bilanciamento tra oblio e informazione sul terreno della deindicizzazione le cui decisioni sono affidate, in prima istanza, ai motori di ricerca, o anche riguardo al cyberbullismo con la l. 71 del 2017. Il ruolo arbitrale attribuito alle piattaforme era del resto plasticamente emerso, in tutta la sua complessità, con la sentenza del 3 ottobre 2019 (Glawischnig‑Piesczek c. Facebook), con cui la Corte di giustizia UE ha ammesso l’ingiunzione giudiziale di rimozione di contenuti equivalenti a quelli dichiarati illeciti perché lesivi della dignità.
Per quanto la Corte abbia circoscritto l’ammissibilità di tale ingiunzione “dinamica” ai casi di effettiva equivalenza dei contenuti, che non lasci residuare in capo al gestore margini significativi di valutazione discrezionale, è evidente come si stia onerando le piattaforme di valutazioni talora complesse e tutt’altro che ‘automatiche’ o automatizzabili.
Si tratta di un modello normativo molto diverso da quello adottato, ad esempio, nel nostro ordinamento sul terreno della propaganda filojihadista, per la quale il d.l. 7 del 2015 ha previsto l’obbligo di rimozione e oscuramento dei siti che ospitino questo tipo di contenuti, ma con decreto motivato (e dunque previo vaglio) del pubblico ministero. Laddove manchi la previa valutazione dell’autorità pubblica (giudiziaria o, alternativamente, amministrativa indipendente) sull’illiceità del contenuto, si finisce con il rimettere questo vaglio a un soggetto per definizione normativa (dir. 2000/31, dlgs 70/2003) neutro rispetto a ciò che viene postato dagli utenti, di cui gli è precluso il preventivo controllo.
E se questa neutralità e il “velo d’ignoranza” che la norma impone al gestore rispetto ai contenuti immessi dagli utenti viene meno nel caso dell’host provider attivo o, comunque, a seguito della richiesta di rimozione rivoltagli, tale dunque da imporgli un onere di attivazione, resta comunque la singolarità di attribuirgli l’onere di valutare la meritevolezza dell’istanza.
Ogniqualvolta l’accertamento dell’illiceità del contenuto – diversamente, ad esempio, dalla pedopornografia, per la quale il vaglio può spesso affidarsi ad analisi estrinseche quali la porzione di pelle esposta – implichi un controllo semantico, nel merito, come paradigmaticamente avviene per l’hate speech, si finisce con l’attribuire alle piattaforme un ruolo arbitrale tra posizioni giuridiche soggettive di rango persino costituzionale.
E se questo. da un lato, è fisiologico al fine di prevenire la permanenza e l’ulteriore propagazione, in rete, degli effetti dannosi della divulgazione di contenuti illeciti, dall’altro è sempre più difficile tracciare il confine tra responsabilizzazione, legittima e finanche doverosa ed esercizio (potenzialmente anche arbitrario) di un ruolo di adjudication altrimenti, normalmente riservato all’ambito pubblicistico.
Non è un caso, del resto, che sulla scorta di questo modello normativo si stiano moltiplicando le “giurisdizioni private” delle piattaforme: board e organi di risoluzione delle controversie che, tuttavia, finiscono con il sindacare e, quindi, definire, il perimetro di esercizio di libertà e diritti anche fondamentali. Una conseguenza comprensibile, in fondo, della scelta normativa di attribuire ai gestori la funzione di risoluzione, almeno in prima istanza, delle controversie sull’obbligo di rimozione di contenuti lesivi.
La consapevolezza della complessità del ruolo così ascritto al gestore ha indotto, del resto, il legislatore tedesco, con il Netzwerkdurchsetzungsgesetz del 2017, a procedimentalizzare le procedure di rimozione, assicurando per i contenuti non manifestamente illeciti un termine più lungo per la definizione dell’istanza e persino per l’intervento di specifici organismi accreditati (pur sempre privati) per la risoluzione delle controversie, cui affidare la valutazione delle istanze di rimozione. A questo modello si era poi ispirata, nella versione originaria (fortemente ridimensionata dal Conseil constitutionnel), la legge francese sull’hate speech, poi approvata – in un testo appunto assai diverso dall’iniziale, come loi n.766-2020, nonché, per il nostro ordinamento, il disegno di legge AS 3001, a prima firma Zanda, della scorsa legislatura.
Si tratta di opzioni legislative indubbiamente migliorative sul piano della trasparenza e della garanzia del contraddittorio accordate dalle procedure di rimozione, più forti (ancorché, naturalmente, a discapito della celerità dell’intervento ablativo) nel caso di contenuti non manifestamente illeciti. Ma, se sul piano della tutela rimediale questo modello può risultare in fondo efficace, il nodo della responsabilità del gestore nell’ottemperanza alle richieste resta ancora da sciogliere.
La questione si fa ancora più delicata quando l’inottemperanza del gestore, alla richiesta di cancellazione proveniente dalla sola parte, non assistita da ordine giudiziale, sia qualificata come concorso – in forma agevolatoria o commissiva mediante omissione-, nel reato commesso dall’utente (significativa, in tal senso, la sentenza della V sez. della Cassazione, del 27 dicembre 2016, n. 54946). Al di là della dubbia configurazione di entrambe le forme concorsuali, infatti, è l’ascrizione in sé, della responsabilità penale, a un soggetto che la disciplina sul commercio elettronico esige sia neutro, a rappresentare un’antinomia difficilmente risolubile.
Per questo, l’annunciata revisione, con il Digital Service Act, degli obblighi dei provider, all’interno peraltro di modifiche normative più ampie- come ben sottolineano Oreste Pollicino, Giovanni De Gregorio e Marco Bassini -è da salutare indubbiamente con favore. E questo, pur nella consapevolezza della oggettiva difficoltà di normare un terreno percorso, carsicamente, dalla tensione tra doverosa protezione dei diritti (in particolare, ma non solo) della personalità in rete ed esigenza di evitare non soltanto “censure” (collaterali o meno) e controlli preventivi sui contenuti immessi in rete, ma anche l’indebita attribuzione, a soggetti privati, di un ruolo arbitrale su diritti e libertà.
La stessa, auspicabile, previsione del vaglio giudiziale avverso le decisioni del gestore sulla richiesta di rimozione, pur doverosamente restituendo, almeno in seconda istanza, un bilanciamento così delicato all’organo pubblico e terzo (per definizione), non esclude comunque la rilevanza dell’attribuzione, in prima e anche potenzialmente unica istanza, di una tale valutazione a un soggetto privato quale il gestore. L’urgenza del provvedere – anche rispetto a fenomeni di gravità crescente, come revenge porn, deep fake e, appunto, cyberbullismo – è certamente pari alla complessità delle opzioni regolatorie, nessuna del tutto scevra da profili di criticità ma ciascuna sicuramente meritevole di un approfondimento nella direzione della massimizzazione delle tutele.
Il rafforzamento degli obblighi di trasparenza nella risoluzione dei reclami inerenti contenuti illeciti, la cooperazione con i trusted flaggers, la possibilità di contestazione delle decisioni di rimozione ingiustificata di contenuti non illeciti, rappresenterebbero, in quest’ottica, certamente delle garanzie importanti ai fini della complessiva legittimità (e legittimazione) delle procedure gestite dalle piattaforme.
Non sarà, forse, un radicale né totale superamento del sistema attuale e delle sue criticità intrinseche, ma sarà certamente un tentativo di contenere il rischio di scivolare verso quelle forme di neofeudalesimo descritte, non senza preoccupazione, da Joel Kotkin.
* Funzionario presso l’Autorità garante per la protezione dei dati personali. Le opinioni espresse non impegnano in alcun modo l’autorità di appartenenza