È lecito in base alla direttiva 2000/31/CE per un’autorità giudiziaria o amministrativa richiedere la rimozione seriale di contenuti ad un servizio di hosting qualora essi siano identici o equivalenti ad un contenuto ritenuto illecito dalle stesse autorità. I contenuti equivalenti da rimuovere devono essere individuati dall’autorità giudiziale o amministrativa senza che ai servizi di hosting sia richiesta alcuna valutazione autonoma sugli stessi e di modo che i suddetti servizi possano procedere ad una rimozione di tali contenuti mediante procedure automatizzate, sì da non porre in essere procedure di sorveglianza generalizzata o attiva.
In settori non armonizzati, la direttiva 2000/31/CE non osta alla rimozione su scala mondiale di un contenuto dai servizi di hosting, fatto salvo quanto previsto dalle norme internazionali vigenti.
Sommario: 1. Introduzione. – 2. Il caso. – 3. La decisione della Corte e le divergenze con le conclusioni dell’Avvocato Generale. – 4. L’assenza nel reasoning della Corte della tutela del discorso pubblico online e il rischio della privatizzazione della censura. – 5. Conclusioni.
- Introduzione
Il 3 ottobre 2019 la Corte di Giustizia dell’Unione Europea si è pronunciata sul caso Eva Glawischnig Piesczek v Facebook Ireland Limited[1]. La sentenza è stata redatta dal giudice ceco Jiří Malenovský e trae spunto da un caso di diffamazione su Facebook, che aveva condotto la Corte suprema austriaca (Oberster Gerichtshof) al rinvio pregiudiziale ex art. 267 TFUE.
- Il caso
La causa di merito nasceva da un post “pubblico” su Facebook[2] che accompagnava, con varie accuse ingiuriose e infondate, la condivisione di un articolo di giornale relativo ad una posizione politica dei Verdi austriaci e della presidente del loro gruppo parlamentare, Eva Glawischnig-Piesczek. La ricorrente faceva in primo luogo reclamo diretto a Facebook chiedendo la rimozione di tal tipo di contenuti e, a seguito della mancata risposta da parte del social network, ricorreva al potere giudiziario. Le corti austriache, accertato che la fattispecie integrava una diffamazione in base all’articolo 1330 dell’Allgemeines Bürgerliches Gesetzbuch («ABGB»), emanavano un’ordinanza cautelare contro Facebook per la rimozione delle informazioni identiche ed equivalenti a quella diffamatoria. La questione arrivata alla Corte suprema e da essa veniva rimessa al giudice europeo per dipanare alcuni dubbi relativi alla compatibilità di tale ingiunzione con la direttiva 2000/31.
La Corte suprema austriaca sollevava tre questioni pregiudiziali:
«1) Se l’articolo 15, paragrafo 1, della direttiva [2000/31] osti in generale a uno degli obblighi sotto descritti imposti a un host provider, che non abbia rimosso tempestivamente informazioni illecite, in particolare all’obbligo di rimuovere, non soltanto le suddette informazioni illecite ai sensi dell’articolo 14, paragrafo 1, lettera a), della [suddetta]direttiva, ma anche altre informazioni identiche: – a livello mondiale; – nello Stato membro interessato; – dell’utente interessato a livello mondiale; – dell’utente interessato nello Stato membro interessato.
2) In caso di risposta negativa alla prima questione: se ciò valga rispettivamente anche per informazioni dal contenuto equivalente.
3) Se ciò valga anche per informazioni dal contenuto equivalente, non appena il gestore sia venuto a conoscenza di tale circostanza» (CGUE, C 18-18, § 20).
- La decisione della Corte e le divergenze con le conclusioni dell’Avvocato Generale
Rispetto alle suddette questioni, la Corte, dopo aver ricordato i principi cardine della direttiva e-commerce, ossia l’impossibilità di imporre ad un servizio di hosting un obbligo generale di sorveglianza e/o quello di una ricerca attiva di informazioni, ha affrontato le tre questioni in maniera in parte divergente rispetto a quanto fatto dall’Avvocato Generale Maciej Szpunar[3]. Da questo punto di vista serve preliminarmente dar conto di come la sentenza appaia molto sintetica nelle sue considerazioni in diritto rispetto all’ampia ricognizione fatta dall’Avvocato Generale[4] e come ciò non dia talvolta la possibilità di comprendere se determinati passaggi – non irrilevanti – delle conclusioni dell’AG siano stati recepiti, rigettati o semplicemente omessi.
Per quanto riguarda la prima questione, la conformità al disposto dell’art. 15 della direttiva 2000/31 della richiesta di rimozione dei contenuti identici a quello dichiarato illecito, la sentenza e le conclusioni dell’Avvocato Generale convergono verso una medesima soluzione. Per l’Avvocato Generale era infatti consentito rimuovere in toto tutte le informazioni identiche[5] sia riprodotte manualmente da altri utenti che in maniera automatizzata, in quanto tale rimozione non necessita di un «filtraggio attivo e non automatico» (Conclusioni AG C 18-18, § 61). Da questo punto di vista la Corte concorda sul fatto che per interrompere il prorogarsi di una condotta illecita identica «non si può ritenere che l’ingiunzione all’uopo emessa ponga a carico del prestatore di servizi di hosting un obbligo di sorveglianza, in via generale, sulle informazioni da esso memorizzate, né un obbligo generale di ricercare attivamente fatti o circostanze che indichino la presenza di attività illecite, ai sensi dell’articolo 15, paragrafo 1, della direttiva 2000/31» (CGUE, C 18-18, § 37). Si consente in tal modo la rimozione da un social di tutte le informazioni identiche a quella illecita «qualunque sia l’autore della richiesta di memorizzazione delle medesime» (CGUE, C 18-18, § 37), ossia qualunque sia il soggetto che le diffonda. Dai 6 paragrafi che l’estensore dedica alla questione della rimozione delle informazioni identiche non emerge, tuttavia, un aspetto procedurale importante suggerito dall’AG nelle sue conclusioni, ossia quello della necessità di un meccanismo di controllo sull’operato delle piattaforme rispetto alla censura dei contenuti dei soggetti terzi, da garantirsi attraverso la possibilità di ricorso contro suddetta rimozione (Conclusioni AG C 18-18, § 65). Si deve inoltre rilevare che mentre l’AG si era dimostrato sensibile ad una prospettiva che correlasse i suddetti controlli sulla rimozione di contenuti alla necessità di tutela della libertà di espressione online, in base all’art. 11 della Carta dei diritti fondamentali dell’Unione europea[6], tale riferimento e questa prospettiva manca totalmente nel reasoning della Corte.
Per quanto riguarda invece le informazioni equivalenti, coerentemente con quanto sostenuto dall’AG (Conclusioni AG C 18-18, § 67), l’interpretazione della Corte di tale dizione è quella di espressioni che «veicolano un messaggio il cui contenuto rimane, in sostanza, invariato e quindi diverge molto poco da quello che ha dato luogo all’accertamento d’illiceità» (CGUE, C 18-18, § 39). Si tratta sostanzialmente di tutte quelle esternazioni che riprendano le accuse infamanti postate sul social da parte del convenuto. In questo senso, la prospettiva della Corte è volta alla garanzia del ricorrente[7] che non deve essere costretto a compiere una miriade di azioni giudiziarie differenti per contenuti aventi «sostanzialmente lo stesso messaggio» (CGUE, C 18-18, § 41). La Corte tuttavia, ricordando l’impossibilità di obbligare un servizio di hosting a una sorveglianza generalizzata o ad una ricerca attiva di informazioni, ritiene che il fine di «tutelare efficacemente la reputazione e l’onore di una persona, non può essere perseguito mediante un obbligo eccessivo imposto al prestatore di servizi di hosting» (CGUE, C 18-18, § 44). Il bilanciamento di queste due esigenze è dipanato nel paragrafo 45 che è il centro nevralgico della sentenza, nonché un passaggio foriero di possibili divergenze interpretative. Nel legittimare la rimozione di informazioni equivalenti, non viene, infatti, esplicitato dalla Corte – al contrario di quanto fatto per le informazioni identiche (vedi § 37 e supra) – di quali soggetti siano rimovibili le informazioni equivalenti: se di tutti gli utenti o solo del convenuto. In relazione a questo aspetto, l’Avvocato Generale riteneva che un’estensione dell’obbligo di rimozione di contenuti equivalenti postati da altri utenti «richiederebbe la sorveglianza della totalità delle informazioni diffuse attraverso una piattaforma di rete sociale» (Conclusioni AG C 18-18, § 73). Al contrario la Corte sembra legittimare una rimozione dei contenuti equivalenti postati dei soggetti terzi, qualora vi siano istruzioni precise sulla definizione dei termini che integrino un’espressione equivalente:
«Tenuto conto di quanto precede, occorre che le informazioni equivalenti cui fa riferimento il punto 41 della presente sentenza contengano elementi specifici debitamente individuati dall’autore dell’ingiunzione, quali il nome della persona interessata dalla violazione precedentemente accertata, le circostanze in cui è stata accertata tale violazione nonché un contenuto equivalente a quello dichiarato illecito. Differenze nella formulazione di tale contenuto equivalente rispetto al contenuto dichiarato illecito non devono, ad ogni modo, essere tali da costringere il prestatore di servizi di hosting interessato ad effettuare una valutazione autonoma di tale contenuto» (CGUE, C 18-18, § 45).
In questo senso appare a chi scrive che la Corte legittimi la possibilità di rimozione dei contenuti equivalenti postati da terzi a due condizioni: i. che siano le corti di merito ad individuare i termini integranti una “equivalenza”; ii. che non vi siano obblighi in capo a un servizio di hosting a provvedere autonomamente a questo tipo di valutazioni. In questa prospettiva, i paragrafi successivi della sentenza (CGUE, C 18-18, § 46-47) puntualizzano che da un lato tale soluzione risulta idonea alla garanzia della dignità della persona offesa e dall’altro, grazie alla specificazione delle espressioni equivalenti da parte dell’ingiunzione, non obbliga a soluzioni che impongano valutazioni autonome al servizio di hosting anzi, al contrario, gli permetta l’impiego di strumenti automatizzati nella ricerca di tali contenuti (probabilmente tramite fornitura di espressioni specifiche e keywords). Per la Corte in questo modo non risulterebbe contravvenuto il divieto degli obblighi di sorveglianza in via generale e di ricerca attiva. Infine serve rilevare, oltre all’estensione della possibilità di rimozione dei contenuti equivalenti a soggetti terzi, come la sentenza non prevede neanche la necessità della predisposizione di una possibilità di ricorso da parte di questi soggetti terzi contro tale rimozione (cosa che era invece prospettata anche per il convenuto dall’AG: Conclusioni AG C 18-18, § 72).
Si deve allora rilevare che benché l’affidamento del bilanciamento fra libertà di espressione e diffamazione sia anche in questo caso rimessa ad un giudice, come riteneva necessario l’Avvocato Generale per tutelare la libertà di espressione online[8], nella ricostruzione della Corte sembrano essere tutelati solo due aspetti importanti della questione, il diritto all’onore e la libertà economica delle piattaforme, ma si ignora del tutto un terzo non irrilevante ambito, quello del discorso pubblico e della sua tutela, ossia in altri termini quello della libertà d’espressione sulle piattaforme digitali. Si tratta di un aspetto della questione che era invece rilevante nelle Conclusioni dell’Avvocato Generale[9]: il bilanciamento effettuato dal giudice non copre infatti tutte le fattispecie che possono venire censurate dal social in maniera automatizzata. Si pensi a chi possa riprendere con contenuti identici o equivalenti le espressioni illecite per criticarle o farvi satira[10].
Una questione trasversale agli aspetti contenutistici riguarda, invece, l’estensione territoriale (intesa in senso di IP) degli effetti di una tale ingiunzione e che “spazi di azione” permetta la direttiva. Rispetto a questa questione, l’Avvocato Generale rilevava nelle sue conclusioni come il diritto dell’Unione non ostasse a una rimozione su scala mondiale di un contenuto, ma che la questione andasse analizzata in base al diritto internazionale e non al diritto Ue (Conclusioni AG C 18-18, § 92). La Corte riprende questa impostazione, riconfermando che la direttiva non osta a una portata globale di un’ingiunzione di tal fatta e come sia necessario guardare alle norme applicabili a livello internazionale (CGUE, C 18-18, §§ 50-51). La conclusione è più prudente rispetto al self-restraint consigliato dall’AG[11] affermando la Corte che: «[s]petta agli Stati membri garantire che i provvedimenti da essi adottati e che producono effetti a livello mondiale tengano debitamente conto di queste ultime norme» (CGUE, C 18-18, § 52).
La terza questione, in conformità con quanto prospettato dall’AG, perdeva una sua rilevanza, per quanto già affermato, e non veniva esaminata dalla Corte.
- L’assenza nel reasoning della Corte della tutela del discorso pubblico online e il rischio della privatizzazione della censura
Dal punto di vista contenutistico, la sentenza in esame introduce, dunque, un elemento di significativa novità e innovazione in relazione al ruolo dei servizi di hosting e alla possibilità di richiedere interventi massivi e generali agli stessi.
A parere di chi scrive la questione che appare centrale nella decisione della Corte non è tanto quella della portata territoriale – in senso di territorio IP – dell’applicazione delle regole nazionali degli stati membri[12], ma quella della delega a Facebook della rimozione di contenuti individuati dalle autorità pubbliche, ossia quello della privatizzazione della censura. La questione del geoblocking viene infatti risolta in un rimando alla volontà degli stati: una sorta di via libera che non si accompagna a nessuna posizione di merito o di opportunità.
Con riferimento al profilo della privatizzazione della censura, invece, si possono fare alcune interessanti considerazioni soprattutto rispetto alle differenze fra la prospettiva della Corte e quella dell’Avvocato Generale. In relazione alle problematiche della censura, in altra sede[13], chi scrive aveva ritenuto di poter schematizzare la c.d. censura de jure – ossia quella derivante dalle disposizioni normative vigenti in un determinato territorio – in censura funzionale e censura sostanziale: la prima richiede alla Internet platforms di rimuovere contenuti predeterminati specificatamente da una legge o da una sentenza, la seconda delega alle piattaforme di valutare nella sostanza l’illiceità di un contenuto da rimuovere. Nella disciplina in esame si è in presenza di un caso di censura funzionale, nella quale si richiede a Facebook di provvedere alla rimozione di contenuti identici (e quindi rimuovibili con procedimenti automatizzati) e di contenuti equivalenti a quelli illeciti, ma solo una volta che gli stessi siano stati individuati a priori dall’autorità giudiziaria o amministrativa (e pertanto anch’essi rimuovibili in maniera automatizzata): la predisposizione di questo meccanismo è da salutare con favore, ma non è esente da problematiche in tema di discorso pubblico e libertà di espressione online. Serve, infatti, rilevare che il mancato riferimento a procedure di ricorso contro le decisioni di Facebook, al contrario di quanto prospettato dall’Avvocato Generale, potrebbe rischiare di condurre ad una “collateral censorship”[14]: la rimozione delle informazioni identiche ed equivalenti attraverso meccanismi di controllo automatizzato potrebbe infatti comportare anche la censura (rectius la rimozione) di contenuti che possano riprendere in maniera identica o equivalente quel tipo di esternazioni per fini non diffamatori (critica, satira, informazione, etc.). La mancanza di attenzione a questo profilo potrebbe essere direttamente connessa alla volontà di non tenere in considerazione l’art. 11 della Carta di Nizza.
In definitiva, infatti, benché il risultato a cui giunge la Corte, nell’impedire una censura sostanziale e quindi autonomamente predisposta dal servizio di hosting, risulti condivisibile, serve rilevare come la soluzione sia raggiunta dalla stessa senza far riferimento nella sua decisione all’art. 11 della Carta di Nizza e alla necessità di tutela della libertà di espressione online. La prospettiva della Corte è quella della tutela della dignità della persona e della libertà di iniziativa economica dei servizi di hosting (in linea con la disciplina della direttiva e-commerce). Non si può che rilevare in tal senso come, al contrario, le conclusioni dell’Avvocato Generale facessero diretto riferimento all’art. 11 della Carta dei diritti, alla necessità di tutelare la libertà d’espressione online e ai rischi di privatizzazione della censura. Infatti, le osservazioni dell’Avvocato evidenziavano i rischi di censure sistematiche[15] insiti nella delega al social network della rimozione di contenuti senza istruzioni precise da parte di un’autorità pubblica. La prospettiva espressa dall’AG sembrava, infatti, presupporre che il bilanciamento da porre in essere, non fosse solo fra tutela della dignità e interessi delle Internet platforms, ma dovesse anche includere la libertà di espressione online. Se un tale principio fosse stato recepito dalla Corte avrebbe forse causato una trasformazione epocale nell’inquadramento delle piattaforme digitali, finendo per individuarle come veri e propri fori pubblici[16]. Ovviamente l’Avvocato Generale non arrivava a tanto, ma d’altra parte la Corte ha ignorato totalmente questo passaggio delle sue conclusioni, perdendo forse l’occasione per proporre un’applicazione dell’art. 11 della Carta dei diritti fondamentali dell’UE in questi campi o un’interpretazione della direttiva che potesse contemperare i tre interessi in gioco: reputazione, libertà d’impresa e libertà di espressione.
- Conclusioni
In conclusione, se la soluzione intrapresa dalla Corte non sembra in concreto particolarmente problematica – salvo il rischio di censura collaterale delle informazioni identiche ed equivalenti in assenza di meccanismi di ricorso – più discutibile appare il percorso argomentativo con cui la Corte giunge a questa ricostruzione. Riprendendo l’avvertenza fatta all’inizio di questo commento sulla brevità e sinteticità della Corte, si deve rilevare che questa sentenza in determinati passaggi criptici lascia, infatti, ampie praterie all’interprete, ma soprattutto, non citando mai l’esigenza di una tutela della libertà di espressione online, non chiarisce se il free speech debba essere inteso come bene meritevole di tutela sulle piattaforme o perlomeno fino a che punto sia meritevole.
[1] CGUE, C-18/18, d’ora in poi “CGUE, C 18-18”. Per un primo commento: L. Woods, Facebook’s liability for defamatory posts: the CJEU interprets the e-commerce Directive, in EU Law Analysis, 7 ottobre 2019.
[2] Difficile trovare migliori parole di quelle della Corte per spiegare ai non utenti di Facebook cosa si intenda con tale dizione e come fosse integrata la diffamazione nei riguardi della ricorrente: «Il 3 aprile 2016, un utente di Facebook Service ha condiviso, sulla sua pagina personale, un articolo della rivista di informazione austriaca online oe24.at intitolato “I Verdi: a favore del mantenimento di un reddito minimo per i rifugiati”, il che ha avuto come effetto di generare su tale pagina un ‘riquadro anteprima’ del sito d’origine, contenente il titolo del suddetto articolo, un breve riassunto del medesimo, nonché una fotografia della sig.ra Glawischnig-Piesczek. Tale utente ha inoltre pubblicato, in merito all’articolo di cui trattasi, un commento redatto in termini che il giudice del rinvio ha dichiarato idonei a ledere l’onore della ricorrente nel procedimento principale, ingiuriarla e diffamarla. Il contributo di cui trattasi poteva essere consultato da ogni utente di Facebook Service». CGUE, C-18/18, § 12.
[3] Conclusioni dell’avvocato generale Maciej Szpunar sul caso Eva Glawischnig-Piesczek v Facebook Ireland Limited – Causa C-18/18, d’ora in poi “Conclusioni AG C 18-18”.
[4] Sulla tecnica di redazione e i modelli di riferimento alla base delle “sintetiche” sentenze della Corte di giustizia rispetto alle “ampie” disquisizioni degli Avvocati Generali: M. De S-O-L’É Lasser, Judicial Deliberations: A Comparative Analysis of Transparency and Legitimacy, Oxford, 2004.
[5] «Intendo pertanto tale riferimento alle “informazioni identiche” nel senso che il giudice del rinvio prende in considerazione le riproduzioni manuali ed esatte dell’informazione da esso qualificata come illecita e, come indicato dal governo austriaco, le riproduzioni automatizzate, effettuate grazie alla funzione di “condivisione”». Conclusioni AG C 18-18, § 56.
[6] L’Avvocato rilevava come «un siffatto obbligo rispetta il diritto fondamentale degli utenti di Internet alla libertà di espressione e di informazione, garantito all’articolo 11 della Carta, nella misura in cui la tutela di tale libertà non deve essere necessariamente garantita in modo assoluto, ma deve essere ponderata con altri diritti fondamentali». Conclusioni AG C 18-18, § 65.
[7] «Ne consegue che, affinché un’ingiunzione volta a fare cessare un atto illecito e ad impedire il suo reiterarsi nonché ogni ulteriore danno agli interessi in causa possa effettivamente realizzare siffatti obiettivi, detta ingiunzione deve potersi estendere alle informazioni il cui contenuto, pur veicolando sostanzialmente lo stesso messaggio, sia formulato in modo leggermente diverso, a causa delle parole utilizzate o della loro combinazione, rispetto all’informazione il cui contenuto sia stato dichiarato illecito. Diversamente infatti, e come sottolineato dal giudice del rinvio, gli effetti inerenti a un’ingiunzione del genere potrebbero facilmente essere elusi tramite la memorizzazione di messaggi appena diversi da quelli dichiarati illeciti in precedenza, il che potrebbe condurre l’interessato a dover moltiplicare le procedure al fine di ottenere la cessazione dei comportamenti illeciti di cui è vittima». CGUE, C 18-18, § 41.
[8] «In ogni caso, l’interpretazione data al riferimento alle “informazioni equivalenti” è idoneo ad incidere sulla portata di un obbligo in materia di sorveglianza e sull’esercizio dei diritti fondamentali coinvolti. Un giudice che, nell’ambito di un’ingiunzione, statuisca sulla rimozione delle “informazioni equivalenti” deve pertanto rispettare il principio della certezza del diritto e garantire che gli effetti di tale ingiunzione siano chiari, precisi e prevedibili. Nel farlo, tale giudice deve ponderare i diritti fondamentali coinvolti e tenere conto del principio di proporzionalità». Conclusioni AG C 18-18, § 71.
[9] Così sembrava a chi scrive nella lettura delle conclusioni dell’Avvocato Generale: Di Facebook e del diritto UE: «Polizeirecht» o privatizzazione della censura? Geoblocking o imposizioni globalizzanti? (Commento alle Conclusioni dell’avvocato generale Maciej Szpunar sul caso Eva Glawischnig-Piesczek v Facebook Ireland Limited – Causa C-18/18), in Medialaws.eu, 19 settembre 2019.
[10] Empiricamente si può rilevare come la content moderation di Facebook abbia già dimostrato, nella censura di pagine satiriche scambiate per “fasciste”, di non essere esente da errori grossolani, come riportato dagli organi di stampa: ex pluribus R. Pavanello, Socialisti Gaudenti come CasaPound e Forza Nuova: Facebook chiude la loro pagina. Poi la retromarcia, in LaStampa.it, 24 settembre 2019.
[11] L’Avvocato Generale, al contrario, concludeva infatti che «il giudice di uno Stato membro può, in teoria, statuire sulla rimozione di informazioni diffuse a mezzo Internet a livello mondiale. Tuttavia, a causa delle differenze esistenti fra le leggi nazionali […] un siffatto giudice deve adottare piuttosto un atteggiamento di autolimitazione» (Conclusioni AG C 18-18, § 100), moderando il più possibile gli effetti extraterritoriali di una sua ingiunzione.
[12] Si ricordi che l’AG, pur in subordine rispetto alla decisione al fine sposata dalla Corte, propendeva per una forma di geo-blocking malgrado «l’argomento della ricorrente, secondo il quale il blocco geografico delle informazioni illecite potrebbe essere agevolmente eluso tramite un server proxy o altri strumenti» (Conclusioni AG C 18-18, § 101).
[13] M. Monti, Privatizzazione della censura e Internet platforms: la libertà d’espressione e i nuovi censori dell’agorà digitale, in Rivista italiana di informatica e diritto, 1, 2019, p. 35 ss.
[14] Cfr. F.T. Wu, Collateral Censorship and the Limits of Intermediary Immunity, in Notre Dame L. Rev., 83, 2013.
[15] «Dall’altro, l’attuazione di siffatte soluzioni darebbe luogo ad una censura, con la conseguenza che la libertà di espressione e di informazione potrebbe essere sistematicamente limitata». (Conclusioni AG C 18-18, § 74). Quella della rimozione sistematica di contenuti è stato, peraltro, un tema molte volte evidenziato dalla dottrina già rispetto al diritto all’oblio: O. Pollicino, Google rischia di «vestire» un ruolo para-costituzionale, in Il Sole 24 Ore, 14 maggio 2014.
[16] Cfr. K. Klonick, The New Governors: The People, Rules, and Processes Governing Online Speech, in Harv. L. Rev., 131, 2018, p. 1598 ss.