Lo strengthened Code of Practice on Disinformation: un’altra pietra della nuova fortezza digitale europea?

Appare ormai evidente che la regolazione dei contenuti stia diventando una nuova pietra della “fortezza digitale europea”[1], soprattutto nella dimensione della convergenza, che sembra prendere piede nel mercato digitale europeo, fra la regolamentazione della libertà di espressione online e la disciplina della protezione dei dati personali[2].

Tali nuove forme di regolazione della dimensione contenutistica della Rete sono state prodotte sia da decisioni della Corte di giustizia, come la sentenza C-18/18 (Eva Glawischnig-Piesczek v. Facebook Ireland Limited), sia dallo sviluppo di strumenti di soft law da parte della Commissione europea, in particolare il Code of Conduct on countering illegal hate speech online (2016) e il Code of Practice on disinformation (2018).

Questi ultimi sono strumenti che hanno in qualche modo anticipato la prospettiva (co)regolatoria che pare essere fatta propria dal Digital Services Act (DSA)[3] nella sua versione attuale. In attesa dell’emanazione del DSA, tali codici si possono perlopiù ritenere forme di “autoregolamentazione eterodiretta”, ossia: atti formalmente senza valore di legge, ad adesione libera e volontaria per le piattaforme digitali (perciò, “autoregolamentazione”), ma sostanzialmente strumenti che hanno raccolto l’adesione di tutti i principali social network e motori di ricerca, sia per questioni reputazionali sia per la minaccia silente di una hard regulation da parte del Legislatore europeo (da cui, “eterodiretta”)[4].

È in questo contesto che nel 2021, anche a seguito della disinformazione sul Covid-19 dilagante sulle piattaforme digitali, la Commissione europea ha presentato delle linee guida[5] per “rafforzare” il Code of Practice on disinformation del 2018[6]. Si trattava di linee guida che avrebbero dovuto impegnare, in modo più puntuale, i firmatari del Codice (aumentati rispetto alle sole grandi piattaforme) ad implementare diverse strategie per il contrasto alla disinformazione, nello specifico: demonetizzando maggiormente la disinformazione; collaborando nell’individuazione dei contenuti disinformativi in ambito pubblicitario e dei messaggi politici; depotenziando le attività degli attori della disinformazione (bot, account falsi, campagne di manipolazione organizzate, account acquisiti); valorizzando il ruolo degli utenti nella segnalazione della disinformazione; evitando la viralità della notizie false e aumentando la visibilità dei contenuti affidabili; migliorando la collaborazione coi fact-checkers.

Tali linee guida sono effettivamente state recepite puntualmente dal gruppo di esperti che ha contribuito allo strengthened Code of Practice on Disinformation, usando la terminologia impiegata dalla Commissione per definire questo Code of Practice 2.0. In questo senso, appare allora di interesse analizzare brevemente lo sviluppo della versione 2.0 del Code of Practice on disinformation, tenendo però ben presente il contesto regolatorio in divenire nel quale tale strumento di soft law è stato sviluppato e si inserisce.

Il primo aspetto che si può rilevare del Codice 2.0 è infatti la sua natura “interlocutoria” e “provvisoria”: “interlocutoria” perché è uno strumento che dialoga con altre iniziative ancora in divenire e in potenza, per esempio, fra tutti, il DSA[7] o la Regulation on the transparency and targeting of political advertising[8]; natura “provvisoria perché molte soluzioni prospettate dipendono, direttamente o indirettamente, dal concretizzarsi di queste nuove iniziative regolamentarie e dalle misure che queste svilupperanno ed implementeranno[9].

È proprio in questa prospettiva che il Codice esprime la sua grande potenzialità: qualora fosse infatti confermato il modello strutturale del DSA, i codici di condotta diverrebbero non codici di “autoregolamentazione eterodiretta”, come gli attuali, ma codici di co-regolamentazione[10] sottoposti a regimi di controllo e sanzione (perlomeno per le Very Large Platforms[11]).

Rispetto a ciò, emerge forse una delle grandi differenze del Code 2.0 rispetto al suo antecedente: in questa nuova versione del Codice sono infatti presenti meccanismi per valutare, attraverso i KPI – Key Performance Indicators[12], l’efficacia delle iniziative delle piattaforme e l’adeguatezza degli sforzi posti in essere. Questi indicatori di prestazione, ribattezzati QRE (Qualitative Report Elements) e SLI (Services Level Indicators), potranno dunque essere impiegati, una volta emanato il DSA, per attivare procedure di controllo e, financo, di sanzione.

È quindi evidente il passaggio da potenza ad atto che potrebbe riguardare il Codice, con la trasformazione del suo ruolo e con la costruzione di un primo sistema di effettivo controllo sull’operato delle piattaforme, in una logica di tutela del discorso pubblico.

Tale trasformazione è tuttavia naturalmente vincolata all’emanazione del DSA nell’attuale forma: non è impossibile (anche se improbabile) che lo stesso possa subire modifiche a causa di una diversa direzione presa dal policymaker in tema di regolazione delle piattaforme e del discorso pubblico online.

Dal punto di vista delle misure che le piattaforme si adopereranno per adottare, nella versione 2.0 del Codice si può agevolmente rilevare il “rafforzamento” delle soluzioni del precedente, sia in termini di precisione linguistica e tecnica che in termini di modalità suggerite per la loro applicazione. In particolare, il Codice 2.0, al primo blocco di impegni (sezione II, Scrutiny of Ad Placements), è estremamente dettagliato rispetto alle soluzioni per la demonetizzazione della disinformazione e chiama in causa sia le piattaforme che i venditori di ads. L’articolato prevede infatti anche un rafforzamento della cooperazione fra i diversi attori che partecipano a tale segmento di mercato. Il secondo blocco di commitments (sezione III, Political Advertising) è invece dedicato ai political ads e a una loro segnalazione trasparente e intellegibile per l’utenza. Più nello specifico, il Codice 2.0 si occupa anche di campi più prossimi alla propaganda partitica che all’informazione: approccio imprescindibile a causa dell’ampio uso di disinformazione da parte di alcuni soggetti politici nel mondo online. Questo aspetto, che esula parzialmente dalla questione della corretta informazione, avrebbe meritato forse una trattazione separata: intervenire sulla categoria della libertà di espressione “propaganda politica” è più problematico rispetto a intervenire nell’ambito della disinformazione nella categoria “libertà di informazione”. Per esempio, depotenziare la visibilità di determinati messaggi politici (per quanto disinformativi) risulterebbe infatti difficilmente compatibile con le regole della comunicazione elettorale. Il terzo insieme di impegni (sezione IV, Integrity of Services) è inerente al contrasto ai manipulative behaviors e pone una particolare enfasi sulla questione deep fakes; mentre il quarto (sezione V, Empowering Users) si focalizza sugli utenti. La serie di impegni della sezione V riguarda: la visibilità dei contenuti affidabili e la censura indiretta[13] della disinformazione (in primis, mediante il depotenziamento della sua visibilità); le valutazioni dei fact-checkers; gli strumenti di identificazione dei contenuti sottoposti a fact-checking. Le procedure di censura indiretta (segnalazione, depotenziamento, etc.) dei contenuti disinformativi devono essere rese note nel Transparency Centre (si veda infra, sezione VIII) e prevedono anche processi di “ascolto” dei publishers. Il quinto blocco di commitments (sezione VI, Empowering the Research Community) concerne il ruolo dei ricercatori nelle forme di controllo e accountability delle iniziative poste in essere dalle piattaforme, identificando anche un ruolo centrale per la Task-force che sarà deputata al monitoraggio dell’applicazione concreta del Codice. Il sesto complesso di impegni attiene invece specificatamente ai fact-checkers (sezione VII, Empowering the Fact-Checking Community): fra questi spicca il fatto che i firmatari siano tenuti a versare un contributo economico per il lavoro svolto dai fact-checkers indipendenti sulle proprie piattaforme. L’impressione è che con questo blocco di impegni si cerchi di creare una governance più strutturata nel campo del fact-checking online. Infine, il settimo (sezione VIII, Transparency Centre) e l’ottavo blocco di commitments (sezione IX, Permanent Task-Force) riguardano il sistema di controlli e trasparenza. Tale sistema appare basato su due colonne portanti: il Trasparency Centre e la Task Force. Questi due elementi sono naturalmente e strutturalmente interconnessi essendo coessenziali al funzionamento dell’accountability delle piattaforme. Infatti, se il primo è un elemento imprescindibile per l’accountability e la trasparenza delle azioni intraprese dalle piattaforme, il secondo, a cui partecipano i firmatari, la Commissione, l’European External Action Service (EEAS), l’European Regulators Group for Audiovisual Media Services (ERGA), l’European Digital Media Observatory (EDMO) e altre terze parti, è il forum deputato al vaglio delle iniziative realizzate dalle piattaforme e alla loro discussione e valutazione. Il nono e ultimo blocco di commitments (sezione X, Monitoring of the Code) è quello delle disposizioni sul monitoraggio, che struttura gli impegni dei firmatari in relazione ai rapporti da trasmettere alla Commissione sulle azioni di contrasto alla disinformazione formulate, la loro efficacia e la loro compatibilità con il paradigma europeo della libertà di espressione e informazione. Nella strategia “tailored” della Commissione i commitments andranno poi implementati nel rispetto delle caratteristiche delle singole piattaforme.

In questa prospettiva, è quindi evidente che il Codice 2.0 non solo cerca di promuovere una più effettiva ed efficace opera di contrasto alla disinformazione, ma tenta anche di sviluppare meccanismi di accountability, che rendano l’operato delle piattaforme controllabile e valutabile da utenti, ricercatori e dalla Task Force di cui alla sezione IX del Codice. Tuttavia la natura autoregolamentativa del Codice appare ancora importante: molti aspetti, tra i quali anche alcune definizioni come quella di political ads, sono rimessi alle piattaforme stesse; gli impegni dispongono raramente la necessità di prevedere la possibilità di “ricorso” da parte degli utenti contro le azioni di contrasto alla disinformazione; il ruolo dei giornalisti sembra circoscritto a quanti lavorino nelle agenzie di fact-checking e totalmente assente è il ruolo di quei soggetti pubblici, detenenti i crismi di indipendenza e imparzialità, nella content moderation che le piattaforme porranno in essere per contrastare i contenuti disinformativi.

Il problema dell’accountability proposta dal Codice 2.0 è che questa non risolve di per sé quelle problematiche, insite nella sfera pubblica piattaformizzata[14] e nella c.d. privatizzazione della censura, che possono “danneggiare” il pluralismo e il diritto a essere informati, ma crea solo le premesse per l’individuazione di queste distorsioni, senza poi fornire gli strumenti per rendere l’accountability effettiva: senza sanzioni e senza controlli da parte di autorità indipendenti, dotate di quei crismi che le rendano soggetti imparziali e indipendenti secondo i principi della rule of law, quale limitazione del potere delle piattaforme si effettua? Una limitazione che si basa solo sulla minaccia di nuove forme di regolamentazione – ancora nel paradigma dell’autoregolamentazione eterodiretta –  o sulla buona volontà delle piattaforme – che ricorda la clausola del Good Samaritan della sezione 230 del Communication Decency Act.

Nella consapevolezza della natura interlocutoria e provvisoria del Codice 2.0[15] si può concludere svolgendo una considerazione sulla portata dei diritti fondamentali online e sulla c.d. privatizzazione della censura. Il Codice, infatti, complice la sua natura di soft law, non incorpora ancora reali procedure che possano garantire la libertà di espressione sulle piattaforme: non sono difatti presenti sistemi effettivi ed efficaci di ricorso (magari dopo quello alle piattaforme stesse) ad autorità indipendenti[16], per esempio, che garantiscano la possibilità di contestare sia la non rimozione/segnalazione di accounts/contenuti che la rimozione/segnalazione di accounts/contenuti. La collateral censorship, inaugurata dalla sentenza Google Spain mediante l’attribuzione di un ruolo para costituzionale[17] alle piattaforme, rimane ancora un’ombra che minaccia la tenuta del discorso pubblico online in campo informativo. Per assistere a un sistema che sottoponga anche le piattaforme a controlli sul pluralismo e sul diritto a essere informati da parte delle autorità delle comunicazioni, o di nuove authorities create ad hoc, occorrerà tuttavia aspettare i prossimi passi del legislatore europeo. La strada verso un discorso pubblico regolamentato anche nella sfera pubblica piattaformizzata appare ancora lunga, nonostante il Code 2.0 sia sicuramente un passo (o forse due) in avanti rispetto alla sua versione precedente. D’altronde era difficile, data la limitata capacità di azione che poteva fare propria – come strumento di soft law in attesa del DSA –, che il Codice 2.0 potesse spingersi più in là di così, compiendo un vero e proprio scatto invece che uno o due passi avanti.

[1]Riprendendo la metafora della “European Personal Data Fortress” formulata da O. Pollicino, Judicial Protection of Fundamental Rights on the Internet A Road Towards Digital Constitutionalism?, Oxford, 2021. Metafora ripresa anche in G. De Gregorio, Digital Constitutionalism in Europe, Cambridge, 2022.

[2] O. Pollicino Judicial Protection, cit., 147 ss.; Id., Data Protection and Freedom of Expression Beyond EU Borders: EU Judicial Perspectives, in F. Fabbrini – E. Celeste – J. Quinn (a cura di), Data Protection Beyond Borders. Transatlantic Perspectives on Extraterritoriality and Sovereignty, Oxford, 2020, 81 ss.

[3] Proposal for a Regulation of the European Parliament and the Council on a Single Market For Digital Services (Digital Services Act) and amending Directive 2000/31/EC (COM (2020) 825 final).

[4] Appare evidente che dietro l’emanazione di questi Codici sia presente una “minaccia” di hard regulation in caso di fallimento delle soluzioni di autoregolamentazione. Tale considerazione è valida anche per quanto concerne il Code of Conduct on counteing illegal hate speech: F. Abbondante, Il ruolo dei social network nella lotta all’hate speech: un’analisi comparata fra l’esperienza statunitense e quella europea, in Informatica e diritto, 1-2, 2017, 65.

[5] European Commission Guidance on Strengthening the Code of Practice on Disinformation (COM(2021) 262 final).

[6] Per una ricostruzione della cornice nel quale era stato sviluppato il Code of Practice nel 2018: G. Pagano, Il Code of Practice on Disinformation. Note sulla natura giuridica di un atto misto di autoregolazione, in federalism.it, 11, 2019.

[7] «Actions under the Code will complement and be aligned with regulatory requirements and overall objectives in the Digital Services Act (DSA)15 once it enters into force». The 2022 Code of Practice on Disinformation (2022), 2.

[8] Ex multis: «[t]he Signatories also acknowledge the significance of a shared understanding of “sponsor” in the context of the European Commission’s proposal for a Regulation on the transparency and targeting of political advertising» (ivi, 9).

[9] Per esempio in relazione ai political ads il Codice 2.0 enuncia: «[s]hould there be no political agreement on the definition of “political advertising” in the context of the negotiations on the European Commission’s proposal for a Regulation on the transparency and targeting of political advertising within the first year of the Code’s operation or should this Regulation not include a definition of “political advertising” which adequately covers “issue advertising” (as assessed in the Task-force under QRE 4.1.1), the Signatories will come together with the Task-force to establish working definitions of political advertising and issue advertising that can serve as baseline for this chapter». Ivi, 10.

[10] Perlomeno questa appare la posizione sposata dalla Commissione nella guidelines, dove dichiarava di aver predisposto con il progetto del DSA, un «co-regulatory framework through Codes of Conduct for addressing systemic risks linked to disinformation». (European Commission Guidance on Strengthening the Code, cit., 2).

[11] Il Codice è attento ad evidenziare che «[t]o this end, signatories that are not Very Large Online Platforms have the option to identify in the subscription document measures proportionate and appropriate to their services that they will implement to fulfil the Commitments subscribed to, and/or a plan to achieve over time full implementation of the measures set out in the Code for the Commitments concerned». The 2022 Code of Practice on Disinformation, cit., 2.

[12] Si veda quanto proposto dalla Commissione nelle linee guida (European Commission Guidance on Strengthening the Code, cit., 21 ss.).

[13] Con questa terminologia si intende la censura mediante “sfavore” algoritmico, che comporta la non visibilità di un contenuto malgrado la sua non rimozione. Su questi aspetti sia consentito un richiamo a M. Monti, Privatizzazione della censura e Internet platforms, in Rivista italiana di informatica e diritto, 1, 2019, 38.

[14] M. Sorice, La «piattaformizzazione» della sfera pubblica, in Comunicazione politica, 3, 2020.

[15] Tenendo a mente che, nell’ottica della Commissione, «[t]he strengthening of the Code is not only a provisional step. This Guidance calls for developing the Code into a strong, stable, flexible instrument that makes online platforms more transparent, accountable and responsible by design». (European Commission Guidance on Strengthening the Code, cit., 3).

[16] Per riprendere la ben nota proposta di G. Pitruzzella, La libertà di informazione nell’era di Internet, in questa Rivista, 1, 2018, 46.

[17] O. Pollicino, Google rischia di «vestire» un ruolo para-costituzionale, in Il Sole 24 Ore, 14 maggio 2014.

Share this article!
Share.