Free flow of information – Il contrasto alla disinformazione in tempi di guerra

0

Abstract

Il primo marzo 2022 il Consiglio dell’Unione europea, nell’ambito delle sue competenze in materia di Politica Estera e di Sicurezza Comune, ha adottato un Regolamento (2022/350) che per la sua portata in materia di circolazione delle informazioni su reti di comunicazione elettronica non ha precedenti e che infatti vieta la diffusione negli Stati dell’Unione europea di talune trasmissioni provenienti dalla Federazione russa. Il Regolamento, esaminato alla luce della disciplina dettata dal Trattato sull’Unione Europea e del Trattato sul Funzionamento dell’Unione Europea, rappresenta lo spunto per un’analisi dell’evoluzione normativa, giurisprudenziale (inclusa la sentenza della Corte di Giustizia nel caso C-401/19) e dottrinale del regime europeo del safe harbour applicabile agli Internet Service Provider. In particolare, si affronterà la questione del contenuto “minimo” delle segnalazioni indirizzate agli Internet Service Provider. L’analisi si conclude con alcune riflessioni in merito all’opportunità di valutare oggi un maggiore «level playing field» tra i diversi Internet Service Provider onde disporre di un quadro di riferimento più chiaro e prevedibile sia per le imprese sia per gli utenti.

On 1 March 2022, within the scope of its competences in the field of Foreign Affairs and Security Policy, the European Council adopted a Regulation (2022/350) which, given its scope relating to the circulation of information on electronic communication, appears to have no precedent: in fact, it prohibits the dissemination in the  Member States of certain transmissions from the Russian Federation. The Regulation, which will be examined in the light of the Treaty on European Union and the Treaty on the Functioning of the European Union, represents the starting point for an analysis of the legislative, jurisprudential (including the judgment of the Court of Justice in case C- 401/19) and doctrinal evolution of the European safe harbour regime applicable to Internet Service Providers. In particular, the question of the “minimum” content of the notices to be provided to Internet Service Providers will be treated. The analysis concludes with some thoughts on the advisability today of evaluating a greater «level playing field» among the various Internet Service Providers in order to have a clearer, more certain and predictable framework for both businesses and users.

 

  1. Premessa

Il primo marzo 2022 è stato adottato dal Consiglio dell’Unione europea il Regolamento (UE) 2022/350 che vieta la diffusione negli Stati dell’Unione europea di talune trasmissioni provenienti dalla Federazione russa.

Si tratta di un provvedimento che – per la sua portata – non ha precedenti nell’Unione europea relativamente alle trasmissioni televisive e comunque con riguardo alla diffusione al pubblico di contenuti audiovisivi[1].

Il Regolamento 2022/350 interviene in un ambito – in particolare quello della libera circolazione delle informazioni attraverso reti di comunicazione elettronica – già oggetto di un ampio presidio normativo europeo, ma non sufficiente a far fronte a situazioni quali quelle affrontate con tale  Regolamento soprattutto sotto il profilo soggettivo (e cioè a dire con riguardo agli “editori”/content provider di informazioni stabiliti prevalentemente in uno Stato terzo rispetto all’Unione europea) e per la necessità di un intervento uniforme e caratterizzato dall’immediatezza.

Inoltre, esso solleva alcune questioni interessanti con particolare riferimento al regime della responsabilità degli operatori che forniscono servizi della società dell’informazione (i cd. Internet Service Provider o ISP).

Il Regolamento (UE) 2022/350 rappresenta dunque l’occasione per affrontare una serie di temi, tra cui in particolare il suo inquadramento nel contesto della disciplina europea e convenzionale e l’evoluzione della disciplina dell’esenzione di responsabilità degli ISP tenuto anche conto dell’esigenza – quantomai attuale – di intervenire con urgenza rispetto ad attività in rete che possono incidere gravemente sui processi democratici e sulla sicurezza pubblica degli Stati membri dell’Unione europea.

A tali fini, in primo luogo si (a) illustreranno i principi convenzionali che sono alla base della libera circolazione delle informazioni ed in specie di quelle diffuse attraverso mezzi di comunicazione elettronica, (b) fornirà una descrizione delle norme che fondano l’intervento del Consiglio dell’Unione in materia di Politica Estera e di Sicurezza (“PESC”) con particolare riferimento alle tragiche circostanze della recente invasione dell’Ucraina da parte della Russia, (c) esamineranno le normative europee sulla trasmissione transfrontaliera di segnali audiovisivi e in particolare la Direttiva TV Senza Frontiere (oggi sostituita dalla Direttiva SMA) e la Convenzione sulla televisione transfrontaliera dal momento che tali normative – con riferimento a contestazioni di talune Autorità nazionali di regolamentazione relative a manipolazioni di informazioni da parte di emittenti controllate dalla Federazione russa – hanno rappresentato il riferimento per gli Stati membri per agire autonomamente in parte qua fino all’adozione del Regolamento (UE) 2022/350 o meglio al di fuori (fino a tale momento) di obblighi di coordinamento e di coerenza rispetto al settore PESC (d) analizzerà il rapporto tra l’intervento del Consiglio dell’Unione in materia di PESC ed il regolamento sull’open internet (“Regolamento Open Internet”)[2].

In secondo luogo, come anticipato, l’intervento del Consiglio dell’Unione rappresenta anche l’occasione per fare il punto sull’evoluzione normativa, giurisprudenziale e dottrinale con riguardo al regime europeo del safe harbour (conosciuto anche come regime di esenzione da responsabilità) degli Internet Service Provider. In particolare, attraverso questa analisi si affronterà il tema del contenuto “minimo” delle segnalazioni indirizzate agli Internet Service Provider al fine di comprendere se il Regolamento (UE) 2022/350 contenga tutte le informazioni necessarie agli ISP per rimuovere o disabilitare l’accesso ai contenuti audiovisivi oggetto del medesimo Regolamento oppure se esso necessiti di integrazioni da parte dei singoli Stati membri in sede di sua applicazione, pena la violazione dell’Articolo 15 della Direttiva 2000/31/UE («Direttiva sul commercio elettronico»)[3]. Nell’ambito di questa analisi sarà anche esaminato l’art. 17 della Direttiva 2019/790/UE («Direttiva Digital Single Market» o «Direttiva DSM»), ivi incluse le posizioni espresse al riguardo dalla Commissione UE e la sentenza della Corte di Giustizia nel caso C-401/19. Inoltre, verrà fornita una prima analisi del Regolamento on a Single Market For Digital Services  dal momento che, tra le altre cose, si tratta del primo atto normativo che reca indicazioni espresse in merito alle informazioni minime degli “ordini” di contrasto ai  contenuti illegali nei confronti degli ISP (Cfr. artt. 8 e 14)[4]. Più precisamente, in questo contributo verrà preso in considerazione il testo del regolamento (ivi inclusa la sua numerazione) approvato dal Parlamento europeo il 5 luglio 2022 ed attualmente in corso di formale adozione da parte del Consiglio dell’Unione europea (Cfr. nota 4) (“Regolamento DSA).  

Infine, con questo contributo si cercherà di comprendere se il Regolamento (UE) 2022/350 abbia modificato, sebbene solo in parte qua e solo temporaneamente, il regime di esenzione da responsabilità degli ISP e quali potrebbero essere le possibili evoluzioni del sistema alla luce di questo precedente.

  1. I principi convenzionali a tutela della libera circolazione delle informazioni

La libera circolazione delle informazioni ed il diritto di manifestare il proprio pensiero e di ricevere informazioni rappresentano valori fondamentali delle Carte costituzionali dei sistemi democratici occidentali[5] e sono riconosciuti in convenzioni internazionali[6], tra cui anche la Convenzione per la salvaguardia dei Diritti dell’Uomo e delle Libertà fondamentali (CEDU)[7] del 1950[8]. A partire dal 2000, data di adozione della Carta dei diritti fondamentali dell’Unione europea (“Carta”), tali diritti fondamentali sono stati fatti espressamente propri anche dall’Unione europea[9], sebbene fossero già stati riconosciuti dalla Corte di giustizia negli anni Settanta attraverso il richiamo alle tradizioni costituzionali degli Stati membri e alla CEDU[10].

I richiamati principi hanno accompagnato lo sviluppo dei servizi diffusivi di contenuti audiovisivi ed in specie lo sviluppo di quei servizi audiovisivi che, per loro stessa natura tecnica, sono in grado di andare al di là dei confini dei singoli Stati, ponendo così la questione del rapporto tra sovranità statale ed esigenza di garantire la libera circolazione delle informazioni.

In particolare, il tema della libera circolazione delle informazioni si era già posto a seguito dello sviluppo, negli anni Novanta, delle trasmissioni satellitari con riferimento a quelle che impiegavano satelliti di diffusione diretta. Infatti, non  necessitando di una stazione terrestre che effettuasse la ritrasmissione, veniva meno ogni possibilità di controllo statale sulla loro ricezione e fruizione nei diversi territori coperti dall’impronta satellitare.

A livello internazionale, si svilupparono in merito due opposte tesi.

Da un lato, vi era quella dei Paesi che ponevano l’accento sulla sovranità nazionale e sul diritto di tutelarsi dall’immissione, nel proprio territorio, di trasmissioni provenienti da altri Stati a mezzo di satelliti: secondo questa impostazione, le trasmissioni nel territorio di uno Stato potevano essere ammesse solo con il preventivo consenso dello Stato ricevente (tesi del cd. «prior consent»)[11], senza il quale si sarebbe configurata una indebita interferenza negli affari interni di quest’ultimo. Secondo tale approccio, sarebbero stati leciti gli interventi degli Stati per oscurare o limitare in altro modo la loro visione.

All’opposto, altri Paesi propendevano per il principio della libera circolazione delle informazioni (cd. free flow of information) senza limiti di frontiere[12]. Questa impostazione faceva leva sull’esistenza di una norma consuetudinaria ricavabile da una serie di strumenti internazionali, tra cui la Dichiarazione Universale dei diritti dell’uomo del 1948 (Articolo 19)[13] ed il Patto sui diritti civili e politici del 1966 (Articolo 19)[14], in base ai quali sono illeciti interventi in senso limitativo da parte dei singoli Stati. Interventi invece sono giustificati laddove vengano in gioco esigenze di tutela della sicurezza nazionale, dell’ordine pubblico, della sanità o della morale pubblica.

A quest’ultimo riguardo, anche la CEDU[15] (art. 10, co. 2) prevede delle condizioni all’esercizio della libertà di informazione purché queste siano previste dalla legge e costituiscano:

«misure necessarie, in una società democratica, alla sicurezza nazionale, all’integrità territoriale o alla pubblica sicurezza, alla difesa dell’ordine e alla prevenzione dei reati, alla protezione della salute o della morale, alla protezione della reputazione o dei diritti altrui, per impedire la divulgazione di informazioni riservate o per garantire l’autorità e l’imparzialità del potere giudiziario».

Sempre con riguardo alle limitazioni «giustificate» (e più specificamente con riguardo all’abuso dei diritti), l’articolo 17 della CEDU prevede che:

«Nessuna disposizione della presente Convenzione può essere interpretata nel senso di comportare il diritto di uno Stato, un gruppo o un individuo di esercitare un’attività o compiere un atto che miri alla distruzione dei diritti o delle libertà riconosciuti nella presente Convenzione o di imporre a tali diritti e libertà limitazioni più ampie di quelle previste dalla stessa Convenzione»[16].

Analogamente, con riguardo all’Unione europea, da un lato, l’articolo 11 della Carta stabilisce che:

«[1.] Ogni persona ha diritto alla libertà di espressione. Tale diritto include la libertà di opinione e la libertà di ricevere o di comunicare informazioni o idee senza che vi possa essere ingerenza da parte delle autorità pubbliche e senza limiti di frontiera. [2.] La libertà dei media e il loro pluralismo sono rispettati»

e, dall’altro lato, l’articolo 52 prevede che:

«[1.] Eventuali limitazioni all’esercizio dei diritti e delle libertà riconosciuti dalla presente Carta devono essere previste dalla legge e rispettare il contenuto essenziale di detti diritti e libertà. Nel rispetto del principio di proporzionalità, possono essere apportate limitazioni solo laddove siano necessarie e rispondano effettivamente a finalità di interesse generale riconosciute dall’Unione o all’esigenza di proteggere i diritti e le libertà altrui. [2.] I diritti riconosciuti dalla presente Carta che trovano fondamento nei trattati comunitari o nel trattato sull’Unione europea si esercitano alle condizioni e nei limiti definiti dai trattati stessi. [3.] Laddove la presente Carta contenga diritti corrispondenti a quelli garantiti dalla convenzione europea per la salvaguardia dei diritti dell’uomo e delle libertà fondamentali, il significato e la portata degli stessi sono uguali a quelli conferiti dalla suddetta convenzione. La presente disposizione non preclude che il diritto dell’Unione conceda una protezione più estesa.»[17].

Inoltre,  l’articolo 54 della stessa Carta riconosce che:

«Nessuna disposizione della presente Carta deve essere interpretata nel senso di comportare il diritto di esercitare un’attività o compiere un atto che miri a distruggere diritti o libertà riconosciuti nella presente Carta o a imporre a tali diritti e libertà limitazioni più ampie di quelle previste dalla presente Carta».

Contribuiscono alla libera circolazione delle informazioni, ed in specie alla libera circolazione di quelle veicolate attraverso trasmissioni televisive, due specifici strumenti normativi europei settoriali, ovverossia la Direttiva Tv Senza Frontiere (oggi sostituita dalla Direttiva UE 2018/1808) e la Convenzione sulla Televisione Transfrontaliera[18], seppur ciascuno con diverse finalità[19]. Si tratta peraltro di normative che devono essere interpretate ed applicate in modo da garantire sempre il bilanciamento con altri diritti fondamentali sanciti (rispettivamente) dalla Carta e dalla CEDU[20]. Vedremo al Capitolo 4 come in particolare le norme nazionali di attuazione della Direttiva SMA in parte qua (o per gli Stati membri che ancora non hanno trasposto la Direttiva 2018/1808/UE, della Direttiva 2010/13/UE o Direttiva SMAV) fossero già state oggetto di applicazione – prima dell’adozione del Regolamento (UE) 2022/350 – in alcuni Stati membri proprio con riguardo ad emittenti televisive della Federazione russa.

Le informazioni veicolate attraverso reti di comunicazioni elettroniche e che travalicano i confini nazionali, tuttavia, oggi non sono solo quelle (o meglio principalmente quelle) che avvengono attraverso diffusioni di tipo broadcast  (i.e. televisive), in particolare quelle via satellite. Infatti, lo sviluppo di internet ha riportato ulteriormente alla ribalta il tema del free flow of information con riguardo alla diffusione  di contenuti a distanza che avviene in questo caso su scala globale attraverso la rete delle reti. Questa modalità di manifestazione del pensiero copre una grande quantità di forme di comunicazione che si caratterizzano per il loro forte tasso di innovazione, nonché per il fatto che coinvolgono vari attori[21] e che non riguardano solo editori di contenuti organizzati in un palinsesto o in un catalogo di programmi ma anche singoli individui che accedono alla rete caricando contenuti: tutti hanno diritto di accedere alla rete sia per fruire dei contenuti di terzi sia per esprimere il proprio pensiero[22].

La garanzia del free flow of information attraverso internet si fonda sulle norme ed i principi convenzionali qui esaminati ed a livello unionale è stata oggetto di alcuni interventi normativi di armonizzazione, quali la Direttiva SMA summenzionata (che – come vedremo – ha disciplinato anche le piattaforme on line di condivisione di contenuti) e la Direttiva sul commercio elettronico che sarà oggetto di trattazione al successivo Capitolo 6. A questi interventi, si aggiunge il Regolamento Open Internet (Cfr. infra Capitolo 5), nonché il Regolamento DSA in corso di adozione (Cfr. infra Capitolo 9).

 

 

  1. Il fondamento normativo dell’intervento del Consiglio dell’Unione europea del primo marzo 2022, il rapporto con le Convenzioni internazionali e con la Carta europea ed il ricorso di RT France al Tribunale dell’Unione

3.1 Le competenze dell’Unione europea in materia di PESC

Il Regolamento 2022/350 del primo marzo 2022 (pubblicato nella Gazzetta ufficiale dell’Unione europea il 2 marzo 2022 ed entrato in vigore nello stesso giorno) ricade nell’ambito delle competenze dell’Unione in materia di PESC c     he includono la politica di sicurezza e difesa comune (PSDC, già PESD) e che sono disciplinate dal Titolo V, Capo 2, del Trattato sull’Unione Europea (“TUE”)[23] (articoli da 24 a 46 TUE). Gli articoli da 205 a 222 della parte quinta del Trattato sul Funzionamento dell’Unione Europea (“TFUE”) disciplinano l’azione esterna dell’Unione. Infine, per completezza si ricordano anche gli articoli 346 e 347 della parte settima del TFUE[24].

L’articolo 24 TUE delinea in maniera sintetica le competenze dell’Unione europea in materia che sono condotte ed attuate «nel quadro dei principi e degli obiettivi dell’azione esterna» (comma 2). E’ nel quadro di tali principi ed obiettivi che l’Unione:

«conduce, stabilisce ed attua una politica estera e di sicurezza comune fondata sullo sviluppo della reciproca solidarietà politica degli Stati membri, sull’individuazione delle questioni di interesse generale e sulla realizzazione di un livello sempre maggiore di convergenza delle azioni degli Stati membri» (comma 3)[25].

Ne risulta che un atto possa essere fondato sul titolo V del TUE in quanto riguardi questioni di interesse generale per l’Unione e gli Stati membri.

Si tratta dunque di un settore caratterizzato dal metodo intergovernativo, che vede ancora un ruolo predominante degli Stati membri dal momento che l’applicazione della norma di cui all’articolo 24 (l’individuazione dell’interesse generale ivi previsto) «è rimessa, in definitiva, alla discrezionalità degli Stati membri»[26].

Importante anche considerare i rapporti tra atti di politica estera nell’ambito delle competenze PESC e atti fondati sulle politiche materiali di rilievo esterno (di competenza delle istituzioni dell’Unione europea)[27], tra i quali occorre evitare interferenze poiché, come prescrive l’articolo 40 TUE:

«l’attuazione della dimensione politica (…) non deve pregiudicare l’attuazione di quella economica e viceversa» ed occorre assicurare la separazione tra il «sistema dei fini della politica estera da quelli assegnati alle singole politiche materiali»[28].

A questo riguardo, emerge l’esigenza di un coordinamento nell’azione esterna dell’Unione sulla base della PESC e delle sue competenze materiali ai sensi dell’articolo 21, par. 3, secondo comma TUE[29]. Tuttavia, quest’ultima disposizione non consente di stabilire con certezza se l’esistenza di un atto PESC nel conseguimento degli scopi di politica estera sia sufficiente per consentire che le competenze materiali dell’Unione siano utilizzate per l’attuazione di tali scopi.

Questo sembra assicurato invero:

«solo limitatamente al caso particolare di misure a carattere sanzionatorio, dall’articolo 215 TFUE, il quale prevede un procedimento articolato su due fasi per l’utilizzo di competenze materiali al fine di attuare un atto adottato dall’Unione nell’ambito della politica estera.»[30].

Infatti, l’articolo 215 TFUE prevede – anche se solo limitatamente al citato ambito – un procedimento articolato su due fasi per l’utilizzo di competenze materiali al fine di attuare un atto dell’Unione nell’esercizio delle sue competenze di politica estera.  Di fatto, questa norma rappresenta essa stessa manifestazione del più generale principio di coordinamento dell’azione dell’Unione di cui all’Articolo 21, comma 3, TUE.

Ciò premesso, il Regolamento (UE) 2022/350 è stato adottato ai sensi del menzionato articolo 215 TFUE. Inoltre, tale Regolamento si fonda sulla Decisione PESC 2022/351 adottata (lo stesso primo marzo 2022) ai sensi dell’articolo 29 TUE che prevede che:

il «Consiglio adotta decisioni che definiscono la posizione dell’Unione su una questione particolare di natura geografica o tematica. Gli Stati membri provvedono affinché le loro politiche nazionali siano conformi alle posizioni dell’Unione.»[31].

Le posizioni comuni adottate dal Consiglio su «specifiche questioni di natura geografica o tematica» vincolano gli Stati nella loro condotta, i quali devono adeguarsi ad esse, modificando le politiche e le normative interne eventualmente difformi.

Siamo dunque in un caso concreto di coordinamento tra un atto PESC che persegue scopi di politica estera ed un atto (il Regolamento coevo) che riguarda astrattamente competenze materiali dell’Unione, nella specie quelle in materia di diffusione di contenuti audiovisivi, di servizi della società dell’informazione e in materia di reti di comunicazione elettronica.

 

 

3.2. Il regolamento (UE) 2022/350: sanzioni dirette a colpire la disinformazione posta in essere dalla Federazione russa

A seguito dell’avvio dell’invasione dell’Ucraina da parte della Russia il  24 Febbraio 2022, e dopo aver invitato quest’ultima e le formazioni armate sostenute dalla Russia a fermare la loro campagna di disinformazione, il Consiglio dell’Unione europea ha adottato il Regolamento (UE) 2022/350 che modifica il Regolamento (UE) n. 833/2014 concernente misure restrittive in considerazione delle azioni della Russia che destabilizzano la situazione in Ucraina.

Già il 10 maggior 2021, il Consiglio dell’Unione europea aveva evidenziato la necessità di contrastare la disinformazione e di adoperarsi contro ingerenze straniere e operazioni di influenza[32]. L’interesse dell’Unione europea a contrastare la disinformazione da parte della Federazione russa era dunque stato già sottolineato. Pertanto, le azioni avviate dall’Unione europea, all’inizio di marzo 2022, non rappresentano di fatto una circostanza inattesa, essendo un rimedio necessario anche per garantire i principi fondamentali delle Convenzioni internazionali e della Carta, nonché della CEDU.

Nelle tragiche circostanze dell’invasione dell’Ucraina avviata dalla Russia, il Consiglio dell’Unione ha in particolare richiamato l’attenzione sulla «manipolazione dei media e di distorsione dei fatti», che è da tempo posta in essere dalla Federazione russa al fine di «rafforzare la sua strategia di destabilizzazione dei paesi limitrofi e dell’Unione e dei suoi Stati membri» e sul fatto che le iniziative di propaganda vengono rafforzate da vari organi di informazione controllati dalla stessa Federazione[33].

Il suddetto Regolamento è stato anche preceduto da una dichiarazione del Presidente della Commissione europea, Ursula von der Leyen, che anticipava le misure in corso di adozione al fine di rispondere all’invasione dell’Ucraina[34].

Con questo Regolamento, il Consiglio dell’Unione dà atto che:

«Vista la gravità della situazione, e in risposta alle azioni della Russia che destabilizzano la situazione in Ucraina, è necessario, coerentemente con i diritti e le libertà fondamentali riconosciuti nella Carta dei diritti fondamentali, in particolare con il diritto alla libertà di espressione e informazioni come riconosciuto all’articolo 11 dello stesso, di introdurre ulteriori misure restrittive per sospendere urgentemente le attività di radiodiffusione di tali organi di informazione nell’Unione, o dirette all’Unione. (…)» (considerando 10)[35].

Il Regolamento (UE) 2022/350 spiega che «Le misure rientrano nell’ambito di applicazione del trattato e, pertanto, in particolare al fine di garantirne l’applicazione uniforme in tutti gli Stati membri, è necessaria un’azione normativa a livello dell’Unione».

Esso riguarda principalmente (ma non esclusivamente) le trasmissioni ricadenti sotto la giurisdizione di uno Stato terzo rispetto a quelli dell’Unione e, pertanto, in quanto tali – di regola – non soggette all’applicazione della Direttiva 2018/1808/UE[36]. Si tratta di trasmissioni principalmente soggette alla Carta europea dei Diritti dell’Uomo e alle sopracitate Convenzioni internazionali, ovverossia a strumenti internazionali che consentono la limitazione della circolazione di trasmissioni nei singoli Stati aderenti nella misura in cui esse contrastino con la sicurezza nazionale o con la salute pubblica degli Stati riceventi[37]. Più in generale, il Regolamento concerne gli organismi di informazione controllati dalla Federazione russa e si pone l’obiettivo di contrastare la cd. propaganda russa[38].

Le limitazioni ivi previste vengono imposte dal Consiglio dell’Unione europea con un regolamento vista la necessità di garantire un approccio omogeneo e, date le circostanze, anche immediato[39].

La normativa, adottata dal Consiglio dell’Unione in tempi record, sembrerebbe riferirsi, ad una prima lettura, alle sole trasmissioni televisive. Invero, occorre considerare che tale normativa non rappresenta il frutto di atti dell’Unione europea adottati nell’ambito dell’esercizio delle competenze materiali di quest’ultima ai sensi del TFUE, rappresentando piuttosto una particolare disciplina ai sensi del TUE. Ne consegue che la sua portata è funzionalmente più ampia delle discipline settoriali europee che trovano la loro base giuridica nel TFUE.

Per questa ragione, il riferimento ai «contenuti» delle trasmissioni di canali televisivi e l’espressione esemplificativa contenuta negli atti recentemente adottati dal Consiglio dell’Unione[40] dovrebbero essere letti principalmente alla luce degli scopi fondamentali che tali atti si prefiggono, ovverossia di impedire il dilagare negli Stati membri della disinformazione proveniente dagli organi di informazione controllati dalla Federazione russa e, più in generale, tutelare l’ordine pubblico UE.

Infatti, con questo Regolamento, il Consiglio dell’Unione Europea vieta:

«agli operatori la radiodiffusione, ovvero il conferimento della capacità di diffondere, l’agevolazione della radiodiffusione o altro concorso a tal fine, dei contenuti delle persone giuridiche, delle entità o degli organismi elencati nell’allegato XV, anche sotto forma di trasmissione o distribuzione tramite mezzi quali cavo, satellite, IP-TV, fornitori di servizi internet, piattaforma o applicazione di condivisione di video su internet, siano essi nuovi o preinstallati»[41] (Articolo 1).

Inoltre:

«sono sospesi qualsiasi licenza o autorizzazione di radiodiffusione e qualsiasi accordo di trasmissione e distribuzione con le persone giuridiche, le entità o gli organismi elencati nell’allegato XV» (Articolo 2).

L’Allegato XV elenca le seguenti persone giuridiche, entità o organismi: Russia Today English, Russia Today UK, Russia Today Germany, Russia Today France, Russia Today Spanish, Sputnik[42].

Il Regolamento 2022/350 sembra dunque avere una portata ampia sotto il profilo oggettivo in quanto, dopo aver individuato le persone giuridiche/entità/organismi indicati nell’allegato XV (di seguito: i «Soggetti»), vieta ogni forma di diffusione (sia essa una «trasmissione» o una «distribuzione»)[43], nonché ogni forma di concorso alla diffusione, attraverso ogni mezzo a distanza ed attraverso ogni «fornitore di servizi internet, piattaforma o applicazione», dei «contenuti» irradiati dai soggetti elencati. Volutamente la norma non dà enfasi nella sua elencazione (meramente esemplificativa) alla diffusione su reti terrestri, essendo questa diffusione limitata geograficamente al territorio di ciascuno Stato (ed essendo sotto la responsabilità editoriale di soggetti – i fornitori di servizi di media audiovisivi lineari[44] – facilmente identificabili dai singoli Stati membri)[45], mentre vieta ogni forma di diffusione al pubblico di tali contenuti (via cavo, satellite e/o) via internet, sia essa una trasmissione attraverso internet aperta o internet gestita (rete IPTV)[46], ivi inclusa la fruizione che avvenga attraverso qualsiasi piattaforma di condivisione di video o applicazione, nuova o preinstallata[47]. L’obiettivo del Consiglio dell’Unione europea è quindi di coprire ogni diffusione dei Soggetti che tecnicamente abbia la potenzialità di andare oltre i confini della Federazione russa, con particolare riferimento a modalità tecniche di diffusione quali il satellite ed internet.

In conclusione, il Regolamento risulta coprire ogni e qualsiasi «contenuto» diffuso dai Soggetti, direttamente o tramite terzi (gli «operatori»), «anche sotto forma di trasmissione o distribuzione» anche tramite fornitori di servizi internet. Quest’ultima formulazione è anch’essa volutamente ampia in modo da coprire la distribuzione dei contenuti vietati che avvenga attraverso ogni e qualsiasi tipologia di ISP, sia esso un mere carrier, un hosting provider o un caching provider. Inoltre, l’ampiezza della portata del Regolamento è tale da estendere il divieto anche alla messa a disposizione dei contenuti vietati mediante qualsiasi piattaforma di condivisione o attraverso qualsiasi applicazione, sia essa preinstallata o meno.

D’altro canto, appare naturale che lo sviluppo di internet abbia richiesto al legislatore europeo la necessità di adottare formulazioni sufficientemente elastiche in modo da includere ogni forma di diffusione a distanza oggi disponibile per la fruizione di contenuti. Si noti che il termine «contenuti» è anche esso volutamente ampio in modo da comprendere non solo contenuti audiovisivi, ma anche solo contenuti audio[48].

A completamento di tale quadro, il Consiglio dell’Unione europea prevede inoltre che:

«Sono sospesi qualsiasi licenza o autorizzazione di radiodiffusione e qualsiasi accordo di trasmissione e distribuzione con le persone giuridiche, le entità o gli organismi elencati nell’allegato XV»[49].

La norma previene l’insorgenza di dubbi in merito a possibili temi di responsabilità contrattuale (o precontrattuale). Più in particolare, essa etero-integra ogni rapporto tra privati avente ad oggetto licenze, autorizzazioni o la distribuzione di «contenuti» dei Soggetti, imponendo la sospensione della relativa esecuzione conformemente al regolamento in esame. In particolare, la norma sembra rientrare tra i casi di impossibilità oggettiva dell’esecuzione di obbligazioni, ovverossia sembra disciplinare specifiche cause di esonero da responsabilità per factum principis.

Giova notare che tale norma stabilisce la «sospensione» degli accordi in essere e non la loro interruzione definitiva, sottintendendo che, quantomeno allo stato, siamo in presenza di un’impossibilità temporanea della loro esecuzione, con conseguente esonero del debitore da responsabilità per l’intero perdurare dell’impossibilità[50].

Infatti, le misure restrittive previste dal Regolamento (UE) 2022/350 saranno mantenute «fino a quando l’aggressione nei confronti dell’Ucraina non sarà cessata e fino a quando la Federazione russa e gli organi di informazione ad essa associati non avranno cessato di condurre azioni di propaganda contro l’Unione e i suoi Stati membri» (considerando 10 della Decisione 2014/512/PESC).

Il Regolamento (UE) 833/2014 prevede che sono gli Stati membri a stabilire

le «norme sulle sanzioni applicabili alle violazioni delle disposizioni del presente regolamento e adottano tutte le misure necessarie per garantirne l’attuazione. Le sanzioni devono essere effettive, proporzionate e dissuasive.» (Articolo 8)

Inoltre:

«Gli Stati membri designano le autorità competenti di cui al presente regolamento e le identificano sui siti web elencati nell’allegato I. Gli Stati membri notificano alla Commissione le eventuali modifiche degli indirizzi dei loro siti web elencati nell’allegato I. 2. Gli Stati membri notificano alla Commissione le proprie autorità competenti, compresi gli estremi delle stesse, subito dopo l’entrata in vigore del presente regolamento e informano la Commissione di ogni eventuale successiva modifica»[51].

In Italia, le sanzioni penali e amministrative sono disposte dal D.lgs. 15 dicembre 2017, n. 221 e dal D. lgs. 22 giugno 2007, n. 109 con riferimento alla violazione di divieti che non sembrano – almeno allo stato –  riguardare però le norme qui in esame[52]. Tuttavia, non si può del tutto escludere che possano entrare in campo le sanzioni di cui all’Articolo 30 del Codice delle Comunicazioni Elettroniche adottato con Decreto Lgs. 8 novembre 2021, n. 207[53].

Non sembra inoltre essere stata identificata l’Autorità competente per l’applicazione e la vigilanza del rispetto del Regolamento (UE) 2022/350. A riguardo, le Autorità in campo potrebbero essere almeno le seguenti: il Ministero degli Affari esteri e/o il Ministero dello Sviluppo Economico e/o l’Autorità per le Garanzie nelle Comunicazioni, tenendo conto che – in considerazione della materia – non possiamo escludere che anche le autorità giudiziarie possano intervenire a seguito di comunicazioni ricevute dagli Internet Service Provider (combinato disposto delle norme del Regolamento in esame e della Direttiva 2000/31/CE)[54].

 

 

3.3 Il rapporto tra la Decisione PESC 2022/351 e il Regolamento 2022/350 (da un lato) e (dall’altro lato) le norme convenzionali e quelle contenute nella Carta europea dei Diritti dell’Uomo

Un altro tema di interesse con riguardo agli atti adottati recentemente dal Consiglio dell’Unione ed oggetto di questa analisi è quello del loro rapporto con le norme convenzionali e con quelle della Carta.

Tali norme sanciscono che limitazioni alla libera circolazione delle informazioni possono essere imposte solo sulla base di «leggi». Come previsto dall’articolo 24, par. 1, secondo comma, del TUE, gli «atti che possono essere adottati nell’ambito PESC non hanno mai carattere legislativo», fermo restando che essi «vincolano gli Stati membri» nella «conduzione della loro azione» (Cfr. anche articolo 24, par. 3)[55].

Tuttavia, la nozione di legge indicata dalla Carta e dalla CEDU non coincide con quella di atti legislativi dell’Unione, che ricomprende i regolamenti, le direttive e le decisioni adottati con procedura legislativa, ordinaria ovvero speciale.

In tal senso si è espressa la giurisprudenza dell’Unione concernente le limitazioni alla libertà di espressione e informazione previste dalla legge, riconoscendo, in particolare, la legittimità delle misure restrittive adottate dall’Unione nel 2014, relative ad azioni che compromettono l’integrità territoriale, la sovranità e l’indipendenza dell’Ucraina, in quanto

«sono enunciate in atti di portata generale e che presentano, in primo luogo, basi giuridiche chiare nel diritto dell’Unione, ossia l’articolo 29 TUE e l’articolo 215 TFUE, e, in secondo luogo, una motivazione sufficiente riguardo tanto alla loro portata quanto alle ragioni della loro applicazione al ricorrente»[56]

Peraltro, gli atti adottati nell’ambito della PESC in esame non sembrerebbero avere quale loro oggetto specifico la limitazione della libera circolazione delle informazioni, quanto piuttosto l’imposizione di misure restrittive (cd. sanzioni) nei confronti di talune persone fisiche e giuridiche.

Come riconosciuto, le misure deliberate sulla base del secondo paragrafo dell’Articolo 215 TFUE «possono […] essere utilizzate per combattere fenomeni diversi dal terrorismo internazionale e possono concretizzarsi in sanzioni di natura non necessariamente economico-finanziaria»[57]. Pertanto, esse possono colpire soggetti (e non solo Stati terzi) che pongono in essere campagne di disinformazione[58].

Che la disinformazione possa rappresentare una modalità di estrinsecazione della guerra, lo ha riconosciuto recentemente anche il Tribunale dell’Unione nel respingere il ricorso d’urgenza dell’emittente RT France contro la decisione 2022/351 ed il Regolamento 2022/350[59].

D’altro canto, i soggetti (persone fisiche o giuridiche) destinatari di decisioni PESC/regolamenti ex Articolo 215 TFFUE godono in ogni caso della garanzia della tutela dei propri diritti, come riconosciuto nella sentenza Rosneft della Corte di Giustizia[60]. 

Con quest’ultima sentenza, la Corte di Giustizia ha osservato che

«come risulta tanto dall’articolo 2 TUE, che figura tra le disposizioni comuni del Trattato UE, quanto dall’articolo 21 TUE, relativo all’azione esterna dell’Unione, cui rinvia l’articolo 23 TUE relativo alla PESC, l’Unione è segnatamente fondata sul valore dello Stato di diritto»[61].

Inoltre, nel richiamare l’Articolo 47, par. 1 della Carta [della carta dei diritti fondamentali dell’Unione europea][62], la Corte di Giustizia afferma che «l’esistenza stessa di un controllo giurisdizionale effettivo, destinato ad assicurare il rispetto delle disposizioni del diritto dell’Unione, è intrinseca all’esistenza di uno Stato di diritto […]».

La Corte ha anche precisato che, sebbene «l’art. 47 della Carta non possa creare una competenza per la Corte qualora i Trattati la escludano, il principio della tutela giurisdizionale effettiva implica tuttavia che l’esclusione della competenza della Corte in materia di PESC vada interpretata restrittivamente» (par. 74). In aggiunta, essa esclude che il controllo di legittimità sulle decisioni PESC aventi ad oggetto misure restrittive possa essere svolto unicamente dai giudici nazionali (par. 78), richiamando, a supporto di questa conclusione, la «necessaria coerenza del sistema di tutela giurisdizionale» dell’Unione, il fatto di essere nella «posizione migliore per pronunciarsi sulla validità degli atti dell’Unione, tenuto conto delle possibilità di cui dispone, nell’ambito del procedimento pregiudiziale, da un lato, di raccogliere osservazioni degli Stati membri e delle istituzioni dell’Unione i cui atti sono oggetto di contestazione e, dall’altro, di chiedere agli Stati membri e alle istituzioni, agli organi o agli organismi dell’Unione che non sono parti in causa, tutte le informazioni che ritenga necessarie ai fini del processo» (par. 79),  e che «l’obiettivo essenziale dell’articolo 267 TFUE, che è quello di garantire l’uniforme applicazione del diritto dell’Unione da parte dei giudici nazionali» laddove «divergenze fra i giudici degli Stati membri circa la validità di un atto dell’Unione potrebbero compromettere l’unità stessa dell’ordinamento giuridico di quest’ultima e ledere il principio fondamentale della certezza del diritto» (par. 80)[63].

 

 

3.4 Il ricorso dell’emittente RT France al Tribunale dell’Unione contro la Decisione ed il Regolamento 2022/350

Una più completa e definitiva risposta sul tema della legittimità degli atti recentemente adottati dal Consiglio dell’Unione potrà venire dalla decisione finale sul ricorso proposto l’8 marzo 2022 — RT France / Consiglio (Causa T-125/22). Con questo ricorso viene chiesto l’annullamento della decisione (PESC) 2022/351 e del Regolamento (UE) 2022/350 sulla base dei seguenti motivi: 1) violazione dei diritti della difesa, nonché del principio del contraddittorio, garantiti dagli articoli 41 e 48 della Carta dei diritti fondamentali dell’Unione europea; 2) violazione della libertà di espressione e d’informazione garantita dall’articolo 11 della Carta dei diritti fondamentali; 3) violazione della libertà d’impresa tutelata dall’articolo 16 della Carta dei diritti fondamentali; 4) violazione del principio di non discriminazione derivante dall’articolo 21 della Carta dei diritti fondamentali.

Infatti, l’8 marzo 2022 la società RT France, canale francese appartenente al gruppo Russia Today, ha presentato al Tribunale dell’Unione europea un ricorso di annullamento contro tali atti, chiedendo contestualmente un provvedimento d’urgenza per la sospensione della loro efficacia in ragione del danno grave e irreparabile derivante dal blocco delle sue trasmissioni imposto dagli stessi.

Con l’ordinanza del 30 marzo (T-125/22 R, RT France c. Consiglio), il Presidente del Tribunale UE ha respinto la domanda non ritenendo  soddisfatta la condizione relativa all’urgenza. In particolare, il Tribunale ha affermato che

«il convient de rappeler que les activités de diffusion de la requérante dans l’Union ou en direction de l’Union n’ont été suspendues que temporairement, jusqu’au 31 juillet 2022 ou jusqu’à ce que l’agression contre l’Ukraine prenne fin. Les actes attaqués n’empêchent pas la requérante de diffuser ses contenus en dehors de l’Union, y compris en Afrique francophone ou au Canada, et ses employés d’exercer dans l’Union d’autres activités que la diffusion, telles que les enquêtes et des entretiens, comme rappelés dans le considérant 11 des deux actes attaqués.» (par. 44)[64].

In particolare, il Tribunale UE ha sottolineato la necessità di proteggere immediatamente l’Unione europea ed i singoli Stati membri contro le campagne di disinformazione e di destabilizzazione operate dai media controllati dalla Federazione russa dal momento che minacciano l’ordine pubblico e la sicurezza dell’Unione. Si tratta di un’aggressione ai valori fondamentali unionali e, in mancanza della sospensione di tali attività (per la quale sono stati fatti valere interessi espressione di una società di diritto privato), i danni (materiali ed immateriali) sarebbero irrimediabili[65].

Come sopra anticipato, la decisione finale sul merito del ricorso, tuttora pendente, potrà rappresentare un precedente importante sulla questione inedita sottoposta all’esame delle corti europee.

 

 

  1. La Direttiva 2018/1808/UE e la Convenzione sulla Televisione Transfrontaliera quali strumenti “ordinari” di reazione alla disinformazione proveniente da servizi audiovisivi soggetti alla giurisdizione di uno Stato membro (nel caso della Direttiva) o di uno Stato aderente (alla Convenzione)

In materia di trasmissione di contenuti audiovisivi, il primo presidio normativo, oggetto di armonizzazione nell’Unione europea, è offerto dalle discipline nazionali di attuazione della Direttiva 89/552/CEE[66], come modificata prima dalla Direttiva 97/36/CE[67], dalla Direttiva 2007/65/CE[68], dalla Direttiva 2010/13/UE[69] ed infine dalla Direttiva 2018/1808/UE[70] (di seguito, le Direttive ora dette, come via via modificate e/o sostituite ed oggi vigenti: la «Direttiva SMA» o «Direttiva sui Servizi di Media Audiovisivi»). La Direttiva 2018/1808/UE è stata attuata in Italia con il d. lgs. 208/2021 (che ha dettato il nuovo «TUSMA», Testo Unico per la fornitura dei Servizi di Media Audiovisivi).

Vi è anche la Convenzione europea sulla Televisione Transfrontaliera[71] (cui la Russia non ha sin qui aderito)[72], che – con riguardo agli Stati aderenti al Consiglio d’Europa e che abbiano aderito a tale Convenzione[73] – offre un quadro giuridico per garantire la libera circolazione dei programmi della televisione transfrontaliera in Europa. Infatti, anche la Convenzione recepisce il principio del «paese di origine» della trasmissione (quale criterio di determinazione della giurisdizione regolante il singolo «Servizio di programmi»[74]). La Convenzione rispecchia essenzialmente le direttive adottate dall’Unione europea con riguardo al settore televisivo; tuttavia, essa è aggiornata alla Direttiva televisione senza frontiere come emendata dalla direttiva 97/36/CE[75]. L’ambito di applicazione della Convenzione si presenta quindi più ristretto rispetto a quello della Direttiva SMA poiché la Convenzione disciplina esclusivamente i servizi di trasmissione televisiva e non copre anche i servizi di media audiovisivi a richiesta ed i servizi di piattaforma per la condivisione di video, come invece fa la Direttiva SMA.

In particolare, la Direttiva SMA si basa sul principio «del paese di origine», in base al quale i fornitori di servizi di media devono essere soggetti soltanto alle leggi e alla giurisdizione del loro Stato membro di origine (quale determinato nella Direttiva SMA), anche nel caso in cui i loro programmi siano ricevuti e/o ritrasmessi in un altro Stato membro.

La giurisdizione applicabile al fornitore di servizi di media audiovisivi viene determinata sulla base di criteri specifici stabiliti nella Direttiva SMA[76]. Per i fornitori di servizi di media che trasmettono via satellite, vengono previsti criteri secondari nel caso in cui i criteri individuati prioritariamente dalla Direttiva SMA non siano applicabili[77]. Nel caso in cui nessuno di tali criteri sia applicabile, lo Stato membro competente sarà quello in cui il fornitore è stabilito ai sensi degli articoli da 49 a 55 del TFUE[78].

Nel caso di un servizio di media audiovisivo di un Paese terzo, lo stesso potrà essere soggetto alla giurisdizione di uno degli Stati membri unionali se saranno soddisfatti i criteri di cui all’articolo 2 della Direttiva SMA. Ove invece le condizioni di cui al suddetto articolo 2 non siano soddisfatte per uno o più Stati membri, questi ultimi hanno la facoltà di adottare i provvedimenti che ritengano più appropriati, a condizione che tali misure rispettino il diritto dell’Unione (tra cui anche l’Articolo 10 della CEDU e l’Articolo 11 della Carta dei diritti fondamentali dell’Unione europea)[79] e, ove applicabili, i limiti posti dalla Convenzione europea sulla Televisione Transfrontaliera[80].

Abbiamo già visto che la Russia non ha ratificato quest’ultima Convenzione e, pertanto, i singoli Stati membri dell’Unione europea, nonché quelli parti della Convenzione, possono adottare nei confronti delle trasmissioni  provenienti dalla Russia (e non solo quelle identificate dal Regolamento 2022/350) che possano ledere il «principio di sovranità» del singolo Stato membro i provvedimenti che essi ritengano più opportuni, fermo però il rispetto dei  limiti posti dalle Convenzioni internazionali e dalla Carta dei diritti fondamentali dell’Unione europea. Invece, come anticipato, agli organismi di informazione con sede in Stati membri, controllati da soggetti aventi la propria sede nella Federazione russa[81] ed in ultima istanza controllati dalla Federazione russa, si possono applicare anche le discipline nazionali di attuazione della Direttiva SMA[82]. Infatti, già prima del Regolamento (UE) 2022/350, le Autorità regolamentari di alcuni Stati membri dell’Unione europea hanno reagito con misure di contrasto alla disinformazione proveniente da fornitori di media audiovisivi controllati dalla Federazione russa essendo stati ritenuti una minaccia alla sicurezza nazionale. Queste misure si basano prevalentemente sull’Articolo 3, comma 3, della Direttiva SMA[83].

Sempre con riguardo alla Direttiva 2018/1808/UE, è utile notare che con essa viene ora dettata una disciplina unitaria – per servizi lineari e non lineari – dei presupposti in base ai quali uno Stato membro può limitare la libertà di ricezione di una trasmissione proveniente da altro Stato membro (e che non sia sotto la giurisdizione del primo Stato). Pertanto, con l’entrata in vigore della Direttiva 2018/1808/UE, l’approccio di fondo della Direttiva sui servizi di media audiovisivi 2010/13/UE è stato confermato ed anzi sono stati aumentati i poteri degli Stati membri al fine di far fronte ai fenomeni di «aggiramento» delle regole nazionali più severe rispetto a quelle armonizzate, anche con riguardo alla tutela di valori fondamentali del singolo Stato membro[84]. In particolare, la Direttiva prevede, in generale, la possibilità di limitare le trasmissioni provenienti da fornitori di servizi di media assoggettati alla giurisdizione di altro Stato membro è consentita: a) per le ipotesi di evidente, grave e seria violazione delle norme a tutela dei minori, o nel caso b) di violazione del divieto di incitamento all’odio o istigazione alla violenza, o c) di rischio di un grave pregiudizio per la salute pubblica, o per la sicurezza pubblica o d) di incitamento al compimento di atti di terrorismo. Inoltre, il considerando 10 precisa che la libertà di ritrasmissione può essere limitata anche per ragioni di ordine pubblico[85].

In aggiunta, la Direttiva 2018/1808/UE prevede misure cautelari a tutela dei singoli Stati membri, stabilendo che è consentito, in casi urgenti, «entro un mese dopo la presunta violazione» derogare alle condizioni ordinarie per regolare il procedimento di limitazione delle trasmissioni di altri Stati membri.

Le misure adottate andranno notificate al più presto alla Commissione e allo Stato membro alla cui giurisdizione è soggetto il fornitore di servizi di media, insieme ai motivi dell’urgenza[86].

La Direttiva 2018/1808/UE include, all’Articolo 28 bis, anche norme sulla identificazione dello Stato membro avente giurisdizione sulle piattaforme on line di condivisione di contenuti, come definite nella stessa Direttiva, ed a questo riguardo ha loro esteso il principio di fondo del «paese di origine» [87].

In particolare, viene previsto che il fornitore di piattaforma sia assoggettato alla giurisdizione dello Stato membro in cui è stabilito ex artt. 49 ss. TFUE[88]. Ove non sia stabilito in alcuno Stato membro, il fornitore si considera assoggettato alla giurisdizione dello Stato membro in cui è stabilita l’impresa madre o un’impresa figlia o, in mancanza, dello Stato membro in cui è stabilita un’impresa del gruppo[89]. Inoltre, nel caso in cui l’impresa madre, l’impresa figlia o le altre imprese del gruppo siano stabilite in diversi Stati membri, la piattaforma on line sarà assoggettata, secondo un ordine a cascata, alla giurisdizione dello Stato membro in cui è stabilita la sua impresa madre o, in mancanza, alla giurisdizione dello Stato membro in cui è stabilita l’impresa figlia o, in assenza di questa, dello Stato membro dove è stabilita una qualsiasi impresa del gruppo. Nel caso in cui vi siano più imprese figlie stabilite in Stati membri diversi, il fornitore di piattaforma per la condivisione di video si considererà stabilito nello Stato membro in cui una delle imprese figlie ha avviato per prima la propria attività, a condizione che essa abbia un collegamento effettivo e stabile con l’economia di detto Stato membro. Infine, qualora

«nell’applicazione del presente articolo, gli Stati membri interessati non concordino in merito a quale Stato membro abbia la giurisdizione, essi sottopongono senza indugio la questione alla valutazione della Commissione. La Commissione può chiedere all’ERGA di formulare un parere in merito conformemente all’articolo 30 ter, paragrafo 3, lettera d). L’ERGA formula tale parere entro 15 giorni lavorativi dalla presentazione della richiesta da parte della Commissione. La Commissione tiene debitamente informato il comitato di contatto» (Articolo 28 bis, co. 7 della Direttiva 2018/1808/UE).

Come si ricava dalle norme esaminate, il legislatore europeo amplia la nozione di giurisdizione estendendo le proprie regole ad operatori che, di fatto, operano globalmente. Nel fare questo, tuttavia, il legislatore europeo non estende alle piattaforme on line norme analoghe a quelle previste per i fornitori di servizi di media audiovisivi con riguardo alla limitazione di attività provenienti da piattaforme assoggettate alla giurisdizione di un altro Stato membro qualora queste ultime violino in maniera evidente, grave e seria le norme a tutela dei minori o sul divieto di incitamento all’odio o istigazione alla violenza, o in caso di rischio di un grave pregiudizio per la salute pubblica, o per la sicurezza pubblica o nelle ipotesi di incitamento al compimento di atti di terrorismo[90]. Questa – che appare quantomeno allo stato, una lacuna[91] – potrebbe forse essere superata in futuro dal Regolamento DSA (che sarà oggetto di analisi nel Capitolo 9), dal momento che quest’ultimo rappresenta un’integrazione (anche) della Direttiva SMA.

 

  1. Il Regolamento UE 2022/350 ed il Regolamento Open Internet

Ci si potrebbe chiedere se l’adozione di misure da parte dei fornitori di accesso ad internet ai sensi del Regolamento (UE) 2022/350 possa rappresentare una deroga alle norme del Regolamento Open Internet[92]. La risposta è che tali fornitori ottemperando a segnalazioni fondate su tale Regolamento invero sono pienamente conformi anche alle norme del Regolamento Open Internet.

Infatti, il Regolamento Open Internet ha l’obiettivo di far sì che sia garantito un trattamento equo e non discriminatorio del traffico nella fornitura di servizi di accesso a internet e che siano tutelati i relativi diritti degli utenti finali. Tuttavia, esso contiene una previsione che giustifica talune limitazioni quando siano finalizzate all’attuazione di misure conformi al diritto dell’Unione.

In particolare, la possibilità di limitare la diffusione di contenuti trasmessi on line per ottemperare a tali tipi di misure è conforme al Regolamento Open Internet, che prevede che:

«I fornitori di servizi di accesso a Internet non […] bloccano, rallentano, alterano, limitano, interferiscono con, degradano o discriminano tra specifici contenuti, applicazioni o servizi, o loro specifiche categorie, salvo ove necessario e solo per il tempo necessario a: […] conformarsi ad atti legislativi dell’Unione o alla normativa nazionale conforme al diritto dell’Unione, cui il fornitore di servizi di accesso a Internet è soggetto, o alle misure conformi al diritto dell’Unione che danno attuazione a tali atti legislativi dell’Unione o a tale normativa nazionale, compreso ai provvedimenti giudiziari o di autorità pubbliche investite di poteri pertinenti; […]» (Articolo 3(3)).

Secondo quanto precisato al considerando 6 del Regolamento Open Internet, il diritto degli utenti di accedere

«a informazioni e contenuti e di diffonderli, nonché di utilizzare e fornire applicazioni e servizi senza discriminazioni, tramite il loro servizio di accesso a Internet, lascia impregiudicato il diritto dell’Unione o quello nazionale a esso conforme in materia di legittimità dei contenuti, delle applicazioni o dei servizi. Il (…) regolamento non cerca di disciplinare la legittimità dei contenuti, delle applicazioni o dei servizi, né cerca di disciplinare le procedure, i requisiti e le garanzie a essi collegati. Tali materie continuano pertanto a essere disciplinate dal diritto dell’Unione o da quello nazionale a essa conforme.».

 

 

  1. Il Regolamento (UE) 2022/350 e la Direttiva sul commercio elettronico

La Direttiva sul commercio elettronico riconosce che:

«Secondo l’articolo 14, paragrafo 2, del trattato, il mercato interno implica uno spazio senza frontiere interne, in cui sono garantiti la libera circolazione delle merci e dei servizi, nonché il diritto di stabilimento. Lo sviluppo dei servizi della società dell’informazione nello spazio senza frontiere interne è uno strumento essenziale per eliminare le barriere che dividono i popoli europei» (cons. 1), che «Il diritto comunitario e le caratteristiche dell’ordinamento giuridico comunitario costituiscono una risorsa essenziale affinché i cittadini e gli operatori europei possano usufruire appieno e al di là delle frontiere delle opportunità offerte dal commercio elettronico.» (cons. 3)

e che il suo obiettivo è di

«garantire un elevato livello di integrazione giuridica comunitaria al fine di instaurare un vero e proprio spazio senza frontiere interne per i servizi della società dell’informazione.» (cons. 3).

Essa precisa inoltre che:

«La libera circolazione dei servizi della società dell’informazione può in numerosi casi riflettere specificamente nel diritto comunitario un principio più generale, e cioè la libertà di espressione prevista all’articolo 10, paragrafo 1, della Convenzione per la salvaguardia dei diritti dell’uomo e delle libertà fondamentali che è stata ratificata da tutti gli Stati membri.»[93].

Per questo motivo, le direttive che si riferiscono alla prestazione di servizi della società dell’informazione devono assicurare che

«questa attività possa essere svolta liberamente alla luce di tale articolo sottoposta soltanto alle restrizioni di cui al paragrafo 2 di tale articolo [10 della suddetta Convenzione ndr] e all’articolo 46, paragrafo 1, del trattato. La presente direttiva non è volta ad incidere sui principi e sulle norme fondamentali nazionali in materia di libertà di espressione.»[94].

Ai sensi dell’Articolo 3, commi 4 e 5 della direttiva in esame:

«[1.] Ogni Stato membro provvede affinché i servizi della società dell’informazione, forniti da un prestatore stabilito nel suo territorio, rispettino le disposizioni nazionali vigenti in detto Stato membro nell’ambito regolamentato. [2.] Gli Stati membri non possono, per motivi che rientrano nell’ambito regolamentato, limitare la libera circolazione dei servizi società dell’informazione provenienti da un altro Stato membro. […] [4.] Gli Stati membri possono adottare provvedimenti in deroga al paragrafo 2, per quanto concerne un determinato servizio della società dell’informazione, in presenza delle seguenti condizioni: a) i provvedimenti sono: i) necessari per una delle seguenti ragioni: […] – pubblica sicurezza, compresa la salvaguardia della sicurezza, e della difesa nazionale; ii) relativi a un determinato servizio della società dell’informazione lesivo degli obiettivi di cui al punto i) o che costituisca un rischio serio e grave di pregiudizio a tali obiettivi; iii) proporzionati a tali obiettivi; b) prima di adottare i provvedimenti in questione e fatti salvi i procedimenti giudiziari, anche istruttori, e gli atti compiuti nell’ambito di un’indagine penale, lo Stato membro ha: – chiesto allo Stato membro di cui al paragrafo 1 di prendere provvedimenti e questo non li ha presi o essi non erano adeguati; – notificato alla Commissione e allo Stato membro di cui al paragrafo 1 la sua intenzione di prendere tali provvedimenti. [5.] In caso di urgenza, gli Stati membri possono derogare alle condizioni di cui al paragrafo 4, lettera b). I provvedimenti vanno allora notificati al più presto alla Commissione e allo Stato membro di cui al paragrafo 1, insieme ai motivi dell’urgenza.»[95].

Si evidenzia sin da ora che il Regolamento DSA sostituisce alcune norme della Direttiva sul commercio elettronico, tra le quali non rientra il suddetto art. 3, come precisa anche il considerando 9 del testo approvato con la Risoluzione legislativa del Parlamento europeo del 5 luglio 2022 che così recita nel suo ultimo periodo (con riguardo alla sua natura di normativa europea di armonizzazione piena delle norme applicabili ai servizi intermediari nel mercato interno):

«Ciò non preclude la possibilità di applicare altre normative nazionali applicabili ai prestatori di servizi intermediari, in conformità del diritto dell’Unione, compresa la direttiva 2000/31/CE, in particolare l’articolo 3, qualora le disposizioni del diritto nazionale perseguano obiettivi legittimi di interesse pubblico diversi da quelli perseguiti dal presente regolamento».

6.1       Il safe harbour degli ISP

La Direttiva sul commercio elettronico è particolarmente nota per aver introdotto un regime speciale di responsabilità per i principali intermediari che operano su internet e, precisamente, per i «mere carrier», gli «hosting» e i «caching» provider e questo anche al fine di sostenere ulteriormente il principio della libera di circolazione dei servizi attraverso internet.

A ciascuna categoria di tali Internet Service Provider (ISP) corrisponde una diversa responsabilità per la diffusione in rete di contenuti illeciti.

L’hosting provider (in entrambe le categorie di passivo/attivo delineate dalla giurisprudenza) gode di un regime di maggiore responsabilità rispetto a quello degli altri provider presi in considerazione dalla Direttiva in esame, dovendosi attivare anche solo sulla base di una diffida che lo renda edotto della propria fornitura di servizi a favore di attività illecite[96]­[97]. A questo riguardo, la Corte di Giustizia ha segnalato, con specifico riferimento ai fornitori di servizi di hosting

«che è sufficiente che il prestatore di servizi sia stato, in qualunque modo, al corrente di fatti o circostanze in base ai quali un operatore economico diligente avrebbe dovuto constatare l’illiceità di cui trattasi (…). Sono quindi contemplate, segnatamente, la situazione in cui il suddetto prestatore scopra l’esistenza di un’attività o di un’informazione illecita a seguito di un esame effettuato di propria iniziativa, nonché la situazione in cui gli sia notificata l’esistenza di un’attività o di un’informazione siffatte. In questo secondo caso, pur se, certamente, una notifica non può far automaticamente venire meno il beneficio dell’esonero dalla responsabilità (…) – stante il fatto che notifiche relative ad attività o informazioni che si asseriscono illecite possono rivelarsi insufficientemente precise e dimostrate – resta pur sempre fatto che essa costituisce, di norma, un elemento di cui il giudice nazionale deve tener conto per valutare, alla luce delle informazioni così trasmesse a tale prestatore, l’effettiva conoscenza da parte di quest’ultimo di fatti o circostanze in base ai quali un operatore economico diligente avrebbe dovuto constatare l’illiceità (sentenza del 12 luglio, L’Oréal e a., C‑324/09, EU:C:2011:474, punto 122).»[98].

Pertanto, la notifica all’hosting provider di un illecito in corso attraverso i suoi servizi costituisce già di per sé una ragione per doversi attivare, anche a prescindere dalla natura o dalla modalità della comunicazione ricevuta e comunque quando, sulla base dei generali criteri di diligenza e ragionevolezza, lo stesso sia in grado di attivarsi per impedire la prosecuzione dell’illecito[99][100].

Sui doveri di attivazione dell’hosting passivo e di quello attivo si tornerà infra al § 6.2, mentre qui ci soffermiamo sul caching provider ed il mere carrier.

Il caching provider gode di un regime di responsabilità minore rispetto a quello dell’hosting provider. La sua responsabilità scatta con l’adozione di provvedimenti inibitori da parte della competente autorità giudiziaria o amministrativa avente funzioni di vigilanza oppure quando tali contenuti illeciti sono stati rimossi in conseguenza di attività del legittimo titolare (inclusi provvedimenti di competenti Autorità) dal sito sorgente[101]. Anche per il provider di servizi di caching si registra comunque un’evoluzione della giurisprudenza nel senso di una loro responsabilizzazione a seguito della ricezione dell’ordine dell’Autorità competente con riguardo alla rimozione pro futuro degli stessi contenuti o di contenuti ad essi equivalenti «previa specifica segnalazione» da parte dei soggetti interessati «delle modifiche della condotta lesiva che richiedano nuovi adempimenti da parte del soggetto passivo del comando inibitorio» (e cioè a dire dei contenuti equivalenti a quelli già oggetto di segnalazione, inclusi i siti alias)[102].

Il fornitore di connettività (mere conduit provider) gode di un regime di responsabilità ancor minore non essendo responsabile dei contenuti che trasmette fintanto che non abbia ricevuto un ordine di competenti Autorità[103]. A tale riguardo, la giurisprudenza nazionale ha precisato che i mere carrier sono tenuti ad attivarsi «immediatamente» a fronte di ordini dell’Autorità giudiziaria che chiedano ai provider di disabilitare l’accesso agli indirizzi IP e ai nomi di dominio indicati nella stessa inibitoria, nonché ogni altro «altro indirizzo IP [..] che consenta l’accesso ai menzionati nomi a dominio» così come a tutti gli «alias derivanti da modifiche» del nome di dominio[104] (Cfr. ex plurimis, Trib. Milano 17 luglio 2019). Se ne ricava che per i mere carrier l’indicazione degli indirizzi IP e dei nomi a dominio è essenziale anche nelle segnalazioni successive dei soggetti interessati che siano effettuate sulla base di un ordine di un’Autorità (cfr. infra).

Tutti e tre i provider sono tenuti ad informare i competenti organi qualora siano a conoscenza di presunte attività o informazioni illecite che avvengono in rete e a fornire ogni utile informazione che sia loro richiesta da tali organi.

Alla luce di quanto sopra, si potrebbe ragionevolmente ritenere che il Regolamento del Consiglio dell’Unione 2022/350 possa rivestire le caratteristiche di una decisione di un’Autorità. Tuttavia, non sembra che lo stesso riporti informazioni che possano ritenersi sufficienti per tutte le categorie di ISP in merito alle trasmissioni oggetto di blocco[105].

In questo senso, come anticipato in Premessa, l’obiettivo di questa analisi è (anche) di comprendere se, con riguardo ad internet, si ponga per il suddetto Regolamento un problema interpretativo, o comunque applicativo, per quanto concerne la segnalazione ritenuta idonea a far sorgere obblighi di attivazione in capo agli Internet Service Provider, quantomeno nella misura strettamente necessaria ad assicurare il rispetto dell’Articolo 15 della Direttiva  sul commercio elettronico (Direttiva 2000/31/CE) e tenuto anche conto della diversa natura degli ISP[106].

Più in particolare, ci si chiede se le indicazioni fornite nel Regolamento del Consiglio dell’Unione 2022/350 possano considerarsi di per sé sufficienti a determinare un obbligo, in qualsiasi circostanza, di attivazione immediata per qualsiasi tipo di internet provider, oppure se si sia posta l’opportunità – se non la necessità  – di un’integrazione dello stesso in sede di sua applicazione in ciascuno Stato membro on a case by case basis.

Infatti, potrebbe ritenersi (ed essersi ritenuto di fatto) necessario fornire agli Internet Service Provider “tipici” (e cioè a dire, i fornitori di servizi di mere carrier, hosting e caching) alcune indicazioni “minime” per la corretta identificazione dei contenuti che devono essere oggetto di blocco[107].

A tale riguardo, si osserva che l’Articolo 15 della Direttiva sul commercio elettronico impone il divieto di obblighi di sorveglianza generale dei contenuti presenti sulla rete al fine di bilanciare i diritti dei titolari di diritti sia nei confronti della libertà di impresa degli ISP sia nei confronti della libertà (degli utenti) di ricevere e comunicare informazioni (diritti che trovano tutti una tutela nella Carta dei diritti fondamentali dell’Unione europea)[108].

Sembra peraltro pacifico che questo divieto oggi si estenda a qualsiasi ISP e così dunque, nel caso di un hosting provider, che esso si applichi sia all’hosting attivo sia a quello passivo[109], come riconosciuto anche dalla giurisprudenza nazionale. Quest’ultima, infatti, ha affermato che

«secondo il costante orientamento giurisprudenziale della Corte di Giustizia, nemmeno l’hosting “attivo” può essere assoggettato ad un obbligo generalizzato di sorveglianza e di controllo preventivo del materiale immesso in rete dagli utenti (destinatari del servizio), in quanto ciò si risolverebbe in una inammissibile compressione del diritto di informazione e della libertà di espressione e comprometterebbe il necessario equilibrio che deve esserci tra la tutela del diritto d’autore e la libertà di impresa nel campo della comunicazione. La Corte, infatti, ha ritenuto inammissibile l’imposizione in capo all’ISP di sistemi di filtraggio dei contenuti digitali a tutela dei diritti di proprietà intellettuale che riguardino tutte le comunicazioni elettroniche che transitano sui suoi servizi, di tutta la sua clientela, a titolo preventivo a sue spese esclusive e senza limiti di tempo, trattandosi di una sorta di obbligo generalizzato di sorveglianza ex ante.»[110].

Pertanto, laddove l’ordine contenuto nel Regolamento 2022/350 non possa considerarsi sufficiente, ad esempio con riferimento al caricamento da parte degli utenti di contenuti tratti dai segnali delle emittenti russe oggetto di divieto, si pone il tema del rispetto dell’articolo 15 della Direttiva sul commercio elettronico e degli Articoli 11 (libertà di comunicazione e di espressione), 16 (libertà di impresa), 17, paragrafo 2 (diritto di proprietà intellettuale) e 13 (libertà delle arti) della Carta, nonché dell’articolo 52, paragrafo 1, della Carta, secondo cui eventuali limitazioni all’esercizio dei diritti e delle libertà riconosciuti dalla Carta devono (oltre che essere previste dalla legge) rispettare il contenuto essenziale di detti diritti e libertà.

D’altro canto, è pur vero che il divieto di cui all’Articolo 15 della Direttiva sul commercio elettronico, come emerge dal considerando 47 della suddetta Direttiva, non riguarda gli obblighi di sorveglianza successiva «in casi specifici»[111] nel senso che, per gli stessi contenuti già oggetto di segnalazione o per quelli  equivalenti, gli ISP sono tenuti – anche in ragione degli obblighi di diligenza di cui al considerando 48 della stessa Direttiva[112] – a prevenire l’attività illecita dotandosi di meccanismi idonei ad impedire future violazioni dei diritti[113]. Non si tratterebbe infatti, in questo caso, di obblighi di filtraggio di carattere generalizzato, bensì limitati a casi circostanziati già oggetto di iniziale segnalazione o ordine[114] e che si possono estendere a qualsiasi ISP[115], seppur dall’analisi della giurisprudenza nazionale, quantomeno quella cautelare che si è avuta sin qui, emerga piuttosto chiaramente che anche in caso di ordini pro-futuro (cd. ingiunzioni dinamiche) sia sempre necessaria una previa segnalazione del titolare/ricorrente quantomeno per l’hosting passivo, il mere carrier ed il fornitore di servizi di caching[116]. Tale segnalazione dovrà in particolare indicare le «modifiche della condotta lesiva che richiedano nuovi adempimenti da parte del soggetto passivo del comando inibitorio»: e ciò con riguardo a qualsiasi servizio della società dell’informazione «comunque qualificati o qualificabili erogati per l’accesso a[i]servizi illeciti oggetto di inibitoria»[117].

Pertanto, in presenza di un ordine che riporti gli «elementi specifici» che possano essere utilizzati dal provider per l’identificazione delle informazioni da rimuovere, quest’ultimo potrebbe, o meglio sarebbe tenuto a, attivarsi per non incorrere in responsabilità[118]. Sulla base di tale ordine, inoltre, il provider dovrebbe senz’altro attivarsi anche per ogni modifica della condotta oggetto di contestazione che sia segnalata dall’interessato.

Il tema – piuttosto complesso – che rimane è dunque di comprendere se l’ordine contenuto nel Regolamento 2022/350 sia già di per sé specifico e sufficiente in modo da determinare l’immediata attivazione dei provider, nonché pro futuro (per tutta la durata di vigenza del Regolamento citato) per ogni ulteriore diffusione degli stessi contenuti o di contenuti equivalenti rispetto alle iniziali informazioni fornite nello stesso ordine, non ponendosi dunque un problema di violazione dell’articolo 15 della direttiva 2000/31/CE.

 

 

6.2. Le “informazioni” incluse nel Regolamento quali contenuti sufficienti per l’attivazione degli ISP

Come anticipato, anche la giurisprudenza nazionale ritiene che nemmeno l’hosting “attivo” possa essere assoggettato ad un obbligo generalizzato di sorveglianza e di controllo preventivo del materiale immesso in rete dagli utenti (destinatari del servizio). Tuttavia, come illustrato al § 6.1, il divieto di obblighi generali di sorveglianza, in capo agli ISP, delle informazioni “veicolate” attraverso i loro servizi non comporta che gli stessi non abbiano invece obblighi di sorveglianza «in casi specifici»[119].

Di conseguenza, dopo aver ricevuto una diffida e/o un ordine di un’Autorità competente, qualsiasi ISP dovrà bloccare l’accesso alle informazioni memorizzate, il cui contenuto sia identico a quello precedentemente dichiarato illecito. Lo stesso vale per i contenuti equivalenti, purché la segnalazione iniziale contenuta nella suddetta diffida e/o ordine rechi elementi specifici in modo che il prestatore di servizi di hosting interessato non debba effettuare una valutazione autonoma di tale contenuto[120].

Andando più nello specifico, con particolare riguardo all’hosting provider passivo si ritiene che «una notifica dettagliata e puntuale sarebbe in grado di generare una conoscenza effettiva» in capo allo stesso[121][122]. In aggiunta, visto il parametro di cui al considerando 48 della Direttiva sul commercio elettronico, occorrerà avere riguardo al «dovere di diligenza che è ragionevole attendersi» da tale hosting  «al fine di individuare e prevenire taluni tipi di attività illecite».

Anche le ingiunzioni dinamiche del Tribunale di Milano già citate sembrano andare in questo senso, dal momento che laddove l’ordine indichi per l’hosting provider (passivo) indirizzi IP e domain names, le parti interessate dovranno fornire pro-futuro le relative variazioni ai provider (non essendo invece necessaria una nuova inibitoria)[123].

E’ utile segnalare che la Corte di Giustizia ha riconosciuto che, anche in riferimento al semplice hosting passivo, va esclusa l’esenzione di responsabilità prevista dall’Articolo 14 della Direttiva 31/2000/CE quando lo stesso «dopo aver preso conoscenza, mediante un’informazione fornita dalla persona o in altro modo, della natura illecita di [tali]dati o di attività di detti destinatari abbia omesso di prontamente rimuovere tali dati o disabilitare l’accesso agli stessi»[124], con la conseguenza che la conoscenza, comunque acquisita (anche in altro modo rispetto all’ordine di un’autorità competente o alla diffida del titolare dei diritti) dell’illiceità di informazioni memorizzate fa sorgere la sua responsabilità civile e risarcitoria[125]. Inoltre, come già sottolineato, con riferimento alle differenze del  contenuto equivalente rispetto a quello dichiarato illecito, esse «non devono, ad ogni modo, essere tali da costringere il prestatore di servizi di hosting interessato ad effettuare una valutazione autonoma di tale contenuto»[126].

Alla luce di quanto sopra, con riguardo all’hosting passivo, risulta dunque che occorra avere riguardo alle sue caratteristiche tecniche e allo stato della tecnica al fine di individuare la diligenza esigibile da questo provider e, correlativamente, le informazioni necessarie allo stesso per la rimozione dei contenuti in violazione di diritti di terzi.

Quanto invece all’hosting “attivo”, come già precisato, secondo l’orientamento prevalente si ritiene che la segnalazione che si considera idonea a far sorgere una responsabilità in capo allo stesso non necessiti di un’indicazione puntuale di ciascun contenuto in violazione perché il provider si attivi nei confronti di tutti i contenuti dello stesso tipo che siano in violazione dei diritti di terzi. Infatti, come riconosciuto da dottrina autorevole, «è sufficiente per il titolare dei diritti indicare le opere dei cui diritti egli sia titolare e gli elementi che inducano a ritenere che tali opere siano oggetto di violazione sulla piattaforma del provider»[127].

Tipicamente, in considerazione dello stato della tecnica, il provider (attivo o passivo) si dovrà attivare indipendentemente dalla fornitura di specifici URL, ovverossia indipendentemente dalla fornitura dell’indirizzo che indichi la specifica collocazione di tutti i contenuti in violazione. Inoltre, come visto sopra, in ragione dell’obbligo di sorveglianza specifica, l’hosting provider si adopererà per impedire l’ulteriore caricamento di contenuti in violazione identici o equivalenti a quelli già oggetto di segnalazione (e quindi in questo caso il provider non dovrà limitarsi alla eliminazione ex post di contenuti già segnalati ma ne dovrà impedire anche l’ulteriore caricamento), fermo restando che sarà il titolare dei diritti a fornire al provider le modifiche della condotta lesiva in modo da evitare a quest’ultimo di dover effettuare autonome valutazioni[128].

Alla luce di quanto sopra, la giurisprudenza è giunta alla conclusione che l’hosting provider (soprattutto “attivo”), possa, o meglio debba, avvalersi di tecniche di ricerca automatizzate al fine di individuare le “informazioni” oggetto di segnalazione[129]. Si tratta, tuttavia, anche in questo caso di “filtri” che intervengono ex post quanto alla prima segnalazione e che possono intervenire ex ante per gli ulteriori caricamenti dello stesso contenuto o di contenuti analoghi[130]. Anche la Commissione europea va nella stessa direzione nei suoi Orientamenti sull’applicazione dell’Articolo 17 della Direttiva 2019/790 (“Orientamenti”)[131], riconoscendo che la diligenza esigibile dall’hosting “attivo” dipende (anche in questo caso) dallo stato della tecnica, considerati – sempre in un’ottica di proporzionalità – gli strumenti tecnologici dallo stesso provider eventualmente già impiegati per la verifica ed il controllo ex post dei contenuti illeciti[132].

 

 

  1. La Direttiva Digital Single Market

Per disporre di un quadro completo è utile anche soffermarsi, con riguardo alle piattaforme on line (che rappresentano una speciale categoria di hosting provider)[133], sulla disciplina dettata dalla Direttiva DSM. Con quest’ultima normativa europea di armonizzazione è stata introdotta – sebbene agli specifici fini della tutela dei diritti dei titolari di diritti d’autore e/o connessi – una disciplina a se stante che «sembra del tutto obliterare gli approdi giurisprudenziali cui è pervenuta negli anni la Corte di Giustizia»[134], nel senso che tutte le piattaforme on line ivi rientranti effettuano direttamente un atto di comunicazione al pubblico per il solo fatto che danno accesso a contenuti caricati dai propri utenti e sono direttamente responsabili per le violazioni (del diritto d’autore) causate dai contenuti pubblicati dagli utenti, a meno che le stesse non dimostrino di aver adempiuto a tutte le condizioni poste dall’articolo 17, par. 4, lett. a), b) e c)[135]. In particolare, le piattaforme on line soggette alla Direttiva DSM sono tenute [in primo luogo a compiere i massimi sforzi per ottenere una licenza da parte dei titolari dei diritti che legittimi l’eventuale caricamento da parte dei propri utenti di contenuti sui propri servizi e, laddove pur avendo compiuto i massimi sforzi non riescano ad ottenere tale licenza,]ad attivarsi per impedire il caricamento dei contenuti per i quali i relativi titolari abbiano fornito le informazioni («pertinenti» e «necessarie») sufficienti all’identificazione dei contenuti illeciti mediante «strumenti adeguati ed efficaci». Tali informazioni possono essere diverse da piattaforma a piattaforma in considerazione della tipologia del servizio, del pubblico di riferimento, della dimensione del servizio e della tipologia di opere o altro materiale caricato[136], non essendo neppure strettamente necessaria una diffida[137].

Sempre con riferimento alle informazioni ex Articolo 17, § 4, lett. b) (in base al quale la piattaforma deve fare i massimi sforzi per impedire il caricamento di contenuti per i quali i relativi titolari abbiano fornito informazioni «pertinenti e necessarie»), la Commissione fornisce nei suoi Orientamenti  alcune indicazioni in merito, sottolineando che è ragionevole tenere conto delle soluzioni già adottate dalle stesse piattaforme[138]. Così, ad esempio

«qualora si faccia ricorso al fingerprinting, i titolari dei diritti possono essere invitati a fornire un’impronta digitale elettronica dell’opera/del materiale specifico in questione o un file che lo stesso prestatore di servizi sottoporrà a fingerprinting, unitamente a informazioni sulla titolarità dei diritti. Quando si utilizzano soluzioni basate su metadati, le informazioni fornite possono riguardare, ad esempio, il titolo, l’autore/produttore, la durata, la data o altre informazioni pertinenti e necessarie affinché i prestatori di servizi di condivisione di contenuti on line possano intervenire. In tale contesto è importante che i metadati forniti dai titolari dei diritti non siano successivamente rimossi.».

La Direttiva DSM, all’Articolo 17 (§ 4, lett. c, seconda parte), con riguardo alla «rimozione permanente» dei contenuti, richiede che vengano fornite le medesime informazioni «pertinenti e necessarie» di cui alla precedente lett. b)[139]. Ciò implica ad esempio che, se un prestatore di servizi utilizza tecnologie di fingerprinting per evitare futuri caricamenti di opere oggetto di segnalazione, il fatto di ricevere unicamente le informazioni fornite nella segnalazione (ex lettera c) prima parte))[140] non sarebbe sufficiente. Infatti, in tal caso, «per consentire ai prestatori di servizi di impedire futuri caricamenti di opere oggetto di segnalazione, i titolari dei diritti dovrebbero fornire ai prestatori di servizi impronte digitali elettroniche o file con i contenuti»[141].

Inoltre, negli Orientamenti la Commissione sostiene che:

«I prestatori di servizi dovrebbero prestare particolare attenzione e diligenza nell’adempimento del loro obbligo di adoperarsi al meglio prima di caricare contenuti che potrebbero causare un danno economico significativo ai titolari dei diritti (Cfr. sezione V.2).».

Questa affermazione viene svolta nella parte degli Orientamenti che affrontano le valutazioni che la piattaforma deve effettuare, a fronte delle informazioni ricevute dal titolare dei diritti su un contenuto, al fine di comprendere se lo stesso sia manifestamente lesivo di tali diritti. Gli Orientamenti allora precisano che a tale fine

«può essere necessario, ove proporzionato e possibile, una rapida verifica umana ex ante, da parte dei prestatori di servizi di condivisione di contenuti online, dei caricamenti che includano “contenuti” la cui disponibilità potrebbe causare un danno economico significativo identificati da uno strumento automatizzato di riconoscimento dei contenuti. Ciò si applicherebbe ai contenuti particolarmente sensibili al fattore tempo […]. Al fine di garantire il giusto equilibrio tra i diversi diritti fondamentali in gioco, segnatamente la libertà di espressione degli utenti, il diritto di proprietà intellettuale dei titolari dei diritti e il diritto dei prestatori alla libertà d’impresa, tale maggiore attenzione ai contenuti la cui disponibilità potrebbe causare un danno economico significativo dovrebbe essere limitata ai casi di elevato rischio di danni economici significativi, che dovrebbero essere adeguatamente giustificati dai titolari dei diritti. Tale meccanismo non deve comportare un onere sproporzionato per i prestatori di servizi né un obbligo generale di sorveglianza»[142].

Non è d’altro canto chiaro se per tali contenuti il provider debba comunque procedere al loro blocco e poi effettuare una verifica umana ex ante oppure se, anche laddove tale contenuto non appaia manifestamente illecito, il provider debba – in ragione del danno paventato dal titolare dei diritti – procedere comunque ad una verifica umana prima di far caricare il contenuto (normalmente riservata ad un successivo step ovverossia quello previsto dall’Articolo 17, comma 4, lett. c) prima parte)[143].

E’ anche importante notare come molte delle considerazioni svolte dalla Commissione UE negli Orientamenti si ritrovano nelle argomentazioni rappresentate dalla stessa Commissione nel corso della causa C-401/19 relativa all’Articolo 17 della Direttiva DSM[144]. Esse sono dunque utili all’analisi della sentenza resa dalla Corte di Giustizia in tale causa ed a comprendere, in particolare, ai fini di questa analisi, quali siano le “circostanze” in presenza delle quali si giustifichi la pronta attivazione del provider per impedire il caricamento di contenuti oggetto di indicazione da parte dei soggetti interessati o, ex post, la loro rimozione permanente.

Infatti, proprio con riferimento all’Articolo 17 della Direttiva DSM, recentemente la Corte di Giustizia ha fornito una serie di utili indicazioni agli Stati membri per l’individuazione del giusto equilibrio tra i diversi diritti fondamentali individuati dalla Carta dei diritti fondamentali dell’Unione europea[145].

La sentenza evidenzia che, al fine di adempiere alle previsioni di cui all’Articolo 17 §4, lettere (b)-(c) della Direttiva DSM, l’impiego di sistemi automatici di riconoscimento e filtraggio sono indispensabili e necessari purché essi siano conformi ai principi dettati dall’Articolo 52, comma 1 della Carta dei diritti fondamentali dell’Unione europea, incluso il principio di proporzionalità, e purché garantiscano un giusto equilibrio tra i diritti e gli interessi de provider, quelli degli utenti dei loro servizi e quelli dei titolari dei diritti (e, a tal fine, richiama i considerando 61 e 66 della Direttiva DSM). Pertanto, in sede di attuazione delle norme nazionali, le autorità e i giudici degli Stati membri dovranno interpretare il diritto nazionale in modo conforme all’Articolo 17, nel rispetto dei diritti fondamentali e degli altri principi generali del diritto dell’Unione[146][147].

In particolare, la Corte di Giustizia chiarisce che i massimi sforzi gravanti sulle piattaforme di condivisione di contenuti on line per impedire il caricamento di contenuti da parte degli utenti (prima dunque della loro diffusione al pubblico) o per la loro rimozione permanente ex post devono essere accompagnati da garanzie necessarie ad assicurare la compatibilità di tale obbligo con la libertà di espressione e d’informazione[148].

Secondo la Corte, l’Articolo 17 Direttiva DSM ed in specie i suoi commi 7, 8, 9 e 10 forniscono a tal fine adeguate garanzie per la ricerca del giusto equilibrio. In particolare, da tale norma, nel suo complesso, si ricava che i contenuti che corrispondono all’esercizio di eccezioni o limitazioni ai diritti esclusivi (citazione, critica, rassegna, caricatura, parodia o pastiche) o comunque leciti (utilizzi riconosciuti come oggetto di un diritto soggettivo dell’utente ex art. 17, co. 7) non possono essere sistematicamente bloccati nel corso del loro caricamento in rete (né possono essere oggetto di sistematica rimozione permanente ex post).

A tal riguardo, la Corte richiama i paragrafi 164, 165 e da 191 a 193 delle Conclusioni dell’ Avv. Gen. (che a loro volta sono preceduti da una serie di considerazioni). Nei suddetti passaggi, si afferma che occorre essere chiari in merito al fatto che la norma di cui all’Articolo 17, comma 7, pone un obbligo di risultato e non di mezzi: in tal senso, i prestatori di servizi di condivisione di contenuti on line sono tenuti al risultato di non impedire la messa in rete sui loro servizi dei contenuti che riproducono in maniera legittima opere o altri materiali protetti, anche qualora tali contenuti siano stati identificati dai titolari dei diritti. Le misure di blocco non devono dunque avere per oggetto o per effetto di impedire utilizzi legittimi. Come precisa la Corte di Giustizia, a tal fine, le misure adottate dal prestatore on line devono essere «rigorosamente mirate» nel senso che devono riguardare i contenuti illeciti e non avere un effetto arbitrario o eccessivo sui contenuti leciti[149]. Tuttavia, questo non implica che il diritto alla libertà di espressione osti a misure che comportino il minimo blocco di contenuti leciti[150]. Anche il termine “inutilmente”, impiegato dalla Corte nella sentenza UPC Telekabel Wien v. Constantin Film (richiamata nella causa C-401/19), sta ad indicare che l’efficacia della protezione dei titolari può giustificare taluni casi di “blocco eccessivo”, ferma la necessità di un giusto equilibrio tra l’efficacia del filtraggio e il suo effetto collaterale. Non si può quindi pretendere, in tali circostanze, un “rischio zero” né nei confronti dei falsi positivi (e cioè a dire con riguardo a blocchi di contenuti legali) né nei confronti dei falsi negativi (che si risolvono nel far passare taluni contenuti illegali)[151].

Pertanto, alla luce della sentenza della Corte di Giustizia nel caso C-401/19, i «massimi sforzi» e la “diligenza professionale” di cui devono dare prova i prestatori di servizi devono essere letti alla luce dell’art. 17, co. 7 (regolante le eccezioni e limitazioni ai diritti d’autore e connessi), dovendo quindi agire diligentemente nei confronti sia degli utenti sia dei titolari di diritti. Tali prestatori, ma anche le Autorità amministrative e giudiziarie, quando verificano l’attuazione di tale articolo, dovrebbero  pertanto considerare l’effetto collaterale delle misure di filtraggio che i primi attuano. A quest’ultimo riguardo, l’Avvocato Generale giunge alla conclusione che il blocco preventivo di contenuti che non siano stati oggetto di accertamento giudiziale quanto alla loro illiceità non può che riguardare contraffazioni manifeste. Infatti, il rischio di un danno grave e imminente generato da un tentativo di messa in rete di un contenuto manifestamente contraffatto è idoneo a giustificare una misura di blocco preventivo di tale contenuto (sarà l’utente a doverne dimostrare la liceità nell’ambito di un meccanismo di reclamo). Viceversa, in tutte le situazioni «equivoche» – ovverossia in presenza di brevi estratti di opere riprese in contenuti più lunghi, opere «trasformative», ecc. – nelle quali sia ragionevolmente ipotizzabile l’applicazione di eccezioni e limitazioni al diritto d’autore, i contenuti interessati non dovrebbero  essere oggetto di una misura di blocco preventivo. Infatti, secondo questo approccio, l’obbligo di risultato, previsto all’articolo 17, paragrafo 7, primo comma, della Direttiva DSM, di non impedire la messa in rete di contenuti legittimi appare, al riguardo, più vincolante degli obblighi di «massimi sforzi».

In ogni caso, il fatto che certi contenuti che riproducono in maniera illecita opere o altri materiali protetti non vengano bloccati al momento della messa in rete (non risultando manifestamente illeciti) non impedisce ai relativi titolari, segnatamente, di chiederne la rimozione, nonché il blocco permanente tramite una segnalazione, in conformità all’articolo 17, paragrafo 4, lettera c), contenente spiegazioni ragionevoli sui motivi per i quali, ad esempio, l’applicazione di un’eccezione dovrebbe essere esclusa. Il prestatore interessato, da parte sua, dovrà esaminare tale segnalazione con diligenza e decidere se, alla luce di questi nuovi elementi, l’illiceità sia manifesta. Ammesso che sia questo il caso, il prestatore interessato dovrà, pena la propria responsabilità, bloccare tempestivamente l’accesso al contenuto o rimuoverlo dal suo sito internet (così Conclusioni Avv. Gen., p.to 218).

Nell’ipotesi in cui, ciononostante, il contenuto in rete sollevi questioni giuridiche complesse e/o nuove i titolari dei diritti potranno adire un’autorità giudiziaria, sulla base segnatamente dell’articolo 8, paragrafo 3, della direttiva 2001/29, affinché essa statuisca su tale contenuto e, in caso sia illecito, ne disponga il blocco (Cfr. Conclusioni Avv. Gen., cit.).

Inoltre, la Corte di Giustizia ribadisce che spetta agli Stati membri e alla Commissione concretizzare le soluzioni che possano integrare, negli strumenti di riconoscimento di contenuto, parametri che consentano di aiutare a distinguere il manifesto dall’equivoco. L’Avvocato Generale afferma che tali soluzioni a tutela della libertà di espressione degli utenti non devono essere definite in maniera opaca dalle sole parti private, bensì in maniera trasparente sotto la supervisione di autorità pubbliche. In particolare, il riferimento è all’articolo 17, paragrafo 10, della Direttiva DSM, che prevede l’obbligo per la Commissione, in cooperazione con gli Stati membri, di organizzare dialoghi fra i prestatori di servizi di condivisione, i titolari dei diritti, le organizzazioni di utenti e altre parti interessate pertinenti al fine di discutere le «migliori prassi per la cooperazione tra i prestatori di servizi di condivisione di contenuti online e i titolari dei diritti» (Cfr., sentenza nella causa C-401/19, p.ti 96 e 97).

Dall’applicazione dell’Articolo 17 potrebbero conseguire indicazioni utili anche per qualsiasi hosting provider (attivo o passivo), quantunque non ricadente nella nozione di prestatori di servizi di condivisione di contenuti on line quali definiti all’articolo 2, punto 6, primo comma, della Direttiva DSM[152]. Considerazioni utili potrebbero derivarne anche per qualsiasi altro intermediario di servizi on line.

Infine, ritornando al quesito che ci siamo posti inizialmente in merito al Regolamento 2022/350, potremmo ora chiederci se si possa effettivamente ritenere – alla luce di tutto quanto sopra illustrato – che le informazioni ivi indicate in merito ai contenuti oggetto di blocco siano di per sé sufficienti, anche nell’ottica delle indicazioni fornite dalla Corte di Giustizia nel caso C-401/19, per l’attivazione di qualsiasi Internet Service Provider e che, in particolare, quanto agli hosting (ed in specie quanto alle piattaforme on line), lo siano sia in un’ottica ex ante (per impedire il caricamento ex ante o per la rimozione permanente, cd. stay down) sia in un’ottica ex post (con riguardo al “take down” successivo al caricamento in rete). Si vedano al riguardo anche le seguenti ulteriori considerazioni.

 

 

  1. Ulteriori considerazioni in merito al Regolamento (UE) 2022/350 alla luce della Direttiva sul commercio elettronico e della Direttiva DSM e la posizione assunta dalla Commissione europea in risposta ad una richiesta di chiarimenti

Sempre in merito al tema della segnalazione idonea a determinare obblighi di attivazione a carico dell’ISP, pena la perdita dell’esonero da responsabilità, è utile ripercorrere il regime applicabile alle  diverse figure di ISP tipiche che non rientrano nel campo di applicazione dell’Articolo 17 della Direttiva DSM: gli ISP che rientrano in quest’ultima norma, infatti, come illustrato sopra al Capitolo 7, sono esposti ad una responsabilità «automatica, si potrebbe dire rafforzata, rispetto all’attuale, che va modulata in base a diversi parametri e alle specificità del caso concreto»[153], ma che va comunque affrontata (ora) anche alla luce dei temperamenti indicati dalla sentenza nel caso C-401/19.

Come abbiamo visto nel Capitolo 6, la giurisprudenza prevalente  che si è formata sulla Direttiva sul commercio elettronico è orientata nel senso di richiedere per gli hosting, sia attivi sia passivi, una diffida che menzioni chiaramente i titoli dei contenuti illeciti, ma non anche gli URL (Uniform Resource Locator),  o al massimo, anche a seguire una diversa giurisprudenza, sarebbe necessaria solo l’iniziale indicazione degli URL nella prima notifica al provider, anche se solo per alcuni dei contenuti oggetto di contestazione  (e non per tutti).

Infatti, con ricerche automatiche, è comunque possibile per l’hosting individuare i contenuti illegali memorizzati. Semmai il tema che rimane aperto per l’hosting è quello relativo ai contenuti “equivalenti” a quelli oggetto dell’iniziale diffida, ovverossia se sia necessario un’ulteriore segnalazione del soggetto interessato laddove i contenuti inizialmente segnalati subiscano alcune modifiche. Il tema è stato affrontato al precedente Capitolo 6, § 2 ed è emerso che una nuova segnalazione sufficientemente specifica, da parte dell’interessato, sia necessaria quantomeno nel caso di hosting passivo[154].

Con riguardo ai fornitori di servizi di mere carrier, allo stato della normativa e della giurisprudenza, si rende necessaria per la prima notifica, ed il relativo ordine dell’Autorità competente, l’indicazione degli indirizzi IP e dei DNS atti ad indentificare univocamente i contenuti illeciti. Pro-futuro, lo stesso ordine può contenere anche la richiesta di disabilitare indirizzi IP e DNS equivalenti, ivi inclusi siti alias –  che tuttavia – ad oggi – dovranno comunque essere individuati e comunicati dal titolare dei diritti/soggetto interessato.

Quanto infine ai fornitori di servizi di memorizzazione temporanea (caching), non possiamo escludere che, per questioni diverse dalla tutela dei diritti d’autore e connessi, si renda necessario fornire anche gli specifici URL, come affermato in una recente ordinanza della Corte di Cassazione in materia di tutela dei dati personali[155]. Tuttavia,  per le inibitorie nei confronti dei fornitori di servizi di caching ai fini della protezione dei diritti d’autore o comunque dei materiali protetti, non è necessario indicare gli URL, come risulta dalla recente prassi del Tribunale di Milano in sede cautelare. Infatti, nei confronti di provider che potrebbero essere qualificabili (come hosting o) come caching (e per i quali il Tribunale si è limitato ad affermare che, quale che sia la loro qualifica/qualificazione, gli stessi possono essere destinatari di ingiunzioni dinamiche)[156], il Tribunale ha indicato nell’ordine gli indirizzi IP ed i nomi a dominio collegati forniti dal titolare dei diritti. Precisando che, anche per tali provider, «le modifiche della condotta lesiva che richiedano nuovi adempimenti da parte del soggetto passivo del comando inibitorio» necessitano di una previa specifica segnalazione da parte dei titolari di diritti».

Alla luce di quanto sopra, pur emergendo un quadro piuttosto complesso, e differenziato a seconda del tipo di ISP, con riguardo in particolare alle informazioni «minime» necessarie all’individuazione dei contenuti illeciti, appare tuttavia piuttosto chiaro che anche per i contenuti oggetto di  «blocco» ai sensi del Regolamento 2022/350 dovrebbero porsi le stesse esigenze, dal momento che diversamente l’ISP rischierebbe di perdere il regime di esenzione da responsabilità che rappresenta un principio cardine dell’ordinamento europeo ed inoltre si porrebbe anche un problema quantomeno di tutela del diritto alla libertà di espressione e di informazione degli utenti dei servizi della società dell’informazione[157]. Ne consegue che, con particolare riguardo a tale Regolamento, diventano ancora più rilevanti i singoli Stati membri, che (si ricorda) hanno un ruolo fondamentale nel settore della politica estera e della sicurezza comune.

Dovrebbero essere infatti gli Stati membri a fornire «i mezzi operativi per l’attuazione» della politica del Consiglio dell’Unione[158] e dunque a dover fornire agli ISP, nel rispetto delle normative vigenti e della giurisprudenza europea e nazionale consolidata, ogni ulteriore necessaria informazione per l’identificazione dei contenuti oggetto di divieto tenendo conto della diversa natura/caratteristiche dei servizi della società dell’informazione.

A dimostrazione della complessità di questo tema, il Body of European Regulators for Electronic Communications (BEREC)[159], come illustrato al precedente Capitolo 5, ha dichiarato il proprio impegno, nel suo ruolo di organismo dei regolatori europei delle comunicazioni elettroniche al fine di chiarire la regolamentazione dettata dal Consiglio dell’Unione ove necessario. In particolare, il BEREC, nel confermare che la regolamentazione «Open Internet» non rappresenta un ostacolo «in implementing EU sanctions to block RT and Sputnik», ha sottolineato il proprio impegno nel fornire la propria assistenza alle Autorità Regolamentari nazionali sulle questioni tecniche che gli ISP dovessero incontrare nell’implementazione del Regolamento 2022/350[160].

Peraltro, la stessa Commissione, rispondendo ad alcuni quesiti di Google LLC in merito all’applicazione del Regolamento in questione, si è posta il tema dei limiti dettati dall’Articolo 15 della Direttiva sul commercio elettronico. Si riportano di seguito i principali stralci del documento della Commissione del 4 marzo 2022[161]

«providers of Internet search services must make sure that i) any link to the Internet sites of RT and Sputnik and ii) any content of RT and Sputnik, including short textual descriptions, visual elements and links to the corresponding websites do not appear in the search results delivered to users located in the EU»

«social media must prevent users from broadcasting (lato sensu) any content of RT and Sputnik. That applies both to accounts which appear as belonging to individuals who are likely to be used by RT/Sputnik and to any other individuals […]. As regards the posts made by individuals that reproduce the content of RT and Sputnik, those posts shall not be published and, if published, must be deleted»

«There is of course a dividing line between, on the one hand, content by RT and Sputnik reproduced (broadcast) by an individual and, on the other hand, content by the author of the post; that line needs to be drawn also because the Regulation needs to be construed in line with the principle of proportionality and the fundamental right to freedom of speech. Admittedly, that line might be difficult to draw in certain cases in practice. It is true that social media are put under strain and that is in tension with the prohibition of general monitoring obligation laid down in Art. 15 E-commerce Directive. However, the decision to fully depart in the present Regulation from the E-commerce Directive has been a conscious one and justified on the ground of the situation and its temporary character».

La Commissione, pur dando atto delle difficoltà applicative, sembra invero propendere per una sorta di temporanea attenuazione delle previsioni dell’articolo 15 della Direttiva sul commercio elettronico rispetto alle fattispecie coperte dal Regolamento 2022/351, con conseguenti ulteriori problemi interpretativi con riguardo al più ampio assetto di interessi in gioco, ovverossia la libertà di impresa degli ISP (tutelato all’articolo 16 della Carta) e la libertà degli utenti di ricevere informazioni (tutelato dall’articolo 11 della stessa Carta)[162] .

  1. Le evoluzioni del quadro normativo europeo – Il Regolamento DSA

A seguito dello sviluppo dinamico dell’economia digitale e la comparsa di nuovi tipi di prestatori di servizi, quali le piattaforme on line (soprattutto quelle molto grandi), la Commissione europea ha elaborato una proposta di Regolamento DSA (COM(2020) 825 final) che si pone quale strumento integrativo delle normative europee settoriali e che istituisce un sistema di governance delle attività in rete coordinato a livello unionale[163].

Ed è proprio al fine di garantire un’efficace armonizzazione in tutta l’Unione ed evitare la frammentazione giuridica che la Commissione ha optato per la presentazione di una proposta di regolamento con riguardo al contrasto di attività illecite attraverso internet. A questo riguardo,  l’art. 1.1 del Regolamento DSA precisa quanto segue:

« L’obiettivo del presente regolamento è contribuire al corretto funzionamento del mercato interno dei servizi intermediari stabilendo norme armonizzate per un ambiente online sicuro, prevedibile e affidabile, che faciliti l’innovazione e in cui i diritti fondamentali sanciti dalla Carta, compreso il principio della protezione dei consumatori, siano tutelati in modo effettivo.».

Il Regolamento DSA si fonda sulla valutazione della Direttiva sul commercio elettronico[164] e sulla constatazione della necessità di un intervento regolamentare europeo, di tipo orizzontale, soprattutto a seguito della crescita dinamica dell’economia digitale e la comparsa di nuovi tipi di prestatori di servizi, quali le piattaforme on line (principalmente quelle molto grandi).

Anche il Regolamento DSA  riconosce che

«le piattaforme on line, quali i social network o i mercati on line, dovrebbero essere definite come prestatori di servizi di hosting che non solo memorizzano informazioni fornite dai destinatari del servizio su richiesta di questi ultimi, ma diffondono anche tali informazioni al pubblico, sempre su loro richiesta.» (Cfr. considerando 13)[165].

Queste piattaforme sembrano essere molto simili a quelle disciplinate dalla Direttiva DSM anche con riguardo alla loro diretta responsabilità in merito ai contenuti diffusi.

Tuttavia, il Regolamento DSA non riguarda solo le piattaforme on line, ma qualsiasi hosting provider o meglio riguarda tutti gli ISP (cfr. anche il considerando 25 che fa espresso riferimento a “tutte le categorie di servizi intermediari”), stabilendo, da un lato, obblighi fondamentali applicabili a tutti i prestatori di servizi intermediari nonché, dall’altro lato, obblighi supplementari (diversamente gradati) per i prestatori di servizi di hosting, per le piattaforme on line e per le piattaforme on line (ed i motori di ricerca) di dimensioni molto grandi.

In ogni caso, il Regolamento DSA conserva il divieto di imporre obblighi generali di sorveglianza e richiede che gli ordini giudiziali nei confronti di qualsiasi provider (ivi incluse le piattaforme on line) e le notifiche (agli hosting) da parte dei soggetti interessati contengano rispettivamente «informazioni chiare che consentano al prestatore di servizi intermediari di individuare e localizzare i contenuti illegali in questione, quali uno o più indirizzi URL (Uniform Resource Locator) esatti e, se necessario, informazioni supplementari» (art. 8) e «una chiara indicazione dell’ubicazione elettronica esatta di tali informazioni, quali l’indirizzo o gli indirizzi URL esatti e, se necessario, informazioni supplementari che consentano di individuare il contenuto illegale adeguato al tipo di contenuto e al tipo specifico di servizio di hosting» (art. 14) [166]. Come anticipato, diversamente dal testo proposto inizialmente dalla Commissione che indicava gli URL come le specifiche ed uniche informazioni necessarie sia con riguardo agli ordini delle Autorità competenti (di cui all’art. 8) sia con riguardo ai meccanismi di notifica (di cui all’art. 14 relativo ai soli hosting), il testo del Regolamento DSA (del 5 luglio 2022) sembra indicare gli URL solo a titolo esemplificativo, valorizzando dunque le (diverse) caratteristiche dei servizi forniti dai provider e lo stato della tecnica con riguardo alla esatta individuazione dei contenuti oggetto di contestazione[167]. Non parrebbe dunque che il Regolamento DSA richieda necessariamente tali indicazioni (le URL) quale condizione per valutare l’adempimento degli obblighi di diligenza a carico degli hosting provider. D’altro canto, anche richiedere di indicare tutti gli URL su cui è abusivamente pubblicato un contenuto illegale (e non solo alcune URL a titolo esemplificativo) farebbe gravare sul soggetto interessato al contrasto ai contenuti illegali oneri di continua ricerca dei contenuti in rete, la qualcosa sembrerebbe essere eccessivamente gravosa per quest’ultimo[168]. Si tratta di tema che qui non viene ulteriormente sviluppato, ma che meriterà di essere approfondito in sede di prassi applicativa della legge sui servizi digitali, anche tenuto conto della posizione assunta dalla Commissione europea in merito all’interpretazione del Regolamento 2022/350 (v. sopra con riguardo al documento riportato alla nota 161).

Il Regolamento DSA – diversamente dai vari interventi settoriali – riveste  un particolare interesse proprio in quanto introduce (come anticipato) un quadro normativo orizzontale per tutte le categorie di contenuti, prodotti, servizi e attività sui servizi intermediari on line, tenendo fermi i principi fondamentali stabiliti nella Direttiva sul commercio elettronico. In particolare, questo regolamento mantiene, conformemente all’interpretazione della Corte di Giustizia dell’Unione europea, le esenzioni dalla responsabilità ivi previste per i servizi intermediari (di mere conduit, catching e hosting) e ribadisce l’assenza di obblighi generali di sorveglianza o di accertamento attivo dei fatti da parte dei relativi fornitori[169]. Inoltre, il Regolamento DSA dà atto del fatto che:

«Dal 2000 sono state sviluppate nuove tecnologie che hanno migliorato la disponibilità, l’efficienza, la velocità, l’affidabilità, la capacità e la sicurezza dei sistemi per la trasmissione, la reperibilità e la memorizzazione di dati online, portando a un ecosistema online sempre più complesso. A tale riguardo è opportuno ricordare che anche i prestatori di servizi che stabiliscono e agevolano l’architettura logica di base e il corretto funzionamento di Internet, comprese le funzioni tecniche ausiliarie, possono beneficiare delle esenzioni dalla responsabilità stabilite nel presente regolamento, nella misura in cui i loro servizi si qualificano come “mere conduit”, “caching” o hosting […]» (considerando 27)

e che:

«I servizi intermediari abbracciano una vasta gamma di attività economiche che si svolgono online e che evolvono costantemente per consentire una trasmissione di informazioni rapida, sicura e protetta nonché per garantire la comodità di tutti i partecipanti all’ecosistema online. […] I servizi intermediari abbracciano una vasta gamma di attività economiche che si svolgono online e che evolvono costantemente per consentire una trasmissione di informazioni rapida, sicura e protetta nonché per garantire la comodità di tutti i partecipanti all’ecosistema online»[170].

In particolare, come visto, il Regolamento DSA riconosce che le piattaforme on line, quali i social network o i mercati on line, devono essere definite come prestatori di servizi di hosting che non solo memorizzano informazioni fornite dai destinatari del servizio su richiesta di questi ultimi, ma diffondono anche tali informazioni al pubblico, sempre su loro richiesta[171].

In ragione di questa loro caratteristica, vengono dettate per le piattaforme on line delle norme aggiuntive rispetto a quelle applicabili a tutti i prestatori di servizi intermediari (artt. 3 – 13). Tra queste ultime, vi è ad esempio l’obbligo di dare, senza indebito ritardo, riscontro agli ordini di contrastare contenuti illegali, e alle richieste di informazioni, delle competenti Autorità, nonché di nominare un punto di contatto unico quale riferimento diretto per le Autorità, per la Commissione europea ed il Comitato europeo per i servizi digitali che sarà costituito da tutti i coordinatori nazionali[172].

A tali norme applicabili «a tutti i prestatori di servizi intermediari», si aggiungono – come detto – quelle applicabili ai soli prestatori di servizi di hosting comprese le piattaforme on line (articoli 14 – 15 bis) e quelle applicabili alle sole piattaforme on line (articoli 16 – 24).

In particolare, quanto al primo set di norme «aggiuntive» (articoli 14 – 15 bis), tutti gli hosting devono predisporre meccanismi di notifica di facile uso sulla cui base tale prestatore può procedere, in modo tempestivo, alla rimozione dei contenuti o alla disabilitazione dell’accesso agli stessi;  quanto al secondo set di norme «aggiuntive» (articolo 16 – 24), esse impongono alle piattaforme on line obblighi supplementari di diligenza (rispetto agli obblighi di base). Si tratta in particolare di meccanismi interni di reclamo e di meccanismi per la  risoluzione extragiudiziale delle controversie e per le notifiche presentate da segnalatori attendibili.

Inoltre, sono previsti obblighi supplementari applicabili alle sole piattaforme on line e ai motori di ricerca di dimensioni molto grandi riguardanti la gestione di rischi sistemici significativi derivanti dal funzionamento o dall’uso dei loro servizi, l’adozione di misure di attenuazione dei rischi, la loro sottoposizione ad audit, i sistemi di raccomandazione, gli obblighi supplementari in materia di trasparenza della pubblicità, gli obblighi di accesso a dati, l’obbligo di nomina di un responsabile della conformità (articoli 25 – 33 bis).

Il Regolamento DSA disciplina anche le misure e la protezione contro i destinatari del servizio che, con frequenza, forniscono contenuti manifestamente illegali e contro i notificanti ed i reclamanti che, con frequenza, presentino notifiche o reclami manifestamente infondati (cd. abusi) e quelli che regolano la notifica di sospetti di reati e la tracciabilità degli operatori commerciali e della trasparenza della pubblicità on line.

Tale Regolamento ritiene, inoltre, opportuno chiarire alcuni aspetti delle norme della Direttiva 2000/31/CE per eliminare gli attuali disincentivi allo svolgimento di indagini proprie volontarie da parte dei prestatori di servizi intermediari, al fine di garantire la sicurezza dei loro utenti e chiarire il loro ruolo nei confronti dei consumatori in determinate circostanze (e purché le attività dei prestatori dei servizi siano svolte in buona fede e in modo diligente e le attività volontarie non siano utilizzate per eludere gli obblighi che incombono a tutti i prestatori di servizi intermediari)[173]. Esso dovrebbe anche costituire la base adeguata per lo sviluppo di tecnologie solide volte a prevenire la ricomparsa di informazioni illegali, abbinate alle massime garanzie per evitare che vengano erroneamente rimossi contenuti legali[174].  Tali strumenti potrebbero essere sviluppati sulla base di accordi volontari tra tutte le parti interessate e dovrebbero essere incoraggiati dagli Stati membri.

Vengono anche definite le responsabilità dello Stato membro incaricato di vigilare sulla conformità dei prestatori di servizi stabiliti sul suo territorio agli obblighi sanciti dal Regolamento DSA[175].

Sono poi previste norme per consentire l’intervento della Commissione europea, ad esempio, in caso di disaccordo del Comitato europeo per i servizi digitali con la valutazione o le misure adottate dal coordinatore dei servizi digitali, nel qual caso la Commissione chiede al coordinatore dei servizi digitali competente (i.e. del luogo di stabilimento della piattaforma) di valutare ulteriormente la questione e di adottare le misure necessarie per garantire il rispetto del Regolamento entro un certo periodo di tempo definito[176].

Il Regolamento DSA prende anche in considerazione gli interventi settoriali già esistenti, ritenendo che – sebbene essi offrano un prezioso contributo al conseguimento di alcuni obiettivi strategici stabiliti dalla Direttiva sul commercio elettronico – gli stessi disciplinino solo alcuni tipi di servizi (per esempio un sottoinsieme di piattaforme on line per le violazioni dei diritti d’autore, solo le piattaforme di condivisione di video e solo per quanto riguarda l’incitamento all’odio o i contenuti terroristici audiovisivi) o determinati tipi di contenuti illegali (per esempio le violazioni dei diritti d’autore, i contenuti terroristici, il materiale pedopornografico o l’illecito incitamento all’odio, alcuni prodotti illegali).  A riguardo, la Commissione europea nella sua proposta di Regolamento DSA (COM(2020) 825 final) evidenzia che le soluzioni settoriali presentano delle lacune in quanto non contengono una normativa sugli obblighi procedurali relativi ai contenuti illegali (a carico dei prestatori di servizi intermediari), ma solo norme basilari in materia di trasparenza e responsabilità dei prestatori di servizi e limitati meccanismi di vigilanza.

Il Regolamento DSA è inteso dunque ad integrare la normativa settoriale esistente e non incide sull’applicazione delle normative vigenti nell’UE che disciplinano alcuni aspetti della prestazione di servizi della società dell’informazione, che si applicherebbero come lex specialis. A titolo di esempio, continuerebbero ad applicarsi gli obblighi della  Direttiva sui servizi di media audiovisivi per quanto riguarda i contenuti audiovisivi e le comunicazioni commerciali audiovisive. Più in particolare, il Regolamento DSA si applicherebbe a tali fornitori nella misura in cui la Direttiva sui servizi di media audiovisivi non contenga disposizioni più specifiche ad essi applicabili. Pertanto, il Regolamento DSA si applica alle questioni che non sono o non sono pienamente affrontate da tali altri atti unionali. A questo riguardo, l’art. 1 bis del Regolamento DSA così recita:

«Il presente regolamento lascia impregiudicate le norme stabilite da altri atti giuridici dell’Unione che disciplinano ulteriori aspetti della prestazione di servizi intermediari nel mercato interno o che precisano e integrano il presente regolamento, in particolare i seguenti atti: […]».

Il considerando 10 precisa a riguardo che:

«Il presente regolamento non dovrebbe pregiudicare altri atti del diritto dell’Unione che disciplinano la prestazione di servizi della società dell’informazione in generale, altri aspetti della prestazione di servizi intermediari nel mercato interno o che specificano e integrano le norme armonizzate di cui al presente regolamento».

Infine, il Regolamento in esame individua, quale Stato che ha giurisdizione sulla piattaforma on line, quello in cui è situato il suo stabilimento principale (e cioè a dire dove sono esercitate le sue principali funzioni finanziarie ed il controllo operativo). Per quelle stabilite in Stati non UE ma che offrono servizi nell’UE, hanno giurisdizione gli Stati membri in cui tali prestatori hanno nominato il loro rappresentante legale ai fini di questo Regolamento e, per quelli che non l’abbiano nominato, tutti gli Stati membri («o, se del caso, la Commissione») hanno giurisdizione purché sia rispettato il ne bis in idem ed a tal fine informano tutti gli altri Stati membri della propria intenzione di agire e delle misure adottate nell’esercizio della propria giurisdizione.

Alla luce di quanto sopra illustrato, il Regolamento DSA  appare essere un valido strumento di integrazione delle varie norme vigenti, anche al fine di rafforzare la governance degli interventi, garantendo così azioni ancora più rapide e coordinate nella lotta alla disinformazione, e dunque anche a supporto delle azioni a tutela delle esigenze imperative legate all’interesse generale dell’Unione europea.

Tuttavia, rimangono aperti alcuni temi in merito al contenuto “armonizzato” delle segnalazioni dei soggetti interessati agli intermediari della rete (ivi incluse le piattaforme on line) ai sensi dei vari strumenti normativi europei (in particolare, la Direttiva sul commercio elettronico e la giurisprudenza che su di essa si è consolidata, la Direttiva DSM ed infine il futuro Regolamento DSA)[177], tenuto conto della necessità di bilanciare i vari diritti ed interessi in campo.

 

 

  1. Conclusioni

L’analisi svolta non intende pervenire a conclusioni definitive in merito alle misure adottate recentemente nell’ambito PESC, data la loro natura eccezionale ed essendo il dibattito tuttora nel pieno del suo svolgimento[178]. D’altro canto, ulteriori chiarimenti in merito al Regolamento 2022/350 potranno venire dalla decisione definitiva sul ricorso di RT al Tribunale dell’Unione, nonché da altre decisioni nazionali a seguito di iniziative adottate da parte dei singoli Stati membri o anche da Stati non membri UE[179].

L’obiettivo di questa analisi è, invero, sotto un profilo più generale, di evidenziare la complessità del quadro di riferimento che forse potrà essere (per il futuro) oggetto di una semplificazione nell’ambito del progetto avviato dalla Commissione europea denominato «European Media Freedom Act», per il quale è prevista l’adozione di una proposta nel corso del 2022, e che potrà ricevere un supporto “operativo” sostanziale con l’adozione del futuro Regolamento DSA. Quanto a quest’ultimo atto normativo è interessante notare come in esso vari sono i riferimenti alla disinformazione[180] quale rischio cui occorre far fronte anche mediante strumenti specifici, ivi inclusa l’adozione di un “meccanismo di risposta alle crisi” (art. 27 bis) da parte della Commissione, su raccomandazione del Comitato. Infatti, in caso di “crisi” (e cioè a dire, ai sensi del comma 2 di tale articolo, in presenza di «circostanze eccezionali» che «comportano una grave minaccia per la sicurezza pubblica o la salute pubblica nell’Unione o in parti significative di essa»)[181], la Commissione può adottare una decisione che impone a uno o più piattaforme on line (o motori di ricerca) di dimensioni molto grandi di «individuare ed applicare misure specifiche» in via d’urgenza per «prevenire, eliminare o limitare» il loro contributo «alla grave minaccia individuata» (dagli stessi provider destinatari della norma).  In base al comma 3, lett. a) dell’art. 27 bis, è la Commissione europea a dover garantire che le misure specifiche scelte dal provider siano strettamente necessarie, giustificate e proporzionate «tenuto conto in particolare della criticità della grave minaccia […], dell’urgenza delle misure e delle implicazioni effettive o potenziali per i diritti e gli interessi legittimi di tutte le parti interessate, compresa l’eventuale inosservanza dei diritti fondamentali sanciti dalla Carta». La norma sembrerebbe implicare una ponderazione di volta in volta degli interessi in gioco e non sembra escludere del tutto che i diritti fondamentali possano eventualmente essere limitati – seppur temporaneamente – in ragione della gravità della minaccia[182][183].

E’ anche utile considerare quanto emerge da un’altra recente proposta di Regolamento della Commissione UE per la prevenzione e la lotta agli abusi sessuali on line nei confronti di minori, dell’11 maggio 2022 ((COM(2022) 209 final)). Nell’Explanatory Memorandum della proposta, che riguarda in particolare gli hosting provider ed i fornitori di servizi di comunicazione interpersonale, si da atto di quanto segue:

«The e-Commerce Directive and the DSA prohibit Member States from imposing on providers of intermediary services general obligations to monitor or to actively seek facts or circumstances indicating illegal activity. Whilst the precise contours of that prohibition addressed to Member States are only gradually becoming clear […]. Where providers detect online child sexual abuse, they are under no obligation under EU law to remove such material. Nonetheless, given the manifestly illegal nature of most online child sexual abuse and the risk of losing the liability exemption contained in the e-Commerce Directive and the DSA proposal, providers will regularly choose to remove it (or to disable access thereto). Where a provider does not remove online child sexual abuse material of its own motion, the Coordinating Authorities can compel removal by issuing an order to that effect».

Senza entrare nel merito di quest’ultima proposta di Regolamento che ha suoi rilevanti specifici obiettivi, quello che astrattamente rileva in via generale è, da un lato, che si riconosce che la nozione di “divieto di sorveglianza generale” sta diventando gradualmente più chiara (indirettamente segnalando che la questione è tutt’altro che piana)[184]; dall’altro lato, emerge, che la prassi degli ISP in questione è orientata nel senso della rimozione dei contenuti illeciti (o della disabilitazione dell’accesso agli stessi) al fine di evitare di incorrere in responsabilità e che, in ogni caso, laddove l’ISP non si attivasse, lo dovrà senz’altro fare a fronte di un ordine di un’Autorità competente[185]. A quest’ultimo riguardo, tale proposta di Regolamento sembra dunque propendere – quale elemento di certezza per il sistema – per l’ordine di un’Autorità laddove l’ISP non si attivasse autonomamente. Si ripropone dunque il tema del contenuto di tale ordine (e, per l’hosting, anche della segnalazione del soggetto interessato) e, in caso di ordine cd. dinamico, di quello delle segnalazioni successive del soggetto interessato dalla rimozione/disabilitazione[186].

In ultima analisi, e più in generale, sembra dunque emergere che una segnalazione quantomeno iniziale sia necessaria per determinare l’attivazione dell’ISP/hosting provider (essendo a questo punto difficile sostenere che lo stesso non sia  consapevole dell’illecita attività in corso di svolgimento ed oggetto della contestazione) e che l’ordine, soprattutto ove dinamico, comporterà un obbligo (oltre che di take down immediato) di stay down rispetto al quale l’ISP dovrà essere necessariamente dotato dei sistemi di riconoscimento e filtraggio dei contenuti illeciti al fine di prevenirne l’ulteriore caricamento, essendo tali sistemi oramai in uso nel settore[187]. Per gli altri ISP (mere carrier e caching) l’ordine di un’Autorità competente appare tuttora necessario, fermo restando che anche questi ultimi provider potranno essere destinatari di ordini dinamici pro futuro che presuppongono, per l’attivazione degli stessi ISP, un’organizzazione da parte del soggetto interessato per l’individuazione delle informazioni “minime” che dovranno essere loro via via segnalate sulla base di tale ordine.

Alla luce di quanto illustrato, risulta una certa asimmetria tra (da un lato) le norme applicabili agli hosting provider (soprattutto a seguito dell’adozione del futuro Regolamento DSA) che consentiranno di intervenire in via d’urgenza in situazioni di crisi caratterizzate (anche) dalla diffusione di informazioni false, e (dall’altro lato) quelle applicabili ai mere carrier ed ai caching[188]. Potrebbe essere utile una riflessione a quest’ultimo riguardo al fine di valutare se, per situazioni analoghe, possano essere messe in campo anche per questi ultimi ISP, attraverso un Regolamento europeo, analoghe norme procedurali di tipo sistematico che tengano conto sia delle caratteristiche “tecniche” di tali ISP sia del rispetto del principio di safe harbour sancito dalla Direttiva sul commercio elettronico, garantendo in tal modo sia agli operatori economici sia agli altri soggetti interessati un quadro sempre più chiaro, certo e prevedibile.

[1] Cfr. Video AFP News Agency «EU to ban Russian state media RT and Sputnik: von der Leyen | AFP» (youtube.com/watch?v=Ohm0raitPoo).

[2] Regolamento (UE) 2015/2120 del Parlamento europeo e del Consiglio del 25 novembre 2015 che stabilisce misure riguardanti l’accesso a un’Internet aperta e che modifica la direttiva 2002/22/CE relativa al servizio universale e ai diritti degli utenti in materia di reti e di servizi di comunicazione elettronica e il regolamento (UE) n. 531/2012 relativo al roaming sulle reti pubbliche di comunicazioni mobili all’interno dell’Unione.

[3] Direttiva 2000/31/CE del Parlamento europeo e del Consiglio dell’8 giugno 2000 relativa a taluni aspetti giuridici dei servizi della società dell’informazione, in particolare il commercio elettronico, nel mercato interno.

[4] Cfr. proposta di Regolamento del Parlamento Europeo e del Consiglio relativo a un mercato unico dei servizi digitali (legge sui servizi digitali) e che modifica la direttiva 2000/31/CE, COM(2020) 825 final e Risoluzione legislativa del Parlamento europeo del 5 luglio 2022 sulla proposta di Regolamento (COM(2020)0825-C9-0418/2020-2020/0361(COD)).

[5] Cfr. art. 21 della Cost. italiana che prevede che «Tutti hanno diritto di manifestare liberamente il proprio pensiero con la parola, lo scritto e ogni altro mezzo di diffusione».

[6] Cfr. infra.

[7] Sulla CEDU e la Carta dei diritti fondamentali dell’Unione europea, L. Daniele, Il diritto internazionale – Gli atti giuridici delle istituzioni, Il diritto internazionale generale e gli accordi internazionali, in Diritto dell’Unione europea, Sistema Istituzionale-Ordinamento-Tutela giurisdizionale-Competenze, 7ª ed., S. Amadeo, G. Biagioni, C. Schepisi, F. Spitaleri (con la collaborazione di), Giuffrè Francis Lefebvre, Milano, 2020, 189 – 235,  AA.VV.,  Diritti fondamentali dopo la Carta di Nizza, G.F. Ferrari (a cura di), Giuffrè ed., 2001, I. Anro’ – B. Nascimbene, Università degli Studi di Milano Centro di Eccellenza Jean Monnet, L’adesione dell’Unione Europa alla CEDU, L’evoluzione dei sistemi di tutela dei diritti fondamentali in Europa, Giuffrè, 2015.

[8] «[…] la Carta dei diritti fondamentali e i principi generali sono sin d’ora vincolanti per l’Unione europea. La CEDU invece lo diverrà soltanto se e quando sarà perfezionata l’adesione ad essa dell’Unione secondo quanto previsto dal par. 2. Per il momento la CEDU non vincola direttamente l’Unione anche se il suo contenuto contribuisce a formare i principi generali […]», l. Daniele, Il diritto internazionale, ivi, 201. Sulle ragioni della mancata adesione sin qui dell’Unione europea alla CEDU Cfr. quest’ultimo A., ivi, 201-203.

[9] L’art. 11 della Carta dei diritti fondamentali dell’Unione europea (2000/C 364/01) prevede che: «[1.] Ogni persona ha diritto alla libertà di espressione. Tale diritto include la libertà di opinione e la libertà di ricevere o di comunicare informazioni o idee senza che vi possa essere ingerenza da parte delle autorità pubbliche e senza limiti di frontiera. [2.] La libertà dei media e il loro pluralismo sono rispettati.». Inoltre, l’art. 52 della Carta stabilisce che: «[1.] Eventuali limitazioni all’esercizio dei diritti e delle libertà riconosciuti dalla presente Carta devono essere previste dalla legge e rispettare il contenuto essenziale di detti diritti e libertà. Nel rispetto del principio di proporzionalità, possono essere apportate limitazioni solo laddove siano necessarie e rispondano effettivamente a finalità di interesse generale riconosciute dall’Unione o all’esigenza di proteggere i diritti e le libertà altrui. [2.] I diritti riconosciuti dalla presente Carta che trovano fondamento nei trattati comunitari o nel trattato sull’Unione europea si esercitano alle condizioni e nei limiti definiti dai trattati stessi. [3.] Laddove la presente Carta contenga diritti corrispondenti a quelli garantiti dalla convenzione europea per la salvaguardia dei diritti dell’uomo e delle libertà fondamentali, il significato e la portata degli stessi sono uguali a quelli conferiti dalla suddetta convenzione. La presente disposizione non preclude che il diritto dell’Unione conceda una protezione più estesa.».

[10] Cfr. p.to 71 delle Conclusioni dell’Avvocato Generale, del 15 luglio 2021, causa C‑401/19, Repubblica di Polonia contro Parlamento europeo, Consiglio dell’Unione europea (di seguito “Conclusioni dell’Avv. Gen.”), dove si legge che: «Il diritto garantito all’art. 11 della Carta, che «include la libertà di opinione e la libertà di ricevere o di comunicare informazioni o idee senza che vi possa essere ingerenza da parte delle autorità pubbliche e senza limiti di frontiera”, corrisponde a quello previsto all’art. 10 della convenzione europea per la salvaguardia dei diritti dell’uomo e delle libertà fondamentali, firmata a Roma il 4 novembre 1950 (in prosieguo: la “CEDU”) […]. Ai sensi dell’art. 52, paragrafo 3, della Carta, questi due diritti hanno dunque lo stesso significato o, quantomeno, la stessa portata. Ne consegue che l’art. 11 della Carta deve essere interpretato alla luce dell’art. 10 della CEDU e della relativa giurisprudenza della Corte europea dei diritti dell’uomo (in prosieguo: la “Corte EDU”)». Cfr. anche p.to 44 della sentenza della Corte di Giustizia, 26 aprile 2022 nella causa C-401/19, Repubblica di Polonia contro Parlamento europeo e Consiglio dell’Unione europea secondo cui: «Occorre ricordare che, ai sensi dell’art. 11 della Carta, ogni persona ha diritto alla libertà di espressione, diritto che include la libertà di opinione e la libertà di ricevere o di comunicare informazioni o idee senza che vi possa essere ingerenza da parte delle autorità pubbliche e senza limiti di frontiera. Come risulta dalle spiegazioni relative alla Carta dei diritti fondamentali (GU 2007, C 303, pag. 17), e conformemente all’art. 52, paragrafo 3, della Carta, i diritti garantiti dall’art. 11 di quest’ultima hanno significato e portata identici a quelli garantiti dall’art. 10 della CEDU».

[11] D. L. Fisher, Prior Consent to International Direct Satellite Broadcasting, Utrecht Studies in Air and Space Law, Deventer: Kluwer Academic Publishers, 1990.

[12] T. M. Hagelin, Prior consent or the Free Flow of Information Over International Satellite Radio and Television: A Comparison and Critique of US. Domestic and International Broadcast Policy, Syracuse Journal of International Law and Commerce, Vol. 8, No. 2 [1981], Art. 2, (surface.syr.edu/cgi/viewcontent.cgi?article=1121&context=jilc), T.R. Wolfe, New Information Order, A new international information order: the developing world and the free flow of information controversy, Syracuse Journal of International Law and Commerce, Vol. 8, No. 1 [1980], Art. 7, Published by Surface, 1980 (surface.syr.edu/cgi/viewcontent.cgi?article=1185&context=jilc), F. H. Cate, The First Amendment and the International “Free Flow” of Information (1990), Articles by Maurer Faculty (repository.law.indiana.edu/facpub/755).

[13] Art. 19 «Ogni individuo ha diritto alla libertà di opinione e di espressione incluso il diritto di non essere molestato per la propria opinione e quello di cercare, ricevere e diffondere informazioni e idee attraverso ogni mezzo e senza riguardo a frontiere». Art. 29 «[1] Ogni individuo ha dei doveri verso la comunità, nella quale soltanto è possibile il libero e pieno sviluppo della sua personalità. [2] Nell’esercizio dei suoi diritti e delle sue libertà, ognuno deve essere sottoposto soltanto a quelle limitazioni che sono stabilite dalla legge per assicurare il riconoscimento e il rispetto dei diritti e delle libertà degli altri e per soddisfare le giuste esigenze della morale, dell’ordine pubblico e del benessere generale in una società democratica. [3] Questi diritti e queste libertà non possono in nessun caso essere esercitati in contrasto con i fini e principi delle Nazioni Unite».

[14]Art. 19 «[1.] Ogni individuo ha diritto a non essere molestato per le proprie opinioni. [2.] Ogni individuo ha il diritto alla libertà di espressione; tale diritto comprende la libertà di cercare, ricevere e diffondere informazioni e idee di ogni genere, senza riguardo a frontiere, oralmente, per iscritto, attraverso la stampa, in forma artistica o attraverso qualsiasi altro mezzo di sua scelta. [3.] L’esercizio delle libertà previste al paragrafo 2 del presente art. comporta doveri e responsabilità speciali. Esso può essere pertanto sottoposto a talune restrizioni che però devono essere espressamente stabilite dalla legge ed essere necessarie:

  1. a) al rispetto dei diritti o della reputazione altrui;
  2. b) alla salvaguardia della sicurezza nazionale, dell’ordine pubblico, della sanità o della morale pubbliche».

[15] Cfr. sopra nota 8 in merito al fatto che la CEDU vincola gli Stati membri del Consiglio d’Europa, ma non l’Unione. E’ anche utile ricordare che il Consiglio d’Europa non fa parte dell’Unione europea. È un’organizzazione internazionale distinta, fondata nel 1949, che promuove i diritti umani, la democrazia e lo Stato di diritto. L’Italia – suo membro fondatore – ha aderito al Consiglio d’Europa il 5 maggio 1945. Si noti inoltre che, seguito della decisione presa dal Comitato dei Ministri il 16 marzo 2022 (Resolution CM/Res(2022)2), la Federazione russa non è più un membro del Consiglio d’Europa a decorrere da tale data (search.coe.int/cm/pages/result_details.aspx?objectid=0900001680a5d7d9). Infine, si segnala che la Corte europea dei diritti dell’uomo supervisiona l’attuazione della Convenzione negli Stati membri. Sull’incidenza della CEDU sull’ordinamento interno ed in particolare sul suo ruolo di parametro di legittimità delle leggi adottate dopo l’entrata in vigore dell’art. 117 Cost., Cfr. R. Mastroianni, Riforma del sistema radiotelevisivo italiano e diritto europeo, G. Giappichelli Editore, Torino, 2004, 18 – 20.

[16] Cfr. a riguardo Corte europea dei diritti dell’uomo, Guida sull’art. 17 della Convenzione europea dei diritti dell’uomo, Divieto dell’abuso di diritto, aggiornata al 31 agosto 2019 (echr.coe.int/Documents/Guide_Art_17_ITA.pdf).

[17] Cfr. nota 8 sui rapporti tra CEDU e Carta.

[18] Convenzione europea sulla televisione transfrontaliera, 5 maggio 1989. Cfr. coe.int/it/web/conventions/full-list?module=treaty-detail&treatynum=171.

[19] Come evidenziato: «E’ noto […] che interpretando gli artt. 49 ss. del TFUE, la Corte di giustizia, pur qualificando le trasmissioni televisive come “servizi” e quindi confermando come regola generale la loro libera circolazione nel mercato unico, ha riconosciuto agli Stati membri la facoltà di adottare misure restrittive, se non discriminatorie tra servizi interni e transfrontalieri e finalizzate alla tutela di esigenze imperative legate all’interesse generale» (così R. Mastroianni, Country of origin e principio di territorialità, in La riforma del mercato audiovisivo europeo, G. Abbamonte, E. Apa, O. Pollicino (a cura di), G. Giappichelli Editore, Torino, 2019, 1-2). Quindi, l’obiettivo della Direttiva 89/552/CEE era di facilitare la creazione di un mercato unico dei servizi audiovisivi che non poteva essere completamente garantito dalle norme del diritto primario dell’Unione europea viste le significative differenze tra gli ordinamenti dei singoli Stati membri. L’obiettivo della Convenzione Transfrontaliera era invece di garantire la libertà di informazione e di manifestazione del pensiero e, pertanto, di realizzare concretamene il libero flusso delle idee e delle informazioni tra gli Stati contraenti, valorizzando il pluralismo e sviluppando valori essenziali comuni cui le trasmissioni transfrontaliere si conformano. Sui rapporti tra la Direttiva 89/552/CEE e la Convenzione Transfrontaliera, Cfr. R. Mastroianni, La direttiva sui servizi di media audiovisivi e la sua attuazione nell’ordinamento italiano, 2ª ed., G. Giappichelli, Torino, 2011, 63 ss.

[20] I considerando 7 e 8 della Direttiva 89/552/CEE riconoscono rispettivamente che «[…] il trattato prevede la libera circolazione di tutti i servizi normalmente forniti a pagamento, senza esclusioni connesse al loro contenuto culturale o di altra natura e senza restrizioni per i cittadini degli Stati membri stabiliti in un paese della Comunità diverso da quello cui il servizio è destinato» e che «[…] questo diritto riconosciuto alla diffusione e distribuzione di servizi di televisione rappresenta anche una specifica manifestazione, nel diritto comunitario, del principio più generale della libertà di espressione qual è sancito dall’art. 10, paragrafo 1 della Convenzione sulla salvaguardia dei diritti dell’uomo e delle libertà fondamentali ratificata da tutti gli Stati membri e che, per tale motivo, l’adozione di direttive concernenti l’attività di diffusione e distribuzione di programmi televisivi deve garantire il libero esercizio ai sensi di tale articolo, con i soli limiti previsti dal paragrafo 2 del medesimo articolo e dall’art. 56, paragrafo 1 del trattato». Infatti, anche se la CEDU non vincola direttamente l’Unione, «il suo contenuto contribuisce a formare i principi generali menzionati nel par. 3», dell’art. 6 del Trattato sull’Unione Europea, così L. Daniele, Il diritto internazionale, cit., 201 e 223 – 225. La Direttiva 2010/13/UE, al considerando 16 afferma che: «La presente direttiva rafforza il rispetto dei diritti fondamentali ed è pienamente conforme ai principi riconosciuti dalla carta dei diritti fondamentali dell’Unione europea, in particolare l’art. 11. A questo riguardo, la presente direttiva non dovrebbe impedire in alcun modo agli Stati membri di applicare le rispettive norme costituzionali in materia di libertà di stampa e di libertà di espressione nei mezzi di comunicazione.». Cfr. R. Mastroianni, Country of origin e principio di territorialità, ivi, 2.

[21] Solo per anticipare quanto si dirà infra, vi sono: a) i «caching provider» (i soggetti che effettuano una memorizzazione temporanea dei contenuti pubblicati da soggetti terzi), b) i «mere conduit provider» (i soggetti che consentono il collegamento dell’utente alla rete telematica e dunque l’accesso ai singoli siti), c) gli «hosting provider» (che memorizzano nei propri server e rendono accessibili i contenuti pubblicati da soggetti terzi). In quest’ultima nozione sono rientrati via via, oltre agli hosting provider classici, anche le piattaforme di videosharing e i social network qualificati per lo più dalla giurisprudenza nazionale e comunitaria come hosting provider “attivi” in quanto forniscono servizi ulteriori quali quelli di organizzazione/ottimizzazione dei materiali; nonché e) ulteriori attività quali quelle dei content provider, degli  acceleratori di contenuti, dei fornitori di Content Delivery Network (CDN), etc..

[22] Cfr. A study of legal provisions and practices related to freedom of expression, the free flow of information and media pluralism on the Internet in OSCE participating States, Ž. Mujić, D. Yazici and M. Stone (Edited by), Office of the OSCE Representative on Freedom of the Media, Freedom of Expression on the Internet, 2012 (osce.org/files/f/documents/c/9/105522.pdf).

[23] «Disposizioni generali sull’azione esterna dell’Unione e disposizioni specifiche sulla politica estera e di sicurezza comune».

[24] Gli articoli 346 e 347 del TFUE disciplinano i casi in cui sono gli Stati membri direttamente che possono derogare, in alcune situazioni eccezionali delimitate (tra cui motivi di sicurezza e difesa nazionale ed internazionale), agli obblighi europei posti a tutela del mercato interno, in particolare quando non hanno altro mezzo per tutelare gli interessi essenziali della propria sicurezza. Sul punto si veda F. Sciaudone, Art. 346 TFUE e Art. 347, in Trattati dell’Unione europea, Le fonti del diritto italiano, A. Tizzano (a cura di), II ed., Giuffré Editore, 2014, 2515-2524.

[25] Ai sensi dell’art. 24, primo comma, TUE: «La competenza dell’Unione in materia di politica estera e di sicurezza comune riguarda tutti i settori della politica estera e tutte le questioni relative alla sicurezza dell’Unione, compresa la definizione progressiva di una politica di difesa comune che può condurre a una difesa comune. La politica estera e di sicurezza comune è soggetta a norme e procedure specifiche. Essa è definita e attuata dal Consiglio europeo e dal Consiglio che deliberano all’unanimità, salvo nei casi in cui i trattati dispongano diversamente. È esclusa l’adozione di atti legislativi. La politica estera e di sicurezza comune è messa in atto dall’alto rappresentante dell’Unione per gli affari esteri e la politica di sicurezza e dagli Stati membri in conformità dei trattati. Il ruolo specifico del Parlamento europeo e della Commissione in questo settore è definito dai trattati. La Corte di giustizia dell’Unione europea non è competente riguardo a tali disposizioni, ad eccezione della competenza a controllare il rispetto dell’art. 40 del presente trattato e la legittimità di talune decisioni, come previsto dall’art. 275, secondo comma del trattato sul funzionamento dell’Unione europea».

[26] E. Cannizzaro, Commento all’art. 24 TUE, in Trattati dell’Unione europea, cit., 232-233.

[27] Cfr. Art. 40 [ex art. 47 TUE]. In caso di conflitto tra basi giuridiche, la priorità spetta alle politiche materiali rispetto alla PESC. Divieto di cumulo di basi giuridiche, allorché una di esse sia la PESC (sentenza 20 maggio 2008, C- 91/95, Commissione c. Consiglio, c.d. sentenza Ecowas).

[28] E. Cannizzaro, Commento all’art. 24 TUE, in Trattati dell’Unione europea, cit., 233.

[29] Ai sensi del quale: «L’Unione assicura la coerenza tra i vari settori dell’azione esterna e tra questi e le altre politiche. Il Consiglio e la Commissione, assistiti dall’alto rappresentante dell’Unione per gli affari esteri e la politica di sicurezza, garantiscono tale coerenza e cooperano a questo fine».

[30] E. Cannizzaro, Commento all’art. 24 TUE, in Trattati dell’Unione europea, cit, 234. L’A. prosegue rilevando che: «Ancorché testualmente disposto in relazione ai soli provvedimenti a carattere sanzionatorio, tale meccanismo potrebbe essere visto come espressione del più generale principio di coordinamento dell’azione dell’Unione sul piano esterno previsto dall’art. 21, par. 3, TUE. Nella prassi più recente si può peraltro notare la tendenza ad utilizzare misure adottate sulla base delle competenze materiali per attuare atti di politica estera. […])» e che: «Questo elemento sembrerebbe indicare quindi l’esistenza di un più generale principio atto a consentire l’adozione a fini politici di misure fondate sulle competenze materiali sulla base di un atto di politica estera».

[31] La Decisione (PESC) 2022/351modifica la decisione 2014/512/PESC concernente misure restrittive in considerazione delle azioni della Russia che destabilizzano la situazione in Ucraina concernente misure restrittive in considerazione delle azioni della Russia che destabilizzano la situazione in Ucraina.

 

[32] Cfr. considerando 5 del Regolamento (UE) 2022/350 del Consiglio dell’Unione europea.

[33] Cfr. considerando 6, 7 e 8 del Regolamento (UE) 2022/350 del Consiglio dell’Unione europea.

[34] Cfr. F. J. Cabrera Blázquez, The implementation of EU sanctions against RT and Sputnik, European Audiovisual Observatory, Strasbourg, 2022 (rm.coe.int/note-rt-sputnik/1680a5dd5d).

[35] Cfr. Tribunale UE, sentenza 15 giugno 2017, causa T-262/15, Kiselev/ Consiglio, con la quale, nel respingere il ricorso presentato, afferma che «l’adozione da parte del Consiglio di misure restrittive nei confronti del ricorrente per la sua propaganda a favore delle azioni e delle politiche del governo russo per la destabilizzazione dell’Ucraina non può essere considerata una restrizione sproporzionata del suo diritto alla libertà di espressione.» [p.to 112] e che «diversamente, il Consiglio verserebbe nell’impossibilità di perseguire il suo obiettivo politico di far pressione sul governo russo indirizzando misure restrittive non solamente alle persone che sono responsabili delle azioni o delle politiche di tale governo riguardo all’Ucraina, o alle persone che attuano tali azioni o politiche, ma anche alle persone che sostengono queste ultime attivamente» [p.to 113].

[36] Direttiva 2018/1808/UE del Parlamento europeo e del Consiglio del 14 novembre 2018 recante modifica della Direttiva 2010/13/UE, relativa al coordinamento di determinate disposizioni legislative, regolamentari e amministrative degli Stati membri concernenti la fornitura di servizi di media audiovisivi (Direttiva sui servizi di media audiovisivi), in considerazione dell’evoluzione delle realtà del mercato. Cfr. successivo Capitolo 4.

[37] Sulla necessità di una interpretazione restrittiva delle eccezioni/limitazioni alla libertà di espressione Cfr. Rapporto OSCE, cit. (sopra nota 22) che, a questo riguardo, precisa che: «these must be construed strictly, and the need for any restrictions must be established convincingly by the states» (30, 199).

[38] Cfr. B. Baade, The EU’s “Ban” of RT and Sputnik A Lawful Measure Against Propaganda for War, in Verfassungsblog on Matters Constitutional, 8 März 2002 (verfassungsblog.de/the-eus-ban-of-rt-and-sputnik/).

[39] Tuttavia, si noti che le sanzioni adottate ai sensi dell’art. 215 TFUE devono essere solo necessarie e non è richiesto (come prima delle modifiche apportate dal Trattato di Lisbona) che esse siano anche caratterizzate dall’elemento dell’urgenza. Infatti, anche «se l’urgenza è una caratteristica intrinseca delle sanzioni economiche in quanto strumento atto a creare una pressione su uno Stato […], è verosimile pensare che la lotta nei confronti di fenomeni complessi come il terrorismo internazionale, tragga la sua efficacia dall’adozione di misure che presenti caratteristiche diverse fa quelle dell’urgenza […]. E’ dunque verosimile che l’eliminazione del presupposto dell’urgenza sia una presa d’atto della sua inidoneità a costituire una specifica condizione per l’esercizio del potere sanzionatorio ai sensi dell’art. 215 TFUE» (Cfr. M. E. Bartolini, Misure Restrittive, Titolo IV TFUE, in Trattati dell’Unione europea, cit., 1754-1755).

[40] Cfr. infra il riferimento all’espressione «anche sotto forma di […]» (Art. 1).

[41] Versione in inglese del Regolamento 2022/350 del Consiglio dell’Unione europea: «It shall be prohibited for operators to broadcast or to enable, facilitate or otherwise contribute to broadcast, any content by the legal persons, entities or bodies listed in Annex XV, including through transmission or distribution by any means such as cable, satellite, IP-TV, internet service providers, internet video-sharing platforms or applications, whether new or pre-installed».

[42] L’8 marzo 2022, l’alto rappresentante della UE Borrell ha dichiarato al Parlamento UE che la volontà dell’Unione europea di limitare la diffusione delle informazioni accessibili attraverso Russia Today e Sputnik, sul territorio UE, è stata motivata dal fatto che entrambi questi media non sono «media innocenti», che hanno e diffondono una propria visione della realtà, ma sono invece «armi nell’ecosistema del Cremlino» che «bombardano le menti e gli spiriti» (globalist.it/intelligence/2022/03/08/borrell-russia-today-sputnik-ucraina-disinformazione).

[43] Il concetto di «distribuzione» è aggiunto a quello di «trasmissione» in modo da coprire ogni forma di veicolazione di segnali televisivi, sia essa effettuata da meri carrier o da distributori tecnici e/o commerciali, attraverso qualsiasi mezzo, ivi incluso internet. La nozione di «distribuzione» è ampia e potenzialmente in grado di coprire ogni forma di messa a disposizione di contenuti audiovisivi, siano essi parte integrante di un palinsesto televisivo (ovverossia come parte di un flusso lineare di contenuti audiovisivi ricevibili sincronicamente dal pubblico) oppure estratti da tale palinsesto e «distribuiti» al pubblico in ogni modo e forma, anche attraverso fornitori di servizi internet o piattaforme on line.

[44] Cfr. la definizione di «servizio di media» contenuta nella Direttiva 2018/1808/UE, secondo cui è tale «un servizio quale definito agli articoli 56 e 57 del Trattato sul Funzionamento dell’Unione europea , ove l’obiettivo principale del servizio stesso o di una sua sezione distinguibile sia la fornitura di programmi al grande pubblico, sotto la responsabilità editoriale di un fornitore di servizi di media, al fine di informare, intrattenere o istruire, attraverso reti di comunicazioni elettroniche ai sensi dell’art. 2, lettera a), della direttiva 2002/21/CE; per siffatto servizio di media audiovisivo si intende o una trasmissione televisiva come definita alla lettera e) del presente paragrafo o un servizio di media audiovisivo a richiesta come definito alla lettera g) del presente paragrafo» (art. 1, comma 1, lettera a)). Con «lineare» si intende «un servizio di media audiovisivo fornito da un fornitore di servizi di media per la visione simultanea di programmi sulla base di un palinsesto di programmi» (art. 1, comma 1, lettera e) della Direttiva 2010/13/UE).

[45] Cfr. la recente decisione Ofcom 18 marzo 2022 di revoca delle licenze RT per la diffusione  in UK che si estende anche alle trasmissioni terrestri di tale emittente (il provvedimento si riferisce infatti anche al fatto che RT «[…] also holds DTPS 000072 licence to provide the service called RT on digital terrestrial television under the Broadcasting Act 1996» (ofcom.org.uk/__data/assets/pdf_file/0014/234023/revocation-notice-ano-tv-novosti.pdf).

[46] Diverse sono le forme di diffusione mediante l’impiego di protocolli IP. Il regolamento in esame fa espresso riferimento alla “IP-TV”. Con IPTV si intende Internet Protocol Television, ovvero un protocollo per la fruizione di servizi audiovisivi non su rete internet pubblica, ma seguendo canali preferenziali, così da poter garantire agli utenti degli standard di qualità minimi che consentono una visione del tutto simile a quella ottenibile sulle piattaforme trasmissive tradizionali terrestri o satellitari.  L’IP-TV non esaurisce le forme di fruizione via internet. Infatti, vi sono anche i servizi Over-the-top. Con tali servizi si intendono i «servizi audiovisivi trasmessi sulla rete Internet pubblica e tendenzialmente destinati a una fruizione su uno schermo televisivo connesso. I fornitori di tali servizi predispongono anche una interfaccia grafica di navigazione, così da consentire un accesso agevole al contenuto richiesto. A differenza dei servizi IPTV, si tratta di piattaforme che non utilizzano reti IP chiuse e, dunque, sono disponibili a tutti gli utenti che dispongono di un accesso a Internet a banda larga. Non sono previsti livelli minimi di qualità del servizio, che è erogato in best effort, benché i servizi a pagamento utilizzino solitamente tecnologie in grado di limitare i fenomeni di ritardo e interruzione del flusso audiovisivo» (così Provvedimento Autorità Garante per la Concorrenza e il Mercato, n. n. 30100 del 12 aprile 2022 relativo all’istruttoria C12207B, che riguarda “SKY ITALIA/R2 – REVISIONE MISURE”.

[47] Cfr. versione inglese sub nota 41 che sembra riferire l’ultimo inciso «whether new or pre-installed» alle applicazioni.

[48] Cfr. Ofcom Open letter to industry about new restrictions on the provision of certain internet services to, or for the benefit of, “designated persons”, 4 May 2022, di integrazione del precedente provvedimento The Russia (Sanctions) (EU Exit) (Amendment) (No. 9) Regulations 2022 SI 2022/477 che concerne le misure adottate dal Regno Unito a seguito dell’invasione dell’Ucraina da parte della Russia con riguardo ai servizi della società dell’informazione. Questi provvedimenti sono interessanti per i criteri di ragionevolezza che gli stessi prevedono e per l’individuazione di «different actions to be taken depending on the nature of the services». I temi della proporzionalità e della ragionevolezza saranno ripresi in questa analisi al Capitolo 6.

[49] Art. 1, co. 1 del Regolamento 2022/350 che introduce l’art. 2 septies dopo l’art. 2 sexies del Regolamento (UE) n. 833/2014.

[50] Per l’ordinamento italiano, cfr. artt. 1256, 1218 e 1463 del codice civile.

[51] Per l’Italia il sito è il seguente esteri.it/MAE/IT/Politica_Europea/Deroghe.htm.

[52] Tale normativa sembra infatti riguardare gli obblighi relativi alla fornitura di beni e tecnologie come disciplinati dall’Unione Europea. Cfr. Sanzioni nazionali per violazioni delle misure restrittive dell’UE in risposta alla crisi in ucraina: la prospettiva del diritto penale italiano, LCA, disponibile su internet al seguente indirizzo: linkedin.com/company/lca-studio-legale/

[53] Cfr. Ofcom Open Letter e relativo  (Amendment) (No. 9) Regulations 2022 SI 2022/477 cit., che individuano uno specifico regime sanzionatorio.

[54] Cfr. infra Capitolo 6.

[55] Cfr. L. Daniele, Il diritto internazionale, cit., 262 e, sulle procedure nel settore della PESC, 141 – 145. A quest’ultimo riguardo, l’A. spiega come si tratti di un ambito rimesso ad un organo esecutivo e dove quindi il Parlamento europeo non svolge alcun ruolo attivo nell’adozione delle decisioni PESC, fermo restando che: «L’Alto rappresentante lo consulta regolarmente» ed il «Parlamento può rivolgere interrogazioni o formulare raccomandazioni» (145).

[56] Tribunale UE, sentenza 15 giugno 2017, causa T-262/15, Kiselev/ Consiglio, cit., p.to 72.

[57] M. E. Bartoloni, Titolo V, Misure restrittive, in Trattati dell’Unione europea, cit., 1762.

[58] Cfr. a riguardo anche la Risoluzione del Parlamento europeo del 20 gennaio 2021 sull’attuazione della politica estera e di sicurezza comune – Relazione annuale 2020 ed in particolare il p.to 65.

[59] Ordonnance du Président du Tribunal dans l’affaire T-125/22 R. In particolare, il Tribunale dell’Unione ha affermato che: «Dès lors que la propagande et les campagnes de désinformation sont de nature à saper les fondements des sociétés démocratiques et font partie intégrante de l’arsenal de guerre moderne, la suspension immédiate des actes attaqués risquerait de compromettre la poursuite par l’Union des objectifs, notamment pacifiques, qu’elle s’est assignée conformément à l’article 3, paragraphes 1 et 5, TUE, au prix, chaque jour, de dommages matériels et immatériels irréparables.» [p.to 62].

[60] Corte di Giustizia (Grande sezione), sentenza del 28 marzo 2017, causa C-72/15, Rosneft.

[61] Corte di Giustizia, sentenza Rosneft, cit., p.to 72. V., in tal senso, Corte di Giustizia, sentenza del 19 luglio 2016, causa C‑455/14 P, H/Consiglio e Commissione, p.to 41, nonché la giurisprudenza ivi citata.

[62] Secondo cui «ogni persona i cui diritti e le cui libertà garantiti dal diritto dell’Unione siano stati violati ha diritto a un ricorso effettivo dinanzi a un giudice».

[63] Sulla base di queste osservazioni, la Corte ha affermato la propria competenza a statuire in via pregiudiziale su una decisione PESC che prevede misure restrittive nei confronti di persone fisiche o giuridiche sia in relazione alla sua compatibilità con l’art. 40 TUE sia alla sua legittimità.

[64] Inoltre, il Tribunale ha sottolineato che: «Il est de jurisprudence bien établie que, dans le cadre de la mise en balance des différents intérêts en présence, le juge des référés doit déterminer, notamment, si l’intérêt de la partie qui sollicite le sursis à exécution à en obtenir l’octroi prévaut ou non sur l’intérêt que présente l’application immédiate de l’acte attaqué, en examinant, plus particulièrement, si l’annulation éventuelle de cet acte par le juge du fond permettrait le renversement de la situation qui aurait été provoquée par son exécution immédiate et, inversement, si le sursis à l’exécution dudit acte serait de nature à faire obstacle à son plein effet, au cas où le recours principal serait rejeté […].» [p.to 59].

[65] L’Ordinanza così recita: «S’agissant des intérêts poursuivis par le Conseil, les considérants des actes attaqués se réfèrent à la nécessité de protéger l’Union et ses États membres contre des campagnes de désinformation et de déstabilisation qui seraient menées par les médias placés sous contrôle des dirigeants de la Fédération de Russie et qui menaceraient l’ordre et la sécurité publics de l’Union, dans un contexte marqué par une agression militaire contre l’Ukraine. Il s’agit ainsi d’intérêts publics qui visent à protéger la société européenne et s’insèrent dans une stratégie globale, laquelle vise à mettre un terme, aussi vite que possible, à l’agression subie par l’Ukraine» [p.to 61]. «Dès lors que la propagande et les campagnes de désinformation sont de nature à saper les fondements des sociétés démocratiques et font partie intégrante de l’arsenal de guerre moderne, la suspension immédiate des actes attaqués risquerait de compromettre la poursuite par l’Union des objectifs, notamment pacifiques, qu’elle s’est assignée conformément à l’article 3, paragraphes 1 et 5, TUE, au prix, chaque jour, de dommages matériels et immatériels irréparables.» [p.to 62] e che: «En revanche, les intérêts dont se prévaut la requérante se réfèrent à la situation de ses employés et à sa viabilité financière. Il s’agit ainsi d’intérêts d’une société de droit privé, dont les activités principales sont temporairement interdites» [p.to 63].

[66] Direttiva 89/552/CEE del Consiglio, del 3 ottobre 1989, relativa al coordinamento di determinate disposizioni legislative, regolamentari e amministrative degli Stati Membri concernenti l’esercizio delle attività televisive.

[67] Direttiva 97/36/CE del Parlamento europeo e del Consiglio del 30 giugno 1997, che modifica la direttiva 89/552/CEE del Consiglio relativa al coordinamento di determinate disposizioni legislative, regolamentari e amministrative degli Stati membri concernenti l’esercizio delle attività televisive.

[68] Direttiva 2007/65/CE del Parlamento europeo e del Consiglio, dell’ 11 dicembre 2007, che modifica la direttiva 89/552/CEE del Consiglio relativa al coordinamento di determinate disposizioni legislative, regolamentari e amministrative degli Stati membri concernenti l’esercizio delle attività televisive.

[69] Direttiva 2010/13/EU del Parlamento europeo e del Consiglio, del 10 marzo 2010, relativa al coordinamento di determinate disposizioni legislative, regolamentari e amministrative degli Stati membri concernenti la fornitura di servizi di media audiovisivi (direttiva sui servizi di media audiovisivi). Con quest’ultima Direttiva viene abrogata la Direttiva 89/552/CEE che era stata modificata dalle Direttive di cui alle note 67 e 68.

[70] Cfr. nota 36.

[71] Cfr. Dettagli del Trattato n°171 sul sito del Consiglio d’Europa (coe.int/it/web/conventions/full-list?module=treaty-detail&treatynum=171).

[72] Risulta dal sito del Consiglio d’Europa che la Convenzione europea sulla televisione transfrontaliera sia stata firmata il 4 ottobre 2006, ma non ratificata, dalla Federazione Russa (coe.int/it/web/conventions/full-list?module=treaties-full-list-signature&CodePays=RUS).

[73] Sono parti della Convenzione 20 dei 27 Stati membri dell’UE e il Regno Unito. Non ne sono parti i seguenti Stati membri dell’UE: Belgio, Danimarca, Grecia, Irlanda, Lussemburgo, Paesi Bassi e Svezia (coe.int/it/web/conventions/full-list/-/conventions/treaty/132).

[74] Il «Servizio di programmi» indica l’insieme degli elementi di un determinato servizio, fornito da un radiotrasmettitore ai sensi del paragrafo precedente (art. 2, lett. d) della Convenzione europea sulla televisione transfrontaliera)).

[75] Cfr. dettagli del Trattato n°171 su coe.int/it/web/conventions/full-list?module=treaty-detail&treatynum=171.

[76] Tali criteri comprendono, in particolare, l’ubicazione della sede principale del fornitore, il luogo in cui sono prese le decisioni editoriali sul servizio di media audiovisivo e il luogo in cui opera la maggior parte degli addetti al servizio (Cfr. art. 2, paragrafo 3, della Direttiva 2018/1808/UE).

[77] Tali criteri sono: lo Stato membro in cui è situato il collegamento terra-satellite o, in assenza di tale collegamento in uno Stato membro, lo Stato membro competente per la capacità via satellite utilizzata dal fornitore (Cfr. art. 2, paragrafo 4, della Direttiva 2018/1808/UE).

[78] Si noti che la Direttiva 2018/1808/UE ha sostanzialmente confermato i criteri di collegamento già previsti nella Direttiva 2010/13/CE, salva la precisazione per cui l’attività di servizio di media audiovisivo a cui è preposta la «parte significativa degli addetti» al fine della scelta del luogo di stabilimento deve essere «collegata ai programmi». Inoltre, la Direttiva  2018/1808/UE ha aggiunto previsioni per dirimere i conflitti tra Stati Membri in ordine alla determinazione della giurisdizione su un fornitore di SMA. In questo caso, infatti, la questione dovrà essere portata all’attenzione della Commissione europea che potrà chiedere un parere al riguardo all’ERGA (nonché, secondo le modifiche proposte dal Consiglio, al comitato di contatto). Gli Stati Membri dovranno altresì comunicare alla Commissione una lista (che dovrà essere sempre aggiornata) dei fornitori di servizi di media audiovisivi ricadenti sotto la propria giurisdizione ed i criteri sui quali tale giurisdizione è basata. La Commissione europea metterà a disposizione tali elenchi in una banca dati centralizzata e, in caso di incoerenze tra gli elenchi, contatterà gli Stati membri. Sia le Autorità indipendenti sia il pubblico avranno accesso a tali informazioni. Inoltre, gli Stati membri devono assicurare che i fornitori di SMA informino le autorità o gli organismi nazionali di regolamentazione di qualsiasi modifica che possa influire sulla determinazione della giurisdizione.

[79] Art. 10 CEDU.

[80] Cfr. considerando 54 della Direttiva 2010/13/UE.

[81] Cfr. Il caso di RT France, Ordonnance du Président du Tribunal dans l’affaire T-125/22 R, cit., p.to 1.

[82] Interessante anche la decisione citata di Ofcom del 18 marzo 2022 che precisa che: «While we recognise that the RT service is not currently broadcasting in the UK, this is a consequence of the application of sanctions by the EU, which are temporary, and of the commercial decisions of platform providers. As the Licensee does currently hold Ofcom broadcasting licences, it is possible for its services to recommence broadcasting at any time (e.g. by coming to an arrangement with a broadcasting platform specific to the UK).». Nell’adottare la decisione di revoca delle licenze di diffusione in UK, Ofcom evidenzia quanto segue: «In considering the proportionality of our decision, we note that the impact on ANO TV Novosti’s freedom of expression is somewhat mitigated by the fact that it is not, in any event, currently broadcasting on any regulated broadcast platforms in the UK. Ofcom’s duty to uphold standards protecting audiences from harm is central to our role as a broadcast regulator, and we consider our duty to be satisfied on an ongoing basis that broadcast licensees are fit and proper to hold licences is important in ensuring confidence in the broadcasting regime. Ofcom is not relieved of this duty merely because the broadcaster concerned is not broadcasting. We consider that in the current circumstances, where we have immediate and significant repeated concerns about large quantities of material recently broadcast about the actions of its state funder in Ukraine, the Licensee’s compliance history, and the fact it appears impossible for the Licensee to comply with the Code in respect of a matter of major political importance given the constraints imposed on it by Russian law, and despite clear guidance from Ofcom, this interference is proportionate and necessary in our democratic society in pursuance of a legitimate aim, i.e. to protect audiences from harmful partial broadcast news services in the UK and in order to maintain audiences’ trust and public confidence in the UK broadcast licensing regime as a whole».

[83]  In base all’attuale formulazione della Direttiva 2018/180/UE: «Uno Stato membro può derogare in via provvisoria al paragrafo 1 del presente articolo se un servizio di media audiovisivo erogato da un fornitore di servizi di media sotto la giurisdizione di un altro Stato membro viola in maniera evidente, grave e seria l’art. 6, paragrafo 1, lettera b), ovvero pregiudica o presenta un rischio grave e serio di pregiudizio per la pubblica sicurezza, compresa la salvaguardia della sicurezza e della difesa nazionale. La deroga di cui al primo comma è subordinata» ad una serie di condizioni. Inoltre, lo «Stato membro interessato rispetta il diritto di difesa del fornitore di servizi di media interessato e, in particolare, gli concede la possibilità di esprimere le sue opinioni in merito alle presunte violazioni.». Come si ricava da questa disposizione, essa riguarda le trasmissioni di editori di servizi di media audiovisivi (lineari e/o non lineari) che sono sotto la giurisdizione di uno Stato membro e che sono ricevute in altri Stati membri.

[84] Sull’estensione del “doppio controllo” via via anche a settori non coordinati dalla Direttiva SMA anche al fine di uniformare la disciplina della circolazione dei servizi non lineari alle regole codificate nella Direttiva E-Commerce e sulla estensione alla Commissione del compito («tutt’altro che agevole e comunque da esercitare in anticipo rispetto ad una eventuale procedura di infrazione») di decidere se un determinato servizio sia rispettoso di valori ed esigenze primarie nazionali come la tutela della salute, della pubblica sicurezza, dell’ordine pubblico Cfr. R. Mastroianni, Country of Origin e principio di territorialità, cit., 13.

[85] «Conformemente alla giurisprudenza della Corte di giustizia dell’Unione europea (“Corte”), è possibile limitare la libera prestazione dei servizi sancita dal trattato per motivi imperativi di interesse pubblico generale, ad esempio il conseguimento di un elevato livello di tutela dei consumatori, a condizione che le limitazioni in questione siano giustificate, proporzionate e necessarie. Di conseguenza, uno Stato membro dovrebbe poter adottare talune misure al fine di garantire il rispetto delle proprie norme in materia di tutela dei consumatori che non rientrano nei settori coordinati dalla Direttiva 2010/13/UE. Le misure adottate da uno Stato membro per attuare il proprio regime nazionale in materia di tutela dei consumatori, anche per quanto concerne la pubblicità del gioco d’azzardo, dovrebbero essere giustificate, proporzionate all’obiettivo perseguito e necessarie ai sensi della giurisprudenza della Corte. In ogni caso, uno Stato membro ricevente non deve adottare misure che ostino alla ritrasmissione, sul proprio territorio, di trasmissioni televisive provenienti da un altro Stato membro.» (considerando 10).

[86] Art. 3, comma 5 della Direttiva 2018/1808/UE.

[87] Secondo questo principio, applicato già ai fornitori di servizi di SMA (come definiti nella stessa Direttiva) operanti in Europa, la giurisdizione spetta ad un solo Stato membro, quello di stabilimento del fornitore così come individuato in base a specifici criteri. Inoltre, esso prevede che ciascuno Stato membro avente giurisdizione sul singolo fornitore debba vigilare sul rispetto delle regole della direttiva e gli altri Stati membri di ricezione del servizio non possono  pretendere di effettuare un secondo controllo e così ostacolare la diffusione del servizio sul proprio territorio. Sull’applicazione di tale principio a seguito della direttiva 2018/1808/UE, v. per tutti R. Mastroianni, Country of Origin e principio di territorialità, cit. 7 ss.

[88] La Direttiva 2018/1808/UE fa riferimento al riguardo all’art. 3, paragrafo 1, della Direttiva sul commercio elettronico. Come evidenzia R. Mastroianni, ivi, 9: «Quest’ultima disposizione tuttavia non contiene alcuna particolare definizione, limitandosi a ribadire la tradizionale clausola di HSC riferita ai prestatori di servizi della società dell’informazione stabiliti nel territorio di uno Stato membro.».

[89] Ai fini dell’art. 28 bis, commi 2-5 della Direttiva 2018/1808/UE, si intende per: a)   «impresa madre»: un’impresa che controlla una o più imprese figlie; b)   «impresa figlia»: un’impresa controllata da un’impresa madre, incluse le imprese figlie di un’impresa madre capogruppo; c)   «gruppo»: l’impresa madre, tutte le sue imprese figlie e tutte le altre imprese aventi legami organizzativi, economici e giuridici con esse.

[90] Vi è però una norma, contenuta all’art. 7, comma 13 del TUSMA, che è stata espressamente estesa anche ai servizi di piattaforma per la condivisione di video. Di seguito il testo con evidenziate (in corsivo e barrato) le modifiche (apportate dal D. Lgs. 208/2021 al TUSMAR) relative a questi ultimi servizi: «In ipotesi di violazione dei principi fondamentali del sistema dei servizi di media audiovisivi e radiofonici e di servizi di piattaforma per la condivisione di video, l’Autorità può disporre la sospensione della ricezione o ritrasmissione di servizi di media sottoposti alla giurisdizione italiana ai sensi dell’art. 2, comma  3,  e  dell’art.  41,  comma  7,  non soggetti alla giurisdizione di alcuno Stato membro dell’Unione europea, i cui contenuti o cataloghi sono ricevuti direttamente o indirettamente dal pubblico italiano. A tale fine, a seguito  di un formale richiamo, l’Autorità può altresì ordinare al fornitore di servizi interattivi associati o di servizi di accesso condizionato o all’operatore di rete o di servizi sulla cui piattaforma o infrastruttura sono veicolati programmi, di adottare ogni misura necessaria ad inibire la diffusione di tali programmi o cataloghi al pubblico italiano. In caso di inosservanza dell’ordine, l’Autorità irroga al fornitore di servizi interattivi associati o di servizi di accesso condizionato o all’operatore di rete o di servizi una sanzione amministrativa pecuniaria da euro 5,000 ad euro 500.000,00.». Questa norma potrebbe dunque fondare un intervento di AGCOM nei confronti dei servizi di piattaforma per la condivisione di video laddove queste forniscano contenuti provenienti anche da altri Paesi che siano in «violazione dei principi fondamentali» sanciti dal TUSMA.

[91] Cfr. R. Mastroianni, Country of origin e principio di territorialità, cit., 18, O. Grandinetti, Commento al Testo unico per la fornitura dei servizi di media audiovisivi, in pubblicazione su Giorn. dir. amm., 2022.

[92] Per completezza, si segnala che è stata avviata dal BEREC una procedura da parte su: «Draft Update to the BEREC Guidelines on the  Implementation of the Open Internet Regulation». La consultazione – che si è chiusa il 14 aprile 2022 – si sofferma anche sull’art. 3(3) (a) del Regolamento Open Internet relativo a: «Union and national legislation»

(berec.europa.eu/eng/document_register/subject_matter/berec/regulatory_best_practices/guidelines/10210-draft-update-to-the-berec-guidelines-on-the-implementation-of-the-open-internet-regulation; berec.europa.eu/eng/document_register/subject_matter/berec/reports/10278-report-on-the-outcome-of-public-consultation-on-the-update-to-the-berec-guidelines-on-the-implementation-of-the-open-internet-regulation).

[93] Considerando 9, primo periodo.

[94] Considerando 9, secondo periodo.

[95] Il comma 6 prevede: «Salva la possibilità degli Stati membri di procedere con i provvedimenti in questione, la Commissione verifica con la massima rapidità la compatibilità dei provvedimenti notificati con il diritto comunitario; nel caso in cui giunga alla conclusione che i provvedimenti sono incompatibili con il diritto comunitario, la Commissione chiede allo Stato membro in questione di astenersi dall’adottarli o di revocarli con urgenza.».

[96] Art. 16 della Direttiva sul commercio elettronico.

[97] Sulla particolare natura delle piattaforme di condivisione di video oggetto della Direttiva 2019/790/UE e delle piattaforme on line oggetto del Regolamento DSA si vedano infra i Capitoli 7 e 9.

[98] Così Corte di Giustizia 22 giugno 2021, nelle cause riunite 682/18 e 683/18, Frank Perterson c. Google LLC, YouTube Inc., You Tube LLC, Google Germany GmbH, e Elsevier Inc. v. Cyando AG, p.to 115.

[99] Cfr. a riguardo G. Licandro, Direttiva 2019/790/UE, 17 aprile 2019, Sul diritto d’autore e sui diritti connessi nel mercato unico digitale e che modifica le direttive 96/9/CE e 2001/29/CE, in Commentario del codice civile, Dei singoli contratti, Leggi Collegate, Vol. III, D. Valentino (a cura di), UTET Giuridica, 2020, 156 e in particolare nota 12 dove l’A., con riguardo all’applicazione dei due criteri (diligenza e ragionevolezza) a qualsiasi ISP, cita, oltre la giurisprudenza comunitaria di riferimento, anche la giurisprudenza della CEDU che «si è dimostrata in più occasioni particolarmente sensibile e attenta alle specificità del caso concreto arrivando ad escludere la limitazione di responsabilità prevista dalla Direttiva 2000/31/CE in applicazione e nel rispetto dei principi sanciti dalla Carta Europea dei diritti dell’Uomo» (157). Cfr. anche O. Pollicino, Ruoli e responsabilità in rete, in Diritto dell’informazione e dei media, G.E. Vigevani, O. Pollicino, C. Melzi d’Eril, M. Cuniberti, M. Bassini, 2ª ed., Giappichelli, 2022, 336 ss.

[100] Cfr. anche nota a sentenza Corte di Cassazione 7708/2019 in cui si evidenzia che «è dibattuto se, al fine di ingenerare l’effettiva conoscenza dell’illecito e il conseguente obbligo di rimozione dei contenuti da parte del provider, la diffida della parte asseritamente lesa debba raggiungere un livello di dettaglio […] quanto alla localizzazione degli stessi nell’ambito dei contenuti ospitati dall’hosting provider sui propri server. Ciò in particolare attraverso una specifica indicazione degli URL corrispondenti al materiale asseritamente contraffattori» (L. Anselmi, in AIDA, L.C. Ubertazzi (diretti da), XXVIII, Giuffrè Francis Lefebvre, Milano, 2020, 497 – 498).

[101] Art. 17 della Direttiva sul commercio elettronico. Cfr. sentenza Corte di Cassazione n.7709/2019.

[102] Cfr. le ordinanze collegiali indicate alla nota 116.

[103] Art. 14 della Direttiva sul commercio elettronico.

[104] Già, in un precedente caso, il Tribunale di Milano aveva ritenuto di poter estendere l’ordine anche ai futuri alias con cui sarebbero stati in futuro accessibili i medesimi contenuti illeciti rilevando che era «compatibile con il divieto dell’obbligo generale di sorveglianza, proporzionata e allo stesso tempo efficace una misura che ordini agli internet service provider di impedire l’accesso ai medesimi contenuti già accertati illeciti -perché relativi alle comunicazione al pubblico, senza autorizzazione dell’avente diritto, dei diritti esclusivi della ricorrente […] a prescindere dal nome di dominio, che continua a mutare, per deliberata e palesata volontà dell’autore dell’illecito. Un diverso comando che circoscrivesse l’ordine ad un preciso nome a dominio sarebbe nel caso di specie inutiliter dato, considerato che, in breve volgere di tempo, l’autore dell’illecito” potrebbe modificare «ripetutamente il nome a dominio […] Un ordine che riguardi il contenuto illecito, colpendo anche i siti alias, è allora […] l’unico ordine che ‘abbia l’effetto di impedire o almeno di rendere difficilmente realizzabile le consultazioni non autorizzate dei materiali protetti e di scoraggiarne seriamente gli utenti di internet che ricorrono ai servizi del destinatario di questa ingiunzione» (Cfr. caso cit Telekabel, punto 64)». In quel caso, tuttavia, l’estensione dell’ordine aveva riguardato i futuri alias del nome a dominio e non quelli dell’indirizzo IP (Cfr. Tribunale di Milano 12 aprile 2018).

[105] Che informazioni “precise” siano necessarie lo si ricava anche dalla proposta di Regolamento DSA (v. infra Capitolo 9) della Commissione europea (COM(2020)825) che per giunta fa espresso riferimento alla «chiara indicazione dell’ubicazione elettronica di tali informazioni, in particolare l’indirizzo o gli indirizzi URL esatti e, se necessario, informazioni supplementari che consentano di individuare il contenuto illegale» (Cfr. art. 8 della suddetta proposta). Si noti a questo riguardo che, nel testo approvato con Risoluzione legislativa del Parlamento europeo del 5 luglio 2022, tale previsione è la seguente [gli ordini di contrasto ai contenuti illegali devono contenere]: «informazioni chiare che consentano al prestatore di servizi intermediari di individuare e localizzare i contenuti illegali in questione, quali uno o più indirizzi URL (Uniform Resource Locator) esatti e, se necessario, informazioni supplementari». Dunque, quest’ultima previsione sembra indicare gli indirizzi URL in via esemplificativa e non quali uniche informazioni rilevanti per l’identificazione e la localizzazione dei contenuti oggetto di contestazione, dando in tal modo importanza anche alla considerazione dello stato della tecnica da valutare anche con riguardo alle diverse caratteristiche dei servizi forniti dai provider. Si noti che l’art. 14 del Regolamento DSA (relativo ai soli hosting) precisa quanto segue [le notifiche devono contenere]: «una chiara indicazione dell’ubicazione elettronica esatta di tali informazioni, quali l’indirizzo o gli indirizzi URL esatti e, se necessario, informazioni supplementari che consentano di individuare il contenuto illegale adeguato al tipo di contenuto e al tipo specifico di servizio di hosting». Questa norma aggiunge dunque la nozione di “adeguatezza” che ancora di più valorizza un approccio on a case by case basis o perlomeno, come indicato sopra, un approccio che sia al passo con l’evoluzione delle tecnologie di rilevazione in rete dei contenuti.

[106] Sulla necessità di tenere conto della diversa natura degli ISP, Cfr. anche Ofcom Open letter, cit., che così si eprime: «The Regulations require different actions to be taken depending on the nature of the services that are offered: • Providers of internet access services must take reasonable steps to prevent users of the service in the United Kingdom from accessing, by means of that service, an internet service provided by TV-Novosti or Rossiya Segodnya. • Providers of social media services must take reasonable steps to prevent content that is generated directly on the service, or uploaded to or shared on the service, by TV-Novosti or Rossiya Segodnya being encountered by a user of the service in the United Kingdom. • Providers of application stores through which an application for an internet service may be downloaded or otherwise accessed must take reasonable steps to prevent users of the application store in the United Kingdom from downloading or otherwise accessing, by means of that service, an internet service provided by TV-Novosti or Rossiya Segodnya. For these purposes, internet services provided by TV-Novosti include rt.com; internet services provided by Rossiya Segodnya include sputniknews.com».

[107] Il BEREC a questo riguardo afferma che: «It is BEREC’s understanding that the obligations to block RT and Sputnik are to be read in a broad manner and that all websites belonging to the entities mentioned in the Annex XV of the Regulation are covered including the provision of access to them by ISPs. BEREC reiterates that the Regulation 2022/350 is a legal Act that falls within the scope of the exceptions in Article 3(3) of the Open Internet Regulation. Therefore, BEREC considers that all domains incl. subdomains (such as www.rt.com, francais.rt.com, sputniknews.com, sputniknewslv.com, sputniknews.gr, sputniknews.cn, etc. ) related to the entities mentioned in the Annex XV fall under this exception.» (european-union.europa.eu/institutions-law-budget/institutions-and-bodies/institutions-and-bodies-profiles/berec-office_it).

[108] Il paragrafo 1, dell’art. 15 prevede infatti che: «Nella prestazione dei servizi di cui agli articoli 12, 13 e 14, gli Stati membri non impongono ai prestatori un obbligo generale di sorveglianza sulle informazioni che trasmettono o memorizzano né un obbligo generale di ricercare attivamente fatti o circostanze che indichino la presenza di attività illecite». La Corte di Giustizia ha più volte riconosciuto che misure consistenti nell’ingiungere a un prestatore di predisporre, esclusivamente a sue spese, sistemi di filtraggio implicanti una sorveglianza generalizzata e permanente per prevenire qualsiasi futura violazione di diritti di proprietà intellettuale sono incompatibili con l’art. 15, paragrafo 1, della Direttiva sul commercio elettronico (Cfr. sentenze del 24 novembre 2011, Scarlet Extended, C‑70/10, p,ti da 36 a 40, e del 16 febbraio 2012, SABAM, C‑360/10, p.ti da 34 a 38). Cfr, anche considerando 28 e art. 7 del Regolamento DSA in corso di adozione,

[109] Sulla distinzione tra hosting attivo e passivo, Cfr. sentenza Tribunale di Roma, sez. IX civile, 27 aprile 2016, n. 8437, conf. da Corte d’appello di Roma, sez. Impresa, 29 aprile 2017, n. 2833,  Tribunale di Roma, sez. IX, 5 maggio 2016, n. 9026, Tribunale Roma, sez. IX, 15 luglio 2016, n. 14279, Corte di Cassazione, Sez. I civile, 19 marzo 2019 n. 7780, Tribunale di Roma, Sezione Specializzata in materia di Impresa, 693/2019. In particolare, quest’ultima include un’analisi dei diversi orientamenti della giurisprudenza nazionale sia in merito alla qualifica di un hosting come “attivo” sia in merito alla questione dell’idoneità della diffida ai fini dell’insorgenza, in capo a quest’ultimo, del dovere di attivazione e di rimozione di contenuti illeciti. Più in particolare, a quest’ultimo riguardo, la sentenza esamina le caratteristiche che la diffida deve avere ai fini della conoscenza effettiva dei contenuti illeciti da parte dell’hosting anche per l’individuazione di “ulteriori video”.

[110] Sentenza Tribunale di Roma 693/2019, cit..

[111] Ex multis sentenza della Corte di Giustizia 3 ottobre 2019, nella causa C‑360/10/18 (v. anche note 113 e 120).

[112] Il considerando 48 della Direttiva 2000/31/CE così recita: «La presente direttiva non pregiudica la possibilità per gli Stati membri di chiedere ai prestatori di servizi, che detengono informazioni fornite dai destinatari del loro servizio, di adempiere al dovere di diligenza che è ragionevole attendersi da loro ed è previsto dal diritto nazionale, al fine di individuare e prevenire taluni tipi di attività illecite».

[113] Cfr. sentenza Corte di Cassazione n.7708/2019, cit., che afferma che è ammissibile prevedere un «obbligo del prestatore di astenersi di pubblicare contenuti illeciti dello stesso tipo di quelli già riscontrati come violativi dell’altrui diritto e, di conseguenza, l’ammissibilità di una pronuncia inibitoria in tal senso […] posto che la situazione di ignoranza di quei contenuti […] è per definizione venuta meno, una volta reso edotto il prestatore dalla comunicazione proveniente dal soggetto leso».

[114] L’obbligo di sorveglianza specifica, vale a dire ex post e comunque sulla base di un ordine (dinamico) di un’autorità giudiziaria, si applica anche ai fornitori di servizi di caching come si ricava dalla sentenza della Corte di Cassazione civile, Sez. I, sentenza 8 febbraio 2022, n. 3952 che, seppure ritenga (in materia di diritto all’oblio dell’interessato) che alla deindicizzazione del nome proprio della persona non debba accompagnarsi la cancellazione delle copie cache delle relative pagine web, riconosce comunque astrattamente la possibilità di un’ingiunzione cd. dinamica quando afferma che la «copia cache dei siti internet indicizzati consente al motore di ricerca di fornire una risposta più veloce ed efficiente all’interrogazione posta dall’utente attraverso una o più parole chiave. La cancellazione di esse preclude al motore di ricerca, nell’immediato, di avvalersi di tali copie per indicizzare i contenuti attraverso parole chiave anche diverse da quella corrispondente al nome dell’interessato. Detta cancellazione impedisce, inoltre, l’utilizzo di nuove copie cache che siano equivalenti a quelle cui si riferisce l’adottata statuizione, nella misura in cui si ritenga che tale ordine abbia il contenuto di una “ingiunzione dinamica”, estendendo la propria portata a tutte le copie, di contenuto sostanzialmente invariato rispetto a quelle cui si riferisce l’ordine, che il motore di ricerca possa realizzare nel futuro: è da ricordare, in proposito, che, seppure ad altro proposito, con riferimento ai servizi di hosting, la Corte di giustizia si è già pronunciata nel senso di ammettere, a determinate condizioni, ordini aventi ad oggetto informazioni già memorizzate, il cui contenuto sia identico o comunque equivalente a quello di un’informazione precedentemente dichiarata illecita, o di bloccare l’accesso alle medesime (Corte giust. UE, 3 ottobre 2019, Eva Glawischnig-Piesczek, C-18/18, 53).».

[115] Così A. La Rosa, La responsabilità degli intermediari, in Il Diritto di internet nell’era digitale, G. Cassano – Stefano Previti (a cura di), Giuffrè Francis Levebre, 2020, 779.

[116] Cfr. Ordinanza collegiale 19 novembre 2020, Tribunale di Milano, Sezione Specializzata Imprese A, nel procedimento per reclamo iscritto al n. 36960/2020 e ordinanza collegiale dello stesso Tribunale a seguito di reclami nn. 24419/2020, 24426/2020 e 24447 riuniti. Nello stesso senso anche le ordinanze del Tribunale di Milano nei confronti dei mere carrier.  In merito a queste ordinanze ed alla loro natura di “ordini dinamici”, L. Ciliberti e D. Roncarà, Il mercato digitale e l’ospite indesiderato (la pirateria). Gli importanti sviluppi della giurisprudenza civile nell’ultimo triennio (2019-2022), in Internet e diritto d’autore, La Direttiva Copyright e la sua applicazione in Italia, W. Carraro, S. Longhini e F. Unnia (a cura di), Giuffrè Francis Lefebvre, 2022, 71 ss. Si veda anche l’analisi contenuta in M. Tavassi e G. Bellomo, I contenuti digitali tra tutela evolutiva del diritto d’autore e responsabilità delle piattaforme, nella direttiva europea e nella giurisprudenza, in Internet e diritto d’autore, La Direttiva Copyright e la sua applicazione in Italia, cit., 56 ss.

[117] Cfr. le ordinanze collegiali citate alla precedente nota 116.

[118] Cfr. il considerando 8 della Raccomandazione (Ue) 2018/334 della Commissione del 10 marzo 2018 sulle misure per contrastare efficacemente i contenuti illegali on line, secondo cui: «La direttiva 2000/31/CE del Parlamento europeo e del Consiglio prevede, nel rispetto di determinate condizioni, esenzioni di responsabilità per determinati prestatori di servizi on line, compresi i prestatori di servizi di “hosting” ai sensi dell’art. 14 della medesima direttiva. Al fine di beneficiare dell’esenzione di responsabilità, i prestatori di servizi di hosting sono tenuti ad agire immediatamente per rimuovere le informazioni illegali da essi memorizzate, o per disabilitare l’accesso alle medesime, non appena ne siano effettivamente al corrente o, per quanto attiene a eventuali azioni risarcitorie, non appena siano al corrente di fatti o circostanze che rendono manifesta l’illegalità dell’attività o dell’informazione. Essi possono venire a conoscenza di tali informazioni, fatti o circostanze anche grazie alle segnalazioni che ricevono. La direttiva 2000/31/CE rappresenta dunque la base per lo sviluppo di procedure volte a rimuovere le informazioni illegali e a disabilitare l’accesso alle medesime.».

[119] Cfr. precedente nota 111.

[120] Cfr. la sentenza della Corte di Giustizia, 3 ottobre 2019, C-18/18, cit., secondo cui «un giudice di uno Stato membro, da un lato, non può emettere un’ingiunzione nei confronti di un prestatore di servizi di hosting per ordinargli di sorvegliare, in via generale, le informazioni da esso memorizzate né, d’altro lato, costringerlo a ricercare attivamente fatti o circostanze sottese al contenuto illecito» [p.to 42], «l’obiettivo perseguito da un’ingiunzione, come quella menzionata all’art. 18, paragrafo 1, della stessa direttiva, letto alla luce del suo considerando 41, consistente in particolare nel tutelare efficacemente la reputazione e l’onore di una persona, non può essere perseguito mediante un obbligo eccessivo imposto al prestatore di servizi di hosting» [p.to 44], «occorre che le informazioni equivalenti cui fa riferimento il p.to 41 della presente sentenza contengano elementi specifici debitamente individuati dall’autore dell’ingiunzione, quali il nome della persona interessata dalla violazione precedentemente accertata, le circostanze in cui è stata accertata tale violazione nonché un contenuto equivalente a quello dichiarato illecito. Differenze nella formulazione di tale contenuto equivalente rispetto al contenuto dichiarato illecito non devono, ad ogni modo, essere tali da costringere il prestatore di servizi di hosting interessato ad effettuare una valutazione autonoma di tale contenuto.» [p.to 45], «Ciò posto, un obbligo […] nella misura in cui si estende anche alle informazioni di contenuto equivalente, risulta sufficientemente efficace per garantire la tutela della persona oggetto di dichiarazioni diffamatorie. Dall’altro, tale tutela non viene garantita tramite un obbligo eccessivo imposto al prestatore di servizi di hosting, in quanto la sorveglianza e la ricerca che richiede sono limitate alle informazioni contenenti gli elementi specificati nell’ingiunzione e il loro contenuto diffamatorio di natura equivalente non obbliga il prestatore di servizi di hosting ad effettuare una valutazione autonoma, e quest’ultimo può quindi ricorrere a tecniche e mezzi di ricerca automatizzati» [p.to 46].

[121] Così M. Bassini, La Cassazione e il simulacro del provider attivo: mala tempora currunt, MediaLaws, 23 Luglio 2019, che afferma che: «La saldatura logica tra la figura dell’hosting attivo e il regime di responsabilità previsto dalla disciplina europea e nazionale pare doversi poi individuare in un punto particolare, sul quale si è appuntata la giurisprudenza: segnatamente, quali condizioni siano necessarie affinché il provider possa considerarsi avere una conoscenza effettiva circa l’esistenza di un contenuto illecito. Nell’ambiguità del dato normativo, che non precisa tali condizioni, alcuni giudici hanno ritenuto che in presenza di un fornitore di servizi attivo la soglia entro cui scatterebbe l’obbligo di rimuovere un contenuto sarebbe destinata ad abbassarsi: così, mentre per un provider passivo soltanto una notifica dettagliata e puntuale sarebbe in grado di generare una conoscenza effettiva, per il provider attivo anche una notifica generica sarebbe sufficiente stante il maggior grado di prossimità ai contenuti. […]. Così, provider che confidavano sulla carenza di una analitica indicazione dei contenuti da rimuovere da parte dei titolari dei diritti per reclamare la propria estraneità a ogni addebito (opponendo che una generica segnalazione non fosse sufficiente a generare in capo a loro una conoscenza effettiva dell’illecito) si sono visti condannare, come nel recente caso RTI v. Vimeo […], quantunque in assenza di una notifica puntuale degli URL».

[122] Il tema rimane comunque dibattuto considerato anche quanto afferma la Corte di Cassazione 7708/2019 (v. anche precedenti note 111, 114 e 120). Infatti, questa sentenza riprende la normativa di riferimento, individuando nelle due condizioni enunciate dall’art. 16, c. 1, alle lett. a) e b) della d. lgs. 70/2003 (di attuazione della Direttiva sul commercio elettronico), i presupposti, da interpretare come alternativi, dai quali consegue l’obbligo di rimuovere contenuti illeciti di terzi. Quindi, o il prestatore è effettivamente a conoscenza della natura manifestamente illecita dell’attività o informazione in questione (in tal caso la scelta di rimuovere poggerà su una valutazione autonoma) o il prestatore deve agire immediatamente appena a conoscenza di tali fatti su comunicazione delle autorità competenti (l’intervento conseguirà da un fattore esterno). La conoscenza effettiva dell’illiceità dell’altrui condotta, secondo la Corte di Cassazione, «coincide con l’esistenza di una comunicazione in tal senso operata dal terzo, il cui diritto si assuma leso». Secondo la Suprema Corte, la comunicazione al provider «deve essere idonea a consentire al destinatario la comprensione e l’identificazione dei contenuti illeciti per valutare se, nell’ipotesi di trasmissione di prodotti video in violazione dell’altrui diritto di autore, questi siano identificabili mediante la mera indicazione del nome della trasmissione da cui sono tratti e simili elementi descrittivi». Sarà il giudice a verificare se occorra anche la precisa indicazione del cd. indirizzo “url”, ma in prima battuta non si ritiene necessaria. La Corte di Cassazione specifica inoltre che l’obbligo imposto a un prestatore di astenersi dalla ripubblicazione di contenuti illeciti dello stesso tipo di quelli già rimossi non è parificabile a quello generale di sorveglianza della Direttiva sul commercio elettronico. Infatti, la mancata conoscenza dei contenuti oggetto di asserita violazione sarebbe destinata a venire meno una volta che il provider sia stato reso edotto dalla comunicazione in ipotesi indirizzatagli dal titolare dei diritti.

[123] Cfr. L. Ciliberti e D. Roncarà, Il mercato digitale e l’ospite indesiderato (la pirateria), cit., e in particolare la nota 25. Conforme anche l’ulteriore ordinanza del Tribunale di Milano del 9.1.2020.

[124] Corte di Giustizia 23.03.2010, nelle cause riunite C‑236/08 a C‑238/08 Google France SARL e Google Inc. contro Louis Vuitton Malletier SA e altri.

[125] La Corte di Giustizia nel caso Google vs Louis Vuitton cit. afferma ancora più precisamente che l’art. 14 della Direttiva 2000/31 deve essere interpretato nel senso che la norma ivi contenuta si applica al prestatore di un servizio di posizionamento su Internet qualora detto prestatore non abbia svolto un ruolo attivo atto a conferirgli la conoscenza o il controllo dei dati memorizzati. Se non ha svolto un siffatto ruolo, detto prestatore non può essere ritenuto responsabile per i dati che egli ha memorizzato su richiesta di un inserzionista, salvo che, essendo venuto a conoscenza della natura illecita di tali dati o di attività di tale inserzionista, egli abbia omesso di prontamente rimuovere tali dati o disabilitare l’accesso agli stessi.

[126] Così Corte di Giustizia nel caso Eva Glawischnig-Piesczek/Facebook Ireland, cit. p.to 45.

[127] Così S. Lavagnini, La responsabilità degli Internet Service Provider e i prestatori di servizi on line, in Il diritto d’autore nel mercato unico digitale, Direttiva (UE) 2019/790 e d.lgs. n. 11/2021 di recepimento, S. Lavagnini (a cura di), Giappichelli Editore, 2022, 226-227.

[128] Nelle Conclusioni dell’Avv. Gen. viene sottolineato che: «Attualmente, la Corte sembra concentrarsi sulla precisione di ciò che viene ricercato. A tal riguardo, nella sentenza Glawischnig-Piesczek, la quale riguardava questa volta il settore della diffamazione, la Corte ha ritenuto che l’obbligo, per il gestore di un social network, di sorvegliare la totalità delle informazioni caricate su tale rete dovesse essere considerato “specifico” poiché si trattava di ricercare e bloccare un’informazione diffamatoria “precisa”; che il prestatore non fosse obbligato ad effettuare una «valutazione autonoma» della liceità delle informazioni filtrate e che, al contrario, esso potesse “ricorrere a tecniche e mezzi di ricerca automatizzati”. Per concludere, preciso che, se il legislatore dell’Unione non può delegare agli intermediari online l’onere di procedere ad una sorveglianza preventiva generalizzata delle informazioni condivise o trasmesse grazie ai loro servizi, esso può, […], senza arrecare pregiudizio al “contenuto essenziale” della libertà di espressione, fare la scelta di imporre determinate misure di sorveglianza attiva, concernenti talune informazioni illecite specifiche, a determinati intermediari online» (p.to 112). Questo trend si contrappone in qualche modo all’approccio iniziale della Corte di Giustizia che «sembrava fare riferimento alla quantità di informazioni da ispezionare» (p.to 111). A quest’ultimo riguardo, le Conclusioni dell’Avv. Gen.  citano i seguenti casi: « Nella sentenza L’Oréal e a., la Corte ha dichiarato che il gestore di un mercato online non poteva essere obbligato a procedere ad “una vigilanza attiva di tutti i dati di ciascuno dei suoi clienti per prevenire qualsiasi futura violazione dei diritti di proprietà intellettuale”. Nella sentenza Scarlet Extended, essa ha ritenuto che un fornitore di accesso ad Internet non potesse essere costretto, tramite un’ingiunzione, a predisporre un sistema di filtraggio applicabile a “tutte le comunicazioni elettroniche che transitano per i suoi servizi” e dunque «indistintamente a tutta la sua clientela” e ciò al fine di “identificare nella rete di tale fornitore la circolazione di file contenenti un’opera musicale, cinematografica o audiovisiva rispetto alla quale il richiedente affermi di vantare diritti di proprietà intellettuale, onde bloccare il trasferimento di file il cui scambio pregiudichi il diritto d’autore”. Nella sentenza SABAM, la Corte ha adottato lo stesso ragionamento in relazione all’obbligo, per il gestore di una piattaforma di social network, di predisporre un sistema di filtraggio simile. Infine, nella sentenza Mc Fadden, essa ha ritenuto che il gestore di una rete locale senza fili non possa vedersi imporre l’obbligo di sorvegliare l’”insieme delle informazioni trasmesse” tramite tale rete, anche se si trattava di bloccare le copie di un’unica opera musicale identificata dal titolare dei diritti» (p.to 111).

[129] Cfr. S. Lavagnini, in La responsabilità degli Internet Service Provider e i prestatori on line, cit., 228, che evidenzia che i principali hosting provider si sono oramai dotati di sistemi tecnologici di riconoscimento dei contenuti, cd. content id recognition.

[130] Cfr. anche quanto sottolinea la Corte di Cassazione (sentenza 7708/2019, cit.) con riguardo alla Comunicazione della Commissione COM (2017) del 28 settembre 2017. In particolare, nel fare riferimento a tale Comunicazione, la Corte rileva come «le piattaforme on line ad oggi “dispongono solitamente dei mezzi tecnici per identificare e rimuovere” i contenuti illeciti e che, alla luce del “progresso tecnologico nell’elaborazione di informazioni e nell’intelligenza artificiale, l’uso di tecnologie di individuazione e filtraggio automatico sta diventando uno strumento ancora più importante nella lotta contro i contenuti illegali online. Attualmente molte grandi piattaforme utilizzano qualche forma di algoritmo di abbinamento basata su una serie di tecnologie, dal semplice filtraggio dei metadati fino all’indirizzamento calcolato e alla marcatura (fingerprinting) dei contenuti”, aggiungendo che “nel settore del diritto d’autore, per esempio, il riconoscimento automatico dei contenuti si dimostra uno strumento efficace da diversi anni”, addirittura in funzione “proattiva”, giustamente escludendo però che questo possa di per sé implicare, ex adverso, la perdita della deroga alla responsabilità». In aggiunta, si noti anche quanto sottolinea la sentenza del Tribunale di Roma 693/201 sugli obblighi di diligenza dell’hosting provider (nella fattispecie una piattaforma di condivisione on line di contenuti audio/video qualificata dal Tribunale come «del tutto incompatibile con la figura dell’hosting provider passivo»). Infatti, essa afferma che «all’epoca dei fatti per cui è causa, esistevano almeno due strumenti tecnologici che avrebbero consentito all’hosting provider di effettuare la verifica e il controllo, mirati e successivi, dei contenuti illeciti che gli venivano segnalati mediante il titolo del programma televisivo e non necessariamente attraverso gli specifici URL. A fronte delle evidenti risultanze peritali, la società convenuta non ha fornito, in via alternativa, valida dimostrazione del fatto di essersi trovata nella situazione giuridica oggettiva di non conoscibilità dei programmi televisivi dai quali erano estratti». In sintesi, la giurisprudenza nazionale ritiene che l’hosting attivo debba dotarsi delle tecniche potenzialmente utilizzabili all’epoca dei fatti, ove non ne abbia già adottate di adeguate, per l’individuazione ex post degli specifici contenuti audiovisivi illecitamente diffusi (Cfr. ex multis sentenza del Tribunale di Roma 693/2019, cit.).

[131] Cfr. Comunicazione della Commissione UE COM(2021) 288 final.

[132] Negli Orientamenti si afferma che «per determinare se un prestatore di servizi di condivisione di contenuti online si sia adoperato al meglio secondo elevati standard di diligenza professionale di settore, è particolarmente importante esaminare le pratiche di settore vigenti sul mercato in un dato momento. Ciò comprende l’uso della tecnologia o di soluzioni tecnologiche particolari. Come chiarito al considerando 66, “qualsiasi misura adottata dai prestatori di servizi dovrebbe essere efficace rispetto agli obiettivi perseguiti”. I prestatori di servizi di condivisione di contenuti online dovrebbero tuttavia rimanere liberi di scegliere la tecnologia o la soluzione più adatta per adempiere l’obbligo di diligenza nelle rispettive situazioni concrete».

[133] Si tratta di un servizio ai sensi degli artt. 56 e 57 TFUE, il cui «obiettivo principale […] di una sua sezione distinguibile o di una sua funzionalità essenziale sia la fornitura di programmi, video generati dagli utenti o entrambi per il grande pubblico, per i quali il fornitore della piattaforma per la condivisione di video non ha responsabilità editoriale, al fine di informare, intrattenere o istruire attraverso reti di comunicazioni elettroniche … e la cui organizzazione è determinata dal fornitore della piattaforma per la condivisione di video, anche con mezzi automatici o algoritmi, in particolare mediante visualizzazione, attribuzione di tag e sequenziamento» (art. 1, lett. a-bis).

[134] Così M. Tavassi e G. Bellomo, I contenuti digitali tra tutela evolutiva del diritto d’autore e responsabilità delle piattaforme, nella direttiva europea e nella giurisprudenza, cit., 49, S. Lavagnini, La responsabilità degli Internet Service Provider e i prestatori di servizi on line, cit., 238.

[135]  L’art. 17, par. 4 così recita: «Qualora non sia concessa alcuna autorizzazione, i prestatori di servizi di condivisione di contenuti online sono responsabili per atti non autorizzati di comunicazione al pubblico, compresa la messa a disposizione del pubblico, di opere e altri materiali protetti dal diritto d’autore, a meno che non dimostrino di:

  1. a) aver compiuto i massimi sforzi per ottenere un’autorizzazione, e
  2. b) aver compiuto, secondo elevati standard di diligenza professionale di settore, i massimi sforzi per assicurare che non siano disponibili opere e altri materiali specifici per i quali abbiano ricevuto le informazioni pertinenti e necessarie dai titolari dei diritti; e in ogni caso,
  3. c) aver agito tempestivamente, dopo aver ricevuto una segnalazione sufficientemente motivata dai titolari dei diritti, per disabilitare l’accesso o rimuovere dai loro siti web le opere o altri materiali oggetto di segnalazione e aver compiuto i massimi sforzi per impedirne il caricamento in futuro conformemente alla lettera b)».

[136] L’art. 17, par. 5 prevede che: «Per stabilire se il prestatore di servizi si è conformato agli obblighi di cui al paragrafo 4 e alla luce del principio di proporzionalità, sono presi in considerazione, tra gli altri, gli elementi seguenti:

  1. a) la tipologia, il pubblico e la dimensione del servizio e la tipologia di opere o altri materiali caricati dagli utenti del servizio; e
  2. b) la disponibilità di strumenti adeguati ed efficaci e il relativo costo per i prestatori di servizi».

[137] A questo riguardo, è stato affermato che: «Il legislatore europeo, non senza difficoltà, ha recepito in gran parte le evoluzioni della giurisprudenza della Corte di Giustizia, della Corte Europea dei Diritti dell’Uomo e di alcune importanti decisioni delle Corti Supreme dei Paesi membri» (G. Licandro, Direttiva 2019/790/UE, 17 aprile 2019, cit., 153).

[138] La Commissione precisa che: «Le informazioni in questione devono essere precise per consentire ai prestatori di servizi di condivisione di contenuti on line di intervenire. Ciò che può costituire un’informazione “pertinente” varierà a seconda delle opere interessate e delle circostanze relative alle opere o agli altri materiali specifici. Le informazioni dovrebbero, come minimo, essere precise per quanto riguarda i diritti di proprietà dell’opera o del materiale in questione. Ciò che può essere considerato “necessario” varia a seconda delle soluzioni utilizzate dai prestatori di servizi e dovrebbe consentire ai prestatori di servizi di applicare efficacemente le soluzioni tecnologiche che decidono di utilizzare»

[139] A questo riguardo, gli Orientamenti prevedono che: «Per quanto riguarda il cosiddetto obbligo di “rimozione permanente”, la seconda parte dell’art. 17, paragrafo 4, lettera c) impone ai prestatori di servizi di adoperarsi al meglio per impedire il futuro caricamento di opere o altri materiali segnalati dai titolari dei diritti. Questa disposizione rinvia alla lettera b) dello stesso paragrafo; ciò significa che, per permettere ai prestatori di servizi di adoperarsi al meglio per evitare futuri caricamenti a norma di tale disposizione, i titolari dei diritti devono fornire loro lo stesso tipo di informazioni “pertinenti e necessarie” utilizzate per dare applicazione alla lettera b)».

[140] In base al quale, la piattaforma on line deve aver agito tempestivamente, dopo aver ricevuto una segnalazione sufficientemente motivata dai titolari dei diritti, per disabilitare l’accesso o rimuovere dai loro siti web le opere o altri materiali oggetto di segnalazione.

[141] Cfr. gli Orientamenti, cit..

[142] In merito a tali contenuti, si veda la nota 143 che segue immediatamente.

[143] E’ utile notare che, a tale riguardo, le Conclusioni dell’Avv. Gen.  riportano il seguente post scriptum con riguardo agli Orientamenti pubblicati subito dopo tali Conclusioni: «detti orientamenti indicano […] che i titolari dei diritti dovrebbero avere la possibilità di “riservare” (earmark) i materiali la cui messa in rete non autorizzata sia “idonea a causare loro un danno economico significativo”. Tali prestatori dovrebbero dare prova di una diligenza particolare nei confronti di detti materiali. Viene inoltre indicato che questi ultimi non adempierebbero ai loro obblighi di “massimi sforzi” qualora consentissero la messa in rete di contenuti che riproducono questi stessi materiali nonostante siffatte “riserve”. Se ciò dovesse essere inteso nel senso che questi stessi prestatori dovrebbero bloccare ex ante taluni contenuti dietro la mera allegazione di un rischio di danno economico importante da parte dei titolari dei diritti – fermo restando che gli orientamenti non contengono altri criteri che limitino in maniera oggettiva il meccanismo di “riserva” a taluni casi particolari –, quand’anche tali contenuti non fossero manifestamente contraffatti, non posso aderirvi, salvo ritornare sulla totalità delle considerazioni svolte in tali conclusioni».

[144] La causa è stata avviata a seguito di ricorso della Polonia diretto ad ottenere l’annullamento parziale dell’art. 17 della Direttiva DSM.

[145] Nell’ambito del relativo giudizio, la Commissione europea ha espresso una posizione analoga a quella che emerge dai suddetti Orientamenti, che erano – allora – in fase di finalizzazione.

[146] Cfr. a questo riguardo i punti da 72 a 98 della sentenza della Corte di Giustizia in esame. In particolare, la Corte precisa che: «Dalle constatazioni svolte ai punti da 72 a 97 della presente sentenza risulta che, contrariamente a quanto sostiene la Repubblica di Polonia, l’obbligo, per i fornitori di servizi di condivisione di contenuti online, di controllare i contenuti che gli utenti intendono caricare sulle loro piattaforme prima della loro diffusione al pubblico, derivante dal regime specifico di responsabilità introdotto dall’art. 17, paragrafo 4, della direttiva 2019/790, e segnatamente dalle condizioni di esonero previste all’art. 17, paragrafo 4, lettera b), e lettera c), in fine, di quest’ultima, è stato accompagnato dal legislatore dell’Unione da garanzie adeguate per assicurare, conformemente all’art. 52, paragrafo 1, della Carta, il rispetto del diritto alla libertà di espressione e d’informazione degli utenti di tali servizi, garantito all’art. 11 della Carta, nonché il giusto equilibrio tra tale diritto, da un lato, e il diritto di proprietà intellettuale, protetto all’art. 17, paragrafo 2, della Carta, dall’altro» [p.to 98].

[147] In particolare, la Corte di Giustizia afferma che gli Stati membri sono tenuti ad un’interpretazione dell’art. 17 della Direttiva DSM che garantisca un giusto equilibrio tra i diversi diritti fondamentali tutelati dalla Carta di cui agli Articoli 11, 16, 17 e 13. In tal senso, le Autorità e i giudici degli Stati membri devono non solo interpretare il loro diritto nazionale in modo conforme a tale disposizione, ma anche provvedere a non fondarsi su una sua interpretazione che entri in conflitto con tali diritti o con gli altri principi generali del diritto dell’Unione, come il principio di proporzionalità (52, par. 1, della Carta).

[148] Corte di Giustizia, 26 aprile 2022, causa C‑401/19, cit.. La Corte di Giustizia afferma precisamente che «il legislatore dell’Unione, al fine di prevenire il rischio che, in particolare, l’uso di strumenti di riconoscimento e filtraggio automatico comporta per il diritto alla libertà di espressione e d’informazione degli utenti dei servizi di condivisione di contenuti online, ha posto un limite chiaro e preciso, ai sensi della giurisprudenza citata al punto 67 della presente sentenza [[148]ndr], alle misure che possono essere adottate o richieste nell’attuazione degli obblighi previsti all’art. 17, paragrafo 4, lettere b) e c), infine, della direttiva 2019/790, escludendo, in particolare, le misure che filtrano e bloccano i contenuti leciti durante il caricamento» [Cfr. p.to 85]; che: «In tale contesto, si deve ricordare che la Corte ha già avuto occasione di constatare che un sistema di filtraggio che rischi di non distinguere adeguatamente tra un contenuto illecito e un contenuto lecito, sicché il suo impiego potrebbe avere come risultato di bloccare comunicazioni aventi un contenuto lecito, sarebbe incompatibile con il diritto alla libertà di espressione e d’informazione, garantito all’art. 11 della Carta, e non rispetterebbe il giusto equilibrio tra quest’ultimo e il diritto di proprietà intellettuale […]» [Cfr. p.to 86]; e che «tutela l’esercizio del diritto alla libertà di espressione e d’informazione degli utenti che si servano in modo lecito di detti servizi il fatto che la responsabilità dei fornitori di servizi per garantire che non siano disponibili determinati contenuti può sussistere, ai sensi dell’art. 17, paragrafo 4, lettera b) e lettera c), infine, della direttiva 2019/790, solo a condizione che i titolari dei diritti interessati forniscano le informazioni pertinenti e necessarie in merito a tali contenuti.» [Cfr. p.to 89].

[149] Cfr. p.to 81 nel caso C-401/19, nonché la sentenza UPC Telekabel Wien v. Constantin Film, C-314/12, p.ti 55 e 56. Con riferimento al concetto di misure “mirate” si noti che il Regolamento DSA precisa quanto segue:« Vista la necessità di tenere debitamente conto dei diritti fondamentali garantiti dalla Carta di tutte le parti interessate, qualsiasi azione intrapresa da un prestatore di servizi di hosting dopo aver ricevuto una notifica dovrebbe essere rigorosamente mirata, nel senso che dovrebbe servire a rimuovere o disabilitare l’accesso alle informazioni specifiche considerate come contenuti illegali, senza pregiudicare indebitamente la libertà di espressione e di informazione dei destinatari del servizio.» (considerando 40 ter).

[150] Cfr. p.to 181 delle Conclusioni dell’Avv. Gen..

[151] Un recente commento sottolinea che «[…] CJEU acknowledged that […] the use of automatic recognition and filtering tools is unavoidable and necessary. […] OCSSP are required […] to adopt “strictly targeted” measures (para 81), which may “distinguish adequately between unlawful content and lawful content” (para 86), also bearing in mind that “in some cases availability of unauthorized content can only be avoided upon notification of rightsholders” (para 91) […]. In practice, this does not mean that the only tools that OCSSPs can adopt are those that are 100% error-free. If that was the case, then there would be no fair balance of rights and interests and compliance with Article 17(4)(b)-(c) could not be achieved. Instead, what is required is that, where an (alleged) error occurs, a complaint and redress mechanism like the one in Article 17(9) is readily available. […] All the above is also in line with the case law of the CJEU itself, which has never suggested that only a 100% rate is acceptable (E. Rosati, What does the CJEU judgment in the Polish challenge to Article 17 (C-401/19) mean for the transposition and application of that provision?, IPKAT, May 11 2022 (ipkitten.blogspot.com/2022/05/what-does-cjeu-judgment-in-polish). Cfr. anche A. Metzger and M. Senftleben, Comment of the European Copyright Society on Selected Aspects of Implementing Article 17 of the Directive on Copyright in the Digital Single Market Into National Law, in European Copyright Society (europeancopyrightsocietydotorg.files.wordpress.com/2020/04/ecs-comment-article-17-cdsm). In particolare, questi ultimi A.A. evidenziano con riguardo all’applicazione dell’art. 17(4)(b) della Direttiva DSM (che prevede la dimostrazione di aver compiuto, secondo elevati standard di diligenza professionale di settore, best efforts per assicurare che non siano disponibili opere e altri materiali specifici per i quali gli OCSSP abbiano ricevuto le informazioni pertinenti e necessarie dai titolari di diritti) quanto segue: «Even though filtering technologies have been at the heart of the European debate about Article 17 and the DSMD at large, the notion of “filter”, “filtering” or “upload-filter” is not used in the text of the DSMD […]. Instead, Article 17(4)(b) uses a generic, technology-neutral language. […] This neutral language however can hardly disguise the fact that all parties involved in the legislative process had filtering technologies in mind when the provision was drafted, most obviously the famous Content-ID technology […]. […] The more precisely filtering technologies are capable of spotting infringing materials on OCSSPs, the less problematic they are. By contrast, the more “false positives” they produce, the more significant their impact on the fundamental rights of users and the public at large will be. Article 17 tries to mitigate the risk of overblocking filtering technologies by different means, especially by the rules on the preservation of legally uploaded content under Article 17(7) […] and by the procedural safeguards for users under Article 17(9)». (§3.2). Inoltre, con riguardo all’art. 17(4) (c) (relativo alla dimostrazione di aver agito tempestivamente, dopo aver ricevuto una segnalazione sufficientemente motivata dai titolari dei diritti, per disabilitare l’accesso o rimuovere dai loro siti web le opere o altri materiali protetti oggetto di segnalazione e aver compiuto best efforts per impedirne il caricamento in futuro conformemente alla lett. b), tali A.A. sottolineano che: «In this regard, it would be reasonable for implementing member states to clarify the extent of this stay-down obligation, e.g. whether the global reference to “the notified works or other subject matter” in Article 17(4)(c) still leaves room for confining the staydown obligation to repeated uploads by the same user of the identical material or whether it also implies an obligation to prevent uploads by other users and perhaps even of slightly modified material». A quest’ultimo riguardo, viene richiamata la sentenza della Corte di Giustizia del 3 ottobre 2019 nel caso C-18/18, Eva Glawischnig-Piesczek/Facebook Ireland (già trattata precedentemente), secondo la quale il divieto di sorveglianza generale e permanente non si estende ai contenuti specifici o contenuti equivalenti a quelli già oggetto di segnalazione per i quali gli ISP sono tenuti a prevenire in futuro l’attività illecita dotandosi di meccanismi idonei ad impedire future violazioni dei diritti. Cfr. note sopra n. 114 e 120.

 

[152] Con «prestatore di servizi di condivisione di contenuti online» si intende «un prestatore di servizi della società dell’informazione il cui scopo principale o uno dei principali scopi è quello di memorizzare e dare accesso al pubblico a grandi quantità di opere protette dal diritto d’autore o altri materiali protetti caricati dai suoi utenti, che il servizio organizza e promuove a scopo di lucro. I prestatori di servizi quali le enciclopedie online senza scopo di lucro, i repertori didattici o scientifici senza scopo di lucro, le piattaforme di sviluppo di e condivisione di software open source, i fornitori di servizi di comunicazione elettronica ai sensi della direttiva (UE) 2018/1972, i mercati online, i servizi cloud da impresa a impresa e i servizi cloud che consentono agli utenti di caricare contenuti per uso personale non sono prestatori di servizi di condivisione di contenuti online ai sensi della presente direttiva».

[153] G. Licandro, Direttiva 2019/790/UE, 17 aprile 2019, cit., 167.

[154] Peraltro, la stessa sentenza della Corte di Giustizia 401/19, cit., evidenzia che «come sottolineato dal considerando 66 della direttiva 2019/790, non si può escludere che in alcuni casi la messa a disposizione di contenuti non autorizzati protetti dal diritto d’autore possa essere evitata solo su segnalazione dei titolari dei diritti. Inoltre, per quanto riguarda tale segnalazione, la Corte ha dichiarato che essa deve contenere elementi sufficienti per consentire al fornitore di servizi di condivisione di contenuti online di accertarsi, senza un esame giuridico approfondito, dell’illeceità della comunicazione di cui trattasi e della compatibilità di un’eventuale rimozione del suddetto contenuto con la libertà di espressione e d’informazione (sentenza del 22 giugno 2021, YouTube e Cyando, C‑682/18 e C‑683/18, EU:C:2021:503, punto 116)» [p.to 91].

[155] La Cass. Civ. Sez. I, nell’ordinanza n. 20861/2021, così afferma «la domanda di deindicizzazione esige la precisa individuazione dei risultati della ricerca che l’attore intende rimuovere, e quindi, normalmente, l’indicazione degli indirizzi telematici, o URL, dei contenuti rilevanti a tal fine, anche se non è escluso che una puntuale rappresentazione delle singole informazioni che sono associate alle parole chiave possa rivelarsi, secondo le circostanze, idonea a dare precisa contezza della cosa oggetto della domanda, in modo da consentire al convenuto, gestore del motore di ricerca, di apprestare adeguate e puntuali difese sul punto». Abbiamo già visto che, con una più recente sentenza della Corte di Cassazione, sempre in materia di diritto all’oblio, è stato però riconosciuta la possibilità di un ordine “pro-futuro” con riguardo alle informazioni equivalenti (V. nota 114).

[156] Cfr. ordinanze collegiali indicate alla nota 116.

[157] Sulla rilevanza della portata della limitazione all’esercizio dei diritti fondamentali che trovano tutela nella Carta Cfr. anche il p.to 64 della sentenza della Corte di Giustizia C-401/19, cit., che così recita: «A tal riguardo, la Corte ha dichiarato che il requisito secondo cui qualsiasi limitazione nell’esercizio dei diritti fondamentali deve essere prevista dalla legge implica che l’atto che consente l’ingerenza in tali diritti deve definire, esso stesso, la portata della limitazione dell’esercizio del diritto considerato». La Corte di Giustizia richiama a questo riguardo il p.to 175 della sentenza del 16 luglio 2020, Facebook Ireland et Schrems, C‑311/18,  dove si riconosce che «il requisito secondo cui qualsiasi limitazione nell’esercizio dei diritti fondamentali deve essere prevista dalla legge implica che la base giuridica che consente l’ingerenza in tali diritti deve definire essa stessa la portata della limitazione dell’esercizio del diritto considerato».

[158] Cfr. ex multis in merito al ruolo dei singoli Stati membri nell’attuazione delle politiche del Consiglio dell’Unione ai sensi del TUE. G. Tesauro, Manuale di diritto dell’unione europea, P. De Pasquale e F. Ferraro (a cura di), volume I, Editoriale Scientifica Napoli, 2021, 75-76.

[159] «Il BEREC fa in modo che la legislazione pertinente dell’UE sia applicata uniformemente affinché l’UE abbia un mercato unico funzionante per le comunicazioni elettroniche.  Su richiesta o di sua iniziativa, fornisce assistenza alle istituzioni europee. Il BEREC è composto dal cosiddetto comitato dei regolatori, un organismo costituito dai capi (o dai rappresentanti designati di alto livello) dell’autorità nazionale di regolamentazione di ciascun paese dell’UE.» (european-union.europa.eu/institutions-law-budget/institutions-and-bodies/institutions-and-bodies-profiles/berec-office_it).

[160] Cfr. sito BEREC, BEREC supports ISPs in implementing the EU sanctions to block RT and Sputnik (berec.europa.eu/eng/news_and_publications/whats_new/9340-berec-supports-isps-in-implementing-the-eu-sanctions-to-block-rt-and-sputnik), BEREC: Open Internet Regulation is not an obstacle in implementing EU sanctions to block RT and Sputnik (berec.europa.eu/eng/news_and_publications/whats_new/9321-berec-open-internet-regulation-is-not-an-obstacle-in-implementing-eu-sanctions-to-block-rt-and-sputnik).

[161]  Cfr. lumendatabase.org/notices/26927483?access_token=LJoDspOP9YF-NrUj15M1dg#.

[162] E’ utile a questo riguardo segnalare anche il seguente commento: «Article 15 of the Directive provides that Member States may not impose a general obligation on online intermediaries to monitor the content they index or host or seek facts or circumstances indicating illegal activity. When read together with other provisions of the Directive, this provision has long been interpreted as meaning that, whilst intermediaries can be required to reactively take down illegal content once they are put on notice of that content, they cannot be required to monitor proactively the content they index/host for the purposes of detecting potential unlawful content of their own motion. On its face, the Regulation (as interpreted by the Commission) appears to cut across this important protection for intermediaries, in that it appears to require them to proactively monitor content with a view to detecting and removing content that may be sanctioned. Whilst it is true to say that the CJEU has already begun to chip away at this legislative protection through a number of its judgments (see not least UPC Telekabel Wien (2014) Case-314/1239 and Eva Glawischnig-Piesczek v Facebook (2019) Case C-18/18), the Regulation appears to constitute a very stark legislative challenge to the protections provided to intermediaries under Article 15» (A. Proops QC, A war of words: EU sanctions and the blocking of online ‘disinformation’, Panopticon 11KBW, March 16th, 2022 (panopticonblog.com/2022/03/16/a-war-of-words-eu-sanctions-and-the-blocking-of-online-disinformation/)).

[163] Sul Regolamento DSA, Cfr. O. Pollicino, Ruoli e responsabilità in rete, cit. 354 – 356.

[164] Nella Relazione alla proposta di Regolamento DSA contenuta nel documento COM(2020) 825 final si legge quanto segue: «[…] la consultazione pubblica aperta, i contributi mirati dei portatori di interessi, le relazioni del Parlamento europeo e le conclusioni del Consiglio confermano che i principi e gli obiettivi esistenti della direttiva sul commercio elettronico rimangono validi ancora oggi. Dopo l’entrata in vigore della direttiva si sono profilati tuttavia nuovi rischi e nuove asimmetrie informative, legati in particolare all’emergere delle piattaforme online (soprattutto di quelle molto grandi), nonché alla portata della trasformazione digitale. È quanto è accaduto per esempio negli ambiti del processo decisionale algoritmico (che incide sulle modalità di intermediazione dei flussi d’informazione online) o dei sistemi di pubblicità online. La valutazione dimostra che la direttiva sul commercio elettronico è coerente con altri interventi dell’UE che hanno avuto luogo dopo la sua adozione. La valutazione non ha individuato nemmeno incoerenze interne alla direttiva sul commercio elettronico. Infine i concreti benefici derivanti dalla direttiva sul commercio elettronico e rilevati dalla valutazione si potrebbero considerare, almeno parzialmente, un valore aggiunto dell’UE. Senza un insieme comune di principi gli Stati membri avrebbero probabilmente continuato ad applicare i rispettivi sistemi di regolamentazione e con ogni probabilità alcuni Stati membri sarebbero rimasti del tutto privi di norme orizzontali. […]. Per ciò che riguarda l’applicazione delle norme, i portatori di interessi concordano in generale sull’opportunità di migliorare la cooperazione tra le autorità sia a livello transfrontaliero che all’interno di ciascuno Stato membro. La vigilanza da parte dell’UE è considerata essenziale e la maggioranza degli intervistati sembra favorevole ad un organismo di vigilanza unificato.».

[165] Il considerando 13 prosegue affermando che: «Al fine di evitare l’imposizione di obblighi eccessivamente ampi, i prestatori di servizi di hosting non dovrebbero tuttavia essere considerati piattaforme online quando la diffusione al pubblico è solo una caratteristica minore o meramente accessoria connessa intrinsecamente a un altro servizio o una funzionalità minore del servizio principale e, per ragioni tecniche oggettive, tale caratteristica o funzionalità non può essere utilizzata senza tale altro servizio principale e l’integrazione di tale caratteristica o funzionalità non è un mezzo per eludere l’applicabilità delle norme del presente regolamento applicabili alle piattaforme online. Ad esempio, la sezione relativa ai commenti di un quotidiano online potrebbe costituire tale funzionalità, ove sia evidente che è accessoria al servizio principale rappresentato dalla pubblicazione di notizie sotto la responsabilità editoriale dell’editore.».

[166] Cfr. Articoli 8, co. 2, lett. a), secondo periodo e 14, co. 2, lett. b).

[167] D’altro canto le direttive europee già adottate (tra cui la Direttiva DSM) non sembrano richiedere gli URL quali indicazioni necessarie per l’attivazione degli ISP.

[168] Cfr. anche nota 177.

[169] Il Regolamento DSA abrogherà gli articoli da 12 a 15 della direttiva 2000/31/CE, prevedendo che: «I riferimenti agli articoli da 12 a 15 della direttiva 2000/31/CE si intendono fatti rispettivamente agli articoli 3, 4, 5 e 7 del presente regolamento» (art. 71, co. 2). Gli artt. 3 e 4 sono sostanzialmente identici rispettivamente agli artt. 12 (mere carrier) e 13 (caching) e l’art. 5 è identico all’art. 14 (hosting) salvo per l’inserimento di un comma (3) nuovo che prevede che l’esenzione da responsabilità non si applichi in caso informazioni ingannevoli per il consumatore in merito alla riconducibilità di una transazione commerciale allo stesso hosting. Inoltre, l’art. 7 del Regolamento DSA  riprende il solo co. 1 dell’art. 15 (su divieto di obblighi di sorveglianza generale), mentre l’obbligo di informazione alle pubbliche autorità rimane a carico del «prestatore di servizi di hosting» per il caso di «sospetti di reati» (art. 15 bis) e sono previsti per tutti gli ISP obblighi più generali di resoconto in merito alle attività di contrasto alla pirateria, come precisate in particolare all’art. 13 del Regolamento DSA.

[170] Queste considerazioni del Regolamento DSA colgono proprio nel segno e sono estremamente attuali. Infatti, sulla rete non si svolgono più solo le tre attività economiche come declinate dalla Direttiva 2000/31/CE ma vi sono nuove attività, come ad esempio quella di messa a disposizione di CDN (“Content Delivery Network”) o di reverse proxy. Inoltre, anche le tre tipiche attività diventano sempre più ibride, potendosi caratterizzare per la fornitura di più servizi da parte dello stesso provider. Così ad esempio, un fornitore di servizi di hosting può aggiungere ai servizi di memorizzazione permanente altri servizi (quali quelli di organizzazione, ottimizzazione e di indicizzazione di contenuti), così come il fornitore di servizi di trasporto su rete può avvalersi direttamente di CDN (proprie o di terzi) per offrire agli utenti dei propri servizi di connettività la fruizione di contenuti audiovisivi con una soddisfacente qualità di visione.  Come abbiamo visto nei precedenti Capitoli di questo contributo (Cfr. in particolare Capitoli 6 e 7), le nuove attività in rete non sono necessariamente di immediata qualificazione. Ad esempio, con riguardo alle CDN, queste dovrebbero comportare una memorizzazione solo temporanea delle informazioni ricadendo nel regime di responsabilità del caching provider. Tuttavia, alcuni operatori di servizi di CDN offrono anche servizi aggiuntivi che implicano una memorizzazione permanente (i.e. di hosting) – o comunque non temporanea – dei contenuti, quale ad esempio servizi che consentono di rendere costantemente accessibili i contenuti anche quando questi non lo sarebbero per problematiche tecniche del server centrale. La giurisprudenza nazionale ha dato atto dell’evoluzione radicale dei servizi on line nel corso degli ultimi anni e della necessità di valutare caso per caso le specificità delle attività svolte dal singolo operatore per definirne la qualificazione. Con riguardo ai servizi di CDN, Cfr. le ordinanze di cui alle note 116 e 123 e da ultimo sentenza del Tribunale di Roma, sezione XVII civile,  n. 40228/2018.

[171] A meno che la diffusione al pubblico sia solo una caratteristica minore o meramente accessoria connessa intrinsecamente a un altro servizio o una funzionalità minore del servizio principale e, per ragioni tecniche oggettive, tale caratteristica o funzionalità non possa essere utilizzata senza tale altro servizio principale e l’integrazione di tale caratteristica o funzionalità non sia un mezzo per eludere l’applicabilità delle norme del presente regolamento applicabili alle piattaforme online. Ad esempio, la sezione relativa ai commenti di un quotidiano online potrebbe costituire tale funzionalità, ove sia evidente che è accessoria al servizio principale rappresentato dalla pubblicazione di notizie sotto la responsabilità editoriale dell’editore. Cfr. a riguardo il considerando 13.

[172] I prestatori di servizi intermediari che non sono stabiliti nell’Unione ma che offrono servizi nell’Unione designano un rappresentante legale in uno degli Stati membri in cui offrono i propri servizi.

[173] Cfr. considerando 25.

[174] Cfr. a riguardo il Capitolo 7 sulla Direttiva DSM.

[175] Ai sensi degli artt. 38 e ss., ciascuno Stato membro nomina almeno un’Autorità – «coordinatore dei servizi digitali» e punto di contatto unico – incaricata dell’applicazione ed esecuzione del Regolamento, ferma la possibilità di incaricare più Autorità per specifici compiti o settori. In tal caso, lo Stato membro definirà chiaramente i rispettivi compiti e provvederà perché essi cooperino strettamente ed efficacemente nello svolgimento dei loro compiti. In ogni caso, il coordinatore ha la responsabilità di garantire il coordinamento, a livello nazionale, su tali questioni e di contribuire all’applicazione e all’esecuzione efficaci e coerenti del presente Regolamento in tutta l’Unione, stabilendo un meccanismo di cooperazione e di coordinamento per la vigilanza sul rispetto degli obblighi che impone. L’obiettivo è in tal modo di applicare le norme nel modo più rapido ed efficace, a tutela di tutti i cittadini dell’UE. Tuttavia, laddove emergano rischi sistemici nell’Unione, il Regolamento DSA prevede che la vigilanza e l’applicazione delle norme avvengano a livello di UE.

[176] Gli stessi coordinatori nazionali, su base volontaria, in ragione delle sfide specifiche,  possono richiedere l’intervento della Commissione laddove ritengano che una piattaforma on line (o un motore di ricerca) di dimensioni molto grandi abbia violato il Regolamento. Inoltre, la Commissione interviene se il coordinatore nazionale non abbia dato seguito ad una sua richiesta di attivarsi verso la piattaforma on line (o il motore di ricerca) di dimensioni molto grandi oppure nel caso il cui – come sopra visto – sia stato il coordinatore nazionale a richiedere alla Commissione di intervenire, oppure – ancora – il coordinatore nazionale le abbia comunicato che la  piattaforma on line (o il motore di ricerca) di dimensioni molto grandi sia da ritenersi responsabile della violazione delle norme specifiche del Regolamento ad essa applicabili (Capo III, sez. 4) e, nonostante il piano di azione richiesto dal coordinatore, la stessa non abbia fatto cessare o posto rimedio a tale violazione (art. 50). Infine, le autorità giudiziarie competenti del singolo Stato membro possono essere richieste – dal relativo coordinatore nazionale, direttamente (art. 41, co. 3) o da quest’ultimo su impulso della Commissione europea (art. 65), per il caso di persistenza della violazione che causi un danno grave – di ordinare la restrizione temporanea dell’accesso dei destinatari del servizio (i.e. utilizzatori del servizio) interessati dalla violazione o, se non tecnicamente possibile, la restrizione dell’accesso all’interfaccia on line del prestatore di servizi intermediari sulla quale ha luogo la violazione.

 

[177] Con particolare riferimento alla giurisprudenza citata, nella proposta di Regolamento DSA della Commissione UE si ribadisce che esso la lascia impregiudicata. Tuttavia, viene precisato che al fine di garantire che gli ordini delle Autorità competenti possano essere rispettati «in modo efficace ed efficiente, in particolare in un contesto transfrontaliero, consentendo alle autorità pubbliche interessate di svolgere i loro compiti ed evitando che i prestatori siano soggetti a oneri sproporzionati, senza che ciò comporti un pregiudizio indebito ai diritti e agli interessi legittimi di terzi, è necessario stabilire determinate condizioni che tali ordini dovrebbero soddisfare nonché determinate prescrizioni complementari relative al trattamento dei suddetti ordini. Di conseguenza, il presente regolamento dovrebbe armonizzare solo determinate condizioni minime specifiche che tali ordini dovrebbero soddisfare […]». (considerando 29).

[178] Cfr. anche on line workshop del Centre for Media Pluralism and Media Freedom (CMPF) del 28 marzo 2022 (eui.eu/news-hub?id=banning-russias-news-outlets-in-the-eu-and-uk-is-this-the-right- move&utm_source=LinkedIn&utm_medium=Web+referral&utm_campaign=CMPF+Ukraine+Media+Freedom+news).

[179] Sebbene inerente a tutt’altra fattispecie, risulta utile anche l’esame di una recente sentenza del TAR Lazio che, valutando il rispetto del principio di proporzionalità e quello del pluralismo dell’informazione con riguardo ad una decisione AGCOM di sospensione delle trasmissioni di un’emittente nazionale, respinge il ricorso in parte qua, sottolineando tra l’altro che l’attività svolta dall’Autorità «costituisce esercizio di discrezionalità, in quanto l’Autorità, nell’ambito delle valutazioni di propria competenza, è tenuta a fare applicazione di nozioni tecniche e giuridiche, quali il contrasto del fatto rilevato con i principi  fondamentali del sistema dei servizi di media audiovisivi, […]» e se le stesse trasmissioni incoraggino o meno «comportamenti pregiudizievoli per la salute o la sicurezza» (Cfr. sentenza del Tar Lazio, sez. III ter, 2 dicembre 2020, n. 12883).

[180] Si noti che il 16 giugno 2022 è stato presentato alla Commissione europea “The strengthened Code of Practice on Disinformation” che è stato firmato da 34 aderenti che hanno seguito il processo di revisione del codice del 2018. Sul sito della Commissione europea si legge quanto segue: «The new Code aims to achieve the objectives of the Commission’s Guidance presented in May 2021, by setting a broader range of commitments and measures to counter online disinformation. The 2022 Code of Practice is the result of the work carried out by the signatories.  It is for the signatories to decide which commitments they sign up to and it is their responsibility to ensure the effectiveness of their commitments’ implementation. The Code is not endorsed by the Commission, while the Commission set out its expectations in the Guidance and considers that, as a whole, the Code fulfils these expectations. Signatories committed to take action in several domains, such as; demonetising the dissemination of disinformation; ensuring the transparency of political advertising; empowering users; enhancing the cooperation with fact-checkers; and providing researchers with better access to data.». Numerosi sono i riferimenti nel Codice al rispetto dei diritti fondamentali degli utenti. Cfr. digital-strategy.ec.europa.eu/en/library/2022-strengthened-code-practice-disinformation.

 

[181] Il considerando 59 bis così recita: «In tempi di crisi, può essere necessario adottare con urgenza determinate misure specifiche da parte dei fornitori di piattaforme online di dimensioni molto grandi, oltre alle misure che adotterebbero in considerazione degli altri obblighi che incombono loro a norma del presente regolamento. A tale riguardo, si dovrebbe considerare che una crisi si verifichi quando si verificano circostanze eccezionali che possano comportare una minaccia grave per la sicurezza pubblica o la salute pubblica nell’Unione o in parti significative della stessa. Tali crisi potrebbero derivare da conflitti armati o atti di terrorismo, compresi conflitti o atti di terrorismo emergenti, catastrofi naturali quali terremoti e uragani, nonché pandemie e altre gravi minacce per la salute pubblica a carattere transfrontaliero. La Commissione dovrebbe poter chiedere ai prestatori di servizi, su raccomandazione del comitato, di avviare con urgenza una risposta alle crisi. Le misure che il prestatore di servizi può individuare e considerare di applicare possono includere, ad esempio, l’adeguamento dei processi di moderazione dei contenuti e l’aumento delle risorse destinate alla moderazione dei contenuti, l’adeguamento delle condizioni generali, i sistemi algoritmici e i sistemi pubblicitari pertinenti, l’ulteriore intensificazione della cooperazione con i segnalatori attendibili, l’adozione di misure di sensibilizzazione, la promozione di informazioni affidabili e l’adeguamento della progettazione delle loro interfacce online. È opportuno prevedere i requisiti necessari per garantire che tali misure siano adottate in tempi molto brevi e che il meccanismo di risposta alle crisi sia utilizzato solo se e nella misura in cui ciò sia strettamente necessario e le misure adottate nell’ambito di tale meccanismo siano efficaci e proporzionate, tenendo debitamente conto dei diritti e degli interessi legittimi di tutte le parti interessate. Il ricorso al meccanismo non dovrebbe pregiudicare le altre disposizioni del presente regolamento, come quelle relative alle valutazioni dei rischi e alle misure di attenuazione e alla loro applicazione, nonché quelle relative ai protocolli di crisi.».

[182] Cfr. a riguardo la posizione espressa dalla Commissione europea nella comunicazione di cui alla nota 161.

[183] Cfr. a questo riguardo anche Consiglio dell’UE Comunicato stampa 23 aprile 2022 02:17, Legge sui servizi digitali: il Consiglio e il Parlamento europeo raggiungono un accordo per un ambiente on line più sicuro. In questo comunicato il Consiglio europeo ha affermato che: «Nel contesto dell’aggressione russa nei confronti dell’Ucraina e in particolare delle conseguenze sulla manipolazione delle informazioni on line, i colegislatori hanno convenuto di includere un nuovo articolo che introduce un meccanismo di risposta alle crisi. Tale meccanismo sarà attivato da una decisione della Commissione su raccomandazione del comitato dei coordinatori nazionali dei servizi digitali e consentirà di analizzare l’impatto dell’attività delle piattaforme e dei motori di ricerca di dimensioni molto grandi sulla crisi in questione, come pure le misure proporzionate ed efficaci da attuare nel rispetto dei diritti fondamentali.» (consilium.europa.eu/it/press/press-releases/2022/04/23/digital-services-act-council-and-european-parliament-reach-deal-on-a-safer-online-space/).

[184] La proposta sembra invero fare qui riferimento agli  interventi chiarificatori della Corte di Giustizia.

[185] Peraltro, si noti che l’art. 14, comma 3, lett. (e) richiede che l’ordine includa (anche) «an exact uniform locator» (“URL”) e «where necessary, additional information for the identification of the child sexual abuse material». In questa parte, la proposta COM(2022) 209 final è simile alle previsioni del Regolamento DSA.

[186] V. sopra Capitolo 6 ed i successivi §§, nonché il Capitolo 8.

[187] Cfr. note 110, 130, 146 e 151.

[188] A questo riguardo, può essere utile sottolineare che il Regolamento DSA avanza già l’esigenza di un maggiore level playing field quando prevede che: «Qualora emerga un rischio sistemico significativo ai sensi dell’art. 26, paragrafo 1, che interessa diverse piattaforme online di dimensioni molto grandi, la Commissione può invitare le piattaforme online di dimensioni molto grandi interessate, altre piattaforme online di dimensioni molto grandi, altre piattaforme online e altri prestatori di servizi intermediari, a seconda dei casi, nonché le organizzazioni della società civile e altre parti interessate, a partecipare all’elaborazione dei codici di condotta, anche stabilendo impegni ad adottare misure specifiche di attenuazione dei rischi nonché un quadro di comunicazione periodica sulle misure adottate e sui relativi risultati.» (art. 35, comma 2). In particolare, si noti la possibilità di estensione dei codici di condotta anche agli «altri prestatori di servizi intermediari».

Share this article!
Share.

About Author

Leave A Reply