Poteri pubblici e privati nella tutela del diritto d’autore online. La piattaforma “antipirateria” di AGCom al vaglio del giudice amministrativo

Tribunale amministrativo regionale del Lazio – Roma, sez. IV, 22 gennaio 2024, n. 1223

Con sentenza n. 1223 del 22 gennaio 2024 il T.a.r. Lazio, Roma si è espresso sul legittimo esercizio di poteri inibitori e cautelari da parte dell’Autorità per le Garanzie nelle Comunicazioni (AGCom) nelle ipotesi di violazione delle norme in materia di diritto d’autore sulle reti di comunicazione elettronica. La sentenza offre l’occasione per riflettere sulla concreta applicazione dei principi elaborati dalla giurisprudenza amministrativa in materia di decisioni amministrative automatizzate e sul rapporto tra poteri pubblici e poteri privati nell’esercizio delle funzioni di regolazione dei servizi digitali.

 

Sommario: 1. Premessa. – 2. Il contesto normativo di riferimento e il procedimento previsto da AGCom. – 3. La vicenda giudiziaria e la decisione del giudice amministrativo. – 4. Decisione amministrativa e strumenti informatici: ancora su trasparenza, conoscibilità e comprensibilità del software. – 5. Poteri privati ed esercizio di funzioni pubbliche al tempo delle piattaforme digitali. – 6. Rilievi conclusivi.

 

  1. Premessa

La pronuncia del T.a.r. Lazio, Roma, sez. IV, 22 gennaio 2024, n. 1223 si inserisce nel dibattito sull’esercizio di poteri pubblici volti a reprimere condotte violative del diritto d’autore realizzate mediante reti di comunicazione elettronica[1].

Le rilevanti questioni giuridiche derivanti dallo sviluppo dei servizi e dei mercati digitali[2] sono già oggetto di riflessione in dottrina[3]. In particolare, anche a seguito dei recenti interventi del legislatore euro-unitario condensati nel c.d. pacchetto digitale[4], infatti, ci si interroga sulla opportunità di individuare nuovi strumenti di regolazione pubblica[5], funzionali a tutelare i diritti fondamentali della persona[6]anche attraverso una maggiore responsabilizzazione degli operatori economici che finora hanno goduto della c.d. safe harbour protection[7].

La sentenza in commento offre l’occasione per svolgere alcune considerazioni su questioni che, sebbene siano state lasciate sullo sfondo dal giudice amministrativo, meritano di essere analizzate.

Ci si riferisce, in primo luogo, ad un tema già indagato in numerosi studi giuspubblicistici, e cioè alla decisione amministrativa c.d. algoritmica o automatizzata ed alle (eventuali) garanzie procedimentali.

Si affronterà, inoltre, il tema dello svolgimento di attività di vigilanza e di repressione di condotte illecite sulle piattaforme online da parte di soggetti privati[8] e sui relativi poteri che finiscono per incidere su diritti e libertà di operatori economici e cittadini.

 

  1. Il contesto normativo di riferimento e il procedimento previsto da AGCom

Pare opportuno, anzitutto, muovere da una breve analisi dell’attuale contesto normativo in materia di tutela del diritto d’autore sulle reti di comunicazione elettronica e dalle più recenti determinazioni dell’AGCom.

Il legislatore, infatti – in una prospettiva di rafforzamento degli strumenti posti a tutela del diritto d’autore e delle situazioni giuridiche allo stesso connesse – ha recentemente innovato la disciplina in materia[9]. La l. 14 luglio 2023, n. 93[10], in ottemperanza alle disposizioni di cui alla l. 19 febbraio 2007, n. 19[11], ha ridefinito l’assetto delle funzioni pubbliche volte a rendere più efficaci le attività di controllo e di contrasto alla diffusione illecita di contenuti tutelati dal diritto d’autore.

La richiamata l. 93/2023, infatti, ha previsto che l’AGCom, con proprio provvedimento ordini[12] ai prestatori di servizi – uploader, gestori della pagina e del sito internet, intermediatori di accesso alla rete – di disabilitare l’accesso a contenuti diffusi abusivamente online. Ai sensi dell’art. 2, tale risultato può essere conseguito mediante il blocco dei nomi di dominio[13] e «dell’instradamento del traffico di rete verso gli indirizzi IP univocamente destinati allo svolgimento di attività illecite»[14].

Si tratta di poteri volti ad inibire i ben noti fenomeni di illecita diffusione online di contenuti quali, ad esempio, eventi sportivi, programmi di intrattenimento, film, ecc[15].

È noto, infatti, che coloro i quali organizzano tali “trasmissioni” su siti c.d. pirata traggono sovente una remunerazione diretta dalla vendita di spazi pubblicitari sulle relative pagine ed un vantaggio “indiretto” derivante dall’instradamento del traffico e dall’accesso a taluni dati di navigazione dell’utente. Ciò, come è evidente, accade in violazione dei diritti d’autore, con rilevante pregiudizio per gli operatori economici che diffondono i medesimi contenuti a pagamento e che vedono ridursi la platea dei propri clienti fatalmente attratti dalla gratuità dei siti “pirata”.

Le condotte illecite, invero, sono spesso realizzate proprio mentre l’evento “a pagamento” è in corso, sicché per contrastare il relativo fenomeno era necessario prevedere strumenti che consentissero un efficace intervento repressivo in tempo reale. Inoltre, considerato che gli illeciti sovente vengono realizzati mediante siti che sfuggono alla giurisdizione italiana ed all’esercizio dei poteri amministrativi delle Autorità nazionali, prevedere solo meccanismi sanzionatori ex post – come, ad esempio, l’irrogazione di una sanzione pecuniaria – avrebbe reso ineffettivo il sistema delle tutele.

Alla luce di queste brevi considerazioni si comprende, allora, perché l’art. 2, c. 3, della l. 93/2023 abbia previsto che «nei casi di gravità e urgenza, che riguardino la messa a disposizione di contenuti trasmessi in diretta, prime visioni di opere cinematografiche e audiovisive o programmi di intrattenimento, contenuti audiovisivi, anche sportivi, o altre opere dell’ingegno assimilabili, eventi sportivi nonché eventi di interesse sociale o di grande interesse pubblico (…) con provvedimento cautelare adottato con procedimento abbreviato senza contraddittorio, l’Autorità ordina ai prestatori di servizi, compresi i prestatori di servizi di accesso alla rete, di disabilitare l’accesso ai contenuti diffusi abusivamente mediante blocco dei nomi di dominio e degli indirizzi IP».

Va evidenziato che, in tale contesto, l’AGCom – anche sulla scorta di una raccomandazione della Commissione europea intesa a rafforzare la lotta alla pirateria online degli eventi sportivi[16] – ha avviato i lavori per un tempestivo aggiornamento[17] del regolamento in materia di tutela del diritto d’autore online (delibera 680/13/CONS del 12 dicembre 2013, già precedentemente modificata con l’introduzione di nuovi soggetti vigilati, di un procedimento abbreviato, nonché di poteri cautelari), al fine di adeguarlo alle nuove esigenze di contenimento dei rischi derivanti dalla diffusione dei siti pirata.

Con la delibera 189/23/CONS del 26 luglio 2023 – a pochi giorni, quindi, dalla pubblicazione della l. 93/2023 – l’Autorità ha disciplinato il procedimento cautelare volto a «porre fine» alle violazioni del diritto d’autore e dei diritti connessi riguardanti la diffusione illecita di contenuti audiovisivi trasmessi in diretta[18]. In particolare, l’art. 9-bis, c. 4-ter, del regolamento prevede che «l’ordine cautelare di cui al c. 4-bis è adottato entro tre giorni dalla ricezione dell’istanza ovvero dei documenti integrativi richiesti dalla direzione ai fini della ricevibilità dell’istanza medesima ed eseguito da parte dei destinatari del provvedimento entro il termine stabilito dall’Autorità e comunque entro 24 ore dalla notifica dello stesso»[19], ovvero entro trenta minuti dalla comunicazione nei casi di successive segnalazioni, come già previsto in via generale dall’art. 2, c. 4, l. 93/2023[20].

Anche questo procedimento super-accelerato rischiava, tuttavia, di risultare non efficace qualora si fosse investita la (sola) AGCom del compito – quasi impossibile – di scandagliare continuamente il mare magno della rete internet alla ricerca di siti pirata. Ed allora opportunamente la legge prevede che il titolare o il licenziatario del diritto asseritamente violato possa presentare all’Autorità la richiesta di blocco allegando la documentazione necessaria «tra cui l’elenco dei nomi di dominio e degli indirizzi IP attraverso i quali sono resi disponibili i contenuti diffusi abusivamente» (art. 2, c. 4)[21].

Il d.l. 123/2023[22] ha modificato la l. 93/2023 prevedendo che tale elenco sia «comunicato direttamente e simultaneamente tramite la piattaforma all’Autorità e ai soggetti destinatari del provvedimento, che devono provvedere tempestivamente alla rimozione o alla disabilitazione, comunque entro il termine massimo di 30 minuti dalla comunicazione» (art. 2, c. 4)[23].

Il provvedimento di “blocco” – con il quale l’Autorità ordina ai prestatori di servizi, compresi i prestatori di accesso alla rete, di disabilitare l’accesso a contenuti diffusi abusivamente mediante il blocco dei nomi di dominio e il blocco dell’instradamento del traffico di rete verso gli indirizzi IP univocamente destinati ad attività illecite – è notificato immediatamente dall’Autorità ai prestatori di servizi di accesso alla rete, ai soggetti gestori di motori di ricerca e ai fornitori di servizi della società dell’informazione coinvolti a qualsiasi titolo nell’accessibilità del sito web o dei servizi illegali (art. 2, c. 5, l. 93/2023)[24]. Nel caso in cui siano coinvolti a qualsiasi titolo nell’accessibilità del sito web o dei servizi illegali, questi soggetti eseguono il provvedimento dell’Autorità senza alcun indugio e, comunque, entro il termine massimo di trenta minuti dalla notificazione, disabilitando la risoluzione DNS dei nomi di dominio e l’instradamento del traffico di rete verso gli indirizzi IP indicati nell’elenco o comunque adottando le misure tecnologiche e organizzative necessarie per rendere non accessibili per gli utilizzatori finali i contenuti diffusi abusivamente[25].

Onde consentire che alla segnalazione seguisse un provvedimento inibitorio tempestivamente adottato, notificato ed eseguito mediante “disabilitazione” del sito pirata, la legge ha previsto l’introduzione di un sistema automatizzato. Ai sensi dell’art. 6, c. 2, l. 93/2023 (nella sua versione risultante dopo le modifiche del novembre 2023) «l’Autorità, in collaborazione con l’Agenzia per la cybersicurezza nazionale, convoca un tavolo tecnico con la partecipazione dei prestatori di servizi, dei fornitori di accesso alla rete internet, dei detentori di diritti, dei fornitori di contenuti, dei fornitori di servizi di media audiovisivi e delle associazioni maggiormente rappresentative preposte alla tutela del diritto d’autore e dei diritti connessi, al fine di definire i requisiti tecnici e operativi degli strumenti necessari a consentire una tempestiva ed efficace disabilitazione dei nomi di dominio o degli indirizzi IP, secondo quanto previsto dall’articolo 2 della presente legge, attraverso la definizione di una piattaforma tecnologica unica con funzionamento automatizzato per tutti i destinatari dei provvedimenti di disabilitazione»[26].

All’esito del confronto emerso nell’ambito del tavolo tecnico l’Autorità si è quindi dotata di una piattaforma (denominata Piracy Shield)[27] atta a consentire una gestione automatizzata delle segnalazioni dei titolari dei diritti e garantire una tutela tempestiva ed efficace. La piattaforma – realizzata dalla Lega calcio Serie A, donata all’AGCom[28] – infatti, permette ai prestatori di servizi di procedere, successivamente all’ordine cautelare dell’AGCom[29], alla disabilitazione diretta e automatica dell’accesso agli indirizzi telematici oggetto di segnalazione nel termine di trenta minuti dalla comunicazione, ai sensi dell’art. 4, c. 2, l. 93/2023 e dell’art. 9-bis, c. 4-sexies, del regolamento sulla tutela del diritto d’autore online nella sua versione consolidata.

Il sistema, dovrebbe quindi consentire l’adozione tempestiva di misure volte a reprimere condotte illecite, pur se proprio la celerità del procedimento e l’automatizzazione dello stesso rischiano di dar luogo a decisioni nelle quali potrebbe essere inibita la diffusione dei contenuti magari sul falso presupposto della illiceità della stessa.

La compressione delle garanzie partecipative che astrattamente dovrebbero essere assicurate anche al potenziale destinatario della misura – e che si riespandono solo in sede di (eventuale) reclamo[30] – può dar luogo a provvedimenti illegittimi, sicché occorre trovare il giusto contemperamento tra effettività della misura inibitoria e sanzionatoria ed esigenze di partecipazione difensiva e collaborativa.

Come se il quadro di riferimento non fosse già sufficientemente complesso, occorre considerare come la decisione potrebbe essere adottata anche da sistemi di AI[31]. Il che naturalmente sospinge la riflessione verso la questione – oggetto di rilevanti contributi scientifici – delle condizioni e dei limiti entro i quali le decisioni amministrative automatizzate possano essere ammesse nell’ordinamento amministrativo.

 

  1. La vicenda giudiziaria e la decisione del giudice amministrativo

La pronuncia del T.a.r. Lazio trae origine da un ricorso più risalente promosso da Assoprovider (Associazione provider indipendenti) per l’annullamento delle delibere[32] con le quali l’AGCom ha modificato il regolamento in materia di tutela del diritto d’autore online.

La società ricorrente osservava, anzitutto, che le delibere in questione erano state adottate da AGCom in assenza di un potere regolamentare dell’Autorità in materia di tutela del diritto d’autore[33].

È con successivo ricorso per motivi aggiunti che venivano impugnate anche la delibera del 26 luglio 2023[34] con la quale l’Autorità accettava la donazione del software di gestione della piattaforma machine to machine denominato Piracy Shield e la delibera 321/23/CONS attinente alla «definizione dei requisiti tecnici e operativi della piattaforma tecnologica unica con funzionamento automatizzato»[35].

Il Tribunale amministrativo regionale, nel rigettare il ricorso, ha anzitutto confermato la sussistenza del potere regolatorio dell’AGCom in materia di tutela del diritto d’autore[36].

In particolare, il T.a.r. osserva che il regolamento approvato con delibera 680/13/CONS – non impugnato dalla associazione ricorrente neanche quale atto presupposto – disciplina espressamente le competenze dell’Autorità in materia di tutela del diritto d’autore sulle reti di comunicazione elettronica, in una prospettiva di promozione di buone condotte nell’attività di diffusione e fruizione delle opere coperte dal diritto d’autore. Il medesimo regolamento, tra l’altro, disciplina anche l’esercizio di funzioni volte all’accertamento delle violazioni e alla cessazione dei relativi effetti, attraverso la rimozione selettiva delle opere digitali e la disabilitazione del sito utilizzato per la diffusione.

Sul tema va rilevato che già l’emanazione del menzionato regolamento n. 680/2013/CONS sulla tutela del diritto d’autore online aveva suscitato un dibattito in dottrina e giurisprudenza, proprio con riferimento alla titolarità di un potere regolamentare dell’Autority in subiecta materia[37].

In assenza di una esplicita disposizione di legge attributiva di tale potere, si è fatto riferimento all’art. 182-bis, c. 1, l. 22 aprile 1941, n. 633, introdotto dall’art. 11, l. 18 agosto 2000, n. 248[38], che ha conferito all’AGCom funzioni di vigilanza per la prevenzione e l’accertamento delle violazioni attinenti alla normativa in materia di diritto d’autore[39]. In altre ricostruzioni[40] si richiamano le disposizioni del d.lgs. 70/2003, di recepimento della direttiva n. 2000/31/CE in materia di commercio elettronico[41]. Vi è anche chi[42] ha richiamato l’allora vigente art. 32-bis, d.lgs. 31 luglio 2005, n. 177 che, nel settore dei media audiovisivi, vietava (e ancora vieta, a mente dell’art. 32 del nuovo Testo unico dei servizi media audiovisivi, di cui al d.lgs. 2 febbraio 2021, n. 208[43]) ai prestatori di servizi di diffondere programmi coperti dal diritto d’autore e attribuisce all’Autorità il potere di emanare disposizioni regolamentari necessarie a rendere effettiva l’osservanza del divieto.

La questione del fondamento legale dei poteri a “maglie larghe” esercitati dall’Authority è stata (già) vagliata anche dal giudice amministrativo[44] secondo il quale sarebbe dirimente la disposizione di cui al richiamato art. 182-bis, l. 633/1941 – da guardare in un’ottica di sistema con le disposizioni del d.lgs. 70/2003 – che riconosce espressamente all’Autorità compiti di regolamentazione e di vigilanza nel settore del diritto d’autore, tra i quali rientra anche l’esercizio di poteri inibitori e sanzionatori.

Tale interpretazione è stata criticata in dottrina, dal momento che la funzione di vigilanza non sembrerebbe sufficiente a giustificare l’esercizio di un potere sostanzialmente normativo idoneo ad incidere in modo diretto sulle posizioni giuridiche dei destinatari[45]. Secondo questa impostazione, infatti, il potere di vigilanza si esaurirebbe in una attività ispettiva, volta a verificare l’osservanza delle norme poste a presidio del diritto d’autore, e non anche in un’attività propriamente normativa, e finanche para-giurisdizionale, che travalicherebbe, in assenza delle idonee garanzie procedimentali, il perimetro della singola vicenda da regolare.

Seguendo questa prospettiva dottrinaria, il potere regolamentare dell’AGCom non potrebbe ritenersi legittimato neanche attraverso il ricorso alla nota teoria dei poteri impliciti[46], pure richiamata dal T.a.r. nella sentenza in commento. Ciò, in ragione del fatto che siffatto potere dell’Authority inciderebbe in maniera assai rilevante, oltre che sulla legalità-garanzia, anche sulla legalità-procedurale attraverso la dequotazione degli strumenti partecipativi che, al contrario, si mostrano come necessari nel procedimento di adozione di un atto di regolazione.

E invece, con la richiamata delibera 189/23/CONS l’AGCom – proprio in virtù di poteri impliciti volti, in un certo senso, a “compensare” il deficit di tutela che si riscontrerebbe in assenza di strumenti di intervento rapidi ed effettivi per la protezione del diritto d’autore online – ha modificato il regolamento del 2013 e ha ulteriormente definito le modalità di esercizio di poteri inibitori, cautelari e sanzionatori nei casi di diffusione illecita di contenuti coperti dal diritto d’autore.

Con riferimento a tale ultimo profilo, il T.a.r. Lazio, nella sentenza in commento, ha ritenuto infondate le censure riferite alla violazione della riserva del potere giurisdizionale rispetto al procedimento sanzionatorio delineato dal “nuovo” art. 9-bis del regolamento AGCom del 2013 (come modificato con la delibera del 2023 oggetto di impugnazione). È stato rilevato, infatti, che il procedimento amministrativo e quello che si svolge in sede giurisdizionale si collocano su piani distinti e separati, in quanto la competenza concorrente dell’autorità giudiziaria e dell’autorità amministrativa è prevista in maniera espressa proprio dal d.lgs. 70/2003 (art. 5)[47], nonché dall’art. 32-bis, c. 3, d.lgs. 177/2005[48]. Peraltro, il regolamento del 2013 prevede che in caso di mancato adeguamento all’ordine inibitorio impartito dall’AGCom siano irrogate sanzioni amministrative, mentre resta ferma la competenza del g.o. sulle controversie relative alla violazione del diritto d’autore. La giurisprudenza ha infatti precisato che – a differenza di quanto accade in relazione a poteri propriamente regolatori – il potere sanzionatorio non può trovare fondamento nella teoria dei poteri impliciti, ma deve essere espressamente previsto da una disposizione di legge.[49]

Seguendo il ragionamento operato dal T.a.r., il procedimento[50], finalizzato all’emanazione di un ordine cautelare, risponde alla esigenza di apprestare una tutela urgente ai titolari dei diritti al fine di scongiurare il rischio di pregiudizi irreparabili. Tale misura inibitoria urgente – che non sembra porsi in contrasto con la tutela giurisdizionale, né costituire uno strumento alternativo e/o sostitutivo di quest’ultima – deve ritenersi conforme proprio a quelle disposizioni del diritto euro-unitario[51] in materia di commercio sulle reti di comunicazione elettronica ove espressamente si prevede che le azioni inibitorie – anche nella forma della rimozione dei contenuti e della disabilitazione dell’accesso alle opere digitali – eventualmente apprestate dagli Stati possono essere espressione di un potere sia giurisdizionale, sia amministrativo[52].

L’assetto di competenze così delineato è coerente con i principi enunciati dalla Corte di giustizia UE in materia di tutela del diritto d’autore[53] e trova conferma, come già evidenziato, nella recente l. 93/2023 ove si riconosce espressamente il potere dell’Autority di «ordinare ai prestatori di servizi, compresi i prestatori di accesso alla rete, la disabilitazione dell’accesso a contenuti diffusi abusivamente mediante il blocco della risoluzione DNS dei nomi di dominio e il blocco dell’instradamento del traffico di rete verso gli indirizzi IP univocamente destinati ad attività illecite» e si prevede, inoltre, che tali ordini siano eseguiti dai soggetti coinvolti, a qualsiasi titolo, nell’attività di accesso ai siti web[54].

Il T.a.r. Lazio si sofferma anche sull’esercizio dei poteri di AGCom attraverso il ricorso a piattaforme che fanno uso di algoritmi.

Infatti, la delibera 321/23/CONS, impugnata con motivi aggiunti dalla società ricorrente, ha definito i requisiti tecnici e operativi della piattaforma per il contrasto al fenomeno della pirateria online, prevista in ossequio all’art. 6, c. 2[55], l. 93/2023. In particolare, la delibera individua le condotte che gli operatori appartenenti alle categorie richiamate dalla legge[56] sono tenuti ad attuare al fine di assicurare il pieno funzionamento della piattaforma.

Su tale ultimo profilo, tuttavia, il T.a.r. – pur affermando che l’utilizzo di sistemi automatizzati per reprimere le violazioni online del diritto d’autore è pienamente conforme alle disposizioni normative nazionali ed euro-unitarie – sembra lasciare sullo sfondo talune rilevanti questioni, facendo leva sulla impossibilità del giudice di pronunciarsi su attività in corso di svolgimento e su poteri amministrativi non ancora esercitati[57]. Si tratta, tuttavia, di profili di sicuro interesse in quanto attinenti alla legittimità dell’impiego di strumenti informatici per l’adozione di decisioni amministrative, nonché alla possibile lesione di diritti e libertà fondamentali derivanti dall’esercizio di funzioni amministrative da parte di soggetti formalmente privati.

 

  1. Decisione amministrativa e strumenti informatici: ancora su trasparenza, conoscibilità e comprensibilità del software

Negli anni più recenti, lo sviluppo dell’automazione e dei sistemi di intelligenza artificiale ha rivoluzionato le dinamiche che governano le relazioni sociali, giuridiche ed economiche e, non meno, i modelli di esercizio della funzione amministrativa[58].

Su tale ultimo profilo, invero, il ricorso a procedimenti (anche totalmente) automatizzati e a decisioni frutto di algoritmi o di sistemi di AI[59] è stato salutato con favore, soprattutto in virtù del contributo che può comportare in termini di buon andamento dell’attività amministrativa e di sviluppo economico.

Tuttavia, in assenza di una base normativa anche solo “di principio” in materia di decisioni amministrative automatizzate[60], le regole poste a presidio di questa nuova forma di esercizio del potere sono state delineate dalla giurisprudenza.

Il giudice amministrativo, infatti, ha enucleato una sorta di “statuto pretorio” della materia, affermando la valenza precettiva di regole e garanzie minime proprie del procedimento amministrativo che, nell’ambito di moduli decisori algoritmici, rischiavano di essere sacrificate in nome dell’interesse alla speditezza dell’azione amministrativa[61].

Non è certo questa la sede per ripercorrere il faticoso percorso giurisprudenziale in materia, oggetto di numerose e approfondite riflessioni della dottrina[62]. È sufficiente solo ricordare che il giudice amministrativo ha individuato alcuni presupposti, che si traducono in altrettante “prescrizioni”, in ordine all’utilizzabilità di moduli decisori automatizzati, enucleando le ormai note leggi della legalità algoritmica[63], tra le quali rientrano i principi di conoscibilità dello strumento informatico utilizzato, di comprensibilità del modulo decisorio, di non esclusività della decisione automatizzata[64].

Nel diritto UE si è recentemente delineato un quadro di regole chiare ed uniformi in materia di utilizzo di sistemi informatici e di AI[65] anche nell’ambito di attività di natura pubblicistica. A livello nazionale, inoltre, i principi definiti in via pretoria hanno trovano una prima positivizzazione mediante l’introduzione di una normativa specifica, ancorché operante nell’ambito di una disciplina settoriale.

Ci si riferisce, in particolare, al nuovo codice dei contratti pubblici (d.lgs. 31 marzo 2023, n. 36), ove non solo la digitalizzazione è assurta a principio di applicazione generale dell’attività amministrativa in materia – anche nell’ottica del risultato[66] che caratterizza l’intero testo normativo[67] – ma vengono altresì positivizzati quei principi (di conoscibilità, comprensibilità, non esclusività della decisione automatizzata)[68] già enucleati dal Consiglio di Stato.

Tuttavia, pur a fronte di tale rilevante intervento, non pare che il legislatore abbia ancora individuato con chiarezza quei presidi di legalità idonei a scongiurare il rischio che procedimenti e provvedimenti amministrativi automatizzati risultino in contrasto con i principi, le garanzie e le regole che connotano l’azione amministrativa “tradizionale”. A ciò, si aggiunge un ulteriore fattore che continua ad alimentare, sul versante applicativo, questa situazione di incertezza giuridica. Ci si riferisce, in particolare, alla ancora dubbia natura giuridica del programma (e dell’algoritmo, o del sistema di AI, sul quale esso si fonda) posto alla base dell’atto amministrativo, in tutto o in parte, automatizzato.

Come evidenziato a più riprese in dottrina[69], infatti, la corretta delimitazione della natura giuridica del programma informatico[70] pare ormai elemento ineludibile per conferire piena effettività alle regole individuate dalla giurisprudenza e, prima ancora, ai principi che informano l’azione amministrativa, specie quelli attinenti alla partecipazione.

Si tratta di garanzie che dovrebbero trovare adeguata considerazione non solo nel singolo procedimento che conduce all’adozione del provvedimento automatizzato, ma anche (e, forse, prevalentemente) nella fase di studio che precede la elaborazione dell’algoritmo e del programma e, dunque, la traduzione in un linguaggio intellegibile dalla macchina dei principi e delle regole che devono sovrintendere all’adozione dei provvedimenti amministrativi automatizzati.

È solo attraverso la piena conoscibilità e comprensibilità del programma o più ancora attraverso l’apertura (nella fase di programmazione) a istanze partecipative dei soggetti portatori di interessi suscettibili di essere incisi dal potere che il ricorso alla funzione amministrativa automatizzata (a mezzo di algoritmi o di sistemi di AI) potrebbe considerarsi ex se legittimo.

Questa scelta di fondo non sembra ulteriormente derogabile. Il rischio concreto sarebbe quello di relegare (ancora) il giudizio sulla legittimità dell’attività amministrativa automatizzata ad un momento successivo, e cioè all’applicazione concreta, al singolo caso, dello strumento informatico (come nel caso della piattaforma antipirateria), con conseguente dequotazione non solo della legalità sostanziale, ma anche di quella procedurale.

Infatti, se è vero che l’ordinamento impone al giudice amministrativo di non pronunciarsi su poteri amministrativi non ancora esercitati, il ricorso della p.A. a piattaforme che fanno uso di algoritmi o di sistemi di intelligenza artificiale per l’esercizio del potere pubblico[71], presuppone una scelta che si manifesta attraverso un atto amministrativo idoneo, talvolta, ad incidere direttamente sulle posizioni giuridiche dei destinatari e, come tale, immediatamente sindacabile dal punto di vista della legittimità.

Si dovrebbe definitivamente riflettere, dunque, sulla opportunità di riconoscere al programma informatico, e alla piattaforma che esso utilizza, la natura di atto amministrativo presupposto, rispetto ai successivi atti che ne sono diretta manifestazione e preordinati alla definizione di un medesimo rapporto amministrativo[72], con conseguente potere del giudice di sindacarne la legittimità sotto il profilo, almeno, del rispetto delle garanzie procedimentali.

 

  1. Poteri privati ed esercizio di funzioni pubbliche al tempo delle piattaforme digitali

L’ulteriore riflessione suscitata dalla sentenza in commento attiene all’esercizio di funzioni sostanzialmente pubblicistiche da parte di soggetti formalmente privati.

La tematica, non nuova nella riflessione giuridica[73], involge problematiche di più ampio respiro che non possono trovare spazio in queste brevi annotazioni.

Per tale ragione, si svolgeranno alcune considerazioni solo su profili relativi allo sviluppo dei sistemi digitali per la diffusione in larga scala di prodotti e contenuti audio-visivi, ove le funzioni di vigilanza e controllo sul rispetto di diritti e libertà fondamentali – come il diritto d’autore, nel caso sottoposto al vaglio del T.a.r. Lazio – sembrano assegnate anche a soggetti «non pubblici» ed esercitate, talvolta, attraverso l’utilizzo di sistemi informatici.

Occorre, tuttavia, muovere da alcune considerazioni di carattere generale.

Se già in passato la scienza giuridica si è preoccupata di individuare una definizione di esercizio privato di funzione pubbliche[74] – come «forma di attività privata, attraverso la quale vengono ad attuarsi fini propri della Stato o, in generale, di un ente pubblico»[75] – la questione assume attualmente particolare rilevanza se analizzata con riferimento alla società digitale[76].

Il mondo digitale è, infatti, sovraffollato di poteri, pubblici e privati[77], le cui relazioni costituiscono un reticolo intricato e si esplicano attraversato dinamiche non sempre convergenti[78].

Le ragioni poste alla base dello sviluppo dei c.d. poteri privati digitali – e, conseguentemente, di forme di auto-regolazione in luogo di quelle strettamente pubblicistiche[79] – sono da individuare, principalmente, nella necessità di garantire un ambiente favorevole allo sviluppo dell’innovazione[80]. Ciò è anche la conseguenza del fatto che, in non pochi casi, il legislatore (o la p.A. titolare di potestà normativa) non riesce, attraverso gli strumenti di cui dispone, a disciplinare un fenomeno in costante e repentina evoluzione[81].

In tale contesto, allora, la tecnologia si è sviluppata, prevalentemente, senza alcun controllo ex ante da parte del pubblico potere e ha consentito alle grandi piattaforme di espandersi su base globale attraverso l’introduzione di regole auto-definite e di consolidare la propria pervasività nel mercato globale, nel tessuto sociale e, non da ultimo, finanche nell’ambito dell’“offerta politica”[82].

Tale rilevante capacità dei poteri digitali di incidere in modo significativo sul tessuto economico e sociale ha finito con il mutare anche l’essenza dello stesso potere pubblico[83] (e della funzione di regolazione del mercato) e, di conseguenza, la dinamica tra la libertà e l’autorità, quest’ultima esercitata non solo da poteri pubblici ma anche dai “nuovi”[84] poteri privati[85].

L’influenza di questi poteri privati è giunta, in altri termini, a mettere in dubbio la stessa attitudine di quello pubblico a mantenere il proprio ruolo nel mondo digitale, anche in ragione della sfiducia verso la regolazione pubblica[86], incapace di adattarsi alle molteplici e costanti trasformazioni dei sistemi e dei mercati digitali, e della tendenza verso forme di auto-regolazione privata[87].

Com’è noto, la diffusione di strumenti di auto-regolazione privata, e poi di co-regolazione, è maturata nel contesto statunitense[88].

Il sistema euro-unitario – inizialmente poco incline ad abdicare a quella funzione di tutela del complesso sistema di garanzie democratiche poste a fondamento dello stesso ordinamento comunitario (poi dell’Unione europea) – non è tuttavia rimasto immune a quel processo di trasmigrazione della regolazione del “digitale” dal settore pubblico a quello privato[89].

In tale contesto, allora, il dibattito giuridico si è spostato sulla idoneità di poteri siffatti di incidere su diritti e libertà costituzionali (libertà di espressione, di iniziativa economica, ecc.) e sul rapporto tra tali poteri con i principi e le regole poste dagli Stati e dalle organizzazioni internazionali a presidio dell’esplicarsi libero, ma armonico, delle relazioni sociali ed economiche[90].

La dottrina, infatti, pur riconoscendo gli effetti positivi di un sistema (quello improntato alla co-regolazione) capace di adattarsi in modo dinamico ai mutamenti del progresso tecnologico, ha a più riprese sollecitato una riflessione sui possibili esiti negativi[91], i cui approdi, tuttavia, non sembrano aver trovato risposta positiva neanche nella legislazione europea in materia di servizi e mercati digitali.

Il recente “pacchetto digitale” del 2022-2023, per esempio, se da un lato sembra animato dallo sforzo del legislatore europeo – probabilmente consapevole dei rischi che un sistema meramente auto-regolato comporterebbe sul versante della tutela dei diritti degli utenti e della concorrenza nel mercato[92] – di definire un quadro regolatorio uniforme in materia di servizi e mercati digitali e di intelligenza artificiale; dall’altro, pare trascurare la necessità di circoscrivere i limiti entro i quali le pubbliche funzioni possano essere esercitate da soggetti estranei all’arena pubblica[93] (ad esempio nel caso di contrasto alle condotte violative dei diritti e delle libertà attraverso la tecnologia).

La questione, invero, appare particolarmente rilevante, soprattutto se si guarda a talune delle più recenti manifestazioni della funzione pubblica di regolamentazione dei servizi digitali.

Nel giudizio che ha dato corso alla sentenza in commento, ad esempio, la ricorrente dubitava della sussistenza del potere dei prestatori di servizi e dei fornitori di accesso alla rete di vigilare e di segnalare l’attività illecita all’Autorità ai fini del successivo provvedimento inibitorio. La censura non è stata accolta dal g.a. in quanto il modello “partecipato” di esercizio della pubblica funzione (in questo caso messo in atto dall’AGCom) risulterebbe consentito dalla legge[94], soprattutto nei casi in cui la finalità – come nel caso di specie – è quella di intervenire nel momento stesso in cui la violazione è in atto o, comunque, in tempi utili ad evitare (o quantomeno limitare) la lesione delle singole situazioni soggettive.

Tuttavia, nella controversia non si è affrontato ex professo il profilo dell’effettiva conformità alla legge della soluzione applicativa individuata da AGCom. Si tratta di un profilo non secondario in virtù degli effetti negativi ai quali lo stesso sistema dei diritti e delle libertà fondamentali rischia di essere esposto.

Un aspetto critico, infatti, attiene alla idoneità di un meccanismo siffatto ad incidere su diritti e libertà democratiche, quali la libertà di espressione, di manifestazione del pensiero, di iniziativa economica privata. Si tratta di libertà che vengono garantite e tutelate attraverso strumenti di controllo, e di successiva repressione, delle condotte illecite e anticoncorrenziali[95], ma che, al contempo, rischiano di essere limitate in modo sproporzionato e, talvolta, ingiustificato. Tale rischio risulta peraltro amplificato nei casi in cui l’attività di controllo e di c.d. moderazione dei contenuti venga svolta da soggetti privati mediante strumenti meccanici applicativi di sistemi algoritmici (come nel caso della piattaforma Piracy Shield) o di intelligenza artificiale[96].

Pertanto, come già rilevato in dottrina[97], in presenza di un modello di assunzione della decisione amministrativa differente rispetto a quello tradizionale, le regole che disciplinano l’attività amministrativa – preordinate, com’è noto, a tutelare gli interessi pubblici e privati e ad assicurare l’acquisizione più ampia possibile di elementi di fatto e di diritto che l’Amministrazione deve porre a fondamento della propria decisione[98] ‒ si manifestano non pienamente adeguate rispetto alla decostruzione del classico rapporto libertà-autorità.

Il quadro di (in)certezze appena evocato sul piano generale pare aver trovato riscontro sul piano applicativo proprio avendo riguardo all’operatività della piattaforma Piracy Shield, che ha comportato talvolta l’oscuramento automatico e (fin troppo) tempestivo di contenuti asseritamente “pirata”, ma che, in realtà, si inserivano in un circuito di diffusione lecito[99].

 

  1. Rilievi conclusivi

La pronuncia del T.a.r. Lazio ha offerto l’occasione per svolgere talune considerazioni di sistema che sembrano collocarsi oltre il perimetro del thema decidendum del caso concreto.

La tutela del diritto d’autore costituisce certamente il caposaldo dell’interesse pubblico che giustifica la previsione di procedure urgenti e il ricorso a strumenti tecnici funzionali a garantirne l’effettività. Conseguentemente, l’esercizio di poteri inibitori preordinati a reprimere la diffusione abusiva di contenuti sulle reti di comunicazione elettronica, anche attraverso strumenti informatici che fanno uso di algoritmi o di sistemi di AI, può ritenersi legittima e, d’altro canto, compatibile con il sistema repressivo e sanzionatorio giurisdizionale, ponendosi su piani concretamente distinti.

Questo meccanismo di enforcement dei poteri dell’AGCom[100], tuttavia, pare destinato a scontrarsi con regole e principi che, nella pronuncia in esame, non vengono affrontati, pur se in dottrina è in atto un dibattito assai vivace sul necessario equilibrio tra l’utilizzo di strumenti informatici per l’esercizio di funzioni pubbliche e il principio di legalità sostanziale che informa la stessa attività amministrativa. A ciò si aggiunge, poi, che nell’attività di contrasto alle violazioni della disciplina in materia di tutela del diritto d’autore online, le funzioni di vigilanza possono essere esercitate anche da soggetti privati[101] – gestori dei motori di ricerca, fornitori di servizi della società dell’informazione, ecc.[102] – proprio attraverso il ricorso a piattaforme (come quella antipirateria oggetto della controversia) i cui meccanismi di funzionamento, molto spesso, non sono comprensibili ai possibili destinatari dei provvedimenti.

Se, come anticipato, dall’analisi della decisione pochi dubbi possono sorgere in ordine alla legittimità dei poteri dell’Authority in materia di tutela del diritto d’autore e dell’impiego di strumenti informatici (una piattaforma) per la identificazione e la disabilitazione di nomi di dominio che diffondono contenuti “pirata”, ci si avvede della carenza di qualsivoglia riferimento al rispetto di quelle regole che, nell’ambito dell’attività amministrativa, devono sovrintendere all’utilizzo di sistemi capaci di soppiantare (in tutto o in parte) la decisione umana.

A ben guardare, le determinazioni dell’AGCom sono ritenute legittime dal T.a.r. Lazio non soltanto perché applicative di specifiche norme di legge che espressamente attribuiscono all’Autorità la facoltà di avvalersi di strumenti informatici per l’esercizio dell’attività di vigilanza e repressione degli illeciti; ma anche perché le modalità tecnico-operative per l’utilizzo della piattaforma sono state oggetto di definizione in seno ad un tavolo tecnico.

Ma – e questo è un rilevante profilo di criticità – le caratteristiche tecniche della piattaforma, il codice sorgente del programma, il set di dati utilizzato per l’addestramento del sistema non sono né pubbliche, né suscettibili di accesso.

Ci si domanda allora come tale scelta si concili con l’insegnamento del Consiglio di Stato secondo cui «il meccanismo attraverso il quale si concretizza la decisione robotizzata (ovvero l’algoritmo) deve essere “conoscibile”, secondo una declinazione rafforzata del principio di trasparenza, che implica anche quello della piena conoscibilità di una regola espressa in un linguaggio differente da quello giuridico»[103]. La conoscibilità dell’algoritmo deve essere garantita in tutti gli aspetti: dai suoi autori, al procedimento usato per la sua elaborazione, al meccanismo di decisione, comprensivo delle priorità assegnate nella procedura valutativa e decisionale e dei dati selezionati come rilevanti[104]. Ciò, al fine di poter verificare che gli esiti del procedimento automatizzato siano conformi alle prescrizioni e alle finalità stabilite dalla legge o dalla stessa Amministrazione a monte di tale procedimento e affinché siano chiare – e conseguentemente sindacabili – le modalità e le regole in base alle quali esso è stato impostato.

E allora, davvero la black box[105] che oggi protegge la piattaforma Piracy Shield è compatibile con le garanzie procedimentali?

Ma anche volendo ritenere che il sistema sia conoscibile e comprensibile, la lesione della sfera giuridica dei destinatari potrebbe verificarsi già nella fase di costruzione dell’algoritmo e di traduzione dello stesso in linguaggio macchina attraverso il programma.

Ecco allora la necessità di individuare soluzioni funzionali a riconoscere al programma la natura di atto presupposto, idoneo, in quanto tale, ad essere sottoposto al vaglio di legittimità del g.a., dal momento che la strutturazione del programma informatico costituisca già pieno esplicarsi della funzione[106].

Su altro versante occorre ancora riflettere sul rapporto tra tecnica e potere[107] e sull’esercizio di funzioni amministrative da parte di quelli che abbiamo definito poteri privati digitali, alla base della diffusione, anche nell’ordinamento europeo, di strumenti di co-regolazione[108].

In astratto i meccanismi di regolazione condivisa tra pubblico e privato non possono valutarsi in senso negativo, anche in virtù della capacità di correggere l’asimmetria informativa tra regolatore e regolato[109]. E tuttavia, sul piano concreto, così come gli ordinamenti tradizionalmente prevedono strumenti volti a contenere il potere pubblico, per il quale introducono limiti e contrappesi[110], è necessario, anche nella nuova realtà, individuare sistemi di obblighi, di regole e di limiti contro ipotesi di abuso del potere privato[111]. L’esperienza contemporanea mostra, infatti, che l’esercizio di quei diritti e libertà – spesso tutelati solo nel rapporto tra cittadino e potere pubblico – è sovente compromesso proprio dall’esercizio di poteri privati digitali, con effetti in parte nuovi in quanto derivanti lato sensu dalla natura ancipite[112] delle piattaforme.

Nel caso in commento, ad esempio, pur se l’esercizio delle funzioni inibitorie delle condotte violative del diritto d’autore online è rimesso, in concreto, all’Autorità ex lege legittimata, l’attività di vigilanza che la stessa Authority di fatto affida agli operatori della rete rischia di condurre ad una sostanziale disapplicazione dei principi e delle regole che presidiano il rapporto libertà-autorità e ad un modello nel quale all’autorità si sostituisce la “libertà di pochi” e alla libertà il “sacrificio di molti”[113].

Il fenomeno necessita sicuramente di essere regolato, almeno in parte ex ante[114], valutando i possibili impatti ed effetti delle soluzioni tecnologiche – prima che esse sfuggano a ogni limite e controllo – e del ricorso all’esercizio di funzioni da parte di “poteri” che sovente non sono in grado di assicurare una tutela orizzontale dei diritti e delle libertà.

La difficoltà per i soggetti pubblici di assicurare il rispetto delle regole – in ragione, soprattutto, della sproporzione fra le risorse in possesso dei soggetti regolati e quelle a disposizione dei regolatori, della asimmetria fra la territorialità dei regolatori e la dimensione globale dei regolati – non deve tuttavia condurre ad un arretramento delle garanzie che nei procedimenti amministrativi sono ormai riconosciute a livello sovranazionale, in nome di un celere ed efficace esercizio di una funzione che, diversamente, non potrebbe neanche forse definirsi ancora “amministrativa”.

 


[1] Con riferimento all’incidenza della società digitale sul sistema dei diritti fondamentali cfr. A. Adinolfi, L’intelligenza artificiale tra rischi di violazione dei diritti fondamentali e sostegno alla loro promozione: considerazioni sulla (difficile) costruzione di un quadro normativo dell’Unione, in A. Pajno – F. Donati – A. Perrucci (a cura di), Intelligenza artificiale e diritto: una rivoluzione?, Bologna, 2022, I, 127 ss.

[2] Pare opportuno precisare che lo scambio di beni e servizi nei mercati digitali avviene attraverso l’interazione tra più soggetti economici. Tale interazione trova concretizzazione per mezzo delle c.d. piattaforme digitali, quali luoghi di scambio delle informazioni e di inveramento delle pratiche commerciali. Sulla nozione economica di piattaforma digitale cfr. P. Belleflamme – M. Peitz, The Economics of Platforms: Concepts and Strategy, Cambridge, 2021, spec. 34 ss.

[3] Cfr., tra le riflessioni più recenti, G. Buttarelli, La regolazione delle piattaforme digitali: il ruolo delle istituzioni pubbliche, in Giornale di diritto amministrativo, 2023, 120 ss.; F. Pizzetti, Introduzione alla regolazione europea della società digitale, in Id. (a cura di), La regolazione europea della società digitale, Torino, 2024, 3 ss.

[4] L’espressione “pacchetto digitale” indica l’insieme delle iniziative legislative dell’Unione europea volte a regolamentare i servizi digitali, l’utilizzo delle piattaforme e dei social media nello spazio giuridico-economico europeo. Il pacchetto comprende attualmente non solo i regolamenti sui servizi digitali (regolamento (UE) 2022/2065/UE, Digital Services Act) e sui mercati digitali (regolamento (UE) 2022/1925, Digital Market Act), ma anche il Data Governance Act (regolamento (UE) 2022/868), il Data Act (regolamento (UE) 2023/2854) e il più recente Artificial Intelligence Act (regolamento (UE) 2024/5662) in vigore dal 1° agosto 2024.

[5] Secondo la ricostruzione di R. Brownsword – E. Scottford – K. Yeung, Law, Regulation ant Technology: The Field, Frame and Focal Questions, in R. Brownsword – E. Scottford – K. Yeung (eds.), The Oxford Handbook of Law, Regulation and Technology, Oxford, 2017, 8, ove osservano che «because technological innovation frequently disrupts existing regulatory forms, frameworks and capacities, it often prompts claims that regulatory legitimacy has been undermined as a result, usually accompanied by calls for some kind of regulatory reform, but sometimes generating innovation in the regulatory enterprise itself».

[6] Sul tema rifletteva già N. Irti, Il diritto nell’età della tecnica, Napoli, 2007, spec. 18 ss. Più di recente cfr. V. Caputi Jambrenghi, Libertà e Autorità, II, Napoli, 2023, 232 ss.

[7] Con il richiamo alla c.d. safe harbour protection si fa riferimento alla “rete di protezione” che ha storicamente contrassegnato lo sviluppo delle piattaforme digitali rispetto alla responsabilità degli intermediari di rete per i contenuti ospitati sui loro servizi (talvolta illegali e lesivi di diritti e libertà personali). La prospettiva euro-unitaria contemporanea, inaugurata con il richiamato Digital Services Package (cfr., supra, nota n. 4), invece, pare superare l’atteggiamento di protezione verso le piattaforme a scapito di utenti e consumatori e sancire una sorta di primazia della tutela di questi ultimi. Va evidenziato, tuttavia, che nell’impianto legislativo euro-unitario, e in particolare nel regolamento (UE) 2022/2065 (Digital Services Act), non vengono meno gli strumenti di safe harbour. Ai sensi dell’art. 6 del Digital Services Act, infatti, gli intermediari non possono ritenersi responsabili «delle informazioni memorizzate su richiesta di un destinatario del servizio» (e quindi per i contenuti “ospitati”) a condizione, però, che non siano a conoscenza di contenuti illegali, o che provvedano alla tempestiva rimozione degli stessi o al blocco dell’accesso una volta che ne siano venuti a conoscenza. Secondo parte della dottrina all’esigenza di tutela e sicurezza degli utenti e dei consumatori online, si affianca la protezione minima nei confronti delle piattaforme nella prospettiva di stimolare l’innovazione e la competitività. Sul tema cfr., ex multis, V. D’Antonio – S. Sica, I “Safe Harbour Privacy Principles”: genesi, contenuti, criticità, in Il diritto dell’informazione e dell’informatica, 2015, 801 ss.; O. Englisch – G. Priora, Safe Harbour Protection for Online Video Platforms: a Time to Say Goodbye? Analysis of Judgements by Italian and German Courts on the Liability of Youtube for Copyright Infringements, in questa Rivista, 2019, 128 ss.; M. Stucchi, DSA: le nuove regole per le piattaforme online, in Il diritto industriale, 2024, 271 ss.; B. Saavedra Servida, La responsabilità degli “internet service provider”: dal “safe harbour” al principio di “accountability”, in Le nuove leggi civili commentate, 2024, 135 ss.

[8] Sul tema si sofferma L. Torchia, I poteri di vigilanza, controllo e sanzionatori nella regolazione europea della trasformazione digitale, in Rivista trimestrale di diritto pubblico, 2022, 1101 ss.

[9] La disciplina in materia di tutela del diritto d’autore è contenuta nella l. 22 aprile 1941, n. 633 recante “Protezione del diritto d’autore e degli altri diritti connessi al suo esercizio” da leggere – per i profili di interesse alla presente analisi – in combinato con le disposizioni del d.lgs. 9 aprile 2003, n. 70 di attuazione della direttiva 2000/31/CE in materia di servizi della società dell’informazione nel mercato interno con particolare riferimento al commercio elettronico e con il d.lgs. 31 luglio 2005, n. 177 (testo unico dei servizi di media audiovisivi e radiofonici). I richiamati testi legislativi, in una prospettiva di rafforzamento degli strumenti di tutela di diritti (tra cui il diritto d’autore) e libertà fondamentali, già attribuiscono all’Autorità amministrativa (identificata nell’Autorità per le garanzie delle comunicazioni secondo le competenze definite dalla l. 31 luglio 1997, n. 249), unitamente a quella giudiziaria, funzioni preordinate a vigilare ed eventualmente a reprimere possibili condotte violative delle suddette posizioni giuridiche soggettive realizzate su reti di comunicazioni elettronica.

[10] Recante “Disposizioni per la prevenzione e la repressione della diffusione illecita di contenuti tutelati dal diritto d’autore mediante le reti di comunicazione elettronica”.

[11] Legge di ratifica della Convenzione sulla protezione e la promozione delle diversità delle espressioni culturali siglata a Parigi il 20 ottobre 2005.

[12] Va evidenziato, invero, che solo con il d.l. 15 settembre 2023, n. 123 è stato introdotto in capo all’AGCom un vero e proprio obbligo di intervento. Infatti, ai sensi dell’art. 2, l. 93/2023 – come modificato dall’art. 15-ter, d.l. 123/2023 – l’Autorità «ordina ai prestatori di servizi, compresi i prestatori di accesso alla rete, di disabilitare l’accesso ai contenuti diffusi abusivamente». Nella sua originaria formulazione, di contro, l’art. 2, l. 93/2023 prevedeva la mera possibilità (e non l’obbligo) per l’Autorità di intervenire su segnalazione. Per effetto del d.l. 123/2023, inoltre, la tassatività del blocco è rafforzata anche dall’elisione della locuzione “ove tecnicamente possibile”. Il decreto-legge ha peraltro previsto che le comunicazioni e l’aggiornamento ai soggetti destinatari del provvedimento – in ordine all’elenco dei nomi di dominio e degli indirizzi IP – siano effettuate non più dall’Autorità ma dalla piattaforma medesima.

[13] Per una ricostruzione del Domain Name System e dei profili giuridici di maggior rilievo cfr. P. Otranto, Internet nell’organizzazione amministrativa. Reti di libertà, Bari, 2015, 141 ss.

[14] Cfr. art. 2, l. 93/2023.

[15] Trattasi di ipotesi riguardanti la messa a disposizione di contenuti trasmessi in diretta – prime visioni di opere cinematografiche e audiovisive o programmi di intrattenimento, contenuti audiovisivi, anche sportivi – nonché eventi di interesse sociale o di grande interesse pubblico per come definite dall’art. 33, c. 3, d.lgs. 8 novembre 2021, n. 208. In tali casi, e cioè qualora sia prevista la trasmissione in diretta dell’evento, il provvedimento dell’Autorità amministrativa è adottato ed eseguito prima dell’inizio o, al più tardi, nel corso della trasmissione medesima; qualora non si tratti di eventi trasmessi in diretta, il provvedimento è adottato ed eseguito prima dell’inizio della trasmissione o, al più tardi, nel corso della medesima.

[16] Cfr. raccomandazione n. 2023/1018 della Commissione europea del 4 maggio 2023 sulla lotta alla pirateria.

[17] In ottemperanza alla disposizione di cui all’art. 6, c. 1, l. 93/2023 ove si prevede che «entro sessanta giorni dalla entrata in vigore della presente legge, l’Autorità provvede, nel rispetto delle disposizioni della legge 7 agosto 1990, n. 241, a modificare il regolamento in materia di tutela del diritto d’autore sulle reti di comunicazione elettronica, di cui alla deliberazione n. 680/13/CONS del 12 dicembre 2013, al fine di adeguarlo alle disposizioni della presente legge».

[18] Cfr. art. 9-bis, c. 4-bis, del regolamento in materia di tutela del diritto d’autore sulle reti di comunicazione elettronica (delibera AGCom n. 680/13/CONS), come modificato dalla delibera 189/23/CONS, prevede che «con l’istanza di cui all’art. 6, c. 1, può essere fatta motivata richiesta all’Autorità di ordinare in via cautelare ai prestatori di servizi di mere conduit operanti nel territorio italiano di porre fine alla violazione del diritto d’autore o dei diritti connessi riguardanti opere audiovisive aventi ad oggetto manifestazioni sportive trasmesse in diretta e assimilate, ai sensi dell’art. 8, co. 4». Il c. 4-ter del medesimo articolo prevede inoltre che, salvo che la violazione sia manifesta e che la direzione possa procedere direttamente con l’emanazione dell’ordine cautelare, quest’ultimo «è adottato entro tre giorni dalla ricezione dell’istanza ovvero dei documenti integrativi richiesti dalla direzione ai fini della ricevibilità dell’istanza medesima ed eseguito da parte dei destinatari del provvedimento entro il termine stabilito dall’Autorità e comunque entro 24 ore dalla notifica dello stesso».

[19] Cfr. art. 9-bis, c. 4-ter, delibera 680/13/CONS, il quale prevede, attualmente, che «l’ordine cautelare di cui al c. 4-bis è adottato entro tre giorni dalla ricezione dell’istanza ovvero dei documenti integrativi richiesti dalla direzione ai fini della ricevibilità dell’istanza medesima ed eseguito da parte dei destinatari del provvedimento entro il termine stabilito dall’Autorità e comunque entro 24 ore dalla notifica dello stesso».

[20] Pare opportuno rilevare, infatti, che sulla scorta delle indicazioni euro-unitarie (cfr. supra nota n. 16), l’Autorità, oltre al potere di “blocco”, è titolare del potere di emanare le c.d. ingiunzioni dinamiche, in aggiunta ai procedimenti cautelari attivabili innanzi all’autorità giudiziaria ordinaria. Tali ingiunzioni sono volte a disabilitare nomi di dominio, sottodominio o indirizzi IP che abbiano subito una semplice varia-zione del nome o della declinazione o estensione (cosiddetto top level domain) ma che, tuttavia, consenta-no l’accesso ai medesimi contenuti diffusi abusivamente e della stessa natura, ma soltanto ove questi indi-rizzi IP siano prima facie unicamente destinati ad attività illecite (cfr. art. 2, c. 2, l. 93/2023).

[21] Il medesimo potere di segnalazione è attribuito altresì alle associazioni di gestione collettiva o di categoria alle quali il titolare o licenziatario abbia conferito mandato o un soggetto appartenente alla categoria dei segnalatori attendibili di cui all’art. 2, c. 3.

[22] Il d.l. 123/2023, è stato convertito, con modificazioni, dalla l. 13 novembre 2023, n. 159.

[23] In particolare, i prestatori di servizi di accesso alla rete, i soggetti gestori di motori di ricerca e i fornitori di servizi della società dell’informazione, nel caso in cui siano coinvolti a qualsiasi titolo nell’accessibilità del sito web o dei servizi illegali, eseguono il provvedimento dell’Autorità senza alcun indugio e, comunque, entro il termine massimo di trenta minuti dalla notificazione, disabilitando la risoluzione DNS dei nomi di dominio e l’instradamento del traffico di rete verso gli indirizzi IP indicati nell’elenco di cui al c. 4 o comunque adottando le misure tecnologiche e organizzative necessarie per rendere non fruibili da parte degli utilizzatori finali i contenuti diffusi abusivamente. I soggetti gestori di motori di ricerca e i fornitori di servizi della società dell’informazione, nel caso in cui non siano coinvolti nell’accessibilità del sito web o dei servizi illegali, provvedono comunque ad adottare tutte le misure tecniche utili ad ostacolare la visibilità dei contenuti illeciti, tra le quali in ogni caso la deindicizzazione dai motori di ricerca di tutti i nomi di dominio oggetto degli ordini di blocco dell’Autorità ivi inclusi i nomi di dominio oggetto delle segnalazioni effettuate per il tramite della piattaforma ai sensi del c. 4 (art. 2, c. 5).

[24] Il provvedimento è comunicato inoltre all’European Union Internet Referral Unit dell’Europol e al soggetto che ha richiesto l’adozione del provvedimento medesimo.

[25] Avverso la decisione dell’AGCom, entro cinque giorni può essere promosso un reclamo innanzi alla medesima Autorità. La proposizione del reclamo, pur non producendo effetti sospensivi dell’ordine cautelare, implica l’istaurazione di un procedimento che deve essere definito entro sette giorni dall’Autorità con la partecipazione dei soggetti legittimati a proporre reclamo e del soggetto che ha presentato l’istanza di cui all’art. 6, c. 1, del regolamento. Cfr. art. 9-bis, c. 5 e 7, regolamento allegato alla delibera 680/13/CONS, come modificato dalla delibera 180/23/CONS.

[26] Cfr. art. 6, l. 93/2023.

[27] I requisiti tecnici e operativi della piattaforma, come previsto dall’art. 9-bis, c. 4-bis, 4-ter e 4-quater, l. 93/2023, sono stati definiti con delibera 321/23/CONS, a seguito della convocazione da parte di AGCom di un tavolo tecnico con la partecipazione dell’Agenzia per la cybersicurezza nazionale, della Guardia di Finanza, della Polizia postale, dei rappresentanti del Ministero delle Imprese e del Made in Italy, previo confronto con i gestori dei motori di ricerca e, in generale, con i fornitori di servizi della società dell’informazione a qualsiasi titolo coinvolti nell’accessibilità ai siti web, che sono tenuti ad accreditarsi alla piattaforma.

[28] Cfr. delibera 190/23/CONS del 26 luglio 2023, recante “Autorizzazione all’accettazione dell’atto pubblico di donazione avente ad oggetto il software di gestione della piattaforma machine to machine denominato Piracy Shield”.

[29] L’art. 9-bis, c. 4-quater, delibera 680/13/CONS, prevede che con l’istanza di cui al c. 4-bis un soggetto legittimato può altresì chiedere che, una volta adottato l’ordine cautelare, i destinatari del provvedimento procedano, attraverso segnalazioni successive, al blocco di ogni altro futuro nome di dominio e sottodominio, o indirizzo IP, comprese le variazioni del nome o della semplice declinazione o estensione, riconducibili ai medesimi contenuti e tramite i quali avvengono le violazioni.

La segnalazione è procedibile a condizione che i titolari dei diritti, fornendo altresì prova documentale certa in ordine all’attualità della condotta illecita, indichino, sotto la propria responsabilità, che gli indirizzi IP identificativi dei “Main server” e dei “Delivery Server” dei siti in questione e i nomi di dominio a loro associati, abbiano il carattere dell’univocità. L’Autorità, anche attraverso la piattaforma tecnologica, verifica la conformità e la completezza delle segnalazioni pervenute che devono essere tempestivamente ricevute dai fornitori di servizi al fine di garantire il blocco entro i 30 minuti previsti dalla legge.

[30] Cfr. supra nota n. 25.

[31] Cfr. A.G. Orofino – G. Gallone, L’intelligenza artificiale al servizio delle funzioni amministrative: profili problematici e spunti di riflessione, in Giurisprudenza italiana, 2020, 1738 ss.

[32] Si tratta, invero, anche delle delibere precedenti alle modifiche da ultimo richiamate, segnatamente: la delibera 490/18/CONS, avente ad oggetto «Modifiche al Regolamento in materia di tutela del diritto d’autore sulle reti di comunicazione elettronica e procedure attuative ai sensi del decreto legislativo 9 aprile 2003, n. 70, di cui alla delibera n. 680/13/CONS», pubblicata in data 18 ottobre 2018, nonché degli allegati A e B; la delibera 8/18/CONS, avente ad oggetto «Consultazione pubblica sullo schema di proposte di modifica al Regolamento in materia di tutela del diritto d’autore sulle reti di comunicazione elettronica e procedure attuative ai sensi del decreto legislativo 9 aprile 2003, n. 70, di cui alla delibera n. 680/13/CONS».

[33] I provvedimenti venivano, dunque, impugnanti deducendo: i) violazione e falsa applicazione della disciplina dettata dal d.lgs. 70/2003, in relazione alla legge sul diritto d’autore (l. 663/1941); ii) inesistenza e/o nullità dell’atto per usurpazione del potere giudiziario; iii) violazione degli artt. 2, 21, 23 e 41, Cost.; iv) illegittimità del regolamento per violazione derivata del diritto UE, in virtù della contrarietà della delibera 490/18/CONS all’art. 2, l. 167/2017 (pare opportuno evidenziare, per ragioni di completezza espositiva, che con riferimento a tale motivo la ricorrente ha, inoltre, chiesto al T.a.r. di disporre il rinvio pregiudiziale alla Corte di giustizia dell’Unione europea, ai sensi e per gli effetti di cui all’art 267, TFUE); v) violazione del principio del contraddittorio, del diritto di difesa e dei principi di effettività della tutela giurisdizionale e di certezza del diritto in relazione all’art 9-bis del regolamento di cui alla delibera 680/13/CONS, per come modificato a seguito della l. 93/2023; vi) eccesso di potere per violazione del principio di imparzialità, mancata comparazione degli interessi coinvolti, sviamento di potere, ingiustizia manifesta.

[34] Ci si riferisce alla richiamata delibera 190/23/CONS di autorizzazione all’accettazione dell’atto pubblico di donazione della piattaforma Piracy Shield.

[35] Nel giudizio, infatti, venivano anche impugnati i manuali d’uso della piattaforma tecnologica unica con funzionamento automatizzato; l’atto di donazione, non pubblicato né conosciuto e non conoscibile, mediante il quale la Lega calcio Serie A avrebbe donato all’AGCom la piattaforma tecnologica Piracy Shield, per violazione dei principi in materia di evidenza pubblica e di necessaria esclusione dell’interesse economico del donante in relazione agli artt. 68 e 69 del codice dell’amministrazione digitale, nonché della determinazione n. 115/19/AGID recante le linee guida in materia di acquisizione e riuso di software per le pubbliche Amministrazioni.

[36] Il Collegio ha rilevato, infatti, che tale potere non è in contrasto con il carattere auto-applicativo né delle disposizioni in materia di transazioni a distanza e commercio elettronico di cui al d.lgs. 70/2003, né delle direttive comunitarie 2001/29/CE e 2004/48/CE e delle relative leggi di recepimento. Trattasi, rispettivamente, della direttiva n. 2001/29/CE del Parlamento europeo e del Consiglio del 22 maggio 2001 in materia di armonizzazione di taluni aspetti del diritto d’autore e dei diritti connessi nella società dell’informazione (c.d. direttiva IPRED), ratificata con l. 6 luglio 2010, n. 167 e della direttiva n. 2004/48/CE del Parlamento europeo e del Consiglio del 29 aprile 2004 sul rispetto dei diritti di proprietà intellettuale (c.d. direttiva INFOSOC), ratificata con l. 12 ottobre 2016, n. 195.

[37] Cfr., in particolare, M. Ramajoli, Pluralità e coordinamento tra le istituzioni titolari di poteri di enforcement amministrativo del diritto d’autore, in AIDA, 2014, 88 ss.; ivi anche le riflessioni di M. Renna, Le questioni di legittimità del regolamento dell’Agcom sulla tutela del diritto d’autore online, 111 ss.; A.M. Rovati, Il dibattito sulla legittimità del regolamento Agcom: le opinioni in campo, in Aa.Vv., Il regolamento Agcom sul diritto d’autore, Torino, 2014, 186 ss.; F. Goisis, Profili di legittimità nazionale e convenzionale europea della repressione in via amministrativa delle violazioni del diritto d’autore sulle reti di comunicazione elettronica: il problema dell’enforcement, in AIDA, 2015, 180 ss.

La questione, tuttavia, era già stata affrontata in giurisprudenza, con riferimento alle prime ipotesi di intervento dell’AGCom. Cfr., principalmente, Corte cost., 3 dicembre 2015, n. 247, sulla quale cfr. il commento di A. Giannelli, La tutela amministrativa del diritto d’autore online. Commento a Corte cost., 3 dicembre 2015, n. 247, in Giornale di diritto amministrativo, 2016, 345 ss.

[38] L’art. 182-bis, c. 1, prevede che «all’Autorità per le garanzie nelle comunicazioni ed alla Società italiana degli autori ed editori (SIAE) è attribuita, nell’ambito delle rispettive competenze previste dalla legge, al fine di prevenire ed accertare le violazioni della presente legge, la vigilanza: a) sull’attività di riproduzione e duplicazione con qualsiasi procedimento, su supporto audiovisivo, fonografico e qualsiasi altro supporto nonché su impianti di utilizzazione in pubblico, via etere e via cavo, nonché sull’attività di diffusione radiotelevisiva con qualsiasi mezzo effettuata; b) sulla proiezione in sale cinematografiche di opere e registrazioni tutelate dalla normativa sul diritto d’autore e sui diritti connessi al suo esercizio; c) sulla distribuzione, la vendita, il noleggio, l’emissione e l’utilizzazione in qualsiasi forma dei supporti di cui alla lettera a); d) sui centri di riproduzione pubblici o privati, i quali utilizzano nel proprio ambito o mettono a disposizione di terzi, anche gratuitamente, apparecchi per fotocopia, xerocopia, o analogo sistema di riproduzione; d-bis) sull’attività di fabbricazione, importazione e distribuzione degli apparecchi e dei supporti di cui all’art. 71-septies».

[39] M. Ramajoli, Pluralità e coordinamento tra le istituzioni titolari di poteri di enforcement amministrativo del diritto d’autore, cit., 95.

[40] Cfr. P. Costanzo, Quale tutela del diritto d’autore in internet?, in Giurisprudenza costituzionale, 2015, 2343 ss., 2351.

[41] Cfr. art. 2, c. 3, che non esclude la competenza delle Autorità indipendenti di settore nella repressione delle condotte illecite sulle reti di comunicazione elettronica così come definite dalla l. 249/1997 e dai singoli ordinamenti.

[42] G. Cozzolino, La tutela del diritto d’autore sulle reti di comunicazione elettronica: brevi note sullo schema di regolamento di cui alla delibera n. 398/11/CONS dell’Agcom, in Rivista elettronica di diritto pubblico, di diritto dell’economia e di scienza dell’amministrazione, 2011, 1 ss., con riguardo alle problematiche che, in merito, sono state sollevate già sulla scorta dello schema di regolamento AGCom in materia di diritto d’autore.

[43] L’art. 32-bis, d.lgs. 208/2021, dispone che «le disposizioni del presente testo unico non sono in pregiudizio dei principi e dei diritti di cui alla legge 22 aprile 1941, n. 633, in materia di protezione del diritto d’autore e di altri diritti connessi, nonché delle sanzioni previste al Capo III del Titolo III della medesima legge. I fornitori di servizi di media audiovisivi assicurano il pieno rispetto dei principi e dei diritti di cui alla ((…)) legge 22 aprile 1941, n. 633, indipendentemente dalla piattaforma utilizzata per la trasmissione di contenuti audiovisivi» (c. 1); «i fornitori di servizi di media audiovisivi assicurano il pieno rispetto dei principi e dei diritti in materia dei diritti d’autore e dei diritti connessi, indipendentemente dalla piattaforma utilizzata per la trasmissione. In particolare: a) trasmettono le opere cinematografiche, di cui all’articolo 2, c. 1, lettera b), della legge 14 novembre 2016, n. 220, nel rispetto dei termini temporali e delle condizioni concordate con i titolari dei diritti; b) si astengono dal trasmettere o ritrasmettere, o mettere comunque a disposizione degli utenti, su qualsiasi piattaforma e qualunque sia la tipologia di servizio offerto, programmi oggetto di diritti di proprietà intellettuale di terzi, o parti di tali programmi, senza il consenso dei titolari dei diritti, e salve le disposizioni in materia di brevi estratti di cronaca» (c. 2); «l’Autorità emana le disposizioni regolamentari vincolanti, adeguate e necessarie per rendere effettiva l’osservanza dei limiti e divieti di cui al presente articolo» (c. 3).

[44] Cfr. T.a.r. Lazio, Roma, sez. I, 30 marzo 2017, n. 4101. Sul tema si sofferma P. Pantalone, L’arbitro delle controversie sul diritto d’autore online supera il vaglio del giudice amministrativo, in questa Rivista, 2017, 161 ss.

[45] Cfr. F. Goisis, Profili di legittimità nazionale e convenzionale europea della repressione in via amministrativa delle violazioni del diritto d’autore sulle reti comunicazione elettronica: il problema dell’enforcement, cit., 191. Più di recente cfr. P. Pantalone, Autorità indipendenti e matrici della legalità, Napoli, 2018, 187-188.

[46] Le riflessioni scientifiche sui c.d. poteri impliciti sono numerose. Per quel che qui rileva, con specifico riferimento ai poteri delle Authorities, cfr. le riflessioni di G. Morbidelli, Il principio di legalità e i poteri impliciti, in Diritto amministrativo, 2007, 703 ss., 710-711, ove osserva che «il ricorso alla tesi dei poteri impliciti è quasi fisiologico». L’A. evidenzia, infatti, che «con riguardo ai poteri regolamentari, il ricorso al criterio degli implied powers serve ad individuare i confini esterni della “competenza” o in altre parole l’estensione di un potere (appunto regolamentare) sicuramente attribuito dalla legge»; ciò, a differenza del potere provvedimentale, rispetto al quale l’esame si basa sulla esistenza stessa della competenza ad esercitare quello specifico potere. In tal senso cfr., altresì, P. Pantalone, Autorità indipendenti e matrici di legalità, cit., spec. 142 ss. Più di recente cfr. A. Marra, I poteri impliciti, in Diritto amministrativo, 2023, 33 ss.

In ordine alla compatibilità del ricorso alla teoria dei poteri impliciti da parte delle Autorità indipendenti si è più volte espresso anche il Consiglio di Stato. Cfr., ex multis, Cons. Stato, sez. VI, 20 marzo 2015, n. 1532; nonché, Cons. Stato, sez. VI, 15 luglio 2019, n. 4993, che proprio con riferimento al regolamento in questione, ha evidenziato che «non si può ignorare la nota e riconosciuta elaborazione in materia di c.d. poteri impliciti (anche) delle autorità quali quella di cui qui si tratta, grazie alla quale si è pervenuti a condividere il fatto che sono configurabili funzioni normative in capo a tali soggetti giuridici. Se ne deve allora trarre la conclusione che nel caso in discorso il censurato provvedimento dell’Autorità è stato adottato in legittimo e corretto esercizio di attribuzioni proprie dell’Autorità medesima».

[47] Cfr. art. 5, d.lgs. 70/2003, ove si prevede espressamente che «la libera circolazione di un determinato servizio della società dell’informazione proveniente da un altro Stato membro può essere limitata, con provvedimento dell’autorità giudiziaria o degli organi amministrativi di vigilanza o delle autorità indipendenti di settore».

[48] Cfr. supra nota n. 43.

[49] Così, Cons. Stato, sez. VI, 15 luglio 2019, n. 4993. Secondo il Consiglio di Stato, proprio in virtù del principio di legalità, non può ritenersi che «a fronte dell’inosservanza di tali misure amministrative, colui che non vi ottemperi per ciò solo debba scontare l’onere di una sanzione pecuniaria in mancanza di una norma primaria che tanto espressamente e preventivamente preveda». Né può trovare applicazione la teoria dei poteri impliciti sia perché figlia di una fonte di sua produzione non legislativa, sia perché di per sé stessa inidonea a giustificare una espansione applicativa di tali poteri fino al segno di poter addirittura configurare la produzione di norme (all’evidenza sub-primarie) idonee a produrre (sotto le spoglie di sanzioni amministrativa pecuniarie) conseguenze sul fronte patrimoniale del privato».

[50] Cfr. art. 9-bis del regolamento in materia di tutela del diritto d’autore online, come modificato dalla richiamata delibera 189/23/CONS. Invero, la deliberazione impugnata ha, per un verso, confermato la disciplina dell’art. 9-bis della delibera 480/18/CONS (commi da 1 a 4), prevedendo, tuttavia, la possibilità di «ordinare in via cautelare ai prestatori di servizi di mere conduit operanti nel territorio italiano di porre fine alla violazione del diritto d’autore o dei diritti connessi riguardanti opere audiovisive aventi ad oggetto manifestazioni sportive trasmesse in diretta e assimilate, ai sensi dell’art. 8, comma 4» e cioè di «provvedere alla rimozione selettiva delle opere digitali medesime ovvero di adottare le misure eventualmente disponibili volte ad impedirne il caricamento», ovvero di «ordinare ai prestatori di servizi di provvedere, in luogo della rimozione selettiva, alla disabilitazione dell’accesso alle suddette opere digitali, mediante l’adozione di misure sufficientemente efficaci per garantire una tutela effettiva dei suddetti diritti». Inoltre, è previsto a carico dei destinatari dell’ordine cautelare, l’adozione di una misura di «blocco di ogni altro futuro nome di dominio e sottodominio, o indirizzo IP, comprese le variazioni del nome o della semplice declinazione o estensione, riconducibili ai medesimi contenuti e tramite i quali avvengono le violazioni». Si tratta di una forma di tutela preventiva che attribuisce al soggetto legittimato di dichiarare «sotto la propria responsabilità», fornendo prova documentale certa in ordine all’attualità della condotta illecita, che «i nomi a dominio e gli indirizzi IP segnalati sono univocamente destinati alla violazione dei diritti d’autore o connessi delle opere audiovisivo aventi ad oggetto manifestazioni sportive trasmesse in diretta e assimilate» (cfr. art. 9-bis, c. 4-quinquies).

[51] Cfr. direttiva 2000/31/CE, considerando 45, ove si prevede che «le limitazioni alla responsabilità dei prestatori intermedi previste nella direttiva lasciano impregiudicata la possibilità di azioni inibitorie di altro tipo». Siffatte azioni inibitorie possono consistere in ordinanze di organi giurisdizionali o di Autorità amministrative volte a far cessare una violazione o impedirla, anche con la rimozione dell’informazione illecita o la disabilitazione dell’accesso alla medesima. Il prestatore di un servizio della società dell’informazione, per poter godere di una limitazione della responsabilità, deve agire immediatamente per rimuovere le informazioni o per disabilitare l’accesso alle medesime, nel tempo stesso in cui viene informato o si renda conto delle attività illecite.

[52] Tra l’altro, come si osserva anche nella sentenza in commento, il regolamento approvato con delibera 680/13/CONS riconosce valore specifico all’adeguamento spontaneo del soggetto destinatario della comunicazione di avvio del procedimento – con la conseguente archiviazione del procedimento – e prevede che, in caso contrario, l’Autorità possa ordinarne ai c.d. hosting la rimozione dei contenuti ovvero la disabilitazione dell’accesso alle opere digitali e che gli stessi potrebbero essere destinatari di una sanzione non già per una violazione del diritto d’autore, ma in ragione dell’eventuale inottemperanza al predetto ordine dell’AGCom, «per la cui delibazione è individuabile come giudice “naturale” quello amministrativo».

[53] Cfr. CGUE, cause riunite C-682/18 e C-683/18 (2021), che ha delineato il quadro delle disposizioni rilevanti in materia, segnatamente: le norme della direttiva n. 2001/29/CE del Parlamento europeo e del Consiglio del 22 maggio 2001 in materia di armonizzazione di taluni aspetti del diritto d’autore e dei diritti connessi nella società dell’informazione (c.d. direttiva sul diritto d’autore) e della già richiamata direttiva n. 2000/31/CE del Parlamento europeo e del Consiglio sul commercio elettronico nel mercato interno. In particolare, il considerando 59 della direttiva sul diritto d’autore stabilisce che «in ambito digitale, i servizi degli intermediari possono essere sempre più utilizzati da terzi per attività illecite. In molti casi siffatti gli intermediari sono i più idonei a porre fine a dette attività illecite. Pertanto, fatte salve le altre sanzioni e i mezzi di tutela a disposizione, i titolari dei diritti dovrebbero avere la possibilità di chiedere un provvedimento inibitorio contro un intermediario che consenta violazioni in rete da parte di un terzo contro opere o altri materiali protetti. Le condizioni e le modalità relative a tale provvedimento ingiuntivo dovrebbero essere stabilite dal diritto nazionale degli Stati membri». L’art. 3 della medesima direttiva prevede, inoltre, che «gli Stati membri riconoscono agli autori il diritto esclusivo di autorizzare o vietare qualsiasi comunicazione al pubblico, su filo o senza filo, delle loro opere, compresa la messa a disposizione del pubblico delle loro opere in maniera tale che ciascuno possa avervi accesso dal luogo e nel momento scelti individualmente»; il successivo art. 8 evidenzia che «gli Stati membri prevedono adeguate sanzioni e mezzi di ricorso contro le violazioni dei diritti e degli obblighi contemplati nella presente direttiva e adottano tutte le misure necessarie a garantire l’applicazione delle sanzioni e l’utilizzazione dei mezzi di ricorso. Le sanzioni previste devono essere efficaci, proporzionate e dissuasive».

[54] Cfr. art. 2, c. 1, l. 93/2023.

[55] La disposizione, come si è già evidenziato, riconosce espressamente il potere dell’Autorità competente di modificare il regolamento in materia di tutela del diritto d’autore sulle reti di comunicazione elettronica, attraverso la convocazione di un tavolo tecnico con la partecipazione dei prestatori di servizi, dei fornitori di accesso alla rete internet, dei detentori di diritti, dei fornitori di contenuti, di servizi di media audiovisivi e delle associazioni maggiormente rappresentative preposte alla tutela del diritto d’autore e dei diritti connessi, al fine di definire i requisiti tecnici e operativi degli strumenti utili a consentire una tempestiva ed efficace disabilitazione dei nomi di dominio o degli indirizzi IP, anche per mezzo di una piattaforma tecnologica unica, con funzionamento automatizzato per tutti i destinatari dei provvedimenti di disabilitazione, resa operativa entro tre mesi dalla convocazione del tavolo tecnico.

[56] Art. 6, c. 2, l. 93/2023.

[57] Il T.a.r. Lazio, infatti, evidenzia che trattasi di un’attività ancora in corso di svolgimento, il che determinerebbe l’inammissibilità, ai sensi dell’art. 34, c. 2, c.p.a. («in nessun caso il giudice può pronunciare con riferimento a poteri amministrativi non ancora esercitati») del motivo nel quale la ricorrente ha dedotto che «le specifiche tecniche con le quali teoricamente gli operatori dovrebbero interagire non sono pubbliche e non sono mai state pubblicate in alcun modo».

[58] In particolare, sull’impiego degli algoritmi nei processi decisionali delle Amministrazioni, resta ineludibile il riferimento allo studio di A. Masucci, L’atto amministrativo informatico, Napoli, 1993. In generale sull’impatto delle nuove tecnologie sull’azione e sull’organizzazione amministrativa cfr., almeno, D. Marongiu, L’attività amministrativa automatizzata, Rimini, 2005; F. Cardarelli, Amministrazione digitale, trasparenza e principio di legalità, in Il diritto dell’informazione e dell’informatica, 2, 2015, 227 ss.; F. Costantino, L’uso della telematica nella pubblica amministrazione, in A. Romano (a cura di), L’azione amministrativa, Torino, 2016, 242 ss.; B. Marchetti, Amministrazione digitale, in Enciclopedia del diritto, Funzioni amministrative, Milano, 2022, 75 ss.; L. Torchia, Lo Stato digitale. Una introduzione, Bologna, 2023.

[59] Con specifico riguardo all’uso di algoritmi e intelligenza artificiale nell’assunzione delle decisioni amministrative cfr. P. Otranto, Decisione amministrativa e digitalizzazione della P.A., in Federalismi.it, 2, 2018, 2 ss.; Id., Riflessioni in tema di decisione amministrativa algoritmica, intelligenza artificiale e legalità, in Federalismi.it, 7, 2021, 187 ss.; S. Civitarese Matteucci, Umano troppo umano. Decisioni amministrative automatizzate e principio di legalità, in Diritto pubblico, 2019, 5 ss.; R. Ferrara, Il giudice amministrativo e gli algoritmi. Note estemporanee a margine di un recente dibattito giurisprudenziale, in Diritto amministrativo, 2019, 773 ss.; E. Picozza, Intelligenza artificiale e diritto, in Giurisprudenza italiana, 2019, 1761 ss.; G. Orsoni – E. D’Orlando, Nuove prospettive dell’amministrazione digitale: open data e algoritmi, in Istituzioni del federalismo, 2019, 593 ss.; G. Avanzini, Decisioni amministrative e algoritmi informatici. Predeterminazione analisi predittiva e nuove forme di intelligibilità, Napoli, 2019; A. Simoncini, Amministrazione digitale algoritmica. Il quadro costituzionale, in R. Cavallo Perin – D.U. Galetta (a cura di), Il diritto dell’amministrazione pubblica digitale, Torino, 2020, 2 ss.; D.U. Galetta, Algoritmo, procedimento amministrativo e garanzie: brevi riflessioni anche alla luce degli ultimi arresti giurisprudenziali in materia, in Rivista italiana di diritto pubblico comunitario, 2020, 2205 ss.; M. Macchia – A. Mascolo, Intelligenza artificiale e sfera pubblica, in Giornale di diritto amministrativo, 2022, 556 ss.; G. Gallone, Riserva di umanità e funzioni amministrative. Indagine sui limiti dell’automazione tra procedimento e processo, Padova, 2023, passim; A. Di Martino, Tecnica e potere nell’amministrazione per algoritmi, Napoli, 2023, spec. 61 ss.

[60] Com’è noto, se all’amministrazione digitale è stato dedicato addirittura un codice (d.lgs. 7 marzo 2005, n. 85, s.m.i.), recante disposizioni che prefigurano l’impatto delle nuove tecnologie in ogni fase del procedimento è solo con l’introduzione dell’art. 3-bis nella l. 8 agosto 1990, n. 241 e con l’enunciazione del principio del digital first che l’impiego di strumenti informatici e telematici si proietta stabilmente verso l’esterno. Tuttavia, pur a fronte di tali aperture del legislatore può dirsi ancora assente una disposizione normativa di portata generale che definisca compiutamente principi e regole da osservare in materia di decisioni amministrative automatizzate. Un primo passo verso il recepimento di quei criteri in materia di utilizzo di algoritmi e di sistemi di AI nell’ambito di procedimenti e decisioni amministrative, per come enucleati dal giudice amministrativo, si rinviene nel nuovo codice dei contratti pubblici al quale si farà cenno in questo paragrafo.

A livello sovranazionale, invece, il regolamento (UE) 2016/679 sulla protezione dei dati personali (c.d. GDPR) unitamente al più recente regolamento (UE) 2022/868 (Data Governance Act) hanno espressamente previsto la possibilità anche per le Amministrazioni di adottare atti automatizzati, ove una legge dello Stato espressamente lo autorizzi ovvero nei casi in cui la decisione automatizzata sia il risultato di un contratto con l’interessato o di un consenso formatosi con lo stesso. Sul tema, cfr. il lavoro monografico di G. Pesce, Digital first. Amministrazione digitale: genesi, sviluppi, prospettive, Napoli, 2018, passim, ma spec. 32 ss.

[61] Cfr., sul punto, Cons. Stato, sez. VI, 8 aprile 2019, n. 2270; Cons. Stato, sez. VI, 13 dicembre 2019, nn. 8472 – 8473 – 8474; Cons. Stato, sez. III, 25 novembre 2021, n. 7891. Più di recente cfr. Cons. Stato, sez. VI, 8 settembre 2022, n. 6236; T.a.r. Campania, Napoli, sez. III, 14 novembre 2022, n. 7003.

[62] Cfr., ad esempio, P. Otranto, Decisione amministrativa e digitalizzazione della P.A., cit.; E. Carloni, I principi della legalità algoritmica. Le decisioni automatizzate di fronte al giudice amministrativo, in Diritto amministrativo, 2020, 283 ss.; D.U. Galetta, Algoritmi, procedimento amministrativo e garanzie: brevi riflessioni anche alla luce degli ultimissimi arresti in materia, cit., 2211-2213; G. Carullo, Decisione amministrativa e intelligenza artificiale, in Diritto dell’informazione e dell’informatica, 2021, 431 ss.; A. Di Martino, Tecnica e potere nell’amministrazione per algoritmi, cit., 27 ss.

[63] Così, E. Carloni, I principi della legalità algoritmica. Le decisioni automatizzate di fronte al giudice amministrativo, cit.

[64] Con ciò segnalando l’inderogabile coinvolgimento di un’agente umano nel processo che conduce all’adozione della decisione (c.d. human in the loop o, secondo altra definizione, riserva di umanità), funzionale a scongiurare il rischio di una possibile spersonalizzazione della funzione amministrativa e di deresponsabilizzazione dell’Amministrazione e dei suoi funzionari. In dottrina cfr., innanzitutto, G. Gallone, Riserva di umanità e funzioni amministrative. Indagine sui limiti dell’automazione tra procedimento e processo, cit., 41 ss. Si vedano, inoltre, M.C. Cavallaro – G. Smorto, Decisione pubblica e responsabilità dell’amministrazione nella società dell’algoritmo, in Federalismi.it, 16, 2019, 1 ss.; B. Marchetti, La garanzia dello Human in the Loop alla prova della decisione amministrativa algoritmica, in Biolaw Journal, 2021, 367 ss.; D.U. Galetta, Human-stupidity-in-the-loop? Riflessioni (di un giurista) sulle potenzialità e i rischi dell’Intelligenza Artificiale, in Federalismi.it, 5, 2023, iv ss.

[65] Si pensi, fra tutti, al richiamato regolamento (UE) 2022/2065 (Digital Services Act) e al più recente Regolamento (UE) 2024/1789 sull’intelligenza artificiale. Sugli obiettivi posti alla base dei nuovi regolamenti in materia di servizi e mercati digitali e di utilizzo dei sistemi di AI, sulla governance pubblica e sugli istituti in essi declinati, sono già numerose le riflessioni dottrinarie. Cfr., almeno, L. Parona, Prospettive europee e internazionali di regolazione dell’intelligenza artificiale tra principi etici, soft law e self regulation, in Rivista della regolazione dei mercati, 2020, 70 ss.; C. Casonato – B. Marchetti, Prime osservazioni sulla proposta di regolamento dell’Unione europea in materia di intelligenza artificiale, in BioDiritto, 2021, 1 ss.; G. Bruzzone, Verso il Digital Markets Act: obiettivi, strumenti e architettura istituzionale, in Rivista della regolazione dei mercati, 2021, 323 ss.; A. Manganelli, La proposta di regolamento EU per i mercati digitali: ratio, criticità e prospettive di evoluzione, in Mercato, concorrenza, regole, 2021, 473 ss.; G. Resta, Cosa c’è di ‘europeo’ nella Proposta di Regolamento UE sull’intelligenza artificiale?, in Diritto e informatica, 2022, 323 ss.; D.C. Nunziato, The Digital Services Act and the Brussels Effect on Platform Content Moderation, in Chicago Journal of International Law, 2023, 115 ss.; S. Foà, Intelligenza artificiale e cultura della trasparenza amministrativa. Dalle “scatole nere” alla “casa di vetro”?, in Diritto amministrativo, 2023, 515 ss.; N. Rangone, Regolare con intelligenza. Artificiale?, in Diritto amministrativo, 2023, 1710 ss.; G. Buttarelli, La regolazione delle piattaforme digitali: il ruolo delle istituzioni pubbliche, in Giornale di diritto amministrativo, 2023, 120 ss. Più di recente cfr. G. Dalle Cave, La tutela da e per l’I.A.: prime riflessioni sulla governance dell’A.I. Act e sulla (nuova?) autorità di vigilanza, in IRPA – Osservatorio sullo Stato digitale, 24 aprile 2024. Con riferimento all’utilizzo di sistemi di AI nel settore delle commesse pubbliche cfr. Cfr., altresì, G.F. Licata, Intelligenza artificiale e contratti pubblici: problemi e prospettive, in CERIDAP, 2, 2024, 30 ss.

[66] In generale sulla c.d. amministrazione di risultato cfr., tra gli innumerevoli contributi, S. Cassese, Che cosa vuol dire “amministrazione di risultati”, in Giornale di diritto amministrativo, 2004, 920 ss.; M.A. Sandulli, Semplificazione amministrativa e amministrazione di risultati, in M. Immordino – A. Police (a cura di), Principio di legalità e amministrazione di risultati, Torino, 2004, 246 ss.; F. Salvia, La semplificazione amministrativa: tra scorciatoie procedimentali e semplicismi mediatici, in Nuove autonomie, 2008, 447 ss.; G. Guzzardo, Note sull’amministrazione di risultato nella pianificazione strategica regionale delle risorse economiche: organi di valutazione e buon andamento, in Diritto e società, 2017, 905 ss.; A. Angiuli – V. Caputi Jambrenghi, De-procedimentalizzazione dell’azione amministrativa e conferenza di servizi, in Aa.Vv., L’amministrazione nell’assetto costituzionale dei poteri pubblici. Scritti per Vincenzo Cerulli Irelli, I, Torino, 2021, 275 ss.

[67] Sulla rilevanza del risultato dell’Amministrazione nel nuovo codice dei contratti pubblici cfr. le recenti riflessioni di M.R. Spasiano, Dall’amministrazione di risultato al principio di risultato del Codice dei contratti pubblici: una storia da scrivere, in Federalismi.it, 9, 2024, 206 ss.; Id., Codificazione di principi e rilevanza del risultato, in Aa.Vv., Studi sui principi del Codice dei contratti pubblici, Napoli, 2023, 11 ss.

[68] Cfr. art. 19, d.lgs. 36/2023. In dottrina cfr. P. Forte – N. Pica, Principi per la digitalizzazione e l’automazione nel ciclo di vita dei contratti pubblici, in Av.Vv., Studi sui principi del Codice dei contratti pubblici, cit., 303 ss.

[69] Cfr., ad esempio, G. Avanzini, Decisioni amministrative e algoritmi informatici. Predeterminazione analisi predittiva e nuove forme di intelligibilità, cit., 120 ss.; nonché, P. Otranto, Riflessioni in tema di decisione amministrativa algoritmica, intelligenza artificiale e legalità, cit., 190-191; C. Strainati, Algoritmi e decisioni amministrative, in Foro amministrativo, 2020, 1591 ss.

[70] Diverse sono le tesi dottrinarie che si sono sviluppate in ordine alla qualificazione giuridica del programma informatico, dell’algoritmo o del sistema di AI che esso applica, tra le quali emergono quella dell’atto amministrativo generale a rilevanza esterna che si deve ad A. Masucci, Atto amministrativo informatico, in Enciclopedia del diritto, Aggiornamento I, 1997, 221 ss. e, successivamente, a D. Marongiu, L’attività amministrativa automatizzata, cit., 18; ovvero, quella che riconduce il programma ad un mero atto provvedimentale. Su questa prospettiva cfr. U. Fantigrossi, Automazione e pubblica amministrazione, Bologna, 1993, 56 ss.; A.G. Orofino, L’attuazione del principio di trasparenza nello svolgimento dell’Amministrazione elettronica, in Judicium, 19 ottobre 2020, 3 ss. Altra parte della dottrina ha qualificato il programma in termini di atto regolamentare, tra cui A. Boix Palop, Los algoritmos sono reglamentos: la necesidad de extender las garantias propria del las normas reglamentarias a los programas empleados por la administracìon para la adopcìon de decisiones, in Revista de Derecho Pùblico: Teorìa y Metodo, 2020, 223 ss. Le diverse teorie sono riprese ed analizzate da G. Gallone, Riserva di umanità e funzioni amministrative, cit., 87 ss.

[71] Cfr. F. Morollo, Documento elettronico fra e-government e artificial intelligence (AI), in Federalismi.it, Focus – Comunicazioni, media e nuove tecnologie, 2, 2015, 2 ss.

[72] È questa la differenza tra aspetto strutturale e aspetto funzione dell’atto presupposto messa in evidenza da Cons. Stato, sez. III, 10 novembre 2020, n. 6922.

[73] In generale sul tema cfr. M.S. Giannini, Esercizio privato di pubbliche attività, in Enciclopedia del diritto, vol. XV, Milano, 1966, 685 ss.; A. Azzena, Esercizio privato di pubbliche funzioni e di pubblici servizi, in Digesto delle disciplini pubblicistiche, vol. VI, Torino, 1991, 165 ss.; F. de Leonardis, Soggettività privata e azione amministrativa, Padova, 2000; C. Franchini, L’organizzazione, in S. Cassese (a cura di), Trattato di diritto amministrativo, I, Milano, II ed., 2003, 251 ss.; G. Napolitano, Pubblico e privato nel diritto amministrativo, Milano, 2003.

[74] La prima elaborazione del concetto si deve, invero, a S. Romano, Principi di diritto amministrativo italiano, Milano, II ed., 1906, 175 ss.

[75] Così, G. Zanobini, L’esercizio privato delle funzioni e dei servizi pubblici, in V.E. Orlando (a cura di), Primo trattato completo di diritto amministrativo italiano, II, pt. III, Milano, 1935, 235 ss., 236.

[76] Si esprime in questi termini L. Torchia, Poteri pubblici e poteri privati nel mondo digitale, in Il Mulino, 2024, 14 ss., 15.

[77] Cfr. M. Bassini, Internet e libertà di espressione. Prospettive costituzionali e sovranazionali, Canterano, 2019; A. Simoncini, Amministrazione digitale algoritmica. Il quadro costituzionale, in R. Cavallo Perin – D.U. Galetta (a cura di), Il diritto dell’amministrazione pubblica digitale, Torino, 2020, 2 ss.; R. Pardolesi, Piattaforme digitali, poteri privati e concorrenza, in Diritto pubblico, 2021, 941 ss.; M. Betzu, I poteri privati nella società digitale: oligopoli e antitrust, ivi, 739 ss.

[78] L. Torchia, Poteri pubblici e poteri privati nel mondo digitale, cit., 16.

[79] La riflessione giuridica sulla regolazione dei mercati è assai vasta. In generale, per quel che qui rileva, cfr. M. Ramajoli, Attività amministrativa e disciplina antitrust, Milano, 1998, spec. 346 ss.; M. D’Alberti, Riforma della regolazione e sviluppo dei mercati in Italia, in A. Tesauro – M. D’Alberti (a cura di), Regolazione e concorrenza, Bologna, 2000, 171 ss.; N. Rangone, Regolazione, in S. Cassese (diretto da), Dizionario di diritto pubblico, vol. V, Milano, 2006, 5057 ss.; A. Zito, Mercati (Regolazione dei), in Enciclopedia del diritto, vol. III, Annali, Milano, 2010, 808 ss.; P. Lazzara, La regolazione amministrativa: contenuto e regime, in Diritto amministrativo, 2018, 337 ss. Sulla differenza tra regolazione pubblica e auto-regolazione cfr. lo studio di G. De Minico, Regole. Comando e consenso, Torino, 2004, spec. 62 ss.; nonché, M. D’Alberti, Poteri regolatori tra pubblico e privato, in Diritto amministrativo, 2013, 607 ss.

[80] L. Torchia, Poteri pubblici e poteri privati nel mondo digitale, cit., 17, ricorda che un sistema siffatto ha trovato sviluppo nel contesto statunitense nel quale, rispetto a diversi settori dell’economia, la regolazione era considerata un impedimento e un ostacolo all’innovazione e, come tale, doveva essere tarata verso il minimo necessario. L’A. evidenzia, infatti, che «questo approccio è stato seguito in modo pedissequo sotto la presidenza Clinton, quando nel 1996 fu inserita la Section 230 nel Communications Decency Act, garantendo ai fornitori di servizi digitali un regime di esonero dalla responsabilità e quindi rendendoli immuni dalla principale rete di contenimento del potere privato che è appunto la responsabilità».

[81] Cfr. G. Carullo, Gestione, fruizione e diffusione dei dati dell’amministrazione digitale e funzione amministrativa, Torino, 2017, 57 ss.; nonché, F. De Leonardis, Big data, decisioni amministrative e “povertà” di risorse della pubblica amministrazione, in E. Calzolaio (a cura di), La decisione nel prisma dell’intelligenza artificiale, Milano, 2020, 137 ss.

[82] Cfr. A. Simoncini, La co-regolazione delle piattaforme digitali, in Rivista trimestrale di diritto pubblico, 2022, 1031 ss.

[83] Sul tema cfr. O. Grandinetti, Le piattaforme digitali come “poteri privati” e la censura online, in Rivista italiana di informatica e diritto, 2022, 175 ss.

[84] M.R. Ferrarese, Poteri nuovi. Privati, penetranti, opachi, Bologna, 2022, 21-22.

[85] Così, P. Otranto, Riflessioni in tema di decisione amministrativa, intelligenza artificiale e legalità, cit., 195.

[86] M. D’Alberti, Poteri pubblici, mercati e globalizzazione, Bologna, 2008, spec. 16 ss.

[87] Sul tema cfr. le recenti riflessioni di S. Cassese, Regolazione e autonomia privata, in Aa.Vv., Liber amicorum per Marco D’Alberti, Torino, 2023, 543 ss. Con riferimento specifico ai servizi digitali cfr. N. Maccabiani, Co-regolamentazione, nuove tecnologie e diritti fondamentali: questioni di forma e di sostanza, in Osservatorio sulle fonti, 2022, 55 ss., spec. 72-73, la quale evidenzia che «in questo tentativo il legislatore si scontra con una “tensione”, quella tradizionale tra legge e tecnologia: non solo la prima fatica a tenere il passo della rapida evoluzione della seconda, rischiando, una volta entrata in vigore, di risultare già obsoleta; non solo il legislatore spesso non è dotato della conoscenze tecnico-specialistiche necessarie per meglio penetrare i meandri del fenomeno in atto, ma altresì, a fronte di situazioni non del tutto conoscibili e comprensibili nella loro portata, corre il rischio di cadere nella tentazione di un eccesso di precauzione, e quindi o di vietare o di iper-regolamentare, così soffocando sul nascere l’innovazione e, con essa, la crescita sociale ed economica che ne potrebbe derivare».

[88] Come rilevato in dottrina, l’approccio e alla regolamentazione di sistemi e mercati digitali è stato animato da una rilevante fiducia nel mercato e da un altrettanto accentuata sfiducia nella regolazione, considerata come un ostacolo alla innovazione. I pubblici poteri – secondo questa impostazione – dovrebbero astenersi dal regolare la tecnologia, in quanto, non comprendendone le dinamiche, i danni che si verificherebbero sarebbe maggiori dei benefici. In proposito cfr., ex multis, S.T. Roberts, Behind the screen: content moderation in the shadow of social media, New Haven, 2019, 3 ss.; L. Ammannati, I “signori” nell’era dell’algoritmo, in Diritto pubblico, 2021, 381 ss.; F. Donati, Verso una nuova regolazione delle piattaforme digitali, in Rivista della regolazione dei mercati, 2021, 238 ss.; S. Mannoni – E. Paglia, Comunicazioni elettroniche Italian Style, Napoli, 2022, spec. 32-36.

Tuttavia – osserva L. Torchia, Poteri pubblici e poteri privati nel mondo digitale, cit., 7 – questo approccio si sta trasformando, in ragione della maggiore consapevolezza dei rischi che lo sviluppo senza regole della tecnologia può arrecare al sistema di mercato e delle libertà fondamentali poste alla base dell’ordinamento democratico. L’A. evidenzia, infatti, che nell’ordinamento statunitense va emergendo «la tendenza del potere pubblico a cercare forme e strumenti di co-regolazione con i poteri privati digitali e, allo stesso tempo, a porre – se non vere e proprie regole – almeno indirizzi e principi che fungano da rete di contenimento dei rischi e, sia pure in modo ancora sperimentale, operino come base per la costruzione di un nuovo regime regolatorio».

[89] In argomento, F. Donati, Verso una nuova regolazione delle piattaforme digitali, cit., 243; nonché, B. Carotti, La politica europea sul digitale: ancora molto rumore, in Rivista trimestrale di diritto pubblico, 2022, 997 ss.

[90] In termini, V. Caputi Jambrenghi, Libertà e Autorità, cit., 289.

[91] E. Chiti – B. Marchetti, Divergenti? Le strategie di Unione europea e Stati Uniti in materia di intelligenza artificiale, in Rivista della regolazione dei mercati, 2020, 29 ss., evidenziano che gli effetti negativi dell’uso della tecnologia nei mercati derivano, soprattutto, dalla posizione monopolistica o oligopolistica acquisita nel mercato da talune «piattaforme commerciali» (digitali). Cfr., altresì, M.E. Bartoloni, La regolazione privata nel sistema costituzionale dell’Unione Europea. Riflessioni sulla disciplina relativa al settore dell’innovazione, in Osservatorio sulle fonti, 2021, 1334 ss.

[92] A. Simoncini, La co-regolazione delle piattaforme digitali, cit., 1037-1038.

[93] Per riprendere la locuzione di S. Cassese, L’arena pubblica. Nuovi paradigmi per lo Stato, in Rivista trimestrale di diritto pubblico, 2001, 642 ss.

[94] Nel caso di specie, dagli artt. 2 e 3, l. 93/2023.

[95] Così, già, G. Colangelo, Big data, piattaforme digitali e antitrust, in Mercato concorrenza regole, 2016, 425 ss. Cfr., altresì, M. Maggiolino, Concorrenza e piattaforme: tra tradizione e novità, in G. Colangelo – V. Falce (a cura di), Concorrenza e comportamenti escludenti nei mercati dell’innovazione, Bologna, 2017, 57 ss.; G. Resta, Governare l’innovazione tecnologica: decisioni algoritmiche, diritti digitali e principio di uguaglianza, in Politica del diritto, 2019, 199 ss., 200-201; M. Betzu, I poteri privati nella società digitale: oligopoli e antitrust, cit., 744.

[96] Strumenti che non possono sempre ritenersi in grado di comprendere il contesto nel quale una condotta (derivante, ad esempio, da una espressione verbale o da una attività di diffusione di dati e informazioni) si colloca, individuando ciò che è lecito da ciò che non lo è, formalmente e sostanzialmente. Cfr. L. Torchia, Poteri pubblici e poteri privati nel mondo digitale, cit., 21.

[97] Cfr., in particolare, P. Otranto, Riflessioni in tema di decisione amministrativa, intelligenza artificiale e legalità, cit., 195-196.

[98] Ibidem, 196.

[99] Cfr. Piracy Shield, la piattaforma nazionale antipirateria, continua a bloccare siti “innocui”, in Wired.it, (notizia verificata).

[100] Cfr., tra i diversi contributi, P. Mazzella, Agcom: garanzie anche per i cittadini, in Parlamenti regionali, 2004, 201 ss.; L. Saltari, La regolazione asimmetrica nelle comunicazioni elettroniche tra Agcm, Agcom e giudice amministrativo, in Giornale di diritto amministrativo, 2006, 1212 ss.; D. Sorvillo, La tutela degli utenti nei servizi di telecomunicazioni: i diversi orientamenti del regolatore e del giudice amministrativo, in Foro amministrativo – T.A.R., 2009, 1488 ss.; P. Chirulli, Tutela del diritto d’autore “online” e regolazione amministrativa nel Regno Unito, in AIDA, 2014, 23 ss.; ivi, M. Ramajoli, Pluralità e coordinamento tra le istituzioni titolari di poteri di “enforcement” amministrativo del diritto d’autore, 88 ss.; I. Perna, “Authorities” e contratto. Considerazioni sull’eteronomia regolamentare dell’Autorità per le Garanzie nelle Comunicazioni, in Nuove autonomie, 2017, 113 ss. Più di recente cfr. E. Albanesi – A. Valastro – R. Zaccaria, Diritto dell’informazione e della comunicazione, Padova, 2023, spec. 125 ss.

[101] Cfr. L. Torchia, Lo Stato digitale. Una introduzione, cit., 66.

[102] Cfr. art. 2, c. 5, l. 93/2003.

[103] Cfr., in termini, Cons. Stato, sez. VI, 8 aprile 2019, 2270, § n. 8.3.

[104] Sul tema cfr. D.U. Galetta, Digitalizzazione e diritto a una buona amministrazione (il procedimento amministrativo fra diritto Ue e tecnologie Ict), in R. Cavallo Perin – D.U. Galetta (a cura di), Il diritto dell’amministrazione pubblica digitale, cit., 85 ss.

[105] Cfr. F. Pasquale, The Black Box Society: The Secret Algorithms That Control Money and Information, Cambridge, 2015, passim.

[106] Su questi profili cfr. F. Costantino, Algoritmi, intelligenza artificiale e giudice amministrativo, in Giurisprudenza italiana, 2022, 1527 ss.

[107] Il rapporto tra tecnica e potere, com’è noto, risale alle riflessioni di Michel Foucault, il quale considerava la tecnologia come strumento per rendere più efficiente l’esercizio del potere di disciplina e controllo. Sul pensiero di Foucault cfr. P. Amato, Tecnica e potere. Saggi su Michel Foucault, Milano, 2009, 32.

Sul rapporto tra tecnica, potere pubblico e privato e tutela dei diritti fondamentali cfr., altresì, G. Lombardi, Potere privato e diritti fondamentali, Torino, 1970. Più di recente, con specifico riferimento all’attività amministrativa per algoritmi, cfr. A. Di Martino, Tecnica e potere nell’amministrazione per algoritmi, cit., spec. 61 ss.

[108] In questa prospettiva cfr. le recenti riflessioni di G. Tropea, Spinte gentili per la pubblica amministrazione?, in Il diritto dell’economia, 2022, 31 ss.

[109] Così, A. Simoncini, La co-regolazione delle piattaforme digitali, cit., 1032.

[110] L. Torchia, Poteri pubblici e poteri privati nel mondo digitale, cit., 20, evidenzia che se «le Costituzioni democratiche sono ricche di regole e strumenti volti a limitare il potere pubblico, proprio per garantire e difendere i diritti fondamentali da quello che viene considerato il potere più forte e quindi anche il potere più pericoloso», l’esperienza più recente «ha mostrato che quegli stessi diritti sono messi gravemente a rischio dai poteri digitali con effetti del tutto nuovi, che dipendono strettamente proprio dalla natura dell’attività delle piattaforme».

[111] G. Lombardi, Potere privato e diritti fondamentali, cit., 45.

[112] Secondo quella prospettiva che riconosce alla piattaforma che l’Amministrazione utilizza per la decisione la struttura sostanzialmente regolamentare. Sul tema si sofferma G. Gallone, Riserva di umanità e funzioni amministrative, cit., 151.

[113] Gli sviluppi più recenti del sistema ordinamentale dimostrano che quando il potere non è equamente distribuito e condiviso ma, al contrario, è concentrato, le società si polarizzano, diventano instabili ed emergono contrasti profondi. E allora, così come la sfera pubblica non può essere lasciata alla sola dinamica del potere necessitando dell’apporto dei privati, così l’ecosistema digitale non può essere abbandonato ad una regolamentazione pubblica di principio e al governo delle big platforms, richiedendo, al contrario, la partecipazione attiva e consapevole della società, degli operatori economici, delle associazioni rappresentative, in una sfida che interpella ogni singola componente della comunità. Su questi temi cfr. V. Caputi Jambrenghi, Libertà e Autorità, cit., 142-144.

[114] Questa, del resto, pare la strategia che, almeno in parte, si legge nella regolamentazione euro-unitaria di ultima generazione in materia di servizi e mercati digitali. Come evidenziato in dottrina, «trattasi di testi normativi molto complessi e articolati, che, pur nelle molteplici divergenze, condividono un approccio regolatorio basato su un regime di gradazione del rischio che muove, dall’assunto secondo il quale la tecnologia porta con sé vantaggi ma anche rischi, sia per i diritti individuali, sia per gli interessi pubblici e collettivi. A tal fin, sono stati introdotti significativi obblighi ex ante, preordinati ad assicurare almeno trasparenza, diffusione delle informazioni e conoscibilità delle tecniche utilizzate, perché per limitare il potere occorre che il potere sia visibile e non nascosto». Così, L. Torchia, Poteri pubblici e poteri privati nel mondo digitale, cit., 29, la quale riprende le riflessioni di S. Cassese, Le strutture del potere, Bari, 2023, 189.

Share this article!
Share.