Il 21 aprile 2021, la Commissione Europea ha presentato la sua proposta per un Regolamento sull’intelligenza artificiale (c.d. “AI Act”)[1], con il dichiarato intento di assicurare che i sistemi di intelligenza artificiale immessi e utilizzati nel mercato dell’Unione siano rispettosi del diritto diritti fondamentali europei, senza rappresentare un ostacolo all’innovazione. Lo scopo è di creare un sistema di governance di tali sistemi capace di incentivare la creazione di un mercato unico digitale sicuro, affidabile e non frammentato. In questo senso, la proposta di AI Act mira a costruire quell’“ecosistema di eccellenza” e di “fiducia” auspicato dal Libro bianco sull’intelligenza artificiale[2].
In particolare, la proposta individua un regime giuridico a quattro livelli che si fonda su un “approccio basato sul rischio”. Infatti, la Commissione ha identificato quattro categorie di rischio e ognuna di esse è soggetta a regole e obbligazioni differenti: (a) rischio inaccettabile; (b) alto rischio; (c) rischio limitato; (d) rischio minimo. L’AI Act offre direttamente i criteri per definire a quale categoria specifica un determinato sistema di intelligenza artificiale debba essere ascritto, anche se una certa discrezione è riservata alla Commissione per modificarne lo spettro d’azione. Un’altra caratteristica interessante dell’AI Act è la proposta introduzione dei cosiddetti “spazi di sperimentazione” (“regulatory sandboxes”), volti «[al]la promozione dell’innovazione in materia di IA, mediante la creazione di un ambiente controllato di sperimentazione e prova nella fase di sviluppo e pre-commercializzazione»[3]. In questo modo, il legislatore europeo mira a incoraggiare l’innovazione e lo sviluppo di un mercato europeo dell’intelligenza artificiale.
Nonostante la proposta debba essere accolta come un tentativo di reazione a fronte delle nuove sfide e dei problemi sollevati dal ruolo sempre più pervasivo dei sistemi di IA, il testo della bozza non ha mancato di sollevare critiche da parte di commentatori interni ed esterni al mondo accademico. I punti più deboli della proposta includono, tra gli altri: l’introduzione di eccezioni ampie (e talora ambigue) alla proibizione di sistemi d’identificazione biometrica remota “in tempo reale” in spazi accessibili al pubblico a fini di attività di contrasto[4] al terrorismo o alla criminalità; l’assenza di meccanismi adeguati di enforcement e di un sistema di rimedi attivabili da parte delle persone fisiche per tutelarsi a fronte del mancato rispetto da parte dei sistemi di IA dei principi predisposti dallo stesso AI Act; la rigidità del menzionato approccio basato sul rischio; gli standard di qualità previsti con riferimento ai sistemi di IA ad alto rischio; etc.
Il considerando 5 della proposta recita: «Si rende pertanto necessario un quadro giuridico dell’Unione che istituisca regole armonizzate in materia di intelligenza artificiale per promuovere lo sviluppo, l’uso e l’adozione dell’intelligenza artificiale nel mercato interno, garantendo nel contempo un elevato livello di protezione degli interessi pubblici, quali la salute e la sicurezza e la protezione dei diritti fondamentali, come riconosciuti e tutelati dal diritto dell’Unione». Invero, sin dalla sua elezione a Presidente della Commissione Europea, Ursula von der Leyen ha tentato di costruire una strategia di governance per l’intelligenza artificiale all’intersezione tra sviluppo e regolazione, con lo scopo finale di creare un quadro normativo per sfruttare al meglio tali tecnologie in un ambiente di fiducia[5]. La proposta, che si rifà del resto anche ai meccanismi di tutela previsti dal GDPR, è riconosciuta come il primo vero tentativo di regolare l’IA attraverso uno strumento di hard law.
Anche se questa scelta normativa è in grado di portare con sé importanti benefici, soprattutto per quanto concerne la definizione di un sistema replicabile e applicabile ovunque a livello europeo, lo strumento in sé rischia di avere una limitata influenza nella regolazione dell’IA soprattutto in assenza di un vero e proprio sistema di enforcement. In particolare, appare necessario elaborare un apparato di governance coordinato capace di rendere l’IA compatibile con il sistema costituzionale europeo[6]. Come notato dalla dottrina[7], quest’ultimo aspetto è particolarmente cruciale. Se il GDPR mirava a creare un meccanismo di compliance volto a rendere il diritto alla privacy il “primo emendamento” dell’Unione Europea[8], lo stesso obiettivo deve essere perseguito dall’AI Act. Tuttavia, al momento, la proposta non sembra avere tenuto in adeguato conto il problema di fondo: ovverosia, la possibilità di assicurare il rispetto del principio di legalità, che costituisce la vera sfida dell’elaborazione di un quadro normativo relativo a tali strumenti tecnologici.
In questo contesto, MediaLaws intende inaugurare un simposio online che miri a incentivare un dibattito di alto livello concernente il quadro normativo in evoluzione relativo all’intelligenza artificiale, con particolare riguardo all’AI Act. Nello specifico, l’obiettivo è di dare risposta ad alcune domande cruciali, quali per esempio:
- Quali requisiti dovrebbe possedere una legge sull’intelligenza artificiale per assicurare un ecosistema di eccellenza e, soprattutto, di fiducia? L’AI Act soddisfa tali requisiti?
- Può l’AI Act produrre benefici effettivi per i diritti umani e i valori fondamentali dell’Unione? Le misure e gli standard previsti sono sufficienti?
- Può l’approccio basato sul rischio dell’AI Act assicurare il rispetto degli obiettivi dichiarati della Commissione? E, in particolare, è in grado di effettuare un equo bilanciamento tra i diversi interessi legati ai diritti fondamentali, all’innovazione e al mercato?
- Quale sarà l’impatto dell’AI Act nel panorama internazionale? Porterà a un’europeizzazione della regolazione dell’IA a livello globale? Quali saranno gli effetti sulla “sovranità digitale”?
- Come può essere riempito il vuoto presente a livello procedurale? Quali potrebbero essere gli strumenti adottabili da parte degli individui per richiedere il rispetto dei loro diritti fondamentali?
- Qual è la relazione tra AI Act e altri strumenti di policy digitale dell’Unione (per esempio, il GDPR, il DSA, il DMA, etc.)?
[1] Proposta di Regolamento del Parlamento Europeo e del Consiglio che stabilisce regole armonizzate sull’intelligenza artificiale (legge sull’intelligenza artificiale) e modifica alcuni atti legislativi dell’Unione, COM/2021/2016 final, in eur-lex.europa.eu.
[2] Libro bianco sull’intelligenza artificiale – Un approccio europeo all’eccellenza e alla fiducia, COM/2020/65 final, in eur-lex.europa.eu.
[3] AI Act, cit., considerando 71.
[4] Ibid. art. 5.
[5] Commissione Europea, A Union that strives for more: the first 100 days, press release, 6 marzo 2020, in ec.europa.eu.
[6] A. Simoncini, Verso la regolamentazione della Intelligenza Artificiale. Dimensioni e governo, in BioLaw Journal – Rivista di BioDiritto, n. 2/2021.
[7] O. Pollicino – G. De Gregorio, Constitutional Law and the Algorithmic Society, in H.W. Micklitz et al. (a cura di), Algorithms, Freedom, and Fundamental Rights. Constitutional Challenges in the Algorithmic Society, Cambridge, 2021.
[8] B. Petkova, Privacy as Europe’s First Amendment, in European Law Journal, 25-2, 2019, 140 ss.