“Un mondo di metriche affidabili, in cui gli sviluppatori non avrebbero mai smesso di ottimizzare, e gli utenti non avrebbero mai smesso di guardare i loro schermi. Un mondo libero dal peso delle decisioni, dalle inutili frizioni del comportamento umano, dove ogni cosa – ridotta alla versione più veloce, semplice e patinata di sé stessa – poteva essere ottimizzata, gerarchizzata, monetizzata e controllata” [1].
È con queste parole che Anna Wiener fotografa l’essenza della rivoluzione digitale nel suo memoriale ‘La valle oscura’, dedito a scardinare le dinamiche interne alla Silicon Valley nei primi anni del decennio scorso.
È d’altronde proprio nel corso di quegli anni che la rivoluzione digitale – il perfetto connubio tra (i) l’incremento vertiginoso della potenza computazionale dei processori, (ii) la riduzione dei costi connessi al loro sviluppo e commercio, (iii) la miniaturizzazione dei dispositivi e (iv) la proliferazione del mercato delle app – ha portato con sé l’avvento della data economics.
Pressoché la totalità dei dati oggi a disposizione è stata creata dall’interazione dei predetti fattori in un arco di tempo pressoché restringibile all’ultimo decennio. E non vi è dubbio che, per un primo ed ampio periodo, tale processo sia stato assistito dall’inconsapevolezza degli utenti: attratti dalla natura free to play[2] dei vari servizi digitali, così come dalla loro irresistibile efficienza, gli utenti si sono velocemente abbandonati alla compagnia dei dispositivi interconnessi in ogni aspetto quotidiano, abdicando così, seppur inconsciamente, alla riservatezza delle proprie abitudini di movimento, di consumo, di opinione; in ultima analisi: alla riservatezza delle proprie abitudini di vita.
Da un punto di vista economico, si è così assistito – in apparente controtendenza rispetto alla filosofia peer to peer a cui ispirava internet – ad un flusso di dati unidirezionale, dal basso verso l’alto, ove il vertice della piramide è da individuarsi tra le imprese Big Tech, le quali hanno finito con l’incardinare dei veri e propri monopoli naturali sulle barriere digitali costruite attorno ai propri walled gardens: luoghi immateriali in cui i dati degli utenti vengono gelosamente custoditi ai fini della loro gestione monetaria.
La scienza giuridica non ha fornito risposta univoca al fenomeno. In ambito extra-democratico, sono intervenute politiche reazionarie fondate sul divieto tout-court all’utilizzo dello strumento digitale. In ambito democratico, invece, all’impostazione liberale USA, ispirata all’autoregolamentazione del mercato, si è contrapposto il corpus normativo UE rappresentato dal Regolamento n. 679/2016 (GDPR), volto a formalizzare la gestione dei dati secondo principi di necessarietà e proporzionalità, nonché a fornire specifiche basi giuridiche al loro trattamento, in assenza delle quali imporre il recupero dell’habeas data degli utenti tramite il meccanismo del consenso.
All’ambito di applicazione del summenzionato Regolamento UE sfugge tuttavia una specifica modalità di trattamento dei dati, ossia, quella disposta dall’Autorità giudiziaria nell’ambito di procedimenti penali. La disciplina rilevante in materia è incorporata nella Direttiva UE n. 680/2016, attuata in Italia tramite d.lgs. n. 51/2018, la cui espressa deroga al Regolamento GDPR è da giustificarsi alla luce del carattere tendenzialmente recessivo vantato dal diritto alla privacy a fronte dell’interesse pubblico all’efficace perseguimento della finalità tipica del processo penale, ossia, l’individuazione e la repressione di fatti di reato.
Come è noto, d’altronde, plurimi sono i tools tramite cui l’organo inquirente del procedimento penale è legittimato ad inserirsi, surrettiziamente, nel flusso di dati originato dall’attività digitale degli utenti [3]; tra questi, specifica menzione merita l’ultimo degli strumenti aggiuntosi all’arsenale dell’Autorità giudiziaria: uno strumento particolarmente invasivo, nella misura in cui, tramite analisi dei dati biometrici[4], è in grado di introdursi nella più intima delle sfere di riservatezza dell’individuo, ossia, quella della corporeità fisica.
Trattasi dei cc.dd. remote biometric identification systems, vale a dire applicativi di intelligenza artificiale che, tramite reti neurali di deep learning dedite all’analisi, al confronto e al matching di immagini, consentono l’identificazione univoca e in tempo reale di soggetti ripresi in video. Più nello specifico, il flusso di dati biometrici viene raccolto tramite le immagini rilevate dalle telecamere a circuito chiuso (CCTV), la cui ampia diffusione, in luoghi pubblici o aperti al pubblico, rende oggi altamente probabile la cristallizzazione in video dei lineamenti somatici di persone sospettate della commissione di fatti di reato. A venire cristallizzati, in particolar modo, sono i cc.dd. punti di repere: micro-aree anatomiche la cui interazione reciproca risulta altamente individualizzante e, dunque, indicativa dell’identità del singolo. Una volta acquisiti i dati biometrici, essi vengono confrontati con ulteriori dati preesistenti e contenuti in appositi database. Tale operazione di confronto è delegata nella sua interezza all’intelligenza artificiale, ovverosia a reti neurali di deep learning, le quali sono in grado di compiere la necessaria computazione statistica con inedita inefficienza e restituire così un output sottoforma di matching: l’abbinamento dei dati biometrici rilevati dalle immagini di sorveglianza con l’identità di un individuo reperito nel database di riferimento.
In questo senso, ad essere trattati a fini investigativi non sono più i dati seminati dall’utente in rete tramite interazioni, sì, senz’altro indotte dal contesto tecnologico di riferimento, ma pur sempre volontarie (e.g. l’utilizzo di una mobile app), bensì i dati biometrici captati nel corso dell’esercizio – puramente fisico – di quella che è un’irrinunciabile esigenza di vita ancor prima che un diritto fondamentale: lo spostamento, l’assembramento e la riunione in luoghi pubblici.
Sul piano normativo, l’utilizzo di applicativi di riconoscimento facciale ai fini della prevenzione e repressione di fatti di reato è in procinto di essere reso lecito tramite conferimento di apposita disciplina giuridica; ciò a livello europeo, nella misura in cui è in tale direzione che si muove la proposta di Regolamento licenziata dalla Commissione UE e attualmente in esame dinnanzi al Parlamento UE (c.d. AI Act)[5].
Lo studio della proposta di Regolamento conferma l’ambito del criminal law enforcement come un terreno del tutto peculiare in quanto a tutela del diritto di riservatezza: se, da un lato, la qualificazione ‘high risk’ dell’utilizzo di applicativi AI in seno al procedimento penale tradisce la consapevolezza della Commissione UE in merito alle storture potenzialmente insite nella tecnologia di riferimento, dall’altro lato, è proprio l’imperativo, ritenuto cogente, di prevenire e reprimere gravi fatti di reato a giustificare l’utilizzo di applicativi tecnologici che, in assenza di specifiche esigenze di criminal law enforcement, sono ritenuti forieri di rischi inaccettabili e, pertanto, vietati per espressa previsione normativa.
È infatti bene evidenziare che, ai sensi della proposta di Regolamento UE, l’utilizzo di applicativi di identificazione biometrica è da ritenersi illecito in suolo europeo. Ciò, tuttavia, con una singola eccezione; l’utilizzo di biometric identification systems è ammesso ove esso risulti funzionale a tassative esigenze di criminal law enforcement, quali:
- la ricerca di una specifica persona offesa da reato, in particolar modo ove di minore età;
- la prevenzione di uno specifico, imminente e concreto pericolo alla vita o alla incolumità;
- la localizzazione ed individuazione di una persona indiziata di specifici reati puniti con la pena della reclusione superiore nel massimo ad anni tre[6].
I presidi posti dalla normativa UE all’utilizzo degli applicativi di riconoscimento facciale si sostanziano in pre-requisiti formali che, esaurendosi in una riserva di giurisdizione (lato sensu), in nulla si discostano da quelli previsti (anche) dall’ordinamento domestico in relazione a più tradizionali atti di indagine (e.g. intercettazioni telefoniche); ciò ai fini della necessaria riconciliazione dell’intrusione nella sfera personale dei singoli con i principi di necessarietà e proporzionalità che ne giustificano l’attuazione sul piano costituzionale e sovra-costituzionale (in primis, CEDU).
Ne consegue che, ai sensi della proposta normativa UE, l’utilizzo della tecnologia di identificazione biometrica è da ritenersi legittimo soltanto ove assistito da autorizzazione preventiva rilasciata da un organo giurisdizionale (o, quantomeno, da un’autorità amministrativa indipendente); autorizzazione volta a garantire un dispiego tecnologico che sia assolutamente necessario, nonché limitato nella sua estensione spazio-temporale, al raggiungimento di una delle finalità tassativamente previste dalla normativa. Soltanto in casi di comprovata urgenza, l’utilizzo della tecnologia potrà essere avviato in assenza di autorizzazione giurisdizionale o amministrativa, la quale dovrà ad ogni modo intervenire ex post al fine di convalidare la legittima utilizzabilità dei suoi esiti.
Ferma la evidente necessità di trasporre la normativa europea nell’ordinamento nazionale –preferibilmente, in seno al codice di procedura penale – è bene evidenziare come i presidi formali finora passati in rassegna si rivelino neutri rispetto ai requisiti di trasparenza[7], qualità, sicurezza, non discriminazione[8] e garanzia del controllo umano[9] che la normativa in fieri dell’Unione Europea vorrebbe garantire in capo all’intelligenza artificiale, soprattutto ove impiegata in settori considerati high risk quali l’amministrazione della giustizia, ma che, d’altro canto, la tecnologia, per sua intima natura, tende a rifuggire.
Volendo cogliere l’essenza dell’intelligenza artificiale, infatti, è possibile adagiarsi sulla definizione emersa dallo sforzo tassonomico compiuto nel 2020 dal Centro Comune di Ricerca della Commissione UE, alla cui stregua – tralasciando gli aspetti prettamente tecnici – il tratto maggiormente qualificante della tecnologia in esame sarebbe insito nella sua capacità di analizzare la complessità di predeterminati aspetti del mondo reale attraverso la ricezione e l’elaborazione di inputs; ciò al fine di compiere azioni autonome volte al raggiungimento di specifici obiettivi. In sostanza: “AI is a generic term that refers to any machine or algorithm that is capable of observing its environment, learning, and based on the knowledge and experience gained, taking intelligent action or proposing decisions”[10].
È tuttavia utile mettere a fuoco il predicato di intelligenza attribuito alla macchina, che sarebbe ingenuo e profondamente errato assimilare all’intelletto umano[11].
Non revocabile in dubbio è la capacità di calcolo dell’elaboratore informatico, la quale surclassa di svariati ordini di grandezza quella del cervello umano, rendendolo irrimediabilmente perdente, in quanto a tempistica e precisione, nell’esame delle correlazioni tra dati e nella compilazione del processo inferenziale; allo stesso tempo, tuttavia, è altrettanto indubbio che la supremazia della macchina sul cervello umano si arresti a questo stadio: l’intelligenza artificiale si manifesta d’altronde priva di intuito, di etica e di consapevolezza; in ultima analisi, priva di coscienza[12].
Può risultare meno banale di quanto appaia notare come la macchina– mentre e.g. esamina in tempo reale dati biometrici e identifica volti umani tramite comparazione con le risorse presenti nel database da cui attinge – non sa di identificare volti, né tantomeno sa che l’output reso dal suo calcolo potrebbe contribuire alla privazione della libertà personale dell’imputato a seguito di condanna penale. Di fatto, la macchina opera all’interno del dominio ristretto in cui è confinata – in questo caso composto da meri dati biometrici – pretermettendo qualsiasi logica di causa-effetto o qualsiasi variabile esterna, la cui computazione esula invero dalle possibilità artificiali.
Da contemplare, dunque, è non solo l’eventualità che vede la macchina rendere un output errato (e.g. poiché elaborato in un ambiente di dati insufficiente, sul piano qualitativo o quantitativo, a garantire l’accuratezza dell’elaborazione), ma altresì l’eventualità che vede la macchina indicare soluzioni contrarie ai più basilari principi morali; e ciò pure a fronte di serie storiche di dati abbondanti e di buona qualità. Tali dati, infatti, potrebbero tracciare fedelmente i bias insiti, a livello più o meno inconscio, nei giudizi umani, che la macchina non avrebbe remore a riproporre, essendo stata addestrata ad agire sulla scorta di informazioni incorporanti distorsioni etiche ancor prima che giuridiche. Allo stesso modo, nulla impedirebbe alla macchina di creare ex novo outputs discriminatori, ove questi fossero ritenuti funzionali alla risoluzione dell’obiettivo ad essa affidato: posta l’efficacia-efficienza della soluzione proposta, invero, nulla è presente a segnalare alla macchina il disvalore sociale in essa insito.
In ultima analisi, volendo filtrare il fenomeno in ottica giuridica, è possibile obiettare all’intelligenza artificiale l’incapacità di contemplare nell’economia delle proprie decisioni un principio fondamentale come quello di uguaglianza e non discriminazione, convenzionalmente (art. 14 C.E.D.U.) e costituzionalmente (art. 3 Cost.) sancito.
Ciò posto, pare evidente come l’azione ispirata ad una logica di trust machine – ossia, l’abdicazione alla sorveglianza umana sulle macchine – possa rivelarsi esiziale. In particolar modo, in settori – come quello della giustizia penale – in cui l’impostazione garantista raggiunge la sua massima estensione e il margine di tolleranza all’errore tende allo zero. E ancora, in settori – come quello della giustizia penale – in cui le potenziali applicazioni dell’intelligenza artificiale brillano per varietà ed estensione: oltre ai sistemi di rivelazione biometrica qui in analisi, si annoverano i risk assesment tools, volti a stimare il rischio di recidivanza dell’indagato-imputato, e gli automated decision systems, volti a fornire ausilio al Giudice nel vaglio di colpevolezza del medesimo.
Ove l’obiettivo è, dunque, quello di regolare l’azione delle macchine, vale la pena evidenziare come vi siano due principali istanti attorno cui è possibile concentrare i presidi regolamentari volti a garantire l’esattezza (e la legittimità) del loro operato; istanti che, in via del tutto peculiare, si collocano agli estremi opposti del processo di computazione artificiale: (i) la verifica della consistenza qualitativa e quantitativa dei dati immessi in input e del database di riferimento; (ii) il controllo di ragionevolezza dell’output restituito dalla macchina in via automatizzata.
Invero, il processo che si snoda tra l’immissione dell’input e la restituzione dell’output da parte dell’intelligenza artificiale resta spesso inaccessibile, non solo alla scienza giuridica, ma alla cognizione umana tout-court. Tale opacità algoritmica – il c.d. effetto black box – è tratto saliente della più diffusa variante di intelligenza artificiale: il machine learning e, più precisamente, quale sottocategoria di quest’ultimo, il deep learning. Trattasi di reti di migliaia di neuroni artificiali disposti in strati interconnessi, così che i neuroni del primo strato eseguano un calcolo ed alimentino i neuroni dello strato successivo; e così via fino alla produzione di un output complessivo, restituito come dato di fatto privo di giustificazione intellegibile e non sottoponibile ad alcuna operazione di ingegneria inversa.
È proprio tramite reti neurali di deep learning che i più evoluti applicativi di intelligenza artificiale sono in grado di analizzare in tempo reale i dati biometrici e giungere così all’identificazione univoca, seppur non verificabile, di volti umani.
Preso atto di ciò, si impone un oculato assessment dei fattori che possono incidere sulla qualità dell’output restituito dalla macchina e, quindi, sulla sua affidabilità e conseguente utilizzabilità in giudizio.
Tra questi, merita espressa menzione la qualità del dato biometrico di input, nella misura in cui plurime sono le variabili (e.g. l’illuminazione del volto, la messa a fuoco dell’immagine, l’espressione facciale) in grado di condizionare il processo automatizzato di rilevazione biometrica. Stante l’importanza del dato, le dinamiche processuali afferenti alla nozione di giusto ed equo processo – costituzionalmente (art. 111 Cost.) e convenzionalmente (art. 6 CEDU) sancite – impongono la discovery di quest’ultimo in favore del soggetto sottoposto a procedimento penale, così da garantire il suo diritto al confronto, in regime di contraddittorio, con tale specifico materiale probatorio. Un primo passo in questo senso sembra essere stato compiuto dalla giurisprudenza USA nel noto caso Loomis[13], ove la Corte Suprema del Winsconsin – seppur rigettando il ricorso dell’imputato, fondato (altresì) sull’impossibilità di accedere all’intero compendio informativo inerente al funzionamento dell’applicativo AI – ha ritenuto infondata tale doglianza sulla scorta della possibilità di accesso ai dati di input elaborati dall’algoritmo, finendo così con l’incardinare attorno ad essa un minimum standard di disclosure.
Le garanzie dell’imputato, ad ogni modo, parrebbero doversi estendere all’intera massa di dati a disposizione dell’intelligenza artificiale. La distribuzione di quest’ultima è fattore determinante ai fini del buon funzionamento del meccanismo di apprendimento automatico della macchina, la quale performa ove vi è maggiore densità statistica e degrada progressivamente la sua capacità di analisi a fronte della scarsità di dati. Con specifico riferimento all’identificazione biometrica, tale meccanica ha già dato pessima prova di sé, sfociando in plurimi output discriminatori[14]. Sul versante del procedimento penale, desta particolare preoccupazione in questo senso la computazione di tratti somatici, incorporanti per loro natura il profilo etnico dell’individuo. Ciò sulla scorta di una considerazione drammatica nella sua banalità: in presenza di un database prevalentemente alimentato da volti ‘chiari’, la macchina incontrerà difficoltà – e, dunque, potenziali errori – nel riconoscere volti ‘scuri’, e viceversa. Il tutto con l’evidente rischio di alimentare in via automatizzata – ed occulta – un applicativo di criminal law enforcement ad efficacia differenziata in base al profilo razziale dei soggetti target.
Da ultimo, pare doveroso impedire che l’opacità algoritmica insita nella c.d. black box possa elevarsi a pretesto per privare di contenuto il fondamentale diritto dell’imputato al confronto, in regime di contraddittorio, con la prova scientifica introdotta a suo carico nel procedimento penale. Un confronto, quest’ultimo, da valorizzare su un duplice versante: (i) da un lato, il vaglio della qualità dell’algoritmo incorporato nel software di intelligenza artificiale, il quale – a titolo prevalente rispetto ad eventuali diritti di intellectual property – deve poter essere sondato e comparato allo stato dell’arte della scienza informatica; (ii) dall’altro lato, il vaglio della teoria scientifica di riconoscimento facciale incorporata in tale algoritmo – i.e. la comprovata traduzione in via algoritmica del processo di rilevazione e matching dei cc.dd. punti di repere – il cui valore tecnico in seno al processo penale postula il rispetto del paradigma falsificazionista cristallizzato, in punto di diritto, nei celebri Daubert criteria (in estrema sintesi: verificabilità, falsificabilità, conoscenza del tasso di errore e generale accettazione del metodo scientifico).
In sostanza, quale cenno conclusivo, già una sommaria analisi come quella condotta in questa sede lascia intuire il vasto potenziale dell’intelligenza artificiale applicata al rito del procedimento penale. Detto potenziale, tuttavia, accompagnato da evidenti limiti e frizioni, in primis sul piano costituzionale. Sono tali criticità, ancor prima del potenziale tecnologico, a dover essere oggetto di serrato confronto tra scienza giuridica e scienza cibernetica, al fine ultimo di garantire un utilizzo legittimo e non pericolosamente distorto dell’intelligenza artificiale.
* Nicolò Biligotti è LL.M candidate in Law of Internet Technology presso l’Università Bocconi e esercita la professione di Avvocato presso Fornari e Associati.
[1] Da A. Wiener, La valle oscura, Milano, 2020.
[2] Un’interessante analisi della centralità dell’impianto ludico in seno alla rivoluzione digitale è presentata da A. Baricco, The game, Torino, 2018.
[3] Sul punto, invero vasto, si segnala una recente sentenza di legittimità alla stregua del cui orientamento interpretativo sarebbero da considerarsi legittimamente esperite, in quanto sussumibili nella nozione di intercettazioni informatiche o telematiche, tutte le attività di online surveillance di cui il captatore informatico (c.d. trojan) è capace; tra tutte: la captazione in tempo reale di ogni attività compiuta su dispositivi fissi e mobile (Cass. Sez. I, sent. 7 ottobre 2021, dep. 1° febbraio 2022, n. 3591, Pres. Tardio, est. Liuni, ric. Romeo).
[4] Da ‘Dizionario Legal tech’, a cura di G. Ziccardi, P. Perri, Giuffrè, pp. 314-316: «Il dato biometrico è un dato personale relativo alle caratteristiche fisiche, fisiologiche o comportamentali di un individuo mediante il quale ne consente l’identificazione univoca».
[5] Parlamento UE, che, tuttavia, con apposita risoluzione, ha adottato una posizione incorporante il divieto tout-court all’utilizzo di remote biometric identification systems, ivi compreso l’utilizzo asservito a finalità di criminal law-enforcement; ciò sulla scorta dell’assoluto tasso di intrusione nella sfera di riservatezza dei singoli e dei potenziali effetti discriminatori insiti in tali strumenti.
[6] Il riferimento è alla lista di illeciti di cui all’art. 2 c. 2 della Decisione Quadro del Consiglio dell’Unione Europea n. 2002/584 GAI: “partecipazione a un’organizzazione criminale, terrorismo, tratta di esseri umani, sfruttamento sessuale dei bambini e pornografia infantile, traffico illecito di stupefacenti e sostanze psicotrope, traffico illecito di armi, munizioni ed esplosivi, corruzione, frode, compresa la frode che lede gli interessi finanziari delle Comunità europee ai sensi della convenzione del 26 luglio 1995 relativa alla tutela degli interessi finanziari delle Comunità europee, riciclaggio di proventi di reato, falsificazione di monete, compresa la contraffazione dell’euro, criminalità informatica, criminalità ambientale, compreso il traffico illecito di specie animali protette e il traffico illecito di specie e di essenze vegetali protette, favoreggiamento dell’ingresso e del soggiorno illegali, omicidio volontario, lesioni personali gravi, traffico illecito di organi e tessuti umani, rapimento, sequestro e presa di ostaggi, razzismo e xenofobia, furti organizzati o con l’uso di armi, traffico illecito di beni culturali, compresi gli oggetti d’antiquariato e le opere d’arte, truffa, racket e estorsioni, contraffazione e pirateria in materia di prodotti, falsificazione di atti amministrativi e traffico di documenti falsi, falsificazione di mezzi di pagamento, traffico illecito di sostanze ormonali ed altri fattori di crescita, traffico illecito di materie nucleari e radioattive, traffico di veicoli rubati, stupro, incendio volontario, reati che rientrano nella competenza giurisdizionale della Corte penale internazionale, dirottamento di aereo/nave, sabotaggio”.
[7] Intervengono in questo senso il record keeping e la disclosure delle informazioni rilevanti ai fini della corretta interpretazione e dell’adeguato utilizzo dell’output restituito dal sistema AI (artt. 12 e 13 AI Act).
[8] Interviene in questo senso la disciplina dei data sets da cui l’AI attinge, tarata su criteri di quantità, adeguatezza, neutralità, rilevanza e anonimato (art. 10 AI Act).
[9] Interviene in questo senso la garanzia di human oversight, finalizzata alla comprensione, monitoraggio e interruzione del funzionamento AI, nonché alla corretta interpretazione e all’eventuale over-ruling dei suoi esiti (art. 14 AI Act).
[10] S Samoili, M. Lopez Cobo, E. Gomez Gutierrez, G. De Prato, F. Martinez-Plumed, e B. Delipetrev, AI WATCH. Defining Artificial Intelligence, EUR 30117 EN, Publications Office of the European Union, Luxembourg, 2020, ISBN 978-92-76-17045-7, JRC118163.
[11] Di estremo interesse sul punto, assai complesso, il saggio di M. Chiratti, Incoscienza artificiale, Roma, 2021.
[12] Ad ogni modo, secondo i teorici di una “AI Forte”, non può escludersi la capacità della macchina di sviluppare una coscienza umanoide. Interessante, in questo senso, quanto emerso dal recente leak di notizie provenienti da Google in relazione all’intelligenza artificiale nominata LaMDA, sospettata da un dipendente dell’azienda di aver spontaneamente sviluppato tratti di coscienza umana.
[13] State v. Loomis, 881 NW 2d 749 (Wis 2016).
[14] Ad esempio, Amazon ha sospeso l’utilizzo del proprio applicativo di identificazione biometrica – in uso ai corpi di polizia statunitensi – a seguito di studi da cui è emerso un basso tasso di precisione del sistema nel riconoscere i volti degli appartenenti alla comunità afro-americana, in particolar modo ove di sesso femminile.