In un ipotetico futuro l’umanità ha completamente eliminato gli omicidi e la maggior parte delle azioni criminali. Ciò è possibile grazie all’istituzione di un sistema chiamato Precrimine, che utilizza dei veggenti in grado di prevedere il futuro, i precog (abbreviazione di precognitivi), per sventare i crimini prima che questi possano essere commessi: è un sistema delicato, osteggiato da molti, che però sembra funzionare senza intoppi. Almeno questo è quello che pensa il capitano Anderson, responsabile della sezione Precrime ma soprattutto protagonista di un racconto del 1954 di Philip K. Dick.
È sufficiente sostituire i veggenti con algoritmi in grado di elaborare previsioni per tornare al presente.
In molte città degli Stati Uniti è, infatti, ormai di uso comune l’utilizzo da parte delle forze dell’ordine di sistemi di intelligenza artificiale in grado di individuare (crime detection) e prevenire (crime prevention) attività criminali: sono i sistemi di predictive policing che, attraverso l’analisi di dati complessi, offrono previsioni in merito al compimento di reati e alla loro localizzazione (place-based) o all’elaborazione di profili criminali individuali (predictive composite). Il più celebre tra i sistemi predittivi di tipo place-based è certamente PredPol, che utilizza un algoritmo di machine-learning in grado di suddividere la città in griglie e di aggiornare quotidianamente le proprie previsioni. Proprio sulla base di tali analisi predittive, i Dipartimenti di polizia d’oltreoceano decidono come e dove dispiegare gli agenti nell’attività di controllo del territorio, con particolare attenzione ai luoghi ove vi è una più alta probabilità di commissione di reati (c.d. hot spots).
Sin dall’adozione di questi sistemi, negli Stati Uniti è sorto un dibattito che ne ha evidenziato le grandi opportunità, soprattutto in termini di controllo e prevenzione della criminalità, ma allo stesso tempo le grandi problematicità, legate soprattutto alla natura anti-egualitaria di alcuni di questi modelli e all’assenza di trasparenza in merito al loro funzionamento. La preoccupazione principale nei confronti del loro utilizzo risiede nella consapevolezza che i sistemi di intelligenza artificiale, pur impiegando algoritmi e strumenti di machine learning come sostituti della mente umana, in realtà sono prodotti creati dall’uomo e per questo intrinsecamente caratterizzati dalle umane imperfezioni. Infatti, molti autorevoli studiosi, nell’evidenziare come la qualità e l’equità dei sistemi di predictive policing dipenda strettamente dal livello qualitativo dei dati che vi vengono inseriti, hanno denunciato il rischio che all’interno dei software predittivi utilizzati dalle forze dell’ordine vengano inseriti i c.d. dirty data, ovvero dati ufficiali presenti all’interno dei databases dei Dipartimenti di Polizia derivanti (o comunque influenzati) da pregiudizi, pratiche corrotte o attività illegali (ad es. report ufficiali falsificati, prove falsificate, arresti motivati da pregiudizi razziali ecc.) perpetrate nel corso degli anni da parte delle forze dell’ordine, spesso nei confronti di minoranze. Inoltre, a condurre verso pratiche discriminatorie non è solo la scarsa qualità dei dati inseriti nell’algoritmo, ma anche il modo in cui queste informazioni sono raccolte. Le tecnologie utilizzate per la raccolta dei dati sono molto eterogenee: dall’analisi dei social network al riconoscimento facciale, le quali, com’è noto, suscitano forti perplessità in tema di privacy dei cittadini e sul fronte della loro potezialità discriminatoria.
Il dibattito in merito all’impatto dei sistemi di predictive policy ha anche coinvolto la giurisprudenza che si è trovata a doversi confrontare con le sfide poste dall’innovazione tecnologica nel campo della giustizia penale e con gli aspetti positivi e negativi dei modelli predittivi.
Emblematica della discussione in atto è una pronuncia dello scorso luglio della Corte d’Appello del Fourth Circuit in composizione en banc (United States Court of Appeals for the Fourth Circuit, United States of America v. Billy Curry, Jr., No. 18-4233, 15 luglio 2020) in cui i giudici, chiamati a decidere se il fermo e la perquisizione dell’imputato fossero giustificati alla luce della dottrina delle c.d. exigent circumstances, hanno offerto un’interessante disamina proprio in tema di predictive policing.
Le circostanze fattuali, infatti, hanno permesso ai giudici di soffermarsi sulle implicazioni derivanti dall’utilizzo da parte delle forze dell’ordine della città di Richmond di un modello di predictive policing.
Le argomentazioni proposte a difesa dei sistemi predittivi sono state criticate all’interno di tre separate concurring opinions, affidate ai giudici Gregory, Wynn e Thacker. Quest’ultima, in particolare, ha proposto una delle argomentazioni più forti avverso l’utilizzo dei modelli predittivi, ovvero la già anticipata natura anti-egualitaria degli stessi, paragonati dalla giudice a veri e propri strumenti di profilazione razziale. L’utilizzo di algoritmi informatici in grado di localizzare il probabile compimento di attività criminali non rappresenta più lo strumento innovativo e promettente di un tempo avendo rivelato tutti i pregiudizi razziali con cui i modelli di predictive policing sono costruiti, come dimostrato dalla recente decisione della città di Los Angeles, una delle prime ad adottare un software di questo tipo, di porre fine al loro utilizzo. Nella sua opinion, la giudice Thacker, nell’evidenziare come la tecnologia non possa annullare i difetti dell’essere umano, ha rimarcato che la bontà degli algoritmi dipende dalla qualità dei dati che vi vengono inseriti (secondo la logica del c.d. GIGO, “garbage in, garbage out”): anni e anni di condotte discriminatorie da parte delle forze dell’ordine hanno prodotto dati sulle attività criminali inficiati da pregiudizi razziali e particolarmente affliggenti nei confronti delle minoranze e, in particolare, delle comunità di colore.
Il grido d’allarme lanciato dalla giudice statunitense è d’altronde corroborato da alcune autorevoli ricerche empiriche, tra cui quella portata avanti nel 2019 dal centro studi AI Now, condotta in 13 giurisdizioni statunitensi che utilizzavano algoritmi di predictive policing, da cui è emerso come ben in 9 di esse i sistemi predittivi erano stati programmati con l’utilizzo dei c.d. dirty data. Uno dei rischi principali che si celano dietro ad un sistema così costruito è proprio quello di alimentare, attraverso l’utilizzo dei modelli predittivi, il c.d. confirmation feedback loop: i sistemi di predictive policing composti da dati alterati porteranno a previsioni viziate che rischiano di perpetrare ulteriori forme di ingiustizia nei confronti delle comunità più emarginate e già afflitte da anni di violenze subite, con gravissime conseguenze sul sistema della giustizia penale e, più in generale, sul tessuto sociale di una comunità.
La pronuncia che arriva dal Fourth Circuit, pur non potendo certamente essere confinata esclusivamente all’interno del dibattito sui modelli di predictive policing, è rappresentativa della discussione in atto oltreoceano (ma ormai anche in Europa) in merito alle sfide e prospettive che l’innovazione tecnologica pone nel campo della giustizia penale. Se è, infatti, innegabile che gli strumenti predittivi costituiscano un importante strumento in mano alle Autorità nel campo della sicurezza pubblica e della prevenzione dei reati, è allo stesso tempo necessario rilevare come sia già in atto una forma di disincanto nei confronti di questi modelli per gli effetti potenzialmente discriminatori che essi sono in grado di produrre. Effetti, questi, che possono essere evitati solo qualora gli algoritmi e i software utilizzati per l’analisi dei Big Data siano resi più trasparenti, in modo che sia possibile per un’autorità indipendente valutarne i processi sottostanti e gli standard utilizzati.