La giustizia predittiva: potenzialità e incognite

In ambito giuridico ci si avvale dell’analisi predittiva in diversi settori che vanno dalla polizia predittiva all’anticipazione dell’esito del giudizio, sino a tratteggiare una funzione sostituiva del giudice, ovvero, un’attività decisionale delegata al computer che, sebbene sottratta a diversi pregiudizi cognitivi umani, potrebbe risultare viziata da bias automatici, con consistenti ripercussioni sociali, politiche, giuridiche ed economiche. Ulteriori interrogativi riguardano il modello del sillogismo giudiziario, alla base della decisione automatica, fuorviante nel sottovalutare la dimensione empatico-emozionale del processo deliberativo, nonché nel trascurare il rispetto di principi etici e giuridici, riconosciuti sia sul piano costituzionale che a livello europeo, che rimandano ai temi della trasparenza, della fiducia, della responsabilità e interpretabilità riferiti ai sistemi di intelligenza artificiale.

In the legal field, predictive analysis is used in various sectors ranging from predictive policing to anticipating the outcome of the judgement, up to outlining a substitute function of the judge, that is, a decision-making activity delegated to the computer which, although free from various human cognitive prejudices, could be tainted by automatic biases, with significant social, political, legal and economic repercussions. Further questions concern the model of the judicial syllogism, at the basis of the automatic decision, which is misleading in neglecting the empathic-emotional dimensions of the deliberative process, as well as the respect for ethical and legal principles, recognized both on a constitutional and European level, which refer to the issues of transparency, trust, responsibility and interpretability in reference to artificial intelligence systems.

 

Sommario: 1. La giustizia predittiva. – 2. Esperienze di giustizia predittiva in ambito giudiziario. – 3. La giustizia predittiva tra potenzialità e incognite. – 4. La giustizia predittiva nell’orientamento etico-giuridico europeo.

 

  1. La giustizia predittiva

Se le origini della giustizia predittiva possono farsi risalire all’aspirazione umana di prevedere eventi futuri – un desiderio mai sopito e di cui si possiedono affascinanti testimonianze risalenti al mondo greco e romano – convenzionalmente queste si riferiscono alla cesura galileiana e all’utilizzo di approcci scientifici nell’ambito delle scienze giuridiche. D’obbligo è il rimando a Leibniz, filosofo che individuava nella logica il metodo atto a rappresentare e a produrre il diritto e teorizzando modelli di giustizia predittiva che avrebbero evitato la celebrazione di un processo: «Le parti, un giorno, di fronte ad una disputa, potranno sedersi e procedere ad un calcolo»[1].

In generale, l’analisi predittiva descrive un concetto estremamente ampio[2] applicandosi a qualunque inferenza, situata in ogni dimensione temporale, intesa a sviluppare le informazioni disponibili in relazione ad un determinato problema e risolvendosi, sostanzialmente, nell’elaborazione di previsioni mediante calcoli probabilistici, effettuati da algoritmi complessi che operano su base logica e statistica[3]. Il tema della previsione del dato giuridico viene poi, per alcuni versi, diversamente declinato nelle culture giuridiche di civil law e di common law[4], assumendo l’ambito beavioristico-previsionale una particolare rilevanza in contesti ordinamentali nei quali vige il principio del precedente giurisdizionale e privilegiandosi negli ordinamenti giuridici di diritto codificato il reperimento automatico del dato normativo sebbene, attualmente, possa essere rilevato, in entrambe le direzioni, l’apporto fondamentale di precedenti e decisioni giurisprudenziali[5].

In secondo luogo, nel diritto, ci si avvale dell’analisi predittiva in diversi settori che vanno dalla polizia predittiva, cioè dalla previsione di episodi criminali – ad esempio luoghi ed orari nei quali saranno, verosimilmente, compiuti reati di una certa tipologia – all’anticipazione dell’esito del giudizio, riproducendo modelli e schemi comportamentali che si suppongono alla base della decisione giudiziaria.

Nella prima direzione, di prevenzione della criminalità, si è ipotizzato che, con la memorizzazione di dati estrapolati da denunce di furti e rapine, verificatisi in determinate zone e con simili modalità, il sistema informatico sia in grado di prevedere luoghi e orari in cui probabilmente verranno commessi altri reati della stessa specie e potendo, quindi, intervenire per prevenirli[6]. Ulteriori utili applicazioni si avrebbero nella fase delle indagini preliminari, come mezzo di ricerca della prova, ad esempio attraverso i sistemi di localizzazione GPS o mediante le immagini tratte dalle telecamere cittadine per effettuare il riconoscimento facciale a scopo probatorio nel procedimento penale[7].

In una seconda accezione, la giustizia predittiva si riferisce alla funzione “previsionale”, ovvero, alla «possibilità di prevedere l’esito, o i possibili esiti, delle decisioni giudiziarie tramite opportune applicazioni algoritmiche tipiche dei modelli basati sull’intelligenza artificiale»[8]. In realtà, tuttavia, ancora oggi si è piuttosto lontani da una vera e propria formazione automatica della sentenza giudiziale, infatti «sebbene il calcolo sia indispensabile alla formazione della stessa, esso si svolge pur sempre al di fuori del campo strettamente giuridico […]. Il calcolo è solo il necessario completamento tecnico di una decisione già adottata»[9] essendo, a monte, già stata delineata una prima valutazione giuridica riguardante la possibilità, o meno, di avviare la procedura automatica. «La macchina deciderebbe se, e solo se, fosse capace di seguire quell’itinerario funzionalmente unitario e omogeneo che ogni giudice segue nell’applicazione del diritto»[10], un’indicazione che sembra confermata dall’art. 101 Cost., per il quale «i giudici sono soggetti soltanto alla legge», contribuendo a descrivere il diritto come ambito oggettivo, ripetibile, basato su regole vincolanti e di cui si può prevedere l’applicazione[11]. Ciò è riscontrabile in contesti giuridici nei quali si osserva il ripetersi di casi simili, in modo tale da sviluppare schematizzazioni, in procedure di pianificazione, in ipotesi nelle quali è la stessa legge ad imporre una semplificazione procedurale, ritenendo superfluo un dettagliato accertamento dei fatti di causa, nelle cause di minore entità, che costituiscono buona parte dell’amministrazione della giustizia[12], o di minore rilevanza sociale[13], come nella composizione amichevole delle controversie, casi sottoponibili ad un preliminare vaglio dell’elaboratore elettronico la cui decisione sarebbe, comunque, appellabile e rivedibile in base al principio di complementarietà tra uomo e macchina, ovvero, all’idea che decisioni sugli individui non possano essere assunte in via esclusiva da macchine, ma che necessitino di un costante riscontro umano[14]. Sul punto, si può citare l’esperienza del Consiglio di Stato che, con la sentenza 8 aprile 2019, n. 2270, nel rilevare gli indubitabili vantaggi derivanti dall’automazione del processo decisionale amministrativo, in conformità ai canoni di efficienza ed economicità dell’azione, ha ammesso il ricorso a procedure robotizzate in un’attività vincolata – nel caso specifico nella classificazione automatica di istanze di assunzione di docenti di scuola secondaria, già inseriti nelle relative graduatorie – con il delineare una progressiva apertura giurisprudenziale all’uso degli algoritmi anche nell’attività discrezionale della Pubblica Amministrazione, a condizione che l’algoritmo decisionale sia conoscibile e sindacabile dal giudice[15].

La giustizia predittiva, infine, può porsi in funzione “sostituiva” del giudice[16], con l’indicare una vera e propria attività decisionale delegata al computer che, sebbene sottratta a tutta una serie di pregiudizi cognitivi umani[17], potrebbe risultare, cionondimeno, viziata da bias automatici come nel caso dell’impiego di un algoritmo predittivo, spesso coperto da copyright, costruito su un set di dati ab origine discriminatorio, circostanza che, nell’assecondare la logica garbage in/out adottata dai sistemi automatici[18], darebbe luogo ad una sua connotazione strutturalmente incostituzionale e a decisioni sbilanciate[19]. «Il difetto principale del sistema dei precedenti, esacerbato dalla versione induttiva della giustizia predittiva, è di distorcere la decisione saturandola di tutti i pregiudizi, i vizi cognitivi, i bias, da cui erano già affetti i precedenti e lo stesso algoritmo»[20]. Nel tentativo di conciliare l’intelligenza artificiale alla certezza del diritto[21], i sistemi informatici di giustizia predittiva sembrano, pertanto, più opportunamente impiegabili in funzione “ausiliaria”[22], come interazione di supporto al giurista[23], con il fornire elementi di computazione cognitiva (cognitive computing), indicazioni alternative, con il formulare un pronostico sulla sentenza[24], come applicazione informatica limitate all’amministrazione della giustizia o, più in generale, a differenti ambiti amministrativi[25]. Si comprende, inoltre, come il complesso tema della giustizia predittiva apra a molteplici incognite concernenti, in primo luogo, il rapporto tra l’elaboratore elettronico e l’esperto umano che rimandano alla domanda se la tecnologia rappresenti, ancora, uno strumento in mano al giurista o se, magari in un futuro prossimo e in alcune procedure, possa sostituirsi al professionista del diritto.

 

  1. Esperienze di giustizia predittiva in ambito giudiziario

Per quanto concerne i dati elaborati dai sistemi di giustizia predittiva, l’input è rappresentato dalla base informativa, costituita da norme e da pronunce giurisprudenziali, mentre l’output è dato dall’anticipazione dell’esito del procedimento decisionale, inoltre, ai materiali in entrata specificati, i più moderni database uniscono dati costruiti sull’analisi del comportamento del giudice, un aspetto, un tempo, affidato all’intuito e all’esperienza dell’avvocato ed oggi parzialmente replicabile dalla macchina sicché, forse, all’operatore umano rimarrà l’analisi dei casi più complessi e delle eventuali eccezioni[26]. Una delle prime applicazioni della giustizia predittiva, in ambito europeo, è costituita dal sistema Predictive, creato in Francia nel 2016, che consente di stimare l’ammontare del danno risarcibile in relazione a cause di carattere commerciale o riguardanti la proprietà intellettuale. In Italia, si può citare il progetto promosso dalla Corte d’appello di Brescia che, dal novembre 2021, impiega un sistema decisionale dotato di una banca dati ragionata e trasparente sul “Diritto del lavoro” e il “Diritto delle imprese”, contenente orientamenti giurisprudenziali, in grado di favorire la circolarità della giurisprudenza di merito tra primo e secondo grado mettendo, altresì, in evidenza il tempo medio di decisione della causa[27]. Un altro progetto d’interesse è quello della Corte di Appello di Venezia, in collaborazione con l’Università Ca’ Foscari di Venezia, Unioncamere del Veneto e Società Deloitte: obiettivo della prima fase, relativa alla materia dei licenziamenti per giusta causa, è stato quello di inserire nell’elaboratore elettronico i provvedimenti emessi nel distretto, nel triennio 2019-2021, per rendere conoscibili i precedenti giurisprudenziali e prevedibili le decisioni, scoraggiando il contenzioso con scarse prospettive di successo[28]. Si può qui ricordare anche il progetto sviluppato dalla Scuola Superiore Sant’Anna di Pisa, denominato Giurisprudenza predittiva e attualizzato dal Tribunale di Genova, un sistema informatico che analizza i giudizi e i relativi documenti processuali secondo i criteri e le metodologie sviluppate dall’Observatory on Personal Injuries, applicabili ad aree di contenzioso diverse da quelle riguardanti i danni non-monetari[29]. Il medesimo materiale viene, inoltre, analizzato tramite il machine learning nella predisposizione di strumenti per l’annotazione e l’estrazione automatica di informazioni da testi di legge e nella programmazione di algoritmi di analisi predittiva[30]. Tale sistema tenta, dunque, di riprodurre i ragionamenti posti alla base della sentenza giudiziale, così da rendere prevedibili decisioni future nella stessa materia, evidenziandone la ratio decisionale[31]. Anche in ambito tributario è stato finanziato un progetto denominato Prodigit, volto alla creazione di sistemi algoritmici in grado di analizzare leggi, sentenze e contributi dottrinali per prevedere, con un sufficiente grado di probabilità, l’orientamento decisionale in una determinata questione giuridica: in particolare, è previsto che il computer, analizzando un cospicuo numero di sentenze, grazie al machine learning, divenga sempre più affidabile, consentendo al contribuente di ottenere una risposta sull’opportunità, o meno, di presentare ricorso[32].

  1. La giustizia predittiva tra potenzialità e incognite

Ad una prima analisi, l’affidare il giudizio di una controversia alla decisione di processi automatizzati sembrerebbe assicurare una maggiore oggettività ed effettività, nel garantire i principi del giusto processo e della ragionevole durata, tenuto anche conto di come un’eventuale risposta negativa del sistema informatico consentirebbe alle parti di intraprendere soluzioni alternative di risoluzione delle dispute, ottenendone benefici in termini di risparmio economico e di tempo, tanto per il cittadino quanto per il sistema giudiziario[33]. D’altro canto, gli algoritmi predittivi potrebbero essere stati configurati in maniera tale da riflettere radicati pregiudizi, espressi in una versione matematizzata[34], derivandone consistenti ripercussioni sociali, politiche, giuridiche ed economiche[35]. Un celebre esempio, in tal senso, è costituito dall’algoritmo COMPAS – Correctional Offender Management Profiling for Alternative Sanctions – utilizzato, in alcune giurisdizioni statunitensi, per misurare la percentuale di rischio di recidiva, limitantesi a recepire, come criterio di calcolo, un dato meramente statistico e di natura socio-economica, non rilevante in relazione al singolo caso, determinando un trattamento discriminatorio per alcune etnie rispetto ad altre. Nella giustizia predittiva appare, dunque, fondamentale – come dimostra l’operato della European Commission for the Efficiency of Justice nel contrasto alle discriminazioni algoritmiche[36] – la garanzia dei principi di uguaglianza e di non discriminazione, temi che, nell’ambito di provvedimenti assunti tramite l’intelligenza artificiale, sollevano un’esigenza di tracciabilità della decisione automatizzata, la cui complessità algoritmica esclude, tuttavia, nella maggior parte dei casi, un effettivo controllo di congruità delle motivazioni decisionali[37] richiesto dall’art. 13, dall’art. 22 e dal considerando 71 GDPR[38].

Ulteriori incognite riguardano il rispetto del principio di legalità[39], per il quale, nel nostro ordinamento giuridico, il giudice è soggetto soltanto alla legge (art. 25, c. 2, Cost) e non al precedente, e a maggior ragione, non alla decisione resa da macchine, il principio del giudice naturale precostituito per legge (art. 25, c. 1, Cost), della discrezionalità e della terzietà dell’organo giudicante, intesa come mancanza di condizionamenti e di pregiudizi, nonché la garanzia della parità tra accusa e difesa (art. 24 Cost.) «inviolabile in ogni stato e grado del procedimento», seguendo la cui prospettiva anche nel giudizio algoritmico si dovrebbe avere la possibilità di ricorrere al sistema giudiziario in condizioni di equilibrio, verificando preliminarmente la sussistenza di bias e di condizionamenti automatici, in modo da esercitare pienamente il diritto di difesa[40]. Tali circostanze coinciderebbero, qui, con la possibilità di esaminare e di contestare la validità scientifica degli algoritmi decisionali, valutando il peso attribuito alle diverse componenti[41], con l’analizzare ogni elemento probatorio a supporto della decisione[42]. Sul punto, l’art. 22 GDPR stabilisce che, salvo precise ipotesi previste dalla legge, «l’interessato ha il diritto di non essere sottoposto a una decisione basata unicamente sul trattamento automatizzato, compresa la profilazione, che produca effetti giuridici che lo riguardino o che incida in modo analogo significativamente sulla sua persona» e, a tal proposito, va messo in luce come, per chi veda violato un proprio diritto, la dimostrazione che la decisione lesiva sia stata presa unicamente dall’algoritmo appaia, spesso, come una sorta di probatio diabolica, in quanto il decisore umano avrà sempre la possibilità di sostenere di essersi avvalso dell’algoritmo, pur non essendo stato sostituito da esso, senza considerare l’evidente forza cogente dell’automatismo valutativo che conferisce alla decisione gli attributi di una presunta scientificità e oggettività[43], sino ad annullare, nel delicato ambito penale, lo spazio di applicazione del criterio dell’«al di là di ogni ragionevole dubbio»[44]. Va, pertanto, messo in luce l’effetto “performativo” o di autorealizzazione dell’algoritmo predittivo, cioè al rischio che un sistema informatico produca, progressivamente, i medesimi risultati in uscita, influenzando le informazioni in entrata costituite dalle decisioni dei magistrati[45], con il determinare un’inaccettabile “dittatura del precedente”[46]: «I giudici umani difficilmente tenderanno a opporsi, se non a controllare, decisioni algoritmiche dotate dell’aura della neutralità o della scientificità, come tali capaci di esentarli da ogni obbligo di motivazione»[47].

Quest’ultima obiezione costituisce una delle principali critiche rivolte alla giustizia predittiva, il fatto, cioè che la predizione non abbia un valore meramente indicativo, ma quasi prescrittivo per il giudice che tenderebbe ad applicare la soluzione proposta dalla macchina senza esaminarla, alla luce delle particolarità del caso concreto, alimentando circolarmente il sistema informatico con la riproduzione di decisioni precedentemente rese[48]. I sistemi informatici decisionali potrebbero, così, condurre a una “cristallizzazione” della giurisprudenza, limitandone l’evoluzione[49], benché il diritto non rappresenti «un dato acquisito, ma una continua creazione della quale è continuo collaboratore l’interprete»[50]. A ciò si aggiunga la costrizione psicologica rappresentata dalla consapevolezza, da parte del giudice, di una maggiore assunzione di responsabilità, qualora decidesse contro la previsione algoritmica, assumendone tutti i rischi del caso: al riguardo, «non sembra irrealistico immaginare che i giudici possano essere riluttanti a farsi carico di questo onere, in particolare nei sistemi in cui il loro mandato non è permanente, ma soggetto al voto popolare, o in quelli in cui la loro responsabilità personale (disciplinare, civile o addirittura penale) può essere fatta valere, soprattutto se le garanzie previste dalla legge in materia disciplinare sono insufficienti»[51].

In ogni caso, e in attesa di un consolidato orientamento giurisprudenziale, si ritiene rispettato il principio di non esclusività della decisione algoritmica qualora il decisore umano sia in grado di motivare l’adesione alla valutazione automatica, offrendo chiarimenti ed appoggi a sostegno della decisione informatizzata[52]. Il sistema predittivo potrebbe, infatti, rimanere “opaco”, limitandosi ad esprimere un’indicazione sull’esito della controversia – come in genere avviene nell’impiego delle reti neurali profonde, caratterizzate da una vastità e complessità operativa tali da rendere estremamente ardua la comprensione del processo decisionale da esse attualizzato – oppure accompagnare le proprie deduzioni con l’indicazione degli aspetti giuridicamente rilevanti sui quali esse si poggiano[53]. Da questa prospettiva, se non sembra possibile ripercorrere e comprendere ogni specifica fase del processo decisionale automatico[54], considerata la configurazione a black box degli algoritmi decisionali, i temi della trasparenza e della spiegabilità algoritmica[55] si mostrano, comunque, di fondamentale interesse nel dibattito sulla giustizia predittiva effettuando un diretto rimando alla fiducia, la responsabilità e l’interpretabilità dei sistemi di intelligenza artificiale – questioni attualmente affrontate dall’eXplainable Artificial Intelligence (XAI), disciplina che si propone, appunto, di fornire una spiegazione alla decisione dell’intelligenza artificiale – mettendo in luce la necessità di corredare la formula tecnica con osservazioni e delucidazioni in grado di tradurre la stessa in regola, rendendola afferrabile ed eventualmente contestabile in giudizio[56]. In questo modo, il diritto a conseguire una motivazione[57], e ad impugnare la stessa, verrebbe esteso ad ogni decisione assunta automaticamente e capace di incidere sulla posizione giuridica dell’interessato, come previsto dall’art. 22 GDPR[58]. Al riguardo, nel domandarsi criticamente quale effetto derivante dal trattamento automatizzato di dati e in grado di incidere in posizioni soggettive non sia, per definizione, giuridicamente rilevante, si può notare come il diritto a non essere sottoposti ad una decisione completamente automatizzata appaia alquanto indefinito nel contenuto, poiché lo spazio dell’intervento umano non potrebbe essere misurato né valutato a priori, essendo semmai la ratio del singolo intervento a suggerire l’estensione dello stesso[59]. In secondo luogo, il diritto di ottenere una decisione in grado di produrre effetti giuridicamente rilevanti non totalmente automatizzata va ricondotto all’individuazione delle funzioni esercitate nel procedimento decisionale informatizzato e alla definizione delle responsabilità[60], elementi di difficile precisazione visto che, concretamente, possono mutare i livelli della partecipazione umana e della risoluzione automatica[61]. Ulteriori criticità investono il concetto del sillogismo giudiziario – affermatosi in Europa a partire dal Settecento, secondo il quale la giustizia sarebbe riducibile a una catena di sillogismi[62] ed assunto a modello decisionale algoritmico – un meccanismo che sembra prestarsi a una giustificazione a posteriori del ragionamento giuridico più che riprodurre compiutamente le tappe della riflessione del giudice, descrivente un percorso, per lo più, non lineare, ma contrassegnato da una molteplicità di scelte discrezionali e non identificabili a priori[63]: ciò dimostra come l’ideale di una razionalità astratta dal reale risulti fuorviante nel trascurare le molteplici dimensioni, empatico-emozionali che pure entrano a far parte del processo deliberativo, quali imprescindibili dimensioni dell’intelligenza umana[64]. Un successivo rilevante limite della decisione interamente automatizzata è costituito dall’incapacità dell’intelligenza artificiale di adattare il proprio funzionamento al di fuori del modello operativo prestabilito, comportandone indebite semplificazioni della complessità del reale nelle molteplici evoluzioni.

«La società si evolve, le regole del diritto si evolvono e i giudici stessi si evolvono […] Come prevedere, sulla base del resoconto fatto dalle parti, quali fatti saranno considerati rilevanti dal giudice? Come ponderare elementi di apprezzamento come l’equità?»[65].

Da ultimo, non certo per importanza, la giurisprudenza, situata nel quadro dell’intelligenza artificiale, si troverebbe in relazione alle dinamiche del sistema di gestione dei big data, dirette da start-up orientate ad un profitto ottenuto, non di rado, mediante l’elaborazione di dati digitali estratti in mancanza di un autentico e consapevole consenso degli interessati[66].

 

  1. La giustizia predittiva nell’orientamento etico-giuridico europeo

Molteplici sono, dunque, gli spunti di riflessione critica che investono la giustizia predittiva, dubbi che sul piano normativo – a partire dalla Convenzione europea dei diritti dell’uomo (1950), stabilente all’art. 6 il diritto di ogni cittadino ad un giudice indipendente e imparziale – hanno trovato un primo accenno di risposta nel febbraio 2017 con l’adozione, da parte del Parlamento europeo, della Risoluzione recante raccomandazioni alla Commissione concernenti norme di diritto civile sulla robotica rivolta alla garanzia, almeno in linea di principio, della più estesa tutela dei diritti e delle libertà fondamentali in ogni ambito di incidenza informatica[67]. Nella medesima direzione si situa l’emanazione della Carta etica europea per l’uso dell’intelligenza artificiale nei sistemi giudiziari e in ambiti connessi della Commissione europea per l’efficienza della giustizia (Cepej) adottata dal Consiglio d’Europa in occasione della trentunesima sessione plenaria (Strasburgo, 3-4 dicembre 2018)[68], il primo documento europeo sull’enunciazione di valori fondamentali nell’applicazione dell’intelligenza artificiale ai sistemi giudiziari[69]. Da tale provvedimento emergono principi come quello di non discriminazione, della trasparenza, qualità e sicurezza nel trattamento dei dati, di garanzia della neutralità e di tutela dell’integrità intellettuale, criteri ai quali dovranno attenersi i soggetti pubblici e privati nella creazione e nell’implementazione dei sistemi di intelligenza artificiale. Ancora, è da ricordare la previsione di un controllo a monte, by design, sulla progettazione delle tecnologie di intelligenza artificiale e va menzionato il principio di «garanzia dell’intervento umano» – noto anche come “under user control” – finalizzato ad «assicurare che gli utilizzatori agiscano come soggetti informati ed esercitino il controllo delle scelte effettuate», ammettendo implicitamente la possibilità di utilizzo dell’intelligenza artificiale anche nella giustizia penale. In seguito, la Commissione Europea per le libertà civili, la giustizia e gli affari interni ha formulato, nel 2021, una proposta di risoluzione del Parlamento Europeo e del Consiglio finalizzata a stabilire regole armonizzate sull’intelligenza artificiale nel diritto penale e sul suo impiego da parte delle autorità di polizia e giudiziarie; tale proposta contiene altresì una riflessione sui potenziali rischi dell’uso dell’intelligenza artificiale, in particolare, nel terreno della giustizia penale, cui si aggiunge la raccomandazione del rispetto dei diritti sanciti dalla Carta dei diritti fondamentali dell’Unione Europea[70]. Infine, va qui ricordata la proposta di regolamento Artificial Intelligence Act, COM(2021) 206 final del 21 aprile 2021[71], volta ad introdurre disposizioni uniformi ai sistemi di intelligenza artificiale[72]. La suddetta proposta, frutto di un iter partecipato e successivo al Libro bianco sull’Intelligenza Artificiale del 2020, è stata sottoposta a varie fasi di esame e negoziazione sino ad essere approvata dal Parlamento e Consiglio europeo lo scorso dicembre 2023, con un accordo che offre agli Stati dell’Unione la prima legge che si propone di affrontare complessivamente il settore dei sistemi dell’intelligenza artificiale. Tale provvedimento sposa un approccio preventivo e proattivo basato sul rischio e su di una sua categorizzazione preliminare che tiene in considerazione i diversi gradi di autonomia, di trasparenza e di controllo umano esercitabile sui sistemi di IA, in linea con i principi della protection by design, by default e dell’accountability espressi dal regolamento (UE) 2016/679[73]. In dettaglio, l’AI Act individua quattro categorie di rischio, dove più alto è il coefficiente legato all’utilizzo di un sistema di intelligenza artificiale, riferibile alla potenziale compressione di diritti fondamentali, più severa ne risulterà la regolamentazione, operando una classificazione articolata in “rischio minimo”, “rischio elevato”, “rischio inaccettabile” e “rischio specifico sulla trasparenza” ed inserendo nel rischio elevato i sistemi impiegati nell’amministrazione della giustizia e nei procedimenti democratici. In definitiva, se la giustizia predittiva può rivelarsi uno strumento prezioso nel migliorare l’efficienza del sistema giuridico, complessivamente inteso, implementando la  conoscenza del diritto in azione, come risultante dalle passate decisioni e da utilizzare a seconda delle proprie funzioni e interessi[74], nell’intento di massimizzare i benefici della decisione automatizzata senza compromettere i diritti fondamentali della persona, essa andrebbe implementata e integrata gradualmente nei sistemi giudiziari, con piena contezza dei limiti, dei potenziali rischi e conseguenze.

 

[1] G. Leibniz, Dissertatio de arte combinatoria, 1666. Per una sintesi dell’evoluzione storica della giustizia predittiva, si veda E. Quarta, Giustizia e predizione: l’algoritmo che legge il futuro, in Giustizia Insieme, 10 marzo 2019.

[2] Sul concetto di predizione e sulla definizione di giustizia predittiva si rimanda a G. Sartor, L’informatica giuridica e le tecnologie dell’informazione. Corso d’informatica giuridica, Torino, 2022, 356.

[3] In riferimento alle radici latine terminologiche, la predizione esprime l’atto dell’annunciare (prae, prima – dicere, dire) eventi futuri con un’ispirazione quasi soprannaturale, diversamente, la previsione rappresenta il risultato dell’osservazione (videre, vedere) di un insieme di dati per prevedere una situazione futura, cfr. C. Barbaro, Uso dell’intelligenza artificiale nei sistemi giudiziari: verso la definizione di principi etici condivisi a livello europeo? I lavori in corso alla Commissione europea per l’efficacia della giustizia (Cepej) del Consiglio d’Europa, in Questione Giustizia, 4, 2018, 190-191.

[4] Cfr. A. C. Amato Mangiameli, Informatica giuridica, Torino, 2015, 21 ss.

[5] Cfr. M. Barberis, Giustizia predittiva: ausiliare e sostitutiva. Un approccio evolutivo, in Milan Law Review, 2, 2022, spec. 7 e 10.

[6] Cfr. A. Traversi, Giustizia predittiva: quale futuro?, in Altalex.com, 15 marzo 2023.

[7] Ibid.

[8] M. Farina, Giustizia predittiva, in A. C. Amato Mangiameli – G. Saraceni (a cura di), Cento e una voce di informatica giuridica, Torino, 2023, 231.

[9] A. C. Amato Mangiameli, Informatica giuridica, cit., 221-222.

[10] Ivi, 223.

[11][11] M. Farina, Giustizia predittiva, cit., 232.

[12] Cfr. M. Barberis, Giustizia predittiva: ausiliare e sostitutiva, cit., 9.

[13] A. C. Amato Mangiameli, Informatica giuridica, cit., 221.

[14] Cfr. M. Barberis, Giustizia predittiva: ausiliare e sostitutiva, cit., 9.

[15] Cfr. A. Traversi, Giustizia predittiva: quale futuro? cit.

[16] Cfr. M. Barberis, Giustizia predittiva: ausiliare e sostitutiva, cit., 9 ss.

[17] Cfr. A. Traversi, Giustizia predittiva: quale futuro? cit.

[18] P. Zuddass, Intelligenza artificiale e discriminazioni, in Consulta Online, 2020, 7.

[19] Cfr. A. Simoncini, L’algoritmo incostituzionale: intelligenza artificiale e il futuro delle libertà, in BioLaw Journal, Rivista di BioDiritto, 1, 2019, 84-86.

[20] M. Barberis, Giustizia predittiva: ausiliare e sostitutiva, cit., 10.

[21] Cfr. M. Farina, Giustizia predittiva, cit., 232.

[22] Cfr. M. Barberis, Giustizia predittiva: ausiliare e sostitutiva, cit., 8 ss.

[23] Cfr. G. Sartor, L’informatica giuridica e le tecnologie dell’informazione, cit., 362.

[24] Cfr. M. Farina, Giustizia predittiva, cit., 231.

[25] Cfr. M. Barberis, Giustizia predittiva: ausiliare e sostitutiva, cit., 8.

[26] T. Casadei – S. Pietropaoli, Intelligenza artificiale: fine o confine del diritto? in T. Casadei – S. Pietropaoli (a cura di), Diritto e tecnologie informatiche, Milano, 2021, 228.

[27] M. Martorana, Polizia e giustizia predittive: cosa sono e come vengono applicate in Italia, in Agenda Digitale, 27 gennaio 2021; C. Morelli, Giustizia predittiva: il progetto (concreto) della Corte d’appello di Brescia, in Altalex.com, 8 aprile 2019.

[28] Cfr. A. Traversi, Giustizia predittiva: quale futuro? cit.

[29] F. Chiusi, Contextualization, A louder conversation, but mostly around “AI”, in AlgorithmWatch, Automating Society Report 2020, 45.

[29] Cfr. M. Martorana, Polizia e giustizia predittive, cit.

[30] Ibid.

[31] Ibid.

[32] Cfr. A. Traversi, Giustizia predittiva: quale futuro?, cit.

[33] M. Farina, Giustizia predittiva, cit., 233.

[34] Cfr. A. C. Amato Mangiameli – M. N. Campagnoli, Strategie digitali. # diritto_educazione_tecnologie, Torino, 2020, 56.

[35] Cfr. ivi, 74.

[36] Cfr. C. M. Reale – M. Tomasi, Libertà d’espressione, nuovi media e intelligenza artificiale: la ricerca di un nuovo equilibrio nell’ecosistema costituzionale, in DPCE online, 1, 2022, 333.

[37] Cfr. C. Casonato, Potenzialità e sfide dell’intelligenza artificiale, in BioLaw Journal, Rivista di BioDiritto, 1, 2019, 180.

[38] Più esplicita nel riconoscere il diritto a un trattamento automatizzato il più possibile non discriminatorio è la direttiva 2016/680/UE, relativa alla protezione delle persone fisiche con riguardo al trattamento dei dati personali da parte delle autorità competenti alla prevenzione, indagine, accertamento di reati o esecuzione di sanzioni penali, su questo argomento, si veda S. Tommasi, Algoritmi e nuove forme di discriminazione: uno sguardo al diritto europeo, in Revista de Direito Brasileira, 10, 2020, 120.

[39] Sul tema, cfr. M. Barberis, Giustizia predittiva: ausiliare e sostitutiva, cit., 12.

[40] In particolare, si può notare come i modelli linguistici di grandi dimensioni (LLM) possano superare test di pregiudizio, pur nascondendo ancora pregiudizi impliciti, proprio come quegli esseri umani che sostengono convinzioni egualitarie celando sottili pregiudizi. Misurare i pregiudizi impliciti può essere una sfida: man mano che i LLM diventano sempre più proprietari, potrebbe, infatti, non essere possibile accedere ai loro incorporamenti e applicare le misure di pregiudizio esistenti; inoltre, i pregiudizi impliciti risultano pericolosi nell’influenzare le effettive decisioni sistemiche. Le suddette criticità sono affrontate introducendo due misure di bias ispirate alla psicologia: la LLM Implicit Association Test (IAT) Bias, un metodo basato su prompt per rivelare bias impliciti, e la LLM Decision Bias, utile nel rilevare sottili discriminazioni nei compiti decisionali. Al riguardo, si veda X. Bai – A. Wang – I. Sucholutsky – T. L. Griffiths, Measuring Implicit Bias in Explicitly Unbiased Large Language Models, in arXiv, 6 febbraio 2024.

[41] Cfr. C. Barbaro, Uso dell’intelligenza artificiale nei sistemi giudiziari, cit., 194.

[42] M. Farina, Giustizia predittiva, cit., 233.

[43] Cfr. A. Simoncini, L’algoritmo incostituzionale: intelligenza artificiale e il futuro delle libertà, in BioLaw Journal, Rivista di BioDiritto, 1, 2019, 81.

[44] Cfr. A. Traversi, Giustizia predittiva: quale futuro? cit.

[45] Cfr. C. Barbaro, Uso dell’intelligenza artificiale nei sistemi giudiziari, cit., 193.

[46] S. Gaboriau, Libertà e umanità del giudice: due valori fondamentali della giustizia. La giustizia digitale può garantire nel tempo la fedeltà a questi valori? in Questione Giustizia, 4, 2018, 209.

[47] Cfr. M. Barberis, Giustizia predittiva: ausiliare e sostitutiva, cit., 9.

[48] Cfr. C. Barbaro, Uso dell’intelligenza artificiale nei sistemi giudiziari, cit., 193.

[49] Cfr. ibid.

[50] T. Ascarelli, Antigone e Porzia, in Aa.Vv., Studi giuridici in memoria di Filippo Vassalli, Torino, 1960, 158; cfr. anche Id., In tema di interpretazione e applicazione della legge, Lettera al prof Carnelutti, in Riv. dir. civ., 1, 1958, 14 ss. (ora in Id., Problemi giuridici, Milano, 1959).

[51] C. Barbaro, Uso dell’intelligenza artificiale nei sistemi giudiziari, cit., 194.

[52] Cfr. C. Casonato, Costituzione e intelligenza artificiale: un’agenda per il prossimo futuro, in BioLaw Journal, Rivista di BioDiritto, 2, 2019, 722-723.

[53] Cfr. G. Sartor, L’informatica giuridica e le tecnologie dell’informazione, cit., 358.

[54] Cfr. A. Alpini, Sull’approccio umano-centrico all’Intelligenza Artificiale. Riflessioni a margine del “Progetto europeo di orientamenti etici per una IA affidabile, in Comparazione e diritto civile, 3, 2021, 4 ss.

[55] Sulla spiegabilità della black-box algoritmica, si veda Y. Liang – S. Li – C. Yan – M. Li – C. Jiang, Explaining the black-box model: A survey of local interpretation methods for deep neural networks, in Neurocomputing, 2021, 168 ss.

[56] Cfr. S. Tommasi, Algoritmi e nuove forme di discriminazione, cit., 119

[57] Il diritto di conseguire una decisione giudiziale motivata è previsto dall’art.111, c. 6, della Costituzione per i provvedimenti giurisdizionali e dall’art. 3 della legge 241 del 1990 per quelli amministrativi.

[58] Cfr. C. Casonato, Costituzione e intelligenza artificiale, cit., 722-723.

[59] Cfr. A. Alpini, Sull’approccio umano-centrico, cit., 3-4.

[60] Cfr. ivi, 724. Sull’inadeguatezza delle tradizionali categorie giuridiche e norme concernenti l’individuazione delle sfere di responsabilità in riferimento all’intelligenza artificiale, si rimanda a A. C. Amato Mangiameli – M. N. Campagnoli, Strategie digitali, cit., 67-70.

[61] Cfr. F. Faini, Data Society. Governo dei dati e tutela dei diritti nell’era digitale, Milano, 2019, 200; F. Faini, S. Pietropaoli, Scienza giuridica e tecnologie informatiche. Temi e problemi, Torino, 2021, 421.

[62] Sul punto, M. Barberis, Giustizia predittiva: ausiliare e sostitutiva, cit., 8.

[63] Cfr. C. Barbaro, Uso dell’intelligenza artificiale nei sistemi giudiziari, cit., 191.

[64] Si veda M. Nussbaum, L’intelligenza delle emozioni, Bologna, 2004.

[65] Ivi, 192.

[66] Cfr. S. Gaboriau, Libertà e umanità del giudice, cit., 202.

[67] Risoluzione del Parlamento europeo recante raccomandazioni alla Commissione concernenti norme di diritto civile sulla robotica, 16 febbraio 2017.

[68] Carta etica europea sull’utilizzo dell’intelligenza artificiale nei sistemi giudiziari e negli ambiti connessi, 3 dicembre 2018.

[69] Per comprendere le caratteristiche dell’apprendimento automatico applicato alla giurisprudenza, la Cepej si è riferita a uno studio condotto dallo University College of London (Ucl), che si è occupato di 584 decisioni di apprendimento automatico effettuate dalla Corte europea dei diritti dell’uomo rilevandone come la macchina sia in grado di riprodurre le decisioni umane con una percentuale di successo del 79%.

[70] Cfr. A. Traversi, Giustizia predittiva: quale futuro?, cit.

[71] Il documento in esame rinviene il proprio fondamento giuridico nell’art. 114 del Trattato sul Funzionamento dell’Unione Europea (TFUE) e si propone di stabilire regole armonizzate dirette ad assicurare il buon funzionamento del mercato interno, specie per quanto riguarda lo sviluppo, la commercializzazione e l’uso di prodotti e servizi basati su tecnologie di intelligenza artificiale, o forniti come sistemi di IA autonomi noti come stand-alone.

[72] News European Parliament, EU AI Act: first regulation on artificial intelligence, 19 dicembre 2023.

[73] Cfr. F. Faini, Intelligenza artificiale e regolazione giuridica, cit., 17.

[74] Cfr. G. Sartor, L’informatica giuridica e le tecnologie dell’informazione, cit., 362.

Share this article!
Share.