L’AI Act e il divieto di discriminazioni

0

La Proposta di Artificial Intelligence Act elaborata dalla Commissione europea e commentata in questo Symposium (d’ora innanzi, per brevità, la Proposta) affronta anche il problema del possibile utilizzo dell’intelligenza artificiale con finalità o modalità discriminatorie. L’obiettivo di minimizzare «il rischio di discriminazione algoritmica» è anzi un obiettivo specifico della Proposta, che è formulata tenendo espressamente conto dei principi affermati dalla Carta dei diritti fondamentali dell’Unione europea (in particolare, viene in rilievo l’art. 21 sul divieto di discriminazione) e tutto il corpus del diritto antidiscriminatorio prodotto dall’Ue prima e dopo l’entrata in vigore di questo catalogo fondamentale di diritti.

  1. Le disposizioni della Proposta di AI Act in materia di divieto di discriminazione

In primo luogo, nel considerando 17, la Proposta considera gli strumenti di «punteggio sociale» assegnato ai cittadini dai governi, con riferimenti ai quali si rileva, tra le altre cose, che «possono portare a risultati discriminatori […] [e]ledere il diritto alla dignità e alla non discriminazione»: per questa ed altre ragioni se ne propone il divieto tout-court. Nel prosieguo, la Proposta considera invece delle possibili applicazioni dell’intelligenza artificiale da ritenersi «ad alto rischio».

In generale, l’impatto sul diritto a non essere discriminati è uno dei criteri che dovrebbero indurre a classificare un sistema di IA come appunto «ad alto rischio», con il conseguente assoggettamento al rispetto di «determinati requisiti obbligatori» (considerando 27). Questo concetto viene ribadito nel considerando 33, dove si qualificano i «sistemi di IA destinati all’identificazione biometrica remota delle persone fisiche», sia “in tempo reale” sia “a posteriori”, come ad alto rischio.

La Proposta considera poi l’impiego di strumenti di intelligenza artificiale nella scelta dei candidati ad accedere a scuole e alti istituti di formazione, nonché nel contesto dei rapporti di lavoro: per la Proposta, si tratta anche in questo caso di attività «ad alto rischio», tra le altre cose perché potrebbero «perpetuare modelli storici di discriminazione» (considerando 35 e 36).

Parimenti ad alto rischio, per le stesse ragioni, va considerato l’uso dell’intelligenza artificiale per condizionare l’accesso a prestazioni e servizi pubblici di assistenza, così come a servizi privati di grande importanza come il credito(considerando 37).

Ma possibili esiti discriminatori dell’applicazione dell’intelligenza artificiale vengono riscontrati anche sul versante di attività tipiche dei governi come il controllo dell’ordine pubblico, le indagini e i procedimenti penali («attività di contrasto», «law enforcement», nella versione inglese) o la «gestione della migrazione, dell’asilo e del controllo delle frontiere» (considerando 38 e 39).

Nei considerando tra 44 e 47 si aggiungono poi delle considerazioni su come evitare che i sistemi di intelligenza artificiale qualificati come ad alto rischio comportino effettivamente un aumento delle discriminazioni, che si possono ricondurre all’obiettivo che gli attori interessati impieghino dati di “elevata qualità”.

L’articolato normativo proposto non contiene poi però riferimenti espressi al principio di non discriminazione, che compaiono solo nell’allegato IV, relativo ai contenuti minimi della documentazione tecnica prevista come obbligatoria dall’art. 11 della Proposta per tutti i sistemi di intelligenza artificiale ad alto rischio. Tra gli elementi su cui dovrà essere espressa una valutazione vi sono appunto «gli impatti potenzialmente discriminatori» e il «rischio di discriminazione».

  1. Una prima valutazione

Ciò che appare evidente da questa prima lettura delle norme è che la Proposta copre indifferentemente l’impiego di attività pubbliche e private. A me pare che questa scelta di accomunare soggetti pubblici e privati costituisca una debolezza di fondo dell’impianto della Proposta, che unisce sotto un’unica disciplina realtà che rimangono incommensurabilmente distinte, e come tali dovrebbero essere trattate dal diritto.

Non sembra infatti che possano essere equiparati, anche sotto il profilo specifico dei possibili risvolti discriminatori considerato in questo breve scritto, l’impiego dell’intelligenza artificiale da parte dei governi per profilare le persone a vario titolo, condurre indagini penali o effettuare previsioni sulla commissione futura di reati, da un lato, e dall’altro quello da parte di società private nell’erogazione di mutui o nella selezione di candidati da assumere per un incarico lavorativo.

L’impiego di sistemi di intelligenza artificiale da parte dei governi appare effettivamente fonte di considerevoli preoccupazioni e richiede certamente una limitazione ad opera del diritto, anche per via dei possibili risvolti discriminatori da neutralizzare, fermo restando che, di per sé, gli algoritmi possono anche essere utilmente impiegati per portare allo scoperto forme nascoste di discriminazione[1].

A differenza di quanto sostenuto dalla vasta maggioranza dei commentatori[2], a me appare tutta diversa la questione quando queste tecniche vengano impiegate da imprese private. In questo caso, sembra venire in questione la libertà contrattuale di queste ultime, che appare dover essere difesa anche là dove si traduca in scelte motivate da intenti discriminatori, che per quanto abietti ritengo debbano sfuggire a sindacato giurisdizionale[3].

Chiaramente gli strumenti di intelligenza artificiale sono in grado di amplificare “pattern” discriminatori altrimenti confinati entro un limite più ristretto, moltiplicandone l’impatto magari ben oltre la volontà o la consapevolezza stessa di chi li ha predisposti e di chi ne fa uso; tuttavia, anche a non voler adottare una prospettiva ideologica volta a dare priorità alla libertà di scelta del contraente in quanto tale, l’analisi economica del diritto sembra condurre ad analoghe conclusioni in termini di policy ragionando sul piano dell’efficienza. Come già sostenuto autorevolissimamente da Epstein in un importante volume di cui ricorre nel 2022 il trentennale dalla prima pubblicazione[4], il mercato appare cioè dotato degli strumenti per porre rimedio a questi comportamenti, penalizzando alla lunga le imprese che discriminano senza valido motivo e premiando quelle aperte ad entrare in relazioni contrattuali con qualunque soggetto, senza distinzioni per appartenenza.

  1. Un necessario supplemento di riflessione

In definitiva, quale che sia l’opinione sulla necessità, testé sostenuta, di riaffermare l’antitesi primigenia tra pubblico e privato, oggi superata all’insegna della trionfante Drittwirkung, la Proposta solleva in ogni caso la perenne questione della necessità o meno di introdurre regole specifiche per le nuove tecnologie. Da questo punto di vista, appare doveroso convenire sul fatto che il vasto corpus del diritto antidiscriminatorio già oggi vieta ai governi, com’è giusto che sia, di discriminare nel condurre indagini penali o erogare servizi pubblici, e che l’intelligenza artificiale è semplicemente un nuovo strumento a loro disposizione, per quanto potenzialmente molto pervasivo sul piano quantitativo, ma che non determina di per sé innovazioni qualitative sulla natura ed estensione dei pubblici poteri. D’altro canto, per quanto dalla prospettiva qui adottata l’estensione ai privati dei divieti antidiscriminatori appaia criticabile, è un fatto che essa fa parte del diritto positivo di molti ordinamenti occidentali da decenni, e pertanto sembrano esserci già oggi tutti gli strumenti per perseguire tutte quante le discriminazioni contrattuali, senza necessità di nuove previsioni per incorporare quella che è semplicemente una nuova modalità in cui esse possono essere declinate, per quanto dirompente.

È vero che l’articolato normativo della Proposta non contiene previsioni specifiche di nuovi divieti discriminatorio, se non come detto nell’allegato sulla documentazione tecnica, ma appaiono in ogni caso eccessivi i riferimenti al principio di non discriminazione nel (tentare di) giustificare l’esigenza di una nuova regolamentazione per i sistemi di intelligenza artificiale «ad alto rischio».

*Riccardo de Caria, Professore Associato presso l’Università di Torino.

[1] Cfr. J. Kleinberg – J. Ludwig – S. Mullainathan, C. R Sunstein, Discrimination in the Age of Algorithms, in Journal of Legal Analysis, 2018, 113 ss.; B. Heinrichs, Discrimination in the age of artificial intelligenceAI & Society, 1, 2022, 143 ss.

[2] Cfr. l’ottima analisi di D. Imbruglia, L’intelligenza artificiale (IA) e le regole. Appunti, in Medialaws. Rivista di diritto dei media, 3, 2020, 18 ss.

[3] Ho avuto modo di argomentare più ampiamente questa tesi in R. de Caria, ‘Offers They Can’t Refuse’: Assessing the Impact on Business and Society At-Large of the Recent Fortune of Anti-Discrimination Laws and Policies, in Italian Law Journal, 2, 2021, 671 ss., cui faccio rinvio sul punto.

[4] R. Epstein, Forbidden Grounds: The Case Against Employment Discrimination Laws, Cambridge, MA, 1992. Ad essere “proibite”, forbidden, appaiono oggi più che altro le tesi stesse di questo lavoro, purtroppo poco conosciuto.

Share this article!
Share.

About Author

Leave A Reply