- AI: un tertium genus di personalità giuridica?[1]
In questi ultimi decenni l’efficacia delle norme giuridiche è stata spesso condizionata dal rapido sviluppo tecnologico che ne ha messo in discussione l’idoneità e la portata. In particolare, l’avvento della industria 4.0 ha inasprito il già complicato rapporto tra diritto e tecnica. Infatti, appare più che evidente la necessità di comprendere fino a che punto le norme possano ritenersi di flessibile interpretazione, per non crearne nuove, e se queste siano in grado di rispondere alle esigenze di risarcimento del danno causato dalle macchine[2].
In primo luogo, è necessario comprendere i termini della questione: i progressi tecnologici dell’ultimo decennio hanno portato a ripensare l’idoneità delle macchine intelligenti ad essere considerate come meri oggetti nelle mani di terzi[3].
Oggi, infatti, lo sviluppo di determinate caratteristiche autonome e cognitive le ha rese sempre più simili ad agenti indipendenti, capaci di interagire con l’ambiente esterno, di modificarlo e di prendere decisioni a prescindere da un’influenza terza[4].
Alla luce di ciò, ci si interroga, quindi, sulla possibilità di considerare i robot come soggetti di diritto e sull’eventuale necessità di creare una nuova categoria, la personalità elettronica, con caratteristiche specifiche e implicazioni proprie[5].
Da un punto di vista giuridico si tratta di stabilire se questo tertium genus debba essere sviluppato sul modello delle persone fisiche, attribuendo ad esse sia doveri che diritti, o sul modello di soggetti privi di responsabilità giuridica, eventualmente attribuendo ad essi soltanto doveri[6].
Questa linea di pensiero non è unanimemente accettata da chi vorrebbe ricondurre la personalità elettronica al modello delle persone giuridiche, poiché implicherebbe l’esistenza di soggetti idonei a rappresentarla e dirigerla (ipotesi da escludere nel caso dei robot), né da chi vorrebbe invece ricondurla al modello delle persone fisiche poiché questo comporterebbe il rischio etico di umanizzare eccessivamente i dispositivi robotici[7]. È pacifico, infatti, che specifici doveri e responsabilità di tipo personalistico sono attribuibili ad entità quali associazioni e comitati (un esempio è il d.lgs. 231\2001), ma è sul piano della prevedibilità in capo agli stessi di diritti, che sorgono i maggiori problemi etici e giuridici[8].
Personificare significa mutare da “res” a “esse” e condizione di ciò è possedere una autocoscienza di tipo umano, secondo cui la macchina è in grado non solo di capacità cognitive, ma anche emotive[9]. I rischi etici di un tale approccio sono evidenti, poiché pongono il serio interrogativo in merito a cosa caratterizzi davvero l’uomo: è sufficiente la capacità di pensare ed emozionarsi? E inevitabilmente, ammettendo il paragone uomo-macchina di stampo post-umanista[10], si finirebbe per frazionare, riducendola, la soggettività umana, distinguendo intelletto, volontà e passione[11].
A queste stesse conclusioni giungono anche coloro i quali reputano l’intelligenza artificiale un mero processo che si limita a riprodurre l’abilità del pensiero umano, imitandone le capacità di apprendimento e di generalizzazione necessarie per assumere decisioni. Secondo questa interpretazione, dunque, le macchine non svolgerebbero un’azione sufficientemente originale e indipendente tale da poterle considerare come centro autonomo di imputazione giuridica[12].
Attualmente la questione è ancora aperta in quanto le macchine intelligenti, pur essendo capaci di autonomia decisionale e comportamentale, non possono essere identificate con un’unica definizione che le accomuni tutte, indistintamente, bensì devono essere tenuti in considerazione vari aspetti come la natura del robot, l’ambiente in cui opera, il tipo di controllo che l’uomo esercita su di esso[13].
Dunque, conservando un grado di imprevedibilità e unicità dipendente da molti fattori, tra i quali anche quelli sopra elencati, non sembrerebbe opportuno riempire di significato la nozione di personalità elettronica, che risulterebbe non adeguata a tutte le varie tipologie di macchine intelligenti[14].
- Modelli di riferimento applicabili
Nei primi anni Novanta, la diffusione del fenomeno della rete e, conseguentemente, della robotica pose i giuristi dinanzi a due ordini di problemi: in primo luogo, uno di natura filosofica relativo alla possibilità che queste nascenti macchine intelligenti avrebbero potuto superare la dicotomia cosa-persona ed ottenere una tutela soggettiva; in secondo luogo, si è posta una questione più pratica relativa alla consapevolezza della possibile sostituzione della macchina all’uomo[15].
Dunque, il tema dell’intelligenza artificiale risulta da sempre un tema centrale attorno al quale ruota l’attenzione degli studiosi del diritto, i quali tentano di descrivere ed inquadrare il fenomeno oggi oggetto di tanta discussione, e vagliare le implicazioni logico-giuridiche delle nuove applicazioni tecnologiche. La fine di questi approfondimenti, per una dottrina minoritaria può auspicarsi solamente intervento del legislatore[16], mentre, per la dottrina maggioritaria le norme attuali possono trovare applicazione, reinterpretate alla luce de nuovi fenomeni, quindi considerate sufficienti a soddisfare i problemi giuridici sollevati dall’intelligenza artificiale[17].
Quello che è certo è che un quadro normativo organico e puntuale può determinare maggiore chiarezza rispetto ai doveri e alle responsabilità degli attori coinvolti nel processo di innovazione. Tale approccio trova conferma nella Risoluzione del Parlamento Europeo del 16 Febbraio 2017[18], la quale reca raccomandazioni alla Commissione riguardanti le norme civile sulla robotica[19]. Il Parlamento ha voluto anticipare i parlamenti nazionali, elaborando una disciplina armonizzata il più possibile da renderla unica in tutti gli Stati Membri.
Dalla Risoluzione del 2017, però, se da un lato si è cercato di ridurre la distanza tra intelligenza artificiale e robot, d’altro canto è risultata evidente l’esigenza di regolamentare l’uso dei robot nelle attività industriali, come anche nella vita privata. In particolare, dai “Considerando” della Risoluzione, emerge la volontà del Legislatore europeo di affrontare le diverse implicazioni giuridiche relative alla responsabilità civile per i possibili danni causati dai robot e dall’intelligenza artificiale nell’interazione dell’uomo[20].
A livello nazionale, l’analisi del tema in questione è resa particolarmente complessa dal fatto che è necessario rivisitare le norme giuridiche già esistenti nell’ordinamento e che i dispositivi in esame – e le attività ad essi connesse – sono del tutto innovativi. Ci si interroga dunque se, a fronte di questi scenari emergenti, le normative tradizionali, dunque le nostre norme codicistiche, siano idonee ed in grado di risolvere le questioni oggetto d’esame in questa trattazione[21].
Bisogna analizzare in primo luogo quali possano essere le fattispecie ricollegabili alla responsabilità civile per danno da intelligenza artificiale. La dottrina maggioritaria, interpretando norme codicistiche, identifica che questa responsabilità potrebbe produrre esiti soddisfacenti con riferimento alla responsabilità oggettiva (come anche già immaginato nella Risoluzione del Parlamento del 2017), intesa come responsabilità contrapposta a quella per colpa[22]. In questo caso, è sufficiente dimostrare danno e connessione causale tra questo e il funzionamento che lo ha generato ed una complessa valutazione dei rischi e della capacità di controllo da parte “persona che, in determinate circostanze, è in grado di minimizzare i rischi e affrontare l’impatto negativo” (punto 55)[23] dell’intelligenza artificiale[24].
Il primo confronto che risulta utile è tra l’art. 2050 c.c. e l’art. 2051 c.c.: il primo si riferisce alla responsabilità per l’esercizio di attività pericolose, il secondo riguarda la responsabilità del danno cagionato da cose in custodia: in entrambi i casi la prova liberatoria sta nel provare che si sono adottate tutte le misure idonee ad evitare il danno.
Partendo dalla disciplina dell’art. 2050 c.c., la cui norma enuncia che l’esercizio di attività pericolose o in sé rischiose è fonte di responsabilità per i danni eventualmente causati a terzi[25], un caso rientrante in questa disciplina potrebbe essere Justin, robonauta che si muove sotto la supervisione di un operatore attivo che lo guida, per cui chi ci vede un’attività pericolosa, riconduce l’eventuale danno alla fattispecie del 2050 c.c.
È anche da considerare, però, che l’intelligenza artificiale è stata considerata addirittura più affidabile dell’uomo, al punto da poter sostituire quest’ultimo alle funzioni di sorveglianza oppure come mezzo correttivo, per cui sarebbe contraddittorio in questi casi parlare di “pericolosità” della macchina, anzi si potrebbe parlare di un ente non pericoloso poiché in grado di evitare inconvenienti che senza il suo intervento si sarebbero verificati[26]. Ciò premesso non è possibile comunque considerare le macchine come “perfette” o esenti da falle, infatti esiste un limite negativo alla perfezione, una “zona d’ombra” nella quale la macchina può divenire un ente impreparato a governare le sue azioni[27].
Spazio importante può trovare altresì l’art. 2051 c.c., la fattispecie analizzata dalla norma si riferisce ad un danno causato da una cosa inanimata, e ciò delimita la responsabilità aquiliana ex art. 2043 c.c.[28]. A questo punto bisogna verificare se l’intelligenza artificiale possa essere considerata come una “cosa” rientrante nella fattispecie in questione. Una decisione che può risultare utile a rispondere al nostro quesito è la sentenza della Cassazione, n. 7361 del 15 marzo 2019, la quale chiarisce che il danno proveniente dall’omesso controllo o la carente osservazione della cosa in custodia sia un difetto di azione umana “da rendere la circostanza scalfibile non solo dall’ineluttabile”.
Questa fattispecie può essere applicabile nel caso di Robonaut2, robonauta che si sostituisce agli astronauti in situazioni troppo pericolose per l’uomo: esso, senza intervento dell’attività umana, può provocare danni direttamente con la sua azione. Questo caso può essere ricondotto alla fattispecie del 2051 c.c. in quanto la responsabilità è del custode, inteso non come il proprietario o il possessore, bensì come colui che in quel momento ha il controllo della cosa e potrebbe prevenire il danno, salvo caso fortuito[29].
D’altro canto, la disciplina non è lineare, infatti è necessario anche considerare chi non ritiene l’intelligenza artificiale una “cosa”, o meglio ritiene che il livello tecnologico dell’AI ed il suo contenuto standard non aderisca alla realtà del Codice Civile, ancora legato al concetto di forza, anche se incrementato dalle macchine[30]. Per tale motivo, se l’AI si identifica con l’agente, le sue capacità di muoversi e di operatività, benché predisposte dal programmatore, non rimandano alla disciplina della custodia[31].
La responsabilità ex art. 2051 c.c. si rivela in linea anche con la disciplina dell’articolo successivo, 2052 c.c. in ambito di danni cagionati da animali ed imputabili al loro proprietario, sia che si trovino sotto la sua custodia, sia che siano fuggiti o smarriti, salvo caso fortuito.
L’asimmetria si basa sul fatto che la cosa dotata di intelligenza artificiale possa rispondere, per analogia, secondo gli stessi criteri stabiliti per la responsabilità da intelligenza animale[32].
Alcuni attori, invece, considerano la differenza sostanziale tra animali, che sono esseri irrazionali e imprevedibili, e AI che sono prive di queste caratteristiche poiché, se fosse al contrario, potrebbero porre in essere azioni per le quali non sono programmati[33].
Infine, a parere di chi scrive, la differenza tra le fattispecie degli articoli 2051 c.c. e 2052 c.c. non è sostanziale, né tantomeno rilevante ai fini della risoluzione della disputa riguardante la responsabilità da macchine intelligenti in quanto, sia che il danno sia cagionato da cosa in custodia, oppure da animali, la responsabilità ricade sempre sul custode.
- Quale responsabilità civile?
Abbandonata quindi la possibilità di istituire un tertium genus di personalità giuridica si rende necessario il ricorso ad istituti giuridici già esistenti, al fine di configurare una responsabilità in caso di danno cagionato da un prodotto dotato di intelligenza artificiale.
Sono state già illustrate le ipotesi di responsabilità ai sensi dell’articolo 2050 cc e seguenti[34]. Alternativamente, è stato proposto un approccio alla responsabilità basata sulla gestione dei rischi, secondo cui “responsabile non sarebbe il soggetto negligente, in quanto responsabile a livello individuale, bensì colui che in determinate circostanze sia in grado di minimizzare i rischi e affrontare l’impatto negativo”[35]. Individuato come tale è il produttore del prodotto difettoso ai sensi della Direttiva 85/374/CEE.
In ultimo, è stata ipotizzata la creazione di sistemi assicurativi e fondi di garanzia finalizzati a risarcire i danni originati dall’AI. Di seguito si illustreranno le diverse alternative sopra elencate.
3.1 Responsabilità da prodotto difettoso
La disciplina contenuta della Direttiva 85/374/CEE, attuata in Italia con il D.P.R. n. 224/1988, poi confluito nell’attuale Codice del Consumo (D.lgs.. 206/2005[36]), regola le ipotesi di responsabilità per product liability. La stessa è sembrata adeguata a disciplinare anche i danni causati da una AI il cui difetto determina un output dannoso, sebbene non pochi dubbi siano sorti in merito all’ idoneità della direttiva sopra citata ad essere strumento adeguato di regolazione, poiché l’imprevedibilità della AI sembra sfuggire alle definizioni di prodotto e difetto presupposto della disciplina[37].
Il soggetto che lamenta un danno è, ai sensi della Direttiva, chiamato a dimostrare la difettosità del prodotto, il pregiudizio patito ed il nesso di causalità tra quest’ultimo ed il difetto, tanto basta a configurare una responsabilità oggettiva in capo al produttore del prodotto, poiché si prescinde dalla prova di alcun elemento soggettivo di dolo o di colpa[38]. Dal canto suo il produttore si libera solamente provando uno degli elementi di cui all’articolo 7 della suddetta direttiva[39], di cui il più importante è il “rischio da sviluppo”, ai sensi del quale il difetto che ha causato il danno non era prevedibile al momento della messa in circolazione del prodotto o sia sorto successivamente.
Con riferimento allo smart product, al produttore dello stesso dovrebbe essere precluso di poter beneficiare di tale esenzione, laddove si dimostri che questi abbia il controllo anche da remoto del prodotto e dei relativi aggiornamenti e ove sia prevedibile, in ragione della natura del prodotto e degli algoritmi che ne guidano il funzionamento, che il bene sviluppi delle condotte non programmate al momento della sua messa in circolazione[40]. Applicando la disposizione al tema dell’AI è chiaro che quindi il produttore non possa invocare il “rischio da sviluppo” qualora insorga un comportamento deviante del prodotto che incorpora l’algoritmo[41].
Al consumatore è altresì garantita la possibilità di rivolgersi, in caso di danno, anche al programmatore dell’algoritmo che governa il prodotto. L’algoritmo, infatti, nelle macchine self-learning è preposto ad impartire degli ordini responsabili del funzionamento della AI, quindi è proprio dall’algoritmo che trae origine il comportamento anche dannoso del prodotto. Ciò sembra sufficiente a configurare una responsabilità solidale, con quella del produttore del bene ultimo, del programmatore dell’algoritmo, potendo quindi il consumatore, rivolgersi alternativamente all’uno o all’altro[42].
Ciò è possibile grazie ad una interpretazione che riconduce l’algoritmo a componente del prodotto finale, potendo estendere quindi allo stesso la definizione di prodotto data dalla Direttiva 85/374/CEE all’articolo 2[43].
Sembrerebbero invece soggetti esclusi dalla posizione di garanzia sopra delineata il trainer ed il fornitore dei trainer data, in quanto gli stessi forniscono un mero servizio e come tale non sembrerebbe da ricomprendersi nell’ambito di applicabilità della direttiva che limita la responsabilità al produttore del bene finito o di singole parti di esso, e concordemente ad una interpretazione estensiva delle norme sopra esposta, anche al programmatore dell’algoritmo[44].
Il trainer svolge un ruolo significativo poiché impartisce le istruzioni affinché la macchina sia in grado di auto-apprendere; in altri termini in questa fase la macchina “allena” se stessa a sviluppare i meccanismi su cui ella apprenderà. Questo processo di apprendimento iniziale si fonda su dei dati che vengono forniti alla macchina dal trainer data, ma questi, unitamente al trainer, pur svolgendo un compito di fondamentale importanza per il funzionamento della AI, fornisce un servizio non classificabile come “componente” del prodotto, e di conseguenza resta esclusa la responsabilità dello stesso ai sensi della Direttiva[45].
3.2 Sistemi assicurativi e fondo di garanzia
A fronte della difficoltà del soggetto leso di ottenere un risarcimento effettivo per i danni subiti, spesso ingenti, è stata proposta in sede europea l’introduzione di un’assicurazione per la responsabilità civile obbligatoria da parte di chi produce il bene che ha provocato il danno, in modo da evitare insolvenze[46].
Le obiezioni a questa prospettiva si dirigono verso una difficoltà di individuare ex ante i rischi connessi alle nuove tecnologie e conseguentemente al calcolo dei premi assicurativi. Ciò potrebbe avere come conseguenza anche l’inibire lo sviluppo di nuovi prodotti intelligenti, poiché imporrebbe come condizione per l’immissione nel mercato un’assicurazione a fronte di rischi ignoti che le società assicurative difficilmente sarebbero disposte a stipulare[47].
La soluzione offerta in sede europea è quella di ipotizzare una limitazione del risarcimento ad un importo determinato ovvero prevedere una copertura per le sole tecnologie che potrebbero produrre danni maggiori che, proprio per la loro portata, il soggetto obbligato non sarebbe stato in grado di adempiere da solo[48].
Alternativamente si pensa alla costituzione di un fondo di garanzia in modo da ripartire gli oneri economici su tutti i soggetti coinvolti, quali produttore, proprietario e utente, Nel caso in cui questi non siano identificabili, lo Stato sarebbe chiamato a partecipare affinché la vittima sia risarcita[49]. La possibilità di istituire un fondo crea però nuovamente il problema se sia possibile o meno istituire una personalità elettronica in capo alla macchina, attraverso cui renderla responsabile e quindi titolare del fondo[50]. E pur ammettendo quest’ultima possibilità, i soggetti lesi non sarebbero avvantaggiati, in quanto si circoscriverebbe la responsabilità al limitato patrimonio dell’AI a fronte dell’illimitata e cumulativa responsabilità patrimoniale dei soggetti coinvolti, quali produttore, fabbricante, custode e così via[51].
- Cenni all’esperienza Americana (A Local Law on automated decision system used by agencies)
Il rappresentante del Bronx City nel Consiglio della città di New York, James Vacca, è riuscito a far approvare una legge molto importante in materia di responsabilità di AI, la Legge n. 49 del 2018[52].
L’introduzione della stessa si è resa necessaria a causa della pervasività con cui gli strumenti di AI sono entrati nella vita pubblica e privata dei cittadini. In particolare, è stato dimostrato che l’uso delle stesse nel supporto all’attività burocratica incorreva spesso in bias razziali e quindi discriminatori[53].
Il pregio della nuova normativa è quello di istituire una task force cui è affidato il compito di mappare l’utilizzo che delle AI è fatto all’interno del Municipio di New York ed elaborare delle raccomandazioni al fine di rendere trasparente il meccanismo utilizzato e quindi prevenire i problemi giuridici e sociali derivanti da un corretto uso dei predetti mezzi[54].
La task force, formata da esperti in materia informatica e funzionari amministrativi, ha promosso forum pubblici al fine di rendere edotta la popolazione sull’utilizzo di detti sistemi di AI e quindi garantirne la trasparenza. La stessa ha anche previsto delle modalità per consentire di ottenere il risarcimento per danni causato da una AI, attribuendo quindi alla stessa una sorta di personalità giuridica[55].
[1] Il presente elaborato costituisce il primo di una serie di tre articoli di approfondimento sul tema dell’intelligenza artificiale, realizzato, nell’ambito del progetto AdLab, da alcuni studenti dell’Università LUISS Guido Carli con il supporto dello studio legale Portolano Cavallo. Per un ulteriore approfondimento sul fenomeno AI, con particolare riguardo alle sue implicazioni in ambito privacy e data protection e al suo impiego come strumento di supporto alle attività operate da giudici e avvocati nel settore giudiziario, si rimanda ai prossimi due articoli della serie.
[2] Alpa, Diritto e intelligenza artificiale. Profili generali, soggetti, contratti, responsabilità civile, diritto bancario e finanziario, processo civile, Pacini Editore, 2020.
[3] Risoluzione del Parlamento Europeo del 16 febbraio 2017 recante raccomandazioni alla Commissione concernenti norme di diritto civile sulla robotica (2015/2103(INL)), 3ss.
[4] Ibid.
[5] Commissione Affari Legali del Parlamento Europeo, Artificial Intelligence and Civil Liability, 14 luglio 2020. (http://www.europarl.europa.eu/supporting-analyses), 34ss. Infantino, La responsabilità per danni algoritmici: prospettive europeo-continentali, in Responsabilità Civile e previdenza, 2019, p1776. Su questo aspetto cfr. Marini -Aprea, Le guidelines on regulating robotics: una sfida per il diritto dell’Unione, in Osservatorio sul diritto della bioetica, 2015. Gli Autori segnalano come «Le tecnologie riconducibili alla nozione di robot, (…), sono molteplici e differenziate: a fronte di “macchine” in grado di svolgere esclusivamente mansioni esecutive, vi sono robot dotati di capacità cognitive ed in grado di interagire con l’uomo e l’ambiente in cui sono introdotti (le c.d. macchine “intelligenti”). Ed è evidente che le questioni più complesse, anche sul piano giuridico, riguardano proprio la categoria dei robot cognitivi, i cui comportamenti, oltreché imprevedibili ed imprevisti (tanto dal produttore quanto dall’utilizzatore), potrebbero condurre al riconoscimento, in capo a detti robot, di una autonoma personalità giuridica»
[6] Alpa, Diritto e intelligenza artificiale. Profili generali, soggetti, contratti, responsabilità civile, diritto bancario e finanziario, processo civile, Pacini editore, 2020.
[7] Posizione espressa da un gruppo di intellettuali provenienti dal mondo del diritto, dell’etica e della tecnologia, i quali attraverso una lettera aperta, indirizzata alla Commissione Europea, esprimono la preoccupazione del mondo scientifico per le conseguenze negative di un approccio allo status giuridico per i robot nell’Unione europea (http://www.robotics-openletter.eu/ ) ; Palmerini, Robotica e diritto: suggestioni, intersezioni. Sviluppi a margine di una ricerca europea, in Responsabilità Civile e previdenza, 2016, p. 1819, la quale precisa come «parallelamente alla diffusione di diversi tipi di applicazioni robotiche e al loro impiego in numerosi settori, ma soprattutto in vista dell’introduzione in contesti di vita quotidiana, emergono anche preoccupazioni di ordine etico e giuridico».
[8] Ruffolo, La “personalità elettronica”, in Intelligenza artificiale: il diritto, i diritti, l’etica, Giuffrè, 2020, 214 ss.
[9] Ibid.
[10] Peppered, The Posthuman Manifesto, in Kritikos, 2015.
[11] Moro, Macchine come noi: Natura e limiti della soggettività robotica, in Intelligenza artificiale: il diritto, i diritti, l’etica, Giuffrè, 2020, 45 ss.
[12] Alpa, Diritto e intelligenza artificiale. Profili generali, soggetti, contratti, responsabilità civile, diritto bancario e finanziario, processo civile, Pacini Editore, 2020. Sul punto anche: Nevejeans (2016), European civil rules in robotics, Publications Office of EU., 2016, 14-16. «When considering civil law in robotics, we should disregard the idea of autonomous robots having a legal personality, for the idea is as unhelpful as it is inappropriate […] From a scientific, legal and even ethical perspective, it is impossible today – and probably will remain so for a long time to come – for a robot to take part in legal life without a human being pulling its strings […]. Doing so risks not only assigning rights and obligations to what is just a tool, but also tearing down the boundaries between man and machine, blurring the lines between the living and the inert, the human and the inhuman».
[13] Bisol – Carnevale – Lucivero, Diritti umani, valori e nuove tecnologie. Il caso dell’etica della robotica in Europa. Metodo, in International Studies in Phenomenology and Philosophy, 2014, p. 248ss. «…una comprensione profonda della tecnologia robotica, prima di tutto da un punto di vista tecnico, ma anche rispetto a una prospettiva che nel suo insieme può essere definita fenomenologica. Per un’analisi etica accurata, infatti, devono essere tenuti in considerazione aspetti quali la natura del robot (automa, sistema bionico ibrido); i compiti che è in grado di svolgere (navigazione, locomozione, manipolazione), l’ambiente in cui è in grado di operare, il tipo di controllo che l’uomo esercita sul robot durante il suo funzionamento (robot autonomo, automatico, teleoperato). Sono inoltre rilevanti criteri come l’interazione tra uomo e robot (fisica, non fisica, puntuale o continua, invasiva o non invasiva), il rapporto di utenza e infine il grado di prossimità del robot, che può operare entrando o non entrando in contatto con l’essere umano. Fondamentale è inoltre comprendere in quale contesto lavorativo o sociale e per quali fini viene impiegato il robot: le tecnologie robotiche possono essere utilizzate, per esempio, nell’industria, in contesto medico-sanitario […]».
[14] Risoluzione del Parlamento europeo del 16 febbraio 2017 recante raccomandazioni alla Commissione concernenti norme di diritto civile sulla robotica (2015/2103(INL)),5ss; sul punto anche: Commissione Affari Legali del Parlamento Europeo, Artificial Intelligence and Civil Liability, 14 July 2020. (http://www.europarl.europa.eu/supporting-analyses), 35ss.
[15] Coppini, Robotica e intelligenza artificiale: questioni di responsabilità civile, in Riv. Il Mulino, 2018, 713 ss.
[16] Finocchiaro, Intelligenza artificiale e responsabilità, in Riv. BolognaForense, 2020.
[17] Intelligenza artificiale e imaging diagnostico – Implicazioni per il TSRM, Giornata mondiale della radiologia 8 novembre 2020, https://www.congressonazionaletsrm.it/wp-content/uploads/2020/11/Intelligenza-artificiale-e-TSRM-8-novembre-2020-FNO-TSRM-e-PSTRP.pdf.
[18] Risoluzione del Parlamento europeo del 16 febbraio 2017 recante raccomandazioni alla Commissione concernenti norme di diritto civile sulla robotica (2015/2103(INL)).
[19] Coppini, Robotica e intelligenza artificiale: questioni di responsabilità civile, cit. 715 ss.
[20] Alpa, Diritto e intelligenza artificiale. Profili generali, soggetti, contratti, responsabilità civile, diritto bancario e finanziario, processo civile, Pacini Giuridica, 2020.
[21] Santosuosso, Boscarato, Caroleo, Robot e diritto: una prima ricognizione, in Nuova Giurisprudenza civile commentata, 2012, 511 ss.
[22] Coppini, Robotica e intelligenza artificiale: questioni di responsabilità civile, cit. 722 ss.
[23] Punto 55 Risoluzione del Parlamento europeo del 16 febbraio 2017 recante raccomandazioni alla Commissione concernenti norme di diritto civile sulla robotica (2015/2103(INL)).
[24] Comandè, Intelligenza artificiale e responsabilità tra liability e accountability. Il carattere trasformativo dell’IA
e il problema della responsabilità in Riv. Il Mulino, 2019, 179 ss.
[25] Trimarchi, Rischio e responsabilità oggettiva, Milano, 1961, 35 ss.
[26] Costanza, L’Intelligenza Artificiale e gli stilemi della responsabilità civile, in Dottrina e attualità giuridiche – Intelligenza Artificiale e diritto, Giurisprudenza Italiana 2019, pag. 1687 ss.
[27] Ibid.
[28] Ibid.
[29] Coppini, Robotica e intelligenza artificiale: questioni di responsabilità civile, cit. 724 ss.
[30] Contrario all’applicazione dell’articolo 2051 c.c. è Sartor, Gli agenti software e la disciplina giuridica degli strumenti cognitivi, in Dir. Inf. e informatica, 2003, pp. 55 ss. Secondo l’autore questa norma renderebbe il robot inanimato, eludendo la funzione attiva intrinseca propria della macchina. Inoltre, sarebbe difficile definire i limiti entro i quali fosse possibile predicare una negligenza del custode, soprattutto di fronte comportamenti non prevedibili dall’utente.
[31] Costanza, L’Intelligenza Artificiale e gli stilemi della responsabilità civile, in Dottrina e attualità giuridiche – Intelligenza Artificiale e diritto, Giurisprudenza Italiana 2019, pag. 1687 ss.
[32] Ruffolo, Per i fondamenti di un diritto della robotica, in Id. (a cura di), Intelligenza artificiale e responsabilità, Milano, 2017, p. 15.
[33] Bertolini, Robots as Products: The Case for a Realistic Analysis of Robotic Applications and Liability Rules, in Law, Innovation and Technology, Vol. 5, 2013, pp. 227 ss.
[34] Vedi paragrafo 2.
[35] Punti 53-55 Risoluzione del Parlamento europeo del 16 febbraio 2017 recante raccomandazioni alla Commissione concernenti norme di diritto civile sulla robotica (2015/2103(INL)).
[36] In particolare agli artt. 114-127 del Titolo II, Parte IV.
[37] Comandé, Intelligenza artificiale e responsabilità tra liability e accountability. Il carattere trasformativo dell’IA e il problema della responsabilità, in Analisi giuridica dell’economia, 2019, I, 173.; Bortone – Buffoni, La responsabilità per prodotto difettoso e la garanzia di conformità nel codice del consumo, Giappichelli, 2007, p. 31.
[38] Benevento, in Responsabilità civile e previdenza, 2006, p. 858. Il produttore è responsabile dei danni cagionati da suoi prodotti che siano difettosi, prescindendo dalla prova dell’elemento di colpevolezza, ma solamente sulla base dell’allegazione probatoria, da parte del danneggiato, del danno, alla difettosità del prodotto e al nesso di causalità fra il danno incorso e l’esistenza del difetto. Si assiste a una oggettivazione del regime di responsabilità mediante l’introduzione di un’inversione dell’onere probatorio incorrendo sul produttore l’onere di provare una delle ipotesi di esclusione di responsabilità̀ di cui all’art. 118 c. cons., fra le quali, la piú importante, quella dei così detti «rischi da sviluppo».
[39] Art 7, Dir 85/374/CEE: Il produttore non è responsabile ai sensi della presente direttiva se prova:
a) che non ha messo il prodotto in circolazione;
b) che, tenuto conto delle circostanze, è lecito ritenere che il difetto che ha causato il danno non esistesse quando l’aveva messo in circolazione o sia sorto successivamente;
c) che non ha fabbricato il prodotto per la vendita o qualsiasi altra forma di distribuzione a scopo economico, né l’ha fabbricato o distribuito nel quadro della sua attività professionale;
d) che il difetto è dovuto alla conformità del prodotto a regole imperative emanate dai poteri pubblici;
e) che lo stato delle conoscenze scientifiche e tecniche al momento in cui ha messo in circolazione il prodotto non permetteva di scoprire l’esistenza del difetto;
f) nel caso del produttore di una parte componente, che il difetto è dovuto alla concezione del prodotto in cui è stata incorporata la parte o alle istruzioni date dal produttore del prodotto.
[40] High-Level Expert Group on Artificial Intelligence, Ethics Guidelines for Trustworthy Artificial Intelligence, 2019.
[41] Ruffolo, Intelligenza artificiale. Il diritto, i diritti, l’etica, Giuffrè, 2020, 130 ss.
[42] Ibid., sul punto anche: Corte Giust. UE, 21/12/11, C-495-10; Millar – Kerr, Delegation, relinquishment, and responsibility: The prospect of expert robots, in R. Calo, M. Froomkin, I. Kerr (eds.), 2016, p. 127; Risoluzione del Parlamento europeo del 16 febbraio 2017 recante raccomandazioni alla Commissione concernenti norme di diritto civile sulla robotica (2015/2103(INL)), punto AF.
[43] Art. 2 Dir 85/347/CEE: i fini della presente direttiva, per «prodotto» si intende ogni bene mobile, ad eccezione dei prodotti agricoli naturali e dei prodotti della caccia, anche se forma parte di un altro bene mobile o immobile. Per «prodotti agricoli naturali» si intendono i prodotti del suolo, dell’allevamento e della pesca, ad esclusione dei prodotti che hanno subito una prima trasformazione. Per «prodotto» si intende anche l’elettricità.
[44] Ruffolo, Le responsabilità da Artificial Intelligence,algoritmo e smart product: per i fondamenti di un diritto dell’Intelligenza Artificiale self-learning, in . Il diritto, i diritti, l’etica, Giuffrè, 2020.
[45] Ruffolo, Intelligenza artificiale. Il diritto, i diritti, l’etica, Giuffrè, 2020, 135 ss.
[46] Commissione Affari Legali del Parlamento Europeo, Artificial Intelligence and Civil Liability, 14 July 2020
[47] Expert Group on Liability and New Technologies – New Technology Formation. Report on Liability for Artificial Intelligence and other emerging digital technologies., 2019, 61-62.
[48] Ibid. sul punto anche: Tettamanti – Bar – Werz, Compulsory liability Insurance in a changing legal environment- an insurance and reinsurance prespective, De Gruyter, 2016.
[49] Expert Group on Liability and New Technologies – New Technology Formation. Report on Liability for Artificial Intelligence and other emerging digital technologies.,2019, 61-62; Risoluzione del Parlamento europeo del 16 febbraio 2017 recante raccomandazioni alla Commissione concernenti norme di diritto civile sulla robotica (2015/2103(INL)); sul punto anche: Commissione Affari Legali del Parlamento Europeo, Artificial Intelligence and Civil Liability, 14 July 2020. (http://www.europarl.europa.eu/supporting-analyses), 102ss.; Coppini, Robotica e intelligenza artificiale: questioni di responsabilità civile,cit. 20 ss.
[50]Coppini, Robotica e intelligenza artificiale: questioni di responsabilità civile, cit.,20. Vedi anche par 1.
[51] Ruffolo, La “personalità elettronica”, in Intelligenza artificiale: il diritto, i diritti, l’etica, Giuffrè, 2020, 214.
[52] N.Y Local Law 49 of 2018.
[53] Citron – Pasquale, The Scored Society: Due Process for Automated Predic- tions, in Wash, 2014, p. 19
[54] Sassi, Gli algoritmi nelle decisioni pubbliche tra trasparenza e responsabilità,in Il Analisi giuridica dell’economia,2019, 16ss.
[55] New York City Commission on Human Rights, Public Engagement Forum Automated Decision Systems Task Force, 30 aprile, 2019.