In data 28 ottobre 2022, presso gli uffici di Hoffmann Eitle S.r.l., si è tenuto il Convegno “Il Digital Single Market e l’Intelligenza Artificiale – Etica e Diritto nella transizione digitale”, organizzato da Gianluca Campus (Sky – Medialaws.eu) con la collaborazione di MediaLaws, dello studio Franzosi Dal Negro Setti with Muscolo e patrocinato da AIPPI e ALAI Italia.
Le sessioni del Convegno hanno rispettivamente analizzato tre delle principali tematiche legate all’utilizzo di sistemi di Intelligenza Artificiale (AI) e al mercato unico digitale, divenendo un importante momento di riflessione tra giuristi, economisti, sociologi, computer scientists, ed esperti del settore delle comunicazioni.
La mattinata dei lavori si è aperta con la sessione dedicata all’analisi dell’“AI e le sue implicazioni tecnologiche ed economiche”. Il dibattito, presieduto da Gabriella Vacca (CTO Sky Italia), ha messo in evidenza come l’AI sia una «modalità per fare software» che permette di affrontare problemi di predizione, percezione e classificazione che prima erano propri della sola mente umana. Più in particolare, i sistemi di AI vengono alimentati e funzionano sulla base di algoritmi prefissati, che prendono decisioni non sempre comprensibili e giustificabili da parte dell’uomo. In particolare, è emerso che l’AI, termine spesso inflazionato, pone dei quesiti in materia di liability e di fiducia, sia per quel che riguarda la sua programmazione sia per quel che riguarda l’utilizzo. Uno dei temi che ha interessato il confronto tra i Relatori è stato l’impatto sociale dell’AI, in particolare con riferimento ai possibili effetti dell’impiego delle predizioni nella vita quotidiana di ognuno. Proprio a tal riguardo, si è convenuto che assicurare una maggiore trustworthyness dell’AI sia la condizione necessaria per garantire un uso consapevole di questa tecnologia.
Gli interventi della prima sessione sono stati tenuti da Stefano Quintarelli (AI High Level Expert Group of the European Commission), Cosimo Accoto (Research affiliate MIT), Luigi Troiano (Università di Salerno) e Francesco Sacco (SDA Bocconi). Inoltre, nella discussione di chiusura del panel, sono intervenuti Andrea Bedoni (NTT Data), Ciro Gaglione (Sky), Eugenio Lateana (RTL 102.5), John Shehata (Studio Pirola, Pennuto, Zei & Associati), Fabio Schiera (Banca Monte dei Paschi di Siena) e Massimo Bertolotti (Sky Wifi).
Il secondo tema oggetto di analisi ha riguardato la definizione di “Regole etiche, giuridiche e processuali per l’AI”. Sotto la moderazione di Amedeo Santosuosso (Scuola Universitaria Superiore IUSS Pavia), sono state esaminate le aree del diritto precipuamente interessate dalla sfida regolatoria dell’AI, con particolare riguardo al contesto europeo. A partire, dunque, da una disamina della proposta di Regolamento sull’AI, ci si è interrogati circa la sua rispondenza al contemperamento tra l’esigenza di garantire lo sviluppo dei sistemi di AI nell’UE e quella di garantire il rispetto dei diritti fondamentali dei cittadini europei, tenuto anche conto dell’approccio risk based da essa perseguito. La struttura di governance più opportuna per l’AI, le sfide in termini di interoperabilità e qualità del dato, l’utilizzo dei common european data spaces, sono state talune delle tematiche affrontate nel panel. Come emerso dal confronto in merito alla tutela dei consumatori, si ritiene necessario definire dei meccanismi di redress che possa consentire ai cittadini una tutela più diretta dei loro diritti. La sfida parrebbe dunque consistere nel passaggio da un sistema di public enforcement ad un sistema di digital enforcement, in cui l’AI venga utilizzata a tutela dei diritti dei consumatori.
In aggiunta a quanto sopra, è stato illustrato come tali strumenti siano destinati a costituire una preziosa risorsa in termini di efficienza anche nel settore dell’amministrazione della giustizia. Tuttavia, in assenza di un quadro normativo chiaro la devoluzione ad algoritmi di decisioni potenzialmente lesive di diritti costituzionalmente garantiti sembra essere critica. In tale contesto, rivolgendo lo sguardo all’attività legislativa, la sfida più importante è quella di emanare norme che modellino il progresso tecnologico, senza attendere che sia quest’ultimo a tracciare lo sviluppo normativo. Pertanto, durante il convegno, si è convenuto sull’ormai urgente necessità di creare un modello tecnico –oltre che normativo – che detti le regole su come progettare simili tecnologie ed utilizzarle all’interno di una funzione dello Stato tanto importante per lo svolgimento della sua vita democratica.
Gli interventi della seconda sessione sono stati tenuti da Ginevra Bruzzone (Luiss School of European Political Economy), Enrico Maria Cotugno (AGCOM), Gabriella Romano (AGCM) e Francesca Fiecconi (Corte di Cassazione). Inoltre, nella discussione di chiusura del panel, sono intervenuti Nicola Infante (LUISS Carlo Guidi), Mattia Salerno (Studio Pirola, Pennuto, Zei & Associati), Valerio Bruno (Accenture), Raffaele Giarda (Baker McKenzie), Gianluigi Marino (Osborne Clarke) e Stefano Mele (Gianni & Origoni).
La sessione conclusiva del Convegno ha riguardato un altro cruciale aspetto su cui si appunta l’intersezione tra diritto e tecnologia: “l’AI e impatti sul sistema di proprietà intellettuale”. La moderazione, in questo caso, è stata affidata a Mario Franzosi (University of Washington – Studio Franzosi Dal Negro Setti with Muscolo). Il principale oggetto dell’indagini ha riguardato la brevettabilità dei sistemi di AI in prospettiva internazionale.
In particolare, è stata illustrata la prassi dei principali Uffici brevettuali internazionali in relazione alle domande di brevetto aventi ad oggetto prodotti e/o processi di AI, evidenziando come tale prassi tenda a porre un ostacolo formale alla concessione di detta privativa ove venga designato come titolare della domanda brevettuale il sistema di AI stesso, in luogo di una persona fisica o giuridica.
È stato poi affrontato il tema della trasparenza, tanto degli out-put generati da sistemi di AI, quanto dei mezzi impiegati per ottenerli e/o realizzarli.
Sul punto, nell’ottica dell’incentivazione dello sviluppo delle nuove tecnologie, sono stati offerti spunti anche per la previsione di una tutela brevettuale ad hoc, nello specifico per quei sistemi di AI particolarmente complessi (noti come deep learning) per i quali è oltremodo difficile (se non impossibile) spiegare il meccanismo decisionale (e che sono chiamati perciò black box).
Infine, è stato sviluppato il tema del rapporto tra l’uso dei dati effettuato per il training dei sistemi di AI e la tutela delle banche dati, del know how e dei dati personali, anche alla luce della Direttiva Text and Data Mining.
Infine, sono stati affrontati molteplici aspetti relativi alla tutela del diritto d’autore, in particolare relativi sia alla tutela degli input affidati ai sistemi di AI sia degli output generati dai sistemi di AI, siano essi output consistenti in opere creative siano essi software od informazioni organizzate. Hanno completato le analisi in materia di IP alcune riflessioni relative all’utilizzo di software open source all’interno dei sistemi di AI e alle violazioni delle privative sui software di terze parti causate dai sistemi AI, nonché una disamina della tutelabilità come marchio o come design dei risultati generati dai sistemi di AI.
Gli interventi dell’ultima sessione sono stati tenuti da Gabriella Muscolo e Martina Dani (Studio Franzosi Dal Negro Setti with Muscolo), Michele Baccelli (Hoffman Eitle), Eugenio Prosperetti (LUISS e Studio Prosperetti), Roberto Dini e Valentina Piola (Sisvel). Inoltre, nella discussione di chiusura del panel, sono intervenuti Stefania Ercolani (ALAI Italia), Gianluca Campus (Sky – Medialaws.eu), Simona Lavagnini (LGV Avvocati), Fabrizio Sanna (Orsingher-Ortu), Stefano Previti (Studio Previti) e Carmelo Fontana (Google).
Le conclusioni a chiusura dei lavori del Convegno sono state affidate ad una Next Generation AI roundtable composta da professionisti under 40 che hanno evidenziato i principali “take-away” delle varie sessioni del Convegno. Ripercorrendo brevemente le tematiche oggetto di discussione, hanno fornito una sintesi delle principali criticità, soluzioni suggerite e questioni da approfondire emerse nel corso della giornata, tra cui giova menzionare le iniziative e strategie di maggiore impatto in materia di sviluppo dell’AI e il bilanciamento da esse operato tra le esigenze di innovazione e di tutela degli individui; l’impatto sociale dell’AI e le modalità per ridurre eventuali deficit a livello di consapevolezza e fiducia delle persone nei confronti dei relativi sistemi; i rischi in materia di “giustizia predittiva” nel caso in cui le decisioni nei processi civili e penali fossero devolute ad algoritmi; i principali rischi emersi in materia di tutela dei consumatori e della concorrenza, nell’odierna cornice di digitalizzazione e utilizzo di sistemi di AI, nonché le modalità in cui l’utilizzo dei sistemi di AI potrebbe facilitare le Autorità nell’esercizio delle loro funzioni di tutela dei consumatori e della concorrenza; la migliore tutela giuridica in materia di brevettabilità dei sistemi di AI, le criticità più significative emerse e le eventuali prospettive di superamento delle stesse.
La Roundtable è stata coordinata da Gea Condorelli (Dentons) e vi hanno partecipato Mariasole Bernocchi (Sky), Giovanni De Gregorio (Catolica Global School of Law), Flavia Bavetta (Bocconi – Gianni & Origoni), Federica Paolucci (Bocconi), Isabella Austoni (Studio Ghidini, Girino & Associati) e Davide Cirotti (Studio Franzosi Dal Negro Setti with Muscolo).