Il contributo intende affrontare le questioni giuridiche connesse all’utilizzo dell’intelligenza artificiale (IA) nella ricerca accademica. Sebbene l’IA possa costituire un grande sostegno nella redazione e nell’editing di testi scientifici, allo stesso tempo il suo impiego solleva importanti preoccupazioni: tra le principali criticità emergono in particolare le questioni legate al rischio di plagio, alla paternità intellettuale dell’opera, al copyright, nonché alla libertà di espressione tutelata all’art. 21 della Costituzione. Queste possono sollevare dubbi sulla stessa qualità della ricerca, minare l’integrità accademica e ripercuotersi negativamente sul diritto all’informazione. Il contributo analizza tali problematiche con uno sguardo rivolto anche ai più recenti avvenimenti, come la causa intentata dal New York Times contro OpenAI e Microsoft per questioni di copyright e la prima proposta di legge in Francia volta a regolare l’attribuzione di paternità delle opere create con IA.
The paper aims to address the legal issues related to the use of artificial intelligence (AI) in academic research. Although AI can be a great support in the writing and editing of scientific texts, at the same time its use raises important concerns: among the main critical issues are the risk of plagiarism, intellectual authorship of the work, copyright, as well as freedom of expression protected in Article 21 of the Constitution. These can raise doubts about the quality of research, undermine academic integrity and negatively affect the right to information. This contribution analyses these issues with an eye to recent events, such as the lawsuit filed by the New York Times against OpenAI and Microsoft for copyright issues and the first law proposal in France aimed at regulating the attribution of authorship of works created with AI.
Sommario: 1. Introduzione. – 2. Una premessa necessaria: il problema definitorio dell’IA nel contesto giuridico. – 3. L’Intelligenza Artificiale generativa nella ricerca accademica: possibili benefici… – 4. …e potenziali criticità: il problema della paternità del testo generato con IA. – 4.1. Il rischio di plagio. – 4.2. La diffusione di disinformazione. – 5. Conclusioni.
- Introduzione
Negli ultimi decenni l’Intelligenza Artificiale (IA) ha pervaso con crescente rapidità la nostra quotidianità, diventando parte integrante di moltissime discipline[1]. Dalla medicina alla finanza, dal marketing all’agricoltura, dalla sicurezza all’istruzione è ormai possibile trovare l’IA in quasi tutti gli ambiti di vita, tanto che autori quali S.J. Russel e P. Norving hanno correttamente osservato che «AI is relevant to any intellectual task; it is truly a universal field»[2].
Il lancio di ChatGPT, un software di IA sviluppato da OpenAI e reso accessibile al grande pubblico anche in una versione gratuita verso la fine del 2022, ha probabilmente segnato l’inizio di un nuovo modo di approcciarsi all’Intelligenza Artificiale, rendendola facilmente accessibile e disponibile a tutti. Da quel momento è diventato sufficiente possedere una connessione ad internet per poter toccare con mano l’interazione con un’IA. ChatGPT, come si vedrà, è un’Intelligenza Artificiale c.d. generativa ed è in grado non solo di comprendere richieste formulate in un linguaggio naturale, ma anche di fornire risposte (auspicabilmente) precise e complete e di condurre una vera e propria conversazione su una vasta gamma di argomenti, nonché di creare testi articolati e argomentati come se fossero stati scritti da un essere umano.
L’IA ha iniziato ad essere applicata, più o meno dichiaratamente e consapevolmente, anche in campo accademico, al fine di velocizzare i lavori di ricerca e scrittura, che rappresentano due delle attività quotidiane e più rilevanti per un ricercatore.
Se tale utilizzo non va di per sé demonizzato e può presentare vantaggi per il lavoro degli accademici, è necessario però porsi alcune fondamentali domande sull’effettiva opportunità del suo utilizzo, sugli eventuali limiti da porre e, non da ultimo, sui rischi connessi all’impiego di simili tecnologie. È proprio nel tentativo di dare una risposta a tali interrogativi che nasce il presente contributo, il quale intende, da un lato, mettere in luce i benefici che gli accademici potrebbero trarre dall’Intelligenza Artificiale e, più nello specifico, dall’IA generativa[3]; dall’altro lato, affrontare alcune delle principali questioni giuridiche che potrebbero sorgere dal relativo impiego nella scrittura di articoli destinati alla pubblicazione in riviste accademiche. In particolare, con riferimento alle problematiche connesse all’utilizzo dei sistemi di IA, capaci di produrre opere simili a quelle create dall’ingegno umano, ci si soffermerà sull’attribuzione di paternità di un testo generato con IA, sul rischio di plagio e sul rischio di diffusione di disinformazione[4].
Preliminarmente e in via generale, è opportuno evidenziare che la rapida diffusione dell’Intelligenza Artificiale ha spinto a domandarsi se sia o meno opportuna una specifica regolamentazione di tale ambito e dell’utilizzo di tali software. Sebbene ad oggi non vi siano ancora regolamentazioni di carattere nazionale in materia, a livello sovranazionale il 12 luglio 2024 è stato pubblicato sulla Gazzetta ufficiale dell’Unione Europea il Regolamento (UE) 2024/1689 (c.d. AI Act). Esso è il primo atto normativo sull’utilizzo dell’Intelligenza Artificiale, volto a favorire lo sviluppo e l’adozione di sistemi di IA sicuri e affidabili nel mercato unico dell’UE e allo stesso tempo assicurare il rispetto dei diritti fondamentali dei cittadini[5]. Lo scopo di tale regolamento è pertanto quello di disciplinare in maniera organica in tutta l’Unione Europea l’impiego dell’Intelligenza Artificiale. Esso si inserisce nel quadro normativo europeo vigente in materia e, per quanto riguarda i contenuti protetti da diritto d’autore e usati per l’addestramento dei sistemi di Intelligenza Artificiale, ci si riferisce in particolare alla Direttiva sul diritto d’autore nel mercato unico digitale del 2019[6], che ha l’obiettivo di armonizzare il quadro normativo europeo del diritto d’autore nello specifico ambito delle tecnologie digitali e di internet.
Inoltre, il 14 novembre 2024 la Commissione Europea ha pubblicato la prima bozza del General-Purpose AI Code of Practice[7], come previsto dall’art. 56 dell’AI Act[8]. Si tratta del primo Codice di condotta per l’Intelligenza Artificiale di uso generale (AI general-purpose, GPAI[9]) redatto da esperti indipendenti, nominati presidenti e vicepresidenti di quattro gruppi di lavoro tematici aventi ad oggetto: trasparenza e norme relative al copyright; identificazione e valutazione del rischio per il rischio sistemico; mitigazione del rischio tecnico per il rischio sistemico; mitigazione del rischio di governance per il rischio sistemico.
Il documento, che entrerà in vigore dopo un processo di discussioni interne nei quattro gruppi di lavoro e di ulteriori input esterni da parte degli stakeholder, farà da guida allo sviluppo e implementazione di modelli di IA generici che siano sicuri e affidabili, fornendo regole dettagliate relative alla trasparenza e al copyright per i fornitori di questi modelli di IA.
Restringendo il campo di indagine all’ambito accademico, in assenza di norme specifiche alcune riviste scientifiche e alcune case editrici hanno iniziato ad adottare linee guida relative all’utilizzo dell’IA nella redazione degli articoli da pubblicare. Se da un lato questo potrebbe essere utile a scongiurare, o quantomeno ridurre, il rischio di violazione di diritti altrui – si pensi ad esempio al plagio oppure alla violazione di copyright –, dall’altro lato non è chiaro se una regolamentazione a livello nazionale o europeo risulterebbe più efficace.
Delineato, in estrema sintesi, lo scarno quadro regolatorio esistente, ci si può dunque chiedere se sia effettivamente desiderabile una regolamentazione dell’IA e, ancora, se strumenti di autoregolamentazione (quali le linee guida stilate dalle case editrici) o di soft law (quali codici di condotta) rappresentino una risposta adeguata rispetto alle problematiche giuridiche emergenti dall’utilizzo sempre più diffuso di sistemi di IA. Tali domande, di carattere generale, rimarranno sullo sfondo del presente contributo, ma, auspicabilmente, attraverso l’esame dello specifico ambito di applicazione dell’IA nel contesto delle pubblicazioni accademiche e delle problematiche ad esso connesse, sarà possibile, in sede di conclusioni, cercare di offrirne una risposta.
Il contributo ha ad oggetto questioni relative principalmente all’ambito accademico umanistico, in quanto chi utilizza l’IA per ricerche scientifiche affronta sfide in parte differenti, che non saranno oggetto di trattazione; inoltre, si focalizza prevalentemente sulle questioni giuridiche, lasciando quelle etiche ad altra sede di trattazione.
- Una premessa necessaria: il problema definitorio dell’IA nel contesto giuridico
Al fine di circoscrivere l’oggetto di trattazione, e data la sua importanza ai fini giuridici, è necessario soffermarsi brevemente sul significato di Intelligenza Artificiale.
Trattandosi di una materia in continua evoluzione e trasformazione, nel tempo sono state formulate differenti definizioni[10], causando forse ancora più incertezza su che cosa andasse effettivamente regolato[11]. Tuttavia, nonostante l’assenza di una definizione univoca, Massimo Luciani[12], riferendosi al tema della responsabilità del danno, evidenziava come il legislatore avesse in realtà tutti gli strumenti utili a stabilire se la responsabilità di un eventuale danno stesse in capo al produttore dell’hardware, al produttore del software, all’utilizzatore ecc. e, quindi, potesse introdurre «almeno alcuni princìpi generali, sebbene l’estrema varietà del fenomeno possa astrattamente suggerire l’adozione di discipline specifiche per i vari campi di applicazione dell’intelligenza artificiale»[13]; infatti, «la presenza di princìpi generali faciliterebbe la regolazione delle future novità, da attendersi profonde e in rapida successione, che una regolazione analitica sarebbe costretta (sempre in ritardo) a inseguire»[14].
Una delle prime definizioni a livello istituzionale, seppur solamente di soft law, si rinviene nella Comunicazione Artificial Intelligence for Europe del 2018 della Commissione Europea, che ha definito l’Intelligenza Artificiale come un sistema che si riferisce a «systems that display intelligent behaviour by analysing their environment and taking actions – with some degree of autonomy – to achieve specific goals»[15]. Ma è con l’AI Act che ne viene finalmente data una definizione rilevante ai fini giuridici: l’art. 3 definisce infatti il “sistema di IA” come «un sistema automatizzato progettato per funzionare con livelli di autonomia variabili e che può presentare adattabilità dopo la diffusione e che, per obiettivi espliciti o impliciti, deduce dall’input che riceve come generare output quali previsioni, contenuti, raccomandazioni o decisioni che possono influenzare ambienti fisici o virtuali»[16].
Al fine di comprendere il tema che verrà trattato nei paragrafi successivi è utile accennare ad alcuni profili tecnici. L’Intelligenza Artificiale può infatti basarsi su due approcci: la Modellazione (Model Based AI) e l’Apprendimento Automatico (Machine Learning AI). Nel primo, il modello deve poter essere inserito e utilizzato da un computer per compiere azioni quali calcolare, analizzare e dare risposte[17]; nel secondo, invece, il modello di un fenomeno si ricava da dati ottenuti da fonti esterne, come ad esempio i dati disponibili sul web, che vengono poi usati per “addestrare” il modello prima del suo utilizzo, indicando alla macchina esattamente quale risultato deve fornire e in che modo[18].
Le tecniche di Machine Learning sono quelle che vengono impiegate in una specifica area dell’Intelligenza Artificiale, chiamata “generativa”. I modelli di Intelligenza Artificiale generativa vengono infatti addestrati su un’ingente quantità di dati e sono in grado di generare automaticamente nuovi contenuti complessi in modo molto accurato, imitando la creatività umana. Le capacità del sistema, pertanto, dipendono dalla quantità e dalla tipologia di dati impiegati per il relativo addestramento: così si hanno sistemi in grado di produrre testi, simulare conversazioni, generare codici, immagini, musica e altro ancora.
- L’Intelligenza Artificiale generativa nella ricerca accademica: possibili benefici…
La capacità dei sistemi di Intelligenza Artificiale generativa di analizzare e reinterpretare grandi quantità di dati, nonché di generare testi precisi, potrebbe contribuire positivamente alla ricerca accademica[19]. Ciò che suscita particolare interesse tra gli accademici, però, è la capacità dell’IA generativa di comprendere ed elaborare un “linguaggio naturale”, simile a quello generato dall’ingegno umano (c.d. Natural Language Processing)[20]. L’esempio più noto è quello di ChatGPT, un software sviluppato da OpenAI e in grado non solo di comprendere richieste formulate in un linguaggio naturale, ma anche di fornire risposte precise e complete e di condurre una conversazione su un’ampia gamma di argomenti[21]. Strumenti come ChatGPT potrebbero avere il vantaggio di rendere la ricerca più rapida ed efficiente, automatizzando alcune azioni come la stesura di approfondimenti, riassunti di articoli, rapporti o altri documenti, a cui lo studioso può poi attingere per elaborare il proprio scritto. Inoltre, uno degli aspetti più innovativi di questi sistemi è la possibilità di rivolgere richieste molto precise ed ottenere risultati pertinenti in tempi incredibilmente brevi. Tali strumenti possono poi essere impiegati per tradurre un testo in diverse lingue, ottenendo così un più agevole accesso ed una migliore comprensione di materiali di ricerca internazionali, soprattutto quando si ha a che fare con lingue poco conosciute, facendo così sparire le barriere linguistiche ed agevolando una raccolta di dati su ampia scala.
L’Intelligenza Artificiale generativa si configura, quindi, come uno strumento potenzialmente utile per gli accademici, che permette di risparmiare tempo nelle attività più meccaniche e ripetitive e di concentrarsi invece sull’aspetto più creativo e analitico del proprio lavoro[22].
Tuttavia, è essenziale che coloro che operano in questo ambito siano consapevoli dei rischi connessi all’utilizzo di tali strumenti. Gli accademici, infatti, sono chiamati a condurre la propria ricerca in modo responsabile e trasparente, fornendo dati veritieri e non distorti[23] ed evitando, quindi, qualsiasi forma di abuso nell’utilizzo di queste tecnologie[24]. Come si vedrà, ciò comporta una puntuale verifica della veridicità delle informazioni e dei dati da parte dell’accademico.
- …e potenziali criticità: il problema della paternità del testo generato con IA
La maggior parte delle riviste prevede una politica di paternità dei testi che spesso include, tra i requisiti per essere riconosciuto come autore, la partecipazione al processo di scrittura[25]. Ci si potrebbe pertanto domandare se l’impiego dell’Intelligenza Artificiale nella redazione di un testo implichi o meno il riconoscimento di quest’ultima quale autore o coautore[26].
Per rispondere a tale quesito, parte della dottrina ha delineato differenti scenari riguardanti l’attribuzione della paternità del testo generato con Intelligenza Artificiale generativa, che si distinguono a seconda dell’interazione tra l’utente e il sistema. Se l’utente ha fornito dati di input specifici, che hanno guidato il software nella generazione del testo, allora sembrerebbe possibile considerare l’utente come possessore della paternità; tuttavia, se l’input fornito è molto limitato (ad esempio l’utente ha semplicemente chiesto al sistema di scrivere un testo su un determinato argomento), allora potrebbe risultare più complicato determinare con certezza chi, tra l’utente e il sistema, sia il vero proprietario del testo[27]. Il problema centrale diviene pertanto quello di determinare chi si assume la responsabilità delle informazioni contenute nel testo.
Inoltre, il problema è acuito dalla distinzione tra Intelligenze Artificiali “pienamente” o “parzialmente” generative: le prime «sono programmate per avere un output quasi o del tutto indipendente dall’input dell’utente»[28]; mentre le seconde «utilizzano tanto le informazioni fornite dal programmatore quanto quelle immesse dall’utente per generare un output»[29]. Pertanto, si potrebbe sostenere che l’output prodotto da un’Intelligenza Artificiale pienamente generativa rappresenti «il risultato indiretto del suo progetto creativo versato nel software e che il diritto d’autore sulle opere risultanti spetti quindi allo sviluppatore»[30].
In caso di utilizzo di ChatGPT, che può essere impiegato sia in modo pienamente che parzialmente generativo, quando l’input consiste ad esempio in una generica richiesta di redazione di un testo «sarà OpenAI ad aver indirettamente generato il testo»[31]. Al contrario, l’utilizzo di un’IA parzialmente generativa porta a domandarsi «quando gli input dell’utente abbiano un’influenza sul programma dello sviluppatore e in quali casi ciò sia connotato da creatività»[32]. In questo caso l’autore dell’output potrebbe essere l’utente, il programmatore, entrambi o nessuno dei due[33].
Seppur si tratti di un argomento complesso e ancora in fase di studio, nonché di tecniche e regolamentazioni in continua evoluzione, alcuni studiosi hanno tentato di elaborare risposte concrete alle questioni più importanti emerse finora: un esempio è dato dagli studi di J.C. Ginsburg e L.A. Budiarjo, i quali hanno provato ad individuare una soluzione[34] al problema dell’attribuzione della paternità dei testi generati con IA. I due autori hanno infatti individuato quattro possibili strade per allocare il diritto d’autore in caso di utilizzo di Intelligenza Artificiale generativa: a) qualora il programmatore non avesse fornito istruzioni precise al sistema di IA su come generare autonomamente un output e quest’ultimo dipendesse totalmente dalle decisioni dell’utente, allora il diritto d’autore sull’opera realizzata spetterebbe solo a quest’ultimo, in quanto avrebbe impiegato l’IA come semplice strumento per esprimere la propria creatività; b) qualora l’IA pienamente generativa fosse stata programmata per generare opere creative senza la necessità di alcun contributo da parte dell’utente, allora il diritto d’autore su tali opere spetterebbe unicamente al programmatore, perché esse sarebbero il risultato indiretto del suo lavoro creativo che ha riversato nell’algoritmo; c) se l’IA parzialmente generativa avesse prodotto un’opera risultata dall’unione dell’apporto creativo di programmatore e utente, allora si potrebbe dire che questi siano coautori dell’output finale; d) infine, in caso di IA parzialmente generativa, se programmatore e utente non avessero collaborato nella realizzazione dell’opera, attraverso la progettazione e l’inserimento di input, allora l’opera sarebbe da considerare priva di autore[35]. Secondo i due autori, in sintesi, per determinare la paternità del testo generato con IA occorre innanzitutto individuare chi, tra programmatore e utente, abbia fornito il c.d. apporto creativo, che la macchina ha poi riversato nel prodotto finale.
Anche diverse riviste scientifiche hanno avviato una riflessione sull’argomento, cercando di fornire indicazioni specifiche per le proprie pubblicazioni. Alcune riviste della casa editrice Elsevier hanno già incluso ChatGPT come coautore[36]: un esempio risale al gennaio 2023, quando la rivista Nurse Education in Practice ha espressamente riconosciuto ChatGPT come coautore[37], scatenando un dibattito tra editori, redattori e ricercatori sull’opportunità e validità di tale riconoscimento[38]. Successivamente, la stessa rivista ha pubblicato un corrigendum con cui ha rimosso ChatGPT come coautore, mantenendo unicamente l’autore umano[39].
Alcune case editrici, come Taylor & Francis o Springer-Nature, hanno invece dichiarato di non accettare ancora ChatGPT come coautore, evidenziando però l’importanza e la necessità di documentarne l’utilizzo, ad esempio, in una sezione dedicata ai metodi utilizzati per la redazione del manoscritto[40].
Anche l’International Committee of Medical Journal Editors (ICMJE) ha affrontato la questione, enunciando innanzitutto i criteri per l’attribuzione di paternità di un testo, che comprendono quattro concetti: un contributo sostanziale, la stesura del lavoro, l’approvazione finale e la responsabilità[41]. Quest’ultimo punto è quello su cui ChatGPT è chiaramente carente, poiché non può assumersi la responsabilità morale, legale ed etica del proprio lavoro e, non avendo personalità giuridica, non può possedere o cedere diritti d’autore[42]. All’interrogativo se ChatGPT possa essere considerato un valido autore secondo i criteri elencati, per il momento l’ICMJE ha risposto negativamente, affermando che gli autori che hanno utilizzato tale tecnologia dovrebbero descrivere, sia nella lettera di presentazione che in una sezione apposita del lavoro inviato, il modo in cui l’hanno impiegata; indicando quindi, ad esempio, se l’IA sia stata usata come ausilio alla scrittura oppure come strumento per raccogliere dati, analizzare o generare figure.
Attualmente non sembra pertanto possibile qualificare gli strumenti di Intelligenza Artificiale come autori o coautori di un testo, né quindi come titolari del diritto d’autore, non essendo loro riconosciuta capacità giuridica e, ovviamente, non essendo persone fisiche[43].
Tuttavia, come dimostra anche il caso della Nurse Education in Practice, vi è chi ritiene che in futuro sarà necessario prevedere una normativa che attribuisca capacità giuridica anche alle Intelligenze Artificiali[44]. A tal proposito, nell’agosto 2023 la Corte distrettuale del Distretto di Columbia si è pronunciata sul caso Thaler v. Perlmutter[45], che metteva in discussione il requisito della paternità umana del diritto d’autore nel caso di un’opera prodotta autonomamente da un sistema di Intelligenza Artificiale generativa. Il Dott. Stephen Thaler, infatti, nonostante sostenesse che l’algoritmo di IA fosse il vero autore dell’opera, aveva richiesto la registrazione del copyright su un’opera prodotta da un sistema di IA da lui stesso creato; tuttavia, il Copyright Office aveva rifiutato la richiesta, in quanto l’opera in questione non era stata prodotta dalla creatività umana[46]. Successivamente, Thaler aveva citato in giudizio il Copyright Office, chiedendo alla Corte di decidere se un’opera generata in modo autonomo da un’Intelligenza Artificiale potesse essere soggetta a copyright, ma la Corte confermò la decisione del Copyright Office, sostenendo che l’autore di un’opera coperta da copyright doveva essere umano[47].
Gli esempi riportati dimostrano come la questione dell’Intelligenza Artificiale e del diritto d’autore stia assumendo sempre più rilevanza e urgenza in tutto il mondo e, allo stesso tempo, come la regolamentazione sia ancora frammentata – ad esempio, come visto, semplicemente a livello di linee guida dettate da riviste. Ciò rende complesso anche per gli stessi autori capire come comportarsi.
D’altra parte, non è ancora chiaro se sia più efficace un’autoregolamentazione oppure una specifica normativa, nazionale o sovranazionale. Sul punto, un tentativo di regolamentazione a livello nazionale è stato compiuto in Francia: il 12 settembre 2023 è stata presentata una proposta di legge volta proprio a rendere l’Intelligenza Artificiale compatibile con il diritto d’autore[48]. Essa si apre dichiarando espressamente che «[i]l existe un défi économique, culturel et juridique majeur lié au développement effréné de l’intelligence artificielle (IA) qu’il convient de régler urgemment»[49] e sottolinea che l’evoluzione esponenziale dell’Intelligenza Artificiale generativa ci obbliga a cercare soluzioni a ciò che potrebbe rappresentare una minaccia per numerosi settori, incluso quello degli articoli scientifici. La proposta va ad integrare il Codice della proprietà intellettuale francese prevedendo che, quando un’opera è creata dall’Intelligenza Artificiale, gli unici titolari dei diritti sono gli autori o gli aventi diritto delle opere che hanno reso possibile la progettazione di tale opera artificiale[50].
Con questa proposta di legge, pertanto, i promotori intendono incoraggiare i sistemi di IA a rispettare il diritto d’autore e a garantire che i titolari dei diritti siano adeguatamente tutelati, prevedendo l’obbligo di ottenere l’autorizzazione da parte dell’autore o dal detentore dei diritti di proprietà intellettuale, prima di impiegare per l’addestramento o lo sviluppo di un sistema di IA il materiale protetto da diritto d’autore.
4.1. Il rischio di plagio
L’utilizzo dell’Intelligenza Artificiale generativa in campo accademico fa sorgere ulteriori preoccupazioni legate in particolare alla trasparenza della ricerca[51]. Parte della dottrina ha evidenziato l’importanza di assicurare che, nell’ambito della ricerca e delle pubblicazioni scientifiche, queste tecnologie vengano usate in modo responsabile ed etico: ricercatori, editori e sviluppatori di modelli di IA generativa dovrebbero infatti collaborare per stabilire delle linee guida volte ad assicurare un uso etico, trasparente e responsabile di queste tecnologie[52]. Pertanto, se il manoscritto generato dall’IA includesse dati o contenuti di terze parti, dovrebbe esserne data corretta attribuzione, al fine di rispettare la normativa in materia di diritto d’autore[53].
Come si è già detto, l’IA generativa viene addestrata su un’ingente quantità di dati che vengono poi messi a disposizione degli utenti; pertanto, quando si impiega un testo generato con IA, il cui contenuto riprende opere di diversi autori, sarebbe opportuno renderlo noto[54]. Questo perché il prodotto generato dall’IA potrebbe non indicare – o non saper indicare – le fonti esatte da cui proviene il contenuto del testo generato e ciò potrebbe renderne complicata o addirittura impossibile la citazione da parte di chi lo utilizza per scrivere un testo scientifico[55].
Ciò che potrebbe verificarsi è quindi una violazione del copyright da parte degli stessi modelli di Intelligenza Artificiale e questa violazione rischia di trasferirsi in capo all’autore che replica il contenuto in un proprio testo senza citarne adeguatamente la fonte[56]. Infatti, il plagio non si verifica solo in caso di “copia e incolla”, ma anche di parafrasi di testi o idee di altre persone senza corretta indicazione della provenienza[57].
I sistemi di IA generativa stanno pertanto sollevando anche importanti questioni sulla proprietà intellettuale; alcuni editori sostengono infatti che gli sviluppatori di IA non sempre ottengono i loro contenuti tramite autorizzazione, ma, nonostante ciò, li utilizzano comunque per addestrare i loro modelli[58]. Si pensi che, per mitigare le preoccupazioni degli autori, alcuni editori stanno persino valutando la possibilità di rimuovere i testi scientifici dall’open access, proprio per impedire a sistemi di IA come ChatGPT di accedere agli articoli e farne un uso improprio[59].
A tal proposito, sulla relazione tra Intelligenze Artificiali e diritto d’autore è interessante richiamare un famoso caso giudiziario, ad oggi ancora pendente: il 27 dicembre 2023 la New York Times Corporation ha chiesto l’accertamento della violazione del diritto d’autore sui testi del proprio giornale da parte di OpenAI Inc., Microsoft Corporation et al.[60], nonché la condanna al risarcimento del danno e la distruzione di ChatGPT e di Intelligenze Artificiali simili che incorporavano lavori del Times[61].
Ciò che New York Times vuole dimostrare è che l’Intelligenza Artificiale creata da OpenAI, utilizzata anche da Microsoft, sia stata addestrata su milioni di articoli del New York Times, che sarebbero stati acquisiti e utilizzati in modo non autorizzato e gratuito[62]. Ciò che sostiene New York Times, infatti, è che l’utilizzo di tali articoli per l’addestramento di ChatGPT costituirebbe una violazione del copyright, in quanto i convenuti avrebbero ripetutamente copiato i contenuti protetti da copyright del New York Times, senza possedere alcuna licenza o aver dato alcun compenso al Times. Nell’addestramento dei modelli GPT, Microsoft e OpenAI avrebbero infatti collaborato per sviluppare un sistema complesso per contenere e riprodurre copie del set di dati di addestramento, compresi milioni di contenuti di proprietà del New York Times, che sarebbero quindi stati più volte copiati e importati allo scopo di addestrare i modelli GPT degli imputati[63]. Ciò aveva consentito ai sistemi di Intelligenza Artificiale di riprodurre i testi degli articoli del New York Times direttamente nelle “chat”[64] e, allo stesso modo, Bing Chat (applicazione di ChatGPT al motore di ricerca Bing di Microsoft), nonostante citasse a piè di pagina le fonti che l’Intelligenza Artificiale aveva impiegato per la redazione del testo, secondo il New York Times avrebbe disincentivato gli utenti a visitare direttamente i siti dei giornali, in quanto riproduceva direttamente nella “chat” l’intero testo invece di riportare, ad esempio, il solo titolo dell’articolo[65]. Tra le argomentazioni con cui le convenute OpenAI e Microsoft hanno sostenuto l’assenza di danno al Times vi è il c.d. fair use[66] – che consiste nella «possibilità di usare liberamente e gratuitamente opere coperte da copyright per finalità di critica, commento, giornalismo, insegnamento e ricerca»[67] – nella sua forma di trasformative use[68], ossia la «trasformazione di opere altrui precedentemente realizzate che si sostanzi nell’attribuzione alle stesse di una nuova forma espressiva, significato o messaggio»[69].
4.2. La diffusione di disinformazione
L’impiego dell’Intelligenza Artificiale nell’elaborazione di testi e articoli scientifici non solleva solo questioni legate alla paternità del testo e al rischio di plagio, ma anche importanti questioni relative al diritto all’informazione[70].
Infatti, dopo un iniziale interessamento ed entusiasmo verso le capacità dei sistemi di IA di generare e comprendere testi, gli studiosi stanno iniziando ad approfondire anche il problema della disinformazione che può essere diffusa facendo uso di questi sistemi; tra gli studi più recenti si richiama uno dei più completi, che ha indagato la capacità dei Large Language Model (LLM) – ossia le tecnologie di IA che si concentrano sulla comprensione e generazione di testi – di produrre disinformazione, valutando la capacità di dieci LLM tramite l’utilizzo di venti narrazioni di disinformazione[71]. Lo studio partiva dall’idea che la generazione automatizzata di disinformazione da parte degli LLM rappresentasse un importante rischio per la società, avendo «the theoretical ability to flood the information space with consequences for societies around the world»[72]. Oggetto di valutazione era la capacità degli LLM di generare articoli di notizie e la relativa tendenza ad essere d’accordo o in disaccordo con narrazioni disinformate, nonché la valutazione di quanto spesso questi sistemi generino avvisi di sicurezza.
Lo studio è arrivato alla conclusione che gli LLM sono in grado di generare articoli convincenti, che tuttavia concordano con pericolose disinformazioni, poiché nel loro processo generativo non sono in grado di distinguere tra informazioni vere e false[73].
L’impiego di un’ampia quantità di dati per addestrare i sistemi di IA generativa comporta, infatti, il rischio di includere anche informazioni non corrette, rischiando così di diffondere disinformazione, peraltro anche attraverso testi – gli articoli di dottrina pubblicati su riviste scientifiche – che dovrebbero avere una certa autorevolezza.
In aggiunta, i sistemi di IA generativa possono anche fornire informazioni del tutto inventate, affermandone tuttavia la veridicità. A titolo di esempio, si pensi a quanto emerge dalla lettura di un recente caso giudiziario americano, Mata v. Avianca[74]. Tale controversia legale origina, infatti, proprio dall’utilizzo in udienza di precedenti giudiziari falsi, generati dall’IA. Gli avvocati di parte attrice avevano presentato, a sostegno delle proprie richieste, una memoria contenente citazioni ed estratti di decisioni giudiziarie inesistenti. Durante l’udienza emerse che la memoria era stata scritta con l’utilizzo di ChatGPT e gli avvocati, inconsapevoli della relativa capacità di fornire dati inventati, non avevano verificato la reale esistenza dei casi citati. Il caso si concluse con un’ordinanza sanzionatoria nei confronti degli avvocati in questione, che vennero condannati al pagamento di una somma di 5.000 dollari per aver, di fatto, ingannato la Corte[75]. Benché questo caso non riguardi il precipuo ambito di indagine della presente ricerca, pare comunque di particolare interesse in quanto mostra l’utilizzo di dati generati dall’IA in un ambito professionale (peraltro di particolare prestigio) quale quello della professione forense.
Quanto appena ricordato trova conferma anche in un recente studio che ha analizzato la capacità delle Chatbot di IA di produrre disinformazione con specifico riguardo alle elezioni, riportando ad esempio dati non corretti o fake news riguardanti i candidati[76]. Come evidenziato in un lavoro condotto in collaborazione tra AI4TRUST, ver.ai, AI4media e TITAN, «this has profound negative consequences for the people’s right to form informed opinions so crucial for freedom of expression and the participation in a democratic process. These examples show the importance of data quality in the datasets used to train these LLMs as it will influence all further use of the technology and its further developments»[77].
Il diritto ad informarsi, e a sviluppare opinioni consapevoli, è infatti strettamente connesso ad uno dei pilastri delle democrazie contemporanee: la libertà di espressione. Quest’ultima si adegua costantemente ai diversi mutamenti del mondo dell’informazione e, di conseguenza, anche i sistemi di IA potrebbero interferire con essa[78]. Tali tecnologie, in caso di diffusione di informazioni false, potrebbero anche contribuire alla formazione di idee e convinzioni errate, incidendo quindi non solo sulla libertà di informazione ma anche sulla conseguente libertà di espressione.
Pertanto, se da un lato le tecnologie di IA consentirebbero un miglior accesso all’informazione; dall’altro lato potrebbero avere anche un impatto negativo su di essa. Un ricercatore che si affida unicamente ad un sistema di IA generativa, addestrato su una vasta mole di dati acquisiti dal web, si espone, infatti, al rischio di recepire informazioni inesatte, distorte o poco precise[79]; ciò potrebbe condurlo – anche inconsapevolmente – a produrre testi dal contenuto falso o fuorviante. Il rischio di generare output errato, magari derivante da informazioni inesatte o non più attuali, potrebbe contribuire alla diffusione disinformazione ed avere un impatto negativo anche sull’opinione pubblica[80], svilendo l’attività di ricerca e creando una sfiducia generalizzata nel mondo accademico.
Pertanto, non solo con l’Intelligenza Artificiale sarebbe possibile diffondere volontariamente le c.d. fake news, ossia dei contenuti «distorti, fuorvianti, e/o falsi […] distribuiti online al fine di influenzare le opinioni di singoli individui e gruppi»[81], ipotesi questa che auspicabilmente non troverebbe spazio nell’ambito della ricerca scientifica e delle pubblicazioni accademiche, ma il suo utilizzo potrebbe contribuire alla diffusione inconsapevole di dati e informazioni non corrette, sulle quali potrebbe essere basata una ricerca accademica.
Nello specifico ambito accademico, ad esempio, un ricercatore che pubblica un testo generato –totalmente o parzialmente – con l’IA, senza preoccuparsi di verificare la veridicità e l’accuratezza di tutte le informazioni in esso contenute, si espone al rischio di diffondere informazioni errate. Per quanto i sistemi di Intelligenza Artificiale generativa siano accurati, infatti, restano una tecnologia recente, a cui manca la capacità di comprensione e analisi umana; essendo addestrati su una vasta quantità di dati, infatti, potrebbero interpretare alcune informazioni diversamente rispetto agli esseri umani e, quindi, un testo basato unicamente su quelle informazioni potrebbe aumentare la circolazione di disinformazione. Il ruolo della ricerca accademica è infatti quello di studiare, comprendere e ragionare su una serie di fonti e informazioni, per poi rielaborarle attraverso un pensiero critico che possa offrire un contributo innovativo. Attraverso la pubblicazione di testi scientifici creati totalmente o parzialmente con l’Intelligenza Artificiale – e soprattutto in cui non ne sia stato indicato l’utilizzo – si potrebbero diffondere informazioni errate ed innescare una catena di reazioni, dal momento che la ricerca, almeno in ambito umanistico, si basa in larga parte su scritti precedenti.
Questo rischio dovrebbe teoricamente essere almeno in parte limitato dai rigidi sistemi di controllo e revisione a cui sono sottoposte molte pubblicazioni scientifiche, che dovrebbero pertanto ridurre la pubblicazione di contenuti evidentemente errati o contenenti informazioni false; inoltre, ad oggi iniziano ad essere disponibili software capaci di verificare se il testo sia stato generato in tutto o in parte da un’IA[82]. Tuttavia, questi sistemi di controllo mantengono un certo margine di errore e discrezionalità che non può non essere tenuto in considerazione e la capacità di questi sistemi di affrontare in modo totalmente efficace le sfide dell’IA è ancora da dimostrare.
Un recente studio[83] ha comparato otto diversi rilevatori di testo generato da LLM disponibili al pubblico, misurandone “accuracy”, “false positives” e “resilience”[84]. Esso parte innanzitutto dal fatto che «due to the recent improvements and wide vailability of Large Language Models (LLMs), they have posed a serious threat to academic integrity in education»[85] e i nuovi «LLM-generated text detectors attempt to combat the problem by offering educators with services to assess whether some text is LLM-generated»[86]. Lo studio, oltre ad aver individuato i rilevatori più accurati, ha evidenziato come, in generale, questi software siano meno precisi con i codici, con testi in lingue diverse dall’inglese e dopo l’utilizzo di strumenti di parafrasi.
In breve, il lavoro mostra come, nonostante i rilevatori riescano a raggiungere una certa accuratezza, essi non possono ancora essere considerati totalmente affidabili per il rilevamento della diffusione di disinformazione; inoltre, dal documento emerge quanto i falsi positivi costituiscano un problema significativo, soprattutto quando utilizzati per il rilevamento del plagio nelle istituzioni scolastiche[87].
Pertanto, nonostante l’esistenza di sistemi di controllo sempre più sviluppati, non è possibile scongiurare totalmente il rischio di diffusione di disinformazione attraverso l’utilizzo di Intelligenza Artificiale per la generazione di testi destinati alla pubblicazione scientifica.
- Conclusioni
L’impiego dell’Intelligenza Artificiale generativa nelle attività accademiche e in particolare nell’elaborazione di testi e articoli scientifici, offre indubbiamente nuove opportunità, ma allo stesso tempo solleva importanti questioni giuridiche ed etiche. Se da un lato queste tecnologie sono, infatti, utili ad aumentare l’efficienza e la produttività della ricerca, dall’altro pongono sfide significative legate all’attribuzione della paternità del testo, nonché alla veridicità ed accuratezza delle informazioni generate.
Ci si potrebbe, dunque, chiedere se un’eventuale regolamentazione, a livello nazionale o sovranazionale, possa almeno in parte risolvere le problematiche evidenziate, ad oggi prive di una completa soluzione. La questione da affrontare è duplice: da un lato, la rapidità dell’evoluzione di queste tecnologie richiederebbe una tempestiva e continua risposta da parte del legislatore, che però, per sua natura, tende ad avere tempistiche piuttosto dilatate; dall’altro lato, queste nuove tecnologie pongono sfide del tutto nuove e in continua evoluzione. Anche ammettendo che spetti al diritto cercare di adattarsi il più velocemente possibile alle nuove sfide che l’Intelligenza Artificiale continua a porre, tuttavia, proprio per la rapidità con cui l’IA si evolve, è difficile capire come il diritto possa effettivamente rispondere.
Qualche risposta, però, sta via via emergendo, in parte ad opera del legislatore europeo e in parte ad opera delle case editrici e delle direzioni delle riviste accademiche. Anche la dottrina inizia ad interessarsi alla questione. Tuttavia, questi sforzi potrebbero non essere sufficienti.
Anche la dimensione etica, qui non esplorata, potrebbe contribuire a dare risposte alle problematiche giuridiche attraverso un utilizzo eticamente responsabile delle risorse di IA disponibili. Si noti che alcuni Atenei hanno già iniziato ad affrontare nei propri Codici Etici la questione dell’impiego dell’IA[88]. Ad esempio, nel Codice Etico e di Comportamento dell’Università degli Studi di Bologna si trova un riferimento esplicito all’utilizzo delle tecnologie basate sull’Intelligenza Artificiale, richiedendo alla propria comunità di persone di osservare e promuovere «l’utilizzo etico delle tecnologie basate sull’intelligenza artificiale a favore del benessere sociale e ambientale, nel rispetto dei principi e dei valori europei, dei diritti fondamentali della persona, della non discriminazione e della normativa in materia di privacy e di copyright»[89].
Ugualmente, l’Università degli Studi di Sassari ha integrato l’articolo dedicato ai valori dell’Università del relativo Codice Etico e di Comportamento, affermando che «nell’adempimento dei rispettivi doveri e in relazione ai ruoli e alle responsabilità assunte, sia individualmente sia collegialmente»[90] i componenti dell’Università sono tenuti a «rispettare, proteggere e promuovere i valori cardine delle istituzioni universitarie, fra i quali il principio di responsabilità nei doveri da adempiere nei confronti della comunità; l’onestà intellettuale; l’utilizzo etico delle tecnologie basate sull’intelligenza artificiale nel rispetto dei principi e dei valori europei»[91].
L’Università degli Studi di Siena, invece, è la prima università italiana ad aver sviluppato delle vere e proprie linee guida per l’utilizzo di ChatGPT e altri LLM in ambito accademico, approvate dal Senato Accademico l’11 luglio 2023[92]. Esse affrontano la formazione per i docenti, le studentesse e gli studenti sull’utilizzo delle chatbot basate su ChatGPT o altri LLM e ne disciplinano l’utilizzo per quanto riguarda la pubblicazione di testi, con riferimento ai quali viene ribadito che è compito dei membri della comunità accademica verificare l’attendibilità e l’obiettività delle fonti e valutare l’efficacia degli strumenti di ricerca utilizzati. Interessante è notare che l’Università di Siena ha scelto di inserire espressamente nelle linee guida l’obbligo per gli autori e le autrici di «pubblicazioni, tesi di Laurea e di Dottorato, tesine o altri scritti che prevedono la determinazione del contributo di ogni autore e autrici»[93] di indicare «in modo chiaro e specifico se e in che misura hanno utilizzato tecnologie di intelligenza artificiale come ChatGPT (o altri LLM) nella preparazione dei loro manoscritti e delle loro analisi»[94].
In conclusione, mancando oggi un’uniformità nazionale sul tema, per il momento e allo stato delle cose sarebbe bene che i ricercatori adottassero un approccio consapevole nell’utilizzo dell’Intelligenza Artificiale, soprattutto verificando la provenienza e la veridicità delle informazioni fornite da tali sistemi e adottando una piena trasparenza nell’utilizzo di queste tecnologie per l’elaborazione di testi accademici, al fine di preservare l’integrità e la credibilità della ricerca scientifica nel suo complesso. Solo attraverso un dialogo aperto e la consapevolezza dei rischi e delle potenzialità dell’intelligenza artificiale, infatti, la comunità accademica potrà garantire un progresso scientifico responsabile e affidabile. È importante sottolineare, tuttavia, che gli interventi legislativi futuri non dovranno necessariamente essere repressivi e limitativi dell’utilizzo dell’IA, ma dovranno cercare, invece, di individuare e risolvere problemi quali quelli affrontati nel presente contributo, cercando anche di stimolare un utilizzo responsabile dell’IA da parte degli accademici. In tale ottica, sarebbe importante comprendere fino a che punto potranno spingersi gli interventi normativi e chiedersi se un’eccessiva regolamentazione risulterebbe compatibile con la libertà di ricerca, peraltro costituzionalmente garantita in molti ordinamenti.
[1] L. Portinale, Intelligenza Artificiale: storia, progressi e sviluppi tra speranze e timori, in MediaLaws, 3, 2021, 14.
[2] S. J. Russell-P. Norvig, Artificial Intelligence. A Modern Approach, Londra, 2021, 1.
[3] Come evidenziato in C. Colapietro-A. Moretti, L’Intelligenza Artificiale nel dettato costituzionale: opportunità, incertezze e tutela dei dati personali, in BioLaw Journal, 3, 2020, 369: «L’IA può contribuire a dare un forte impulso alla ricerca, sia aprendo nuovi filoni di indagine, sia configurandosi essa stessa come strumento attraverso cui svolgere attività di ricerca scientifica».
[4] F. Posteraro, Il copyright al tempo dell’IA generativa, in Medialaws, 2, 2023, 11.
[5] Regolamento (UE) 2024/1689 del Parlamento Europeo e del Consiglio, 13 giugno 2024, pubblicato in GUUE il 12 luglio 2024. L’AI Act è una proposta di regolamento presentata dalla Commissione Europea il 21 aprile 2021, con lo scopo di instaurare un quadro normativo armonizzato per l’Intelligenza Artificiale nell’Unione Europea; è stato approvato il 13 marzo 2024 dal Parlamento Europeo ed è stato successivamente approvato in via definitiva dal Consiglio dell’Unione Europea il 21 maggio 2024; pubblicato in GUUE il 12 luglio 2024, con entrata in vigore il 2 agosto 2024.
[6] Direttiva (UE) 2019/790 del Parlamento Europeo e del Consiglio, del 17 aprile 2019, sul diritto d’autore e sui diritti connessi nel mercato unico digitale e che modifica le direttive 96/9/CE e 2001/29/CE.
[7] First Draft General-Purpose AI Code of Practice, 14 novembre 2024.
[8] L’art. 56 dell’AI Act prevede l’elaborazione di codici di buone pratiche a livello dell’Unione Europea al fine di contribuire alla corretta applicazione del regolamento stesso.
[9] L’art. 3, par. 63 dell’AI Act definisce l’Intelligenza Artificiale di uso generale come «un modello di IA, anche laddove tale modello di IA sia addestrato con grandi quantità di dati utilizzando l’autosupervisione su larga scala, che sia caratterizzato una generalità significativa e sia in grado di svolgere con competenza un’ampia gamma di compiti distinti, indipendentemente dalle modalità con cui il modello è immesso sul mercato, e che può essere integrato in una varietà di sistemi o applicazioni a valle, ad eccezione dei modelli di IA utilizzati per attività di ricerca, sviluppo o prototipazione prima di essere immessi sul mercato».
[10] Sul punto si vedano S. J. Russell-P. Norvig, Artificial Intelligence. A Modern Approach, cit.; G. Sartor, L’intelligenza artificiale e il diritto, Torino, 2022, 3, che evidenzia come da un lato si abbia la contrapposizione tra l’intelligenza intesa come pensiero e l’idea di un’intelligenza in cui prevale l’interazione con l’ambiente; dall’altro lato la contrapposizione tra l’obiettivo di riprodurre fedelmente le capacità intellettive dell’uomo e l’obiettivo di «realizzare sistemi capaci di razionalità (cioè di elaborare informazioni o agire in modo ottimale) prescindendo dai limiti della razionalità umana». Uno dei pionieri della materia, John McCarthy, la definì invece come «the science and engineering of making intelligent machines, especially intelligent computer programs. It is related to the similar task of using computers to understand human intelligence, but AI does not have to confine itself to methods that are biologically observable» in J. McCarthy, What Is Artificial Intelligence, Stanford, 2007, 2.
[11] M. Luciani, La sfida dell’intelligenza artificiale, in Lettera AIC, 12, 2023, 7.
[12] In uno scritto relativo all’intervento tenuto in occasione dell’incontro denominato Introduzione all’intelligenza artificiale: tecnologia e diritto, tenutosi il 16 novembre 2023 per il Convegno al Circolo dei Magistrati della Corte dei conti.
[13] M. Luciani, Può il diritto disciplinare l’intelligenza artificiale? Una conversazione preliminare, in Diritto & Conti Bilancio Comunità Persona, 2, 2023, 16.
[14] Ibid.
[15] Communication from the Commission to the European Parliament, the European Council, the Council, the European Economic and Social Committee and the Committee of the Regions, Artificial Intelligence for Europe, Brussels, 25.4.2018 COM/2018/237 final.
[16] Regolamento (UE) 2024/1689 del Parlamento Europeo e del Consiglio, cit., art. 3.
[17] P. Traverso, Breve introduzione tecnica all’Intelligenza Artificiale, in C. Casonato-M. Fasan-S. Penasa (a cura di), Diritto e intelligenza artificiale, sezione monografica – DPCE Online, 1, 2022, 158.
[18] Ivi, 160.
[19] M.M. Alshater, Exploring the Role of Artificial Intelligence in Enhancing Academic Performance: A Case Study of ChatGPT, 26 dicembre 2022, disponibile su SSNR; M. Hosseini-L.M. Rasmussen-D.B. Resnik, Using AI to write scholarly publications, in Accountability in Research, 31(3), 2023.
[20] M.M. Alshater, Exploring the Role of Artificial Intelligence in Enhancing Academic Performance: A Case Study of ChatGPT, cit., 2.
[21] Ibid.
[22] B.D. Lund-T. Wang, Chatting about ChatGPT: how may AI and GPT impact academia and libraries?, in Library hi tech news, 40(3), 2023, 27.
[23] M. Hosseini-L.M. Rasmussen-D.B. Resnik, Using AI to write scholarly publications, cit., 1.
[24] B.D. Lund-T. Wang, Chatting about ChatGPT, cit., 28.
[25] Come emerge dallo studio condotto in D. B. Resnik, A. M. Tyler et. al, Authorship policies of scientific journals, in Journal of Medical Ethics, 2016, 42(3), 199-202; gli autori hanno svolto un’analisi delle politiche di authorship di un campione casuale di 600 riviste presenti nel database Journal Citation Reports.
[26] M. Hosseini-L.M. Rasmussen-D.B. Resnik, Using AI to write scholarly publications, cit., 5.
[27] B.D. Lund et al., ChatGPT and a new academic reality: Artificial Intelligence‐written research papers and the ethics of the large language models in scholarly publishing, in Journal of the Association for Information Science and Technology, 74(5), 2023, 575.
[28] P. Gitto, New York Times vs. OPENAI, Microsoft et al.: conflitti attuali fra intelligenza artificiale e diritto d’autore, in giustiziacivile.com, 2, 2024, 9; l’autore, come esempio di IA pienamente generativa, richiama l’IAA AARON, un’IA che proviene dal mondo anglosassone e che è stata progettata dall’artista britannico Harold Cohen per dipingere autonomamente quadri sulla base delle istruzioni fornite in origine dal medesimo Cohen.
[29] Ibid.; vedi anche J.C. Ginsburg-L.A. Budiarjo, Authors and Machines, in Bekeley Technology Law Journal, 34(2), 2019, 407 ss.
[30] P. Gitto, New York Times vs. OPENAI, Microsoft et al., cit., 10.
[31] Ibid.
[32] Ivi, 11.
[33] Ibid.
[34] J.C. Ginsburg – L.A. Budiarjo, Authors and Machines, cit., 428 ss.
[35] P. Gitto, New York Times vs. OPENAI, Microsoft et al., cit., 10.
[36] Si veda, ad esempio: L. Benichou e ChatGPT, The role of using ChatGPT AI in writing medical scientific articles, in Journal of Stomatology, Oral and Maxillofacial Surgery, 124(5), ottobre 2023.
[37] S. O’Connor e ChatGPT, Open artificial intelligence platforms in nursing education: Tools for academic progress or abuse?, in Nurse Education in Practice, 66, gennaio 2023.
[38] Si vedano, ad esempio: C. Stokel-Walker, ChatGPT listed as author on research papers, in Nature, 613, 26 gennaio 2023; J.A. Teixeira da Silva, Is ChatGPT a valid author?, in Nurse Education in Practice, 68, marzo 2023.
[39] Corrigendum a S. O’ Connor, Open artificial intelligence platforms in nursing education: Tools for academic progress or abuse?, in Nurse Education in Practice, 66, gennaio 2023.
[40] Si vedano, ad esempio: Taylor & Francis Clarifies the Responsible use of AI Tools in Academic Content Creation, sul sito della rivista Taylor & Francis; Artificial Intelligence (AI), nelle editorial policies della rivista Nature; per visionare una lista aggiornata delle riviste che hanno rilasciato dichiarazioni o aggiornato le loro linee guida per l’utilizzo di strumenti di intelligenza artificiale da parte degli autori, si veda Generative AI at UVA, sul sito dell’University of Virginia.
[41] International Committee of Medical Journal Editors (ICMJE), Defining the role of authors and contributors.
[42] C. Dunne, Can ChatGPT be your coauthor?, in BC Medical Journal, 65(6), luglio/agosto 2023, 193. Ad oggi, infatti, non è riconosciuta personalità giuridica ai sistemi di Intelligenza Artificiale. Sul tema dell’eventuale riconoscimento di personalità giuridica all’Intelligenza Artificiale si vedano ad esempio: S. Aceto di Capriglia, Intelligenza artificiale: una sfida globale tra rischi, prospettive e responsabilità. Le soluzioni assunte dai governi unionale, statunitense e sinico. Uno studio comparato, in Federalismi, 9, 2024; D. De Minico, Giustizia e intelligenza artificiale: un equilibrio mutevole, in Rivista AIC, 2, 2024; A. Azara, Intelligenza artificiale e personalità giuridica, in R. Giordano, A. Panzarola et al. (a cura di), Il diritto nell’era digitale. Persona, Mercato, Amministrazione, Giustizia, Milano, 2022; R. Celotto, I robot possono avere diritti?, in A. D’Aloia (a cura di), Intelligenza artificiale e diritto, Milano, 2020; U. Ruffolo, Il problema della “personalità elettronica”, in Journal of Ethics and Legal Technologies, 2, 2020. Tuttavia, alcuni paesi baltici hanno già elaborato dei progetti per il riconoscimento di personalità giuridica alle macchine; sul punto si veda A. Pajno-M. Bassini-G. De Gregorio et al., AI: profili giuridici. Intelligenza Artificiale: criticità emergenti e sfide per il giurista, in BioLaw Journal, 3, 2019, 211.
[43] P. Gitto, New York Times vs. OPENAI, Microsoft et al., cit., 6.
[44] Si vedano ad esempio: L. Arnaudo-R. Pardolesi, Ecce robot. Sulla responsabilità dei sistemi adulti di intelligenza artificiale, in Danno e responsabilità, 4, 2023; M.A. Lemley-B. Casey, Remedies for Robots, in The University of Chicago Law Review, 86(5), 2019.
[45] United States District Court for the District of Columbia, Stephen Thaler v. Shira Perlmutter, Register of Copyrights and Direction of the United States Copyright Office, et al., Civil Action No. 22-1564 (BAH).
[46] Si veda l’atto del Copyright Office: Second Request for Reconsideration for Refusal to Register A Recent Entrance to Paradise (Correspondence ID 1-3ZPC6C3; SR # 1-7100387071).
[47] United States District Court for the District of Columbia, Stephen Thaler v. Shira Perlmutter, cit.
[48] Proposition de loi visant à encadrer l’intelligence artificielle par le droit d’auteur, n° 1630, déposée le mardi 12 septembre 2023.
[49] Ivi, 2.
[50] Ivi, art. 2, par. 2.
[51] B.D. Lund et al., ChatGPT and a new academic reality, cit., 570.
[52] Ibid.
[53] Per un approfondimento generale sul tema si veda J. L. Gillotte, Copyright Infringement in AI-Generated Artworks, in UC Davis Law Review, 53(5), 2020, che affronta la questione relativa alle interazioni tra l’Intelligenza Artificiale e la legge sul copyright negli Stati Uniti.
[54] M. Hosseini-L.M. Rasmussen-D.B. Resnik, Using AI to write scholarly publications, cit., 5.
[55] B.D. Lund et al., ChatGPT and a new academic reality, cit., 575.
[56] Ibid.
[57] Sul tema, A. Y. Gasparyan-B. Nurmashev et al., Plagiarism in the Context of Education and Evolving Detection Strategies, in Journal of Korean Medical Science, 32(8), 2017.
[58] Si veda News/Media Alliance, C. S. Arato et al., White Paper: How the pervasive copying of expressive works to train and fuel generative artificial intelligence systems is copyright infringement and not a fair use, 2023.
[59] B.D. Lund et al., ChatGPT and a new academic reality, cit., 575; N. Anderson-D. L. Belavy et al., AI did not write this manuscript, or did it? Can we trick the AI text detector into generated texts? The potential future of ChatGPT and AI in sports & exercise medicine manuscript generation, in BMJ Open Sport & Exercise Medicine, 9(1), 2023.
[60] United States District Court for the Southern District of New York, Case 1:23-cv-11195, 27 dicembre 2023.
[61] Ibid.; P. Gitto, New York Times vs. OPENAI, Microsoft et al., cit., 3.
[62] Ibid.
[63] United States District Court for the Southern District of New York, Case 1:23-cv-11195, cit., par. 92.
[64] Ivi, par. 83 ss.
[65] P. Gitto, New York Times vs. OPENAI, Microsoft et al., cit., 3; si veda United States District Court for the Southern District of New York, Case 1:23-cv-11195, cit., par. 118-123.
[66] Istituito dal Titolo 17, par. 107 dello United States Code.
[67] P. Gitto, New York Times vs. OPENAI, Microsoft et al., cit., 3.
[68] Nel 1994 la Corte Suprema degli Stati Uniti ha ampliato l’ambito soggettivo di applicazione dell’istituto, affermando che costituisce fair use anche il transformative use, ossia la trasformazione di opere altrui precedentemente realizzate che si sostanzia nell’attribuzione alle stesse di una nuova forma espressiva, significato o messaggio; vedi J.C. Ginsburg, Fair use in the United States: transformed, deformed, reformed?, in Singapore Journal of Legal Studies, marzo 2020, 265-294.
[69] Ibid.
[70] Sul tema del diritto dell’informazione si veda M. Bassini-M. Cuniberti-C. Melzi d’Eril-O. Pollicino-G.E. Vigevani, Diritto dell’informazione e dei media, Torino, 2022.
[71] I. Vykopal-M. Pikuliak et al., Disinformation Capabilities of Large Language Models, 2023; lo studio ha l’obiettivo di fornire una valutazione completa della capacità degli LLM di generare “articoli di disinformazione” in inglese, ed è stato condotto attraverso l’osservazione del comportamento di diversi LLM quando viene chiesto loro di generare testi su pericolose “narrazioni di disinformazione”. Lo studio ha valutato 1200 testi generati da LLM, al fine di accertare quanto questi fossero d’accordo o in disaccordo con l’informazione suggerita e quanti nuovi argomenti utilizzassero.
[72] Ivi, 1.
[73] I. Vykopal-M. Pikuliak et al., Disinformation Capabilities of Large Language Models, cit., 2.
[74] United States District Court Southern District of New York, Mata v. Avianca, Inc., No. 1:2022cv01461, 2023.
[75] Ibid.
[76] AI Forensics, AlgorithmWatch, Generative AI and elections: Are chatbots a reliable source of information for voters?, 2023.
[77] K. Bontcheva et al., Generative AI and Disinformation: Recent Advances, Challenges, and Opportunities, European Digital Media Observatory, 2024.
[78] C.M. Reale-M. Tomasi, Libertà di espressione, nuovi media e intelligenza artificiale: la ricerca di un nuovo equilibrio nell’ecosistema costituzionale, in DPCE online, 1, 2022, 326.
[79] J. Dempere-K. Modugu-A. Hesham-L.K. Ramasamy, The impact of ChatGPT on higher education, in Frontiers in Education, 8, 2023, 6; B.D. Lund et al., ChatGPT and a new academic reality, cit., 574.
[80] G. Sartor, L’intelligenza artificiale e il diritto, cit., 67.
[81] Ivi, 78.
[82] Si pensi, ad esempio, a CopyLeaks, GPTKit e GLTR.
[83] M. S. Orenstrakh-O. Karnalim et al., Detecting LLM-Generated Text in Computing Education: A Comparative Study for ChatGPT Cases, 2023.
[84] Ivi, 8: secondo quanto riportato nello studio, per “accuracy” si intende «how effective the detectors are in identifying LLM-generated texts»; i “false positives” sono «original submissions that are suspected by LLM-generated text detectors»; mentre “resilience” si riferisce a «how good LLM-generated text detectors are in removing disguises».
[85] Ivi, 1.
[86] Ibid.
[87] Ivi, 16.
[88] Le Università italiane sono obbligate ad adottare un Codice Etico ai sensi dell’art. 2, c. 4, della legge n. 240/2010: esso «determina i valori fondamentali della comunità universitaria, promuove il riconoscimento e il rispetto dei diritti individuali, nonché l’accettazione di doveri e responsabilità nei confronti dell’istituzione di appartenenza, detta le regole di condotta nell’ambito della comunità. Le norme sono volte ad evitare ogni forma di discriminazione e di abuso, nonché a regolare i casi di conflitto di interessi o di proprietà intellettuale».
[89] Art. 3, par. d) del Codice Etico e di Comportamento dell’Università degli Studi di Bologna.
[90] Art. 4 del Codice Etico e di Comportamento dell’Università degli Studi di Sassari.
[91] Ibid.
[92] Consultabili sul sito dell’Università degli Studi di Siena.
[93] Ivi, punto 7.
[94] Ibid.