Con tutto l'hype che si è creato intorno a ChatGPT prima o poi doveva succedere, anche se forse nessuno si aspettava che avvenisse così presto: l'intelligenza artificiale sviluppata da OpenAI è stata indicata tra gli autori di non uno, ma ben quattro articoli scientifici. Potrebbe sembrare uno scherzo, un po' come quando Polly Matzinger nel 1978 inserì tra gli autori della sua ricerca il nome del suo cane, Galadriel Mirkwood, o con l'episodio goliardico di Str*nzo Bestiale, fantomatico docente dell'università di Palermo che non è mai esistito, e che veniva annoverato tra gli autori di ricerche serie in aperta polemica con il sistema di revisione. In questo caso, però, sembrerebbe che più che altro gli autori, in buona fede, volessero mettere in rilievo il fatto che alla stesura dell'articolo avesse collaborato anche ChatGPT: un tentativo di trasparenza andato male, tra polemiche e ritrattazioni. Non per tutti, però, si è trattato solo di questo: il CEO di una società che ha finanziato una di queste ricerche si è spinto addirittura a sostenere che l'intelligenza artificiale avesse addirittura contribuito intellettualmente alla creazione della stessa. Qui ci sarebbe da aprire una lunga parentesi, che semplifichiamo per ragioni di spazio: come affermato da Yann LeCun, vincitore del Premio Turing nel 2018, ChatGPT non è più sviluppata rispetto ad altre intelligenze artificiali analoghe e recenti, ma è semplicemente la prima che viene portata all'attenzione del grande pubblico.
In ogni caso, per quanto l'intelligenza artificiale possa essere sviluppata, non può, e forse non potrà mai, figurare tra gli autori di una ricerca scientifica, se non altro per una questione burocratica: a differenza degli autori in carne e ossa, un'intelligenza artificiale non può prendersi la responsabilità di ciò che scrive come richiesto dagli editori. Anche per questo alcune di queste riviste hanno riferito a Nature che si tratta di un errore e che verrà corretto quanto prima. Resta però una questione di fondo: fino a che punto si può utilizzare l'intelligenza artificiale nella stesura di testi scientifici?
Bisogna ragionare su due piani: a livello tecnico, possiamo dire che è abbastanza avanzata per non commettere errori? E per quanto riguarda il lato etico, come si può procedere? Se da una parte, come dichiarato ufficialmente da Springer Nature e come abbiamo spiegato, non può essere annoverata tra gli autori, sarebbe corretto indicare di averla utilizzata per la stesura di un articolo, se si decidesse che è una pratica lecita, ma con quali modalità? Alcuni propongono di inserirla tra i ringraziamenti, altri di indicare puntualmente per quali processi si è scelto di ricorrere a questa nuova tecnologia. Per discutere sulla paternità, artificiale o meno, degli articoli scientifici, abbiamo intervistato Daniela Ovadia, docente di etica della ricerca all'università di Pavia.
Servizio di Anna Cortelazzo e montaggio di Barbara Paknazar
Ovadia chiarisce ulteriormente il fatto che nessuna intelligenza artificiale potrà essere tra i coautori di un paper, ma aggiunge che in questo caso la paternità dell'articolo è solo la punta dell'iceberg di una questione che il mondo scientifico si trova ad affrontare: "Scrivere l'articolo e condurre una ricerca- precisa Ovadia - sono due cose diverse. Quello che dobbiamo discutere a livello di comunità scientifica è se scrivere l'articolo scientifico sia parte integrante del lavoro del ricercatore o se sia una parte accessoria. Fino a ora l'etica della ricerca e le regole sulla ricerca scientifica hanno considerato questa parte come essenziale nell'attività dei ricercatori, tant'è che tra i principi di etica della ricerca c'è proprio il fatto che non si può mettere come coautore qualcuno che non ha attivamente partecipato alla stesura dell'articolo, anche magari in modo marginale dando la propria opinione, rivedendolo o correggendo alcune parti".
Ora l'intelligenza artificiale ha fatto molti passi avanti nel processare il linguaggio naturale, e può anche dare una grossa mano per superare il gap linguistico, come fa notare Ovadia dopo l'intervista. Per chi non ha l'inglese come lingua madre a volte è difficile restituire in modo efficace i risultati di un eccellente lavoro di ricerca, e spesso diventa necessario rivedere più volte il testo per passare il processo di revisione. Cosa succederebbe se l'intelligenza artificiale fosse in grado di generare testi più corretti e più chiari, con tempistiche ben diverse da un ricercatore, specie se non madrelingua? Avrebbe senso impuntarsi per ottenere dei lavori che possono essere oscuri per il resto della comunità scientifica, quando lo scopo principale degli articoli è quello di condividere le conoscenze per portare avanti le ricerche e perseguire il progresso?
Sicuramente è una riflessione da fare, pensando anche a nuove regole ed eventualmente dei limiti nell'utilizzo dell'intelligenza artificiale. Non bisogna poi dimenticare il rischio di plagio: l'intelligenza artificiale non inventa niente, ma si limita a restituire delle parole prendendole da un immenso database, nello stesso ordine in cui le trova statisticamente più spesso negli altri testi a sua disposizione. Non è una novità: in un paper del 2021 è stata coniata l'espressione "pappagallo stocastico" in riferimento all'AI, che ripete (a pappagallo) i brani già scritti da altri, in modo almeno apparentemente casuale o quantomeno difficilmente prevedibile.
C'è anche da dire, come fa notare Ovadia, che essendo programmata proprio per imitare il linguaggio naturale, l'intelligenza artificiale non è facilmente rilevabile dagli attuali programmi antiplagio, perché imita in tutto e per tutto il processo cognitivo dell'essere umano e in questo senso il linguaggio stesso è un continuo plagio, perché si rifà a pattern sempre uguali che derivano dalla nostra formazione.
Nel complesso la questione rimane aperta: la tendenza sembra quella di Springer Nature, che pur escludendo la possibilità di vedere l'AI come autrice di un articolo non esclude il suo uso, perché potrebbe rendere la distribuzione della conoscenza più fluida e il lavoro dei ricercatori meno gravoso. Certo, bisogna confrontarsi e stabilire delle regole, anche per salvaguardare il principio di trasparenza che guida la ricerca scientifica: è necessario che un lettore sappia quali compiti sono stati portati avanti dagli esseri umani e quali dall'intelligenza artificiale, anche perché essa potrebbe favorire la diffusione dei pregiudizi già presenti nel suo database di addestramento (ricordiamo che l'AI imita i meccanismi del pensiero umano, che non sempre è guidato da valori democratici). Per gli autori, invece, rimane da stabilire se è più complicato reperire determinate informazioni in autonomia o controllarle in un secondo tempo. Perché, come ha dimostrato il caso di CNET l'intelligenza artificiale non sempre è così intelligente, e può commettere errori.