
È accettabile utilizzare l’IA nella stesura di articoli scientifici? E, in tal caso, che tipo di contributo è lecito chiedere a ChatGPT, Gemini, Perplexity, o ad altri strumenti di intelligenza artificiale generativa? E, ancora, che livello di trasparenza dovrebbe esserci a riguardo?
Queste sono alcune delle domande che la rivista Nature ha posto a un campione di oltre 5000 ricercatori scientifici di varia categoria provenienti da tutto il mondo.
I risultati di questo sondaggio anonimo, pubblicati a maggio 2025, riflettono un quadro piuttosto frammentato. Ad esempio, solitamente viene ritenuto accettabile l’utilizzo dell’IA nella stesura di manoscritti, ma la maggior parte dei partecipanti ha negato di averlo fatto. Inoltre, riporta Nature, i pochi ricercatori che hanno raccontato di aver usato le chatbot per scrivere paper scientifici molte volte hanno ammesso di non averlo esplicitamente dichiarato.
Il sondaggio era stato progettato per esplorare due aspetti in particolare: l’opinione dei ricercatori riguardo i limiti etici dell’uso di questa tecnologia nelle varie fasi di scrittura di un paper scientifico e le loro effettive abitudini a riguardo.
Ai 5229 partecipanti è stato anche chiesto di esprimere un giudizio sull’utilizzo dell’intelligenza artificiale nella scrittura di peer review (valutazioni critiche del lavoro condotto da altri ricercatori richieste dalle riviste scientifiche per decidere se pubblicare o meno un articolo).
I dati raccolti da Nature
Come anticipato in apertura, le risposte raccolte riflettono un’alta divergenza di opinione tra le persone che hanno compilato il sondaggio. Pare che il 90% dei ricercatori interpellati trovi lecito utilizzare l’IA per migliorare la fluidità del testo o affinare il taglio di un testo scritto da loro. È emerso invece più disaccordo rispetto all’importanza di dichiarare questo comportamento e al modo migliore in cui farlo (se, ad esempio, con una generica frase del tipo “questo articolo è stato scritto con l’aiuto dell’IA” oppure condividendo informazioni dettagliate sui prompt forniti all’IA, ovvero le specifiche richieste inviate all’intelligenza artificiale).
Per quanto riguarda la traduzione di un articolo scritto in un’altra lingua, la stragrande maggioranza dei ricercatori ritiene che non ci sia nulla di male nel chiedere aiuto all’intelligenza artificiale (addirittura, alcuni di loro ritengono che la possibilità di utilizzare l’IA con questo scopo renda l’attività scientifica più inclusiva, facilitando la partecipazione di ricercatori che non hanno dimestichezza con la lingua inglese). Il 22% ritiene, comunque, che l’uso di IA vada dichiarato, il 13% crede che la traduzione generata con l’IA debba essere ricontrollata da una persona madrelingua, mentre il 42% trova che sia giusto adottare entrambe le pratiche appena citate.
Solo un terzo degli intervistati ritiene eticamente accettabile chiedere all’IA di scrivere interi testi da zero e solo il 13% crede che ciò possa essere fatto senza rendere esplicito il suo contributo. Percentuali simili emergono relativamente alla possibilità di usare l’intelligenza artificiale per ottenere brevi riassunti di altri studi, da citare nel proprio.
Passando invece al comportamento riferito dai partecipanti, il 65% del campione ha dichiarato di non essersi mai servito di questi strumenti nella scrittura di paper scientifici. Coloro che l’hanno fatto – principalmente ricercatori più giovani a inizio carriera – hanno affermato di essersi affidati all’IA soprattutto per migliorare un testo scritto di proprio pugno. Inoltre, la maggior parte delle persone che ha dichiarato di aver utilizzato l’IA per una o più fasi del processo di produzione di un articolo ha riferito di aver taciuto a riguardo.
Sono state riscontrate notevoli differenze anche relativamente all’uso dell’IA nel processo di peer review. Nel 66% dei casi gli autori hanno ritenuto inaccettabile far scrivere all’IA una peer review da zero, considerando invece lecito (nel 57% dei casi) sottoporre a ChatGPT e simili delle domande specifiche riguardo al contenuto del manoscritto da valutare. Ciononostante, solo il 5% degli intervistati ha dichiarato di averlo fatto.
Come interpretare questi risultati?
Insomma, dai dati raccolti attraverso il sondaggio di Nature non emergono né prospettive condivise sugli usi eticamente accettabili dell’intelligenza artificiale nella redazione di paper scientifici, né abitudini comuni nell’impiego effettivo di questi strumenti.
Non ne è sorpreso Sebastian Goldt, ricercatore a capo del Theory of neural networks group della SISSA di Trieste e recente vincitore di un prestigioso “Starting Grant” dell’Unione Europea.
“Credo che il divario di opinioni emerso dal sondaggio sia dovuto al fatto che la rivoluzione dell’intelligenza artificiale è ancora agli albori”, commenta Goldt. “Probabilmente, nei prossimi mesi e anni, man mano che l'utilizzo di ChatGPT e di altri modelli simili diventerà più diffuso, anche le nostre percezioni a riguardo saranno più allineate”.
Per quanto riguarda il tema della trasparenza, il ricercatore non crede che inserire all’inizio di un paper una frase del tipo: questo articolo è stato scritto con l’aiuto dell’IA, sarebbe particolarmente esplicativo. “L’intelligenza artificiale può essere usata in modi estremamente diversi: dalla correzione grammaticale alla riformulazione di singole frasi, dalla scrittura di intere parti di testo allo sviluppo di idee”, continua Goldt. “Perciò, dichiarare un uso generico dell’IA non basta: per essere davvero trasparenti, bisognerebbe specificare in che modo e per quali fasi del lavoro è stata impiegata.
Detto ciò, credo che la trasparenza resti un problema secondario rispetto a quello della responsabilità. Mi capita spesso di spiegare ai miei studenti che indipendentemente dal modo in cui scelgono di usare l’intelligenza artificiale – che la impieghino o meno, e a prescindere dalle modalità in cui lo fanno –restano sempre responsabili del loro lavoro. Perciò, se in un articolo dovessero esserci bugie, inferenze sbagliate o bug nei codici, gli autori sono comunque pienamente responsabili di quello che firmano. Non possono certo attribuire la colpa per eventuali errori al modello di IA (di cui, peraltro, non ci si può mai fidare al 100%). Proprio questa consapevolezza, a mio avviso, può indurci a un uso più attento e critico degli strumenti basati sull’IA, non solo nella scrittura, ma anche nella ricerca e nella traduzione”.
Proprio l’esempio della traduzione aiuta a rimarcare ulteriormente l’importanza della responsabilità. “Nel mio gruppo di ricerca, nessuno è madrelingua inglese, compreso me”, racconta il ricercatore. “Perciò, avere a disposizione uno strumento come ChatGPT che ci aiuta a scrivere in un inglese non soltanto corretto dal punto di vista grammaticale, ma anche chiaro e scorrevole, è di grande aiuto.
Tuttavia, scrivere un testo nella propria lingua e tradurlo interamente con l’IA espone al rischio di non poterne controllare del tutto l’esattezza: la versione inglese potrebbe contenere costruzioni linguistiche o sfumature di significato che alterano il senso del contenuto originale e che l’autore non è in grado di riconoscere.
Anche in questo caso, però, la responsabilità del testo in inglese resta sempre di chi lo firma. Non si dovrebbe inviare a un editore un testo che non si è capaci di capire del tutto, scritto in una lingua che non si conosce”.
Goldt si dice invece sorpreso del fatto che solo il 2% degli intervistati abbia ammesso di aver usato modelli di intelligenza artificiale per scrivere peer reviews senza averlo dichiarato. “Mi sembra una stima a ribasso, che temo non rispecchi la reale quantità di persone che si sono affidate all’IA per questo tipo di lavoro”, commenta. “Dobbiamo infatti tenere conto che i dati del sondaggio sono self-reported: raccontano ciò che le persone dicono di fare, non i loro reali comportamenti; perciò, credo che questi numeri vadano letti con la giusta cautela e considerati più che altro indicativi.
La scrittura di una review è un’attività che richiede molto tempo e impegno, che non viene remunerata ed è finalizzata alla stesura di un testo che nella maggior parte dei casi viene letto solo dall’editore. Si, tratta, quindi, di un lavoro per certi versi “invisibile”, per quanto fondamentale nel processo scientifico.
Il problema è che il numero delle pubblicazioni inviate agli editori sta crescendo in maniera esponenziale da qualche anno a questa parte; per cui è sempre più difficile stare al passo con le review. Nell’ultimo anno la situazione si sta aggravando a tal punto che mi chiedo se questo sistema sia ancora sostenibile. Io stesso ricevo quasi una richiesta al giorno per scrivere una peer review”.
Secondo Goldt, questo vertiginoso aumento dei paper da revisionare potrebbe essere legato anche all’uso dei modelli di intelligenza artificiale, che rendono più rapida la produzione di articoli. “Non si è registrato un aumento tale nel numero di ricercatori attivi da giustificare una crescita così marcata nella produzione di paper”, osserva il ricercatore. “È probabile, quindi, che il motivo di questo incremento sia legato a una maggiore diffusione dell’uso dell’IA, che permette di scrivere questi testi più velocemente.
Di fronte a una situazione così critica, la tentazione di usare l’intelligenza artificiale per velocizzare il processo di revisione è fortissima. Ma questo non ci autorizza comunque a farlo. È una pratica inaccettabile, ed è piuttosto preoccupante l’idea che molti non ammettano di averla adottata.
Se ci si affida all’IA per scrivere le review di articoli scritti dall’IA si rischia di perdere il controllo della situazione. Rischiamo di arrivare davvero a un punto in cui uno stesso modello di intelligenza artificiale scrive articoli e se li revisiona da solo.
È uno scenario possibile che dovrebbe spingerci a chiederci cosa stiamo facendo e cosa desideriamo in quanto membri della comunità scientifica. Chiaramente, non c’è una soluzione semplice a questo problema, ma è qualcosa su cui dovremmo seriamente interrogarci, pur tenendo come punto fermo che la responsabilità resta degli autori, di una pubblicazione così come di una peer review.
In un futuro prossimo, in cui l’uso di questi modelli sarà ancora più diffuso, diventerà fondamentale discutere, come comunità, di ciò che riteniamo accettabile e di ciò che invece non vogliamo. In questo senso, sondaggi come quello recentemente condotto da Nature possono costituire un buon punto di partenza per stimolare il dibattito sull’uso dell’intelligenza artificiale nella traduzione e in altri ambiti”.
Il fatto che i diversi editori scientifici stiano regolamentando in modo diverso l’uso dell’intelligenza artificiale negli articoli che pubblicano – adottando criteri più o meno restrittivi a seconda dei casi – dimostra quanto il dibattito sia ancora aperto.
“Credo sia difficile, e nemmeno necessario, definire già ora delle linee guida “universali” condivise da tutti gli editori scientifici, riguardo l’uso dell’intelligenza artificiale”, riflette Goldt. “È ancora troppo presto: siamo in una fase di sperimentazione, in cui è arduo prevedere quali saranno le vere criticità sul lungo periodo. Gli approcci testati dalle diverse riviste scientifiche continueranno a cambiare sia “dall’interno”, attraverso il lavoro dei comitati editoriali – che spesso includono anche scienziati – sia dall’esterno, attraverso l’imitazione e il confronto reciproco. Probabilmente si giungerà a una certa convergenza, ma credo sia uno di quei casi in cui è necessario prima osservare come si evolve la situazione, e solo dopo definire regole chiare. Farlo in anticipo sarebbe prematuro e inefficace”.