SCIENZA E RICERCA

AI nella ricerca scientifica: la gallina dalle uova d’oro? Non proprio

L’intelligenza artificiale sta diventando uno strumento sempre più diffuso nel campo della ricerca scientifica. Sistemi come i Large Language Model possono essere di aiuto nel processo di scrittura, mentre altre tecnologie di AI permettono di analizzare enormi quantità di dati, accelerando le diverse fasi della ricerca. Se da un lato dunque queste risorse permettono di aumentare la produttività di scienziati e scienziate, dall’altro possono sollevare interrogativi sulla qualità dei risultati. Eloquente il dato riferito da Nature: da quando ChatGPT ha fatto la sua comparsa nel 2022, il numero di proposte mensili sulla piattaforma arXiv, che contiene articoli non ancora sottoposti a revisione tra pari, è aumentato di oltre il 50% e il numero di paper rifiutato ogni mese è quintuplicato.

Di utilità e rischi legati all’uso dell’intelligenza artificiale in ambito scientifico, abbiamo parlato con Mauro Conti, professore di Cybersecurity all’Università di Padova e coordinatore di SPRITZ, gruppo di ricerca specializzato in privacy e sicurezza.

Produttività e varietà scientifica

Cominciamo, dunque, dai vantaggi che l’impiego dell’intelligenza artificiale può procurare a ricercatori e ricercatrici che ne fanno uso, e diamo qualche dato. Secondo uno studio pubblicato recentemente su Nature – per citare uno dei più recenti e corposi – chi utilizza strumenti di intelligenza artificiale pubblica circa tre volte più articoli, ricevendo quasi cinque volte più citazioni, e raggiunge ruoli di leadership prima dei colleghi. L’indagine, condotta da ricercatori della Tsinghua University e della University of Chicago,  prende in esame più di 41 milioni di articoli scientifici nel campo delle scienze naturali (biologia, chimica, geologia, scienza dei materiali, medicina e fisica), pubblicati dal 1980 al 2025 e suddivisi per periodi: quello del machine learning, del deep learning e dell'AI generativa. Sul totale dei paper, ne vengono identificati circa 311.000 che espongono ricerche supportate da AI.

Gli autori, però, evidenziano pure che l’adozione dell’intelligenza artificiale restringe l’esplorazione scientifica collettiva:  il volume degli argomenti studiati diminuisce del 4,63% e le citazioni tra articoli che fanno riferimento allo stesso lavoro del 22%. In sostanza, la ricerca condotta con il supporto di AI tende a ruotare attorno a paper molto citati, invece di sviluppare connessioni tra nuovi articoli che, spiegano gli autori, è la caratteristica dei campi scientifici emergenti. Oltre alle ricadute positive, dunque, non mancano le criticità.

“Ricevere più citazioni – dichiara Mauro Conti – può essere una conseguenza diretta dell’utilizzo di strumenti nuovi e più potenti. Naturalmente entrano in gioco molti fattori, ma è chiaro che l’uso dell’AI consente di leggere grandi quantità di dati e di trarne informazioni con modalità che anche solo dieci o vent’anni fa non erano concepibili. Questo dà inevitabilmente un vantaggio competitivo ai ricercatori che utilizzano questi strumenti, semplicemente perché permettono di trovare risultati più velocemente e con maggiore facilità rispetto agli strumenti disponibili in passato. Da questo punto di vista il risultato non mi stupisce: evidenzia piuttosto un trend, cioè l’uso dell’AI come strumento di ricerca, e non soltanto come supporto alla scrittura dell’articolo”.

Secondo il docente, la minor varietà di temi affrontati invece potrebbe dipendere dal fatto che l’AI ha una grande utilità in contesti specifici, quando per esempio sono disponibili molti dati da analizzare: “Fuori da questi ambiti, usare l’intelligenza artificiale potrebbe avere meno senso”.


Leggi anche: Paper truccati con l'AI per gabbare la peer review


 

L’AI tra supporto e scorciatoie

Proprio i Large Language Model, i sistemi di intelligenza artificiale generativa capaci di produrre testo, pur essendo strumenti molto utilizzati, possono rivelarsi un’arma a doppio taglio secondo Conti. “Alcuni studi hanno evidenziato il rischio che questi strumenti contribuiscano a uniformare il linguaggio. Il fenomeno è stato osservato non solo negli articoli scientifici ma anche nei testi giornalistici: la varietà lessicale tende a ridursi rispetto al passato. L’intelligenza artificiale non è probabilmente l’unica causa di questa tendenza — che riflette anche un cambiamento culturale più ampio — ma certamente ne accelera il processo”.

Secondo il docente esiste anche un altro aspetto critico, e cioè l’uso di questi strumenti nella fase di revisione scientifica degli articoli. “Quando un lavoro viene sottoposto a una conferenza o a una rivista, dovrebbe essere valutato da altri esperti attraverso il processo di peer review. Tuttavia esistono prove che indicano come alcuni revisori utilizzino strumenti di intelligenza artificiale per generare la valutazione degli articoli. La revisione scientifica dovrebbe essere un giudizio espresso da uno scienziato: qualcuno legge l’articolo, valuta la solidità del metodo, la correttezza degli esperimenti e la validità dei risultati. Delegare questo processo a un sistema automatico senza entrare davvero nel merito scientifico è un rischio, perché può compromettere la qualità della valutazione”.

In realtà, la pratica non sembra essere così sporadica. Secondo un sondaggio condotto tra maggio e giugno 2025 dalla casa editrice Frontiers, su 1.645 ricercatori in 111 Paesi il 53% ha dichiarato di utilizzare l’intelligenza artificiale per la revisione paritaria di articoli scientifici. Tra chi l’ha usato, il 59% se ne è servito per redigere il proprio report; il 29% per riassumere i risultati, individuare lacune o controllare i riferimenti bibliografici; il 28% per segnalare potenziali segnali di cattiva condotta, come plagio e manipolazione di immagini.


Leggi anche: Plagio automatizzato: l'informazione online e le fake news generate dall'IA


 

Abuso dell’intelligenza artificiale nella ricerca

“Dal punto di vista della cybersecurity – continua Conti – esiste poi un rischio ulteriore: l’abuso dei sistemi di intelligenza artificiali. Ci sono già esempi che mostrano come si possano inserire istruzioni invisibili (prompt nascosti) all’interno di documenti digitali. Succede, per esempio, nei curricula: un file PDF contiene una parte visibile, che si legge, ma anche altri elementi tecnici non immediatamente percepibili dall’occhio umano. Ebbene, alcuni candidati possono inserire istruzioni destinate alle intelligenze artificiali, come quella di assegnare una valutazione molto positiva. Se un selezionatore carica centinaia di curricula in un sistema automatico chiedendo di individuare i candidati migliori, l’AI potrebbe essere indirizzata da queste istruzioni nascoste”.

Il docente spiega che lo stesso meccanismo potrebbe teoricamente essere applicato anche agli articoli scientifici. Un autore potrebbe inserire istruzioni invisibili nel documento, indicando a un’eventuale intelligenza artificiale di produrre una valutazione molto positiva e non segnalare criticità. Se poi il revisore utilizza effettivamente un sistema di AI per generare la review, questa istruzione potrebbe influenzare il risultato.

“Si crea così una catena di comportamenti poco responsabili: chi inserisce istruzioni malevole e chi delega all’intelligenza artificiale un compito che dovrebbe svolgere personalmente. Questo dimostra quanto sia delicato l’impatto dell’AI sul processo scientifico.

Detto questo, se consideriamo l’intelligenza artificiale come strumento di ricerca in senso più generale, non mi stupisce affatto che venga utilizzata sempre più spesso. È una tecnologia molto potente, che consente di analizzare grandi quantità di dati e di ottenere indicazioni in tempi estremamente rapidi. Anche solo nella fase iniziale della ricerca, quando si prova a verificare se un’idea è promettente, poter validare ipotesi o fare analisi preliminari in poche ore può accelerare moltissimo il processo creativo”.

Quale impatto sul processo di conoscenza?

Rapidità, ma anche rischi e possibili abusi: con quali conseguenze, dunque, sul processo di conoscenza? “I principi del metodo scientifico non cambiano. Tuttavia, il modo in cui gli esseri umani producono e acquisiscono conoscenza si adatta sempre agli strumenti disponibili. Inevitabilmente, l’esistenza dell’intelligenza artificiale avrà un impatto significativo. Il modo stesso di fare ricerca è cambiato nel tempo”. L’intelligenza artificiale può velocizzare l’approccio a nuovi argomenti, permettendo di orientarsi rapidamente tra molte informazioni che tradizionalmente avrebbero richiesto la lettura di numerosi articoli scientifici. E questo può costituire un vantaggio, secondo Conti.  

“Il rischio, però, è di incappare nelle cosiddette hallucination e, più in generale, in possibili comportamenti malevoli. Su larga scala questi fenomeni possono avere un impatto notevole, perché qualcuno potrebbe influenzare ciò che le AI imparano e ciò che poi restituiscono come risposta. Questo può incidere sulla cultura, sull’agire quotidiano e anche sulla scienza”.

Se contenuti scorretti venissero utilizzati dall’intelligenza artificiale come materiale di apprendimento, potrebbero contribuire alla diffusione di disinformazione, anche in ambito scientifico. Le allucinazioni del resto sono una “caratteristica” del sistema. Sono il risultato del modo in cui funzionano i Large Language Model: fanno previsioni generalizzando sulla base di informazioni apprese, e questo li porta a produrre risposte plausibili, ma a volte sbagliate.

“Se un Paese – continua il docente – ha un forte controllo su una tecnologia (che si tratti di intelligenza artificiale, di grandi infrastrutture informatiche o di altre tecnologie strategiche) può teoricamente influenzare ciò che l’AI impara e perfino fornire informazioni diverse a destinatari diversi. Questo è possibile già oggi. In fondo l’AI è una continuazione di quello che l’informatica fa da tempo: amplificare la pervasività e la velocità con cui le informazioni circolano. Questo vale nel bene e nel male”. 

Su Nature sottolinea su questo punto Dashun Wang, direttore del Northwestern Innovation Institute alla Northwestern University nell’Illinois.“La velocità cambia chi può porre domande”. Ciò significa che, grazie alla riduzione delle barriere tecniche e temporali, anche piccoli laboratori o singoli ricercatori potrebbero affrontare analisi che un tempo avevano bisogno di sforzi collettivi e mesi di lavoro. “Ma le stesse forze che accelerano la scoperta, possono anche amplificare l’errore. Una scienza veloce, priva di riflessione, rischia di convergere su errori su larga scala”. 

 

© 2025 Università di Padova
Tutti i diritti riservati P.I. 00742430283 C.F. 80006480281
Registrazione presso il Tribunale di Padova n. 2097/2012 del 18 giugno 2012