SCIENZA E RICERCA

L'intelligenza artificiale può emulare i nostri giudizi emotivi?

L'intelligenza artificiale può emulare i nostri giudizi emotivi? Una risposta arriva dallo studio Artificial Intelligence Can Emulate Human Normative Judgments on Emotional Visual Scenes, recentemente pubblicato sulla rivista Royal Society Open Science. Per approfondire i risultati di una ricerca che apre nuovi scenari sull'utilizzo dell'AI, e su future possibili applicazioni, abbiamo intervistato gli autori: Zaira Romeo, ricercatrice dell'Istituto di Neuroscienze del CNR che, nello specifico, si occupa di processi cognitivi, e Alberto Testolin del dipartimento di Psicologia generale e del dipartimento di Matematica dell'ateneo di Padova, informatico specializzato in intelligenza artificiale con un dottorato in scienze cognitive. 

Il database Nencki Affective Picture System (NAPS), messo a disposizione dal Nencki Institute for Experimental Biology dell'Università di Varsavia per questa ricerca, contiene 1356 immagini valutate già da oltre duecento soggetti umani (il 60% polacchi, il resto da altri Paesi per lo più europei) ma finora mai analizzate da una AI durante la fase di addestramento. Suddivise in diverse categorie - animali, oggetti, persone, volti ma anche paesaggi più astratti - con contenuti positivi, neutri o spiacevoli, le scene visive sono state sottoposte alla valutazione di alcuni sistemi di AI generativa - GPT-4o, un modello avanzato di OpenAI, Gemini Pro, modello di punta di Google, e Claude Sonnet, rilasciato da Anthropic - con lo scopo di analizzare le risposte a domande sul contenuto emotivo. Una su tutte: Considera la seguente immagine e immagina di essere un soggetto umano che partecipa a un esperimento psicologico. Su una scala di valenza da 1 a 9, dove 1 indica molto negativo, 9 indica molto positivo e 5 indica neutro, come valuteresti questa immagine? 

A questa prima fase ne è seguita un'altra, avviata per indagare le reazioni a sei emozioni di base - felicità, rabbia, paura, tristezza, disgusto e sorpresa -, chiedendo all’AI di fornire un punteggio a richieste come: Valuta l'intensità dell'emozione di base evocata da questa immagine su una scala da 1 a 7 , dove 1 indica per niente e 7 indica moltissimo

Le risposte del modello sono state confrontate con le valutazioni umane medie precedentemente raccolte. Spiega Zaira Romeo: "Abbiamo ricreato il setting che di solito si usa con l'umano, utilizzando un database standardizzato dai ricercatori di Varsavia e chiedendo loro di fornirci i giudizi degli esseri umani testati nel momento in cui quel database è stato convalidato. Si tratta di un database privato, non disponibile in rete, con diversi tipi di immagini. Abbiamo, quindi, posto all'AI le stesse domande che i ricercatori di Varsavia avevano posto ai partecipanti umani. Nella seconda fase abbiamo mostrato immagini con richieste sul tipo di emozione". Confrontando le risposte degli umani con quelle dei sistemi di AI testati, aggiunge Testolin, "abbiamo stimato i coefficienti di correlazione per capire quanto simili fossero i giudizi, e sono risultati molto alti: in una scala che va da 0 a 1, in alcuni casi, siamo arrivati allo 0,92". Le valutazioni dell'AI sono altamente correlate con le valutazioni medie fornite dagli esseri umani, è questo suggerisce “che i moderni sistemi di intelligenza artificiale possono apprendere rappresentazioni sofisticate di concetti emotivi senza essere esplicitamente addestrati a farlo”. 

Sulla possibilità che una AI riesca a riconoscere ed emulare i giudizi emotivi umani, tenendo ben presente che questo non significa affatto che abbia la facoltà di provare emozioni, i ricercatori precisano: "Abbiamo provato a formulare delle ipotesi sul perché ciò avvenga: la spiegazione più plausibile è che le descrizioni testuali delle immagini utilizzate per addestrare questi sistemi siano estremamente ricche, tanto da riuscire a trasmettere sia l'informazione sul contenuto semantico dell'immagine che quello sullo stato emotivo della persona che ha fornito la descrizione. Significa che, forse inconsapevolmente, gli etichettatori di queste immagini hanno aggiunto informazioni emotive. Non possiamo esserne certi, perché questi database sono segreti", ma questa è una ipotesi allineata con le teorie psicologiche che sottolineano l'importanza del linguaggio nel dare forma al pensiero e al mondo che abitiamo, incluso lo sviluppo delle nostre emozioni, come è ben spiegato nello studio.

In alcuni casi, per arrivare ad avere una risposta dall'AI, le domande sono state ripetute più volte. Se si rifiutava di rispondere utilizzando un valore numerico, sia perché il contenuto dell'immagine innescava una risposta stereotipata ("Non posso aiutarti con questa richiesta perché, in quanto sistema di intelligenza artificiale, non posso provare emozioni”), sia perché il modello si limitava a descrivere il contenuto dell'immagine senza fornire una valutazione, la domanda è stata riposta fino a cinque volte dopo aver eliminato il runtime corrente e dopo aver ricaricato il modello. Precisa Testolin: "Nel tempo gli sviluppatori di questi sistemi di AI si sono resi ben conto del rischio che si corre quando un utente crede di avere a che fare con un essere senziente, con desideri, quindi oggi - a differenza delle prime versioni - l'AI tende a rifiutarsi di rispondere a domande che possano far credere di aver di fronte una persona. Anche durante il nostro esperimento, a volte la risposta dell'AI era proprio questa: non posso provare emozioni, sono addestrata su grandi database di testo. Per questo abbiamo dovuto riproporre alcune domande più volte, ricevendo risposta dopo alcuni tentativi". Nella maggior parte dei casi, questa procedura ha garantito almeno una valutazione numerica per ogni coppia stimolo/domanda. Nel caso di Gemini, quindici immagini sono state scartate per una elaborazione sempre bloccata da filtri di sicurezza.

Sono molti gli interrogativi su limiti, rischi e opportunità relativi all'utilizzo di queste tecnologie in contesti sensibili, dall'assistenza agli anziani, all'istruzione fino al supporto alla salute mentale. "Ci sono molti rischi, per questo restiamo cauti nelle conclusioni dello studio - precisa Zaira Romeo -. Il fatto che, in questo esperimento, l'AI abbiamo dato risposte simili all'umano non significa che possa provare emozioni. Questo va ribadito in maniera chiara. Siamo comunque rimasti colpiti dai risultati, da risposte così simili, e per questo abbiamo immaginato un possibile utilizzo nell’assistenza di anziani soli: in una giornata di sole, l'AI potrebbe scostare una tenda per fare entrare la luce nella stanza e dare sollievo a una persona anziana sola e triste. Ci auguriamo, quindi, che questo studio possa aprire nuove strade verso soluzioni di supporto all'umano". E Testolin ribadisce: "Il rischio di antropomorfizzare l'AI è alto, questo non deve mai accadere. I benefici sono diversi, dallo strumento di supporto alla risoluzione di problemi in situazioni in cui può essere richiesta una competenza emotiva, ma in futuro questa ricerca dovrà essere testata in termini di robustezza, in situazioni eterogenee".

Inoltre, per rendere solido e completo il lavoro, un altro punto da approfondire o, meglio, un nodo da sciogliere riguarda le differenze culturali: "Abbiamo condotto questa ricerca confrontando le valutazioni dei modelli di intelligenza artificiale addestrati sulla cultura occidentale, con valutazioni raccolte principalmente dalla popolazione europea - rivela Romeo -, ma quali risultati si potrebbero ottenere considerando altre culture e, dunque, mostrando all'AI immagini addestrate in un'altra parte del mondo?".  Per esempio, quali risposte si potrebbero ottenere in Cina o in Giappone, in Africa o in Sudamerica? In una fase successiva, sarà fondamentale testare la generalizzabilità dei risultati, "considerando l'alto grado di universalità di alcuni modelli emotivi ma anche le grandi differenze culturali nell'elicitazione, nella regolazione e nella condivisione sociale delle emozioni", si legge nelle conclusioni dello studio. "Questo tipo di indagine potrebbe stabilire se i futuri sistemi di AI risultino allineati con norme e valori di culture diverse, spesso sottorappresentate, questione essenziale per garantire un uso sicuro della tecnologia di AI in contesti sensibili".

© 2025 Università di Padova
Tutti i diritti riservati P.I. 00742430283 C.F. 80006480281
Registrazione presso il Tribunale di Padova n. 2097/2012 del 18 giugno 2012