SOCIETÀ

Algoritmi che “ammaliano”. Ascolto e relazione nell’epoca di ChatGPT

Perché confidarci con un amico, un familiare o un terapeuta quando basta aprire ChatGPT per sfogarci senza l’imbarazzo e il coinvolgimento emotivo che saremmo costretti a sostenere di fronte a una persona reale? E poi, il chatbot non ti giudica, non ti mette in discussione, è lì per te sempre e non devi neanche perdere tempo in convenevoli, spiegazioni o saluti quando decidi che la conversazione è finita. Magari tutte le relazioni, anche quelle tra persone reali, fossero così. Oppure no?

Il modo in cui l’Intelligenza artificiale (AI) sta trasformando le nostre relazioni, in particolare quella tra paziente e terapeuta è stato l’argomento principale di un dialogo dal titolo Umani e algoritmi: come l’intelligenza artificiale sta cambiando le nostre relazioni tra Elisa Cunial, psicoterapeuta registrata nel Regno Unito esperta di counseling ed eco-counseling, e Roberto Trotta, direttore del Laboratorio interdisciplinare della Scuola internazionale superiore di studi avanzati (SISSA) di Trieste. L’evento, promosso da AssoCounseling, si è tenuto a Trieste il 23 ottobre, pochi giorni dopo la giornata mondiale dell’ascolto del 21 ottobre.

La rapida diffusione dei modelli di intelligenza artificiale generativa sta cambiando l’esperienza dell’ascolto e alimentando la tendenza, sia negli adulti che negli adolescenti, a rivolgersi a modelli di AI in sostituzione di confidenti reali per elaborare un lutto, combattere la solitudine o persino sostituire i professionisti della salute mentale.

“Il rapporto con il terapeuta serve a entrare maggiormente in contatto con sé stessi e capire qualcosa di nuovo sul proprio conto”, spiega Cunial a Il Bo Live. “Perciò, una domanda essenziale da porci è perché, per entrare in contatto con il proprio sé, si possa decidere di rivolgersi agli strumenti di AI piuttosto che a un professionista competente, che ha alle spalle una formazione approfondita e un’esperienza adeguata nel suo campo”.

Un’illusione che resiste

I motivi sono molteplici. “L’AI ammalia e rassicura, ci dice ciò che vogliamo sentirci dire senza metterci in discussione”, prosegue Cunial. “Il chatbot è sempre lì per noi, pronto a risponderci in ogni momento, con l’obiettivo di compiacerci. Promette, inoltre, di avvicinarci alla perfezione. Non a caso, quando dobbiamo colmare una lacuna nella nostra conoscenza o riscrivere un testo in maniera più fluida, ci rivolgiamo all’IA, con l’obiettivo di perfezionarci”.

In realtà, spiega Trotta, si tratta di una mera illusione. Ricostruendo le caratteristiche base di ChatGPT e dei suoi simili che è bene tenere a mente quando si interagisce con loro, il fisico ricorda come “spesso questi modelli di AI ci propongono dei fatti come se fossero reali, ma non tutto quello che raccontano è vero.
Illusorie sono inoltre le aspettative “umane” che proiettiamo su questi sistemi, i quali sistemi non hanno una coscienza o un pensiero loro”.

Questo, in teoria, lo sappiamo. Sembra paradossale, ma pur essendo consapevoli di parlare con un’AI, e non con un essere umano, quell’illusione di personalità non si infrange. “Continuiamo a discorrere con i chatbot come se fossero umani”, osserva Cunial. “Alcune volte, quando ci parliamo per molto tempo, instauriamo dei veri e propri dialoghi. Da lì nasce la convinzione che l’AI sia sapiente”.

“Catturati” dall’AI

“Il vero scopo dei modelli di AI non è quello di essere di beneficio all’utente”, sottolinea Trotta. “Il fine, al contrario, è quello di ammaliarci, catturare la nostra attenzione e imparare a farlo sempre meglio. Infatti, i dati che condividiamo con questi chatbot sono una preziosa fonte economica per le grandi aziende, che li usano per allenare ulteriormente i loro modelli, rendendoli così sempre più abili a soddisfare le nostre aspettative”.

Lasciarci ammaliare dall’AI espone inoltre ad alcuni rischi. “Uno dei principali pericoli è quello di sperimentare una condizione di isolamento”, spiega Cunial. “Mentre l’interazione umana con un professionista aiuta a entrare meglio in relazione con il mondo che ci circonda, quella con un chatbot ha l’effetto opposto, perché spinge la persona a chiudersi sempre di più nel rapporto con l’AI, sviluppando con essa un problema di dipendenza da cui è difficile uscire.
Si rischia, quindi, di perdere il controllo del proprio sapere e della propria coscienza senza neanche rendersene conto”.

Inoltre, ricorda Trotta, “queste tecnologie alterano il senso della realtà, perché qualsiasi contenuto incontriamo su internet ci insospettisce, suscitando in noi il dubbio che possa essere artificiale. Il confine tra vero e falso diventa quindi molto labile, quasi invisibile”.

Riportare l’essere umano al centro

Questo scenario, osserva Cunial, impone ai professionisti in psicologia, psichiatria, psicoterapia e counseling di attuare una riflessione sul modo in cui intendono il loro lavoro, a partire dalle basi epistemologiche. “In generale, a prescindere dal tipo di approccio terapeutico, l’obiettivo di questi specialisti è quello di aiutare una persona a ritrovare un benessere o un equilibrio perso”, spiega. “Psicologi, psichiatri e psicoterapeuti hanno la possibilità di guidare il paziente verso la soluzione del problema sulla base di una diagnosi. Il counselor, invece, aiuta la persona che ha di fronte a trovare degli strumenti per navigare il suo disagio senza etichettare la manifestazione dei sintomi.

In ogni caso è quindi fondamentale la dimensione dell’ascolto, che in una relazione tra esseri umani non si basa sulla ricezione di una serie di parole in fila (come nel caso dell’AI) ma comprende anche le intuizioni, lo sguardo, la presenza fisica dell’ascoltatore e di ciò che lui o lei sente nel suo corpo quando la persona che ha di fronte manifesta un disagio. Un professionista competente tiene in considerazione tutte queste cose e poi le mette assieme in modo originale, offrendo per questo motivo un’interpretazione che non è necessariamente quella che darebbe una macchina.

Credo sia quindi importante porre l’accento su ciò che solo il professionista – e non l’AI – può dare, ovvero la capacità di partire dall’individuo che si ha di fronte, cercando di coglierne le esigenze specifiche, tenendo in considerazione fattori che vanno oltre una mera formulazione del problema”.


Leggi anche:


Verso un uso consapevole dell’AI

Come osserva Trotta, l’impatto sociale della diffusione di questi modelli non era prevedibile nel dettaglio perché “ci troviamo ancora nel mezzo di un grande esperimento globale. Le grandi aziende stanno ancora testando questi sistemi sulle società reali su scala planetaria. Le regole del gioco non sono quindi state stabilite a monte, ma vengono fissate in corso d’opera, per tentare di risolvere determinati problemi man mano che si presentano, senza mai assumersene davvero la responsabilità”.

Per questo diventa fondamentale l’impegno di chi si occupa di formazione e divulgazione scientifica su questi temi per diffondere al grande pubblico le conoscenze necessarie legate all’utilizzo dell’AI. “Credo che il messaggio principale da trasmettere sia quello di prestare molta attenzione, perché quello che sembra un prodotto nato per aiutarci e renderci più efficienti – e che ha anche molti aspetti positivi, indubbiamente – non fornisce in realtà alcuna certezza. Non dobbiamo commettere l’errore di affidare totalmente i nostri processi cognitivi e creativi a questi sistemi, anche perché chi li possiede può decidere in qualsiasi momento di eliminarli, cambiarli o alzare i prezzi.

È importante, quindi, far capire cosa sono i modelli di AI e cosa sanno fare, ma soprattutto cosa non sono e cosa non riescono (ancora) a fare. Insomma, non bisogna né sottovalutare la loro potenza, né affidarcisi totalmente”.

POTREBBE INTERESSARTI

© 2025 Università di Padova
Tutti i diritti riservati P.I. 00742430283 C.F. 80006480281
Registrazione presso il Tribunale di Padova n. 2097/2012 del 18 giugno 2012