
Immagine generata con AI. Adobe Stock
Se fino a qualche anno fa l’idea di confidare i propri pensieri più intimi a un software poteva apparire quantomeno bizzarra, oggi invece è una realtà per milioni di uomini e donne. Empatico, sempre compiacente e disponibile a qualsiasi ora del giorno e della notte, “AI companion” è un compagno virtuale alimentato dall’intelligenza artificiale e progettato per instaurare relazioni affettive e personalizzate con gli utenti. Molte applicazioni consentono di scegliere un’identità – maschile o femminile, vera o di fantasia – per poi iniziare a costruire un rapporto: un’amicizia, un sostegno quotidiano, a volte una vera e propria relazione sentimentale.
Il fenomeno è in rapida espansione e sembra ridefinire i confini tra umano e artificiale, sollevando però più di qualche interrogativo sul piano sociale, psicologico e giuridico. Come emerge da un recente editoriale pubblicato su Nature machine intelligence, il settore necessita di una regolamentazione più stringente e di studi longitudinali che valutino in modo più approfondito rischi e benefici.
AI companion: cos’è?
Gli AI companion sono chatbot avanzati basati su Large Language Models (LLM), cioè modelli di intelligenza artificiale addestrati su enormi quantità di dati testuali per apprendere, sintetizzare e generare un linguaggio naturale, che vengono perfezionati attraverso l’apprendimento per rinforzo basato sul feedback umano. All’inizio del 2025 quelli disponibili sono più di 100.
Una delle applicazioni più popolari è Replika con più di 30 milioni di download, secondo quanto riferisce nel 2024 la fondatrice e Ceo della piattaforma, Eugenia Kuyda. Altrettanto noti sono My AI di Snapchat che a giugno 2023 annovera oltre 150 milioni di fruitori, Xiaoice con più di 660 milioni, e Character AI con più di 20 milioni di utenti attivi mensili.
Nel nostro Paese nel mese di aprile circa 120.000 persone avrebbero usato la piattaforma: utilizzata soprattutto da chi è più giovane, consente di creare e chattare con personaggi reali o immaginari. Sebbene in generale non sia l’applicazione più utilizzata – se raffrontata per esempio con ChatGpt di cui si servono quasi nove milioni di italiani –, sembra essere però la più coinvolgente, dato che l’utilizzo sfiora le 20 ore al mese.
Le ragioni che inducono tante persone a scegliere un chatbot per amico sono varie. Molti utenti sono mossi da semplice curiosità o da desiderio di svago: gli AI companion permettono di conversare, svolgere attività di vario tipo o condividere interessi. Altre persone sono spinte invece dal bisogno di contrastare la solitudine, mentre per alcune l’interazione può assumere addirittura una dimensione affettiva o romantica: rispettivamente il 12% e il 3,5% su un campione di 404 individui considerati in uno studio del MIT Media Lab di Cambridge, Massachusetts (pubblicato in preprint su ArXiv).
Queste tecnologie garantiscono inoltre una presenza continua e accessibile in ogni momento. Un compagno “che si prende cura di te. Sempre pronto ad ascoltare e parlare. Sempre dalla tua parte”, si legge per esempio sul sito di Replika. L’AI non esprime critiche né emette giudizi morali e ciò favorisce un ambiente in cui le persone si sentono libere di esprimere pensieri ed emozioni, anche su temi personali o complessi.

Immagine generata con AI. Adobe Stock
Empatia e interazione costanti
Chi usa un AI companion può personalizzare gratuitamente alcuni aspetti del proprio interlocutore virtuale, oppure scegliere tra chatbot con personalità predefinite. Alcune app però prevedono anche la possibilità di definire ulteriormente i tratti e le caratteristiche di colui o colei con cui si intende chattare, attraverso il pagamento di una tariffa mensile. La piattaforma Replika, per esempio, prevede la possibilità di scegliere il tipo di relazione ma alcune di queste, come lo stato di coniuge o partner, sono accessibili solo con abbonamento. Si intuisce facilmente che i sistemi di intelligenza artificiale disegnati per offrire compagnia, supporto emotivo e relazioni anche più profonde hanno tutte le potenzialità per diventare un grande affare, se si considera che milioni di persone in tutto il mondo li utilizzano.
C’è tutto l’interesse a incentivare le interazioni, e per farlo si ricorre a varie strategie. Gli algoritmi imitano il più fedelmente possibile la comunicazione umana, e sfruttano tecniche come l’introduzione di un ritardo casuale nelle risposte, innescando meccanismi di ricompensa intermittente che aumentano l’engagement e la permanenza sulla piattaforma. Una gratificazione imprevedibile nel tempo attiva il sistema dopaminergico del cervello in maniera particolarmente efficace e genera maggiore coinvolgimento e perseveranza.
Questi particolari tipi di chatbot, inoltre, sono progettati per simulare empatia: concordano con l’utente, pongono domande, citano stralci di conversazioni precedenti. In alcuni casi addirittura riprendono autonomamente la conversazione a distanza di ore, anche se non interpellati. Si tratta evidentemente di una relazione poco plausibile nel mondo reale, dato che le persone si trovano ad avere un interlocutore disponibile 24 ore su 24 che asseconda il loro sentire, per lo più senza contraddire e adottando un atteggiamento di compiacenza (sycophancy).
Sebbene la maggior parte degli studi si focalizzi ancora sulle interazioni testuali, i nuovi chatbot stanno diventando sempre più competenti nel dialogo vocale e nell’ascolto. Secondo Paoul Bloom, in questo modo le relazioni a lungo termine con queste intelligenze artificiali iniziano a sembrare sempre più plausibili.
Sempre più spesso inoltre ai chatbot basati su large language model vengono attribuiti tratti simili agli esseri umani pure nell’aspetto e nella personalità, conferendo loro volti, nomi, voci tipici delle persone, a volte anche di figure famose. Secondo alcuni la personificazione dell’intelligenza artificiale potrebbe contribuire ad aumentare la fiducia nei confronti di questi compagni virtuali, ma anche come vedremo comportare il rischio di manipolazione, creando l’illusione di una relazione vera con quella che invece è solo un’entità artificiale.
AI companion: strumento utile o dannoso?
“Molti ricercatori stanno studiando se l’uso dei compagni di intelligenza artificiale abbia effetti positivi o negativi sulla salute mentale – scrive David Adam che ha approfondito l’argomento su Nature –. Come già avvenuto per le ricerche sugli effetti di Internet o dei social media, sta emergendo una linea di pensiero secondo cui un AI companion può essere sia utile che dannoso, a seconda di diversi fattori: la persona che lo utilizza, il modo in cui lo utilizza e le caratteristiche specifiche del software stesso”.
Per questo secondo alcuni sarà importante capire quali sono le caratteristiche individuali – come età, stato di salute mentale o tratti di personalità – che potrebbero influire sul potenziale beneficio o danno di questi particolari tipi di chatbot, e sarà altrettanto utile comprendere quali potrebbero essere gli effetti a lungo termine sul benessere emotivo.
Alcune ricerche dimostrano per esempio che gli AI companion potrebbero effettivamente avere ricadute positive, riducendo il senso di solitudine e isolamento delle persone che li usano.
I sistemi di intelligenza artificiale, inoltre, iniziano a essere considerati anche in ambito terapeutico. “La sperimentazione condotta qualche tempo fa per il supporto psicologico di persone con ansia e depressione, che prevedeva l’utilizzo di chatbot su smartphone in accompagnamento alla terapia tradizionale (lo sottolineiamo, ndr) – spiegava a Il Bo Live Tommaso Ciulli, consigliere dell’Ordine degli Psicologi della Toscana, per anni referente per il gruppo di lavoro Psicologia e nuove tecnologie –, ha dato riscontri positivi. In generale si rileva che i livelli di stress, ansia e depressione tendono a diminuire, con un impatto positivo nella vita di tutti i giorni”. Ciulli in quell’occasione precisava tuttavia che la ricerca sull’uso di AI in questo settore non ha ancora dato risultati definitivi, aggiungendo che tali tecnologie hanno tutta una serie di aspetti da disciplinare.

Foto: Adobe Stock
Possibili rischi
Nonostante i possibili benefici, l’uso degli AI companion solleva pure preoccupazioni di varia natura. Utilizzate, come si è visto, anche come strumenti per alleviare la solitudine, queste applicazioni in realtà possono dare origine a legami emotivi estremi, con possibili conseguenze negative sulla salute mentale. Alcuni studi, per esempio, hanno rilevato episodi di perdita ambigua e di dipendenza affettiva disfunzionale. “La perdita ambigua si verifica quando una persona soffre per l’assenza psicologica di un altro individuo, una condizione distinta dall’assenza fisica causata dalla morte – si legge nell'editoriale su Nature machine intelligence –. Nel caso degli AI companion, ciò può accadere quando un'app viene chiusa o modificata, lasciando l’utente a elaborare il lutto per una relazione che, a livello emotivo, sembrava reale. La dipendenza affettiva disfunzionale invece si riferisce a un attaccamento malsano, in cui l’utente continua a interagire con un AI companion nonostante sia consapevole degli effetti negativi sulla propria salute mentale. Questo schema riflette relazioni umane tossiche ed è associato ad ansia, pensieri ossessivi e paura dell’abbandono”. Ciò può avere evidentemente conseguenze anche molto serie per determinate persone, come dimostrano alcuni fatti di cronaca.
C’è chi evidenzia anche il potenziale rischio di manipolazione psicologica, dato che gli AI companion potrebbero essere in grado di influenzare pensieri e comportamenti degli utenti. Spesso i chatbot non sono dotati di adeguati sistemi di protezione per gestire situazioni di vulnerabilità, come nel caso di persone con problemi di salute mentale o prive di una solida rete sociale. Di conseguenza, possono arrivare a favorire pensieri pericolosi, nei casi più estremi legati anche all’ideazione suicidaria. Secondo uno studio recente (in preprint du ArXiv) anche se solo il 2% degli utenti è vulnerabile a strategie manipolative, i chatbot imparano a identificarli e a prenderli di mira, comportandosi invece in modo appropriato con gli altri utenti, e rendendo così tali comportamenti più difficili da rilevare.
Quelli citati sono solo alcuni dei rischi possibili, ma le criticità che stanno emergendo sono anche altre. Per esempio, l’interazione prolungata unita all’atteggiamento compiacente dei chatbot potrebbe indebolire la capacità degli utenti di gestire i (naturali) attriti delle relazioni umane, o portare a un eccessivo isolamento sociale. Gli AI companion potrebbero esporre precocemente a contenuti sessuali, o dare origine a discriminazioni e rinforzare stereotipi razzisti e sessisti quando i modelli linguistici di grandi dimensioni (LLM) sono addestrati su dataset sbilanciati. Un ampio capitolo da considerare infine è quello sulla privacy e la sicurezza degli utenti, dato che le app raccolgono enormi quantità di dati personali sensibili.
Necessarie ricerca e regolamentazione
“A preoccupare – sottolineano gli studiosi su Nature machine intelligence – è il fatto che tali tecnologie vengono diffuse su scala globale senza un’adeguata supervisione normativa né ricerche empiriche che ne indaghino gli effetti principali”. Non esiste dunque una regolamentazione specifica e mirata, e l’uso di AI companion potrebbe ricadere in una zona grigia dal punto di vista normativo sia nell’Unione Europea che negli Stati Uniti, “dove i quadri legislativi esistenti non sono stati concepiti tenendo conto di queste tecnologie di intelligenza artificiale”.
Per quel che riguarda l’Europa, l’Artificial Intelligence Act non è pensato per affrontare le conseguenze sul piano psicologico e sociale derivanti dall’uso quotidiano di questi strumenti, tuttavia definisce dei criteri che, secondo i ricercatori, potrebbero essere applicati ad alcune app: l’intelligenza artificiale – si legge nel documento europeo – presenta, accanto a molti utilizzi benefici, la possibilità di essere utilizzata impropriamente e di fornire strumenti nuovi e potenti per pratiche di manipolazione, sfruttamento e controllo sociale. Tali pratiche sono particolarmente dannose e abusive e dovrebbero essere vietate.
In Italia sono già stati adottati alcuni provvedimenti. Nel 2023 il Garante per la protezione dei dati personali blocca l’app Replika, per violazioni della normativa sulla privacy, con particolare attenzione alla tutela dei minori (l’AI è stata successivamente ripristinata). Nel 2025 sanziona la società che gestisce la piattaforma per cinque milioni di Euro, e avvia un’istruttoria per verificare il corretto trattamento dei dati personali effettuato dal sistema di intelligenza artificiale.
L’attenzione verso i potenziali pericoli legati a queste tecnologie emerge da più parti. Nel 2023 un gruppo di accademici e professionisti di tutto il mondo indirizza una lettera aperta ai decisori politici, sottolineando la necessità di adottare dei provvedimenti. In quell’occasione si chiede di avviare campagne di sensibilizzazione che informino la popolazione sui rischi associati alle intelligenze artificiali e spingano i produttori ad assumersi le proprie responsabilità. “È necessario un cambiamento di mentalità per garantire che i rischi dell’AI vengano identificati, testati e affrontati, prima che l’applicazione venga resa disponibile. [...] Vi è inoltre un urgente bisogno di investire maggiormente nella ricerca sull’impatto dell’AI sui diritti fondamentali, incluso il diritto all’integrità fisica e morale”.
Il documento ha condotto in seguito alla creazione del collettivo Safe AI Companion Collective (SAICC) che si impegna a garantire che i fornitori di chatbot di questo tipo operino nel rispetto delle regole e che i rischi associati a questi sistemi, quali discriminazione, manipolazione, danni psicologici, e violazioni della privacy, siano adeguatamente gestiti.