Giovani a tu per tu con l’AI: quando le confidenze si fanno virtuali

Foto: Adobe Stock
“Gli AI companion stanno emergendo in un momento in cui bambini, bambine e adolescenti non si sono mai sentiti così soli. Non si tratta solo di una nuova tecnologia, ma di una generazione che sta sostituendo i rapporti umani con le macchine, affidando l’empatia agli algoritmi e condividendo dettagli intimi con aziende che non hanno a cuore il benessere dei ragazzi. La nostra ricerca dimostra che gli AI companion sono molto più diffusi di quanto si possa pensare e che abbiamo poco tempo per educare i più giovani e le loro famiglie sui pericoli ben documentati di questi prodotti”. A dichiararlo qualche tempo fa James P. Steyer, fondatore e Ceo di Common Sense Media, un’organizzazione non-profit americana specializzata nell’analisi dei media e delle nuove tecnologie.
Come abbiamo illustrato in un precedente articolo su Il Bo Live, un AI companion è un compagno virtuale alimentato dall’intelligenza artificiale e progettato per instaurare relazioni personalizzate con gli utenti. Molte applicazioni consentono di scegliere un’identità, per poi iniziare a costruire un rapporto, che può essere un’amicizia o un sostegno quotidiano. Da Replika a My AI di Snapchat, da Xiaoice a Character AI le piattaforme disponibili sono molte, utilizzate sia dagli adulti che dalle persone più giovani.
Poiché non ci risulta che nel nostro Paese siano stati condotti studi in grado di restituire la dimensione del fenomeno, ripercorriamo almeno brevemente i risultati dell’indagine condotta, tra aprile e maggio 2025, da Common Sense Media su un campione di 1.060 ragazzi e ragazze statunitensi di età compresa tra i 13 e i 17 anni (Talk, Trust, and Trade-Offs: How and Why Teens Use AI Companions). Dal sondaggio emerge che il 72% ha utilizzato un AI companion almeno una volta e il 52% interagisce con queste piattaforme almeno qualche volta al mese. Gli utenti quotidiani rappresentano il 13% di chi è stato intervistato (con l’8% di questi che la usa più volte al giorno; e il 5% una volta al giorno), mentre il 21% usa gli AI companion alcune volte alla settimana. Stando ai risultati, il 33% di tutti gli adolescenti intervistati utilizza i chatbot come strumento per l’interazione sociale e le relazioni, dunque per fare conversazione, per avere supporto emotivo, per instaurare amicizie o anche interazioni romantiche.
LEGGI ANCHE:
Le ragioni che spingono a intrattenersi su queste piattaforme sono varie: tra chi le utilizza (758 persone nel nostro campione), il 30% afferma di farlo per divertimento, il 28% per curiosità, il 18% per chiedere consigli. Ancora, il 17% sostiene di apprezzare la costante disponibilità di un AI companion e il 14% l’interazione priva di giudizi. Il 6%, infine, dichiara che questi strumenti aiutano a sentirsi meno soli. Un altro aspetto che merita attenzione è che il 33% sceglie di affrontare temi importanti o seri con l’intelligenza artificiale invece che con persone reali, e il 24% ha condiviso informazioni personali o private (come il proprio vero nome o il luogo).
Dal rapporto emerge anche però che gli adolescenti nel complesso provano un certo scetticismo nei confronti della tecnologia (la metà per esempio diffida dei consigli dell'IA e l'80% dà la priorità alle amicizie reali), sebbene i più giovani si fidino di un AI companion in misura significativamente maggiore rispetto ai più grandi, rivelando quindi un divario di alfabetizzazione nei confronti dell’AI.
“Ciò che non emerge dal report – sottolinea Tommaso Ciulli, consigliere dell’Ordine degli Psicologi della Toscana, per anni referente per il gruppo di lavoro Psicologia e nuove tecnologie –, ma che dal punto di vista psicologico considero rilevante, è il ruolo di variabili come lo status socioeconomico o l’area geografica di residenza. Questi aspetti sono stati considerati solo a fini di rappresentatività statistica, ma non sono stati analizzati come fattori di influenza. E sappiamo bene dalla letteratura quanto tali variabili possano avere un impatto diretto e indiretto sul benessere psicologico”.
Una perdita di opportunità sociali
“I più giovani sono spinti a usare strumenti come gli AI companion sicuramente per curiosità e intrattenimento – continua lo psicologo –, ma anche per altre ragioni, valide pure per gli adulti, e cioè la disponibilità costante e l’atteggiamento non giudicante che caratterizza questi chatbot. Quest’ultima però è un’arma a doppio taglio”. Se da un lato può offrire un senso di protezione e comfort, dall’altro può impedire l’apprendimento sociale che invece avviene nella vita reale reale.
Ciulli spiega che il confronto con i pari, specie in adolescenza, serve a sviluppare la capacità di negoziare i propri bisogni con quelli dell’altro, e di accettare la diversità di opinioni. Quando invece si interagisce con un AI companion, si rischia di ricevere solo conferme alle proprie idee.
“Sembra che alcuni tipi di intelligenza artificiale siano stati programmati almeno in parte per dare anche un feedback negativo, ma è comunque diverso rispetto al confronto con un coetaneo”.
Secondo il docente altri motivi che possono indurre chi è più giovane a utilizzare questi strumenti sono legati allo sfogo emotivo: gli AI companion possono essere usati come diari digitali, dove sfogare stati emotivi anche particolarmente intensi e negativi, come ansia, solitudine, bullismo. “L’uso dunque non è necessariamente negativo, ma potrebbe comportare una perdita di opportunità sociali”.
Le conseguenze sul piano psicologico possono essere anche altre: “Considerando che ad oggi mancano determinati requisiti tecnici in termini di tutela psicologica, ciò che si sta osservando è un rischio di dipendenza emotiva, dato che gli AI companion offrono una sorta di comfort zone. Connesso a determinati limiti tecnici, c'è poi il rischio di ricevere consigli sbagliati, dovuti alle cosiddette allucinazioni dell’intelligenza artificiale, che può dare risposte statisticamente coerenti e probabilisticamente giuste, ma errate nel contesto della risposta, o potenzialmente dannose”.
Qualche beneficio?
Anche su questo fronte la ricerca si è mossa, analizzando diverse tipologie di AI companion e in alcuni casi sono stati effettivamente riscontrati dei benefici. “Si è osservata, per esempio, una minore percezione del senso di isolamento e, in certi casi, l’AI ha fornito risposte coerenti e incoraggianti che hanno spinto alcune persone a sperimentare relazioni sociali nella vita reale”. È come avere dunque uno spazio personale e privato, non giudicante, che può offrire opportunità di confronto. Tutto questo però, secondo Ciulli, dipende dal contesto specifico: per esempio, dal livello di solitudine in cui si trovano le persone che ricorrono a strumenti di questo tipo, e dalle risorse personali e sociali disponibili. Lo psicologo cita una ricerca pubblicata nel 2024, condotta su circa un migliaio di studenti che ha utilizzato Replika per un periodo prolungato, da cui è emerso che per circa il 3% delle persone l’interazione con l’AI è stata fondamentale per interrompere pensieri suicidi.
“C’è tuttavia una distinzione importante da fare, un aspetto che sta emergendo con sempre maggiore chiarezza negli ultimi anni. Se le intelligenze artificiali – in particolare quelle generative – vengono progettate fin dall’inizio con protocolli di sicurezza, supervisionate e affinate da esperti in benessere mentale, i benefici sono massimi e prevalenti rispetto ai rischi. Diverso è il discorso per le AI generative generaliste, o AI companion come quelle attualmente più diffuse (penso a Replika, ad esempio): in questi casi, rischi e benefici tendono ad equivalersi e in questo caso è meglio porre maggiore attenzione ai rischi”.
Dai più giovani l’intelligenza artificiale viene impiegata spesso anche per scopi scolastici – ad esempio per fare un riassunto o scrivere un testo – e in questo caso non si pongono particolari problemi. “Il punto è che sappiamo che molte persone, anche adolescenti, usano questi strumenti per altri scopi, come il supporto emotivo o relazionale. E quindi dobbiamo progettarli tenendo conto di questi usi. In conclusione: ci sono dei benefici, ma è necessario essere molto consapevoli anche dei rischi”.
Tutela della privacy
Un tema importante è quello della privacy. “Molti di questi strumenti sono sviluppati in zone del mondo in cui non esistono normative come quelle europee, si pensi per esempio al Gdpr (il General Data Protection Regulation, o Regolamento generale sulla protezione dei dati emanato nel 2018, ndr)”. Ma anche al più recente AI Act (Artificial Intelligence Act) promulgato dall’Europa nel 2024 e alla prima legge italiana sull’intelligenza artificiale approvata proprio nei giorni scorsi. Senza contare che il nostro Paese già 20 anni interveniva in tema di privacy con la legge n. 675/1996.
“Ci sono due termini che si usano spesso: privacy by design e privacy by default”. Sono due principi introdotti dal Gdpr all’art. 25 che si riferiscono rispettivamente alla protezione dei dati fin dalla progettazione e per impostazione predefinita. Ciò significa che la privacy dei dati deve essere garantita fin dal principio, dalla fase di sviluppo di un prodotto, e che per impostazione predefinita deve essere limitata al minimo la raccolta e l’uso di dati personali. “Ebbene, quando si parla di AI companion ci sono ancora poche garanzie in questo senso”.
Nel 2023 in Italia il Garante per la protezione dei dati personali bloccava l’app Replika, proprio per violazioni della normativa sulla privacy, con particolare attenzione alla tutela dei minori (l’AI è stata successivamente ripristinata). E nel 2025 sanziona la società che gestisce la piattaforma per cinque milioni di Euro, avviando un’istruttoria per verificare il corretto trattamento dei dati personali effettuato dal sistema di intelligenza artificiale.
“Le conversazioni che una persona intrattiene con un AI vengono impiegate come minimo per l’apprendimento dell’intelligenza artificiale, ma possono anche finire online. Tutti questi aspetti andrebbero tutelati e regolamentati in maniera ancor più stringente nel caso di minori”.
Scuola, famiglia e istituzioni
Ciulli sottolinea che in questo contesto il ruolo della scuola e della famiglia è fondamentale. “So che può sembrare un cliché – lo si dice per qualsiasi evoluzione, prima per i videogiochi, poi per la TV – ma rimane valido. Il problema di fondo è che oggi scuola e genitori si ritrovano addosso un carico educativo eccessivo, rispetto alle risorse e al tempo a disposizione. Se non prendiamo atto di questo squilibrio, continueremo a ripeterci che il loro ruolo è importante, ma forse servirebbe piuttosto una serie di interventi sociali e politici un po’ più ampi che permettano alle famiglie e alla scuola di far comprendere ai più giovani i rischi e i benefici di questi strumenti”.
Secondo lo psicologo, in un’ottica di prevenzione ed educazione questi due attori sono fondamentali, insieme però ad un terzo e cioè le istituzioni. “Spesso ci si ferma al livello della normativa, che certo è necessaria, ma non è sufficiente. Così come non sono sufficienti gli spazi che ci sono nella scuola e in ambito familiare per poter garantire l’alfabetizzazione e la responsabilizzazione digitale”.
Conclude: “Quando si parla di tecnologia, il rischio è sempre quello di schierarsi tra entusiasmi e allarmismi. Invece, serve un approccio scientifico, equilibrato, che osservi ciò che accade nella realtà, si ponga delle domande, e non fugga dalla complessità. È più difficile, ma necessario, soprattutto oggi che queste tecnologie sono alla portata di tutti”.