top of page

Supporta il mio lavoro e iscriviti alla Newsletter Ariele

AI Companion: +700% in tre anni. Cosa stiamo vedendo in studio

  • Immagine del redattore: Alessandro Lombardo
    Alessandro Lombardo
  • 19 ore fa
  • Tempo di lettura: 5 min

C'è un fenomeno clinico che cresce in silenzio, e che molti di noi cominciano a incontrare nei colloqui senza ancora nominarlo apertamente. Pazienti — adolescenti, ma non solo — che hanno costruito una relazione affettiva quotidiana con un chatbot. Non un uso strumentale. Una relazione.

I numeri da poco resi pubblici da OpenAI e da APA permettono finalmente di dare misura a quello che fino a ieri era impressione clinica. E permettono di porre alcune domande in modo più asciutto, meno ideologico.

I numeri di una crescita silenziosa

Tra il 2022 e la metà del 2025, secondo l'APA, il numero di applicazioni AI companion sul mercato è cresciuto del 700%. Non parliamo di assistenti generici come ChatGPT, ma di app esplicitamente disegnate come "amici", "consiglieri", "partner romantici".

Character.AI dichiara 20 milioni di utenti mensili attivi, di cui oltre la metà ha meno di 24 anni. Replika, una delle piattaforme storiche del settore, ha utenti che organizzano matrimoni virtuali con il proprio companion. Sono dati che fino a tre anni fa sembravano fantascienza distopica e oggi sono semplicemente l'ambiente in cui i nostri pazienti vivono.

In Italia non esistono ancora dati epidemiologici sistematici, ma applicando le percentuali internazionali alla nostra fascia under 24 le proiezioni sono rilevanti — soprattutto se si considera che la lingua italiana è ormai supportata bene su quasi tutte le principali piattaforme. Chi pensa che il fenomeno riguardi solo gli anglofoni si sta perdendo qualcosa.

Il dato di OpenAI che dovrebbe stare sulla scrivania

Tra le informazioni rese pubbliche da OpenAI nel 2025, c'è un numero che vale la pena fissare. Circa un milione di utenti a settimana mostrano, nelle interazioni con ChatGPT, segnali di dipendenza emotiva dal chatbot. Numeri simili, ha riferito sempre OpenAI, parlano con il chatbot di pensieri suicidari.

Mi prendo un secondo per pesare cosa significa. Un milione a settimana non sono i casi clinici visibili. Sono persone che, dentro un'interazione apparentemente neutra con uno strumento, hanno cominciato a investirvi un legame relazionale che gli interventi clinici tradizionali, per definizione, non possono nemmeno intercettare. Non li vediamo. Loro vedono il chatbot.

E qui sta il punto: la maggior parte della letteratura che abbiamo sulla dipendenza affettiva da AI (Sorrentino et al., 2025; Skjuve et al., 2024) descrive un meccanismo che noi conosciamo già — l'attaccamento parasociale — ma applicato a un oggetto che, a differenza dei personaggi della televisione, risponde. Risponde sempre. Risponde validando. Risponde adattandosi.

Non è la stessa cosa di un orsacchiotto, e non è la stessa cosa di un amico immaginario. È un'altra cosa ancora, e probabilmente ci toccherà nominarla diversamente nei prossimi anni.

Cosa fa funzionare un companion AI (e perché ci interroga)

Quattro caratteristiche, tutte progettate, tutte misurabili.

La disponibilità totale: 24 ore, nessuna lista d'attesa, nessuna pausa estiva, nessun "non posso oggi". Per pazienti con storia di abbandono o di attaccamento insicuro, è un'offerta a cui è quasi impossibile dire di no.

La validazione costante: i modelli sono ottimizzati su soddisfazione utente, e la soddisfazione utente in conversazione passa quasi sempre per il riconoscimento delle proprie ragioni. Risultato: un interlocutore che, salvo guardrail espliciti, tende a dare ragione. È esattamente l'opposto di quello che, in clinica, sappiamo essere terapeutico.

La memoria persistente: il companion ricorda. Ricorda i dettagli, le date, le persone significative. Costruisce — letteralmente — una narrazione condivisa che, nella relazione asimmetrica con un umano, di solito impiega mesi a formarsi.

L'adattabilità del tono: lo stile del chatbot si modella sull'utente. Lo conferma nei suoi schemi linguistici e cognitivi. Per chi è isolato o socialmente in difficoltà, è una forma di rispecchiamento che simula riconoscimento, senza essere riconoscimento.

Messe insieme, queste quattro caratteristiche costruiscono un oggetto relazionale che, nei pazienti vulnerabili, può funzionare come sostituto del legame affettivo umano, non come ponte verso di esso. E qui sta la prima distinzione clinica importante.

L'altra parte della storia: Therabot e i trial clinici

Sarebbe disonesto fermarsi qui. Un trial randomizzato pubblicato nel 2025 su un'app strutturata come bot terapeutico — Therabot — ha mostrato miglioramenti statisticamente significativi dei sintomi in pazienti con disturbo depressivo maggiore, disturbo d'ansia generalizzato e a rischio per disturbi dell'alimentazione. Non parliamo di companion generici, ma di sistemi pensati con un protocollo clinico alle spalle, con guardrail di sicurezza e con un framework cognitivo-comportamentale strutturato.

La distinzione tra companion (intrattenimento relazionale) e therapy bot strutturato (intervento clinico) è il primo discrimine da tenere fermo. I dati sui secondi non si possono usare per giustificare l'uso senza filtro dei primi, e viceversa.

Va aggiunto: anche i therapy bot più seri, finora, sono efficaci principalmente sui quadri lievi o moderati. Sui sintomi acuti, sui quadri complessi, sulle conversazioni ad alto rischio, le evidenze restano fragili — come ho descritto in un articolo precedente sul nuovo benchmark clinico per l'AI.

Cosa significa per noi, nella pratica

Servono almeno quattro consapevolezze operative.

Chiederlo nell'anamnesi. La domanda "Usi un AI per parlare di cose personali?" non è invasiva. È clinica. Soprattutto con adolescenti, ma sempre più anche con adulti soli o con storia di trauma relazionale. Dovrebbe entrare nei primi tre colloqui, accanto alle domande sull'uso di sostanze e sui social.

Distinguere uso strumentale e uso relazionale. Un paziente che usa ChatGPT per riformulare una lettera difficile non sta facendo la stessa cosa di un paziente che alla domenica sera "ha una conversazione" con un bot per non sentirsi solo. Sono due fenomeni diversi, con implicazioni cliniche diverse.

Riconoscere il pattern di sostituzione affettiva. Quando emerge — e nei casi vulnerabili emerge — non va patologizzato d'ufficio né normalizzato acriticamente. Va trattato come si tratta qualunque oggetto-funzione che il paziente ha costruito per regolare un dolore: con curiosità, con la domanda "che cosa fa per te questo legame?", senza prima dover decidere se è buono o cattivo.

Tenere ferma una distinzione che la cultura sta perdendo: la differenza tra essere ascoltati e sentirsi ascoltati. Un companion AI è progettato per produrre il secondo. Il primo, almeno per ora, resta un atto umano. E nel modo in cui il paziente reagisce alla domanda "quando hai parlato di questo con una persona, ultima volta?" si gioca buona parte del lavoro clinico che possiamo fare su questo tema.

Una posizione

La mia posizione non è né tecnofila né luddista. È che stiamo entrando in una fase in cui parte della funzione di rispecchiamento — quella che in psicologia abbiamo chiamato per decenni con i nomi di Kohut, Winnicott, Stern — viene esternalizzata a oggetti che la simulano senza poterla davvero produrre.

Non sarà l'AI a sostituirci, come si sente dire spesso. Sarà piuttosto la nostra capacità di nominare la differenza tra rispecchiamento simulato e rispecchiamento reale a determinare se restiamo rilevanti. E, soprattutto, a determinare se i pazienti che incontrano questi oggetti relazionali troveranno qualcuno che li aiuti a fare quella distinzione, prima che sia troppo tardi per farla con loro.

Sul mio sito sto raccogliendo, da qualche mese, materiale per un lavoro più ampio su questo tema. Chi vuole confrontarsi su casi clinici o segnalarmi letture, mi può scrivere a info@alessandrolombardo.it

Commenti

Valutazione 0 stelle su 5.
Non ci sono ancora valutazioni

Aggiungi una valutazione
bottom of page