top of page

Supporta il mio lavoro e iscriviti alla Newsletter Ariele

Un Chatbot per amico?

  • Immagine del redattore: Alessandro Lombardo
    Alessandro Lombardo
  • 21 mar
  • Tempo di lettura: 4 min

Un chatbot progettato secondo i principi della scienza delle relazioni è stato confrontato con uno studente scelto a caso. Ha perso.


Lo studio è pubblicato sul Journal of Experimental Social Psychology e ha una struttura elegante nella sua brutalità. Trecentonovantasei matricole universitarie. Due settimane. Tre condizioni: una parte ha interagito quotidianamente con un chatbot chiamato Sam, costruito per fornire supporto relazionale coerente, calibrato sui modelli della ricerca scientifica sulle relazioni umane. Una seconda parte ha invece scambiato messaggi giornalieri con un altro studente del primo anno, scelto a caso. Il gruppo di controllo ha semplicemente tenuto un diario.


Il risultato è stato netto: gli studenti che hanno interagito con un peer umano hanno ottenuto benefici psicologici superiori rispetto a quelli che hanno interagito con il chatbot, anche quando questo era stato progettato per offrire un supporto consistente fondato sui principi della scienza delle relazioni.


La solitudine si riduce di più parlando con qualcuno che non si è mai visto prima, scelto a caso dalla lista degli iscritti al primo anno, che con un sistema addestrato esplicitamente per essere d'aiuto.


Il problema del banco di prova

Questo studio fa una cosa metodologicamente importante che molti altri non fanno: mette a confronto il chatbot non con il vuoto o con una lista d'attesa, ma con un'alternativa reale e accessibile. Non un terapeuta esperto. Non un amico del cuore. Uno studente qualunque, nella stessa condizione di novità e spaesamento.


Il punto non è che Sam fosse mal progettato. Sam era progettato bene — forse troppo bene, nel senso che incarnava una versione idealizzata di ciò che una relazione dovrebbe essere: disponibile, coerente, mai stanco, mai distratto, mai imbarazzato. Nessuna pausa di imbarazzo. Nessun momento in cui l'altro non sa cosa dire. Nessuna reciprocità.


E forse è proprio lì il problema.


La reciprocità come ingrediente attivo

Le teorie sulla solitudine non sono univoche, ma converge su un punto: la connessione sociale non si misura in quantità di parole ricevute, né in qualità del supporto percepito nel momento. Si misura — almeno in parte — nel senso di essere inclusi in qualcosa che esiste indipendentemente da noi.


Un chatbot non esiste indipendentemente da noi. Esiste perché siamo lì. Si attiva quando scriviamo e si ferma quando usciamo. Non porta nulla di suo nell'interazione nel senso in cui lo porta un altro essere umano: una storia, una stanchezza, un'agenda, una vulnerabilità.


Lo studente scelto a caso — che magari si annoiava un po' a compilare quei messaggi giornalieri, che magari aveva anche lui le sue ansie da primo anno, che magari un giorno rispondeva con più entusiasmo e un altro con meno — era un soggetto. Non un servizio.

Questa differenza non è piccola. È strutturale.


L'accessibilità come argomento più debole del previsto

Uno degli argomenti più ricorrenti a favore dei chatbot terapeutici e di supporto è l'accessibilità: sono disponibili h24, non costano, non richiedono prenotazione, non fanno sentire giudicati. Sono soprattutto utili per chi non ha accesso ad altro.

Lo studio di Li e colleghi non demolisce questo argomento direttamente, ma lo ridimensiona in modo significativo.


Perché l'alternativa non era un servizio specialistico: era una forma di connessione peer-to-peer quasi elementare. Un programma di supporto tra pari, una piattaforma di messaggistica condivisa, un gruppo di studio. Cose che nelle università esistono già, o costano poco costruire.


Ricerche parallele mostrano che gli studenti più soli tendono a usare i chatbot come strumento di coping per le emozioni negative — il che significa che arrivano all'interazione già in uno stato di bisogno. La domanda rilevante non è solo funziona?, ma funziona rispetto a cosa, e in che condizioni?


L'effetto a lungo termine è la domanda che rimane

Gli studi sui chatbot mostrano spesso benefici immediati — nella sessione singola, nell'arco di pochi giorni. È meno chiaro se l'uso ripetuto e quotidiano di chatbot riduca la solitudine nel tempo. È proprio questo che lo studio voleva testare, e la risposta è: meno di quanto faccia un peer umano.


Un'altra ricerca longitudinale del MIT e OpenAI, su quasi mille partecipanti, ha aggiunto un tassello preoccupante: quando gli utenti hanno conversazioni personali con un chatbot altamente empatico ed emotivamente responsivo, i livelli di solitudine tendono ad aumentare — non diminuire — soprattutto con un uso quotidiano intenso.


Il rischio non è solo che il chatbot non aiuti abbastanza. È che una certa configurazione di supporto emotivo sintetico possa, nel tempo, sostituire la motivazione a cercare connessioni reali piuttosto che integrarle.


Cosa significa per chi lavora in clinica

Nulla di questo invalida l'uso dei chatbot come strumenti — di psicoeducazione, di monitoraggio, di supporto tra un contatto e l'altro con il professionista. Ma suggerisce una distinzione che vale la pena fare esplicita: c'è differenza tra un chatbot che aumenta la presenza umana nel percorso di cura e un chatbot che sostituisce la connessione umana.


Il primo è uno strumento in senso pieno. Il secondo è un'illusione di strumento.

La ricerca di Li e colleghi non dice che i chatbot siano inutili. Dice che uno studente casuale, con tutto il suo carico di imperfezione e reciprocità, vale più di un sistema progettato per essere perfetto. Il che è, a pensarci, una notizia abbastanza buona sul conto degli esseri umani.


Fonte: Li, R. et al. (2026). Is a random human peer better than a highly supportive chatbot in reducing loneliness over time? Journal of Experimental Social Psychology.

Commenti

Valutazione 0 stelle su 5.
Non ci sono ancora valutazioni

Aggiungi una valutazione
bottom of page