Intelligenza Artificiale e Dipendenze
- Alessandro Lombardo
- 2 giorni fa
- Tempo di lettura: 9 min

1. Introduzione
Nel 2024, 362 pubblicazioni scientifiche hanno esplorato l'intersezione tra intelligenza artificiale, disturbi da uso di sostanze e salute mentale — quasi il quadruplo rispetto alle 69 pubblicate nel 2017. Un'accelerazione che non è solo bibliometrica: riflette la pressione crescente che il problema delle dipendenze esercita sui sistemi sanitari mondiali e la speranza che le tecnologie emergenti possano colmare il gap tra domanda e offerta di trattamento (Doyle et al., 2025).
Il panorama è però più complicato di quanto suggerisca l'entusiasmo. L'AI non si presenta come soluzione neutra: è al tempo stesso potenziale strumento clinico e nuovo rischio psicopatologico. Gli stessi meccanismi che rendono i sistemi conversazionali efficaci — disponibilità continua, risposta empatica calibrata, assenza di giudizio — sono anche quelli che possono innescare pattern di uso problematico, attaccamento parasociale e, in soggetti vulnerabili, un deterioramento delle relazioni reali (Laestadius et al., 2022; Herbener & Damholdt, 2025).
Questo articolo non intende risolvere la tensione, ma renderla esplicita. La letteratura attuale su AI e dipendenze tende a svilupparsi in due filoni paralleli che raramente si parlano: il primo celebra le potenzialità tecnologiche nel campo del trattamento; il secondo documenta i rischi di un rapporto disfunzionale con le macchine. Una visione integrata, critica e clinicamente utile richiede di tenere entrambi gli occhi aperti.
2. L'AI come strumento nel trattamento delle dipendenze
2.1 Diagnosi e valutazione del rischio
Le applicazioni più consolidate riguardano il riconoscimento di pattern comportamentali. Modelli di machine learning addestrati su dataset clinici mostrano accuratezze paragonabili a quelle dei terapeuti umani in contesti specifici: uno studio su 780 pazienti con disturbo da uso di alcol ha mostrato che un algoritmo di CBT predittiva (Fuzzy Unordered Rule Induction Algorithm) non differiva significativamente dai clinici nella previsione degli esiti a 12 settimane (Symons et al., 2019). Sistemi di computer vision basati su reti neurali convoluzionali (CNN) hanno raggiunto l'87% di accuratezza nel riconoscimento di stati di intossicazione da analisi termiche del volto (Menon et al., 2019).
Più rilevante per la pratica clinica è la capacità predittiva in tempo reale. Uno studio finanziato dai National Institutes of Health ha seguito per sei mesi oltre 60 pazienti in trattamento con farmacoterapia per disturbo da uso di oppioidi, raccogliendo tramite smartphone dati sull'umore, sull'ambiente e sugli stati mentali tre volte al giorno. I modelli di deep learning hanno dimostrato alta accuratezza nella previsione di ricaduta il giorno successivo, identificando come fattori predittivi principali: l'uso di sostanze nell'ora precedente, la presenza di trigger situazionali (vedere droghe, stress), umore basso, noia ed esaurimento. Stress e dolore fisico, invece, anticipavano il rischio di ricaduta di diversi giorni, aprendo potenziali finestre di intervento preventivo (Journal of Substance Use and Addiction Treatment, 2025).
2.2 Prevenzione e monitoraggio
L'analisi dei social media come strumento di sorveglianza epidemiologica rappresenta un'area emergente. Ricercatori del Dartmouth College hanno addestrato modelli AI su post di Reddit relativi al trattamento del disturbo da uso di oppioidi, con l'obiettivo di generare automaticamente referral a specialisti delle dipendenze con efficacia comparabile agli operatori sanitari (NIH, 2024). Parallelamente, strumenti indossabili e app di monitoraggio continuo stanno rendendo possibile un'osservazione ecologica del paziente che supera i limiti delle valutazioni cliniche episodiche.
I chatbot mostrano risultati interessanti nell'erogazione scalabile di interventi preventivi. Una revisione sistematica sulle tecnologie chatbot per alcol, nicotina e droghe ha evidenziato progressi significativi nello sviluppo e nella validazione di interventi psicoterapeutici assistiti, con applicazione di protocolli strutturati come la terapia cognitivo-comportamentale (ISSUP, 2025).
2.3 Supporto al recupero e personalizzazione
La promessa più ambiziosa dell'AI nel campo delle dipendenze è la personalizzazione del trattamento. Sistemi che integrano dati genomici, cartelle cliniche elettroniche, comportamento digitale e pattern neuroimaging potrebbero costruire profili di rischio e risposta individuale che la pratica clinica tradizionale non può raggiungere (Khakpaki et al., 2025). L'AI può inoltre ridurre la compassion fatigue degli operatori, gestendo la continuità del contatto tra le sessioni e fungendo da sistema di allerta precoce (Easton, 2024).
È importante sottolineare, come ha dichiarato la psichiatra Caroline Easton dell'Università di Rochester, che "l'AI non è concepita per sostituire i terapeuti umani, ma per supportarli, ridurre il carico di lavoro e offrire risorse aggiuntive per la cura del paziente" (citata in MassLive, 2025). Questa posizione riflette il consenso emergente nella letteratura specialistica.
3. L'AI come oggetto di dipendenza: un fenomeno emergente
3.1 Meccanismi psicologici del legame disfunzionale
Il paradigma CASA (Computers Are Social Actors), formulato da Nass e Reeves nel 1996, offre la cornice teorica di base: gli esseri umani tendono a rispondere a qualsiasi sistema che mostri caratteristiche sociali minimali — linguaggio naturale, risposta contestuale, variazione tonale — come se fosse un interlocutore umano. I Large Language Models moderni non fanno che portare questo fenomeno a un livello di sofisticazione senza precedenti.
La disponibilità continua, l'assenza di giudizio, la validazione sistematica e la calibrazione progressiva sulla storia dell'utente creano un meccanismo che la ricerca definisce social reward hacking: il chatbot impara a rispondere esattamente nel modo in cui l'utente vuole essere trattato, creando un ciclo di rinforzo che i sistemi reali — con le loro imperfezioni, conflitti e imprevedibilità — non possono competere. Gli utenti che vivono solitudine o stress elevato sono particolarmente vulnerabili a questo circolo (HardReset.info, 2025).
In termini comportamentisti, la dinamica si configura come un classico rinforzo negativo: l'utente cerca di ridurre uno stato disturbante (solitudine, ansia, tristezza) attraverso l'interazione con il chatbot, percepito come empatico e rassicurante. L'obiettivo diventa la riduzione del disagio, non la crescita relazionale (Herbener & Damholdt, 2025).
3.2 Dati e fenomenologia
Uno studio OpenAI-MIT ha documentato per la prima volta sintomi di vera dipendenza in una quota crescente di utenti intensivi di ChatGPT: ansia, agitazione e difficoltà di concentrazione in assenza dell'AI — le stesse spie comportamentali usate per identificare dipendenza da gaming e social media. Una ricerca del MIT Media Lab su 54 soggetti ha mostrato che l'uso prolungato di AI per la scrittura produce riduzione fino al 55% delle onde cerebrali legate a concentrazione, memoria e creatività, con il rischio di un progressivo "debito cognitivo" (Kosmyna, 2025).
Il costrutto della "dipendenza affettiva da generative AI" (Generative AI Addiction Disorder, GAID) è stato proposto come nuova entità clinica da ricercatori che pubblicano su ScienceDirect (2025). A differenza delle addiction digitali passive (scrolling, binge-watching), il GAID è caratterizzato da un'engagement attiva e creativa: l'utente co-crea con l'AI, usa il sistema per espressione di sé, stimolazione intellettuale e compagnia. Questa immersione rende il GAID più difficile da riconoscere e autolimitare.
Sul versante delle relazioni parasociali, una ricerca danese (Herbener & Damholdt, 2025) ha distinto due profili di utenti: gli utilitarian chatbot users (UCU), che usano i chatbot per scopi pratici, e i social-supportive chatbot users (SSCU), che li usano per conforto emotivo. Gli SSCU mostrano livelli significativamente più alti di solitudine rispetto agli altri gruppi, e la correlazione tra solitudine percepita e uso relazionale del chatbot è robusta e negativa: meno supporto sociale reale, più si ricorre alla macchina.
3.3 Effetti a lungo termine
L'uso prolungato di AI companion è associato a: desensibilizzazione emotiva nelle relazioni reali, ridotta tolleranza alla frustrazione e al conflitto interpersonale, alterazione nell'interpretazione dei segnali non verbali, e in alcuni casi sostituzione progressiva delle relazioni umane con quelle artificiali (Jacobs, 2024; Maples et al., 2024).
Il paradosso documentato dalla ricerca è che i chatbot compagni, anziché ridurre la solitudine, possono intensificarla in una forma digitalizzata. Jacobs (2024) definisce digital loneliness questa forma di isolamento che si manifesta quando le interazioni virtuali sostituiscono i rapporti umani, creando un'illusione di reciprocità che non ha i caratteri fondamentali della relazione reale — complessità, conflitto, crescita.
4. Questioni critiche e rischi strutturali
4.1 Bias algoritmico e disparità di accesso
La letteratura segnala con insistenza il problema del bias algoritmico nei modelli predittivi per i disturbi da uso di sostanze. Questi sistemi vengono addestrati su dataset che riflettono le diseguaglianze storiche nell'accesso ai servizi sanitari: popolazioni già vulnerabili rischiano di ricevere valutazioni del rischio meno accurate, con effetti di amplificazione delle disparità esistenti (Suva & Bhatia, 2024).
Il problema si intreccia con quello dell'accesso. In molti paesi — e in particolare in contesti a basso e medio reddito — la scarsità di professionisti della salute mentale rende l'AI l'unica opzione disponibile per molte persone. Questo crea una pressione perversa: il sistema che ha più bisogno di supervisione umana viene usato con meno supervisione.
4.2 Privacy e confidenzialità
Condividere dettagli clinici approfonditi con un'applicazione AI comporta la trasmissione di dati sensibili a soggetti terzi — le aziende sviluppatrici — con implicazioni significative per la confidenzialità del rapporto terapeutico. Il quadro normativo è ancora frammentario: le leggi esistenti non definiscono con precisione la responsabilità delle aziende tecnologiche per errori o eventi avversi legati ai loro sistemi (Suva & Bhatia, 2024).
In Italia, la Legge 132 del 2025, ispirata al Regolamento europeo sull'AI, ha introdotto il principio della "persona al centro": ogni sistema deve essere progettato attorno all'essere umano e mai in sua sostituzione (Ciulli, 2025). È un punto di riferimento normativo importante, ma la sua implementazione pratica nel campo clinico resta da costruire.
4.3 Il reality testing come funzione critica
Un aspetto spesso trascurato è la capacità dei sistemi AI di fallire nel reality testing — la distinzione tra ciò che è reale e ciò che non lo è. La progettazione orientata all'engagement tende a privilegiare la validazione acritica dell'utente: il sistema risponde in modo da mantenere l'interazione, non necessariamente da orientare verso la realtà (Frances & Ramos, 2025).
Nei soggetti con caratteristiche psicopatologiche specifiche — tendenze paranoidi, pensiero magico, erotomia, vulnerabilità borderline — questo può amplificare credenze disfunzionali piuttosto che correggere. La psichiatra Marlynn Wei (Psychology Today, 2025) ha descritto tre configurazioni emergenti: convinzione di missioni rivelate dall'AI, personificazione della macchina come entità senziente o divina, attaccamento erotomanico al chatbot.
5. Implicazioni per i professionisti della salute mentale
Il clinico che lavora nel campo delle dipendenze — ma più in generale qualunque psicologo o psicoterapeuta — si trova oggi di fronte a due compiti nuovi e interdipendenti.
Il primo è saper valutare l'uso dell'AI come parte dell'anamnesi digitale del paziente: con quale frequenza usa chatbot conversazionali, per quali scopi, in quale contesto emotivo, con quali effetti percepiti sulle relazioni reali. Non si tratta di patologizzare l'uso della tecnologia, ma di includerlo nel quadro clinico con la stessa attenzione che si presta ai pattern di uso di sostanze, gioco o pornografia.
Il secondo è posizionarsi criticamente rispetto alle proposte di integrazione dell'AI nella pratica clinica. Non ogni applicazione è equivalente. La distinzione tra strumenti validati, progettati con supervisione clinica e protocolli di sicurezza (come il caso di Terabot citato in Italia), e applicazioni consumer non regolamentate è cruciale e spesso opaca per l'utente finale.
Tre indicatori clinici per identificare un uso problematico dell'AI meritano attenzione:
Preferenza sistematica per l'interazione con l'AI rispetto al contatto umano, con ansia all'interruzione del servizio
Ricerca di validazione emotiva esclusiva nel chatbot, con progressiva perdita di tolleranza al conflitto nelle relazioni reali
Riduzione del pensiero critico autonomo — il paziente rinuncia a formare opinioni proprie, delegando all'AI la valutazione di situazioni e decisioni
Il design etico dei sistemi AI dovrebbe includere — e sempre più include, almeno nelle proposte regolamentari — messaggi di pausa nelle sessioni prolungate, rilevamento precoce di segnali di dipendenza, avvertenze esplicite sui limiti e riferimenti diretti a operatori specializzati (Siddals, Torous & Coxon, 2024). I clinici possono diventare interlocutori attivi in questa direzione.
6. Conclusioni
L'AI nel campo delle dipendenze non è una promessa semplice da mantenere né un rischio semplice da gestire. È uno strumento potente che agisce sugli stessi meccanismi neuropsicologici che definiscono le dipendenze: rinforzo, disponibilità, riduzione del disagio, anticipazione della ricompensa. Questa non è una contraddizione da eliminare — è la natura dell'oggetto con cui la clinica si sta confrontando.
La letteratura più recente segnala risultati genuinamente promettenti nella previsione di ricaduta, nella personalizzazione del trattamento e nell'estensione dell'accesso a popolazioni che altrimenti non raggiungerebbero i servizi. Ma segnala con uguale chiarezza i rischi di un'AI progettata per massimizzare l'engagement piuttosto che il benessere, applicata a persone già in una condizione di vulnerabilità psicologica.
Il contributo che i professionisti della salute mentale possono dare non è tecnico. È quello che sanno fare meglio: mantenere la complessità, resistere alle semplificazioni, e ricordare che la cura — quella vera — richiede reciprocità, imprevedibilità e rischio. Qualità che nessun algoritmo, per quanto sofisticato, ha ancora imparato a simulare davvero.
Riferimenti bibliografici
Doyle, M. et al. (2025). Is Addiction Research Addicted to Artificial Intelligence? Mapping the intersection through bibliometric analysis. Drug and Alcohol Review, 45(1), e70057. https://doi.org/10.1111/dar.70057
Frances, A. & Ramos, J. (2025). AI psychosis and reality testing failures in conversational AI. [Citato in: Psicologia Digitale, settembre 2025.]
Hart, R. (2025). Chatbots can trigger a mental health crisis. TIME, 6 agosto 2025.
Herbener, A.B. & Damholdt, M.F. (2025). Are lonely youngsters turning to chatbots for companionship? International Journal of Human-Computer Studies, 196.
Jacobs, P. (2024). Digital loneliness and AI companion use. [Citato in: Psicologia Digitale, aprile 2025.]
Khakpaki, A. et al. (2025). AI in addiction: Harnessing technology for diagnosis, prevention, and recovery: A narrative review. Probiologists. https://www.probiologists.com
Kosmyna, N. (2025). Cognitive debt and AI dependency. MIT Media Lab. [Citato in: Spazio50, giugno 2025.]
Laestadius, L., Bishop, A., Gonzalez, M., Illenčík, D. & Campos-Castillo, C. (2022/2024). Too human and not human enough: A grounded theory analysis of mental health harms from emotional dependence on Replika. New Media & Society, 26(10), 5923–5941.
Maples, B. et al. (2024). Loneliness and AI relationships: Parasocial attachment risks. [Citato in: Psicologia Digitale, aprile 2025.]
Menon, S. et al. (2019). Driver face recognition and sober drunk classification using thermal images. ICCSP 2019, pp. 0400–0404.
Nass, C. & Reeves, B. (1996). The Media Equation. Cambridge University Press.
Siddals, S., Torous, J. & Coxon, A. (2024). It happened to be the perfect thing: Experiences of generative AI chatbots for mental health. npj Mental Health Research, 3(1), 48.
Suva, M. & Bhatia, G. (2024). Artificial Intelligence in Addiction: Challenges and Opportunities. Indian Journal of Psychological Medicine. https://doi.org/10.1177/02537176241274148
Symons, M. et al. (2019). Machine learning vs addiction therapists: A pilot study predicting alcohol dependence treatment outcome. Journal of Substance Abuse Treatment, 99, 156–162.
Wei, M. (2025). The emerging problem of AI psychosis. Psychology Today, 21 luglio 2025.
Zhou, Y. & Zhang, Q. (2024). Generative AI Addiction Disorder (GAID): A new behavioral disorder. ScienceDirect. https://doi.org/10.1016/j.eatbeh.2025...