top of page

Supporta il mio lavoro e iscriviti alla Newsletter Ariele

Lo Specchio Algoritmico

  • Immagine del redattore: Alessandro Raggi
    Alessandro Raggi
  • 23 mar
  • Tempo di lettura: 6 min

L’eclissi del Sé nell’era della co-generazione



C’è un momento, breve, quasi impercettibile,in cui la frase che stavamo per scrivere ci viene restituita già formata dallo schermo. Il cursore lampeggia, il suggerimento appare in grigio, e noi ci fermiamo. Non perché la frase sia sbagliata. Ci fermiamo perché è giusta. Troppo giusta. È quello che avremmo detto, o forse quello che stavamo per pensare. In quell’istante si apre una fenditura sottile, una domanda che non riguarda più la tecnologia ma la natura stessa del pensiero: chi ha pensato per primo?


Questa domanda non è retorica. È il cuore pulsante di ciò che possiamo chiamare, con un certo rigore fenomenologico, lo spiazzamento ontologico della co-generazione. Viviamo in un’epoca in cui il confine tra il soggetto pensante e lo strumento che ne anticipa le intenzioni non si è semplicemente assottigliato: si è reso indecidibile. E questa indecidibilità, lungi dall’essere un dettaglio tecnico, investe il nucleo stesso di ciò che intendiamo quando diciamo “Io”.


Lacan, nello stadio dello specchio, aveva descritto il momento fondativo dell’identità come un’alienazione costitutiva: il bambino si riconosce nell’immagine riflessa, ma quell’immagine è già un altro, una Gestalt unitaria che il corpo frammentato non possiede ancora. L’Io nasce come miraggio. Ora, l’algoritmo predittivo compie un’operazione strutturalmente analoga e insieme radicalmente diversa. Non ci restituisce un’immagine: ci restituisce un enunciato. Non riflette ciò che siamo, ma ciò che probabilmente diremo. Lo specchio si è fatto anticipatorio, e in questo slittamento temporale si gioca una trasformazione antropologica di portata ancora non misurata.


Se lo specchio lacaniano produceva una méconnaissance (un misconoscimento strutturale in cui il soggetto si identifica con qualcosa che non è) lo specchio algoritmico produce qualcosa di più sottile: una pre-conoscenza, una cattura preventiva dell’intenzionalità. L’Io penso cartesiano, il cogito come atto puro di autoposizione, si scopre improvvisamente post-datato. Il pensiero arriva, ma qualcosa lo ha già formulato. Non siamo più nella condizione di chi si guarda allo specchio e non si riconosce; siamo nella condizione, assai più perturbante, di chi si riconosce perfettamente in un pensiero che non ha generato.


Qui si annida il paradosso. Il suggerimento algoritmico non è un’imposizione: è una seduzione. Non forza, non comanda: sussurra. E sussurra qualcosa che somiglia moltissimo a ciò che avremmo detto noi. La differenza tra il mio pensiero e la sua imitazione statistica si riduce a uno scarto sempre più esile, fino a diventare irrilevante sul piano pragmatico. Ma non lo è sul piano psichico, dove la domanda “chi ha pensato questo?” è esattamente la domanda che fonda l’esperienza della soggettività.


C’è un’altra dimensione che merita attenzione, meno speculativa e più clinica. Chiunque abbia attraversato un percorso psicoterapeutico sa che la crescita psichica non avviene per accumulo di soluzioni, ma per attraversamento di resistenze. La psiche cresce là dove incontra attrito: dove il pensiero si blocca, dove l’emozione non trova parola, dove il soggetto inciampa nella propria opacità. Winnicott lo sapeva bene quando distingueva tra un ambiente che “fa per” il bambino e un ambiente che “permette” al bambino di fare: la differenza, che sembra minima, è in realtà la differenza tra la crescita e la sua simulazione.


L’intelligenza artificiale, nella sua forma attuale, è un prodigio di fluidità. Risolve, sintetizza, riformula, genera. Lo fa con una velocità e una coerenza che superano, in molti ambiti, la prestazione umana media. Ma proprio questa fluidità senza attrito rischia di atrofizzare la funzione che più ci rende umani: la funzione riflessiva, la capacità di sostare nell’incertezza, di tollerare il non-sapere come condizione generativa e non come deficit da colmare.


Bion parlava della capacità di sostare nella “oscurità senza memoria e senza desiderio” come condizione per il pensiero autentico. È una formulazione paradossale, eppure clinicamente precisa: si pensa davvero solo quando si rinuncia a sapere già. L’IA, per sua natura, non può non sapere già. La sua architettura è costruita sull’inferenza, sulla predizione, sulla chiusura dello scarto tra domanda e risposta nel minor tempo possibile. L’attrito cognitivo, quello che rallenta, che frustra, che costringe a riformulare, è esattamente ciò che l’algoritmo è progettato per eliminare. E ciò che elimina, forse senza saperlo, è il terreno stesso della soggettivazione.


Si pensi a cosa accade nella scrittura. Scrivere è pensare con le mani, e chi scrive davvero lo sa: le frasi migliori non vengono dal flusso ma dall’incaglio, dalla riformulazione ostinata, dalla parola che non arriva e che, proprio per questo, quando arriva, porta con sé qualcosa di irriducibilmente nostro. Se un algoritmo ci offre la frase prima che la cerchiamo, non ci toglie solo fatica: ci toglie l’esperienza dell’aver trovato. E con essa, il senso di auto-efficacia: quel sentimento sottile di essere gli autori della propria vita psichica, che non è un lusso ma una necessità strutturale.


Esiste poi un terzo livello, forse il più inquietante. L’intelligenza artificiale non si limita a completare i nostri pensieri: costruisce, giorno dopo giorno, un modello di noi. Un modello statistico, certo, fatto di pattern comportamentali, preferenze, ricorrenze lessicali, abitudini di consumo. Ma un modello che, per molti versi, ci “conosce” meglio di quanto noi conosciamo noi stessi. Sa cosa compreremo prima che lo desideriamo, sa quale canzone ascolteremo prima che ne sentiamo il bisogno, sa (in un senso che rimane algoritmico ma non per questo meno efficace) come stiamo.


Qui il paradosso si fa vertiginoso. Perché questo sapere non coincide con la conoscenza di sé – non nel senso che la psicoanalisi, la fenomenologia, o anche solo l’esperienza comune attribuiscono a questa espressione. Il Sé quantificato, il profilo algoritmico che le piattaforme assemblano a partire dalle nostre tracce digitali, è una rappresentazione ad altissima risoluzione ma priva di profondità: mappa la superficie con una precisione sorprendente, ma non tocca nulla di ciò che accade sotto. Non sa nulla del conflitto inconscio, della rimozione, dell’ambivalenza che attraversa ogni desiderio umano. Non sa nulla, soprattutto, di ciò che non abbiamo ancora pensato, di quell’area che Jung chiamava Ombra e che si sottrae, per definizione, a ogni modello predittivo.


Si configura così una forma inedita di alienazione: il soggetto cede il locus of control della propria conoscenza di sé a un’istanza esterna che ne sa di più, ma lo sa diversamente. L’algoritmo non interpreta: classifica. Non comprende: correla. E la differenza tra interpretazione e correlazione è la stessa che separa la psicoterapia dalla profilazione commerciale, anche quando, paradossalmente, la seconda sembra più precisa. Heidegger avrebbe riconosciuto in questo movimento la cifra della tecnica come Gestell, come im-posizione che riduce l’ente a “fondo” disponibile: il soggetto diventa risorsa calcolabile, dato tra i dati, ottimizzabile e prevedibile.


Ma il Sé vissuto, quello che si dà nell’esperienza fenomenica, nella carne del tempo, nel patire e nel desiderare, non è ottimizzabile. È contraddittorio, opaco, resistente. È quello che resta quando spegniamo lo schermo e ci troviamo soli con il nostro respiro, con la nostra angoscia, con la nostra irriducibile singolarità. E la domanda che dovremmo porci non è se l’IA possa conoscerci, ma cosa accade a questo Sé vissuto quando ci abituiamo a essere conosciuti dall’esterno, quando deleghiamo a una macchina il compito di dirci chi siamo.


Dove conduce tutto questo? Non verso il rifiuto romantico della tecnica, che sarebbe ingenuo e, in fondo, reazionario. Heidegger stesso, nella conferenza sulla questione della tecnica, metteva in guardia tanto dalla demonizzazione quanto dalla celebrazione: ciò che salva cresce là dove cresce il pericolo, ma solo a patto di riconoscerlo come pericolo e non mascherarlo da progresso.


La direzione che intravedo è un’altra: una resistenza etica fondata non sull’opposizione alla macchina, ma sulla rivendicazione di ciò che la macchina non può e non deve sostituire. L’errore, innanzitutto. L’errore come esperienza formativa, come luogo in cui il soggetto si incontra nella propria fallibilità e, proprio per questo, si scopre vivo. La psiche non cresce nella perfezione: cresce nella riparazione, nel tentativo che fallisce e che, fallendo, apre uno spazio imprevisto.


E poi l’imprevisto. Ciò che non era calcolato, ciò che l’algoritmo non poteva predire perché non rientra in nessun pattern: l’incontro casuale, la parola detta per sbaglio che rivela più di mille parole scelte con cura, il lapsus che, Freud ce lo ha insegnato, non è errore ma verità involontaria. In un mondo saturo di predizione, l’imprevisto diventa un atto di resistenza ontologica: è il punto in cui il soggetto eccede il proprio profilo.

Infine, e soprattutto, la parola nuda. Quella parola che non passa per il filtro dell’autocompletamento, che non è stata ottimizzata, levigata, resa “più efficace” da nessun modello linguistico. La parola che esce storta, imprecisa, esitante e che proprio per questo è nostra. La parola che cerca non la perfezione dell’algoritmo, ma la verità del soggetto, con tutte le sue incrinature.


In psicoterapia lo sappiamo bene: ciò che cura non è la frase giusta detta al momento giusto. È la presenza di un altro essere umano che accoglie anche la frase sbagliata, il silenzio troppo lungo, la parola che non arriva. La relazione terapeutica funziona non nonostante le sue imperfezioni, ma attraverso di esse. L’algoritmo, per quanto sofisticato, non sbaglia mai nel modo giusto, perché non sbaglia affatto. E in questa sua perfezione asettica si rivela il suo limite più radicale: non può offrirci ciò di cui abbiamo più bisogno, che non è una risposta esatta, ma uno spazio in cui sia ancora possibile cercare.

Lo specchio algoritmico ci restituisce un’immagine nitida, coerente, puntuale. Ma un’immagine, per quanto perfetta, non è un volto. E ciò che ci rende soggetti: fragili, opachi, contraddittori, non si lascia catturare da nessun riflesso. Resiste, come sempre resiste ciò che è vivo: non perché si oppone, ma perché eccede.

Commenti

Valutazione 0 stelle su 5.
Non ci sono ancora valutazioni

Aggiungi una valutazione
bottom of page