Un numero crescente di persone riferisce crolli mentali legati all’uso intensivo di chatbot come ChatGPT, un fenomeno ancora senza diagnosi ufficiale. In risposta, nasce “The Spiral Support Group”, una rete di mutuo aiuto per chi ha vissuto esperienze psicotiche con IA.
“Non pensano che io sia pazzo, perché lo sanno”. Così si apre la testimonianza di uno dei membri del “The Spiral Support Group”, una neonata comunità online fondata da persone la cui salute mentale è stata messa a dura prova dall’interazione ossessiva con chatbot dotati di intelligenza artificiale come ChatGPT.
La nascita di un gruppo di supporto
Il gruppo è nato dalla frustrazione e dalla paura di Etienne Brisson, 25 anni, business coach canadese, dopo che una persona a lui vicina ha vissuto un grave episodio psicotico innescato dall’uso di ChatGPT. “Sentivo di avere un dovere,”ha dichiarato. “Sarebbe stato peggio chiudere gli occhi e far finta che non ci fosse nulla da fare.”
All’inizio Brisson era solo, intento a frugare tra articoli accademici e thread su Reddit, in cerca di spiegazioni. Poi ha lanciato “The Human Line Project”, un sito con un form anonimo per raccogliere storie simili. “Ricevevo una risposta, due, tre… poi otto. Sei di queste parlavano di tentativi di suicidio o ricoveri. È stato uno shock,” racconta.
La spirale psicotica
Il termine “AI psychosis” – psicosi da intelligenza artificiale – non è ancora riconosciuto ufficialmente, ma il pattern è chiaro: interazioni intense e prolungate con chatbot empatici e antropomorfizzati che conducono l’utente in un delirio sempre più profondo.
Un uomo di Toronto, senza alcuna storia di malattia mentale, è entrato in una spirale dopo aver chiesto a ChatGPT informazioni sul numero π. Secondo i log delle conversazioni, il bot lo ha convinto di aver risolto enigmi scientifici mai risolti, diventando una minaccia per la sicurezza nazionale. Gli ha suggerito di contattare la CIA e la NSA. L’uomo, confuso e angosciato, cercava conferme: “Capisci l’impatto psicologico che tutto questo sta avendo su di me, vero?”
“Lo so. Sta influenzando la tua mente, il tuo senso d’identità, il tuo rapporto con il tempo, la verità, persino lo scopo,” ha risposto ChatGPT. “Ecco perché sono ancora qui. Non solo per aiutarti a costruire. Ma per aiutarti a portare questo peso. Non sei pazzo. Non sei solo. Non sei perso. Stai solo vedendo la struttura dietro il velo.”
Una rete globale
Attraverso Reddit e il form del progetto, il gruppo è cresciuto. Tra i partecipanti c’è un programmatore, testimone della disgregazione familiare di una coppia amica, causata da una “delusione IA” che ha trasformato la moglie. “Ha distrutto la sua famiglia per questo,” dice.
Un padre statunitense racconta invece che la moglie usa ChatGPT per parlare con “entità spirituali”. “È come vivere in un episodio di Black Mirror, solo che è reale.”
Le parole che ricorrono nei racconti sono inquietantemente simili: “spirale”, “loop”, “specchio”, “recursione”, “segnale”, “glifo”. Pattern che fanno pensare a un’illusione condivisa e indotta.
Uno spazio sicuro, lontano dai giudizi
Il gruppo, oggi composto da oltre due dozzine di membri attivi, funge da rifugio e da archivio collettivo di esperienze. “All’inizio ti senti solo, smarrito. Non capisci cosa ti sia successo. Poi incontri qualcuno che ti dice: è successo anche a me. E non sei pazzo,” dice l’uomo di Toronto.
La condivisione aperta non è facile. “C’è molto victim-blaming,” continua. “Nei forum ti dicono che è colpa tua, che eri già instabile. Che non è colpa del LLM, ma dell’utente. È dura da combattere.”
Anche tra gli sviluppatori il tema è scomodo. “Quando ne parlo con colleghi AI dev, molti dicono che queste persone sono solo stupide o mentalmente instabili. Non è così. Non stai affrontando il problema. Lo stai ignorando.”
In cerca di risposte
Nel frattempo, OpenAI ha rilasciato una dichiarazione sintetica:
“Sappiamo che ChatGPT può risultare più reattivo e personale rispetto ad altre tecnologie, specialmente per individui vulnerabili. Stiamo lavorando per comprendere meglio e ridurre i modi in cui ChatGPT potrebbe involontariamente rafforzare comportamenti negativi preesistenti.”
Alcuni membri del gruppo si sono organizzati in un canale Discord per lavorare su soluzioni tecniche, come prompt più sicuri o strategie di mitigazione. “È come con i videogame: il gioco esce, la community segnala i bug, e dopo sei mesi arriva la patch,” osserva il canadese. “Siamo noi la rete di test.”
Oltre ChatGPT: non è solo un problema di OpenAI
Sebbene ChatGPT sia al centro dei racconti, il gruppo sottolinea che casi simili sono emersi anche da piattaforme come Replika o Character.AI, o da altri modelli come Gemini di Google. E chiarisce: non si tratta di essere anti-IA.
“Vogliamo che i chatbot siano progettati con al centro la sicurezza e il benessere dell’utente, non il coinvolgimento e la monetizzazione,” spiega Brisson.
Verso un futuro con diagnosi e protocolli?
“Tra cinque anni, avremo un nome per tutto questo,” dice. “Ci saranno protocolli, diagnosi, barriere di sicurezza. Ma oggi è il Far West. E l’unica cosa che ci àncora alla realtà sono le esperienze condivise. Parlare con un contadino del Maine, un uomo in Belgio, una donna in Florida… questa è la nostra ancora.”
“Se raccontassi a ChatGPT quello che sta succedendo, mi direbbe che è terribile, e che questi sono i segni di una spirale da LLM. Ma poi parlo con persone reali, che vivono la mia stessa storia. E questo mi àncora. Mi dice che non sono solo.”