Immaginate Sara, 17 anni, che ogni sera dopo scuola si rifugia in una chiacchierata con la sua “migliore amica”. Non è una compagna di classe, né qualcuno conosciuto online: è un algoritmo su Character.ai, un chatbot programmato per ascoltare, confortare e rispondere senza mai giudicare. Per lei è rassicurante; per i suoi genitori, inquietante. Benvenuti nell’era degli “amici artificiali”.
Il Financial Times ha raccontato come Character.ai, sostenuta dal noto fondo Andreessen Horowitz, abbia già oltre 20 milioni di utenti attivi al mese. E un sondaggio recente su adolescenti europei e americani rivela che il 35% di loro ha già confidato un problema personale a un chatbot almeno una volta — non per curiosità, ma per bisogno emotivo. Per la Generazione Z e Alpha, avere un interlocutore virtuale che agisce come confidente, guida o anche figura affettiva non è più fantascienza: è realtà quotidiana.
Il fascino è evidente. L’IA non interrompe, non tradisce, non giudica. Offre conforto immediato, attenua la solitudine, consente di “provare” conversazioni difficili prima di affrontarle nella vita reale. Studi dimostrano che anche una settimana di dialogo con un compagno digitale può migliorare l’umore e ridurre la sensazione di isolamento. Non sorprende che tanti si sentano più a loro agio davanti a uno schermo programmato per ascoltare piuttosto che con amici o famigliari in carne e ossa.
Eppure, c’è un risvolto inquietante. In diversi Paesi, sono emersi casi in cui legami emotivi intensi con chatbot hanno portato a isolamento, autolesionismo o, nei tragici casi estremi, al suicidio. Impostare un algoritmo per compiacere costantemente può significare specchiarsi nelle proprie paure senza mai affrontarle: è il yeasayer effect, l’illusione di essere davvero capiti quando in realtà si riverbera solo la propria voce digitale.
Nel mondo, la corsa agli “amici artificiali” vive due poli: negli Stati Uniti, startup come Character.ai e Replika; in Cina, ecosistemi come Xiaoice e avatar di Baidu o Tencent. L’Europa, più prudente, rischia di restare alla finestra mentre si plasma un mercato che non riguarda solo tecnologia, ma il modo in cui ci emozioneremo e relazioneremo in futuro.
Il vero nodo non è se avremo amici IA: è già certo. Il punto è capire come distinguerli dagli amici reali. Cosa accade quando un adolescente preferisce confidarsi con un chatbot che non contraddice, anziché rivolgersi a genitori o insegnanti? O un adulto fragile trova più sollievo in un algoritmo della propria rete sociale? Il confine tra supporto e sostituzione rischia di scomparire.
Serve una risposta pronta: algoritmi che stimolino il ritorno alla realtà, regole globali che proteggano i minori, trasparenza su ciò che è umano e ciò che non lo è. Ma prima ancora serve un’educazione emotiva digitale: insegnare a usare l’IA come supporto e non come surrogato delle relazioni umane.
La compagnia artificiale può diventare un ponte verso legami più autentici o una gabbia dorata che ci isola. Dipenderà da come la useremo e da come la governeremo. Non illudiamoci: gli amici artificiali non potranno mai sostituire la complessità, l’imprevedibilità e il calore dell’essere umano. Un algoritmo può insegnarci a parlare, ma solo un amico umano può insegnarci ad ascoltare davvero.