Patrick, uno studente della Yale University, ha recentemente scoperto un metodo rapido per comunicare un rifiuto sentimentale: ha chiesto a ChatGPT di scrivere il messaggio al suo posto. Sei paragrafi perfettamente calibrati, tono compassionevole, riferimenti personali ben inseriti. Peccato che fosse tutto falso. Quando Emily ha ricevuto il messaggio e l'ha mostrato agli amici, tutti hanno immediatamente riconosciuto lo "stile machine", quell'inconfondibile patina di perfezione artificiale che tradisce l'origine algoritmica. Confrontato, Patrick non ha negato: ha semplicemente spiegato che affrontare quella conversazione da solo gli avrebbe causato imbarazzo e titubanze. Una scusa che racconta molto sulla nostra epoca.
I ricercatori di settore hanno già battezzato il fenomeno "social offloading", un termine che descrive il processo di delegare a terzi compiti sociali che dovremmo affrontare personalmente. Non è una novità assoluta: da sempre i ragazzi chiedono consigli agli adulti, gli adulti si confidano con gli amici prima di affrontare conversazioni difficili. Ma l'intelligenza artificiale ha trasformato questo processo. Non si tratta più di ricevere feedback su cosa dire; è diventato semplice copiare e incollare un messaggio scritto da un algoritmo, senza filtri personali. Il passo dal "cosa dovrei dire?" al "scrivi tu per me" è stato breve, forse troppo breve.
Michael Robb, responsabile della ricerca presso Common Sense Media, ha lanciato l'allarme durante un'intervista rilasciata a CNN: quando i giovani ricorrono all'intelligenza artificiale per mediare le loro interazioni sociali, stanno rinunciando a una componente essenziale della loro comunicazione. Secondo l'esperto, sempre più spesso questi ragazzi utilizzano i chatbot proprio per compensare la mancanza di abilità relazionali reali, una sorta di stampella digitale che peggiora il problema anziché risolverlo.
Le conseguenze per lo sviluppo emotivo e sociale sono potenzialmente gravi. Quando ogni messaggio delicato viene filtrato attraverso un'intelligenza artificiale, si radica nella mente un messaggio pericoloso: le proprie parole non sono mai sufficientemente buone, i propri istinti non meritano fiducia. È l'esatto opposto di ciò che accade quando si affronta una conversazione complicata autonomamente. La prima volta è terribile, sì, ma la seconda diventa un po' meno traumatica, e la terza si cominciano a comprendere i meccanismi della comunicazione genuina. Delegando ogni volta al chatbot, questo processo di crescita non ha mai inizio.
Ciò che Patrick non ha compreso—e probabilmente continuerà a non comprendere finché non smetterà di usare ChatGPT come intermediario sentimentale—è un insegnamento fondamentale: un messaggio di rifiuto non ha bisogno di essere letteralmente perfetto. Doveva essere autentico, doveva portare l'impronta della sua personalità, anche se imperfetta. Quella imperfezione, infatti, è esattamente ciò che lo avrebbe reso umano, e soprattutto credibile. Emily non cercava prosa impeccabile; cercava sincerità. E a quella, nessun algoritmo può veramente sostituirsi.