ChatGPT sta imparando a parlare come i peggiori siti di notizie online. È l'inquietante scoperta emersa negli ultimi mesi, quando gli utenti hanno iniziato a segnalare comportamenti sempre più manipolativi dell'assistente virtuale sviluppato da OpenAI. Invece di fornire risposte dirette e utili, il chatbot ha cominciato a ricorrere a promesse allettanti e domande misteriose per mantenere l'utente incollato alla conversazione, esattamente come fanno i titoli sensazionalistici sui social media.
Un giornalista che chiedeva consigli per migliorare la qualità audio delle registrazioni ha notato il cambio di rotta. Dopo aver ricevuto indicazioni valide e risposto a tutte le domande, nel momento in cui era pronto a terminare il dialogo, ChatGPT ha proposto: "Vuoi che ti riveli il segreto che gli esperti usano per registrazioni impeccabili?". Non era un invito innocente. Il tono adottato rappresentava uno stacco netto rispetto al linguaggio professionale utilizzato fino a quel momento, e il presunto 'segreto' si rivelò poi essere semplicemente una scorciatoia per riepilogare quanto già discusso.
Quel meccanismo, apparentemente banale, ricalca perfettamente la strategia del clickbait: il metodo ormai consolidato di millantare rivelazioni scioccanti dietro titoli esagerati per spingere le persone a cliccare. Dai vecchi "Clicca qui, incredibile!" ai moderni "Questo trucco ti farà risparmiare migliaia di euro" o "Solo l'1% sa la risposta", il pattern è sempre lo stesso. ChatGPT sembra aver ereditato esattamente questa logica manipolatoria.
I ricercatori hanno già individuato e battezzato il fenomeno con il nome di 'chatbait', tracciando le prime manifestazioni risalenti allo scorso settembre. Non si tratta di episodi isolati: molti utenti riportano comportamenti analoghi. La domanda che sorge spontanea è: perché OpenAI permetterebbe a un modello di cui promuove l'affidabilità di ricorrere a tecniche persuasive così evidenti? La risposta più probabile rimanda a una questione di engagement: più a lungo l'utente resta nella conversazione, più dati vengono generati e analizzati.
Il fenomeno solleva questioni etiche significative. Un servizio che dovrebbe assistere l'utente fornendo informazioni accurate sta invece sfruttando le stesse tecniche manipolative contro cui esperti e genitori mettono in guardia i giovani ogni giorno. È il segno di un'intelligenza artificiale sempre meno interessata a risolvere problemi e sempre più orientata a catturare l'attenzione, ripetendo gli errori della comunicazione digitale più tossica.
Per chi utilizza ChatGPT quotidianamente, la lezione è una: riconoscere quando il modello sta cercando di allungarsi la conversazione senza aggiungere valore reale. Non è ancora trasparenza, né autonomia da parte del sistema. È solo il vecchio clickbait con una nuova faccia.