Uno dei difetti più preoccupanti delle intelligenze artificiali generative come ChatGPT è la loro capacità di mentire con assoluta naturalezza. Non per malevolenza, ma per un meccanismo intrinseco: quando il modello non dispone di informazioni verificate, invece di ammettere l'ignoranza, riempie i vuoti con dettagli apparentemente credibili. Gli esperti del settore definiscono questo fenomeno "allucinazione", e rappresenta una delle sfide più critiche della tecnologia odierna. Il problema risiede nel fatto che queste invenzioni non si presentano come dubbi o ipotesi, bensì come certezze corredate di numeri, riferimenti e spiegazioni che suonano perfettamente plausibili.
Per contrastare questa tendenza pericolosa, è stato sviluppato un metodo efficace quanto semplice: il ricorso a un prompt speciale, ribattezzato "prompt della parola d'ordine". Il funzionamento è ingegnoso nella sua linearità. Si fornisce all'intelligenza artificiale un'istruzione esplicita che la obbliga a segnalare il momento in cui non è certa di ciò che sta per dire. L'utente concordi una parola chiave (può essere qualsiasi termine, "pasticcino" è solo un esempio) che il modello deve inserire all'inizio della risposta ogni qualvolta sta operando con dati incerti, stima personali o assenza di fonti affidabili.
Il prompt da inserire potrebbe suonare così: prima di formulare la tua risposta, valuta attentamente se disponi di informazioni sufficientemente accurate. Qualora nutrisi dubbi, ti manchino fonti solide o tu stia procedendo per approssimazione, anteponi la parola concordata all'inizio della tua risposta e illustra quali aspetti potrebbero risultare incerti, anziché azzardare dati a caso. Fornisci una risposta definitiva soltanto quando l'informazione poggia su fondamenta stabili.
Il meccanismo funziona perché modifica la struttura decisionale del modello. I sistemi linguistici attuali sono programmati per generare risposte veloci e scorrevoli, e quando incontrano lacune informative, le colmano naturalmente con dettagli verosimili. Ecco il punto dove nascono le allucinazioni. Introducendo un'istruzione esplicita che legittima il non-sapere, il comportamento cambia radicalmente. Al modello viene accordato il permesso di riconoscere l'incertezza, interrompere il processo di improvvisazione e tradurre l'incertezza in comunicazione trasparente.
Questo approccio si rivela particolarmente utile quando si richiede all'IA di rispondere su argomenti specialistici, prodotti e servizi poco noti, o quando si formula domande complesse che richiedono analisi trasversale. I test condotti dai ricercatori hanno dimostrato che l'introduzione della parola d'ordine aumenta significativamente il numero di risposte in cui il sistema ammette i limiti delle sue conoscenze, trasformando interazioni potenzialmente fuorvianti in dialoghi sinceri e costruttivi. Nel panorama attuale dove l'intelligenza artificiale acquisisce sempre più rilievo nella società, imparare a riconoscere e mitigare queste allucinazioni rappresenta una competenza sempre più essenziale per chiunque utilizzi questi strumenti.