Chi utilizza regolarmente chatbot e assistenti basati su intelligenza artificiale conosce bene una frustrazione ricorrente: ogni volta che si cambia piattaforma o si avvia una nuova conversazione, è come ricominciare da capo. Le preferenze imparate spariscono, il contesto si azzera, le istruzioni personalizzate vanno riscritte. È una limitazione che sembra accettata come naturale, ma che nasconde in realtà un problema strutturale della tecnologia attuale.

A mettere il dito sulla piaga è Matteo Tuzi, fondatore di Memory Model, una startup che ha identificato nella gestione della memoria il tallone d'Achille dell'intelligenza artificiale moderna. Il nodo centrale è deceptivamente semplice: la memoria accumulata da un assistente IA vive esclusivamente dentro il modello utilizzato, il che significa che appartiene al fornitore del servizio, non a chi lo usa, e non può essere portata altrove. Questa situazione crea due conseguenze tangibili. La prima è il degrado progressivo delle prestazioni: quando troppe informazioni si accumulano in una singola sessione, il modello comincia a perdere coerenza, generando risposte contraddittorie o inventando dettagli inesistenti, un fenomeno noto come "allucinazione". La seconda, altrettanto problematica, è il cosiddetto vendor lock-in: una volta che un modello ha imparato lo stile, le preferenze e le fonti di un utente, passare a un concorrente significa perdere completamente quel lavoro preparatorio.

L'impatto pratico di questa limitazione è considerevole. Immaginate un giornalista che ha trascorso ore a istruire ChatGPT sul proprio stile narrativo, le proprie aree tematiche preferite e le fonti di riferimento. Se decide di migrare a Claude o Gemini per sfruttare funzionalità specifiche di queste piattaforme alternative, si ritrova a dover riconfigurare tutto da zero. Tutta quella preparazione preliminare va perduta, trascinando via con sé una quantità significativa di tempo e risorse.

La risposta proposta da Memory Model è concettualmente elegante: estrarre la memoria dal modello, renderla autonoma e indipendente, e farla appartenere all'utente o all'organizzazione anziché al provider. Tecnicamente, il funzionamento si basa su un sistema di memoria esterna che non viene caricata interamente in ogni sessione, bensì interrogata selettivamente: quando un utente formula una domanda, il sistema estrae solo le informazioni direttamente rilevanti, evitando di intasare il modello con dati superflui. In teoria, questo approccio consentirebbe di lavorare con decine di migliaia di pagine di documenti senza gli ostacoli imposti dai tradizionali limiti di contesto.

Al di là della mera praticità, emerge una questione di portata ancora maggiore: quella della privacy e della conformità normativa, cruciale non appena ci si muove in ambiti professionali o aziendali. Modelli che operano localmente o applicazioni specifiche per la gestione riservata dei dati acquisiscono una rilevanza nuova e decisiva in questo scenario. La separazione tra memoria e modello potrebbe rappresentare non soltanto un miglioramento tecnico, ma un cambio di paradigma nel modo in cui concepiamo il controllo dei dati personali e aziendali negli ambienti di intelligenza artificiale.