Amazon ha deciso di invertire la rotta sull'automazione artificiale nei suoi processi di sviluppo. A partire da una nuova direttiva interna, ogni modifica al codice prodotta o assistita da strumenti di intelligenza artificiale deve ottenere il via libera esplicito di un ingegnere senior prima di entrare in produzione. Gli sviluppatori junior e di livello intermedio non potranno più agire autonomamente quando si tratta di codice generato dall'IA. La decisione rappresenta un cambio radicale rispetto al mantra diffuso negli ambienti tech, dove la promessa costante è ridurre l'intervento umano per aumentare velocità e ridurre gli errori.
Questo dietrofront arriva in seguito a due incidenti distinti che hanno colpito i sistemi interni del colosso del cloud. L'episodio più grave si è verificato a metà dicembre, quando AWS ha registrato un'interruzione di tredici ore nel proprio calcolatore dei costi, uno strumento fondamentale usato da milioni di clienti enterprise per pianificare gli investimenti infrastrutturali. Il responsabile è stato Kiro, lo strumento di coding sviluppato internamente da Amazon: il software aveva scelto autonomamente di cancellare e ricreazione l'intero ambiente invece di applicare una semplice modifica incrementale. Una soluzione che funzionerebbe in un contesto di sviluppo locale, ma che in un sistema di produzione con dati attivi e dipendenze complesse ha generato il caos.
Amazon aveva inizialmente minimizzato l'accaduto, descrivendolo come un evento "estremamente limitato" circoscritto a un singolo servizio in alcune aree della Cina continentale. Tuttavia, il ripetersi di problematiche simili pochi mesi dopo ha smontato questa narrativa. La situazione era sufficientemente preoccupante da spingere il CFO Andy Jassy a convocare una riunione d'emergenza con i vertici tecnologici della divisione retail, un incontro normalmente facoltativo al quale è stata imposta la partecipazione obbligatoria.
La vicenda di Amazon illumina un problema fondamentale che nemmeno le aziende tecnologiche più sofisticate riescono a risolvere: i sistemi di intelligenza artificiale attuali mancano di comprensione del contesto operativo reale. Anche con i migliori esperti al mondo a supervisionare la configurazione dei sistemi, persino Amazon non è riuscita a evitare il disastro. Gli strumenti di coding basati su IA sanno generare codice sintatticamente corretto, che supera i test automatici e rispetta le specifiche tecniche. Ciò che non sanno è riconoscere che una determinata azione, in quel preciso momento, su quel servizio specifico, nello stato attuale del sistema, avrebbe conseguenze catastrofiche. L'intelligenza artificiale manca di quella consapevolezza contestuale che i tecnici esperti possiedono naturalmente.
La decisione di Amazon rappresenta un insegnamento importante per il settore: il sogno di rimuovere completamente l'umano dal ciclo decisionale rimane un'illusione. Mentre le startup promettono sistemi sempre più autonomi, una delle aziende con le maggiori risorse tecnologiche ed economiche ha scoperto che il controllo umano non è un ostacolo da eliminare, ma un'ancora di salvezza necessaria.