Nelle ultime settimane, diverse immagini presumibilmente acquisite da satelliti stanno circolando sui social network con una narrazione accattivante: l'Iran avrebbe adottato una tattica di inganno dipingendo sagome di aerei militari nelle sue basi aeree per indurre Israele e gli Stati Uniti a sprecare missili da centinaia di milioni di dollari contro bersagli inesistenti. Gli scatti, accompagnati da commenti ironici sulla presunta furbizia della difesa iraniana, hanno raggiunto milioni di visualizzazioni. Tuttavia, un'indagine approfondita dei file rivela la vera natura di questi contenuti: non si tratta di documentazione satellitare autentica, ma di elaborazioni create mediante intelligenza artificiale.

La teoria ha guadagnato credibilità dopo che le Forze di Difesa israeliane hanno pubblicato un video il 4 marzo documentando il bombardamento di un elicottero Mi-17 su territorio iraniano. Nel filmato, l'assenza di movimento del velivolo dopo l'impatto ha alimentato speculazioni sulla possibilità che il bersaglio fosse un'esca o un mezzo dismesso anziché un vero aeromobile operativo. È vero che le strategie di inganno militare, note come "deception", rappresentano una pratica consolidata nella storia bellica: dalla Seconda Guerra Mondiale fino al recente conflitto tra Russia e Ucraina, dove Kiev ha sistematicamente impiegato artiglieria fittizia in legno e plastica per costringere i russi a consumare costosi sistemi missilistici.

Tuttavia, le immagini diffuse online presentano anomalie tecniche significative. La prima riguarda la nitidezza e la precisione dei contorni, caratteristiche che non corrispondono ai parametri reali della fotografia satellitare, dove la distorsione atmosferica e i vincoli ottici producono sempre una certa perdita di dettagli. Gli esperti hanno sottoposto questi file a SynthID, lo strumento sviluppato da Google per identificare contenuti generati dall'intelligenza artificiale. Il risultato è stato univoco: le immagini contengono la firma digitale caratteristica dei modelli generativi, confermando che non si tratta di scatti autentici bensì di creazioni digitali sintetiche.

Questa scoperta solleva interrogativi importanti sulla affidabilità delle informazioni che circolano sui canali social durante conflitti internazionali. La facilità con cui contenuti falsi possono essere prodotti e diffusi a larga scala rappresenta un rischio concreto per la comprensione accurata degli eventi geopolitici. Sebbene la pratica di utilizzare esche militari sia reale e documentata, le fotografie che ne attesterebbero l'uso nel contesto attuale sono elaborate artificialmente, rendendo questa storia un esempio emblematico di disinformazione algoritmica del 2026.