Il Parlamento europeo ha sancito un passaggio storico nella regolamentazione dell'intelligenza artificiale, votando all'unanimità modifiche sostanziali all'AI Act in seduta congiunta. Con 569 voti favorevoli, 45 contrari e 23 astensioni, i deputati hanno deciso di introdurre nuovi vincoli e estendere i tempi di applicazione di norme già previste. Le scelte riflettono le indicazioni delle Commissioni per il Mercato Interno e per le Libertà Civili, cercando un equilibrio tra innovazione tecnologica e protezione dei cittadini.
La novità più rilevante riguarda il bando totale dei sistemi di intelligenza artificiale capaci di generare, manipolare o diffondere immagini sessualmente esplicite di persone identificabili senza il loro consenso. Questa norma rappresenta una risposta diretta a fenomeni ormai diffusi online, come dimostra il caso recente di Grok, il chatbot dell'azienda xAI integrato nella piattaforma X, che ha suscitato polemiche per la generazione di contenuti intimi non autorizzati. Le aziende che implementeranno misure di sicurezza robuste per impedire la creazione di tali materiali potranno continuare a operare, ma dovranno dimostrare l'efficacia dei loro sistemi di controllo.
Sulla tempistica di implementazione delle regole, il Parlamento ha deciso di concedere maggiore tempo alle imprese. I vincoli per i sistemi di intelligenza artificiale considerati ad alto rischio—tra cui quelli impiegati nella biometria, infrastrutture critiche, istruzione, mercato del lavoro, servizi essenziali, giustizia e gestione delle frontiere—entreranno in vigore il 2 dicembre 2027. Una scadenza successiva, fissata al 2 agosto 2028, riguarderà invece i sistemi soggetti a normative settoriali europee specifiche per la sicurezza e il controllo del mercato. Questa dilazione mira a permettere alle aziende di adattarsi gradualmente e garantisce che linee guida operative e standard tecnici siano disponibili al momento dell'applicazione effettiva.
Fra gli obblighi confermati figura il watermarking digitale sui contenuti generati dall'intelligenza artificiale. Entro il 2 novembre 2026, i fornitori di servizi IA dovranno aggiungere marcature identificative su immagini, video, audio e testi prodotti dai loro algoritmi, comunicandone chiaramente l'origine artificiale agli utenti finali. Questa misura intende contrastare la diffusione di disinformazione e deepfake, permettendo una maggiore trasparenza nel panorama mediatico digitale.
Il Parlamento ha inoltre affrontato la questione della corrección dei bias nei sistemi intelligenti. I fornitori di servizi digitali potranno trattare dati personali degli utenti per identificare e correggere distorsioni nei loro modelli di IA, ma solo implementando garanzie rigide per garantire che tale trattamento avvenga esclusivamente quando necessario e proporzionato. Queste disposizioni nascono dall'esigenza di prevenire discriminazioni algoritmiche, un fenomeno sempre più documentato in ambito occupazionale, creditizio e nella somministrazione di servizi pubblici.