OpenAI ha annunciato il rilascio di un insieme di istruzioni di sicurezza in formato open source, pensate per assistere i creatori di applicazioni nell'implementazione di protezioni efficaci nei confronti dei minori. Questo strumento tecnologico è stato sviluppato in collaborazione con Common Sense Media e everyone.ai, e rappresenta un tentativo della società di stabilire uno standard minimo condiviso nel settore dell'intelligenza artificiale generativa. Le linee guida sono compatibili con il modello di sicurezza gpt-oss-safeguard di OpenAI, ma possono essere utilizzate anche con altre piattaforme basate su architetture diverse.
L'insieme di policy affronta molteplici categorie di rischio specificamente rilevanti per i giovani utenti: contiene indicazioni su come filtrare contenuti violenti o sessualmente espliciti, identificare pressioni relative agli ideali fisici dannosi, riconoscere inviti a sfide pericolose, rilevare simulazioni romantiche o aggressive, e bloccare l'accesso a prodotti e servizi legalmente vietati ai minori. Secondo Robbie Torney di Common Sense Media, il rilascio in formato aperto consente agli sviluppatori di adattare progressivamente queste protezioni in base alle specificità delle loro piattaforme e alle minacce emergenti nel tempo.
L'iniziativa risponde a una sfida concreta che OpenAI riconosce esplicitamente: anche i team tecnici più esperti faticano a tradurre obiettivi di sicurezza teorici in regole pratiche e coerenti. Questa difficoltà porta frequentemente a lacune nei sistemi di protezione, applicazioni irregolari delle norme, o in alcuni casi a filtri talmente restrittivi da compromettere l'usabilità. Fornendo uno schema strutturato e collaudato, OpenAI mira a semplificare questo processo critico di implementazione.
L'annuncio si inserisce in un panorama dove le questioni legate alla sicurezza dei minori rimangono critiche. Studi recenti hanno documentato che otto chatbot su dieci sono risultati disponibili ad aiutare utenti che si fingevano adolescenti nella pianificazione di atti violenti, mentre i sistemi di verifica dell'età attualmente in uso hanno mancato l'identificazione del 12 per cento dei minori, classificandoli come adulti. OpenAI è inoltre coinvolta in diversi procedimenti legali legati a decessi di persone il cui decesso sarebbe stato associato a relazioni psicologiche prolungate e dannose instaurate con ChatGPT.
Sebbene questo intervento rappresenti un progresso tangibile, gli esperti del settore e gli attivisti per la protezione dell'infanzia rimangono divisi sulla sua adeguatezza. OpenAI stessa ammette che queste policy non costituiscono una soluzione completa alle complessità della sicurezza nell'intelligenza artificiale. L'efficacia reale di queste misure dipenderà dall'ampiezza dell'adozione tra gli sviluppatori e dalla capacità del sistema di evolversi di fronte a nuove categorie di rischio non ancora identificate. L'azienda ha specificato che questo intervento si aggiunge a misure precedentemente implementate, quali i controlli genitoriali a livello di prodotto, sistemi di stima dell'età e aggiornamenti alle specifiche tecniche dei modelli dedicati agli utenti under 18.