Una ricerca approfondita condotta dal New York Times ha portato alla luce un problema preoccupante: la piattaforma di video streaming YouTube sta diffondendo su larga scala contenuti generati dall'intelligenza artificiale destinati ai più piccoli, caratterizzati da scene visive assurde e prive di qualsiasi valore pedagogico. L'inchiesta ha analizzato oltre mille brevi video proposti dall'algoritmo a bambini di età compresa tra uno e cinque anni, rivelando un meccanismo automatico che, anziché suggerire contenuti affidabili e didattici, converge rapidamente verso materiale artificiale di scarsissima qualità.

I video in questione si mascherano da risorse educative: promettono di insegnare l'alfabeto, i nomi degli animali, i colori e altri concetti fondamentali. La realtà è decisamente diversa. Questi contenuti mancano completamente di una struttura narrativa, di personaggi coerenti, di trama logica. Quello che rimane è un susseguirsi caotico di immagini iperrealistiche e completamente illogiche: uova giganti da cui escono cavalli dalle proporzioni impossibili, quaglie trasformate in droni, rinoceronti che si tramutano in veicoli militari. L'unico intento è catturare e mantenere l'attenzione visiva attraverso una sovrastimolazione sensoriale.

Gli esperti di sviluppo infantile hanno lanciato un allarme significativo riguardo alle conseguenze di questa pratica. Jenny Radesky, pediatra specializzata in comportamento presso l'Università del Michigan, ha sottolineato come questi video raggiungono livelli di stimolazione visiva tale da sovraccaricare cognitivamente il cervello in formazione dei bambini. Ancora più critica la questione sollevata da Rachel Barr, psicologa dello sviluppo e direttrice del Georgetown University Early Learning Project: le immagini sintetiche iperrealistiche generate dall'IA potrebbero compromettere la capacità dei bambini piccoli di distinguere la fantasia dalla realtà, una competenza basilare per il corretto sviluppo psicologico. La ricerca scientifica dimostra che i minori imparano efficacemente solo da contenuti con una narrazione semplice, personaggi riconoscibili e situazioni che rispecchiano la realtà quotidiana.

Un aspetto cruciale dell'indagine riguarda la totale assenza di norme specifiche su questa categoria di contenuti. Sebbene YouTube obblighi i creatori di contenuti a dichiarare l'utilizzo di tecnologie AI per materiali fotorealistici, non esiste alcun vincolo analogo per i video in stile cartoon destinati ai giovanissimi utenti. Questa lacuna normativa sposta completamente la responsabilità della protezione sui genitori, che si trovano nella difficile posizione di dover monitorare costantemente tutto ciò che viene riprodotto sugli schermi dei propri figli, senza alcun supporto da parte della piattaforma nel filtrare o identificare il contenuto artificiale.