Immagini sessualizzate di bambini generate dall'IA: l’allarme dell’Unicef

GINEVRA\ aise\ - L'UNICEF è “sempre più allarmato” dalle segnalazioni di un rapido aumento del volume di immagini sessualizzate generate dall'Intelligenza Artificiale che circolano, compresi casi in cui fotografie di bambini sono state manipolate e sessualizzate. È quanto ribadito dall’agenzia Onu che questa settimana ha diffuso nuovi dati nell’ambito della seconda fase del progetto “Disrupting Harm”, progetto di ricerca condotto dall'UNICEF Office of Strategy and Evidence – Innocenti, ECPAT International e INTERPOL, con il finanziamento di Safe Online.
I PRIMI DATI
I deepfake – immagini, video o audio generati o manipolati con l'Intelligenza Artificiale in modo da sembrare reali – vengono sempre più utilizzati per produrre contenuti sessualizzati che coinvolgono bambini, anche attraverso la “nudificazione”, dove gli strumenti di IA vengono utilizzati per spogliare o alterare gli abiti nelle foto per creare immagini falsificate di nudo o sessualizzate.
Secondo lo studio, in 11 paesi (Armenia, Brasile, Colombia, Repubblica Domenicana, Messico, Montenegro, Marocco, Macedonia del Nord, Pakistan, Serbia e Tunisia), almeno 1,2 milioni di bambini hanno rivelato che le loro immagini sono state manipolate in deepfake sessualmente espliciti nell'ultimo anno. In alcuni paesi, ciò rappresenta 1 bambino su 25, l'equivalente di un bambino in una classe tipica.
I bambini stessi sono profondamente consapevoli di questo rischio. In alcuni dei paesi oggetto dello studio, fino a due terzi dei bambini hanno dichiarato di temere che l'intelligenza artificiale possa essere utilizzata per creare false immagini o video a sfondo sessuale. I livelli di preoccupazione variano notevolmente da un paese all'altro, sottolineando l'urgente necessità di misure più incisive di sensibilizzazione, prevenzione e protezione.
Nel corso del 2026 saranno pubblicati rapporti nazionali con i risultati a livello di paese.
“Dobbiamo essere chiari. Le immagini sessualizzate di bambini generate o manipolate utilizzando strumenti di IA sono materiale che costituisce abuso sessuale su minorenni (CSAM)”, sottolinea l’UNICEF. “L'abuso tramite deepfake è un abuso, e non c'è nulla di falso nel danno che provoca. Quando viene utilizzata l'immagine o l'identità di un bambino, quel bambino è direttamente vittimizzato. Anche senza una vittima identificabile, il materiale relativo ad abusi sessuali su minorenni generato dall'IA normalizza lo sfruttamento sessuale dei bambini, alimenta la domanda di contenuti abusivi e presenta sfide significative per le forze dell'ordine nell'identificare e proteggere i bambini che hanno bisogno di aiuto”.
Pur accogliendo “con grande favore” gli sforzi degli sviluppatori di IA che stanno implementando approcci di sicurezza integrati nella progettazione e solide misure di protezione per prevenire l’uso improprio dei loro sistemi, l’UNICEF rileva come il panorama rimanga “disomogeneo” perché “troppi modelli di IA non vengono sviluppati con adeguate misure di sicurezza. I rischi possono essere aggravati quando gli strumenti di IA generativa sono integrati direttamente nelle piattaforme dei social media, dove le immagini manipolate si diffondono rapidamente”.
Alla luce di questa situazione, l’Agenzia chiede con urgenza che venga affrontata la crescente minaccia dei materiali di abuso sessuale su minorenni generati dall'IA.
LE MISURE PROPOSTE DALL’UNICEF
Che tutti i Governi amplino le definizioni di materiale di abuso sessuale su minorenni (CSAM) per includere i contenuti generati dall'IA e criminalizzino la sua creazione, acquisizione, possesso e distribuzione.
Che gli sviluppatori di IA implementino approcci di sicurezza integrati nella progettazione e solide misure di protezione per prevenire l'uso improprio dei modelli di IA.
Le aziende digitali devono impedire la diffusione di materiale di abuso sessuale su minorenni generato dall'Intelligenza Artificiale, non limitarsi a rimuoverlo dopo che l'abuso è avvenuto, e rafforzare la moderazione dei contenuti investendo in tecnologie di rilevamento, in modo che tale materiale possa essere rimosso immediatamente, non giorni dopo la segnalazione da parte della vittima o di un suo rappresentante.
“Il danno causato dall'abuso dei deepfake è reale e urgente”, conclude l’UNICEF. “I bambini non possono aspettare che la legge si adegui”. (aise)