Fatti
“TikTok, Telegram, Signal insieme ad aree meno accessibili della rete come il Dark Web rappresentano oggi alcuni dei principali canali di diffusione e scambio di materiale pedopornografico, in un contesto ulteriormente aggravato dall’intelligenza artificiale generativa, in grado di creare immagini e video manipolati e di produrre contenuti deepnude”. Il Report 2025 pedofilia e pornografia “Bambini vittime” dell’Associazione Meter, presentato a Roma il 24 febbraio, evidenzia una trasformazione profonda del fenomeno, sempre più caratterizzato dall’uso di tecnologie avanzate e strumenti difficili da intercettare.
Nel corso del 2025
“sono stati identificati 8.213 minori vittime di deepnude, ovvero immagini generate artificialmente in cui i minori vengono denudati o manipolati digitalmente. Questo dato si aggiunge alle 785.072 immagini e ai 1.733.043 video contenenti abusi reali su minori, segnalati nello stesso periodo”.
Grazie all’attività dell’Osservatorio mondiale contro la pedofilia, l’Associazione Meter ha individuato
“115 gruppi e bot attivi tra Signal e Telegram, utilizzati per la diffusione di contenuti deepnude, per un totale di 8.213 minori vittime, denudati mediante l’impiego dell’IA”. E se “Telegram si conferma la piattaforma maggiormente utilizzata”, tra gli strumenti per creare deepnude e deepfake “emerge anche Grok”, responsabile della creazione di “1.121 contenuti rilevati, pari al 14% del totale”.
L’attività di monitoraggio ha consentito di individuare “505 domini nazionali coinvolti nella diffusione di materiale illecito”. Tra i Paesi e territori maggiormente interessati figurano “la Nuova Zelanda con 177 segnalazioni, il Territorio Britannico dell’Oceano Indiano con 110, il Montenegro e la Russia con 46 ciascuno e gli Stati Uniti con 44”. Tra i domini nazionali monitorati rientra “il dominio italiano .IT con 14 segnalazioni effettuate”. Sui domini generici sono stati segnalati “1.532 link”. Tra questi, “individuate 5 macro-cartelle compresse (.RAR) contenenti 4.964 ulteriori archivi”. Il dominio generico più segnalato risulta essere “il .COM con 964 casi rilevati”.
C’è stata “una riduzione del numero di link totali (domini nazionali e generici) segnalati, passati da 8.034 nel 2024 a 2.037 nell’ultimo anno” perché “i pedocriminali utilizzano sempre più link effimeri che cambiano dopo ogni accesso e restano disponibili solo per brevi periodi”.
L’analisi dei materiali rilevati evidenzia
“una maggiore concentrazione di contenuti che coinvolgono minori nella fascia d’età compresa tra gli 8 e i 12 anni, con 422.368 foto individuate.
Seguono la fascia 3–7 anni, con 360.563 foto, e la fascia 0–2 anni, con 1.972 immagini”. Il medesimo andamento si riscontra anche nei contenuti video:
“Sono stati rilevati 1.337.792 video relativi alla fascia 8–12 anni, 394.417 relativi alla fascia 3–7 anni e 834 relativi alla fascia 0–2 anni”.
Una ricerca condotta dall’Associazione Meter su un campione di 467 minori tra i 9 e gli 11 anni evidenzia
“criticità significative legate all’utilizzo della piattaforma di gioco Roblox, frequentata quotidianamente da bambini e adolescenti. Il 70% dei minori coinvolti dichiara di essere stato esposto ad almeno una situazione di rischio durante l’esperienza di gioco”.
Tra i dati più rilevanti, “il 45% degli intervistati riferisce di aver ricevuto tentativi di adescamento da parte di sconosciuti attraverso chat private o profili virtuali, ma solo il 10% dimostra una piena consapevolezza del fenomeno e della sua gravità. Il 50% dei minori dichiara di aver bloccato utenti sconosciuti che richiedevano informazioni personali, spesso per timore di furti di identità o accessi non autorizzati ai propri account, senza tuttavia informare gli adulti di riferimento”. Il fenomeno del cyberbullismo risulta altrettanto diffuso: “Il 35% dei minori afferma di aver subito comportamenti offensivi, minacce o esclusione intenzionale dalle attività di gioco, con conseguenze che possono incidere sul benessere emotivo dei minori”. Inoltre, “il 30% dei minori riferisce che l’utilizzo dei dispositivi digitali è regolato dai genitori come forma di premio o punizione, elemento che può influenzare la loro propensione a segnalare episodi critici”.
Tra le forme sempre più complesse e diversificate di abuso emerge il fenomeno delle “pedomame”, ovvero donne, madri, che producono materiale pedopornografico. Sono stati documentati “11.240 video e 320 immagini diffusi attraverso piattaforme di messaggistica come Signal, Telegram e Viber”.
Sono stati individuati “24 gruppi attivi su Signal in cui minori, con un’età media di circa 11 anni, risultano essere vittime di abusi commessi mediante l’utilizzo di animali”.
Un ulteriore elemento di crescente preoccupazione riguarda i casi di abuso tra minori:
“Il 32% dei contenuti analizzati riguarda la produzione e diffusione di materiale sessualmente esplicito tra coetanei. Il 23% è riconducibile alla diffusione non consensuale di immagini intime, il 18% a episodi di ricatto sessuale (sextortion), il 15% a forme di adescamento con richieste di nudità o contenuti espliciti, mentre il 12% riguarda abusi sessuali commessi da un minore ai danni di un altro minore”.
“I bambini sono ancora vittime”. È questa la “nuda verità” per don Fortunato Di Noto, fondatore e presidente di Meter. “Spesso – osserva il sacerdote – si tende a confinare il contrasto alla pedofilia e alla pedopornografia online in una dimensione esclusivamente ‘virtuale’, percependo il materiale multimediale come un elemento astratto, disconnesso dalla realtà fisica.
È invece imperativo ribadire che ogni singola immagine, ogni singolo video, costituiscono la prova di un abuso sessuale realmente perpetrato. Dietro ogni pixel non vi è una finzione, ma la violazione tangibile dell’integrità fisica e psichica di un minore, avvenuta in contesti di quotidianità trasformati in scenari di reato”.
Don Di Noto spiega:
“A differenza di altre forme di violenza fisica, che essendo visibili generano un immediato allarme sociale, l’abuso pedocriminale online si consuma nel silenzio e nella segretezza. L’impossibilità di ‘vedere’ direttamente l’orrore porta a una pericolosa sottovalutazione del rischio e dell’impatto devastante sulle vittime”.
A ciò si aggiunge una preoccupante dinamica di “non-empatia”: “Si rileva, infatti, una tendenza a minimizzare la gravità degli abusi quando questi coinvolgono minori appartenenti a contesti geografici distanti o di nazionalità straniera. È fondamentale sottolineare come la distanza chilometrica non possa e non debba tradursi in una distanza morale: il crimine non ha confini e la tutela della dignità dell’infanzia deve essere un principio universale, scevro da logiche di prossimità territoriale”.
Il 2025 segna un punto di svolta drammatico con l’ingresso dell’intelligenza artificiale (IA) sul Child Sexual Abuse Material (Csam): “Le tecnologie generative – chiarisce il presidente di Meter – non solo facilitano la creazione di materiale ibrido, rendendo più complessa l’identificazione delle vittime reali, ma offrono ai predatori nuovi strumenti per l’adescamento e l’elusione dei controlli.
L’IA rischia di diventare, anzi, è già diventata, un moltiplicatore di violenza.
Ad ogni immagine creata con l’IA, un pedocriminale ne cerca una reale, e questo comporta una maggiore domanda di materiale puro”.
L’analisi condotta nel 2025 conferma, inoltre, il consolidamento delle piattaforme di messaggistica istantanea e dei sistemi di crittografia come infrastrutture privilegiate per la distribuzione di materiale pedopornografico: “Questi strumenti, nati per tutelare la privacy, vengono sistematicamente strumentalizzati per garantire l’anonimato ai circuiti pedocriminali, creando ‘zone franche’ digitali difficilmente penetrabili dalle comuni attività di indagine”. In questo contesto, “emerge con chiarezza come la mera rimozione dei contenuti da parte delle piattaforme e dei provider non possa essere considerata una risposta sufficiente”. Per l’Associazione Meter, conclude don Di Noto,
“è essenziale che ogni segnalazione non si esaurisca in un intervento di rimozione, ma venga sistematicamente trasmessa alle autorità competenti, affinché possa tradursi in attività investigative e in efficaci azioni giudiziarie a tutela delle vittime”.