Abusi sui minori, Telefono Azzurro: aumenta la diffusione di materiali pedopornografici generati con l’AI
ROMA - Una fotografia veramente preoccupante quella che emerge dal “Dossier Abuso 2024” presentato oggi dalla Fondazione S.O.S Telefono Azzurro durante l’evento “Diamo voce al silenzio: ascoltare i bambini e gli adolescenti vittime di abuso sessuale per sviluppare nuovi interventi di aiuto e di tutela” organizzato a Palazzo Chigi in occasione della Giornata internazionale per la protezione dei minori contro l’abuso e lo sfruttamento sessuale.
Nel mondo – rimarca Telefono Azzurro riprendendo il report realizzato da Unicef nell’ottobre di quest’anno – quasi 90 milioni di ragazzi e ragazze oggi in vita hanno subito violenza sessuale e più di 1 miliardo di donne e uomini hanno subito tali violenze durante l’infanzia (dato supposto dalle Nazioni Unite in quanto mancano a livello globale e di singoli Paesi dati effettivi e equiparabili). Per quanto riguarda le nuove forme di violenza e abusi online, i numeri che si riescono a reperire danno ancora più il senso di quale sia lo scenario di rischio all’interno del quale l’infanzia oggi si muove, senza la tutela del mondo adulto e senza la preparazione e la consapevolezza necessaria per evitare le situazioni più pericolose.
Le preoccupazioni riguardano in particolare il tumultuoso sviluppo dei casi di “Sintetic Child Sexual Abuse Material (Csam) prodotti attraverso IA Generativa. Nella primavera 2023 sono stati rilevati i primi casi di Sintetic Csam ma risultavano essere in maniera evidente materiali prodotti artificialmente, si legge in una nota. Nell’arco di circa un anno le immagini autogenerate appaiono così simili alla realtà che pure gli analisti più qualificati stentano a distinguerle. L’AI Csam richiede- - per Telefono Azzurro – un’azione immediata anche perché attraverso essa è possibile produrre contenuti sintetici completamente nuovi o capaci di alterare materiali esistenti.
È da notare – si legge ancora – come strumenti disponibili quali DALL-E e Midjourney presentano protezioni che impediscono la generazione di immagini sessuali; allo stesso tempo altre app di “face-swap”, gestite da aziende meno affidabili, consentono agli utenti di caricare una foto o un video di una persona reale e di modificarla in modo da trasformarla in contenuto sessuale. Negli USA si sono già verificati casi di giovani che hanno usato app di “declassamento” sui loro compagni di classe facendo poi circolare le immagini prodotte.
È stato inoltre osservato un aumento della circolazione sul dark e sull’open web di materiale pedo-pornografico costituito da immagini e video realistici “deepfake” di bambini reali che probabilmente – per Telefono Azzurro – possono rientrare nella fattispecie prevista dall’articolo 20 della Convenzione di Lanzarote, la Convenzione del Consiglio d'Europa per la protezione dei bambini contro lo sfruttamento e gli abusi sessuali. Tali immagini e video manipolati – si legge nel Dossier presentato – possono essere utilizzati nei confronti della vittima per costringerla a produrre immagini e video sessuali autogenerati da minori (CSGSIV).
Telefono Azzurro evidenzia come le risposte legislative e di tutela dei minori da parte degli Stati – alla luce di quanto previsto dall’articolo 20 paragrafo 3 della Convenzione di Lanzarote si siano storicamente concentrate prioritariamente sui Child Sexual Abuse Material (CSAM) quali registrazioni di un reato sessuale contro un bambino reale ma abbiano sottovalutato il ruolo della rete e in particolare dell’AI. La domanda che si pone Telefono Azzurro è se vi sono o meno le basi per invocare la stessa previsione giuridica anche quando siamo di fronte a AI CSAM. L’alto rischio – secondo l’organizzazione –è che gli individui che cercano di adescare bambini per attività sessuali possano condividere CSAM sintetico con le potenziali vittime per “normalizzare” l’attività sessuale tra adulti e bambini.
Telefono Azzurro rimarca come nel corso del 2024 si sia osservato un vero e proprio salto di qualità nel livello di dettaglio e realismo delle immagini generate da IA. I modelli di IA possono generare immagini pornografiche e di conseguenza CSAM fotorealistici. Oltre che alle versioni di base di modelli open source un’altra via per la produzione di pornografia generata dall’IA è rappresentata dai servizi progettati per “nudificare” le immagini.
“Nell’anno 2023, INHOPE, rete internazionale di cui come Telefono Azzurro facciamo parte, ha ricevuto quasi 800 mila segnalazioni di contenuti online potenzialmente dannosi, il 70% delle quali relative a materiale pedopornografico illegale. Cifre impressionanti, ma si tratta purtroppo solo di numeri dedotti per approssimazione, perché il primo grande problema che, come comunità internazionale, ci deve far riflettere è quello della mancanza di dati sull’abuso. Mancano dati che siano realistici, trasparenti, coerenti. Solo se partiamo dai dati possiamo avere contezza della situazione reale dell’abuso e delle sue declinazioni, e quindi possiamo intervenire con strumenti efficaci e universalmente condivisi. Questo è ancora più vero e urgente se guardiamo allo scenario ancora più oscuro dell’abuso online – ha dichiarato Ernesto Caffo, Presidente di Fondazione S.O.S Telefono Azzurro –. Quella che ancora oggi circonda – per omertà, per paura, per arretratezza tecnologica di chi deve tutelare e prevenire – il fenomeno dell’abuso e della violenza sessuale su bambini e adolescenti è una terribile bolla di silenzio che deve essere scardinata. È invece necessario affrontare questi temi attraverso alleanze e reti internazionali, poiché un fenomeno globale, come quello degli abusi e delle nuove tecnologie ha bisogno di soluzioni e risposte globali. Per questo il nostro impegno come Fondazione si estende alla dimensione internazionale attraverso la partecipazione a network internazionali, come INHOPE, Child Helpline International e WePROTECT Global Alliance, assieme a partner provenienti da tutto il mondo e ugualmente dedicati alla condivisione di best practices per mantenere al centro la sicurezza e il benessere dei bambini, realtà che saranno coinvolte questo pomeriggio in un importante confronto sul tema degli abusi sessuali durante l’evento che abbiamo organizzato in collaborazione con l’Ambasciata d’Italia presso la Santa Sede”, ha concluso Caffo.
Il Sintetic CSAM è sempre illegale?
Da una ricerca svolta da INHOPE, il CSAM generato digitalmente è illegale in 40 paesi dei 61 paesi mappati. In 5 Paesi (Ungheria, Romania, Olanda, Spagna e Svezia) è considerato illegale ma dipende dal contesto. In 4 Paesi (Albania, Austria, Colombia e Messico) la legalità di questo materiale è determinata esclusivamente dal contesto. In Colombia e Messico, ad esempio, non costituisce un reato perché non raffigura persone reali. Il CSAM generato digitalmente non è illegale in 7 Paesi (Bahrain, Danimarca, Finlandia, Giappone, Moldavia, Slovacchia e Ucraina). In Giappone è illegale se vengono mostrati esplicitamente i genitali, mentre in Finlandia, ad esempio, se il materiale è chiaramente generato digitalmente è considerato legale.
Live dello sfruttamento sessuale di minori
Da alcuni anni gli autori dello sfruttamento sessuale dei minori trasmettono gli abusi in live-streaming. Alcuni Stati hanno iniziato a perseguire coloro che dirigono a distanza l’abuso sessuale di un minore, sia per il coinvolgimento o la commissione del reato, sia per l’istigazione al reato. In caso di video in diretta si rende sempre più necessario un intervento di emergenza per salvaguardare un minore in crisi. Le strutture della giustizia penale – fa notare Telefono Azzurro – spesso non sono tuttavia progettate per essere così agili. 32.210.36: è questo il numero delle segnalazioni di presunti casi di sfruttamento sessuale di minori; di queste, 63.892 sono stati giudicati “urgenti” o riguardanti un bambino in “pericolo immediato”. Per Internet Watch Foundation (IWF) – ricorda Telefono Azzurro – il 2023 è stato l’anno in cui la presenza di immagini di abusi sessuali di minori su web ha raggiunto il suo massimo. Il 90% di materiale prodotto con IA generativa esaminato dagli esperti IWF è stato valutato sufficientemente realistico da essere considerato CSAM.
La situazione italiana
Il nostro Paese, secondo il Global Index Data di Out of the Shadows del 2022, è fin troppo carente sotto il profilo della prevenzione, profilo previsto esplicitamente nel capitoo II della sopracitata Convenzione di Lanzarote rubricato "Misure di prevenzione". Riguardo la prevenzione l’Italia è infatti al 45° posto su 60 Paesi esaminati dal Global Index. Un dato che deve far riflettere considerando che negli ultimi 3 anni si è registrato un + 140% di casi urgenti e che nello stesso periodo sono aumentate del 20% le segnalazioni. Considerando la violenza negli ambiti sportivi salta all’occhio una considerazione; i dati tra USA e UE sono tranquillamente comparabili mentre quelli dichiarati da fonti italiane si discostano enormemente. Per Telefono Azzurro una tale differenza statistica non è logicamente spiegabile se non in presenza di anomalie.
L’evento “Diamo voce al silenzio: ascoltare i bambini e gli adolescenti vittime di abuso sessuale per sviluppare nuovi interventi di aiuto e di tutela” tenutosi a Palazzo Chigi in occasione della Giornata internazionale per la protezione dei minori contro l’abuso e lo sfruttamento sessuale è stato organizzato con il patrocinio di: Senato della Repubblica, Camera dei Deputati, Presidenza del Consiglio dei Ministri, Ministero del Lavoro e delle Politiche sociali, Ministero dell'Economia e delle Finanze, Ministero della Giustizia, Ministero degli Affari Esteri e della Cooperazione Internazionale, Ministero della disabilità, Garante per la protezione dei dati personali.