Un criminale usa l'intelligenza artificiale

Il materiale pedopornografico generato dall’AI: uno studio allarmante

I ricercatori dell'università di Stanford mettono in guardia dalle conseguenze che potrebbe causare l'uso degli algoritmi da parte delle organizzazioni di pedofili

La nuova frontiera della pedopornografia? Immagini e video creati dall’intelligenza artificiale. Grazie agli algoritmi, i responsabili di questi reati riescono a immettere in rete una quantità spropositata di materiale pedopornografico. Questo rende ancora più difficile il lavoro degli investigatori per contrastare il fenomeno. È quanto emerge da un rapporto pubblicato dall’Osservatorio Internet dell’Università di Stanford.

Dallo studio emerge che, nell’ultimo anno, le nuove tecnologie di intelligenza artificiale hanno reso più facile per i criminali creare immagini esplicite di bambini. A fronte di questo fenomeno, le organizzazioni che combattono la pedopornografia non hanno le risorse necessarie per combattere la crescente minaccia.

Maxi retata contro un sito di pedopornografia

VEDI ANCHE

Maxi retata contro un sito di pedopornografia

I rischi del materiale pedopornografico creato dall’AI

Shelby Grossman, uno degli autori del rapporto, ha spiegato al New York Times che negli anni a venire il web verrà inondato da contenuti dall’aspetto altamente realistico. Il che renderà ancora più difficile per le forze dell’ordine identificare i bambini reali che devono essere salvati.

Contro questa situazione, negli Stati Uniti si è già attivato il National Center for Missing and Exploited Children, ma mancano le leggi per fronteggiare il fenomeno. Già oggi, nel bel mezzo di un’epidemia di nudi generati dall’intelligenza artificiale deepfake che circolano nelle scuole, alcuni legislatori stanno prendendo provvedimenti per garantire che tali contenuti siano considerati illegali.

Come la pedopornografia online dilaga su internet

VEDI ANCHE

Come la pedopornografia online dilaga su internet

Aumentano i reati contro i bambini

Gli esperti, infatti, fanno notare che le immagini generate dall’intelligenza artificiale sono illegali se contengono bambini reali o se le immagini di bambini reali vengono utilizzate per addestrare i dati. Ma quelle realizzate sinteticamente, che non contengono immagini reali, negli Usa potrebbero essere protette come libertà di espressione. “Nel corso degli anni, la complessità delle segnalazioni e la gravità dei crimini contro i bambini continuano ad evolversi”, ha fatto sapere l’organizzazione in un comunicato. “Pertanto, l’utilizzo di soluzioni tecnologiche emergenti porta a un maggior numero di bambini salvaguardati”.

Materiale pedopornografico creato dall’AI: milioni di casi

All’inizio del 2024, in un solo giorno gli investigatori federali americani che contrastano la pedopornografia hanno ricevuto un milione di segnalazioni di materiale pedopornografico. Per settimane, gli investigatori hanno lavorato per rispondere all’insolito picco. Si è scoperto che molte delle segnalazioni erano legate a un’immagine che le persone condividevano su piattaforme per esprimere indignazione, non intenti malevoli. Ma quella foto ha comunque divorato ingenti risorse investigative.

Questa tendenza peggiorerà con l’accelerazione dei contenuti generati dall’intelligenza artificiale. Alex Stamos, uno degli autori del rapporto di Stanford, ha spiegato: “Un milione di immagini identiche è già abbastanza difficile, un milione di immagini diverse create dall’intelligenza artificiale sarebbe impossibile”.

Allarme deepfake e deepnude anche tra gli studenti

VEDI ANCHE

Allarme deepfake e deepnude anche tra gli studenti

Riproduzione riservata