Materiale pedopornografico realizzato con l’utilizzo dell’intelligenza artificiale nel dark web. Ecco i dati emersi.
Questo lato oscuro di Internet, nascosto ai più, è un vero e proprio labirinto digitale dove si celano attività illegali e contenuti disturbanti. Vi parliamo di una pratica scioccante che coinvolge l’intelligenza artificiale: la creazione di materiale pornografico utilizzando questa tecnologia avanzata nel cuore stesso del dark web.
Cos’è il dark web
Il dark web, anche noto come “deep web“, è una parte celata di Internet, alla quale non si accede con i tradizionali motori di ricerca.
Mentre il web classico è aperto a tutti e offre contenuti pubblici, il dark web richiede specifici software o configurazioni per accedervi. Questa zona oscura della rete ospita un’infinità di attività illegali, traffico di droga, armi e molto altro.
Ciò che rende il dark web così affascinante (e inquietante) è l’anonimato garantito ai suoi utenti. Attraverso reti crittografate e protocolli specializzati, gli individui possono nascondere la loro identità e agire nell’ombra, senza paura delle conseguenze legali.
Tuttavia, va sottolineato che non tutto ciò che si trova nel dark web è illegale o immorale. Esistono anche forum dedicati alla privacy online, comunicazioni criptate sicure e giornalismo investigativo indipendente.
Purtroppo, però, c’è un lato oscuro del dark web che non possiamo ignorare: la proliferazione del materiale pornografico e pedopornografico illegale.
In particolare, negli ultimi anni si sono diffuse pratiche legate all’utilizzo dell’intelligenza artificiale per creare contenuti pedopornografici sempre più realistici ed estremamente dannosi.
È importante comprendere le sfide etiche e legali, legate all’utilizzo dell’intelligenza artificiale, in questo contesto nefasto.
Dobbiamo combattere queste violazioni dei diritti umani con determinazione ed educare le persone sulle implicazioni negative che queste tecnologie possono avere quando cadono nelle mani sbagliate.
Materiale pedopornografico realizzato con l’intelligenza artificiale nel dark web
Una delle pratiche più inquietanti che si trovano nel profondo della rete oscura è la creazione di materiale pedopornografico utilizzando l’intelligenza artificiale (IA). Questa tecnologia avanzata viene usata, di recente, anche dai cybercriminali.
L’utilizzo dell’IA – nella produzione di materiale pornografico – rappresenta una minaccia ancora maggiore rispetto alle forme tradizionali.
L’IA può essere addestrata per generare volti o corpi umani digitalmente creati, che sembrano incredibilmente realistici. Ciò significa che gli abusi sessuali su minori possono essere simulati, senza coinvolgere vittime reali.
Questa pratica orribile mette in evidenza l’enormità del problema della pedopornografia sul dark web e la necessità urgente di combatterla. Le autorità competenti stanno lavorando duramente per individuare i responsabili e smantellare queste reti illegali, ma c’è ancora molta strada da fare.
La diffusione dell’intelligenza artificiale nel mondo del crimine online solleva questioni etichbe ed evidenzia la necessità di rafforzare la legislazione sui diritti dei minori e sulla protezione della privacy online.
Le opportunità offerte dagli algoritmi di intelligenza artificiale nella generazione di immagini hanno aperto le porte a una serie di utilizzi diversi.
Tuttavia, accanto ai tentativi di produrre materiale pubblicitario a costo zero e alle sperimentazioni artistiche, è emerso anche un mercato oscuro di immagini pedopornografiche “sintetiche” create mediante l’uso di software accessibili a tutti.
Inchieste condotte dal Washington Post e dalla BBC hanno svelato che questo materiale è venduto tramite abbonamenti mensili su siti mainstream che sfruttano sistemi di controllo inadeguati.
Materiale pedopornografico e intelligenza artificiale: deepfake e minacce in rete
L’utilizzo sempre più diffuso degli algoritmi di intelligenza artificiale per generare immagini ha portato all’emergere immediato di fenomeni illegali e sotterranei come l’estorsione sessuale e minacce mediante deepfake.
Nei forum presenti nel dark web, sono iniziate a circolare vere e proprie guide per creare immagini fotorealistiche di abusi su minori usando gli strumenti disponibili.
La facilità con cui è possibile creare qualsiasi tipo di immagine – a partire da una stringa di testo – richiede solo una conoscenza tecnica minima, rendendo tale tecnologia accessibile a chiunque e consentendo la produzione di un numero infinito di contenuti con un singolo comando.
Controlli più approfonditi, anche se le questioni etiche e legali restano aperte
Le aziende private che sviluppano software come Midjourney o Dall-E hanno reagito tempestivamente, introducendo controlli più rigorosi, vietando la produzione di contenuti a sfondo sessuale ed eliminando qualsiasi immagine esplicita dai loro database.
Di conseguenza, molti si sono rivolti a Stable Diffusion, un generatore di immagini nato dalla collaborazione tra accademici e aziende, che ha recentemente rilasciato una versione open source.
La licenza richiede agli utenti di non utilizzare il software per scopi illegali o dannosi per i minori, dimostrando così di essere consapevoli del problema.
Tuttavia, una volta scaricato sul proprio computer, è possibile aggirare facilmente le regole e le misure di sicurezza, inserendo alcune righe di codice.
Ciò consente agli utenti di addestrare l’intelligenza artificiale secondo i propri desideri, utilizzando anche database di immagini che raffigurano abusi reali su minori.
L’azienda ha difeso la scelta dell’open source, dichiarando che le responsabilità etiche e legali – derivanti dall’utilizzo del programma – ricadono unicamente sugli utenti e che la produzione di contenuti illeciti rappresenta solo una percentuale minima del totale.
Le immagini pedopornografiche, create mediante l’intelligenza artificiale, non sono ancora disciplinate dalla legge.
In Italia, dal 2006, è punito, però, il possesso, la creazione e il commercio di immagini e video pedopornografici, realizzati con l’ausilio del computer e della tecnologia.
Pivix e Patreon
La diffusione di immagini pedopornografiche sui social media giapponesi come Pivix – utilizzato dai creatori per condividere immagini di anime e manga – e le piattaforme di abbonamento come Patreon è un problema grave e in continua crescita.
Nonostante le dichiarazioni delle piattaforme riguardanti politiche di “tolleranza zero” e il rinforzo dei sistemi di monitoraggio, esiste ancora una falla nel controllo delle chat, dove gli utenti cercano e condividono questo tipo di materiale.
Questo fenomeno ha gravi conseguenze, non solo perché rende più facile l’accesso a immagini pedopornografiche online e rischia di normalizzare la sessualizzazione dei minori, ma anche perché rende difficile identificare le vere vittime di abusi.
Attualmente, i sistemi utilizzati per rilevare e tracciare i contenuti pedopornografici non sono in grado di distinguere tra quelli reali e quelli generati artificialmente.
Ciò richiede una maggiore allocazione di risorse per affrontare ogni caso individualmente.
È evidente che le aziende produttrici di software e le piattaforme di diffusione di contenuti devono sviluppare misure efficaci per contrastare l’utilizzo nefasto dei loro prodotti e proteggere i minori da questa forma di abuso.