Il procuratore della città di San Francisco vuole chiudere 16 siti web di svestizione tramite intelligenza artificiale
Cosa sapere
- San Francisco sta intraprendendo un’azione legale contro 16 siti web di “spogliarelli” basati sull’intelligenza artificiale.
- Questi siti creano immagini di nudo non consensuale di donne e bambini.
- L’azione legale mira a chiudere i siti web e a ritenere gli operatori responsabili.
In una mossa coraggiosa contro lo sfruttamento digitale, l’avvocato della città di San Francisco sta prendendo di mira i siti web che utilizzano l’intelligenza artificiale per creare false immagini di nudo. David Chiu ha annunciato una causa contro 16 popolari piattaforme di “spogliarello AI” che hanno scatenato polemiche e preoccupazioni.
Questi siti web consentono agli utenti di caricare foto di individui vestiti, quindi di usare l’intelligenza artificiale per generare versioni realistiche di nudo senza consenso. La tecnologia è stata utilizzata in modo improprio per creare immagini esplicite sia di adulti che di minori, sollevando gravi questioni etiche e legali.
Secondo l’ufficio di Chiu, i siti presi di mira hanno ricevuto oltre 200 milioni di visite in soli sei mesi quest’anno. Questo numero impressionante evidenzia la natura diffusa del problema.
La causa accusa gli operatori del sito web di aver violato molteplici leggi, tra cui quelle che proibiscono la pornografia deepfake, la pornografia di vendetta e lo sfruttamento minorile. Cerca di chiudere le piattaforme e imporre pesanti multe.
Chiu ha espresso il suo orrore per lo sfruttamento che le donne e le ragazze hanno dovuto sopportare, affermando su X:
Questa indagine ci ha portato negli angoli più oscuri di Internet e sono profondamente inorridita per le donne e le ragazze che hanno dovuto subire questo sfruttamento.
Si tratta di un problema vasto e dalle molteplici sfaccettature che noi, come società, dobbiamo risolvere il prima possibile.
— David Chiu (@DavidChiu) 15 agosto 2024
L’azione legale arriva in un momento di crescente preoccupazione per i deepfake generati dall’intelligenza artificiale. Casi di alto profilo, come le false immagini di nudo di Taylor Swift che circolano online, hanno attirato l’attenzione sulla questione. Tuttavia, anche innumerevoli individui comuni sono caduti vittime di questa tecnologia.
Un incidente preoccupante ha coinvolto immagini di nudo generate dall’intelligenza artificiale di 16 studenti delle scuole medie in California. Tali casi dimostrano come questa tecnologia possa essere usata come arma per bullismo e molestie, specialmente tra i giovani.
La pornografia deepfake pone enormi rischi per la salute mentale delle vittime, nonché per la loro reputazione e le loro prospettive future. Il problema di tracciare l’origine di queste immagini si aggrava ulteriormente quando queste iniziano a diffondersi online.
La causa di San Francisco rappresenta un passo significativo nella lotta all’uso improprio dell’IA per la creazione di immagini intime non consensuali. Il caso rappresenta anche l’ampio divario tra i rapidi progressi nella tecnologia dell’IA e i quadri giuridici ed etici che stanno lottando per tenere il passo.
L’azione della città potrebbe creare un precedente per il modo in cui altre giurisdizioni affrontano questa crescente minaccia. Invia anche un messaggio chiaro che la creazione e la distribuzione di deepfake non consensuali non saranno tollerate.
Mentre questa battaglia legale si svolge, emerge l’urgente necessità di una regolamentazione completa e di linee guida etiche nel campo in rapida evoluzione dell’intelligenza artificiale.
Lascia un commento