Procurador da cidade de São Francisco quer fechar 16 sites de despir com IA
O que saber
- São Francisco está tomando medidas legais contra 16 sites de “despir-se” com tecnologia de IA.
- Esses sites criam imagens nuas não consensuais de mulheres e crianças.
- O processo tem como objetivo fechar os sites e responsabilizar os operadores.
Em um movimento ousado contra a exploração digital, o procurador da cidade de São Francisco está reprimindo sites que usam inteligência artificial para criar imagens falsas de nudez. David Chiu anunciou um processo visando 16 plataformas populares de “despir por IA” que geraram controvérsia e preocupação.
Esses sites permitem que os usuários carreguem fotos de indivíduos vestidos e, em seguida, usem IA para gerar versões nuas realistas sem consentimento. A tecnologia tem sido mal utilizada para criar imagens explícitas de adultos e menores, levantando sérias questões éticas e legais.
De acordo com o escritório de Chiu, os sites alvos receberam mais de 200 milhões de visitas em apenas seis meses neste ano. Esse número impressionante destaca a natureza generalizada do problema.
O processo acusa os operadores do site de violar várias leis, incluindo aquelas que proíbem pornografia deepfake, pornografia de vingança e exploração infantil. Ele busca fechar as plataformas e impor multas pesadas.
Chiu expressou seu horror diante da exploração sofrida por mulheres e meninas, afirmando no X:
Esta investigação nos levou aos cantos mais obscuros da internet, e estou absolutamente horrorizada pelas mulheres e meninas que tiveram que suportar essa exploração.
Este é um problema grande e multifacetado que nós, como sociedade, precisamos resolver o mais rápido possível.
-David Chiu (@DavidChiu) 15 de agosto de 2024
A ação legal ocorre em meio à crescente preocupação com deepfakes gerados por IA. Casos de alto perfil, como imagens falsas de Taylor Swift nua circulando online, trouxeram atenção para o problema. No entanto, inúmeros indivíduos comuns também foram vítimas dessa tecnologia.
Um incidente preocupante envolveu imagens de nudez geradas por IA de 16 estudantes do ensino fundamental na Califórnia. Tais casos demonstram como essa tecnologia pode ser usada como arma para bullying e assédio, especialmente entre jovens.
Pornografia deepfake apresenta enormes riscos à saúde mental das vítimas, bem como às suas reputações e perspectivas futuras. O problema de rastrear a origem dessas imagens é ainda mais agravado quando elas começam a se espalhar online.
O processo de São Francisco representa um passo significativo no combate ao uso indevido de IA para criar imagens íntimas não consensuais. O caso também representa a grande lacuna entre os rápidos avanços na tecnologia de IA e as estruturas legais e éticas que estão lutando para manter o ritmo.
A ação da cidade pode estabelecer um precedente para como outras jurisdições lidam com essa ameaça crescente. Também envia uma mensagem clara de que a criação e distribuição de deepfakes não consensuais não serão toleradas.
À medida que essa batalha jurídica se desenrola, ela destaca a necessidade urgente de regulamentação abrangente e diretrizes éticas no campo em rápida evolução da inteligência artificial.
Deixe um comentário