Le procureur de la ville de San Francisco veut fermer 16 sites Web de déshabillage par IA
Ce qu’il faut savoir
- San Francisco intente une action en justice contre 16 sites Web de « déshabillage » alimentés par l’IA.
- Ces sites créent des images nues non consensuelles de femmes et d’enfants.
- Le procès vise à fermer les sites Web et à demander des comptes aux opérateurs.
Dans une démarche audacieuse contre l’exploitation numérique, le procureur de la ville de San Francisco s’attaque aux sites Web qui utilisent l’intelligence artificielle pour créer de fausses images de nus. David Chiu a annoncé une action en justice visant 16 plateformes populaires de « déshabillage par IA » qui ont suscité controverses et inquiétudes.
Ces sites permettent aux utilisateurs de télécharger des photos de personnes habillées, puis d’utiliser l’IA pour générer des versions réalistes nues sans consentement. Cette technologie a été utilisée à mauvais escient pour créer des images explicites d’adultes et de mineurs, ce qui soulève de graves questions éthiques et juridiques.
Selon le bureau de Chiu, les sites ciblés ont reçu plus de 200 millions de visites en seulement six mois cette année. Ce chiffre stupéfiant met en évidence l’ampleur du problème.
La plainte accuse les opérateurs de sites Web d’avoir violé plusieurs lois, notamment celles interdisant la pornographie deepfake, la pornographie de vengeance et l’exploitation des enfants. Elle vise à faire fermer les plateformes et à leur imposer de lourdes amendes.
Chiu a exprimé ses horreurs face à l’exploitation que les femmes et les filles ont endurée, déclarant sur X :
Cette enquête nous a conduit dans les recoins les plus sombres d’Internet, et je suis absolument horrifiée pour les femmes et les filles qui ont dû subir cette exploitation.
Il s’agit d’un problème majeur et multiforme que nous, en tant que société, devons résoudre le plus rapidement possible.
– David Chiu (@DavidChiu) 15 août 2024
Cette action en justice intervient dans un contexte de préoccupation croissante concernant les deepfakes générés par l’IA. Des cas très médiatisés, comme celui de fausses images nues de Taylor Swift circulant en ligne, ont attiré l’attention sur le problème. Cependant, d’innombrables personnes ordinaires ont également été victimes de cette technologie.
Un incident troublant a été celui de photos de nus de 16 collégiens de Californie générées par l’IA. De tels cas montrent comment cette technologie peut être utilisée comme arme de harcèlement, en particulier chez les jeunes.
La pornographie deepfake présente d’énormes risques pour la santé mentale des victimes, ainsi que pour leur réputation et leurs perspectives d’avenir. Le problème de la traçabilité de l’origine de ces images est encore plus complexe lorsque celles-ci commencent à se propager en ligne.
Le procès intenté par San Francisco représente une étape importante dans la lutte contre l’utilisation abusive de l’IA pour créer des images intimes non consensuelles. L’affaire illustre également le fossé considérable entre les avancées rapides de la technologie de l’IA et les cadres juridiques et éthiques qui ont du mal à suivre le rythme.
La décision de la ville pourrait créer un précédent quant à la manière dont d’autres juridictions s’attaquent à cette menace croissante. Elle envoie également un message clair : la création et la distribution de deepfakes non consensuels ne seront pas tolérées.
Alors que cette bataille juridique se déroule, elle met en évidence le besoin urgent d’une réglementation complète et de lignes directrices éthiques dans le domaine en évolution rapide de l’intelligence artificielle.
Laisser un commentaire