Microsoft y OpenAI demandados por $ 3 mil millones por violación de la privacidad con ChatGPT
Microsoft y OpenAI han sido demandados por dieciséis personas que afirman que las empresas usaron datos personales sin permiso para entrenar sus modelos de Inteligencia Artificial (IA).
La demanda de 157 páginas (a través de The Register ) fue presentada por las personas a través del bufete de abogados Clarkson en un tribunal federal en San Francisco, California, el 28 de junio. La demanda alega que Microsoft y OpenAI usaron datos para entrenar a ChatGPT sin consentimiento, aviso adecuado o pago por dichos datos.
A pesar de los protocolos establecidos para la compra y el uso de información personal, los Demandados adoptaron un enfoque diferente: el robo. Recolectaron sistemáticamente 300 mil millones de palabras de Internet, ‘libros, artículos, sitios web y publicaciones, incluida la información personal obtenida sin consentimiento’. OpenAI lo hizo en secreto y sin registrarse como corredor de datos, como lo exige la ley aplicable.
La demanda habla además de la privacidad de las personas, ya que señala que los datos utilizados por OpenAI contenían información sobre las creencias de las personas, hábitos de lectura, pasatiempos, datos de transacciones y ubicación, registros de chat y más.
Si bien la gran cantidad de información personal que los Demandados recopilan sobre los Usuarios se puede usar para proporcionar respuestas personalizadas y dirigidas, también se puede usar para fines extremadamente nefastos, como el seguimiento, la vigilancia y el crimen. Por ejemplo, si ChatGPT tiene acceso al historial de navegación, las consultas de búsqueda y la geolocalización de un Usuario, y combina esta información con lo que el Demandado OpenAI ha recopilado en secreto de Internet, los Demandados podrían crear un perfil detallado de los patrones de comportamiento de los Usuarios, incluidos, entre otros, a dónde van, qué hacen, con quién interactúan y cuáles son sus intereses y hábitos. Este nivel de vigilancia y monitoreo plantea preguntas éticas y legales vitales sobre la privacidad, el consentimiento y el uso de datos personales. Es crucial que los usuarios sean conscientes de cómo se recopilan y utilizan sus datos,
No solo eso, sino que la demanda también se centró en el enfoque de OpenAI para ocultar información de identificación personal (PII). A principios de este año, The Register publicó un informe que arrojaba luz sobre el plan de OpenAI para evitar la fuga de PII al usar ChatGPT. Según el informe, OpenAI acababa de instalar un filtro de contenido que impediría que la IA diera información privada como números de teléfono e información de tarjetas de crédito.
Con respecto a la información de identificación personal, los Demandados fallan lo suficiente como para filtrarla de los modelos de capacitación, poniendo a millones en riesgo de que esa información se divulgue de inmediato o de otra manera a extraños en todo el mundo.
Por último, la demanda también alega que Microsoft y OpenAI violaron la Ley de comunicaciones de privacidad electrónica al obtener y usar información confidencial de manera ilegal. Además, los demandantes también alegaron que Microsoft había violado la Ley de Abuso y Fraude Informático al interceptar la comunicación entre servicios de terceros/integraciones de ChatGPT.
La demanda en general está llena de citas de investigadores, académicos, periodistas y otros que han dado la voz de alarma en el pasado con respecto al uso de redes neuronales e IA. Sin embargo, la presentación es clara sobre cómo el uso de la información y los casos de daño que ha causado valen $ 3 mil millones en daños.
Esta no es la primera vez que Microsoft ha sido criticado por hacer un mal uso de los datos o usarlos sin el consentimiento adecuado. El mes pasado, Twitter envió un aviso a Microsoft alegando que la empresa había usado los datos de Twitter sin consentimiento . OpenAI, por otro lado, tuvo su propia cantidad de problemas. En marzo, la empresa informó de una infracción que filtró información de pago parcial de los usuarios de ChatGPT. A principios de este mes, los datos de la cuenta de más de 100 000 usuarios de ChatGPT se filtraron y vendieron en la dark web .
Deja una respuesta