Microsoft e OpenAI processadas em US$ 3 bilhões por violação de privacidade com ChatGPT
A Microsoft e a OpenAI foram processadas por dezesseis indivíduos que afirmam que as empresas usaram dados pessoais sem permissão para treinar seus modelos de Inteligência Artificial (IA).
O processo de 157 páginas (via The Register ) foi aberto pelos indivíduos por meio do escritório de advocacia Clarkson no tribunal federal de San Francisco, Califórnia, em 28 de junho. O processo alega que a Microsoft e a OpenAI usaram dados para treinar o ChatGPT sem consentimento, aviso adequado ou pagamento pelos referidos dados.
Apesar dos protocolos estabelecidos para a compra e uso de informações pessoais, os réus adotaram uma abordagem diferente: roubo. Eles sistematicamente extraíram 300 bilhões de palavras da internet, ‘livros, artigos, sites e postagens – incluindo informações pessoais obtidas sem consentimento’. A OpenAI o fez em segredo e sem se registrar como corretora de dados, conforme exigido pela lei aplicável.
O processo fala ainda sobre a privacidade dos indivíduos, pois observa que os dados usados pela OpenAI continham informações sobre as crenças das pessoas, hábitos de leitura, hobbies, dados de transações e localização, registros de bate-papo e muito mais.
Embora as grandes quantidades de informações pessoais que os réus coletam dos usuários possam ser usadas para fornecer respostas personalizadas e direcionadas, elas também podem ser usadas para fins extremamente nefastos, como rastreamento, vigilância e crime. Por exemplo, se o ChatGPT tiver acesso ao histórico de navegação, consultas de pesquisa e geolocalização de um usuário e combinar essas informações com o que o réu OpenAI extraiu secretamente da Internet, os réus podem criar um perfil detalhado dos padrões de comportamento dos usuários, incluindo, entre outros para onde vão, o que fazem, com quem interagem e quais são seus interesses e hábitos. Esse nível de vigilância e monitoramento levanta questões éticas e legais vitais sobre privacidade, consentimento e uso de dados pessoais. É crucial que os usuários estejam cientes de como seus dados estão sendo coletados e usados,
Não apenas isso, mas o processo também visava a abordagem da OpenAI para ocultar Informações Pessoais Identificáveis (PII). No início deste ano, o The Register publicou um relatório esclarecendo o plano da OpenAI para evitar o vazamento de PII ao usar o ChatGPT. De acordo com o relatório, a OpenAI acabou de colocar um filtro de conteúdo que impediria a IA de cuspir informações privadas, como números de telefone e informações de cartão de crédito.
Com relação às informações de identificação pessoal, os Réus falham o suficiente para filtrá-las dos modelos de treinamento, colocando milhões em risco de ter essas informações divulgadas prontamente ou de outra forma para estranhos em todo o mundo.
Por fim, o processo também alega que a Microsoft e a OpenAI violaram a Lei de Comunicações de Privacidade Eletrônica ao obter e usar informações confidenciais ilegalmente. Além disso, os queixosos também alegaram que a Microsoft violou a Lei de Fraude e Abuso de Computador ao interceptar a comunicação entre serviços de terceiros/integrações do ChatGPT.
O processo em geral está cheio de citações de pesquisadores, acadêmicos, jornalistas e outros que levantaram alarmes no passado em relação ao uso de redes neurais e IA. No entanto, o processo é leve sobre como o uso de informações e os casos de danos que ela causou valem US$ 3 bilhões em danos.
Esta não é a primeira vez que a Microsoft é criticada por uso indevido de dados ou por usá-los sem o devido consentimento. No mês passado, o Twitter enviou uma notificação à Microsoft alegando que a empresa havia usado os dados do Twitter sem consentimento . O OpenAI, por outro lado, teve seu próprio quinhão de problemas. Em março, a empresa relatou uma violação que vazou informações parciais de pagamento de usuários do ChatGPT. No início deste mês, dados de contas de mais de 100.000 usuários do ChatGPT vazaram e foram vendidos na dark web .
Deixe um comentário