Microsoft와 OpenAI, ChatGPT의 개인 정보 침해로 30억 달러 소송
Microsoft와 OpenAI는 회사가 인공 지능(AI) 모델을 교육하기 위해 허가 없이 개인 데이터를 사용했다고 주장하는 16명의 개인에 의해 고소당했습니다.
157 페이지의 소송 ( The Register를 통해 )은 6월 28일 캘리포니아주 샌프란시스코에 있는 연방 법원의 Clarkson Law Firm을 통해 개인에 의해 제기되었습니다. 소송은 Microsoft와 OpenAI가 동의, 적절한 통지 또는 해당 데이터에 대한 지불 없이 ChatGPT를 교육하기 위해 데이터를 사용했다고 주장합니다.
개인 정보의 구매 및 사용에 대한 확립된 프로토콜에도 불구하고 피고는 절도라는 다른 접근 방식을 취했습니다. 그들은 동의 없이 얻은 개인 정보를 포함하여 ‘책, 기사, 웹 사이트 및 게시물’ 등 인터넷에서 3천억 단어를 체계적으로 스크랩했습니다. OpenAI는 해당 법률에 따라 요구되는 대로 데이터 브로커로 등록하지 않고 비밀리에 그렇게 했습니다.
이 소송은 OpenAI가 사용하는 데이터에 사람들의 신념, 독서 습관, 취미, 거래 및 위치 데이터, 채팅 로그 등에 대한 정보가 포함되어 있다고 지적하면서 개인의 프라이버시에 대해 더 이야기합니다.
피고가 사용자에 대해 수집하는 많은 양의 개인 정보는 개인화되고 표적화된 응답을 제공하는 데 사용될 수 있지만 추적, 감시 및 범죄와 같은 극도로 사악한 목적에도 사용될 수 있습니다. 예를 들어 ChatGPT가 사용자의 검색 기록, 검색 쿼리 및 지리적 위치에 액세스할 수 있고 이 정보를 피고 OpenAI가 인터넷에서 비밀리에 스크랩한 정보와 결합하는 경우 피고는 다음을 포함하되 이에 국한되지 않는 사용자 행동 패턴에 대한 자세한 프로필을 작성할 수 있습니다. 어디로 가는지, 무엇을 하는지, 누구와 교류하는지, 관심사와 습관이 무엇인지. 이러한 수준의 감시 및 모니터링은 프라이버시, 동의 및 개인 데이터 사용에 대한 중요한 윤리적 및 법적 질문을 제기합니다. 사용자가 자신의 데이터가 수집되고 사용되는 방식을 인식하는 것이 중요합니다.
뿐만 아니라 소송은 개인 식별 정보(PII)를 숨기려는 OpenAI의 접근 방식도 표적으로 삼았습니다. 올해 초 The Register는 ChatGPT를 사용하는 동안 PII 유출을 방지하기 위한 OpenAI의 계획을 밝히는 보고서를 발표했습니다 . 보고서에 따르면 OpenAI는 AI가 전화번호 및 신용카드 정보와 같은 개인 정보를 뱉어내는 것을 차단하는 콘텐츠 필터를 방금 넣었습니다.
개인 식별 정보와 관련하여 피고는 훈련 모델에서 이를 필터링하지 못하여 수백만 명이 해당 정보를 즉시 공개하거나 전 세계의 낯선 사람에게 공개할 위험에 처하게 합니다.
마지막으로 이 소송은 Microsoft와 OpenAI가 기밀 정보를 불법적으로 획득하고 사용함으로써 전자 개인 정보 통신법을 위반했다고 주장합니다. 또한 원고는 Microsoft가 타사 서비스/ChatGPT 통합 간의 통신을 가로채서 컴퓨터 사기 및 남용에 관한 법률을 위반했다고 주장했습니다.
일반적으로 소송은 연구자, 학자, 언론인 및 과거에 신경망 및 AI 사용과 관련하여 경고를 제기한 다른 사람들의 인용으로 가득 차 있습니다. 그러나 이 서류는 정보 사용과 그로 인해 발생한 피해 사례가 30억 달러의 손해를 입힐 수 있는 방법에 대해 밝힙니다.
Microsoft가 데이터를 오용하거나 적절한 동의 없이 사용하여 비난을 받은 것은 이번이 처음이 아닙니다. 지난달 트위터는 회사가 동의 없이 트위터의 데이터를 사용했다고 주장하는 통지문을 마이크로소프트에 보냈다 . 반면에 OpenAI는 상당한 문제가 있었습니다. 지난 3월에는 ChatGPT 사용자의 결제 정보 일부가 유출되는 침해 사고를 신고했다 . 이달 초, 10만 명이 넘는 ChatGPT 사용자의 계정 데이터가 유출되어 다크 웹에서 판매되었습니다 .
답글 남기기