微軟和 OpenAI 因 ChatGPT 侵犯隱私被起訴 索賠 30 億美元

微軟和 OpenAI 因 ChatGPT 侵犯隱私被起訴 索賠 30 億美元

微軟和 OpenAI 已被 16 名個人起訴,他們聲稱這些公司未經許可使用個人數據來訓練其人工智能 (AI) 模型。

這份長達 157 頁的訴訟(來自The Register)是由個人於 6 月 28 日通過克拉克森律師事務所向加利福尼亞州舊金山聯邦法院提起的。該訴訟指控微軟和 OpenAI 在未經同意、充分通知或未支付上述數據費用的情況下使用數據來訓練 ChatGPT。

儘管制定了購買和使用個人信息的協議,但被告採取了不同的方法:盜竊。他們系統地從互聯網、“書籍、文章、網站和帖子——包括未經同意獲得的個人信息”中刪除了 3000 億個單詞。OpenAI 是秘密這樣做的,並且沒有按照適用法律的要求註冊為數據經紀人。

該訴訟進一步討論了個人隱私,因為它指出 OpenAI 使用的數據包含有關人們的信仰、閱讀習慣、愛好、交易和位置數據、聊天日誌等信息。

雖然被告收集的大量用戶個人信息可用於提供個性化和有針對性的響應,但也可用於極其邪惡的目的,例如跟踪、監視和犯罪。例如,如果 ChatGPT 有權訪問用戶的瀏覽歷史記錄、搜索查詢和地理位置,並將這些信息與被告 OpenAI 秘密從互聯網上抓取的信息結合起來,被告就可以建立用戶行為模式的詳細檔案,包括但不限於他們去哪裡、做什麼、與誰互動以及他們的興趣和習慣是什麼。這種級別的監視和監控引發了有關隱私、同意和個人數據使用的重要道德和法律問題。對於用戶來說,了解他們的數據如何被收集和使用至關重要,

不僅如此,該訴訟還針對 OpenAI 隱藏個人身份信息 (PII) 的方法。今年早些時候,The Register 發布了一份報告,闡明了 OpenAI 在使用 ChatGPT 時防止 PII 洩露的計劃。據報導,OpenAI 剛剛添加了一個內容過濾器,可以阻止人工智能洩露電話號碼和信用卡信息等私人信息。

關於個人身份信息,被告未能充分地將其從培訓模型中過濾掉,使數百萬人面臨該信息立即或以其他方式向世界各地的陌生人披露的風險。

最後,訴訟還指控微軟和 OpenAI 非法獲取和使用機密信息,違反了《電子隱私通信法》。此外,原告還指控微軟攔截第三方服務/ChatGPT集成之間的通信,違反了《計算機欺詐和濫用法》。

該訴訟總體上引用了研究人員、學者、記者和其他人的引文,他們過去曾對神經網絡和人工智能的使用發出過警告。然而,該文件並未提及信息的使用及其造成的損害實例如何造成 30 億美元的損失。

這並不是微軟第一次因濫用數據或未經適當同意而使用數據而受到批評。上個月,Twitter向微軟發出通知,指控該公司未經同意使用Twitter的數據。另一方面,OpenAI 也有自己的問題。今年 3 月,該公司報告了一次洩露 ChatGPT 用戶部分支付信息的違規行為。本月早些時候,超過 10 萬 ChatGPT 用戶的賬戶數據被洩露並在暗網上出售

發佈留言

發佈留言必須填寫的電子郵件地址不會公開。 必填欄位標示為 *