MicrosoftとOpenAI、ChatGPTによるプライバシー侵害で30億ドルを求めて提訴

MicrosoftとOpenAI、ChatGPTによるプライバシー侵害で30億ドルを求めて提訴

MicrosoftとOpenAIは、両社が自社の人工知能(AI)モデルをトレーニングするために個人データを許可なく使用したとして、16人の個人から訴訟を起こされている。

157ページにわたる訴訟The Register経由)は、6月28日にクラークソン法律事務所を通じてカリフォルニア州サンフランシスコの連邦裁判所に個人によって提起された。訴訟では、Microsoft と OpenAI が、同意、十分な通知、または当該データに対する支払いを行わずに、ChatGPT をトレーニングするためにデータを使用したと主張しています。

個人情報の購入と使用に関する確立された手順にもかかわらず、被告は窃盗という異なるアプローチをとりました。彼らはインターネット、「書籍、記事、ウェブサイト、投稿など、同意なく取得した個人情報を含む」から 3,000 億語を組織的に収集しました。OpenAI はこれを秘密裏に行い、適用法で義務付けられているデータ ブローカーとしての登録は行わなかった。

この訴訟ではさらに、OpenAIが使用したデータには人々の信念、読書習慣、趣味、取引および位置データ、チャットログなどに関する情報が含まれていたと指摘し、個人のプライバシーについても触れている。

被告がユーザーに関して収集した大量の個人情報は、個別化された対象を絞った対応を提供するために使用できますが、追跡、監視、犯罪などの非常に悪質な目的に使用される可能性もあります。たとえば、ChatGPT がユーザーの閲覧履歴、検索クエリ、地理位置情報にアクセスでき、この情報を被告 OpenAI がインターネットから密かに収集した情報と組み合わせると、被告はユーザーの行動パターンの詳細なプロファイルを構築できる可能性があります。彼らがどこに行くのか、何をするのか、誰と交流するのか、そして彼らの興味や習慣は何なのか。このレベルの監視と監視は、プライバシー、同意、個人データの使用に関する重大な倫理的および法的問題を引き起こします。ユーザーが自分のデータがどのように収集され、使用されているかを認識することが重要です。

それだけでなく、この訴訟は個人識別情報 (PII) の隠蔽に対する OpenAI のアプローチもターゲットにしていました。今年の初め、 The Register は、 ChatGPT 使用中の PII 漏洩を防ぐ OpenAI の計画を明らかにするレポートを発表しました。レポートによると、OpenAI は、電話番号やクレジット カード情報などの個人情報を AI が吐き出すのをブロックするコンテンツ フィルターを導入したところだったという。

個人を特定できる情報に関して、被告はそれをトレーニングモデルから除外するのに十分に失敗しており、何百万人もの人々がその情報を即時またはその他の方法で世界中の見知らぬ人に開示される危険にさらされています。

最後に、訴訟では、Microsoft と OpenAI が機密情報を違法に取得および使用することで電子プライバシー通信法に違反したとも主張されています。さらに原告らは、マイクロソフトがサードパーティサービス/ChatGPT統合間の通信を傍受することでコンピュータ詐欺および乱用法に違反したとも主張した。

この訴訟全般には、過去にニューラルネットワークとAIの使用に関して警鐘を鳴らした研究者、学者、ジャーナリスト、その他の人々からの引用が数多く盛り込まれている。しかし、この申請では、情報の使用とそれが引き起こした損害の事例がどのようにして 30 億ドルの損害賠償に値するかについては軽視されています。

Microsoftがデータの悪用や適切な同意のない使用で非難を浴びたのはこれが初めてではない。先月、Twitter は Microsoft に、同社が Twitter のデータを同意なく使用したと主張する通知を送りました。一方、OpenAI にもそれなりの問題がありました。同社は3月に、ChatGPTユーザーの支払い情報の一部が漏洩する侵害を報告した。今月初め、100,000 人を超える ChatGPT ユーザーのアカウント データが漏洩し、ダークウェブで販売されました

コメントを残す

メールアドレスが公開されることはありません。 が付いている欄は必須項目です