Microsoft und OpenAI verklagten 3 Milliarden US-Dollar wegen Verletzung der Privatsphäre durch ChatGPT
Microsoft und OpenAI wurden von sechzehn Personen verklagt, die behaupten, dass die Unternehmen personenbezogene Daten ohne Erlaubnis zum Trainieren ihrer Modelle für künstliche Intelligenz (KI) verwendet hätten.
Die 157-seitige Klage (über The Register ) wurde von den Einzelpersonen am 28. Juni über die Anwaltskanzlei Clarkson beim Bundesgericht in San Francisco, Kalifornien, eingereicht. In der Klage wird behauptet, dass Microsoft und OpenAI Daten zum Trainieren von ChatGPT ohne Zustimmung, angemessene Benachrichtigung oder Bezahlung dieser Daten verwendet haben.
Trotz etablierter Protokolle für den Erwerb und die Nutzung personenbezogener Daten verfolgten die Beklagten einen anderen Ansatz: Diebstahl. Sie haben systematisch 300 Milliarden Wörter aus dem Internet, „Büchern, Artikeln, Websites und Beiträgen – einschließlich personenbezogener Daten, die ohne Zustimmung erlangt wurden“ abgekratzt. OpenAI tat dies im Geheimen und ohne sich als Datenbroker zu registrieren, wie es nach geltendem Recht erforderlich wäre.
In der Klage geht es weiter um die Privatsphäre von Einzelpersonen, da festgestellt wird, dass die von OpenAI verwendeten Daten Informationen über die Überzeugungen, Lesegewohnheiten, Hobbys, Transaktions- und Standortdaten, Chat-Protokolle und mehr der Menschen enthielten.
Während die Unmengen an personenbezogenen Daten, die die Beklagten über Benutzer sammeln, dazu verwendet werden können, personalisierte und gezielte Antworten zu geben, können sie auch für äußerst schändliche Zwecke wie Verfolgung, Überwachung und Kriminalität verwendet werden. Wenn ChatGPT beispielsweise Zugriff auf den Browserverlauf, die Suchanfragen und die Geolokalisierung eines Benutzers hat und diese Informationen mit dem kombiniert, was der Beklagte OpenAI heimlich aus dem Internet gesammelt hat, könnten die Beklagten ein detailliertes Profil der Verhaltensmuster der Benutzer erstellen, einschließlich, aber nicht beschränkt auf wohin sie gehen, was sie tun, mit wem sie interagieren und was ihre Interessen und Gewohnheiten sind. Dieses Maß an Überwachung und Überwachung wirft wichtige ethische und rechtliche Fragen zum Datenschutz, zur Einwilligung und zur Verwendung personenbezogener Daten auf. Für Nutzer ist es von entscheidender Bedeutung, sich darüber im Klaren zu sein, wie ihre Daten erfasst und verwendet werden.
Darüber hinaus zielte die Klage auch auf den Ansatz von OpenAI ab, personenbezogene Daten (PII) zu verbergen. Anfang des Jahres veröffentlichte The Register einen Bericht, der Aufschluss über den Plan von OpenAI gibt, das PII-Leck bei der Verwendung von ChatGPT zu verhindern. Dem Bericht zufolge hatte OpenAI gerade einen Inhaltsfilter eingebaut, der die KI daran hindern würde, private Informationen wie Telefonnummern und Kreditkarteninformationen auszuspucken.
Was persönlich identifizierbare Informationen betrifft, gelingt es den Beklagten nicht ausreichend, diese aus den Schulungsmodellen herauszufiltern, wodurch Millionen Menschen dem Risiko ausgesetzt werden, dass diese Informationen umgehend oder auf andere Weise an Fremde auf der ganzen Welt weitergegeben werden.
Schließlich wird in der Klage auch behauptet, dass Microsoft und OpenAI gegen den Electronic Privacy Communications Act verstoßen haben, indem sie vertrauliche Informationen illegal beschafft und genutzt haben. Darüber hinaus behaupteten die Kläger auch, dass Microsoft gegen das Computer Fraud and Abuse Act verstoßen habe, indem es die Kommunikation zwischen Drittanbieterdiensten/ChatGPT-Integrationen abgefangen habe.
Die Klage im Allgemeinen ist voll von Zitaten von Forschern, Akademikern, Journalisten und anderen, die in der Vergangenheit Bedenken hinsichtlich des Einsatzes neuronaler Netze und KI geäußert haben. Allerdings geht aus der Akte nicht hervor, wie die Nutzung der Informationen und die dadurch verursachten Schäden einen Schadensersatz in Höhe von 3 Milliarden US-Dollar auslösen.
Dies ist nicht das erste Mal, dass Microsoft wegen des Missbrauchs oder der Nutzung von Daten ohne die entsprechende Zustimmung in die Kritik gerät. Letzten Monat schickte Twitter eine Mitteilung an Microsoft, in der es behauptete, das Unternehmen habe die Daten von Twitter ohne Zustimmung verwendet . OpenAI hingegen hatte seine eigenen Probleme. Im März meldete das Unternehmen einen Verstoß , bei dem teilweise Zahlungsinformationen von ChatGPT-Benutzern preisgegeben wurden. Anfang dieses Monats wurden Kontodaten von über 100.000 ChatGPT-Benutzern durchgesickert und im Dark Web verkauft .
Schreibe einen Kommentar