Microsoft i OpenAI pozwały o 3 miliardy dolarów za naruszenie prywatności z ChatGPT
Microsoft i OpenAI zostały pozwane przez szesnaście osób, które twierdzą, że firmy wykorzystywały dane osobowe bez pozwolenia do trenowania swoich modeli sztucznej inteligencji (AI).
157 -stronicowy pozew (za pośrednictwem Rejestru ) został złożony przez osoby fizyczne za pośrednictwem firmy prawniczej Clarkson w sądzie federalnym w San Francisco w Kalifornii 28 czerwca. W pozwie zarzuca się, że Microsoft i OpenAI wykorzystywały dane do trenowania ChatGPT bez zgody, odpowiedniego powiadomienia lub zapłaty za wspomniane dane.
Pomimo ustalonych protokołów dotyczących zakupu i wykorzystywania danych osobowych, oskarżeni przyjęli inne podejście: kradzież. Systematycznie usuwali 300 miliardów słów z internetu, „książek, artykułów, stron internetowych i postów – w tym danych osobowych uzyskanych bez zgody”. OpenAI zrobiło to w tajemnicy i bez rejestracji jako broker danych, jak było to wymagane przez obowiązujące prawo.
Pozew dalej mówi o prywatności osób fizycznych, ponieważ zauważa, że dane wykorzystywane przez OpenAI zawierały informacje o przekonaniach ludzi, nawykach czytania, hobby, danych dotyczących transakcji i lokalizacji, dziennikach czatów i nie tylko.
Podczas gdy dane osobowe, które Pozwani gromadzą na temat Użytkowników, mogą być wykorzystywane do udzielania spersonalizowanych i ukierunkowanych odpowiedzi, mogą być również wykorzystywane do wyjątkowo niecnych celów, takich jak śledzenie, inwigilacja i przestępczość. Na przykład, jeśli ChatGPT ma dostęp do historii przeglądania Użytkownika, wyszukiwanych haseł i geolokalizacji i łączy te informacje z tym, co strona pozwana OpenAI potajemnie zebrała z Internetu, strona pozwana może zbudować szczegółowy profil wzorców zachowań użytkowników, w tym między innymi dokąd chodzą, co robią, z kim wchodzą w interakcje oraz jakie mają zainteresowania i zwyczaje. Ten poziom nadzoru i monitorowania rodzi istotne etyczne i prawne pytania dotyczące prywatności, zgody i wykorzystywania danych osobowych. Istotne jest, aby użytkownicy byli świadomi, w jaki sposób ich dane są gromadzone i wykorzystywane,
Nie tylko to, ale pozew dotyczył również podejścia OpenAI do ukrywania danych osobowych (PII). Na początku tego roku The Register opublikował raport rzucający światło na plan OpenAI, aby zapobiec wyciekowi danych osobowych podczas korzystania z ChatGPT. Według raportu, OpenAI właśnie umieścił filtr treści, który blokowałby AI przed wypluwaniem prywatnych informacji, takich jak numery telefonów i informacje o kartach kredytowych.
Jeśli chodzi o dane osobowe, pozwani nie potrafią wystarczająco odfiltrować ich z modeli szkoleniowych, narażając miliony ludzi na ryzyko ujawnienia tych informacji w trybie natychmiastowym lub w inny sposób obcym osobom na całym świecie.
Wreszcie, w pozwie zarzuca się również, że Microsoft i OpenAI naruszyły ustawę o elektronicznej komunikacji prywatności poprzez nielegalne uzyskiwanie i wykorzystywanie poufnych informacji. Ponadto powodowie twierdzili również, że Microsoft naruszył ustawę o oszustwach i nadużyciach komputerowych, przechwytując komunikację między usługami stron trzecich/integracjami ChatGPT.
Ogólnie rzecz biorąc, pozew jest pełen cytatów od badaczy, naukowców, dziennikarzy i innych osób, które w przeszłości budziły niepokój dotyczący korzystania z sieci neuronowych i sztucznej inteligencji. Jednak zgłoszenie nie wyjaśnia, w jaki sposób wykorzystanie informacji i spowodowane przez nie szkody są warte 3 miliardy dolarów odszkodowania.
To nie pierwszy raz, kiedy Microsoft znalazł się pod ostrzałem za niewłaściwe wykorzystywanie danych lub używanie ich bez odpowiedniej zgody. W zeszłym miesiącu Twitter wysłał zawiadomienie do Microsoftu, twierdząc, że firma wykorzystała dane Twittera bez zgody . Z drugiej strony OpenAI miał sporo problemów. W marcu firma zgłosiła naruszenie , w wyniku którego wyciekły częściowe informacje o płatnościach użytkowników ChatGPT. Wcześniej w tym miesiącu dane kont ponad 100 000 użytkowników ChatGPT wyciekły i zostały sprzedane w ciemnej sieci .
Dodaj komentarz