Microsoft en OpenAI hebben een rechtszaak aangespannen voor $ 3 miljard wegens inbreuk op de privacy met ChatGPT
Microsoft en OpenAI zijn aangeklaagd door zestien personen die beweren dat de bedrijven zonder toestemming persoonsgegevens gebruikten om hun Artificial Intelligence (AI)-modellen te trainen.
De 157 pagina’s tellende rechtszaak (via The Register ) werd op 28 juni door de individuen via het advocatenkantoor Clarkson ingediend bij de federale rechtbank in San Francisco, Californië. De rechtszaak beweert dat Microsoft en OpenAI gegevens hebben gebruikt om ChatGPT te trainen zonder toestemming, adequate kennisgeving of betaling voor de genoemde gegevens.
Ondanks gevestigde protocollen voor de aankoop en het gebruik van persoonlijke informatie, kozen gedaagden voor een andere aanpak: diefstal. Ze schraapten systematisch 300 miljard woorden van het internet, ‘boeken, artikelen, websites en posts – inclusief persoonlijke informatie verkregen zonder toestemming’. OpenAI deed dit in het geheim en zonder zich te registreren als datamakelaar, zoals wettelijk verplicht was.
De rechtszaak gaat verder over de privacy van individuen, aangezien wordt opgemerkt dat de gegevens die door OpenAI worden gebruikt, informatie bevatten over de overtuigingen van mensen, leesgewoonten, hobby’s, transactie- en locatiegegevens, chatlogs en meer.
Hoewel de massa’s persoonlijke informatie die gedaagden over gebruikers verzamelen, kunnen worden gebruikt om gepersonaliseerde en gerichte antwoorden te geven, kan deze ook worden gebruikt voor buitengewoon snode doeleinden, zoals tracking, bewaking en misdaad. Als ChatGPT bijvoorbeeld toegang heeft tot de browsegeschiedenis, zoekopdrachten en geolocatie van een Gebruiker, en deze informatie combineert met wat gedaagde OpenAI in het geheim van internet heeft gehaald, kunnen gedaagden een gedetailleerd profiel maken van de gedragspatronen van gebruikers, inclusief maar niet beperkt tot waar ze naartoe gaan, wat ze doen, met wie ze omgaan en wat hun interesses en gewoonten zijn. Dit niveau van toezicht en controle roept essentiële ethische en juridische vragen op over privacy, toestemming en het gebruik van persoonlijke gegevens. Het is van cruciaal belang dat gebruikers weten hoe hun gegevens worden verzameld en gebruikt,
Niet alleen dat, maar de rechtszaak was ook gericht op de benadering van OpenAI om persoonlijk identificeerbare informatie (PII) te verbergen. Eerder dit jaar publiceerde The Register een rapport dat licht werpt op het plan van OpenAI om het PII-lek tijdens het gebruik van ChatGPT te voorkomen. Volgens het rapport had OpenAI zojuist een inhoudsfilter ingebouwd dat zou voorkomen dat de AI privé-informatie zoals telefoonnummers en creditcardgegevens uitspuugt.
Met betrekking tot persoonlijk identificeerbare informatie, slagen gedaagden er niet in om deze voldoende uit de trainingsmodellen te filteren, waardoor miljoenen mensen het risico lopen dat die informatie al dan niet onmiddellijk aan vreemden over de hele wereld wordt onthuld.
Ten slotte beweert de rechtszaak ook dat Microsoft en OpenAI de Electronic Privacy Communications Act hebben geschonden door op illegale wijze vertrouwelijke informatie te verkrijgen en te gebruiken. Daarnaast beweerden de eisers ook dat Microsoft de Computer Fraud and Abuse Act had geschonden door communicatie tussen diensten van derden/ChatGPT-integraties te onderscheppen.
De rechtszaak in het algemeen staat vol met citaten van onderzoekers, academici, journalisten en anderen die in het verleden alarm hebben geslagen over het gebruik van neurale netwerken en AI. De indiening is echter licht over hoe het gebruik van informatie en de gevallen van schade die het heeft veroorzaakt een schadevergoeding van $ 3 miljard waard is.
Dit is niet de eerste keer dat Microsoft onder vuur komt te liggen wegens misbruik van gegevens of het gebruik ervan zonder de juiste toestemming. Vorige maand stuurde Twitter een bericht naar Microsoft waarin werd beweerd dat het bedrijf de gegevens van Twitter zonder toestemming had gebruikt . OpenAI daarentegen had zijn eigen problemen. In maart meldde het bedrijf een inbreuk waarbij gedeeltelijke betalingsinformatie van ChatGPT-gebruikers was gelekt. Eerder deze maand werden accountgegevens van meer dan 100.000 ChatGPT-gebruikers gelekt en verkocht op het dark web .
Geef een reactie