ChatGPT versieht seinen Text aus Angst vor Nutzerverlust nicht mit Wasserzeichen
Was Sie wissen sollten
- OpenAI verfügt bereits über eine Methode zum Einfügen von Textwasserzeichen, deren Veröffentlichung jedoch intern „erwogen“ und diskutiert wird.
- Aktuelle Berichte deuten darauf hin, dass das Wasserzeichen von Text die Ausgabequalität von ChatGPT nicht beeinträchtigt und die Methode robust gegenüber lokalen Manipulationen und Umschreibungen bleibt.
- OpenAI ist jedoch der Ansicht, dass sich Textwasserzeichen überproportional auf Nicht-Englischsprachige auswirken, die Nutzung des KI-Chatbots stigmatisieren und Benutzer von der Verwendung von ChatGPT abhalten werden.
Studenten, die ChatGPT zum Schreiben von Aufgaben verwenden, sind ein Albtraum für Lehrer und Professoren. Aber es scheint, dass OpenAI eine Möglichkeit hat, festzustellen, ob ein bestimmter Text von ChatGPT generiert wurde oder nicht.
Laut dem Wall Street Journal verfügt OpenAI bereits über ein System, um von ChatGPT generierten Text mit Wasserzeichen zu versehen. Es wird jedoch erwogen, ob es überhaupt veröffentlicht werden soll, da mehrere damit verbundene Probleme und Komplexitäten bestehen und möglicherweise Benutzer abschrecken, die nicht bei der Verwendung von KI-generiertem Text erwischt werden möchten.
In einem aktualisierten Blogbeitrag über die Forschung zur KI-Texterkennung erklärt OpenAI: „Unsere Teams haben eine Methode zur Textwasserzeichenmarkierung entwickelt, die wir bei der Suche nach Alternativen weiterhin berücksichtigen.“
Textwasserzeichenmethoden sind nicht ohne Probleme und Komplexitäten und können sich negativ auf den von KI generierten Inhalt auswirken. Das Unternehmen behauptet jedoch, dass seine Textwasserzeichenmethode, die ausschließlich für von ChatGPT generierte Inhalte entwickelt wurde, sehr genau ist und eine sehr niedrige Rate an Falschmeldungen aufweist.
Die Methode zum Erstellen eines Textwasserzeichens funktioniert, indem die Art und Weise, wie die KI Wörter auswählt, leicht angepasst wird und vorhersehbare Muster für das Erscheinen von Wörtern und Ausdrücken erstellt werden.
Obwohl sich die Methode als wirksam gegen Paraphrasierung und lokale Manipulation erweist, weist OpenAI darauf hin, dass sie „weniger robust gegen globale Manipulation ist, etwa durch die Verwendung von Übersetzungssystemen, die Umformulierung mit einem anderen generativen Modell oder die Aufforderung an das Modell, zwischen jedes Wort ein Sonderzeichen einzufügen und dieses dann zu löschen – was es für böswillige Akteure leicht umzugehen macht.“
Um diese Probleme zu lösen, hat OpenAI mit der Arbeit an einer anderen Wasserzeichenmethode begonnen, die eingebettete Metadaten verwendet und keine Fehlalarme erzeugt, während Text-Wasserzeichen bei Anwendung auf große Textmengen zu mehr Fehlalarmen führen können.
OpenAI ist aufgrund seiner Untersuchungen auch der Ansicht, dass die Methode des Textwasserzeichens einige Gruppen stärker beeinträchtigen kann als andere und zu einer Stigmatisierung von KI-Chatbots unter Nicht-Muttersprachlern führen könnte.
Darüber hinaus befürchtet das Unternehmen, dass viele aktuelle Benutzer ChatGPT weniger verwenden würden, wenn die Wasserzeichenmethoden implementiert würden. Derzeit geht die interne Debatte darüber, ob die Text-Wasserzeichenmethode veröffentlicht werden soll oder nicht, weiter. Was die alternative Metadaten-Wasserzeichenmethode betrifft, befindet sich OpenAI noch in der frühen Erforschungsphase. Es ist also zu früh, um zu sagen, ob der Ansatz wirksam sein wird oder nicht.
Schreibe einen Kommentar