ChatGPT ne filigranera pas son texte par crainte de perdre des utilisateurs
Ce qu’il faut savoir
- OpenAI dispose déjà d’une méthode de tatouage de texte, bien que sa publication soit « envisagée » et débattue en interne.
- Des rapports récents suggèrent que le filigrane du texte n’affecte pas la qualité de sortie de ChatGPT et que la méthode reste robuste contre les altérations locales et la paraphrase.
- Mais OpenAI estime que le tatouage de texte aura un impact disproportionné sur les non-anglophones, stigmatisera l’utilisation du chatbot IA et dissuadera les utilisateurs d’utiliser ChatGPT.
Les étudiants qui utilisent ChatGPT pour rédiger leurs devoirs sont un cauchemar pour les enseignants et les professeurs. Mais il semble qu’OpenAI pourrait avoir un moyen de savoir si un texte donné a été généré par ChatGPT ou non.
Selon le Wall Street Journal , OpenAI dispose déjà d’un système permettant de filigraner le texte généré par ChatGPT. Mais l’entreprise envisage de le publier, évoquant plusieurs problèmes et complexités impliqués, et pouvant décourager les utilisateurs qui ne souhaitent pas être découverts à l’aide de texte généré par l’IA.
Dans un article de blog mis à jour sur ses recherches sur la détection de texte par l’IA, OpenAI déclare : « Nos équipes ont développé une méthode de tatouage de texte que nous continuons à prendre en compte dans nos recherches d’alternatives ».
Les méthodes de tatouage de texte ne sont pas sans problèmes et complexités et peuvent avoir un impact négatif sur le contenu généré par l’IA. Mais l’entreprise affirme que sa méthode de tatouage de texte, développée exclusivement pour le contenu généré par ChatGPT, est très précise et présente un taux de faux positifs très faible.
La méthode de filigranage de texte fonctionne en ajustant légèrement la façon dont l’IA sélectionne les mots et en créant des modèles prévisibles d’apparition des mots et des phrases.
Bien que la méthode s’avère efficace contre la paraphrase et la falsification localisée, OpenAI note qu’elle « est moins robuste contre la falsification mondialisée ; comme l’utilisation de systèmes de traduction, la reformulation avec un autre modèle génératif ou la demande au modèle d’insérer un caractère spécial entre chaque mot, puis de supprimer ce caractère – ce qui rend le contournement par de mauvais acteurs trivial ».
Pour résoudre ces problèmes, OpenAI a commencé à travailler sur une autre méthode de tatouage qui utilise des métadonnées intégrées et ne produit aucun faux positif, alors que le tatouage de texte peut conduire à davantage de faux positifs lorsqu’il est appliqué à de grands volumes de texte.
Selon leurs recherches, OpenAI estime également que la méthode de tatouage de texte peut avoir un impact disproportionné sur certains groupes plus que sur d’autres et pourrait conduire à la stigmatisation des chatbots IA parmi les locuteurs non natifs.
Mais plus que cela, l’entreprise craint que de nombreux utilisateurs actuels n’utilisent moins ChatGPT si les méthodes de tatouage étaient mises en œuvre. Pour l’instant, le débat interne sur la question de savoir s’il faut ou non publier la méthode de tatouage de texte se poursuit. Quant à la méthode alternative de tatouage des métadonnées, OpenAI en est encore aux premiers stades de l’exploration. Il est donc trop tôt pour dire si l’approche sera efficace ou non.
Laisser un commentaire