OpenAI obawia się, że ludzie mogą przywiązać się emocjonalnie do trybu głosowego ChatGPT
Co warto wiedzieć
- Raport GPT-4o System Card przedstawia obawy OpenAI dotyczące uzależnienia emocjonalnego ludzi od trybu głosowego ChatGPT.
- Głosy w trybie głosowym ChatGPT są niezwykle realistyczne i dają iluzję, że użytkownik rozmawia z prawdziwą osobą.
- Raport podkreśla, że tryb głosowy może pomóc niektórym osobom, ale negatywnie wpłynąć na innych, którzy polegają na nim w nadmiernym stopniu lub nadmiernie polegają na jego odpowiedziach.
Zaawansowany tryb głosowy ChatGPT wywołał poruszenie, gdy został po raz pierwszy ogłoszony. Jednak według niedawnego raportu bezpieczeństwa , OpenAI obawia się, że jego zaawansowany tryb głosowy – który brzmi niepokojąco jak głos ludzki – może potencjalnie doprowadzić do tego, że użytkownicy emocjonalnie uzależnią się od chatbota AI.
Zaawansowany tryb głosowy był jedną z najbardziej wyczekiwanych funkcji ChatGPT. Może prowadzić rozmowy w czasie rzeczywistym, wydawać ludzkie dźwięki, takie jak „Umm”, „Ah” i inne wtrącenia podczas rozmowy, naśladować dźwięki, śpiewać piosenki, a nawet określać stan emocjonalny na podstawie tonu głosu. Mówiąc prościej, jest to najbardziej realistyczny asystent AI, jaki istnieje. Jednak będąc tak potężną i zdolną funkcją, tryb głosowy ChatGPT ma wysoki potencjał niewłaściwego użycia.
OpenAI w swoim raporcie wspomniało:
„Podczas wczesnych testów… obserwowaliśmy użytkowników używających języka, który może wskazywać na tworzenie połączeń z modelem. Na przykład obejmuje to język wyrażający wspólne więzi, takie jak „To nasz ostatni dzień razem”.
Tryb głosowy otwiera również nowe sposoby na „jailbreak” ChatGPT, aby wykonywać różne rzeczy, w tym podszywać się pod innych. Bycie konwersacjonistą przypominającym człowieka może również sprawić, że ludzie będą bardziej ufać chatbotom AI, nawet gdy ich wyniki są obciążone błędami i halucynacjami.
Interakcja z trybem głosowym ChatGPT może przynieść korzyści „osobom samotnym”, a także pomóc niektórym przezwyciężyć strach przed interakcjami społecznymi. Jednak szerokie wykorzystanie może również wpłynąć na zdrowe relacje i wymaga dalszych badań, zauważa OpenAI w swoim raporcie.
Chociaż raport sygnalizuje rosnącą przejrzystość ze strony OpenAI, nadal nie jest on tak otwarty w kwestii swoich danych treningowych. Oczywiście obawy OpenAI dotyczące tego, do czego może doprowadzić nadmierne korzystanie z trybu głosowego, nie są bezpodstawne. Jednak nadmierne poleganie i uzależnienie od technologii jest wbudowane w większość elementów technologii. A ponieważ jest to wyjęte prosto z filmu, nietrudno przewidzieć, jaka przyszłość czeka tryb głosowy i jak użytkownicy z nim wchodzą w interakcje.
Nawet na wydarzeniu demonstracyjnym tryb głosowy uznano za odrobinę zbyt kokieteryjny. Ze względu na podobieństwo głosu Sky do głosu Scarlett Johansson i kontrowersje, które z tego wynikły, trudno nie przywołać filmu Her i ryzyka, jakie niesie ze sobą antropomorfizacja modeli AI.
Dodaj komentarz