OpenAI obawia się, że ludzie mogą przywiązać się emocjonalnie do trybu głosowego ChatGPT

OpenAI obawia się, że ludzie mogą przywiązać się emocjonalnie do trybu głosowego ChatGPT

Co warto wiedzieć

  • Raport GPT-4o System Card przedstawia obawy OpenAI dotyczące uzależnienia emocjonalnego ludzi od trybu głosowego ChatGPT.
  • Głosy w trybie głosowym ChatGPT są niezwykle realistyczne i dają iluzję, że użytkownik rozmawia z prawdziwą osobą.
  • Raport podkreśla, że ​​tryb głosowy może pomóc niektórym osobom, ale negatywnie wpłynąć na innych, którzy polegają na nim w nadmiernym stopniu lub nadmiernie polegają na jego odpowiedziach.

Zaawansowany tryb głosowy ChatGPT wywołał poruszenie, gdy został po raz pierwszy ogłoszony. Jednak według niedawnego raportu bezpieczeństwa , OpenAI obawia się, że jego zaawansowany tryb głosowy – który brzmi niepokojąco jak głos ludzki – może potencjalnie doprowadzić do tego, że użytkownicy emocjonalnie uzależnią się od chatbota AI.

Zaawansowany tryb głosowy był jedną z najbardziej wyczekiwanych funkcji ChatGPT. Może prowadzić rozmowy w czasie rzeczywistym, wydawać ludzkie dźwięki, takie jak „Umm”, „Ah” i inne wtrącenia podczas rozmowy, naśladować dźwięki, śpiewać piosenki, a nawet określać stan emocjonalny na podstawie tonu głosu. Mówiąc prościej, jest to najbardziej realistyczny asystent AI, jaki istnieje. Jednak będąc tak potężną i zdolną funkcją, tryb głosowy ChatGPT ma wysoki potencjał niewłaściwego użycia.

OpenAI w swoim raporcie wspomniało:

„Podczas wczesnych testów… obserwowaliśmy użytkowników używających języka, który może wskazywać na tworzenie połączeń z modelem. Na przykład obejmuje to język wyrażający wspólne więzi, takie jak „To nasz ostatni dzień razem”.

Tryb głosowy otwiera również nowe sposoby na „jailbreak” ChatGPT, aby wykonywać różne rzeczy, w tym podszywać się pod innych. Bycie konwersacjonistą przypominającym człowieka może również sprawić, że ludzie będą bardziej ufać chatbotom AI, nawet gdy ich wyniki są obciążone błędami i halucynacjami.

Interakcja z trybem głosowym ChatGPT może przynieść korzyści „osobom samotnym”, a także pomóc niektórym przezwyciężyć strach przed interakcjami społecznymi. Jednak szerokie wykorzystanie może również wpłynąć na zdrowe relacje i wymaga dalszych badań, zauważa OpenAI w swoim raporcie.

Chociaż raport sygnalizuje rosnącą przejrzystość ze strony OpenAI, nadal nie jest on tak otwarty w kwestii swoich danych treningowych. Oczywiście obawy OpenAI dotyczące tego, do czego może doprowadzić nadmierne korzystanie z trybu głosowego, nie są bezpodstawne. Jednak nadmierne poleganie i uzależnienie od technologii jest wbudowane w większość elementów technologii. A ponieważ jest to wyjęte prosto z filmu, nietrudno przewidzieć, jaka przyszłość czeka tryb głosowy i jak użytkownicy z nim wchodzą w interakcje.

Nawet na wydarzeniu demonstracyjnym tryb głosowy uznano za odrobinę zbyt kokieteryjny. Ze względu na podobieństwo głosu Sky do głosu Scarlett Johansson i kontrowersje, które z tego wynikły, trudno nie przywołać filmu Her i ryzyka, jakie niesie ze sobą antropomorfizacja modeli AI.

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *