GPT-4로 구동되는 Bing Chat AI는 품질 문제에 직면해 있습니다. 마이크로소프트가 응답하다
지난 몇 주 동안 사용자는 GPT-4로 구동되는 Bing Chat AI의 성능 저하를 발견했습니다. Bing Chat에서 제공하는 Microsoft Edge의 Compose 상자를 자주 사용하는 사람들은 종종 질문을 피하거나 쿼리에 도움이 되지 않아 유용하지 않다는 것을 알게 되었습니다.
Windows Latest에 대한 성명에서 Microsoft 관계자는 회사가 피드백을 적극적으로 모니터링하고 있으며 가까운 장래에 문제를 해결하기 위해 변경할 계획임을 확인했습니다.
많은 사람들이 자신의 경험을 공유하기 위해 Reddit을 방문했습니다 . 한 사용자는 Edge 브라우저의 Bing 사이드바에 있는 한 때 신뢰할 수 있었던 Compose 도구가 최근 어떻게 별이 없는지 언급했습니다. 정보를 제공하는 어조로 창의적인 콘텐츠를 얻거나 허구의 캐릭터에 대한 유머러스한 해석을 요구할 때 AI는 기이한 변명을 제공했습니다.
그것은 창의적인 주제를 특정한 방식으로 논의하는 것이 부적절하다고 간주될 수 있거나 유머가 무생물만큼 무해하더라도 문제가 될 수 있다고 제안했습니다. 또 다른 Redditor는 모국어가 아닌 언어로 된 이메일을 교정하기 위해 Bing과 경험을 공유했습니다.
일반적으로 질문에 대답하는 대신 Bing은 대체 도구 목록을 제시하고 거의 무시하는 것처럼 보였고 사용자에게 ‘해결’하라고 조언했습니다. 그러나 반대표를 통해 좌절감을 표시하고 다시 시도한 후 AI는 도움이 되는 모습으로 돌아갔습니다.
“제3의 언어로 초안을 작성한 이메일을 교정하기 위해 Bing에 의존해 왔습니다. 그러나 바로 오늘, 도움을 주는 대신 다른 도구 목록으로 안내하여 본질적으로 스스로 알아내라고 말했습니다. 모든 답글을 다운보팅하고 새로운 대화를 시작함으로써 응답했을 때 마침내 의무가 있었습니다.” 사용자가 Reddit 게시물에서 언급했습니다 .
이러한 우려 속에서 Microsoft는 상황을 해결하기 위해 나섰습니다. Windows Latest에 대한 성명에서 이 회사의 대변인은 항상 테스터의 피드백을 주시하고 있으며 사용자가 더 나은 미래 경험을 기대할 수 있다고 확인했습니다.
Microsoft 대변인은 이메일을 통해 “우리는 사용자 피드백과 보고된 우려 사항을 적극적으로 모니터링하고 미리 보기를 통해 더 많은 통찰력을 얻으면 이러한 학습을 적용하여 시간이 지남에 따라 경험을 더욱 개선할 수 있을 것입니다.”라고 말했습니다.
이 가운데 Microsoft가 배후에서 설정을 조정하고 있을 수 있다는 이론이 사용자들 사이에서 나타났습니다.
한 사용자는 “이 행동을 이해하기 어렵다. 본질적으로 AI는 단순히 도구일 뿐입니다. 혀 꼬기를 만들거나 콘텐츠를 게시 또는 삭제하기로 결정하든 모든 책임은 귀하에게 있습니다. Bing이 공격적이거나 그렇지 않을 수 있다고 생각하는 것은 당혹스럽습니다. 저는 이러한 오해가 오해로 이어지고 있다고 믿습니다. 특히 AI 회의론자들은 마치 AI 자체가 콘텐츠 제작자인 것처럼 AI를 본질이 결여된 것으로 간주합니다.”
커뮤니티에는 자체 이론이 있지만 Microsoft는 전반적인 경험을 개선하기 위해 계속해서 변경 사항을 적용할 것임을 확인했습니다.
답글 남기기