Microsoft의 Bing AI는 “새로운 주제로 이동하겠습니다”라는 프롬프트를 자주 표시하여 멍청해졌습니다.

Microsoft의 Bing AI는 “새로운 주제로 이동하겠습니다”라는 프롬프트를 자주 표시하여 멍청해졌습니다.

테스트에 따르면 Microsoft는 Bing AI에 몇 가지 변경 사항을 적용했으며 최근 서버 측 업데이트 이후 매우 멍청해졌습니다. 이러한 변경은 기자와 사용자가 비밀 모드, 개인 비서 및 Bing Chat의 감성적인 측면에 액세스할 수 있게 된 후에 이루어졌습니다.

경우에 따라 Bing은 코드명 및 Microsoft 데이터에 대한 액세스 권한과 같은 내부 정보도 공유했습니다. 블로그 게시물에서 Microsoft는 “여러분의 피드백을 기반으로” Bing에 주목할만한 변경 사항을 적용했다고 확인했습니다. 변경 사항이 무엇인지 명확하지 않았지만 마침내 그 영향을 확인했습니다.

테스트에서 Microsoft는 설문지 작성 기능을 포함하여 여러 Bing Chat 기능을 해제한 것을 확인했습니다. Bing은 업데이트 전에 Google 양식 친화적인 설문지를 만들 수 있었지만 이제 AI는 설문지를 만드는 것이 “능력”을 넘어섰기 때문에 행동을 거부합니다.

빙챗 대화
이미지 제공: WindowsLatest.com

Bing에 어떤 일이 일어나고 있는지 더 잘 이해하기 위해 Microsoft의 광고 및 웹 서비스 CEO인 Mikhail Parakhin에게 질문했습니다. 그들은 “이것은 간결한 답변의 부작용인 것 같다. 확실히 일부러 그런 것은 아니다. 팀에 알리고 테스트 케이스로 추가하겠습니다.”

많은 사용자가 Bing의 성격이 이제 훨씬 더 약해지고 일반적으로 “새 항목으로 이동하겠습니다” 프롬프트를 제공하는 것을 관찰했습니다. 이 프롬프트는 채팅을 종료하거나 새 주제를 시작하도록 강제합니다. 질문에 도움을 주거나 연구에 대한 링크를 제공하지 않으며 질문에 직접 답변하지 않습니다.

긴 논쟁/대화에서 Bing에 동의하지 않는다고 가정합니다. 이 경우 AI는 여전히 “학습 중”이므로 이 대화를 계속하지 않는 것을 선호하며 사용자의 “이해와 인내”에 감사할 것입니다.

Bing Chat은 예전에는 환상적이었지만 사건이 터진 후 멍청해진 것 같습니다.

답글 남기기

이메일 주소는 공개되지 않습니다. 필수 필드는 *로 표시됩니다