GPT-4 を利用した Bing Chat AI は品質の問題に直面しています。マイクロソフトが対応
過去数週間にわたり、ユーザーは GPT-4 を利用した Bing Chat AI のパフォーマンスの低下に気づきました。Bing Chat を利用した Microsoft Edge の作成ボックスを頻繁に利用する人は、質問を避けたり、クエリに答えられなかったりすることが多く、役に立たないと感じています。
Microsoft 関係者は Windows 最新への声明の中で、同社がフィードバックを積極的に監視しており、近い将来に懸念に対処するために変更を加える予定であることを認めた。
多くの人が Reddit を利用して自分の経験を共有しています。あるユーザーは、Edge ブラウザーの Bing サイドバーにあるかつては信頼できた Compose ツールが、最近ではあまり優れていないと述べました。情報的なトーンで創造的なコンテンツを取得しようとしたり、架空の人物にユーモラスな表現を要求したりする場合でも、AI は奇妙な言い訳を提供しました。
それは、主題が無生物と同じくらい無害であっても、特定の方法で創造的な話題を議論することは不適切であるとみなされる可能性がある、またはユーモアが問題となる可能性があることを示唆しました。別の Redditor は、母語以外の言語でメールを校正するために Bing を使用した経験を共有しました。
通常、質問に答える代わりに、Bing は代替ツールのリストを提示し、ほとんど否定的であるように見え、ユーザーに「それを考え出す」ようにアドバイスしました。しかし、反対票を投じて不満を示し、再試行すると、AI は親切な姿に戻りました。
「私は第 3 言語で作成したメールの校正に Bing を利用してきました。しかし今日に限っては、手助けする代わりに、他のツールのリストが表示され、基本的には自分で解決するように言われました。私がすべての返信に反対票を投じて新しい会話を開始したところ、最終的に応じてくれました」とユーザーはRedditの投稿で述べた。
こうした懸念の真っ只中、Microsoft はこの状況に対処するために前進しました。同社の広報担当者は、Windows Mostへの声明の中で、テスターからのフィードバックを常に注視しており、ユーザーは将来的にはより良いエクスペリエンスを期待できると認めた。
「私たちはユーザーからのフィードバックや報告された懸念を積極的に監視しており、プレビューを通じてより多くの洞察が得られるので、それらの学習を適用してエクスペリエンスをさらに改善できるようになります」と Microsoft の広報担当者は電子メールで私に語った。
こうした中、Microsoftが裏で設定を微調整しているのではないかという説がユーザーの間で浮上している。
あるユーザーは次のように述べています。AI は本質的には単なるツールです。早口言葉を作成する場合でも、コンテンツを公開または削除する場合でも、責任はあなたにあります。Bing が攻撃的であるかどうかを考えると困惑します。この誤解は、特に AI には本質が欠けており、まるで AI 自体がコンテンツ作成者であるかのように考える AI 懐疑論者の誤解につながると思います。」
コミュニティには独自の理論がありますが、Microsoft は全体的なエクスペリエンスを向上させるために今後も変更を加えていくことを認めています。
コメントを残す