Microsoft gibt zu, dass es mehr GPUs für schnellere Bing-Chat-Antwortzeiten hinzufügen muss
Microsoft erlaubt jetzt jedem , seinen Chatbot Bing Chat ohne Warteliste auszuprobieren . Das bedeutet natürlich, dass viele Leute den Service jetzt zum ersten Mal ausprobieren und nutzen. Einige Bing-Chat-Benutzer sagen jedoch jetzt, dass die Antworten langsamer werden.
In einem Twitter-Austausch mit einem Benutzer , der erklärte, er wünsche sich schnellere Antwortzeiten, fügte er hinzu: „Manchmal muss ich so lange warten, dass es lächerlich ist“. Mikhail Parakhin von Microsoft, der Leiter der Werbe- und Webdienste von Microsoft, antwortete mit einer Entschuldigung und erklärte: „Die Nutzung wächst weiter, wir fügen GPUs nicht schnell genug hinzu.“ Er fügte jedoch hinzu, dass diese aktuelle Situation behoben werden wird.
Sorry about the latency: the usage keeps growing, we are not adding GPUs fast enough. We’ll get it fixed.
— Mikhail Parakhin (@MParakhin) May 8, 2023
Diese Situation ist eines der größten Hindernisse für generative KI, da diese Dienste immer spezialisiertere GPUs in Datenservern benötigen. Der führende Hersteller dieser Chips ist derzeit NVIDIA. Unbestätigten Berichten zufolge arbeiten AMD und Microsoft jedoch zusammen, um neue KI-Chips zu entwickeln, die einen Teil der Abhängigkeit von der Verwendung von NVIDIA beseitigen könnten.
Parakhin nahm sich dieses Wochenende auch die Zeit, um einige weitere Bing-Chat-Fragen von anderen Twitter-Benutzern zu beantworten. Er sagte einem Benutzer , dass die lang erwartete Bing-Chat-Verlaufsfunktion in „Tagen“ kommt. Er teilte einem anderen Benutzer auch mit , dass weitere Seitenverhältnisse in Bing Image Creator diskutiert werden, dies jedoch möglicherweise nicht „sofort“ geschieht. Schließlich sagte er einem anderen Benutzer , dass er hoffe, dass Bing Chat Code Interpreter irgendwann unterstützen werde, fügte aber hinzu: „Es muss sicher gemacht werden – keine triviale Aufgabe.“
Schreibe einen Kommentar