Bing Chat AI aangedreven door GPT-4 heeft te maken met kwaliteitsproblemen; Microsoft reageert

Bing Chat AI aangedreven door GPT-4 heeft te maken met kwaliteitsproblemen; Microsoft reageert

De afgelopen weken hebben gebruikers een afname in de prestaties van GPT-4-aangedreven Bing Chat AI opgemerkt. Degenen die regelmatig gebruik maken van de Compose-box van Microsoft Edge, mogelijk gemaakt door Bing Chat, hebben het minder nuttig gevonden, waarbij ze vaak vragen vermijden of niet helpen met de vraag.

In een verklaring aan Windows Latest hebben Microsoft-functionarissen bevestigd dat het bedrijf de feedback actief volgt en van plan is om in de nabije toekomst wijzigingen aan te brengen om de zorgen weg te nemen.

Velen zijn naar Reddit gegaan om hun ervaringen te delen. Een gebruiker zei dat de eens zo betrouwbare Compose-tool in de Bing-zijbalk van de Edge-browser de laatste tijd niet zo geweldig is. Bij het proberen om creatieve inhoud op een informatieve toon te krijgen of zelfs om humoristische interpretaties van fictieve personages te vragen, bood de AI bizarre excuses.

Bing Chat-AI
Bing Chat-kwaliteitsprobleem

Het suggereerde dat het op een bepaalde manier bespreken van creatieve onderwerpen als ongepast zou kunnen worden beschouwd of dat humor problematisch zou kunnen zijn, zelfs als het onderwerp zo onschuldig is als een levenloos object. Een andere Redditor deelde hun ervaring met Bing voor het proeflezen van e-mails in een niet-moedertaal.

In plaats van de vraag gewoonlijk te beantwoorden, presenteerde Bing een lijst met alternatieve tools en leek bijna afwijzend, en adviseerde de gebruiker om ‘het uit te zoeken’. Nadat ze echter hun frustratie hadden getoond door middel van downvotes en het opnieuw probeerden, keerde de AI terug naar zijn behulpzame zelf.

“Ik vertrouw op Bing om e-mails die ik opstel in mijn derde taal te proeflezen. Maar juist vandaag, in plaats van te helpen, stuurde het me naar een lijst met andere tools, in wezen vertelde het me dat ik het zelf moest uitzoeken. Toen ik reageerde door al zijn antwoorden te downvoten en een nieuw gesprek te beginnen, was het uiteindelijk verplicht, ‘ merkte de gebruiker op in een Reddit-bericht.

Temidden van deze zorgen is Microsoft naar voren gestapt om de situatie aan te pakken. In een verklaring aan Windows Latest bevestigde de woordvoerder van het bedrijf dat het altijd naar feedback van testers kijkt en dat gebruikers betere toekomstige ervaringen kunnen verwachten.

“We volgen actief gebruikersfeedback en gemelde zorgen, en naarmate we meer inzichten krijgen via preview, kunnen we die lessen toepassen om de ervaring in de loop van de tijd verder te verbeteren”, vertelde een Microsoft-woordvoerder me via e-mail.

Temidden hiervan is onder gebruikers een theorie ontstaan ​​dat Microsoft de instellingen achter de schermen aan het aanpassen is.

Een gebruiker merkte op: “Het is moeilijk om dit gedrag te doorgronden. In de kern is de AI gewoon een hulpmiddel. Of u nu een tongbreker maakt of besluit inhoud te publiceren of te verwijderen, de verantwoordelijkheid ligt bij u. Het is verwarrend om te denken dat Bing aanstootgevend of anderszins kan zijn. Ik geloof dat dit misverstand tot misvattingen leidt, vooral onder AI-sceptici die de AI vervolgens beschouwen als wezenloos, bijna alsof de AI zelf de maker van de inhoud is”.

De gemeenschap heeft zijn eigen theorieën, maar Microsoft heeft bevestigd dat het wijzigingen zal blijven aanbrengen om de algehele ervaring te verbeteren.

Geef een reactie

Het e-mailadres wordt niet gepubliceerd. Vereiste velden zijn gemarkeerd met *