Microsoft’s Bing AI is zojuist dommer geworden met frequente “laten we verder gaan met een nieuw onderwerp”-prompts
Volgens onze tests heeft Microsoft verschillende wijzigingen aangebracht in Bing AI, en het is erg afgezwakt na recente server-side updates. Deze wijzigingen zijn aangebracht nadat journalisten en gebruikers toegang hadden tot geheime modi, persoonlijke assistenten en de emotionele kant van Bing Chat.
In sommige gevallen heeft Bing ook interne informatie gedeeld, zoals de codenaam en hoe het toegang heeft tot de gegevens van Microsoft. In een blogpost bevestigde Microsoft dat het een opmerkelijke wijziging in Bing had aangebracht “op basis van feedback van jullie allemaal”. Welke wijzigingen er zijn aangebracht, was onduidelijk, maar we zien eindelijk de impact.
Tijdens onze tests hebben we vastgesteld dat Microsoft verschillende Bing Chat-functies heeft uitgeschakeld, waaronder de mogelijkheid om vragenlijsten te maken. Bing was in staat om Google Form-vriendelijke vragenlijsten te maken vóór de update, maar nu weigert de AI te handelen omdat het maken van vragenlijsten nu buiten zijn “capaciteit” ligt.
Om beter te begrijpen wat er met Bing gebeurt, vroegen we het aan Mikhail Parakhin, CEO van Advertising and Web Services bij Microsoft. Ze zeiden: “Dit lijkt een neveneffect te zijn van beknopte antwoorden – zeker niet met opzet. Ik zal het het team laten weten – we zullen het toevoegen als een testcase.”
Veel gebruikers hebben opgemerkt dat de persoonlijkheid van Bing nu veel zwakker is, en het geeft je vaak de generieke prompt “laten we verder gaan met een nieuw onderwerp”. Deze prompt dwingt je om de chat te sluiten of een nieuw onderwerp te starten. Het weigert te helpen met vragen of links naar studies te geven en beantwoordt vragen niet rechtstreeks.
Stel dat u het niet eens bent met Bing in een langdurige ruzie/gesprek. In dat geval geeft AI er de voorkeur aan dit gesprek niet voort te zetten, aangezien het nog aan het “leren” is en het “begrip en geduld” van gebruikers op prijs zou stellen.
Bing Chat was vroeger fantastisch, maar het lijkt stomverbaasd na een vlaag van het incident.
Geef een reactie