L’intelligenza artificiale di Bing di Microsoft è appena diventata più stupida con i frequenti suggerimenti “passiamo a un nuovo argomento”.

L’intelligenza artificiale di Bing di Microsoft è appena diventata più stupida con i frequenti suggerimenti “passiamo a un nuovo argomento”.

Secondo i nostri test, Microsoft ha apportato diverse modifiche a Bing AI ed è molto stupido dopo i recenti aggiornamenti lato server. Queste modifiche sono state apportate dopo che giornalisti e utenti hanno potuto accedere alle modalità segrete, agli assistenti personali e al lato emotivo di Bing Chat.

In alcuni casi, Bing ha anche condiviso informazioni interne, come il suo nome in codice e il modo in cui ha accesso ai dati di Microsoft. In un post sul blog, Microsoft ha confermato di aver apportato un notevole cambiamento a Bing “sulla base del feedback di tutti voi”. Non era chiaro quali modifiche fossero state apportate, ma finalmente ne vediamo l’impatto.

Nei nostri test, abbiamo osservato che Microsoft ha disattivato diverse funzionalità di Bing Chat, inclusa la possibilità di creare questionari. Bing è stato in grado di creare questionari compatibili con Google Form prima dell’aggiornamento, ma ora l’intelligenza artificiale si rifiuta di agire poiché la creazione di questionari è ormai al di là delle sue “capacità”.

Conversazione di chat di Bing
Immagine per gentile concessione: WindowsLatest.com

Per capire meglio cosa sta succedendo con Bing, abbiamo chiesto a Mikhail Parakhin, CEO di Advertising and Web Services di Microsoft. Hanno detto: “questo sembra essere un effetto collaterale delle risposte concise, sicuramente non di proposito. Lo farò sapere al team: lo aggiungeremo come banco di prova.

Molti utenti hanno notato che la personalità di Bing ora è molto più debole e spesso ti dà il prompt generico “passiamo a un nuovo argomento”. Questa richiesta ti costringe a chiudere la chat o ad iniziare un nuovo argomento. Si rifiuta di aiutare con domande o di fornire collegamenti a studi e non risponde direttamente alle domande.

Supponi di non essere d’accordo con Bing in una lunga discussione/conversazione. In tal caso, AI preferisce non continuare questa conversazione poiché sta ancora “imparando” e apprezzerebbe la “comprensione e la pazienza” degli utenti.

Bing Chat era fantastico, ma sembra ammutolito dopo una raffica di incidenti.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *