Bing Chat AI alimentato da GPT-4 deve affrontare problemi di qualità; Microsoft risponde

Bing Chat AI alimentato da GPT-4 deve affrontare problemi di qualità; Microsoft risponde

Nelle ultime settimane, gli utenti hanno notato un calo delle prestazioni di Bing Chat AI basato su GPT-4. Coloro che interagiscono frequentemente con la casella di composizione di Microsoft Edge, alimentata da Bing Chat, l’hanno trovata meno utile, spesso evitando domande o non aiutando con la query.

In una dichiarazione a Windows Latest, i funzionari di Microsoft hanno confermato che la società sta monitorando attivamente il feedback e prevede di apportare modifiche per affrontare le preoccupazioni nel prossimo futuro.

Molti si sono rivolti a Reddit per condividere le loro esperienze. Un utente ha menzionato come lo strumento Compose, una volta affidabile, nella barra laterale Bing del browser Edge sia stato ultimamente meno che stellare. Quando si cerca di ottenere contenuti creativi in ​​​​tono informativo o addirittura si chiedono interpretazioni umoristiche di personaggi immaginari, l’IA ha fornito scuse bizzarre.

Bing Chat IA
Problema di qualità della chat di Bing

Ha suggerito che discutere di argomenti creativi in ​​un certo modo potrebbe essere ritenuto inappropriato o che l’umorismo potrebbe essere problematico, anche se l’argomento è innocuo come un oggetto inanimato. Un altro Redditor ha condiviso la sua esperienza con Bing per la correzione di bozze di e-mail in una lingua non nativa.

Invece di rispondere di solito alla domanda, Bing ha presentato un elenco di strumenti alternativi e sembrava quasi sprezzante, consigliando all’utente di “capirlo”. Tuttavia, dopo aver mostrato la loro frustrazione attraverso i voti negativi e riprovando, l’IA è tornata al suo sé utile.

“Mi affido a Bing per correggere le bozze delle email che redigo nella mia terza lingua. Ma proprio oggi, invece di aiutarmi, mi ha indirizzato a un elenco di altri strumenti, essenzialmente dicendomi di capirlo da solo. Quando ho risposto annullando tutte le sue risposte e avviando una nuova conversazione, alla fine mi ha obbligato “, ha osservato l’utente in un post di Reddit.

In mezzo a queste preoccupazioni, Microsoft si è fatta avanti per affrontare la situazione. In una dichiarazione a Windows Latest, il portavoce dell’azienda ha confermato che osserva sempre il feedback dei tester e che gli utenti possono aspettarsi migliori esperienze future.

“Monitoriamo attivamente il feedback degli utenti e le preoccupazioni segnalate e, man mano che otteniamo maggiori informazioni tramite l’anteprima, saremo in grado di applicare tali apprendimenti per migliorare ulteriormente l’esperienza nel tempo”, mi ha detto un portavoce di Microsoft tramite e-mail.

In mezzo a questo, tra gli utenti è emersa una teoria secondo cui Microsoft potrebbe modificare le impostazioni dietro le quinte.

Un utente ha osservato: “È difficile capire questo comportamento. Fondamentalmente, l’intelligenza artificiale è semplicemente uno strumento. Che tu crei uno scioglilingua o decidi di pubblicare o eliminare contenuti, l’onere ricade su di te. È sconcertante pensare che Bing possa essere offensivo o meno. Credo che questo malinteso porti a idee sbagliate, specialmente tra gli scettici dell’IA che poi vedono l’IA come priva di essenza, quasi come se l’IA stessa fosse il creatore di contenuti”.

La comunità ha le sue teorie, ma Microsoft ha confermato che continuerà ad apportare modifiche per migliorare l’esperienza complessiva.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *