Microsoft pubblica il suo ultimo rapporto sui suoi sforzi per moderare i contenuti Xbox

Microsoft pubblica il suo ultimo rapporto sui suoi sforzi per moderare i contenuti Xbox

Nel novembre 2022, Microsoft ha pubblicato il suo primo Xbox Transparency Report per dimostrare che si stava impegnando per moderare i contenuti all’interno della community online di Xbox. Tale rapporto copriva il periodo da gennaio a giugno 2022. Oggi, Microsoft ha rilasciato il suo secondo Xbox Transparency Report per il periodo da luglio a dicembre 2022.

Il rapporto è stato riassunto su Xbox Wire e Microsoft afferma che ha dimostrato che sono stati compiuti progressi nella protezione della sua base di giocatori Xbox. Nel rapporto, la società ha affermato di aver effettuato 10,19 milioni di esecuzioni totali durante quel periodo, rispetto ai 7,31 milioni di esecuzioni nella prima metà del 2022.

Microsoft ha affermato che il 79% dei suoi sforzi totali di applicazione dei contenuti Xbox durante la seconda metà del 2022 sono stati gestiti da strumenti proattivi. Ciò include l’utilizzo sia di esseri umani che di strumenti automatizzati per occuparsi dei problemi relativi ai contenuti prima che vengano visti dai membri della comunità Xbox.

Il post sul blog affermava:

Strumenti automatizzati come Community Sift lavorano su testo, video e immagini catturando contenuti offensivi in ​​millisecondi. Solo nell’ultimo anno, Community Sift ha valutato 20 miliardi di interazioni umane su Xbox. Sono state inoltre rilevate e applicate misure proattive contro il 100% di manomissioni, pirateria, phishing e account cheat/non autentici.

Microsoft afferma di aver anche ampliato la sua definizione di ciò che considera “contenuto volgare” sulla sua piattaforma Xbox per includere “gesti offensivi, contenuto sessualizzato e umorismo volgare”. Tali modifiche hanno indotto Microsoft ad aumentare il numero di applicazioni di quel contenuto del 450 percento. La grande quantità di tale applicazione consisteva semplicemente nella rimozione del contenuto.

Microsoft ha inoltre emesso 7,51 milioni di azioni proattive contro account non autentici. Ha aggiunto:

Gli account non autentici sono in genere account automatizzati o creati da bot che creano un campo di gioco non uniforme e possono sminuire le esperienze positive dei giocatori. Continuiamo a investire e migliorare la nostra tecnologia in modo che i giocatori possano vivere esperienze sicure, positive e invitanti.

La società ha anche dichiarato che all’inizio di questo mese ha lanciato l’Xbox Gaming Safety Toolkit per le persone in Australia e Nuova Zelanda . Offre a quei residenti modi in cui possono assicurarsi che la loro esperienza di gioco Xbox sia sicura e protetta.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *