Microsoft sottolinea i principi dell’IA responsabile… dopo aver licenziato il team Ethical AI
Microsoft è chiaramente all-in sulle iniziative di intelligenza artificiale (AI), con la società che investe tonnellate di denaro e sforzi in GPT di OpenAI , Bing Chat , GitHub Copilot e tutte le sue imminenti integrazioni AI con i prodotti Microsoft 365 . Nonostante questa crescita esplosiva di prodotti di intelligenza artificiale incentrati sul consumatore, la società ha recentemente licenziato un team etico progettato per garantire che i prodotti di intelligenza artificiale responsabili arrivassero ai clienti. Ora, con un tocco di ironia, Microsoft ha sottolineato i suoi principi per l’IA responsabile in un post sul blog .
Microsoft ha fondamentalmente una serie di principi di intelligenza artificiale responsabile che regolano il modo in cui i prodotti di intelligenza artificiale dovrebbero essere costruiti. Le basi includono la garanzia di equità, affidabilità e sicurezza, privacy e sicurezza, inclusività, trasparenza e responsabilità. La società osserva che:
L’implementazione di una strategia di IA responsabile è una sfida con cui molte organizzazioni si confrontano. Di conseguenza, Microsoft ha standardizzato le pratiche di Responsible AI e le ha rese disponibili per altre aziende o professionisti del machine learning da adottare nella progettazione, costruzione, test o implementazione dei propri sistemi di intelligenza artificiale. Ad esempio, i clienti o gli sviluppatori possono sfruttare il modello di valutazione dell’impatto dell’IA responsabile per identificare l’uso previsto dei sistemi di intelligenza artificiale; integrità dei dati, qualsiasi impatto negativo su persone o organizzazioni; e come affronta gli obiettivi di ciascuno dei sei principi fondamentali dell’IA responsabile: equità, inclusività, sicurezza e affidabilità, responsabilità e trasparenza. Inoltre, ciò promuove una pratica per gli sviluppatori di intelligenza artificiale per assumersi la responsabilità ed essere in grado di fornire trasparenza agli utenti finali su ciò che fa il sistema di intelligenza artificiale; come dovrebbe essere usato; le sue limitazioni/restrizioni e problemi noti. Questo aiuta i team di machine learning a valutare il loro approccio al ciclo di vita dello sviluppo per verificare che non stiano trascurando i fattori che potrebbero impedire alla loro soluzione AI di comportarsi come previsto.
Sebbene Microsoft affermi di disporre di team di governance che assicurano che anche i propri prodotti di intelligenza artificiale seguano questi principi, notizie recenti da Redmond hanno indicato che l’azienda ha licenziato l’intero team di etica e società . Secondo quanto riferito, questo team è stato creato per garantire che i principi di intelligenza artificiale responsabile di Microsoft siano strettamente legati alla progettazione del prodotto. A quel tempo, tuttavia, Microsoft sosteneva di mantenere ancora attivo un dipartimento dell’Office of Responsible AI che crea regole e principi per governare le sue iniziative di intelligenza artificiale e continua a fare investimenti nell’area.
La società non ha nemmeno detto chiaramente perché il team è stato licenziato, ma un ex dipendente ha dichiarato:
Le persone guarderebbero i principi che escono dall’ufficio dell’IA responsabile e direbbero: “Non so come si applichi”. Il nostro compito era mostrarli e creare regole in aree dove non ce n’erano.
Indipendentemente da ciò, Microsoft ha sottolineato che sta investendo in strumenti e prodotti che garantiscono il rispetto dei principi dell’IA responsabile. Un esempio degno di nota è il dashboard Responsible AI lanciato nel 2021 . Naturalmente, solo il tempo dirà se queste iniziative saranno sufficienti per frenare i potenziali effetti dannosi dei prodotti AI . Di recente, personalità tecnologiche di rilievo in generale come Steve Wozniak, Evan Sharp ed Elon Musk hanno presentato una petizione ai laboratori di intelligenza artificiale per sospendere lo sviluppo dei prodotti per almeno sei mesi e non precipitarsi impreparati.
Lascia un commento