微軟詳細介紹了它計劃如何監管負責任的人工智能產品
在過去的幾個月裡,微軟一直在全力開發和發佈人工智能產品。這包括其Bing Chat 聊天機器人和搜索 AI,其用於協助各種應用程序的Copilot 產品,等等。然而,也有很多人擔心像微軟這樣的公司將如何處理人工智能產品使用中的隱私和道德問題。
3 月,作為公司裁員 10,000 人計劃的一部分,它關閉了道德與社會團隊。今天,在一篇博客文章中,微軟首席人工智能官 Natasha Crampton 闡述了為什麼做出這一決定是對公司負責任人工智能計劃進行全面審視的一部分。
Crampton 表示,道德與社會團隊“對於使我們能夠取得今天的成就非常重要。”但是,她表示,微軟決定對公司負責的人工智能部門進行一些組織變革:
去年,我們對負責任的 AI 生態系統做出了兩項重大改變:首先,我們對負責 Azure OpenAI 服務的團隊進行了重要的新投資,其中包括 GPT-4 等尖端技術;其次,我們通過將前道德與社會團隊成員調入這些團隊,為我們的一些用戶研究和設計團隊注入了專業知識。在這些變化之後,我們做出了一個艱難的決定,即關閉道德與社會團隊的其餘成員,這影響了 7 人。影響我們同事的決定是不容易的,但這是一個以我們在最有效的組織結構方面的經驗為指導的決定,以確保我們負責任的 AI 實踐在整個公司得到採用。
克蘭普頓說,微軟現在有 350 名員工以某種身份從事負責任的 AI 工作。在這個數字中,有 129 名員工全職致力於該主題,其餘員工將負責任的 AI 作為其職責的主要部分。她補充說,微軟計劃僱用新員工並調動一些現有員工全職從事負責任的 AI 職責,“未來幾個月”將披露更多有關這些努力的信息。
這篇博文還談到了微軟負責任的人工智能委員會,該委員會定期開會討論這些話題。該委員會由公司總裁 Brad Smith 和 CTO Kevin Scott 擔任主席。它還討論了微軟如何努力在公司的所有部門實施負責任的 AI 道德規範。克蘭普頓說:
我們有高級領導負責在每個核心業務部門內帶頭負責人工智能,我們不斷培訓和發展一個由負責任的人工智能“冠軍”組成的大型網絡,他們具有一系列技能和角色,以實現更定期、更直接的參與。
儘管所有這些計劃聽起來都像是微軟在認真對待許多人對 AI 崛起的擔憂,但我們將不得不看看該公司在未來數月和數年內的行動是否會像它所說的那樣。
發佈留言