微軟的下一個人工智能合作夥伴希望人工智能不會傷害人類

微軟的下一個人工智能合作夥伴希望人工智能不會傷害人類

一周前,微軟在 Microsoft Inspire 2023 上宣布了與 Meta 的 AI 合作夥伴 Llama 2。Llama 2 是一種開源大型語言模型,您可以用它來構建和訓練自己的 AI。據傳,該法學碩士也被認為是實現 AGI 的第一條線索,而 AGI 最終是人工智能的核心目標之一。

嗯,在宣布這一消息的一周內,發生了很多事情。還有傳言稱,ChatGPT 背後的公司 OpenAI 正在發布自己的開源 LLM,代號為 G3PO。目前還沒有任何發布日期,但預計會在 2023 年或 2024 年發布。

事態的發展,微軟似乎已經與 Anthropic、谷歌和 Open AI 合作參加了前沿模型論壇。據新聞稿稱,該合作夥伴關係是一個行業機構,致力於確保前沿人工智能模型的安全和負責任的開發。

今天,Anthropic、谷歌、微軟和 OpenAI 宣布成立前沿模型論壇,這是一個新的行業機構,致力於確保前沿人工智能模型的安全和負責任的開發。前沿模型論壇將利用其成員公司的技術和運營專業知識,使整個人工智能生態系統受益,例如通過推進技術評估和基準,以及開發公共解決方案庫來支持行業最佳實踐和標準。

前沿模型論壇

基本上,前沿模型論壇希望構建對人類不構成風險的人工智能。如果您還記得,合作夥伴之一 Anthropic 剛剛發布了Claude 2 AI,該模型以其與人安全交互的方式而聞名。所以,我們將會有很多類似於 Claude 2 AI 的人工智能,甚至可能更好。不管怎樣,這對於這個行業來說都是個好消息。

前沿模型論壇在人工智能領域將做什麼

該夥伴關係已製定了一系列核心目標,並將按照這些目標開展工作。他們是:

  1. 推進人工智能安全研究,促進前沿模型的負責任開發,最大限度地降低風險,並實現對能力和安全性的獨立、標準化評估。
  2. 確定負責任地開發和部署前沿模型的最佳實踐,幫助公眾了解技術的性質、功能、局限性和影響。
  3. 與政策制定者、學者、民間社會和公司合作,分享有關信任和安全風險的知識。
  4. 支持開發有助於應對社會最大挑戰的應用程序,例如減緩和適應氣候變化、早期癌症檢測和預防以及應對網絡威脅。

該夥伴關係也開放與組織合作

如果您是開發前沿模型AI的組織,您可以提交加入前沿模型論壇並與之合作。

前沿模型論壇

要加入合作夥伴關係,您作為一個組織需要滿足以下條件:

  • 您已經開發並部署了前沿模型(由論壇定義)。
  • 該組織能夠表現出對前沿模型安全的堅定承諾,包括通過技術和製度方法。
  • 作為一個組織,您願意為推進論壇的努力做出貢獻,包括參與聯合倡議並支持該倡議的發展和運作。

這就是論壇在人工智能方面要做的事情

前沿模型論壇希望支持安全、負責任的人工智能開發流程,並將在 2023 年重點關注 3 個關鍵領域:

  • 確定最佳實踐:促進知識共享和最佳實踐,重點關注安全標準和安全實踐,以減輕各種潛在風險。
  • 推進人工智能安全研究:通過確定人工智能安全最重要的開放研究問題來支持人工智能安全生態系統。該論壇將協調研究,以在對抗穩健性、機械可解釋性、可擴展監督、獨立研究訪問、緊急行為和異常檢測等領域推進這些努力。最初將重點關注開發和共享前沿人工智能模型的技術評估和基準的公共庫。
  • 促進公司和政府之間的信息共享:建立可信、安全的機制,在公司、政府和相關利益相關者之間共享有關人工智能安全和風險的信息。論壇將遵循網絡安全等領域負責任披露的最佳實踐。

2023 年,前沿模型論壇將致力於組建董事會,然後製定戰略並確定優先事項。但該組織已經在尋求與盡可能多的私人或公共機構合作。這還包括民間社會和政府,以及其他對人工智能感興趣的機構。

您對這種新的合作夥伴關係有何看法?您有興趣加入嗎?或者您對前沿人工智能模型感到好奇嗎?請在下面的評論部分告訴我們。

發佈留言

發佈留言必須填寫的電子郵件地址不會公開。 必填欄位標示為 *