微軟、OpenAI、谷歌和 Anthropic 推出負責任人工智能前沿模型論壇
生成式人工智能已成為 2023 年科技行業的流行語。人們還擔心生成式人工智能可能會如何失控。如今,四家領先的人工智能科技公司聯手創建了前沿模型論壇。該小組的目標是確保生成式人工智能的“安全和負責任的開發”,特別是前沿人工智能模型。
該小組將前沿人工智能模型描述為“大規模機器學習模型,超出了目前最先進的現有模型的能力,並且可以執行各種任務。”
該小組的創始成員包括 Microsoft、OpenAI、Google 和 Anthropic。在一篇宣布成立前沿模型論壇的谷歌博客文章中,該組織宣布了其目標:
- 推進人工智能安全研究,促進前沿模型的負責任開發,最大限度地降低風險,並實現對能力和安全性的獨立、標準化評估。
- 確定負責任地開發和部署前沿模型的最佳實踐,幫助公眾了解技術的性質、功能、局限性和影響。
- 與政策制定者、學者、民間社會和公司合作,分享有關信任和安全風險的知識。
- 支持開發有助於應對社會最大挑戰的應用程序,例如減緩和適應氣候變化、早期癌症檢測和預防以及應對網絡威脅。
新小組將首先建立一個諮詢委員會,以便開始提出有關前沿人工智能模型安全標準的建議,同時開展人工智能安全研究,並與其他公司和政府分享這些工作的信息。
聯合消息中引用了微軟總裁布拉德·史密斯的一句話:
創造人工智能技術的公司有責任確保其安全、可靠並處於人類控制之下。這一舉措是將科技行業聚集在一起,負責任地推進人工智能並應對挑戰,使其造福全人類的重要一步。
如果更多公司也在研究前沿人工智能模型,並且“通過技術和製度方法等方式表現出對前沿模型安全的堅定承諾”,前沿模型論壇也願意加入更多公司。
發佈留言