Microsoft의 다음 AI 파트너십은 AI가 사람을 해치지 않기를 원합니다.

Microsoft의 다음 AI 파트너십은 AI가 사람을 해치지 않기를 원합니다.

일주일 전 Microsoft는 Microsoft Inspire 2023에서 Meta와의 AI 파트너십인 Llama 2를 발표했습니다 . Llama 2는 자신만의 AI를 구축하고 교육하는 데 사용할 수 있는 오픈 소스 대규모 언어 모델입니다. 이 LLM은 또한 궁극적으로 AI의 핵심 목표 중 하나인 AGI를 달성하는 첫 번째 단서가 될 것이라는 소문이 있습니다 .

글쎄, 발표 후 일주일 동안 많은 일이 일어났습니다. ChatGPT의 배후에 있는 회사인 OpenAI가 코드명 G3PO인 자체 오픈 소스 LLM을 출시한다는 소문도 있습니다. 아직 출시 날짜는 없지만 2023년 또는 2024년에 출시될 예정입니다.

그리고 일련의 사건에서 Microsoft는 Anthropic, Google 및 Open AI와 협력하여 Frontier Model Forum에 참가한 것으로 보입니다. 보도 자료에 따르면 이 파트너십은 프론티어 AI 모델의 안전하고 책임 있는 개발을 보장하는 데 중점을 둔 산업 단체입니다 .

오늘 Anthropic, Google, Microsoft 및 OpenAI는 프론티어 AI 모델의 안전하고 책임 있는 개발을 보장하는 데 중점을 둔 새로운 산업 단체인 프론티어 모델 포럼의 구성을 발표했습니다. Frontier Model Forum은 회원사의 기술 및 운영 전문 지식을 활용하여 기술 평가 및 벤치마크를 발전시키고 업계 모범 사례 및 표준을 지원하는 솔루션의 공공 라이브러리를 개발하는 등 전체 AI 생태계에 혜택을 줄 것입니다.

프론티어 모델 포럼

기본적으로 Frontier Model Forum은 인간에게 위험하지 않은 AI를 구축하고자 합니다. 파트너 중 하나인 Anthropic이 방금 Claude 2 AI를 출시했으며 이 모델은 사람들과 안전하게 상호 작용하는 방식으로 유명합니다. 따라서 우리는 Claude 2 AI와 유사하고 아마도 더 나은 AI를 많이 갖게 될 것입니다. 어느 쪽이든, 이 업계에 관해서는 좋은 소식입니다.

Frontier Model Forum은 AI와 관련하여 무엇을 할 것인가

파트너십은 일련의 핵심 목표와 목표를 설정했으며 그에 따라 작동할 것입니다. 그들은:

  1. 프론티어 모델의 책임 있는 개발을 촉진하고, 위험을 최소화하며, 기능과 안전에 대한 독립적이고 표준화된 평가를 가능하게 하는 AI 안전 연구를 발전시킵니다 .
  2. 프론티어 모델의 책임 있는 개발 및 배포를 위한 모범 사례를 식별하여 대중이 기술의 특성, 기능, 제한 및 영향을 이해하도록 돕습니다.
  3. 정책 입안자, 학계, 시민 사회 및 기업과 협력하여 신뢰 및 안전 위험에 대한 지식을 공유합니다.
  4. 기후 변화 완화 및 적응, 조기 암 발견 및 예방, 사이버 위협 퇴치와 같은 사회의 가장 큰 문제를 해결하는 데 도움이 될 수 있는 애플리케이션 개발 노력을 지원합니다 .

파트너십은 조직과의 협력에도 열려 있습니다.

프론티어 모델 AI를 개발하는 조직이라면 프론티어 모델 포럼에 가입 및 협업을 신청할 수 있습니다.

프론티어 모델 포럼

파트너십에 참여하려면 조직으로서 다음 기준을 충족해야 합니다.

  • 귀하는 이미 프론티어 모델(포럼에서 정의한 대로)을 개발 및 배포하고 있습니다.
  • 조직은 기술 및 제도적 접근을 포함하여 최전선 모델 안전에 대한 강력한 의지를 보여줄 수 있습니다.
  • 조직으로서 귀하는 공동 이니셔티브에 참여하고 이니셔티브의 개발 및 기능을 지원하는 것을 포함하여 포럼의 노력을 발전시키는 데 기꺼이 기여할 것입니다.

이것이 포럼이 AI와 관련하여 할 일입니다.

프론티어 모델 포럼은 안전하고 책임감 있는 AI 개발 프로세스를 지원하고자 하며 2023년 동안 3가지 핵심 영역에 초점을 맞출 것입니다.

  • 모범 사례 식별: 광범위한 잠재적 위험을 완화하기 위해 안전 표준 및 안전 관행에 중점을 둔 지식 공유 및 모범 사례를 촉진합니다.
  • AI 안전 연구 발전: AI 안전에 대한 가장 중요한 공개 연구 질문을 식별하여 AI 안전 생태계를 지원합니다. 포럼은 적대적 견고성, 기계적 해석 가능성, 확장 가능한 감독, 독립적인 연구 액세스, 긴급 행동 및 이상 탐지와 같은 영역에서 이러한 노력을 진행하기 위해 연구를 조정할 것입니다. 처음에는 프론티어 AI 모델에 대한 기술 평가 및 벤치마크의 공개 라이브러리를 개발하고 공유하는 데 중점을 둘 것입니다.
  • 기업과 정부 간의 정보 공유 촉진: AI 안전 및 위험과 관련하여 기업, 정부 및 관련 이해 관계자 간에 정보를 공유하기 위한 신뢰할 수 있고 안전한 메커니즘을 구축합니다. 포럼은 사이버 보안과 같은 영역에서 책임 있는 공개의 모범 사례를 따를 것입니다.

2023년 동안 프론티어 모델 포럼은 보드를 조립한 다음 전략을 수립하고 우선 순위를 설정하는 작업을 할 것입니다. 그러나 조직은 이미 가능한 한 많은 민간 또는 공공 기관과 협력하기를 원합니다. 여기에는 AI에 관심이 있는 기타 기관뿐만 아니라 시민 사회와 정부도 포함됩니다.

이 새로운 파트너십에 대해 어떻게 생각하십니까? 가입에 관심이 있으십니까? 아니면 프론티어 AI 모델이 궁금하신가요? 아래 의견란에 알려주십시오.

답글 남기기

이메일 주소는 공개되지 않습니다. 필수 필드는 *로 표시됩니다