마이크로소프트, 책임 있는 AI 원칙 강조…윤리적 AI팀 해고 후
Microsoft는 OpenAI의 GPT , Bing Chat , GitHub Copilot 및 앞으로 출시될 Microsoft 365 제품과의 모든 AI 통합 에 막대한 자금과 노력을 투자하면서 인공 지능(AI) 이니셔티브에 올인하고 있습니다 . 소비자 중심의 AI 제품의 폭발적인 성장에도 불구하고 회사는 최근 책임 있는 AI 제품이 고객에게 제공되도록 하기 위해 설계된 윤리 팀을 해고했습니다. 이제 아이러니하게도 Microsoft는 블로그 게시물 에서 Responsible AI에 대한 원칙을 강조했습니다 .
Microsoft는 기본적으로 AI 제품을 구축하는 방법을 제어하는 일련의 책임 있는 AI 원칙을 가지고 있습니다. 그 기반에는 공정성, 신뢰성 및 안전, 개인 정보 보호 및 보안, 포용성, 투명성 및 책임성 보장이 포함됩니다. 회사는 다음과 같이 지적합니다.
책임 있는 AI 전략을 구현하는 것은 많은 조직이 어려움을 겪고 있는 과제입니다. 결과적으로 Microsoft는 Responsible AI 사례를 표준화하고 다른 회사 또는 기계 학습 전문가가 AI 시스템의 설계, 구축, 테스트 또는 배포에 채택할 수 있도록 했습니다. 예를 들어 고객 또는 개발자는 책임 있는 AI 영향 평가 템플릿을 활용하여 AI 시스템의 용도를 식별할 수 있습니다. 데이터 무결성, 사람이나 조직에 대한 부정적인 영향 공정성, 포용성, 안전 및 신뢰성, 책임성 및 투명성이라는 6가지 책임 있는 AI의 핵심 원칙 각각의 목표를 다루는 방법. 또한 이는 AI 개발자가 AI 시스템이 수행하는 작업에 대해 책임을 지고 최종 사용자에게 투명성을 제공할 수 있는 관행을 촉진합니다. 사용 방법; 제한/제한 및 알려진 문제. 이를 통해 기계 학습 팀은 개발 수명 주기 접근 방식을 평가하여 AI 솔루션이 의도한 대로 작동하지 않을 수 있는 요인을 간과하고 있지 않은지 검증할 수 있습니다.
Microsoft는 자체 AI 제품도 이러한 원칙을 따르도록 보장하는 거버넌스 팀이 있다고 말하지만 Redmond의 최근 뉴스에 따르면 회사는 전체 Ethics and Society 팀을 해고했습니다 . 이 팀은 Microsoft의 Responsible AI 원칙이 제품 설계와 밀접하게 연결되도록 하기 위해 구성된 것으로 알려졌습니다. 그러나 그 당시 Microsoft는 AI 이니셔티브를 관리하기 위한 규칙과 원칙을 만들고 이 영역에 계속 투자하는 Office of Responsible AI 부서를 여전히 유지하고 있다고 주장했습니다.
회사는 팀이 해고된 이유도 명확하게 밝히지 않았지만 전직 직원은 다음과 같이 말했습니다.
사람들은 책임 있는 AI 사무실에서 나오는 원칙을 보고 “이것이 어떻게 적용되는지 모르겠습니다”라고 말할 것입니다. 우리의 임무는 그것들을 보여주고 규칙이 없는 영역에서 규칙을 만드는 것이었습니다.
그럼에도 불구하고 Microsoft는 Responsible AI 원칙을 준수하도록 하는 도구와 제품에 투자하고 있음을 강조했습니다. 주목할만한 예는 2021년에 출시된 Responsible AI 대시보드 입니다 . 물론 이러한 이니셔티브가 AI 제품의 잠재적인 유해 효과를 억제하기에 충분한지는 시간만이 알 수 있습니다 . 최근 Steve Wozniak, Evan Sharp, Elon Musk와 같은 전반적으로 주목할만한 기술 인사들은 AI 연구실에 적어도 6개월 동안 제품 개발을 중단 하고 준비 없이 서두르지 말 것을 청원했습니다.
답글 남기기