Microsoft는 책임 있는 AI 제품을 규제하는 방법에 대해 자세히 설명합니다.

Microsoft는 책임 있는 AI 제품을 규제하는 방법에 대해 자세히 설명합니다.

지난 몇 달 동안 Microsoft는 인공 지능 제품 개발 및 출시에 올인했습니다. 여기에는 Bing Chat 챗봇 및 검색 AI , 다양한 앱 지원을 위한 Copilot 제품 등이 포함됩니다. 그러나 마이크로소프트와 같은 기업이 AI 제품을 사용하면서 프라이버시와 윤리적 문제를 어떻게 처리할지에 대한 우려도 적지 않았다.

지난 3월에는 10,000명의 직원을 해고하려는 회사 계획 의 일환으로 윤리 및 사회 팀을 폐쇄했습니다 . 오늘 블로그 게시물에서 Microsoft의 최고 책임 AI 책임자인 Natasha Crampton은 회사의 책임 있는 AI 계획에 대한 전반적인 조사의 일환으로 그러한 결정이 내려진 이유에 대해 썼습니다.

Crampton은 윤리 및 사회 팀이 “우리가 오늘날의 위치에 도달할 수 있도록 하는 데 중요했습니다.”라고 말했습니다.

작년에 우리는 책임 있는 AI 에코시스템에 두 가지 주요 변경 사항을 적용했습니다. 첫째, GPT-4와 같은 최첨단 기술을 포함하는 Azure OpenAI 서비스를 담당하는 팀에 중요한 새 투자를 했습니다. 둘째, 이전 Ethics & Society 팀 구성원을 해당 팀으로 이동하여 일부 사용자 연구 및 디자인 팀에 전문 지식을 주입했습니다. 이러한 변경 사항에 따라 우리는 7명에게 영향을 준 나머지 Ethics & Society 팀을 정리하기로 어려운 결정을 내렸습니다. 동료에게 영향을 미치는 결정은 쉽지 않지만 가장 효과적인 조직 구조에 대한 경험을 바탕으로 책임감 있는 AI 관행이 회사 전체에 채택되도록 했습니다.

Crampton은 Microsoft가 현재 350명의 직원이 책임 있는 AI에 대해 어느 정도 역량을 발휘하고 있다고 말합니다. 그 중 129명의 직원이 해당 주제에 대해 정규직으로 일하고 있으며 나머지는 책임 있는 AI를 업무의 주요 부분으로 삼고 있습니다. 그녀는 마이크로소프트가 새로운 직원을 고용하고 현재 직원 중 일부를 책임 있는 AI 업무에 풀타임으로 배치할 계획이며 “앞으로 몇 달 안에” 이러한 노력에 대해 더 많은 정보가 공개될 것이라고 덧붙였습니다.

블로그 게시물에서는 이러한 주제를 논의하기 위해 정기적으로 만나는 Microsoft의 Responsible AI Council에 대해서도 설명합니다. 위원회는 회사의 회장인 Brad Smith와 CTO인 Kevin Scott이 의장을 맡고 있습니다. 또한 Microsoft가 회사의 모든 부서에 책임 있는 AI 윤리를 도입하기 위해 어떻게 노력하고 있는지에 대해서도 설명합니다. 크램튼은 다음과 같이 말했습니다.

우리는 각 핵심 비즈니스 그룹 내에서 책임 있는 AI를 주도하는 임무를 맡은 선임 리더를 보유하고 있으며 보다 정기적이고 직접적인 참여를 위해 다양한 기술과 역할을 가진 책임 있는 AI “챔피언”의 대규모 네트워크를 지속적으로 교육하고 성장시킵니다.

이러한 모든 계획은 Microsoft가 AI의 부상에 대한 많은 우려를 심각하게 받아들이고 있는 것처럼 들리지만, 앞으로 몇 달, 몇 년 동안 회사의 조치가 약속과 같을지 확인해야 합니다.

답글 남기기

이메일 주소는 공개되지 않습니다. 필수 필드는 *로 표시됩니다