Microsoft는 미 국방부에 ChatGPT와 DALL-E를 발표했습니다.
Microsoft는 ChatGPT 및 Dall-E와 같은 OpenAI 및 Azure AI 도구를 사용하도록 미국 국방부(DoD)에 제안했습니다. 이를 통해 DoD는 소프트웨어를 구축하고 군사 작전을 수행할 수 있습니다. 또한 국방부는 문서 분석, 기계 유지 관리 등 다양한 작업에 AI 도구를 사용함으로써 이점을 얻을 수 있습니다.
The Intercept 에 따르면 미국 국방부(DoD)에 AI 도구를 사용하라는 Microsoft의 제안은 2023년에 이루어졌습니다. 그러나 2024년에 OpenAI는 군사 사용 금지를 해제했습니다. 그러나 회사 대변인 Liz Bourgeous는 OpenAI의 정책이 다른 사람에게 해를 끼치는 도구의 사용을 허용하지 않는다고 말했습니다.
그러나 문제가 있습니다. 회사의 도구는 Microsoft Azure를 통해 사용할 수 있습니다. 따라서 OpenAI가 정책으로 인해 판매하지 않더라도 Microsoft는 Azure OpenAI 버전을 전쟁에 사용할 수 있습니다.
AI는 군대에서 어떻게 활용되나요?
반면, Microsoft가 DoD에 제출한 프레젠테이션에는 전쟁에 AI 도구를 사용하는 방법에 대한 몇 가지 예가 나와 있습니다. 예를 들어 Dall-E는 전장 관리 시스템 훈련을 개선하기 위해 이미지를 생성할 수 있습니다.
또한 Azure OpenAI 도구는 패턴을 식별하고 예측 및 전략적 결정을 내리는 데 도움이 될 수 있습니다. 또한 미국 국방부(DoD)는 감시, 과학 연구 및 기타 보안 목적으로 AOAI를 사용할 수 있습니다.
Anna Makanju에 따르면 OpenAI가 군사 사용 금지 조치를 해제한 후 회사는 국방부와 협력하기 시작했습니다. 그러나 회사는 여전히 AI 도구를 전쟁에 사용하는 것을 금지하고 있습니다. 그러나 국방부는 감시 영상 분석과 같은 작업에 이를 사용할 수 있습니다.
AI가 인간에게 위협이 될 수 있을까?
약간의 논란이 벌어지고 있습니다. 기술 윤리에 초점을 맞춘 Brianna Rosen에 따르면, 전투 시스템은 의심할 여지 없이 우리에게 해를 끼칠 것이며, 특히 AI를 사용하는 경우 더욱 그렇습니다. 따라서 OpenAI의 도구는 회사의 정책을 위반할 가능성이 높습니다.
머신러닝 안전 엔지니어인 하이디 클라프(Heidy Khlaaf)는 국방부와 국방부에서 사용하는 AI 도구가 위협이 될 수 있다고 간접적으로 말했다. 결국 AI가 항상 정확한 결과를 생성하는 것은 아닙니다. 게다가 연구자들이 AI 생성 콘텐츠를 학습시키면 답변이 저하됩니다. 또한 AI 이미지 생성기는 팔다리나 손가락의 정확한 수조차 표시하지 않습니다. 따라서 현실적인 현장 존재감을 생성할 수 없습니다.
또 다른 우려는 AI 환각이다. 결국 우리 대부분은 Google의 이미지 생성기에 무슨 일이 일어났는지 알고 있습니다. 또한 AI는 답변에 예측을 사용하려고 시도할 수도 있습니다. 따라서 전투 관리 시스템에 결함이 있을 수 있습니다.
궁극적으로 Microsoft와 OpenAI는 미국 국방부(DoD) 및 국방부와의 AI 도구 계약을 통해 수십억 달러를 얻고 있습니다. 또한 그들의 AI는 필연적으로 피해를 입힐 것이며, 특히 전쟁 훈련과 감시에 사용될 경우 더욱 그렇습니다. 그러나 AI 오류의 양을 줄이기 위해 노력해야 합니다. 그렇지 않으면 그들의 실수가 재앙으로 이어질 수 있습니다. 게다가 미국 정부는 특히 Azure 데이터 침해 이후에 Microsoft 서비스에 주의를 기울여야 합니다.
당신의 생각은 무엇입니까? 정부는 군사력을 강화하기 위해 AI를 사용해야 할까요? 댓글을 통해 알려주세요.
답글 남기기