OpenAI, 텍스트를 사실적인 영상으로 변환하는 AI 모델 ‘소라’ 공개

OpenAI, 텍스트를 사실적인 영상으로 변환하는 AI 모델 ‘소라’ 공개

OpenAI는 간단한 텍스트 프롬프트에서 생생하고 상상력이 풍부한 비디오를 생성할 수 있는 획기적인 AI 모델인 Sora를 발표했습니다 . Sora는 사용자의 설명을 준수하고 비디오 전체에 걸쳐 시각적 품질을 유지하면서 최대 1분 길이의 비디오를 생성할 수 있습니다. X에 대한 Openai의 게시물은 바로 아래에 삽입되어 있습니다.

회사는 새로운 AI 모델이 여러 캐릭터, 미묘한 감정, 환경의 복잡한 세부 사항으로 복잡한 장면을 묘사하는 데 탁월하다고 말합니다. Sora는 사용자 프롬프트를 정확하게 해석하는 것 외에도 설명을 통해 기본 물리학 및 공간 역학을 이해할 수도 있습니다.

이를 통해 모델은 객체와 캐릭터 간의 물리적 관계를 더 잘 파악하여 생성된 비디오 내에서 일관성을 보장할 수 있습니다.

크레딧: OpenAI

놀라운 기능에도 불구하고 OpenAI는 Sora에 몇 가지 한계가 있음을 인정합니다. 생성된 비디오와 회사의 메모를 기반으로 AI 모델은 때때로 복잡한 물리 시뮬레이션에 어려움을 겪을 수 있으며 원인과 결과 시나리오를 이해하지 못할 수도 있습니다. 또한 공간 세부 정보를 잘못 해석하거나 정확한 시간 기반 설명으로 인해 어려움을 겪을 수도 있습니다.

또한 OpenAI는 Sora를 모든 사람에게 제공하기 전에 안전 조치를 최우선으로 생각하고 있습니다. 회사는 잘못된 정보 및 편견 전문가와 협력하여 Sora의 취약점을 엄격하게 테스트하고 있습니다. OpenAI는 오해의 소지가 있는 콘텐츠를 감지하는 도구를 구현하고 Sora를 사용하여 폭력적이거나 증오적이거나 성적인 콘텐츠와 유명인 유사 콘텐츠가 생성되지 않도록 보호 장치를 마련할 계획입니다.

현재 Sora는 모델의 피해나 위험을 평가하도록 배정된 “레드 팀”이 사용할 수 있습니다. OpenAI는 또한 시각 예술가, 디자이너, 영화 제작자가 Sora에 액세스하여 피드백을 얻을 수 있도록 허용한다고 밝혔습니다.

다음은 OpenAI가 X에서 공유한 데모입니다.

텍스트-비디오 AI 기술이 발전하는 속도는 우리에게 침을 흘리게 만듭니다. 당신은 어때요?

답글 남기기

이메일 주소는 공개되지 않습니다. 필수 필드는 *로 표시됩니다