OpenAI 생성형 동영상 모델(text-to-video model) 'Sora' 공개
OpeAI가 텍스트 비디오를 만들 수 있는 생성형 동영상 서비스 'Sora'를 공개하였다. 텍스트 비디오 모델(text-to-video model)인 Sora는 만들고자 하는 영상을 텍스트로 입력하면 최대 1분 길이의 동영상을 생성할 수 있다.
Sora는 여러 캐릭터, 특정 유형의 동작, 피사체와 배경의 정확한 디테일이 포함된 복잡한 장면을 생성할 수 있다. 이 모델은 사용자가 프롬프트(Prompt)에서 요청한 내용 뿐만 아니라 실제 세계에 이러한 사물이 어떻게 존재하는지도 이해한다.
이 모델은 언어에 대한 깊은 이해를 바탕으로 프롬프트를 정확하게 해석하고 생동감 넘치는 감정을 표현하는 매력적인 캐릭터를 생성할 수 있다. 또한 Sora는 하나의 동영상 내에서 캐릭터와 시각적 스타일을 정확하게 유지하는 여러 장면을 생성할 수 있다.
Sora는 정적 노이즈(static noise)처럼 보이는 동영상으로 시작하여 여러 단계에 걸쳐 노이즈를 제거하여 점차적으로 변환하는 diffusion model로, 동영상을 생성한다.
Sora는 전체 동영상을 한 번에 생성하거나 생성된 동영상을 확장하여 더 길게 만들 수 있다. 모델에 한 번에 여러 프레임을 예측할 수 있는 기능을 제공함으로써 피사체가 일시적으로 시야에서 사라져도 동일하게 유지되도록 하는 까다로운 문제를 해결했다.
(Prompt: Several giant wooly mammoths approach treading through a snowy meadow, their long wooly fur lightly blows in the wind as they walk, snow covered trees and dramatic snow capped mountains in the distance, mid afternoon light with wispy clouds and a sun high in the distance creates a warm glow, the low camera view is stunning capturing the large furry mammal with beautiful photography, depth of field)
GPT 모델과 마찬가지로 Sora는 트랜스포머 아키텍처를 사용하여 구현하였다.
Sora는 비디오와 이미지를 패치(Patches)라고 하는 작은 데이터 단위의 모음으로 표현하며, 각 패치는 GPT의 토큰과 유사하다. 데이터를 표현하는 방식을 통합함으로써 다양한 길이, 해상도, 종횡비를 아우르는 이전보다 더 광범위한 시각 데이터에 대해 확산 트랜스포머(Diffusion transformers)를 훈련할 수 있게 되었다.
Sora는 DALL-E 및 GPT 모델에 대한 과거 연구를 기반으로 하고 있다. 시각적 훈련 데이터(Visual training data)에 대해 설명력이 높은 캡션을 생성하는 DALL-E 3의 리캡션기법(Recaptioning technique)을 사용한다. 그 결과 모델은 생성된 비디오에서 사용자의 텍스트 지시를 더 충실히 따를 수 있게 되었다.
이 모델은 텍스트 설명만으로 동영상을 생성할 수 있을 뿐만 아니라 기존의 정지 이미지를 가져와서 동영상을 생성할 수 있으며, 이미지의 내용을 정확하고 세세한 부분까지 애니메이션으로 표현할 수 있다. 또한 모델은 기존 동영상을 가져와서 확장하거나 누락된 프레임을 채울 수도 있다.
사람들이 실제 상호작용이 필요한 문제를 해결하는 데 도움이 되는 모델을 학습시키는 것을 목표로, 움직이는 물리적 세계를 이해하고 시뮬레이션하는 방법을 AI에 가르치고 있다.
현재 모델에는 한계점도 있다. 복잡한 장면의 물리학을 정확하게 시뮬레이션하는 데 어려움을 겪을 수 있으며, 원인과 결과의 특정 사례를 이해하지 못할 수도 있다. 예를 들어, 사람이 쿠키를 한 입 베어 물었지만 나중에 쿠키에 물린 자국이 없을 수 있다.
또한 모델은 왼쪽과 오른쪽을 혼동하는 등 프롬프트의 공간적 세부 사항을 혼동할 수 있으며, 특정 카메라 궤적을 따라가는 것과 같이 시간에 따라 발생하는 이벤트를 정확하게 설명하는 데 어려움을 겪을 수 있다.
현재 Sora는 레드팀원(Red Teams)들이 중요한 영역의 피해나 위험을 평가하는 데 사용할 수 있도록 제공되고 있다. 또한 크리에이티브 전문가에게 가장 도움이 되도록 모델을 발전시키는 방법에 대한 피드백을 얻기 위해 여러 시각 예술가, 디자이너, 영화 제작자에게 액세스 권한을 부여하고 있다.
Sora를 OpenAI 제품에서 사용하기에 앞서 몇 가지 중요한 안전 조치를 위한 테스트를 진행하고 있다. 잘못된 정보, 혐오 콘텐츠, 편견과 같은 분야의 도메인 전문가인 레드 팀원들과 협력하여 모델을 적대적으로 테스트 하는 중이다.
예를 들어, OpenAI 제품에서 텍스트 분류기는 극단적인 폭력, 성적인 콘텐츠, 혐오 이미지, 유명인 초상화, 타인의 IP를 요청하는 등 사용 정책을 위반하는 텍스트 입력 프롬프트를 확인하고 거부한다. 또한 강력한 이미지 분류기를 개발하여 생성된 모든 동영상의 프레임을 검토하여 사용자에게 표시되기 전에 사용 정책을 준수하는지 확인하는 데 사용한다.
전 세계 정책 입안자, 교육자, 아티스트의 우려 사항을 파악하고 이 새로운 기술의 긍정적인 사용 사례를 파악하기 위해 전 세계 정책 입안자, 교육자, 아티스트의 참여를 유도할 예정이다. 광범위한 연구와 테스트에도 불구하고 사람들이 기술을 사용하는 유익한 방법이나 악용할 수 있는 모든 방법을 예측할 수는 없다. 그렇기 때문에 실제 사용 사례를 통한 학습은 시간이 지남에 따라 더욱 안전한 AI 시스템을 만들고 출시하는 데 있어 매우 중요한 요소라고 생각하고 있다.
연구 진행 상황을 조기에 공유하여 OpenAI 외부의 사람들과 함께 작업하고 피드백을 받고 있으며, 대중에게 어떤 AI 기능이 곧 출시될지 알려드리기 위해 노력하고 있다.
Sora는 실제 세계를 이해하고 시뮬레이션할 수 있는 모델의 기반이 되며, 이는 AGI를 실현하는 데 중요한 이정표가 될 것으로 보인다.