알리바바 클라우드, AI 기반 비디오 생성 모델 'Wan2.1' 오픈소스로 무료 공개

2025-02-27

알리바바 클라우드가 오픈소스 커뮤니티 활성화를 위한 최신 조치의 일환으로 AI 기반 영상 생성 모델을 오픈소스로 무료 공개한다고 25일 발표했다.

알리바바 클라우드는 비디오 파운데이션 모델 ‘Tongyi Wanxiang(통이 완샹)’의 최신 버전인 Wan2.1 시리즈 중 140억(14B) 및 13억(1.3B) 매개변수 모델 4종을 오픈소스로 공개하며, AI 기술의 개방성과 확장성을 더욱 강화해 나갈 계획이다.

이번에 공개된 모델은 T2V-14B, T2V-1.3B, I2V-14B-720P, I2V-14B-480P 등 4종으로, 텍스트 및 이미지 입력을 기반으로 고품질 이미지와 영상을 생성하도록 설계됐다. 해당 모델들은 알리바바 클라우드의 AI 모델 커뮤니티인 ‘모델스코프(ModelScope)’와 협업형 AI 플랫폼 ‘허깅페이스(Hugging Face)’에서 다운로드 가능하며, 전 세계 학계 연구자 및 기업들이 자유롭게 활용할 수 있도록 공개됐다.

올해 초 공개된 Wan2.1 시리즈는 중국어와 영어에서 텍스트 효과를 지원하는 최초의 AI 영상 생성 모델로 복잡한 움직임을 정밀하게 처리하고, 픽셀 품질을 향상시키며, 물리적 원칙을 준수하며, 명령 실행 정확도를 최적화하는 등 사실적인 영상 생성 능력에서 강점을 발휘한다.

이처럼 뛰어난 명령 수행 정밀도 덕분에 Wan2.1은 영상 생성 모델의 종합 벤치마크인 VBench리더보드에서 1위를 기록했다. 또한, 허깅페이스의 VBench 리더보드 상위 5개 모델 중 유일한 오픈소스 영상 생성 모델로 자리매김하며 글로벌 AI 커뮤니티에서 그 기술력을 입증하고 있다.

VBench에 따르면, Wan2.1 시리즈는 종합 점수 86.22%를 기록하며, 움직임의 자연스러움, 공간적 관계, 색상 표현, 다중 객체 상호작용 등 핵심 평가 항목에서 최고 수준의 성능을 입증했다.

영상 생성 AI 모델을 훈련하려면 막대한 컴퓨팅 자원과 대량의 고품질 학습 데이터가 필수적이다. 이러한 모델을 오픈소스로 개방하면 AI 활용의 장벽을 낮출 수 있으며, 기업들은 보다 효율적이고 경제적인 방식으로 자사 비즈니스에 최적화된 고품질 영상 콘텐츠를 제작할 수 있다.

T2V-14B 모델은 복잡한 동작이 포함된 고품질 영상 생성에 최적화되어 있으며, T2V-1.3B 모델은 생성 품질과 연산 효율성의 균형을 맞춰 연구 및 2차 개발 작업을 진행하는 다양한 개발자들에게 이상적인 솔루션을 제공한다. 예를 들어, T2V-1.3B 모델은 일반적인 개인용 노트북에서도 480p 해상도의 5초 길이 영상을 약 4분 만에 생성할 수 있어, 연구자 및 개발자들이 보다 쉽고 효율적으로 이를 활용할 수 있도록 지원한다.

또한, I2V-14B-720P 및 I2V-14B-480P 모델은 텍스트 기반 영상 생성뿐만 아니라 이미지 기반 영상 생성 기능까지 지원한다. 사용자는 한 장의 이미지와 간단한 텍스트 설명만 입력하면 역동적인 영상 콘텐츠를 손쉽게 제작할 수 있으며, 플랫폼은 특정 크기에 제한 없이, 다양한 해상도의 이미지를 정상적으로 입력받아 처리할 수 있도록 설계됐다.

한편, 알리바바 클라우드는 AI 모델을 오픈소스로 공개한 최초의 글로벌 테크 기업 중 하나로, 2023년 8월 자체 개발한 대규모 AI 모델 'Qwen(Qwen-7B, 이하 큐원-7B)'을 첫 공개했다. 이후 큐원 시리즈는 허깅페이스의 오픈 LLM 리더보드에서 지속적으로 최상위권을 유지하며, 다양한 벤치마크에서 글로벌 최고 수준의 AI 모델과 어깨를 나란히 하는 성능을 입증하고 있다.

Menu

Kollo 를 통해 내 지역 속보, 범죄 뉴스, 비즈니스 뉴스, 스포츠 업데이트 및 한국 헤드라인을 휴대폰으로 직접 확인할 수 있습니다.