칭화대, TurboDiffusion 오픈소스 공개: AI 비디오 생성 200배 빠르게

작성자: GenMediaLab 4 분 읽기
TurboDiffusion AI 비디오 생성 가속 프레임워크

핵심 요약

  • TurboDiffusion이 품질 손실을 최소화하면서 AI 비디오 생성을 100-200배 가속화
  • 5초 비디오 생성: RTX 5090에서 184초 → 1.9초
  • 1.2시간이 걸렸던 720p 비디오가 이제 38초에 완료
  • RTX 4090, RTX 5090, H100 GPU용 최적화된 가중치와 함께 오픈소스
  • SageAttention, 희소 선형 어텐션, 시간적 스텝 증류 사용

무슨 일이 있었나

2025년 12월 25일, 칭화대학교의 TSAIL Lab과 Shengshu Technology가 시각적 품질을 유지하면서 AI 비디오 생성을 극적으로 가속화하는 오픈소스 프레임워크인 TurboDiffusion을 공동 출시했습니다.

이 돌파구는 AI 비디오 채택의 가장 큰 장벽 중 하나인 생성 시간을 해결합니다. 이전에 몇 분이 걸렸던 것이 이제 몇 초가 걸립니다.

“이 기술 프레임워크는 비디오 생성 품질의 손실을 보장하면서 엔드투엔드 확산 생성의 추론 속도를 100배에서 200배까지 성공적으로 증가시켰습니다.” — TSAIL Lab 발표

성능 벤치마크

가속 이득은 다양한 하드웨어 구성에서 놀랍습니다:

GPU작업이전이후가속
RTX 50905초 비디오184초1.9초97배
RTX 4090/H100720p 비디오~1.2시간38초114배

이러한 숫자는 합성 벤치마크가 아닌 실제 생성 작업을 나타냅니다. 이전에 각 반복을 위해 몇 분을 기다렸던 크리에이터에게 이것은 창작 워크플로우를 변화시킵니다.

작동 방식

TurboDiffusion은 가속을 달성하기 위해 세 가지 핵심 기술을 결합합니다:

1. SageAttention

출력 품질을 희생하지 않고 어텐션 메커니즘—확산 모델의 가장 비용이 많이 드는 부분—에서 계산 오버헤드를 줄입니다.

2. 희소 선형 어텐션 (SLA)

고해상도 비디오 콘텐츠를 처리할 때 가장 중요한 기능에 계산을 집중하여 계산 비용을 크게 줄입니다.

3. 시간적 스텝 증류 (rCM)

확산 과정에서 샘플링 스텝 수를 크게 줄여 시각적 일관성을 유지하면서 비디오 생성이 극도로 낮은 계산 지연 시간을 달성할 수 있게 합니다.

중요한 이유

개별 크리에이터를 위해

  • 빠른 반복: 몇 분이 아닌 몇 초 만에 창작 아이디어 테스트
  • 낮은 하드웨어 장벽: 소비자 GPU가 이제 심각한 비디오 생성을 처리할 수 있음
  • 실시간 워크플로우: 대화형 비디오 생성 속도에 접근

기업을 위해

  • 비용 절감: 더 적은 GPU 시간 = 더 낮은 클라우드 컴퓨팅 비용
  • 확장성: 기존 인프라로 더 많은 콘텐츠 생성
  • 프로덕션 실행 가능성: AI 비디오가 대량 워크플로우에 실용적이 됨

AI 비디오 산업을 위해

이 오픈소스 출시는 빠른 AI 비디오 생성을 민주화합니다. 이전에는 속도 최적화가 Runway, Pika, OpenAI와 같은 회사가 보유한 독점적 이점이었습니다. 이제 누구나 유사한 가속을 구현할 수 있습니다.

TurboDiffusion 탐색

GitHub에서 오픈소스 프레임워크에 액세스

GitHub에서 보기 →

이용 가능한 모델 가중치

팀은 다양한 하드웨어 티어에 대해 최적화된 가중치를 출시했습니다:

하드웨어 클래스지원 GPU최적화
소비자RTX 4090, RTX 5090양자화된 가중치
산업용H100, A100전체 정밀도

양자화 및 비양자화 체계 모두 이용 가능하여 사용자가 특정 요구에 따라 속도와 품질의 균형을 맞출 수 있습니다.

시작하기

  1. GitHub에서 저장소 클론
  2. GPU에 적합한 모델 가중치 다운로드
  3. 환경에 대한 설정 지침 따르기
  4. 극적으로 줄어든 대기 시간으로 비디오 생성 시작

AI 비디오 도구에 의미하는 것

TurboDiffusion의 오픈소스 출시는 전체 AI 비디오 생태계 전반에 걸쳐 개발을 가속화할 수 있습니다:

  • Kling, Runway, Pika: 유사한 기술을 채택하거나 경쟁 압력에 직면할 수 있음
  • 오픈소스 모델: Stable Video Diffusion과 같은 프로젝트가 이러한 최적화를 통합할 수 있음
  • 새로운 애플리케이션: 실시간 AI 비디오 효과 및 라이브 스트리밍이 더 실현 가능해짐

우리가 주시하는 것: 주요 AI 비디오 플랫폼이 TurboDiffusion의 기술을 통합하는지, 그리고 오픈소스 커뮤니티가 이 기반 위에 얼마나 빠르게 구축하는지입니다.


출처


GenMediaLab 관련 기사

이 글이 도움이 되셨나요?