Tsinghua تفتح المصدر TurboDiffusion: توليد فيديو ذكاء اصطناعي أسرع 200 مرة

بقلم GenMediaLab 4 دقائق للقراءة
إطار عمل تسريع توليد فيديو TurboDiffusion AI

النقاط الرئيسية

  • TurboDiffusion يسرع توليد فيديو الذكاء الاصطناعي 100-200 مرة مع فقدان جودة minimal
  • توليد فيديو 5 ثوانٍ: 184 ثانية → 1.9 ثانية على RTX 5090
  • فيديو 720p الذي استغرق 1.2 ساعة يكتمل الآن في 38 ثانية
  • مصدر مفتوح مع أوزان محسّنة لـ RTX 4090 و RTX 5090 و H100 GPUs
  • يستخدم SageAttention و sparse linear attention و temporal step distillation

ما الذي حدث

في 25 ديسمبر 2025، أطلقت مختبرات TSAIL في جامعة Tsinghua و Shengshu Technology بشكل مشترك TurboDiffusion، إطار عمل مفتوح المصدر يسرع بشكل كبير توليد فيديو الذكاء الاصطناعي مع الحفاظ على الجودة البصرية.

الاختراق يعالج أحد أكبر الحواجز لاعتماد فيديو الذكاء الاصطناعي: وقت التوليد. ما كان يستغرق دقائق الآن يستغرق ثوانٍ.

“إطار العمل التكنولوجي هذا زاد بنجاح سرعة الاستدلال لتوليد diffusion من طرف إلى طرف بمقدار 100 إلى 200 مرة مع ضمان عدم فقدان جودة توليد الفيديو.” — إعلان مختبر TSAIL

معايير الأداء

مكاسب التسريع ملحوظة عبر تكوينات الأجهزة المختلفة:

GPUالمهمةقبلبعدالتسريع
RTX 5090فيديو 5 ثوانٍ184 ثانية1.9 ثانية97x
RTX 4090/H100فيديو 720p~1.2 ساعة38 ثانية114x

هذه الأرقام تمثل مهام توليد في العالم الحقيقي، وليس معايير اصطناعية. للمنشئين الذين كانوا ينتظرون دقائق لكل تكرار، هذا يحول سير العمل الإبداعي.

كيف يعمل

يجمع TurboDiffusion ثلاث تقنيات رئيسية لتحقيق تسريعه:

1. SageAttention

يقلل من النفقات الحسابية في آليات الانتباه—الجزء الأكثر تكلفة في نماذج diffusion—دون التضحية بجودة المخرجات.

2. Sparse Linear Attention (SLA)

يقلل بشكل كبير التكلفة الحسابية عند معالجة محتوى فيديو عالي الدقة من خلال التركيز على الحوسبة على الميزات الأكثر أهمية.

3. Temporal Step Distillation (rCM)

يقلل بشكل كبير عدد خطوات أخذ العينات في عملية diffusion، مما يسمح لتوليد الفيديو بتحقيق زمن انتقال حسابي منخفض للغاية مع الحفاظ على الاتساق البصري.

لماذا هذا مهم

للمنشئين الأفراد

  • تكرار سريع: اختبر الأفكار الإبداعية في ثوانٍ، وليس دقائق
  • حواجز أجهزة أقل: GPUs المستهلكين يمكنها الآن التعامل مع توليد فيديو جدي
  • سير عمل في الوقت الفعلي: اقترب من سرعات توليد فيديو تفاعلية

للمؤسسات

  • تقليل التكلفة: وقت GPU أقل = تكاليف حوسبة سحابية أقل
  • قابلية التوسع: أنشئ المزيد من المحتوى مع البنية التحتية الموجودة
  • جدوى الإنتاج: فيديو الذكاء الاصطناعي يصبح عمليًا لسير عمل عالي الحجم

لصناعة فيديو الذكاء الاصطناعي

هذا الإصدار مفتوح المصدر يديمقراطي توليد فيديو ذكاء اصطناعي سريع. سابقًا، تحسينات السرعة كانت مزايا مملوكة محفوظة لشركات مثل Runway و Pika و OpenAI. الآن يمكن لأي شخص تنفيذ تسريع مماثل.

استكشف TurboDiffusion

الوصول إلى إطار العمل مفتوح المصدر على GitHub

عرض على GitHub →

أوزان النموذج المتاحة

الفريق أطلق أوزانًا محسّنة لمستويات أجهزة مختلفة:

فئة الأجهزةGPUs المدعومةالتحسين
المستهلكRTX 4090 و RTX 5090أوزان كمية
الصناعيH100 و A100دقة كاملة

كل من المخططات الكمية وغير الكمية متاحة، مما يسمح للمستخدمين بموازنة السرعة والجودة بناءً على احتياجاتهم المحددة.

البدء

  1. استنسخ المستودع من GitHub
  2. حمّل أوزان النموذج المناسبة لـ GPU الخاص بك
  3. اتبع تعليمات الإعداد لبيئتك
  4. ابدأ توليد فيديوهات بأوقات انتظار مخفضة بشكل كبير

ما يعنيه هذا لأدوات فيديو الذكاء الاصطناعي

إصدار TurboDiffusion مفتوح المصدر يمكن أن يسرع التطوير عبر نظام فيديو الذكاء الاصطناعي بأكمله:

  • Kling و Runway و Pika: قد تعتمد تقنيات مماثلة أو تواجه ضغطًا تنافسيًا
  • النماذج مفتوحة المصدر: مشاريع مثل Stable Video Diffusion يمكنها دمج هذه التحسينات
  • تطبيقات جديدة: تأثيرات فيديو ذكاء اصطناعي في الوقت الفعلي والبث المباشر تصبح أكثر قابلية للتطبيق

ما نراقبه: ما إذا كانت منصات فيديو الذكاء الاصطناعي الرئيسية تدمج تقنيات TurboDiffusion، ومدى سرعة بناء مجتمع المصدر المفتوح على هذا الأساس.


المصادر


مقالات ذات صلة على GenMediaLab

هل كانت هذه المقالة مفيدة؟