Tsinghua تفتح المصدر TurboDiffusion: توليد فيديو ذكاء اصطناعي أسرع 200 مرة
النقاط الرئيسية
- ✓ TurboDiffusion يسرع توليد فيديو الذكاء الاصطناعي 100-200 مرة مع فقدان جودة minimal
- ✓ توليد فيديو 5 ثوانٍ: 184 ثانية → 1.9 ثانية على RTX 5090
- ✓ فيديو 720p الذي استغرق 1.2 ساعة يكتمل الآن في 38 ثانية
- ✓ مصدر مفتوح مع أوزان محسّنة لـ RTX 4090 و RTX 5090 و H100 GPUs
- ✓ يستخدم SageAttention و sparse linear attention و temporal step distillation
ما الذي حدث
في 25 ديسمبر 2025، أطلقت مختبرات TSAIL في جامعة Tsinghua و Shengshu Technology بشكل مشترك TurboDiffusion، إطار عمل مفتوح المصدر يسرع بشكل كبير توليد فيديو الذكاء الاصطناعي مع الحفاظ على الجودة البصرية.
الاختراق يعالج أحد أكبر الحواجز لاعتماد فيديو الذكاء الاصطناعي: وقت التوليد. ما كان يستغرق دقائق الآن يستغرق ثوانٍ.
“إطار العمل التكنولوجي هذا زاد بنجاح سرعة الاستدلال لتوليد diffusion من طرف إلى طرف بمقدار 100 إلى 200 مرة مع ضمان عدم فقدان جودة توليد الفيديو.” — إعلان مختبر TSAIL
معايير الأداء
مكاسب التسريع ملحوظة عبر تكوينات الأجهزة المختلفة:
| GPU | المهمة | قبل | بعد | التسريع |
|---|---|---|---|---|
| RTX 5090 | فيديو 5 ثوانٍ | 184 ثانية | 1.9 ثانية | 97x |
| RTX 4090/H100 | فيديو 720p | ~1.2 ساعة | 38 ثانية | 114x |
هذه الأرقام تمثل مهام توليد في العالم الحقيقي، وليس معايير اصطناعية. للمنشئين الذين كانوا ينتظرون دقائق لكل تكرار، هذا يحول سير العمل الإبداعي.
كيف يعمل
يجمع TurboDiffusion ثلاث تقنيات رئيسية لتحقيق تسريعه:
1. SageAttention
يقلل من النفقات الحسابية في آليات الانتباه—الجزء الأكثر تكلفة في نماذج diffusion—دون التضحية بجودة المخرجات.
2. Sparse Linear Attention (SLA)
يقلل بشكل كبير التكلفة الحسابية عند معالجة محتوى فيديو عالي الدقة من خلال التركيز على الحوسبة على الميزات الأكثر أهمية.
3. Temporal Step Distillation (rCM)
يقلل بشكل كبير عدد خطوات أخذ العينات في عملية diffusion، مما يسمح لتوليد الفيديو بتحقيق زمن انتقال حسابي منخفض للغاية مع الحفاظ على الاتساق البصري.
لماذا هذا مهم
للمنشئين الأفراد
- تكرار سريع: اختبر الأفكار الإبداعية في ثوانٍ، وليس دقائق
- حواجز أجهزة أقل: GPUs المستهلكين يمكنها الآن التعامل مع توليد فيديو جدي
- سير عمل في الوقت الفعلي: اقترب من سرعات توليد فيديو تفاعلية
للمؤسسات
- تقليل التكلفة: وقت GPU أقل = تكاليف حوسبة سحابية أقل
- قابلية التوسع: أنشئ المزيد من المحتوى مع البنية التحتية الموجودة
- جدوى الإنتاج: فيديو الذكاء الاصطناعي يصبح عمليًا لسير عمل عالي الحجم
لصناعة فيديو الذكاء الاصطناعي
هذا الإصدار مفتوح المصدر يديمقراطي توليد فيديو ذكاء اصطناعي سريع. سابقًا، تحسينات السرعة كانت مزايا مملوكة محفوظة لشركات مثل Runway و Pika و OpenAI. الآن يمكن لأي شخص تنفيذ تسريع مماثل.
أوزان النموذج المتاحة
الفريق أطلق أوزانًا محسّنة لمستويات أجهزة مختلفة:
| فئة الأجهزة | GPUs المدعومة | التحسين |
|---|---|---|
| المستهلك | RTX 4090 و RTX 5090 | أوزان كمية |
| الصناعي | H100 و A100 | دقة كاملة |
كل من المخططات الكمية وغير الكمية متاحة، مما يسمح للمستخدمين بموازنة السرعة والجودة بناءً على احتياجاتهم المحددة.
البدء
- استنسخ المستودع من GitHub
- حمّل أوزان النموذج المناسبة لـ GPU الخاص بك
- اتبع تعليمات الإعداد لبيئتك
- ابدأ توليد فيديوهات بأوقات انتظار مخفضة بشكل كبير
ما يعنيه هذا لأدوات فيديو الذكاء الاصطناعي
إصدار TurboDiffusion مفتوح المصدر يمكن أن يسرع التطوير عبر نظام فيديو الذكاء الاصطناعي بأكمله:
- Kling و Runway و Pika: قد تعتمد تقنيات مماثلة أو تواجه ضغطًا تنافسيًا
- النماذج مفتوحة المصدر: مشاريع مثل Stable Video Diffusion يمكنها دمج هذه التحسينات
- تطبيقات جديدة: تأثيرات فيديو ذكاء اصطناعي في الوقت الفعلي والبث المباشر تصبح أكثر قابلية للتطبيق
ما نراقبه: ما إذا كانت منصات فيديو الذكاء الاصطناعي الرئيسية تدمج تقنيات TurboDiffusion، ومدى سرعة بناء مجتمع المصدر المفتوح على هذا الأساس.
المصادر
- AIBase: Tsinghua تفتح المصدر TurboDiffusion - 25 ديسمبر 2025
- GitHub: مستودع TurboDiffusion