Kling 3.0 ترتقي بفيديو الذكاء الاصطناعي بطول واتساق أعلى

أعلنت شركة Kling الصينية عن إطلاق الإصدار Kling 3.0 من نموذج توليد الفيديو بالذكاء الاصطناعي، مقدمة تحسينات كبيرة في طول المقاطع، واتساق الشخصيات والمشاهد، إلى جانب دمج الفيديو والصوت في نموذج متعدد الوسائط.

تفاصيل الخبر

كشفت Kling عن تحديث Kling 3.0 الذي يمثل نقلة نوعية في تقنيات توليد الفيديو بالذكاء الاصطناعي، حيث جرى دمج نماذج النص إلى فيديو، والصورة إلى فيديو، وتوليد الصوت في نظام موحد يركز على الاستخدام الإنتاجي الاحترافي.

  • يدعم الإصدار الجديد إنشاء مقاطع فيديو أصلية بطول يصل إلى 15 ثانية ضمن نموذج واحد.
  • إضافة وضع Multi-Shot الذي يولد زوايا تصوير متعددة تلقائيًا داخل المشهد الواحد.
  • تحسين كبير في الاتساق البصري، مع إمكانية تثبيت ملامح الشخصيات والعناصر عبر لقطات متعددة باستخدام صور أو فيديوهات مرجعية كـ anchors.
  • دعم توليد صوت مدمج يشمل استنساخ أصوات عدة شخصيات داخل المشهد نفسه.
  • توسيع اللغات المدعومة لإنتاج حوارات طبيعية متعددة اللغات.

حاليًا، يتوفر Kling 3.0 حصريًا لمشتركي فئة Ultra، مع خطط لإتاحة أوسع خلال الأسبوع المقبل، ما يعكس استراتيجية الإطلاق التدريجي للنماذج المتقدمة.

الأهداف المستقبلية

من خلال Kling 3.0، تسعى الشركة إلى ترسيخ موقعها في صدارة سوق فيديو الذكاء الاصطناعي:

  • الاقتراب أكثر من سير عمل الإنتاج الحقيقي بدل الاكتفاء بتجارب توليد قصيرة.
  • تمكين صناع المحتوى من التحكم بالسرد، الكاميرا، والصوت ضمن أداة واحدة.
  • تعزيز استخدام أدوات الـ storyboard لإنشاء مشاهد مترابطة وقصص متكاملة.
  • المنافسة المباشرة مع نماذج الفيديو الرائدة عالميًا على مستوى الجودة والاتساق.
  • دعم الاستخدام التجاري والسينمائي عبر أدوات أكثر احترافية وتحكمًا.

ورغم غياب اختبارات معيارية رسمية للإصدار 3.0 حتى الآن، تشير التحسينات المعلنة إلى اقتراب Kling خطوة إضافية من الجيل المتقدم لنماذج الفيديو.

يعكس إطلاق Kling 3.0 تحول نماذج الفيديو بالذكاء الاصطناعي من أدوات تجريبية إلى منصات إنتاج حقيقية، حيث لم يعد التحدي في توليد لقطة واحدة، بل في بناء قصة متماسكة بصريًا وصوتيًا.

مقالات مشابهة