Runway

Runway تطلق نموذج “Act‑Two” للتتبع الحركي عبر الـ API

أعلنت Runway عن إتاحة نموذجها الجديد Act‑Two الخاص بالتقاط الحركة (motion capture) عبر الـ API، مما يمكّن المطورين من دمجه مباشرة في التطبيقات والمواقع الإلكترونية.

تفاصيل الخبر

قدمت Runway نموذج Act‑Two، وهو نظام متطور للتقاط الحركة يدعم تتبع الرأس والوجه والجسم والأيدي بدقة عالية. الفكرة أنها تحول أي فيديو أداء إلى تحريك دقيق لشخصية مرجعية، دون الحاجة إلى معدات احترافية.

  • التكامل عبر API: أصبح بإمكان المطورين استدعاء Act‑Two داخل تطبيقات أو منصات أو مواقع مباشرةً.
  • التطبيق العملي: يتطلب فيديو أداء (driving performance) وصورة أو فيديو للشخصية المرجعية ليقوم بتحويل الحركة بسلاسة.
  • الدقة والجودة: يدعم تتبع الرأس والوجه والجسم والأيدي، ويضيف حركة بيئية تلقائية لنتيجة أكثر طبيعية.
  • التسعير: يستغرق 5 أرصدة (credits) لكل ثانية من الفيديو مع حد أقصى للتوليد يصل إلى 30 ثانية.

الأهداف المستقبلية

مع هذا الإطلاق، تستهدف Runway تحقيق عدة أهداف استراتيجية:

  • تعزيز تجربة التطوير: يتيح للمبرمجين دمج الحركة الذكية بشكل مرن في منتجاتهم.
  • الوصول إلى الأسواق الإبداعية: من الأفلام والألعاب إلى الواقع الافتراضي والإعلانات دون الحاجة لمعدات مكلفة.
  • تحفيز الابتكار: عبر مجتمع مطورين قادر على اختبار ميزات متقدمة مثل “gesture control”.
  • دعم سلسلة أدوات AI: يثبت Runway مكانته كمزود لحلول الذكاء الاصطناعي الشاملة عبر منصته وAPI.

فتح Runway لنموذج Act‑Two عبر الـ API يمثل نقلة نوعية في عالم إنشاء المحتوى. الآن، يمكن للمطورين والمبدعين دمج قدرات التقاط الحركة عالية الجودة مباشرة في أدواتهم، مما يجعل إنتاج الفيديو بأسلوب احترافي متاحًا للجميع بسهولة.

مقالات مشابهة