Luma Labs AI

Luma Labs تطلق API لحركات كاميرا ذكية في Ray2 للفيديوهات

أعلنت Luma Labs عن واجهة برمجة تطبيقات جديدة تتيح للمطورين دمج حركات كاميرا مدعومة بالذكاء الاصطناعي في تطبيقاتهم باستخدام نموذج Ray2.

ميزات واجهة برمجة التطبيقات الجديدة

ميزات Ray2 من Luma Labs في الواجهة البرمجية الجديدة:

  • حركات قابلة للتخصيص: تعلم وتطبيق حركات كاميرا مخصصة من أمثلة بسيطة.
  • تحكم باللغة الطبيعية: أوامر نصية لإنشاء حركات مثل “سحب للخارج + إمالة”.
  • زوايا سينمائية دقيقة: دعم لزوايا مثل منظور الشخص الأول واللقطة المنخفضة.
  • تكامل سلس مع Ray2: متوافق مع جميع قدرات تحرير وتحويل الفيديو الحالية.
  • تشغيل مرن: عبر السحابة (مثل Amazon Bedrock) أو محلياً باستخدام Dream Machine API.

خطوات تكامل المطورين

للبدء، يحتاج المطورون إلى:

  1. التسجيل في Dream Machine API.
  2. استدعاء نقطة نهاية Camera Motion Concepts.
  3. دمج نتائج الحركة في واجهة المستخدم أو خطوط المعالجة الخاصة بالتطبيق.

حالات استخدام مقترحة

  • العروض الترويجية: إنتاج فيديوهات سينمائية من دون معدات.
  • الألعاب والواقع الافتراضي: تعزيز الانغماس بحركات كاميرا واقعية.
  • التعليم والمحاكاة: توضيح العمليات من زوايا متعددة تلقائياً.

تقدم Luma Labs أداة Ray2 القوية لتطوير الفيديوهات الذكية عبر التحكم الدقيق في الكاميرا باستخدام الذكاء الاصطناعي. ومع توسعها في مزايا إضافية قريباً، تفتح هذه الواجهة آفاقاً جديدة للإبداع البصري للمطورين وصناع المحتوى.

مقالات مشابهة