أكثر من 90% لا يميزون فيديوهات AI عن الواقع وفق Runway
أظهرت دراسة حديثة من Runway أن أكثر من 90% من المشاركين لم يستطيعوا تمييز الفيديوهات الحقيقية عن تلك المولدة بواسطة الذكاء الاصطناعي باستخدام نموذج Gen-4.5، مما يمثل نقطة تحول كبيرة في قدرة الذكاء الاصطناعي على محاكاة الواقع.

تفاصيل الخبر
Runway أجرت تجربة على أكثر من ألف مشارك، حيث شاهد كل منهم 20 مقطع فيديو قصير لمدة خمس ثوانٍ وحاول تحديد أي المقاطع مولدة بالذكاء الاصطناعي. النتائج أظهرت صعوبة مذهلة في التمييز بين الفيديوهات الأصلية والمولدة.
أبرز نتائج التجربة:
- فقط 99 مشاركاً تمكنوا من تحقيق دقة 75% أو أكثر في التمييز بين الفيديوهات.
- مشاهد الطبيعة والمباني كانت الأصعب في التقييم، حيث كانت النسخ المولدة أكثر إقناعاً من الفيديوهات الحقيقية.
- نموذج Gen-4.5 يحتل حالياً الصدارة في تصنيفات التحليل الاصطناعي للفيديوهات المولدة من الصور.
- Runway طرحت هذا الأسبوع الميزات الجديدة لتحويل الصور إلى فيديو، مما يعزز مستوى الواقعية بشكل كبير.
- الشركة وصفت هذه التقنية بأنها “نقطة التحول المجتمعية” في الإعلام المعتمد على الذكاء الاصطناعي.
أهمية هذه النتائج تكمن في أنها تشير إلى أن الفيديوهات منخفضة الجودة يمكن أن تخدع المشاهدين بالفعل، وأن تقنيات مثل Gen-4.5 تجعل من الصعب جداً الاعتماد على ما نراه كحقيقة مطلقة.
الأهداف المستقبلية
تشمل خطوات Runway المستقبلية وخططها لتطوير تقنيات الفيديو المولدة بالذكاء الاصطناعي:
- تحسين دقة النموذج لتوليد محتوى أكثر سلاسة وواقعية.
- تقديم أدوات تعليمية للمستخدمين لمساعدتهم على التعرف على الفيديوهات المولدة.
- تعزيز معايير التحقق والمصداقية في المحتوى الرقمي.
- دمج تقنيات الذكاء الاصطناعي في الإنتاج الإعلامي بطريقة أخلاقية وآمنة.
- استكشاف استخدامات تجارية للإنتاج السريع للفيديوهات الواقعية في التسويق والإعلانات.
- دراسة تأثير انتشار الفيديوهات المولدة على الإعلام والمجتمع لضمان التوعية والتثقيف.
تؤكد دراسة Runway أن القدرة على محاكاة الواقع عبر الذكاء الاصطناعي وصلت إلى مستوى يصعب اكتشافه، ما يطرح تحديات كبيرة أمام الإعلام والمجتمع في التمييز بين الحقيقة والمحاكاة.
