Cohere تكشف عن نموذج Aya Vision متعدد اللغات بقدرات متطورة
أعلنت Cohere For AI عن إطلاق Aya Vision، وهو نموذج ذكاء اصطناعي متعدد الوسائط قادر على معالجة الصور والنصوص بـ 23 لغة، مما يجعله من بين أكثر النماذج شمولًا حتى الآن.

تفاصيل الخبر
كشفت Cohere أن Aya Vision يقدم أداءً استثنائيًا في فهم وتحليل المحتوى البصري متعدد اللغات.
- يتوفر النموذج بحجمين: 8B و 32B، حيث يتفوق Aya Vision 8B على نماذج أكبر منه بعشرة أضعاف، بينما يتجاوز 32B نماذج مثل Llama-3.2 90B Vision.
- يدعم قدرات مثل وصف الصور، الإجابة على الأسئلة البصرية، وترجمة المحتوى المرئي بين لغات متعددة، منها العربية والفيتنامية.
- تم إصداره بترخيص CC غير تجاري، وهو متاح عبر Kaggle، Hugging Face، وWhatsApp.
- أطلقت Cohere أيضًا معيار Aya Vision Benchmark، الذي يقيّم أداء نماذج الذكاء الاصطناعي في التعامل مع السيناريوهات الواقعية متعددة اللغات.
الأهداف المستقبلية
تهدف Cohere For AI من إطلاق Aya Vision:
- توسيع نطاق دعم اللغات لضمان تغطية أكبر لاحتياجات المستخدمين عالميًا.
- تحسين دقة الترجمة البصرية لتوفير تجارب أكثر سلاسة وفائدة.
- تعزيز الشفافية والانفتاح عبر إتاحة النموذج للباحثين والمطورين لتحسينه.
- تمكين المستخدمين غير الناطقين بالإنجليزية من الاستفادة من قدرات الذكاء الاصطناعي المتقدم.
يمثل Aya Vision خطوة كبيرة نحو دمج الذكاء الاصطناعي في فهم وتحليل المحتوى البصري متعدد اللغات، مما يفتح آفاقًا جديدة لمستقبل التفاعل بين البشر والذكاء الاصطناعي عالميًا.