Nvidia تطلق نموذج Nemotron Nano 2: قوة استدلالية بحجم صغير
أعلنت Nvidia عن إطلاق نموذج Nemotron Nano 2، الذي يتراوح حجمه بين 9 إلى 12 مليار معلمة، ويتميز بقدرته على إجراء استدلالات قوية بسرعة تصل إلى 6 مرات أسرع مقارنة بالنماذج المماثلة.

تفاصيل الخبر
يُعد Nemotron Nano 2 جزءًا من عائلة نماذج Mamba-Transformer الهجينة، التي تم تطويرها لتوفير استدلال عالي الكفاءة على الأجهزة الطرفية. تم تدريب النموذج الأساسي بحجم 12 مليار معلمة على 20 تريليون رمز باستخدام دقة FP8، ثم تم تقليصه إلى نموذج 9 مليار معلمة لتحقيق توازن بين الأداء وحجم الذاكرة.
يتميز النموذج بقدرته على معالجة تسلسلات تصل إلى 128,000 رمز، مما يجعله مناسبًا لمهام الاستدلال المعقدة. عند مقارنته بنماذج مفتوحة أخرى بحجم مشابه، مثل Qwen3-8B، أظهر Nemotron Nano 9B-v2 دقة متساوية أو أفضل مع زيادة في سرعة الاستدلال تصل إلى 6 مرات في سيناريوهات الإدخال/الإخراج الكبيرة.
بالإضافة إلى ذلك، يوفر النموذج ميزة التبديل بين وضع الاستدلال والتفاعل العادي باستخدام رموز تحكم مثل /think
و/no_think
، مما يتيح للمستخدمين التحكم في سلوك النموذج أثناء التفاعل.
الأهداف المستقبلية
تسعى Nvidia من خلال Nemotron Nano 2 إلى:
- توفير نموذج استدلالي عالي الأداء يمكن تشغيله على الأجهزة الطرفية مثل NVIDIA A10G.
- تمكين التطبيقات التي تتطلب معالجة تسلسلات طويلة، مثل أنظمة الاسترجاع المدعومة بالذكاء الاصطناعي ومساعدات البرمجة.
- دعم مجتمع البحث والتطوير من خلال توفير النموذج والبيانات المستخدمة في تدريبه بشكل مفتوح المصدر على منصة Hugging Face.
يُعتبر Nemotron Nano 2 خطوة مهمة نحو توفير نماذج استدلالية قوية وقابلة للتنفيذ على الأجهزة الطرفية، مما يفتح آفاقًا جديدة لتطبيقات الذكاء الاصطناعي في بيئات محدودة الموارد.