إطلاق GLM-4.7-Flash نموذج 30B سريع ينافس الكبار

أعلنت Z AI عن إطلاق GLM-4.7-Flash، وهو نموذج مفتوح المصدر يركز على السرعة والكفاءة، ليقدّم أداءً متقدماً ضمن فئة 30 مليار معلمة، ويمنح المطورين خياراً عملياً للنشر الخفيف دون التضحية بالقوة.

تفاصيل الخبر

يأتي GLM-4.7-Flash كنموذج MoE بحجم 30B-A3B، ويُصنّف كأقوى نموذج في فئته من حيث التوازن بين الأداء والكفاءة، ما يجعله مناسباً لسيناريوهات الإنتاج والنشر المحلي.

  • حقق أداءً متقدماً في اختبارات AIME 25 بنتيجة 91.6، متقارباً مع نماذج أكبر حجماً.
  • تفوق بوضوح في SWE-bench Verified مسجلاً 59.2، مقابل 22.0 و34.0 لمنافسين مباشرين.
  • أظهر نتائج قوية في τ²-Bench وBrowseComp، ما يعكس كفاءته في المهام متعددة الخطوات والتصفح.
  • يتيح إعدادات مرنة للتقييم تشمل سياقات طويلة تصل إلى 131 ألف توكن في الإعدادات الافتراضية.
  • يدعم النشر المحلي عبر أطر vLLM وSGLang، مع تكامل مباشر مع Transformers من Hugging Face.

الأهداف المستقبلية

يعكس إطلاق GLM-4.7-Flash توجهاً واضحاً نحو نماذج أخف وأكثر كفاءة دون الاعتماد على أحجام ضخمة.

  • تمكين الشركات من تشغيل نماذج قوية محلياً بتكلفة أقل.
  • تسريع تبني الذكاء الاصطناعي المفتوح المصدر في البيئات الإنتاجية.
  • تقليل الفجوة بين النماذج التجارية المغلقة والنماذج المفتوحة.
  • دعم سيناريوهات الوكلاء الذكيين والمهام طويلة المدى بكفاءة أعلى.
  • تعزيز المنافسة في فئة النماذج المتوسطة الحجم ذات الأداء العالي.

مع GLM-4.7-Flash، تؤكد Z AI أن الابتكار لا يرتبط دائماً بالحجم الأكبر، بل بالتصميم الذكي الذي يجمع بين السرعة، الكفاءة، وقوة الأداء، ما يجعله خياراً لافتاً في مشهد النماذج المفتوحة.

مقالات مشابهة