AI2 تطلق Olmo 3.1 كأقوى نموذج استدلال مفتوح المصدر
أعلن معهد Allen Institute for AI (AI2) عن إصدار Olmo 3.1، وهو تحديث رئيسي لعائلة نماذج Olmo مفتوحة المصدر، مع تأكيد المختبر أنه يمثل حاليًا أقوى نموذج استدلال مفتوح بالكامل من حيث الأوزان والبيانات ووصفات التدريب.

ما الجديد في Olmo 3.1
يأتي هذا الإصدار نتيجة توسيع كبير في التدريب بالتعزيز (RL) وتوسيع وصفات الضبط التعليمي، ما أتاح تحسينات واضحة في الأداء والاستقرار.
- Olmo 3.1 Think 32B:
- امتداد تدريب RL لمدة 21 يومًا إضافيًا مع دورات أكثر على مجموعة بيانات Dolci-Think-RL.
- تحسينات ملحوظة في الاختبارات المعيارية مقارنة بـ Olmo 3 Think 32B، شملت:
- +5 نقاط في AIME
- +4 نقاط في ZebraLogic
- +20 نقطة في IFBench
- يُصنَّف كأقوى نموذج استدلال مفتوح المصدر بالكامل حتى الآن.
- Olmo 3.1 Instruct 32B:
- أفضل نموذج تعليمي (instruction-tuned) مفتوح المصدر بحجم 32B من AI2.
- مُحسَّن للاستخدامات العملية مثل الدردشة، استخدام الأدوات، والحوار متعدد الجولات.
- يمثل قفزة كبيرة مقارنة بـ Olmo 3 Instruct 7B من حيث الجاهزية للتطبيقات الواقعية.
- نماذج RL-Zero 7B المطوّرة:
- إطلاق Olmo 3.1 RL Zero 7B Code وOlmo 3.1 RL Zero 7B Math.
- استفادت من تدريب أطول وأكثر استقرارًا، مع أداء أقوى وخطوط أساس أفضل للباحثين في مجال RL.
لماذا يُعد هذا الإصدار مهمًا؟
قبل تلخيص الأهمية، من الواضح أن AI2 تسعى إلى ترسيخ مفهوم “الانفتاح الكامل” في نماذج الاستدلال المتقدمة، وليس فقط فتح الأوزان.
- إتاحة التدفق الكامل للنموذج: الأوزان، البيانات، وصفات التدريب، والتقارير التقنية.
- توفير معيار قوي مفتوح المصدر لمهام الاستدلال المعقدة، الرياضيات، والبرمجة.
- دعم مجتمع الباحثين والمطورين بنماذج قابلة للبناء والتطوير دون قيود مغلقة.
- رفع سقف المنافسة بين النماذج المفتوحة والنماذج التجارية المغلقة في مجال الاستدلال.
في الختام، يمثل Olmo 3.1 خطوة كبيرة نحو نماذج استدلال مفتوحة المصدر قادرة على منافسة أفضل النماذج المغلقة، مع الحفاظ على الشفافية الكاملة التي تهم الباحثين والمطورين على حد سواء.
