ديب سيك تكشف mHC لتدريب نماذج ذكاء اصطناعي أكثر استقرارًا
استهلت شركة ديب سيك الصينية عام 2026 بطرح منهجية تدريب جديدة للذكاء الاصطناعي تحمل اسم mHC، وسط توقعات بإحداثها تأثيرًا واسعًا على مستقبل نماذج الأساس وقدرتها على التوسع بكفاءة واستقرار.

تفاصيل الخبر
نشرت شركة DeepSeek ورقة بحثية جديدة تقترح أسلوبًا مبتكرًا لتدريب النماذج اللغوية الكبيرة، شارك في تأليفها مؤسس الشركة ليانغ وينفنغ، وتهدف إلى معالجة أحد أكبر تحديات تدريب النماذج المتقدمة.
- قدمت الورقة إطارًا تدريبيًا باسم Manifold-Constrained Hyper-Connections (mHC).
- يهدف الأسلوب إلى توسيع النماذج اللغوية دون التسبب في عدم استقرار التدريب أو انهياره.
- تعالج mHC مشكلة شائعة في أساليب Hyper-Connections التقليدية، حيث يؤدي توسيع قنوات تبادل المعلومات إلى تشويش وفقدان الاستقرار.
- تعتمد المنهجية على إسقاط الروابط الفائقة على مجال رياضي محدد للحفاظ على خاصية الهوية في الوصلات المتبقية.
- يوفر النهج الجديد مشاركة داخلية أغنى للمعلومات مع قيود محسوبة تقلل المخاطر الحاسوبية واستهلاك الذاكرة.
- أظهرت التجارب تحسنًا ملموسًا في الأداء وقابلية أعلى للتوسع عند التدريب على نطاق واسع.
- توقيت نشر البحث يتزامن مع استعداد الشركة لإطلاق نموذجها الرائد القادم R2.
الأهداف المستقبلية
من خلال mHC، تسعى ديب سيك إلى تحقيق مجموعة من الأهداف الاستراتيجية في سباق نماذج الأساس:
- تمكين تدريب نماذج أكبر دون التضحية بالاستقرار.
- خفض التكاليف الحاسوبية المصاحبة للتوسع.
- تحسين فهم تصميم البنى المعمارية العميقة للنماذج اللغوية.
- تقديم بديل عملي وقابل للتطبيق لأساليب Hyper-Connections الحالية.
- دعم الجيل القادم من نماذج الأساس عالية الكفاءة.
تطرح mHC نفسها كخطوة بحثية واعدة قد تعيد تشكيل طرق تدريب نماذج الذكاء الاصطناعي، وتمنح ديب سيك موقعًا متقدمًا في سباق تطوير نماذج الأساس القابلة للتوسع والاستقرار.
