Meta توسع محفظة شرائح MTIA لدعم أعمال الذكاء الاصطناعي
أعلنت شركة Meta عن خطط لتطوير ونشر أربع أجيال جديدة من شرائح MTIA المخصصة خلال العامين المقبلين، لتعزيز قدرات الترتيب والتوصيات، بالإضافة إلى دعم أحمال عمل الذكاء الاصطناعي التوليدي (GenAI).

تفاصيل الخبر
منذ 2023، طوّرت Meta شرائح Meta Training and Inference Accelerator (MTIA) المصممة خصيصًا لتحسين كفاءة أحمال عمل الذكاء الاصطناعي داخل تطبيقاتها، بما في ذلك المحتوى العضوي والإعلانات.
أبرز النقاط حول التوسع الجديد:
- تطوير أربع أجيال جديدة من شرائح MTIA (300، 400، 450، 500) لتعزيز أداء الترتيب، التوصيات، وأحمال GenAI، مع التركيز على GenAI inference.
- الاعتماد على تصميمات معيارية قابلة لإعادة الاستخدام، مما يسمح بإطلاق جيل جديد من الشرائح كل ستة أشهر أو أقل، أسرع من دورة صناعة الشرائح التقليدية.
- التركيز أولاً على أداء التنفيذ الفوري (inference) بدل التدريب الكبير، لضمان كفاءة أعلى وتكاليف أقل.
- توافق تام مع معايير الصناعة مثل PyTorch، vLLM، Triton، وOpen Compute Project، لضمان سهولة الدمج والتبني في مراكز البيانات.
- تبني استراتيجية محفظة شرائح لتلبية متطلبات أحمال العمل المتنوعة بدل الاعتماد على شريحة واحدة.
- استخدام شرائح MTIA ضمن بنية تحتية كاملة مخصصة، تحقق كفاءة حوسبة أعلى مقارنة بالشرائح العامة.
الأهداف المستقبلية
لضمان الاستفادة القصوى من توسع محفظة MTIA، تهدف Meta إلى:
- تسريع الابتكار في أحمال عمل الذكاء الاصطناعي المختلفة.
- تحسين الكفاءة والتكلفة في تشغيل التوصيات والذكاء الاصطناعي التوليدي.
- دعم البنية التحتية الحالية بمرونة أكبر لتسهيل التوسع السريع.
- تطوير أجيال شرائح مخصصة لكل نوع من أحمال العمل لضمان الأداء الأمثل.
- تعزيز ريادة الشركة في مجال الذكاء الاصطناعي الشخصي الفائق (personal superintelligence).
- دمج حلول معيارية ومتوافقة مع الصناعة لتسهيل تبنيها في مراكز البيانات العالمية.
تمثل استراتيجية Meta لتوسيع محفظة MTIA خطوة محورية لتعزيز البنية التحتية للذكاء الاصطناعي، مع التركيز على السرعة، الكفاءة، والتوافق مع معايير الصناعة.
