Google تشارك Marvell لتطوير شرائح AI بديلة لتقنيات Broadcom
تعمل Google على تطوير جيل جديد من شرائح الذكاء الاصطناعي بالتعاون مع شركة Marvell Technology، في خطوة تهدف إلى تعزيز قدراتها في مجال الاستدلال (AI inference) وتقليل اعتمادها الطويل على Broadcom في تصميم شرائح TPU.

تفاصيل الخبر
وفق تقارير صناعية، تشمل الخطة تطوير شريحتين رئيسيتين موجهتين لتسريع عمليات الذكاء الاصطناعي داخل مراكز البيانات:
- وحدة معالجة ذاكرة (Memory Processing Unit) تعمل بجانب شرائح TPU الحالية
- شريحة TPU جديدة مخصصة لتحسين أداء نماذج الذكاء الاصطناعي أثناء التشغيل (inference)
- الهدف هو تحسين كفاءة تشغيل النماذج الكبيرة وتقليل التكلفة والاعتماد على مزود واحد
- التعاون مع Marvell قد يضيف شريكاً ثالثاً إلى سلسلة تصميم شرائح Google
كما أن هذا التوجه يأتي ضمن استراتيجية أوسع من Google لتوسيع منظومة شرائحها الخاصة بدلاً من الاعتماد على طرف واحد في التصميم والتطوير.
لماذا هذا مهم
التحرك يعكس تغيّراً في سوق شرائح الذكاء الاصطناعي، حيث تسعى شركات التقنية الكبرى إلى بناء قدرات داخلية أقوى لمنافسة هيمنة Nvidia وتقليل المخاطر في سلاسل التوريد.
- تعزيز استقلالية Google في تصميم شرائح AI
- زيادة كفاءة تشغيل نماذج الذكاء الاصطناعي في مراكز البيانات
- تقليل التكاليف المرتبطة بالاعتماد على شركاء خارجيين
- تسريع الابتكار في شرائح inference بدل الاعتماد على حلول عامة
الأهداف المستقبلية
تشير هذه الخطوة إلى اتجاه طويل المدى داخل Google نحو بناء بنية تحتية أكثر تكاملاً للذكاء الاصطناعي:
- تطوير جيل جديد من TPUs أكثر تخصصاً للاستدلال
- تنويع شركاء التصميم لتقليل المخاطر التشغيلية
- تعزيز المنافسة في سوق شرائح الذكاء الاصطناعي أمام Nvidia
- تحسين الأداء السحابي في خدمات مثل Google Cloud
- دعم توسع تطبيقات الذكاء الاصطناعي التوليدي على نطاق واسع
في المجمل، يعكس هذا التحرك أن المنافسة في الذكاء الاصطناعي لم تعد فقط على مستوى النماذج البرمجية، بل أصبحت معركة مباشرة على “عصب الحوسبة” نفسه: تصميم الشرائح والبنية التحتية التي تشغل هذه النماذج.
