OpenAI وGoogle تعتمد على TPUs من لتشغيل ChatGPT لأول مرة
في خطوة غير مسبوقة، بدأت OpenAI باستخدام رقائق TPUs من Google بدلاً من اعتمادها الحصري على Nvidia، في تحول قد يعيد تشكيل مستقبل البنية التحتية للذكاء الاصطناعي.

تعاون مفاجئ بين OpenAI وGoogle في البنية التحتية للذكاء الاصطناعي
كشفت وكالة Reuters عن شراكة تقنية جديدة بين OpenAI وGoogle Cloud، حيث بدأت OpenAI باستخدام معالجات TPUs (Tensor Processing Units) التابعة لـ Google لتشغيل نماذج ChatGPT ومنتجاتها الأخرى. وتُعد هذه الخطوة أول توسع حقيقي لـ OpenAI خارج منظومة Nvidia وMicrosoft.
تفاصيل التعاون:
- تحوّل استراتيجي من Nvidia:
لطالما اعتمدت OpenAI على وحدات معالجة الرسومات (GPUs) من Nvidia، لكن استخدامها الآن لـ TPUs يمثل أول استخدام كبير لمعالجات غير تابعة لـ Nvidia. - خفض تكلفة الاستدلال:
يُعتقد أن TPUs توفر أداء عاليًا بكلفة أقل، مما يساعد OpenAI على تحسين الكفاءة المالية، خاصة في مرحلة استدعاء النماذج (Inference). - شراكة بين منافسين:
التعاون يُعتبر مفاجئًا نظرًا للمنافسة الشديدة بين Google وOpenAI في مجال الذكاء الاصطناعي، إلا أن المصالح التقنية والاستراتيجية غلبت المنافسة. - قيود محددة من Google:
بحسب تقرير The Information، لم توفر Google لـ OpenAI أقوى أجيال TPUs لديها، ما يشير إلى علاقة مدروسة بدقة بين الطرفين.
الأهداف المستقبلية من هذا التوجه الجديد
تشير هذه الخطوة إلى تحول في الاستراتيجية التقنية لدى OpenAI، نحو تنويع المصادر وتخفيض الاعتماد على مزوّد واحد.
- تحييد المخاطر المرتبطة بمورد واحد مثل Nvidia أو Microsoft.
- الاستفادة من أسعار تنافسية وأداء عالٍ توفره TPUs من Google.
- فتح الباب أمام بنى تحتية هجينة أكثر مرونة واستدامة.
- تحقيق استقلالية جزئية في تشغيل النماذج وتوزيع الموارد.
يمثل اعتماد OpenAI وGoogle على TPUs نقطة تحول استراتيجية في سباق الذكاء الاصطناعي، ويعكس نضوج السوق باتجاه نماذج بنية تحتية متعددة المصادر، ما قد يؤثر مستقبلاً على خارطة المنافسة بين عمالقة التقنية.
