Qualcomm

كوالكوم تكشف عن رقاقتي AI200 وAI250 لتطوير مراكز البيانات

أعلنت شركة كوالكوم عن رقاقتين جديدتين مخصصتين لمراكز البيانات، تحملان اسم AI200 وAI250، والمقرر طرحهما تجارياً عامي 2026 و2027 لتعزيز أداء تطبيقات الذكاء الاصطناعي وخفض التكاليف التشغيلية للمؤسسات.

تفاصيل الخبر

كشفت شركة كوالكوم تكنولوجيز عن جيل جديد من رقاقات الذكاء الاصطناعي المصممة لتسريع عمليات الاستدلال (Inference) في مراكز البيانات، ضمن خطتها السنوية لتطوير معالجات متقدمة تدعم التحول الرقمي الذكي على نطاق واسع.
يأتي هذا الإعلان في إطار سعي الشركة لرفع كفاءة المعالجة وتوسيع قدرات الذاكرة وتحقيق أفضل أداء ممكن بأقل استهلاك للطاقة.

أبرز التفاصيل:

  • رقاقتا AI200 وAI250 مصممتان لتقديم أداء على مستوى الرفوف (Rack-Scale Performance) بمعايير كفاءة عالية.
  • AI200 تدعم سعة ذاكرة تصل إلى 768 جيجابايت لكل بطاقة، ما يسمح بتشغيل النماذج اللغوية الكبيرة (LLM) والنماذج متعددة الوسائط بكفاءة.
  • AI250 تقدم قفزة جيلية في البنية المعمارية للذاكرة عبر تقنية Near-Memory Computing، ما يزيد من عرض النطاق الترددي الفعّال بأكثر من 10 أضعاف ويقلل استهلاك الطاقة.
  • كلا الرقاقتين تدعمان أطر وأدوات الذكاء الاصطناعي الشائعة، وتقدمان بيئة برمجية غنية تشمل مكتبة Efficient Transformers وواجهة AI Inference Suite.
  • تصميم مزوّد بتبريد سائل مباشر، ودعم PCIe وEthernet، مع قدرة استهلاك طاقة تصل إلى 160 كيلواط لكل رف.

الأهداف المستقبلية

تركز كوالكوم على بناء خارطة طريق سنوية لتطوير معالجات مراكز البيانات، وتهدف إلى:

  • رفع كفاءة الاستدلال في الذكاء الاصطناعي مع خفض التكلفة الإجمالية للملكية (TCO).
  • تعزيز الأمان والمرونة في تشغيل النماذج التوليدية الضخمة داخل مراكز البيانات.
  • تمكين المؤسسات من دمج وتوسيع تطبيقات الذكاء الاصطناعي بسهولة عبر بيئة مفتوحة وداعمة للأطر الحديثة.
  • توسيع منظومتها البرمجية لتسهيل نشر النماذج وتحديثها بنقرة واحدة.

تواصل كوالكوم مسيرتها نحو ترسيخ موقعها كأحد أبرز اللاعبين في بنية الذكاء الاصطناعي التحتية، حيث تمثل رقاقتا AI200 وAI250 خطوة كبيرة نحو مراكز بيانات أكثر ذكاءً وكفاءة واستدامة.

مقالات مشابهة