OpenAI

OpenAI تطلق نموذجًا مفتوحًا بوزن أقل لحماية الأمن العالمي

أعلنت شركة OpenAI أنها ستصدر نموذجًا مفتوح المصدر بجيل أقل من نماذجها المتقدمة، لحماية الأمن السيبراني وتأكيد القيادة الأميركية في الذكاء الاصطناعي.

تفاصيل الإعلان

ضمن منتدى Hill & Valley بواشنطن، كشف كيفن ويل، كبير مسؤولي المنتجات في OpenAI، النقاط التالية:

  • النموذج الجديد سيكون بجيل أقل من النماذج الرائدة (frontier models) التي تحتفظ بها OpenAI.
  • سيتم بناء النموذج وفق “القيم الديمقراطية” لتأمين قيادة أميركية في المشهد المفتوح المصدر.
  • تهدف هذه الخطوة إلى منع الدول المنافسة، خاصة الصين، من استخدام تقنيات قد تسرّع تطوير الذكاء الاصطناعي العدائي.

التفاصيل الفنية والاستراتيجية

لضمان الشفافية دون التفريط في الأمن، وضعت الشركة معايير دقيقة لتحديد طبيعة النموذج المفتوح وتوزيعه.

  • الترخيص: سيكون متاحًا كـ open-weights مع ضبط الاستخدام وفق ترخيص خاص بـ OpenAI.
  • الموازنة بين الانفتاح والحماية: النماذج المفتوحة ستكون أصغر وأقل تطورًا، في حين تبقى النماذج المتقدمة مغلقة المصدر.
  • الهدف الأمني: القرار مدفوع باعتبارات الأمن السيبراني ومصالح السياسة التقنية الأميركية.
  • موقع النموذج: يمثل هذا النموذج بديلاً موثوقًا لدول ومؤسسات تفضل الالتزام بالقيم الغربية دون المجازفة الأمنية.

الأهداف المستقبلية

نسعى OpenAI إلى:

  • تعزيز الثقة العالمية في النماذج الأميركية كخيار آمن وشفاف لبناء تطبيقات الذكاء الاصطناعي.
  • تحقيق توازن بين الشفافية والتفوق التقني دون تسريع سباق التسلح التكنولوجي.
  • خلق بيئة مفتوحة تحترم القيم الغربية وتمنع استغلالها في تطوير ذكاء اصطناعي عدائي.

بهذه السياسة، تؤكد الشركة التزامها بتطوير ذكاء اصطناعي مسؤول، مفتوح بما يكفي لتعزيز التعاون، لكنه محسوب لحماية المصالح الأمنية العالمية.

مقالات مشابهة