OpenAI

OpenAI تُحدّث إطار الاستعداد لمواجهة مخاطر الذكاء الاصطناعي

في تحديث جديد، كشفت شركة OpenAI عن إطار عمل محدث للاستعداد لمخاطر الذكاء الاصطناعي المتقدم، مع تركيز أوضح على تقييم القدرات الخطرة ووضع الضوابط الواقعية.

تفاصيل الخبر

أعلنت شركة OpenAI عن تحديث مهم في إطار الاستعداد Preparedness Framework، الذي يُستخدم لتتبع وتحليل قدرات الذكاء الاصطناعي المتقدمة والتعامل مع مخاطرها المحتملة. هذا التحديث يركز على كيفية حماية المجتمعات من الأضرار الجسيمة التي قد تنجم عن تقنيات الذكاء الاصطناعي المستقبلية.

أبرز ما جاء في التحديث:

  • معايير صارمة لتحديد القدرات عالية الخطورة:
    • يتم التقييم بناءً على خمسة معايير: أن يكون الخطر محتمل، قابل للقياس، شديد، جديد، وفوري أو لا يمكن معالجته.
  • فئات محدثة للقدرات:
    • فئات تتبع Tracked Categories: تشمل القدرات البيولوجية والكيميائية، والأمن السيبراني، وقدرات تحسين الذكاء الاصطناعي ذاتيًا.
    • فئات بحثية Research Categories: مثل الاستقلالية طويلة المدى، والتقليل المتعمد للأداء (Sandbagging)، والتكرار الذاتي، وتجاوز أدوات الحماية، والقدرات النووية والإشعاعية.
  • تصنيفات مبسطة للمستويات:
    • مستوى “مرتفع” High: قد يُضخم طرق الضرر المعروفة ويتطلب ضمانات قبل النشر.
    • مستوى “حرج” Critical: قد يُحدث مسارات ضرر غير مسبوقة ويتطلب ضمانات أثناء التطوير.
  • تقارير جديدة:
    • تقارير القدرات لتحديد متى تتجاوز النماذج حدود الأمان.
    • تقارير الحماية Safeguards Reports لتوضيح كيفية تصميم وتطبيق الضمانات.
  • مراجعة مستقلة داخلية:
    • فريق “مجموعة استشارية للسلامة Safety Advisory Group” يقيّم المخاطر ويوصي بالإجراءات اللازمة قبل أي نشر.
  • مواكبة المنافسة في السوق:
    • إذا أطلقت شركة أخرى نموذجًا خطيرًا بدون ضمانات كافية، فقد تعيد OpenAI تقييم متطلباتها مع الشفافية الكاملة.

الأهداف المستقبلية

يهدف هذا التحديث إلى جعل الاستعداد أكثر قابلية للتنفيذ، وصرامة، وشفافية، استعدادًا للنماذج القادمة من الذكاء الاصطناعي القادرة على إحداث تحولات مجتمعية.

  • الموازنة بين الابتكار والسلامة في نماذج الذكاء الاصطناعي.
  • بناء آلية تقييم يمكنها مواكبة التطور السريع للقدرات.
  • نشر تقارير دورية حول تقييمات السلامة مع كل إصدار جديد من النماذج.
  • الاستفادة من مساهمات الخبراء الخارجيين والمجتمع البحثي لضمان تطور الإطار باستمرار.

التحديث الأخير لإطار الاستعداد يعكس التزام OpenAI بقيادة الطريق نحو تطوير آمن وشفاف للذكاء الاصطناعي، مع مراعاة الحماية المجتمعية والحوكمة التقنية.

مقالات مشابهة