Google DeepMind تطلق إطار جديد لمراقبة مخاطر الذكاء الصناعي

أعلنت Google DeepMind عن تحديث إطار Frontier Safety Framework 3.0 لمواجهة المخاطر الناشئة مثل مقاومة الإيقاف والتأثير المفرط على البشر.

تفاصيل الخبر

كشفت Google DeepMind عن النسخة الثالثة من إطار أمان النماذج المتقدمة، الذي يركز على مراقبة السلوكيات غير المتوقعة للذكاء الاصطناعي والتي قد تعيق الإشراف البشري أو تهدد الاستخدام الآمن.

  • مراقبة مقاومة الإيقاف أو تعديل العمليات، وهي مخاطرة حددتها دراسات خارجية مؤخراً.
  • تتبع قدرة النماذج على التأثير القوي في المعتقدات أو السلوكيات البشرية.
  • تحسين تعريفات المستويات الحرجة للقدرات (CCL) لتحديد التهديدات التي تتطلب استجابة عاجلة.
  • إجراء مراجعات أمان إلزامية قبل أي إطلاق خارجي للنماذج.
  • تتبع عمليات النشر الداخلية المستخدمة في البحث والتطوير لضمان الشفافية.

الأهداف المستقبلية

من خلال هذا الإطار، تهدف Google DeepMind إلى:

  • تعزيز الحوكمة الفورية عند اكتشاف قدرات عالية المخاطر.
  • تطوير آليات استباقية لتقليل تهديدات الذكاء الاصطناعي المتطور.
  • دعم الجهود العالمية في بناء أنظمة ذكاء اصطناعي آمنة وموثوقة.
  • توحيد المقاييس بين الشركات الرائدة مثل OpenAI وAnthropic لمواجهة المخاطر المستقبلية.

خطوة Google DeepMind نحو مراقبة مقاومة الإيقاف والتأثير البشري تعكس تحوّلاً في أولويات أمان الذكاء الاصطناعي، وتؤكد أن الحماية الاستباقية ضرورية قبل الوصول إلى أنظمة فائقة الذكاء.

مقالات مشابهة