منظمة AVERI تعيد طرح التدقيق المستقل لسلامة الذكاء الاصطناعي
في ظل تصاعد المخاوف من مخاطر نماذج الذكاء الاصطناعي المتقدمة، أعلن مايلز بروندج، القائد السابق لسياسات OpenAI، عن إطلاق منظمة غير ربحية جديدة AVERI تسعى لتغيير قواعد السلامة عبر التدقيق المستقل بدلاً من الاكتفاء بتقارير الشركات نفسها.

تفاصيل الخبر
تسلّط هذه الخطوة الضوء على فجوة واضحة في منظومة سلامة الذكاء الاصطناعي، حيث تعتمد أغلب المختبرات اليوم على تقييمات داخلية دون رقابة خارجية حقيقية.
- أطلق مايلز بروندج منظمة AVERI بعد مغادرته OpenAI في أكتوبر 2024، عقب تقليص فريق “الجاهزية للـ AGI”.
- بروندج صرّح بأن أي مختبر رائد حالياً غير مستعد من ناحية السلامة للتعامل مع أنظمة ذكاء اصطناعي متقدمة.
- تركز AVERI على وضع معايير وسياسات للتدقيق، وليس إجراء الاختبارات بنفسها، لتعمل كـ “مركز تفكير” بدلاً من جهة تدقيق مباشرة.
- تلقت المنظمة تبرعات من موظفين في مختبرات ذكاء اصطناعي كبرى، وصفهم بروندج بأنهم “يعرفون أين تُدفن المشاكل”.
- نشرت AVERI إطار عمل بعنوان “مستويات ضمان الذكاء الاصطناعي”، يبدأ من الاختبارات الذاتية الحالية (المستوى 1) وصولاً إلى تحقق دولي بمعاهدات رسمية (المستوى 4).
الأهداف المستقبلية
تعكس مبادرة AVERI توجهاً جديداً قد يغيّر علاقة الثقة بين شركات الذكاء الاصطناعي والحكومات والمجتمع.
- تقليل الاعتماد على التقييم الذاتي للشركات في قضايا السلامة الحساسة.
- وضع معايير موحدة يمكن اعتمادها عالمياً لتقييم النماذج المتقدمة.
- تمهيد الطريق لتدقيق خارجي مستقل يشبه ما يحدث في القطاعات المالية أو النووية.
- تعزيز الشفافية والمساءلة قبل الوصول إلى أنظمة فائقة القدرات.
- دعم صناع القرار بأطر واضحة بدلاً من الوعود التسويقية.
إطلاق AVERI قد لا يحل جميع إشكالات سلامة الذكاء الاصطناعي، لكنه يمثل خطوة جدية نحو مساءلة حقيقية، ويشير إلى أن عصر الثقة العمياء في تقارير المختبرات قد يقترب من نهايته.
