Anthropic تتحدى القراصنة لاختراق نظام الأمان في الذكاء الاصطناعي
أعلنت شركة Anthropic عن نظام Constitutional Classifiers، وهو نظام أمان جديد يعتمد على الذكاء الاصطناعي، بعد أن أثبت فعاليته في اختبارات مكثفة. وتدعو الشركة الجمهور لاختباره بعد فشل أكثر من 3,000 ساعة من محاولات الاختراق في كسره.

تفاصيل الخبر
يهدف النظام إلى تعزيز أمان نماذج الذكاء الاصطناعي ومنع استغلالها بطرق غير أخلاقية، من خلال:
- استخدام الذكاء الاصطناعي لإنشاء بيانات تدريبية متنوعة، مما يمكنه من التعرف على محاولات الاختراق بأكثر من لغة وأسلوب.
- تحقيق معدل صد بنسبة 95.6% ضد 10,000 محاولة اختراق متقدمة، مقارنةً بـ 14% فقط في النماذج غير المحمية.
- إخفاق 183 باحثًا أمنيًا في كسر النظام، رغم قضاء أكثر من 3,000 ساعة في محاولة اختراقه ضمن برنامج مكافآت بقيمة 15,000 دولار.
- فتح المجال لاختبار الجمهور حتى 10 فبراير، مما يعكس التزام الشركة بشفافية وأمان الذكاء الاصطناعي.
الأهداف المستقبلية
تسعى Anthropic من خلال هذا النظام إلى:
- تعزيز أمان الذكاء الاصطناعي لمنع استغلاله بطرق ضارة.
- إعادة تعريف معايير حماية النماذج الذكية عبر استخدام الذكاء الاصطناعي للكشف عن محاولات الاختراق.
- دعم الأبحاث الأمنية المفتوحة من خلال إشراك الجمهور والخبراء في اختبار الأنظمة.
- تحسين أداء النظام بناءً على نتائج التحديات والاختبارات المستمرة.
تمثل هذه الخطوة تقدمًا مهمًا في أمن الذكاء الاصطناعي، حيث يظهر نهج Anthropic الجديد إمكانات كبيرة لحماية النماذج من الاختراق. يبقى السؤال: هل سيتمكن الجمهور من إيجاد ثغرات في هذا النظام خلال الاختبار المفتوح؟