Anthropic تحقق في وصول غير مصرح به لأداة Mythos الأمنية
تواجه شركة Anthropic تحقيقًا جديدًا بعد تقارير عن وصول غير مصرح به إلى نموذجها الأمني المتقدم Claude Mythos، وهو نظام ذكاء اصطناعي تصفه الشركة بأنه قوي جدًا لدرجة أنه غير متاح للعامة.

تفاصيل الخبر
أثار التقرير مخاوف في مجتمع الأمن السيبراني، خاصة مع حساسية قدرات نموذج Mythos.
- تحقق Anthropic في مزاعم وصول غير مصرح به عبر بيئة طرف ثالث.
- يُعتقد أن الوصول تم عبر إساءة استخدام صلاحيات، وليس عبر اختراق تقني مباشر.
- لا توجد أدلة حتى الآن على تعرض الأنظمة الأساسية للشركة للاختراق.
- تم تطوير Claude Mythos لمساعدة شركات التكنولوجيا والقطاع المالي في اكتشاف الثغرات الأمنية.
- تشير التقارير إلى أن مجموعة صغيرة تمكنت من استخدام النموذج دون الأذونات الرسمية.
- المستخدمون الذين وصلوا للنظام تجنبوا استخدامه في أنشطة ضارة لتفادي اكتشافهم.
- الحادثة تسلط الضوء على مخاطر تسرب أدوات الذكاء الاصطناعي المتقدمة خارج نطاق السيطرة.
ويؤكد خبراء الأمن أن الخطر لا يكمن فقط في الاختراق، بل في انتشار قدرات قد تُستخدم لاحقًا في عمليات احتيال أو هجمات إلكترونية.
الأهداف المستقبلية
تسلط هذه الحادثة الضوء على التحديات التي تواجه شركات الذكاء الاصطناعي في تأمين نماذجها:
- تعزيز أنظمة التحكم في الوصول، خاصة عبر الأطراف الثالثة.
- تطوير آليات مراقبة أكثر دقة لاستخدام النماذج الحساسة.
- التعاون مع الحكومات لضمان استخدام آمن للتقنيات المتقدمة.
- تقليل مخاطر تسرب القدرات السيبرانية المتقدمة.
- تحقيق توازن بين الابتكار والأمان في نشر النماذج.
كما أشار مسؤولون في الأمن السيبراني إلى أن الذكاء الاصطناعي يمكن أن يكون أداة إيجابية إذا تم تأمينه بشكل صحيح، مع ضرورة الالتزام بأساسيات الحماية الرقمية.
في النهاية، تعكس هذه الواقعة مع نموذج Mythos تحديًا متزايدًا في عصر “النماذج المتقدمة”، حيث يصبح التحكم في الوصول إليها بنفس أهمية تطويرها.
