تسريب كود Claude Code يكشف أسرار أدوات Anthropic
في حادثة غير متوقعة، واجهت شركة Anthropic موجة جدل بعد تسريب كود أداة البرمجة Claude Code، ما فتح الباب أمام اكتشاف ميزات مخفية ومشاريع لم يتم الإعلان عنها، وأثار نقاشًا واسعًا حول الأمان والشفافية في عالم الذكاء الاصطناعي.

تفاصيل الخبر
في تطور مفاجئ، تم الكشف عن تفاصيل داخلية حساسة تخص أداة Claude Code بعد خطأ تقني أدى لنشر الكود للعامة:
- تم تسريب أكثر من 1,900 ملف تحتوي على أكثر من 500 ألف سطر برمجي عبر منصة GitHub.
- اكتشف المطورون 44 ميزة مخفية (Feature Flags) وثلاثة مشاريع غير معلنة.
- تضمنت الميزات نظام ذاكرة مستمرة عبر الجلسات، ونظام تخطيط متقدم للمهام.
- أكدت Anthropic أن الحادثة ناتجة عن خطأ بشري وليس اختراقًا أمنيًا، مع عدم تسريب بيانات المستخدمين.
- حصلت نسخة الكود المسربة على أكثر من 4,000 نجمة و7,000 fork خلال ساعات.
- كشفت الأكواد عن أسماء داخلية مثل “Capybara” المرتبطة بنسخة متقدمة من نموذج Claude.
- تضمنت الأكواد نظامًا لتتبع تفاعل المستخدمين، بما في ذلك رصد اللغة غير اللائقة.
- تم العثور على مشروع غير معلن باسم BUDDY، وهو “حيوان أليف رقمي” يعمل بالذكاء الاصطناعي بخصائص متعددة.
- يأتي هذا التسريب بعد أيام من تسريب آخر متعلق بنموذج “Mythos”.
الأهداف المستقبلية
رغم الحادثة، يبدو أن Anthropic مستمرة في تطوير استراتيجيتها طويلة المدى في مجال الذكاء الاصطناعي:
- تحسين أنظمة الأمان الداخلية لتجنب تكرار مثل هذه الأخطاء.
- تطوير أدوات برمجية أكثر تقدمًا تنافس حلولًا مثل Codex.
- توسيع قدرات النماذج لتشمل الذاكرة طويلة المدى والتخطيط الذكي.
- استكشاف تجارب تفاعلية جديدة مثل مشروع BUDDY لتعزيز تجربة المستخدم.
- الحفاظ على سمعتها كشركة تركز على أمان الذكاء الاصطناعي رغم التحديات.
في النهاية، يسلط هذا التسريب في Claude Code الضوء على التحديات التي تواجه شركات الذكاء الاصطناعي في تحقيق التوازن بين الابتكار والأمان. ومع تصاعد المنافسة، قد تتحول مثل هذه الحوادث إلى نقاط مفصلية في رسم مستقبل الصناعة.
