OpenAI تعزز أمنها لمنع التجسس وسرقة النماذج
عززت OpenAI إجراءاتها الأمنية بعد تقارير عن محاولات تجسس صناعي ونسخ تقني من شركات منافسة، أبرزها شركة DeepSeek الصينية.

تفاصيل الخبر
ذكرت صحيفة Financial Times أن شركة OpenAI أجرت إعادة هيكلة شاملة لإجراءاتها الأمنية، في خطوة تهدف إلى حماية نماذجها ومنتجاتها من التجسس الصناعي، خاصة بعد إطلاق DeepSeek الصينية لنموذج منافس في يناير 2025 يُشتبه في أنه استخدم تقنيات “التقطير” (distillation) غير المشروعة لنسخ تقنيات OpenAI.
أبرز الإجراءات التي اتخذتها OpenAI:
- سياسات “تعتيم المعلومات” (information tenting): حيث يُمنع النقاش حول النماذج الحساسة في الأماكن المشتركة إلا من قِبل أعضاء موثّقين ضمن الفريق.
- عزل التكنولوجيا الخاصة: من خلال حفظ الشيفرات الحساسة في أجهزة حاسوب غير متصلة بالإنترنت.
- استخدام القياسات الحيوية: مثل بصمات الأصابع للتحكم في الدخول إلى مناطق العمل المهمة داخل المكاتب.
- سياسة “الحظر الافتراضي” للإنترنت: حيث يُمنع الاتصال بالخارج ما لم تتم الموافقة عليه صراحة.
- تعزيز الحماية الفيزيائية لمراكز البيانات: بالتوازي مع توسيع فريق الأمن السيبراني.
الأهداف المستقبلية
من خلال هذه الإجراءات، تسعى OpenAI إلى:
- منع تسرب النماذج وخوارزميات التدريب الحساسة من الداخل والخارج.
- الحد من التجسس الصناعي، خاصة من قبل دول أو شركات تعتبرها منافسة استراتيجياً.
- زيادة الثقة في منتجاتها من خلال تقليل فرص التسريب أو الاستخدام غير المشروع.
- تعزيز الحوكمة الداخلية بعد تسريبات متكررة وتعليقات مثيرة للجدل نُسبت للرئيس التنفيذي سام ألتمان.
- التحكم الدقيق في الوصول إلى مشاريع مثل o1، لضمان حماية تقنية الجيل القادم من نماذج الذكاء الاصطناعي.
في ظل تصاعد التنافس العالمي في الذكاء الاصطناعي، لا تكتفي OpenAI بتطوير النماذج الأقوى، بل ترفع كذلك جدران الحماية حول تقنياتها. الأمن السيبراني أصبح الآن سلاحًا استراتيجيًا في سباق الذكاء الاصطناعي.