Teleport يحذر من المخاطر الأمنية للبوتات ذات الصلاحيات الزائدة
كشفت دراسة حديثة من Teleport أن الشركات التي تمنح أنظمة الذكاء الاصطناعي صلاحيات مفرطة تتعرض لمعدل حوادث أمنية يفوق أربع مرات مقارنة بتلك التي تحصر الوصول، ما يسلط الضوء على أهمية إدارة الهوية والسيطرة الدقيقة على الوصول.

تفاصيل الخبر
أظهرت نتائج تقرير Teleport لعام 2026 حول أمن البنية التحتية للشركات اعتمادًا على الذكاء الاصطناعي أن:
- 92% من الشركات المشاركة لديها أنظمة ذكاء اصطناعي تعمل في بيئة الإنتاج
- 85% من مسؤولي الأمن يشعرون بالقلق من المخاطر المرتبطة بهذه الأنظمة
- 59% مرّوا بحوادث أمنية متعلقة بالذكاء الاصطناعي أو يشتبهون بها
- الشركات التي تمنح الذكاء الاصطناعي صلاحيات واسعة سجلت معدل حوادث 76%، مقابل 17% فقط عند تقييد الوصول
- 67% من الشركات تستخدم بيانات اعتماد ثابتة للذكاء الاصطناعي، مما يزيد الحوادث بنسبة 20%
- 43% أشاروا إلى أن الذكاء الاصطناعي يُجري تغييرات على البنية التحتية بدون إشراف بشري على الأقل شهريًا
- 79% من المؤسسات تختبر أو تنشر أنظمة AI وكيلة تعمل بشكل مستقل، لكن 87% غير مستعدين بالكامل لمخاطرها الأمنية
المدير التنفيذي Ev Kontsevoy أشار إلى أن المشكلة ليست في الذكاء الاصطناعي نفسه، بل في نطاق الصلاحيات الممنوحة له وكيفية إدارة الهويات بشكل فعال.
الأهداف المستقبلية
يوصي التقرير بفرض ضوابط صارمة على الهوية وصلاحيات الوصول لضمان الأمن الرقمي.
- استبدال بيانات الاعتماد الثابتة بصلاحيات محدودة المدة لكل من البشر والذكاء الاصطناعي
- تطبيق حوكمة آلية تعمل بسرعة الأجهزة بدلًا من المراجعة اليدوية
- تعزيز الرؤية والمراقبة على جميع تغييرات الذكاء الاصطناعي في البنية التحتية
- تقليل الاعتماد على الصلاحيات الواسعة لتقليل مخاطر الحوادث الأمنية
- تطوير سياسات أمنية متكاملة تشمل جميع الجهات الفاعلة داخل المؤسسة
في النهاية، تؤكد الدراسة أن إدارة الوصول والصلاحيات أصبحت خط الدفاع الأساسي في مواجهة المخاطر الناتجة عن الذكاء الاصطناعي داخل البنى التحتية الحرجة.
