كيف تتأثر حماية خصوصية البيانات في عصر الذكاء الاصطناعي
تعتبر خصوصية البيانات في عصر الذكاء الاصطناعي من أكبر التحديات التي تواجه المؤسسات بمختلف أنواعها، ولكن لماذا؟ يعتقد الخبراء أن الذكاء الاصطناعي هو سلاح له حدين فيما يتعلق بموضوع حماية البيانات، فتارة يكون وسيلة نافعة في أنظمة الأمن السيبراني، وتارة أخرى هو السبب وراء تسريب بيانات المستخدمين.
لذلك سواء كنت تعمل في مجال AI أو تمتلك الفضول في اكتشاف المزيد عن العلاقة بين الذكاء الاصطناعي وحماية البيانات، فتابع معنا للتعرف على أهم التحديات وكيف يمكن التغلب عليها بخطوات بسيطة.
جدول المحتويات
ما هي تحديات خصوصية البيانات في الذكاء الاصطناعي؟

لا تهدأ مشاكل الخصوصية في الذكاء الاصطناعي عن الظهور بين الحين والآخر، خصوصاً أن أدوات AI تنمو بسرعة كبيرة وتخترق استخداماتها مجالات جديدة ومتنوعة. وهذه أهم التحديات: [1]
احتمالية جمع البيانات بشكل غير مصرح به في بعض التطبيقات
يدخل المستخدم بيانات خاصة به في معظم أدوات الذكاء الاصطناعي وهنا تبدأ القصة للأسف، فإن احتمالية استعمالها لاحقاً أمر ممكن الحدوث. على سبيل المثال، إذا أضفت إلى ChatGPT معلومات حساسة عنك قد تُستعمل في نماذج التدريب المستقبلي.
علاوة على ذلك تُهدد خصوصية البيانات في عصر الذكاء الاصطناعي بسبب جمع أدوات AI معلومات عن تفاعلات الجماهير وسجل البحث الخاص بهم بحجة إنشاء أنظمة التوصية وعمليات الاستهداف بشكل أكثر دقة.
انطلاقاً من ذلك تصرّح أشهر منصات الذكاء الاصطناعي بأن حماية البيانات الحساسة هو أهم القوانين خلال عملها، لكن لسوء الحظ لا يوجد حتى الآن ما يطمئن المستخدمين سواء كانوا من الأفراد أو الشركات.
استخدام البيانات البيومترية لأغراض أخرى
يتزايد الطلب مؤخراً على أنظمة أمن البيانات المدعومة بالذكاء الاصطناعي مثل التعرف على الوجه وبصمات الأصابع، حيث تستخدم في الهواتف المحمولة وفي أجهزة المراقبة العامة. لكن السؤال الأهم: أين تذهب تلك المعلومات البيومترية بعد جمعها من قبل شركات الذكاء الاصطناعي؟
يتخوف الخبراء من إمكانية استخدام المعلومات البيومترية لأغراض أخرى، وخاصة أن شركات الذكاء الاصطناعي قادرة على جمع بيانات متنوعة بكميات هائلة مثل بصمات الأصابع والصوت وغير ذلك الكثير، وذلك كله دون أن يعلم الأفراد ما حدث من جمع وعمليات تخزين للبيانات.
سياسة تخزين البيانات الموسعة وغير الواضحة
ما زالت سياسة تخزين البيانات مجهولة حتى الآن في منصات الذكاء الاصطناعي من حيث مدة الاحتفاظ بالمعلومات ومكانها وأسبابها، وهذا ما يجعل التخوف في تزايد مستمر.
من المثير للقلق أن المصير المجهول موجود في أغلب أدوات الذكاء الاصطناعي المشهورة،
عدم الاهتمام بحقوق النشر والملكية الفكرية
طال الحديث خلال السنوات القليلة الأخيرة عن عدم الاهتمام بحقوق النشر والملكية الفكرية في أثناء تدريب أدوات التصميم بالذكاء الاصطناعي، حيث تؤكد بعض التقارير أن تلك الأدوات استعملت ملايين الصور لفنانين بدون إذن من أجل تطوير أداء الذكاء الاصطناعي.
وكما يبدو تسير تحديات الحفاظ على الخصوصية في الذكاء الاصطناعي باتجاهات أسوأ مع مرور الوقت، إذ بيّنت الأبحاث أن عدد لا بأس به من نماذج الذكاء الاصطناعي اليوم معقدة جداً لدرجة أن مصمميها لا يعلمون مصدر المعلومات أي بمعنى من أين أتت ومن لديه حق الوصول إليها.
كيف يمكن التغلب على تحديات خصوصية البيانات في عصر الذكاء الاصطناعي؟

من المتوقع أن ينمو سوق الذكاء الاصطناعي العالمي من 184 مليار دولار أمريكي في عام 2024 إلى 826 مليار دولار أمريكي بحلول 2030 [2]، وهذا ما يدفعنا إلى طرح السؤال التالي: كيف يمكن تجاوز مشكلات الخصوصية والذكاء الاصطناعي؟
اتباع استراتيجيات الأمن السيبراني
تصنف ممارسات الأمن السيبراني ضمن أوائل الحلول المقترحة للمحافظة على خصوصية البيانات في عصر الذكاء الاصطناعي وسلامتها بعيداً عن أيدي المحتالين. إليك بعض الاستراتيجيات الموصى بها: [3]
- تشغيل أحد تطبيقات VPN بهدف تشفير الشبكة وحركة المرور عبر الإنترنت عند استخدام حلول الذكاء الاصطناعي.
- الاعتماد على برامج إدارة الباسوورد لأن بإمكانها ابتكار كلمات مرور طويلة ومعقدة مما يقلل مخاطر الهجمات.
- استخدام المصادقة متعددة العوامل (MFA) أو ما يعرف أيضاً بالمصادقة الثنائية لأنها تحمي البيانات.
فرض بعض السياسات والقوانين الصارمة
توجد بعض القوانين في البلدان المتقدمة من أجل ترسيخ خصوصية البيانات في عصر الذكاء الاصطناعي ومنها: مشروع القانون الكندي المقترح C-27، وإرشادات لجنة التجارة الفيدرالية الأمريكية [4].
كما يجري العمل حالياً على تطبيق قانون الذكاء الاصطناعي للاتحاد الأوروبي، وهو قانون جديد تم اعتماده في مارس 2024، ويتمثل الهدف الأساسي من إصداره في جعل أنظمة الذكاء الاصطناعي المستخدمة في أوروبا آمنة وشفافة وقابلة للتتبع وغير تمييزية وصديقة للبيئة [5].
وعلى الرغم أنه أحدث وأهم القوانين على مستوى الاتحاد الأوروبي، لكن يبقى التراخي بإصدار سياسات واضحة وقوانين صارمة على مستوى العالم سبباً في استمرار انتهاكات حقوق الملكية الفكرية وعمليات التدريب وجمع البيانات الغامضة.
الاعتماد على التعلم الفيدرالي
التعلم الفيدرالي Federated Learning هو أحد أنواع التعلم الآلي وأكثر تطوراً منه، يُقصد به تدريب نماذج الذكاء الاصطناعي بشكل محلي فقط، وذلك بدلاً من نقل بيانات المستخدمين إلى خوادم مركزية، هذا ما يساعد بشكل أو بآخر على تقليل مخاطر الخصوصية [6].
تضمين الخصوصية في التصميم
للتخفيف من مخاطر خصوصية البيانات في عصر الذكاء الاصطناعي لا بدّ من التنبه بسرعة إلى أهمية حماية البيانات منذ أولى مراحل إنشاء أنظمة الذكاء الاصطناعي، ويمكن تنفيذ هذه الفكرة بشكل عملي بواسطة اعتماد الخصوصية من خلال التصميم.
وهكذا عندما يُنظر إلى الخصوصية على أنها عنصر أساسي سوف نحصل منذ البداية على نماذج ذكاء اصطناعي مدعومة بكل ما يلزم من الضمانات وسياسات الأمان الضرورية [4].
تحديد مدة تخزين البيانات
التخزين هو أقوى التحديات التي تواجه خصوصية البيانات حسب المتخصصين، ولاسيما أن طول مدة التخزين يزيد احتمالية تعرضها للهجمات الضارة.
بناء على ذلك، يجب تحديد حدود واضحة لطول مدة تخزين البيانات، أو حتى على الأقل إزالة البيانات القديمة أو غير ذات الصلة بشكل دوري. وما سبق ذكره هو من أفضل الحلول الجذرية حينما ترغب في الحفاظ على الخصوصية في الذكاء الاصطناعي [4].
في الختام يمكن القول: تقع خصوصية البيانات في عصر الذكاء الاصطناعي بمرمى التحديات ابتداءً من جمع البيانات وسياسة تخزينها واستخدامها ووصولاً إلى عدم الاكتراث لحقوق الملكية الفكرية، وهذا ما يستدعي اقتراح الحلول مثل اتباع استراتيجيات الأمن السيبراني، فرض السياسات والقوانين الصارمة، الاعتماد على التعلم الفيدرالي، تضمين الخصوصية في التصميم، وأخيراً تحديد مدة تخزين البيانات.