روبوت والمخاطر الأخلاقية للذكاء الاصطناعي

6 من المخاطر الأخلاقية للذكاء الاصطناعي: يجب الانتباه لها

ينتشر الحديث مؤخراً عن المخاطر الأخلاقية للذكاء الاصطناعي في البرامج التلفزيونية ومراكز الأبحاث الكبرى ونشرات الأخبار، ويعود ذلك أولاً إلى أهمية الاعتبار الأخلاقي في عصر التكنولوجيا الحديثة، فلا يصح استعمال الـ AI عشوائياً من دون التفكير في النتائج المترتبة وخاصة إذا كانت كارثية على البشرية جمعاء. انطلاقاً مما ذكرناه، نكتشف في مقالة اليوم أبرز 6 من مخاطر الذكاء الاصطناعي.

ما هي أبرز المخاطر الأخلاقية للذكاء الاصطناعي؟

موظف يتأكد من المخاطر الأخلاقية للذكاء الاصطناعي

قفز حجم سوق الذكاء الاصطناعي خلال العام الحالي بزيادة 50 مليار دولار أمريكي بالمقارنة مع سنة 2023 [1]. وعلى الرغم من انتشاره في شتى مجالات الحياة من جهة، وفوائده العظيمة على البشر من جهة ثانية إلا أن التفكير في التحديات الأخلاقية للذكاء الاصطناعي أمر ضروري. 

تأثير الذكاء الاصطناعي على الوظائف

تمثل قضية النزوح الوظيفي إحدى أكبر المخاوف خلال السنوات الأخيرة بالنسبة إلى العمال، حيث يشعر الموظفون بالقلق الشديد من احتمالية خسارة وظائفهم مستقبلاً بسبب الذكاء الاصطناعي، خاصة أن تقنيات الـ AI في تطور متسارع.

كذلك يظهر الذكاء الاصطناعي قدرة هائلة على إنجاز المهام في وقت أقل بالمقارنة مع العنصر البشري. وفي إطار الحديث عن مخاطر ارتفاع معدلات البطالة، نشرت CompTIA’s Business Technology Adoption and Skills Trends تقريرها الذي يشير إلى وجود قلق عام بالولايات المتحدة الأمريكية، حيث قرأ 81% من الموظفين مقالات متنوعة تتحدث عن موضوع استبدال العمال بالذكاء الاصطناعي [2].

التحيز في الخوارزميات

انضم التحيز إلى قائمة المخاطر الأخلاقية للذكاء الاصطناعي بالرغم من أن الـتحيز في الذكاء الاصطناعي ليس من طبيعة النظام، لذلك ما هو السبب؟ يعلم جميعنا بأن العنصر البشري هو المسؤول الأول عن عملية تدريب الخوارزميات، وبالتالي حينما يعطي بيانات محددة ويُغفل أخرى فإنه يخلق أزمة التحيز لسنوات طويلة.

ولتوضيح الفكرة بشكل أكبر، دعونا نشير إلى عملية تدريب نموذج ذكاء اصطناعي في مجال الاقتصاد، حيث قد تلجأ جهة التدريب إلى تغييب مجموعة سكانية معينة، وبذلك فإن التحيز في أداء النموذج سوف يكون تلقائياً [2].

عدم الشفافية

إن شفافية الأنظمة في الذكاء الاصطناعي مرهونة أولاً وأخيراً بالبشر، فلا يمكن معرفة مصادر البيانات ومصيرها دون تصريح واضح من الشركات المسؤولة عن تطوير النماذج الذكية. على سبيل المثال أعلنت شركة OpenAI منذ أيام معدودة عن نموذج o1 ولم توضّح حتى الآن من أين جاءت ببيانات التدريب الخاصة به.

من ناحية أخرى، تشير المراكز البحثية أيضاً إلى إمكانية إنشاء روبوتات عنصرية في المستقبل، وهذا يشكل عائقاً جديداً أمام تحقيق التقدم المرغوب في العالم بالاعتماد على تقنيات الذكاء الاصطناعي [3].

التلاعب بالمعلومات

وهي إحدى القضايا الأخلاقية التي تثير الذعر بشكل كبير نظراً إلى ما تتركه من نتائج سلبية على البشرية في جميع المجالات سواء على صعيد الاقتصاد أو بنية المجتمع أو الوضع السياسي. فإن المعلومات المضللة حقيقة راسخة في الذكاء الاصطناعي، وذلك ابتداءً من التزييف العميق ووصولاً إلى نشر المعلومات مجهولة المصدر [2].

المسؤولية القانونية والأمنية

يعدّ الذكاء الاصطناعي قوة جديدة في متناول الدول المتقدمة، وهذا ما يدفع إلى التفكير فعلياً بكافة المخاطر الأخلاقية للذكاء الاصطناعي وأبرزها المسؤولية القانونية والأمن السيبراني، حيث أعلنت وكالة البنية التحتية والأمن السيبراني (CISA) عن حالات موثقة لهجمات ضارة على المركبات ذاتية القيادة وكاميرات المراقبة.

انطلاقاً من ذلك، تتضاعف الحاجة بمرور الوقت إلى تعزيز كفاءة الأمن السيبراني وغيرها من التدابير الأمنية اللازمة للتقليل من الآثار السلبية المحتملة، لأنه كلما أصبح الذكاء الاصطناعي أكثر قوة، كلما ازدادت احتمالية استخدامه لأغراض شريرة [2] [3].

خصوصية البيانات 

تعتبر حماية خصوصية البيانات إحدى التحديات الأخلاقية التي يواجهها الذكاء الاصطناعي منذ ظهوره حتى الآن، إذ تعتمد نماذج الذكاء الاصطناعي في تدريبها بالدرجة الأولى على كم هائل من البيانات وفي مختلف المجالات. في المقابل، ليس هناك معلومات كافية إطلاقاً عن طرق جمع البيانات أو حتى كيفية معالجتها ومصيرها بعد التدريب، لذلك تتجلى التحديات في 4 محاور هي: [4]

  • احتمالية جمع البيانات بشكل غير مصرح به في بعض التطبيقات.
  • استخدام البيانات البيومترية لأغراض أخرى.
  • سياسة تخزين البيانات الموسعة وغير الواضحة.
  • عدم الاهتمام بحقوق النشر والملكية الفكرية.

بناء على ذلك، تكثر الأسئلة المرتبطة بخصوصية البيانات مثل: أين يتم تخزين البيانات؟ هل تستعمل لأغراض أخرى؟ وكيف يمكن الحفاظ على البيانات الشخصية؟ وتفتح هذه المخاوف الباب أمام الحديث عن انتهاك خصوصية الأفراد والتوقعات حول إساءة الاستخدام للبيانات إذا وقعت بيد المجرمين [2].

وفي نهاية قائمة المخاطر الأخلاقية للذكاء الاصطناعي يمكن القول: مع تطور التكنولوجيا الحديثة بشكل متسارع على مستوى العالم يبدو من الضروري أن تنصب الجهود الدولية على ابتكار حلول جذرية وفعالة لتحقيق استخدام آمن وأخلاقي للذكاء الاصطناعي، ولا مفرّ من تطوير القوانين 

مقالات مشابهة