7 أسئلة أخلاقية يجب طرحها قبل اعتماد حلول الذكاء الاصطناعي
يزداد الاعتماد على حلول الذكاء الاصطناعي بالآونة الأخيرة في شتى مجالات الحياة، فمن الاقتصاد والتجارة إلى الفنون والتعليم يتواجد الذكاء الاصطناعي بدرجات مختلفة. لذلك بسبب الانتشار الواسع والاهتمام الضخم والتأثير الكبير للذكاء الاصطناعي أصبح من الضروري أن يُسلط الضوء على الاعتبارات الأخلاقية وخاصة بأن إهمالها يقلب المعادلة رأساً على عقب. من هذا المنطلق، نتعرف اليوم على أهم 7 أسئلة أخلاقية يجب طرحها قبل البدء في تطبيقه ضمن المشاريع مهما كان نوعها وهدفها وأساليب تنفيذها.
جدول المحتويات
الأسئلة الأخلاقية التي يجب طرحها
تواجه حلول الذكاء الاصطناعي تحديات أخلاقية مرعبة للكثير من المستخدمين حول العالم، وهذا ما يفرض طرح 7 تساؤلات مهمة قبل التفكير في توظيفها بحياتك اليومية.
كيف يتم حماية خصوصية البيانات؟
تعاني الخصوصية من معوقات في ظل النمو المتسارع للتقنيات الذكية، حيث تظهر باستمرار تقارير عن إمكانية انتهاك خصوصية الأفراد والمؤسسات في أي وقت. تتركز التحديات حول 4 محاور هي: [1]
- جمع البيانات بشكل غير مصرح به في بعض التطبيقات.
- عدم الاهتمام بحقوق النشر والملكية الفكرية.
- استعمال البيانات البيومترية لأغراض أخرى.
- تخزين البيانات الموسعة وغير الواضحة.
يستدعي استعراض التحديات السابقة أن نتساءل: كيف يتم حماية خصوصية البيانات؟ في الواقع، يحتاج الأمر إلى اتباع استراتيجيات متنوعة سواء من قبل شركات الذكاء الاصطناعي أو المجتمع الدولي، وذلك وفق الآتي: [2] [3]
- تحديد مدة تخزين البيانات.
- الاعتماد على التعلم الفيدرالي.
- تضمين الخصوصية في التصميم.
- اتباع استراتيجيات الأمن السيبراني.
- فرض بعض السياسات والقوانين الصارمة.
هل النظام متحيز بشكل ما؟
للأسف تظهر العناصر المتحيزة في حلول الذكاء الاصطناعي بأشكال مختلفة، وكأنها صدى لما يجري فعلياً في العالم الحقيقي، ولا غرابة في ذلك لأن المسؤول عن تدريبها هم البشر الذين يحملون التحيزات لأسباب لا تعد ولا تحصى. تقوم تلك التحيزات في معظم الأحيان على أساس جنسي أو عرقي أو اجتماعي أو ديني أو اقتصادي أو سياسي أو جغرافي [4].
على سبيل المثال، كشف بحث علمي في جامعة كارنيجي ميلون أن نظام الإعلان عبر الإنترنت الخاص بشركة جوجل يعرض وظائف عالية الأجر للذكور أكثر من النساء، علاوة على ذلك وجد بعض الباحثين أن أنظمة التشخيص بمساعدة الكمبيوتر (CAD) تقدّم نتائج أقل دقة للمرضى السود بالمقارنة مع المرضى ذوي البشرة البيضاء [5]، وهذا أمر متوقع بسبب التحيز الذي ينشأ من التمثيلات النمطية المتجذرة بعمق ضمن المجتمعات البشرية، وهكذا انتقلت تلقائياً إلى خوارزميات الذكاء الاصطناعي.
من يتحمل المسؤولية عند الخطأ؟
حملت حلول الذكاء الاصطناعي فوائد عظيمة للبشرية ولكن ماذا عن ارتكاب الأخطاء؟ من يتحمل المسؤولية حين يتخذ نموذج الذكاء الاصطناعي قرارات سلبية؟ في الواقع، لا نجد آراء موحدة في الإجابة على هذا السؤال، لذلك جمعنا الخيارات المطروحة، وهي: [6]
- منشئ الخوارزمية: كما هو الحال في تحمّل الشركات التجارية مسؤولية أخطاء التصنيع، فإن وجود خلل في الخوارزمية سوف يُعاقب عليه المنشئ.
- مزوّد البيانات: يقصد به جهة التدريب التي تزود الأنظمة بالبيانات، هكذا إذا ظهرت أخطاء بسبب استخدام بيانات متحيزة أو قليلة فإن مزود البيانات هو المسؤول.
- المشغل: هو الشخص الذي يدير عادة أنظمة AI، ويمكن تشبيهه هنا بالسائق الذي ينحرف عن الاتجاه الصحيح فيكون الحادث مسؤوليته.
هل هناك شفافية في كيفية اتخاذ القرارات؟
تغيب الشفافية عن حلول الذكاء الاصطناعي بشكل كامل منذ ظهورها حتى هذه اللحظة. إنها تعمل في “صندوق أسود”، فلا أحد يعلم كيفية عملها ومصدر البيانات الخاصة بها والطريقة المتبعة لاتخاذ القرارات، بالإضافة إلى تحمل مسؤولية ارتكاب الأخطاء.
يطلق على شفافية الأنظمة تسمية أخرى وهي (القدرة على التفسير)، كما يجري الحديث مؤخراً حول محاولات إنشاء أنظمة قابلة للتفسير بهدف المساعدة على تحديد مدى العدل بالنموذج ودقته وتحيزه المحتمل أيضاً [7].
ما هي تأثيرات النظام على الوظائف؟
ما زال الخوف من ارتفاع معدل البطالة على مستوى العالم أحد الاعتبارات الأخلاقية التي يجب التفكير فيها. ومع تطور تقنيات التكنولوجيا الذكية بسرعة، تتضاعف الحاجة إلى إيجاد الحلول قبل أن تخرج الأمور عن السيطرة وتصبح الوظائف من نصيب الروبوتات فقط [7].
في المقابل، تتحدث بعض التقارير العالمية عن إمكانية ظهور وظائف جديدة بفضل تطبيقات الذكاء الاصطناعي، لكن بالطبع الالتحاق بها مرهون بتدريب العمال في برامج مخصصة. بذلك يحمل Artificial Intelligence لعالم الوظائف تأثيرات متضاربة على الشكل التالي: [7]
- نزوح وظيفي.
- خلق فرص عمل في مجالات جديدة.
كيف يمكن أن يؤثر النظام على حقوق الإنسان؟
تتجاهل حلول الذكاء الاصطناعي حقوق الإنسان جملة وتفصيلاً حتى الآن، نتيجة لذلك يكثر الحديث عن آثاره السلبية على البشرية. هنا يتبادر إلى الذهن سؤال مهم: لماذا تغيب القرارات الأخلاقية وقضايا حقوق الإنسان عن مُصنّعي ال AI؟
لسوء الحظ ما تزال النظرة الخاطئة إلى حقوق الإنسان هي المسيطرة، حيث يسود الاعتقاد بأنها معقدة جداً وغامضة وقديمة الطراز وتمنع الابتكار أيضاً. أما عن آثاره السلبية على حقوق الإنسان فهي متشعبة في اتجاهات عديدة، ويمكن تلخيص تلك التأثيرات في النقاط الآتية: [8] [9]
- انعدام الأمان.
- فقدان فرص العمل.
- عدم المساواة والتمييز.
- انتهاك خصوصية البيانات.
هل النظام آمن للاستخدام بشكل عام؟
يعتبر الأمان هو العنصر الأكثر أهمية فيما يخص القرارات الأخلاقية وخاصة أن التطبيقات الذكية مستخدمة بمختلف أشكالها في المنازل والشركات والمكاتب وفي كل مكان بحاجة للتكنولوجيا.
نتيجة لذلك التهديد الأمني للذكاء الاصطناعي له تأثير واسع النطاق في حال حدوثه، وبالتالي إن الأنظمة الذكية ليست آمنة للاستخدام بشكل عام لأنها قد تتعرض إلى هجمات أمنية ضارة بهدف التدمير والسرقة وغيرها من الأغراض الشريرة.
ومن الأمثلة الواقعية التي تؤكد المخاطر الأمنية للذكاء الاصطناعي ما أشارات وكالة البنية التحتية والأمن السيبراني (CISA) من حالات موثقة لهجمات أدت إلى سوء السلوك في المركبات ذاتية القيادة وإخفاء الأشياء في تسجيلات كاميرات المراقبة [10].
وفي الختام، يبقى طرح الأسئلة السابقة هو السبيل الوحيد أمام حلول الذكاء الاصطناعي لتحقيق استخدام أخلاقي، لذلك ينبغي أن تتضافر جهود الشركات والمستثمرين والحكومات والمنظمات الدولية والمجتمع المدني لمناقشة الأفكار ووضع المعايير القانونية.