قانون الذكاء الاصطناعي في الاتحاد الأوروبي: التنظيم والمخاطر
اعتبارًا من 2 فبراير 2025، بدأ الاتحاد الأوروبي رسميًا بتطبيق أولى لوائح قانون الذكاء الاصطناعي، الذي يمنح المنظمين الحق في حظر أنظمة الذكاء الاصطناعي التي تشكل “مخاطر غير مقبولة” على الأفراد والمجتمع.

تفاصيل القانون
تم تصنيف تطبيقات قانون الذكاء الاصطناعي إلى أربع فئات للمخاطر:
- مخاطر منخفضة: مثل فلاتر البريد العشوائي، وهي معفاة من أي تنظيم.
- مخاطر محدودة: مثل روبوتات الدردشة لخدمة العملاء، وتخضع لإشراف تنظيمي بسيط.
- مخاطر عالية: مثل أنظمة الذكاء الاصطناعي في الرعاية الصحية، وتخضع لتنظيم صارم.
- مخاطر غير مقبولة: وهي الفئة التي يحظر استخدامها بالكامل.
الأنظمة المحظورة بموجب القانون
تشمل التطبيقات المحظورة:
- الذكاء الاصطناعي المستخدم في التصنيف الاجتماعي، مثل بناء ملفات تعريف المخاطر بناءً على سلوك الأشخاص.
- الأنظمة التي تتلاعب بقرارات الأفراد بطرق خفية أو خادعة.
- الذكاء الاصطناعي الذي يستغل نقاط الضعف، مثل العمر أو الإعاقة أو الوضع الاجتماعي والاقتصادي.
- التنبؤ بالجرائم المحتملة بناءً على مظهر الأشخاص.
- استخدام تقنيات القياسات الحيوية لتحديد السمات الشخصية، مثل التوجه الجنسي.
- جمع بيانات القياسات الحيوية في الوقت الفعلي في الأماكن العامة، لأغراض إنفاذ القانون.
- أنظمة قراءة المشاعر في أماكن العمل والمدارس.
- بناء قواعد بيانات التعرف على الوجه من خلال جمع الصور عبر الإنترنت أو كاميرات المراقبة.
العقوبات
أي شركة يتم ضبطها تستخدم هذه الأنظمة المحظورة في الاتحاد الأوروبي ستواجه غرامات تصل إلى 35 مليون يورو (~36 مليون دولار) أو 7% من إيراداتها السنوية، أيهما أكبر.
استثناءات وتحديات التطبيق
يقدم القانون بعض الاستثناءات المحدودة، مثل:
- يمكن لوكالات إنفاذ القانون استخدام أنظمة القياسات الحيوية في الأماكن العامة للبحث عن أشخاص مفقودين أو لمنع تهديدات خطيرة بتفويض رسمي.
- السماح باستخدام أنظمة قراءة المشاعر في المدارس أو أماكن العمل لأغراض طبية أو تتعلق بالسلامة.
التحديات القادمة:
- لم يتم نشر جميع التفاصيل التشغيلية للقانون بعد، ومن المتوقع إصدار إرشادات إضافية من المفوضية الأوروبية في أوائل 2025.
- قد يتداخل القانون مع تشريعات أخرى مثل اللائحة العامة لحماية البيانات (GDPR) مما يخلق تحديات قانونية للمؤسسات.
يمثل قانون الذكاء الاصطناعي في الاتحاد الأوروبي خطوة تاريخية نحو تنظيم الذكاء الاصطناعي لضمان سلامة المستخدمين ومنع الانتهاكات. ومع ذلك، لا تزال هناك أسئلة مفتوحة حول التنفيذ الفعلي والتفاعل مع القوانين القائمة، مما يجعل الأشهر القادمة حاسمة في تشكيل مستقبل الذكاء الاصطناعي في أوروبا.