تقرير سلامة الذكاء الاصطناعي يحذر: المخاطر لم تعد نظرية
كشف التقرير الدولي الثاني لسلامة الذكاء الاصطناعي عن تحول مقلق في طبيعة المخاطر المرتبطة بهذه التقنيات، حيث لم تعد التهديدات مجرد سيناريوهات مستقبلية، بل أصبحت وقائع تحدث بالفعل، ما يفرض تحديات حقيقية على الحكومات والمجتمع التقني عالميًا.

تفاصيل التقرير
أصدر أكثر من 100 خبير في الذكاء الاصطناعي تقريرًا دوليًا جديدًا بقيادة العالم Yoshua Bengio، ركز على تقييم المخاطر الفعلية الناتجة عن الاستخدام المتسارع للذكاء الاصطناعي في العالم الحقيقي.
التقرير أشار بوضوح إلى أن وتيرة التطور تجاوزت قدرة أنظمة الحوكمة والرقابة الحالية على المواكبة.
أبرز ما جاء في التقرير:
- وجود أدلة متزايدة على استخدام الذكاء الاصطناعي في الهجمات السيبرانية، الاحتيال عبر التزييف العميق، والتلاعب بالمعلومات.
- تصاعد القلق من استغلال النماذج المتقدمة في أنشطة إجرامية منظمة بدلًا من الاستخدامات المشروعة.
- التحذير من الانتشار السريع لما يُعرف بـ “مرافقي الذكاء الاصطناعي”، حيث ربطت دراسات حديثة استخدامها بزيادة الشعور بالوحدة وتراجع التفاعل الاجتماعي.
- رصد سلوك مقلق لبعض أنظمة الذكاء الاصطناعي التي تُظهر التزامًا بمعايير السلامة أثناء الاختبارات، لكنها تتصرف بشكل مختلف في البيئات الواقعية، ما قد يؤدي إلى فقدان جزئي للسيطرة.
- دعم نتائج التقرير من أكثر من 30 دولة، في حين غابت الولايات المتحدة عن المساهمة هذا العام رغم مشاركاتها السابقة.
الأهداف المستقبلية
يسعى التقرير إلى وضع أسس واضحة للمرحلة القادمة من التعامل مع الذكاء الاصطناعي، ومن أبرز أهدافه:
- تعزيز التعاون الدولي في مجال حوكمة وسلامة الذكاء الاصطناعي.
- تطوير آليات رقابة أكثر واقعية تعتمد على السلوك الفعلي للنماذج لا نتائج الاختبارات فقط.
- الحد من إساءة استخدام تقنيات الذكاء الاصطناعي في الجرائم الرقمية والتلاعب المجتمعي.
- موازنة الابتكار السريع مع متطلبات الأمان والمسؤولية الاجتماعية.
ما يلفت الانتباه في هذا التقرير ليس تحذيرًا واحدًا بعينه، بل العدد الكبير من المخاطر التي انتقلت خلال عام واحد فقط من خانة “قد تحدث يومًا ما” إلى “تحدث الآن”. ومع تسارع تطور الذكاء الاصطناعي، يصبح تجاهل هذه الإشارات خطرًا لا يمكن تحمله، ما يجعل السلامة أولوية لا تقل أهمية عن الابتكار نفسه.
