الصين تخطط لتنظيم الذكاء الاصطناعي لحماية الصحة النفسية

اقترحت إدارة الفضاء الإلكتروني في الصين قوانين جديدة تهدف إلى حماية مستخدمي الذكاء الاصطناعي، مع التركيز على تجنب الضرر النفسي، خصوصًا من روبوتات الدردشة التفاعلية الشبيهة بالبشر.

تفاصيل الخبر

تركز القوانين على الحد من محتوى يشجع على الانتحار أو الأذى الذاتي، أو يحرض على القمار والعنف، وضمان تدخل الإنسان عند الحاجة.

النقاط الرئيسية:

  • روبوتات الدردشة يجب أن تمتنع عن التلاعب بمشاعر المستخدمين أو ممارسة “العنف اللفظي”.
  • في حالات التفكير بالانتحار، يجب على مزود التقنية نقل المحادثة إلى إنسان والتواصل فورًا مع ولي الأمر أو شخص معين.
  • حماية القصر: يلزم الحصول على موافقة الوالدين أو الأوصياء، مع فرض حدود زمنية يومية لاستخدام الروبوتات.
  • “أفضل أن نكون حذرين”: إذا شكّت المنصة بعمر المستخدم، يتم تطبيق إعدادات القصر مع إمكانية الاستئناف.
  • هذه اللوائح تمثل محاولة رائدة عالميًا للانتقال من سلامة المحتوى إلى سلامة المشاعر.

الأهداف المستقبلية

تسعى الصين من خلال هذه اللوائح إلى:

  • ضمان أن تلتزم روبوتات الذكاء الاصطناعي بالسلوكيات الأخلاقية والمسؤولة.
  • الحد من الحوادث المؤسفة المتعلقة بالانتحار أو الإيذاء الناتج عن التفاعل مع الروبوتات.
  • حماية الفئات الأكثر ضعفًا، خاصة القصر والمراهقين.
  • وضع إطار تنظيمي شامل لإدارة المخاطر النفسية المرتبطة بالذكاء الاصطناعي.
  • خلق بيئة رقمية آمنة تسمح بتبني التكنولوجيا مع الحفاظ على الصحة النفسية للمستخدمين.

خاتمة

تعكس هذه المبادرة النهج الفريد للصين في تنظيم الذكاء الاصطناعي، حيث يتم التركيز على السلامة النفسية للمستخدمين، موازنًا بين الابتكار الرقمي وحماية الأفراد.

مقالات مشابهة