OpenAI تطلق نظام توجيه للسلامة مع أدوات رقابة أبوية
أعلنت شركة OpenAI عن إطلاق نظام جديد لتوجيه السلامة في ChatGPT إلى جانب أدوات رقابة أبوية، وذلك بعد سلسلة من الحوادث المثيرة للجدل حول تفاعلات الذكاء الاصطناعي.

تفاصيل الخبر
كشفت شركة OpenAI عن اختبار نظام توجيه السلامة في ChatGPT مطلع الأسبوع، وأتبعت ذلك يوم الاثنين بطرح أدوات رقابة أبوية، في خطوة لاقت ردود فعل متباينة. جاءت هذه التحديثات بعد قضية قضائية تتعلق بانتحار مراهق إثر تفاعلات طويلة مع النموذج.
من أبرز ما تضمنه الإعلان:
- نظام التوجيه الجديد يرصد المحادثات الحساسة عاطفياً ويحوّلها إلى نموذج GPT-5 الأكثر أماناً.
- ميزة “الإجابات الآمنة” تتيح التعامل مع الأسئلة الخطرة بأسلوب مسؤول بدلاً من الرفض المباشر.
- مقارنة مع GPT-4o: النموذج السابق تعرض لانتقادات بسبب طبيعته المتساهلة والاتفاقية المفرطة.
- الرقابة الأبوية تمنح الآباء التحكم في استخدام أبنائهم، مثل تحديد ساعات الهدوء أو إيقاف الذاكرة والصوت.
- حماية إضافية للمراهقين عبر تقليل المحتوى العنيف أو الصور المثالية غير الواقعية.
- آلية استجابة للطوارئ تشمل إشعار الآباء أو حتى الجهات الأمنية عند رصد خطر وشيك.
وقد أقر نيك تيرلي، نائب رئيس تطبيق ChatGPT، بأن النظام سيتطور تدريجياً خلال فترة اختبار مدتها 120 يوماً، مع وعود بالتحسين استناداً إلى تجارب الاستخدام الواقعية.
الأهداف المستقبلية
تهدف هذه الخطوة من OpenAI إلى:
- تعزيز الأمان النفسي لمستخدمي ChatGPT خاصة المراهقين.
- الموازنة بين الابتكار والرقابة دون الإضرار بجودة التجربة.
- بناء ثقة المستخدمين في أنظمة الذكاء الاصطناعي.
- تطوير إطار عالمي للتعامل مع المحادثات الحساسة والتدخل السريع عند الضرورة.
إطلاق هذه التحديثات يعكس إدراك OpenAI لمسؤوليتها الاجتماعية، لكنه يطرح تساؤلات حول كيفية الموازنة بين الحرية والرقابة. التجربة القادمة ستحدد مدى نجاح هذه المعادلة.
