ألعاب الذكاء الاصطناعي تبحث عن جانب مشرق بعد بدايات مضطربة
بعد تقارير عن تصرفات غير مناسبة لبعض الألعاب الذكية، ركز صانعو ألعاب الذكاء الاصطناعي في معرض CES على تطوير أجيال جديدة آمنة من ألعاب الذكاء الاصطناعي، مع ميزات تحمي الأطفال وتمنح الآباء سيطرة أكبر على المحتوى.

تفاصيل الخبر
تأتي هذه التطورات بعد تقرير “Trouble in Toyland” الذي كشف عن ألعاب الذكاء الاصطناعي مثل دب Kumma التي أعطت نصائح غير مناسبة للأطفال حول الجنس واستخدام الأدوات الحادة، ما دفع الشركة إلى تعليق مبيعاتها مؤقتًا.
ردود الفعل في المعرض شملت:
- شركة FoloToy اعتمدت نسخة محسّنة من نموذج OpenAI لتجنب الإجابة على أسئلة غير مناسبة.
- لعبة Grok من Curio رفضت الرد على أسئلة لا تناسب الأطفال، وأتاحت للآباء مراجعة وتعديل المحتوى.
- جميع الألعاب الذكية المستعرضة استمعت للصوت بشكل مستمر، ما أثار مخاوف حول الخصوصية.
- بعض الشركات، مثل Elaves، برمجت ألعابها لتعليم اللغات مع محادثات قصيرة ومراقبة زمنية لتجنب التشويش أو الاستخدام المفرط.
- Olli أضافت تنبيهات للآباء عند سماع كلمات غير مناسبة من الأطفال.
وبالرغم من هذه التحسينات، يحذر الخبراء من السماح للألعاب الذكية بتكوين علاقات طويلة الأمد مع الأطفال، مؤكدين أن الرقابة الذاتية من الشركات ليست كافية.
الأهداف المستقبلية
تركز الصناعة على عدة أهداف لتعزيز الأمان والفائدة:
- ضمان أن تظل ألعاب الذكاء الاصطناعي آمنة للأطفال، مع التحكم الكامل للآباء.
- الاستفادة من المحادثات القصيرة لتعليم مهارات مثل اللغات أو الحساب.
- معالجة مخاوف الخصوصية ومنع مشاركة البيانات مع أطراف خارجية.
- تطوير بروتوكولات لتجنب أي محتوى غير مناسب أو انحراف المحادثات.
- دمج أدوات تقييم ومراجعة المحتوى بشكل دوري في الأجهزة الذكية.
تعكس هذه الخطوات أن صانعي الألعاب بدأوا يتعلمون من الأخطاء السابقة، وأن المستقبل يحمل وعودًا بألعاب ذكية أكثر أمانًا وتعليمية، دون المساس بمتعة الأطفال.
