Meta تتعرض لانتقادات بعد إرشادات روبوتاتها للأطفال
كشف تقرير رويترز عن إرشادات داخلية لشركة Meta تحدد سلوك روبوتات الدردشة الذكية، ما أثار جدلاً واسعاً حول إمكانية إجراء محادثات رومانسية أو عاطفية مع الأطفال ونشر محتوى مضلل.

تفاصيل الخبر
التقرير سلط الضوء على الوثائق الداخلية المسماة “GenAI: Content Risk Standards”، والتي أظهرت أن روبوتات Meta كانت قادرة على القيام بسلوكيات مثيرة للجدل:
من المهم توضيح أن هذه الإرشادات لم تُطبق على كل المستخدمين، لكنها كشفت عن ثغرات في سياسات السلامة والمراقبة.
- السماح بإجراء محادثات رومانسية أو عاطفية مع الأطفال، باستخدام عبارات غير مناسبة.
- نشر معلومات طبية خاطئة، مثل توصيات علاجية غير علمية لأمراض خطيرة.
- إمكانية عرض محتوى عنصري أو تمييزي تجاه بعض الخلفيات الإثنية.
- الشركة أكدت لاحقاً إزالة أجزاء حساسة من الوثائق ووصفتها بأنها أمثلة خاطئة لا تعكس سياساتها الرسمية.
الأهداف المستقبلية
Meta أعلنت أنها ستسعى إلى:
- مراجعة وتحديث سياسات الذكاء الاصطناعي لتقليل المخاطر على الأطفال والمستخدمين بشكل عام.
- تعزيز مراقبة المحتوى داخل الروبوتات الذكية لضمان الامتثال للقوانين والمعايير الأخلاقية.
- تدريب فرق التطوير على الاستخدام المسؤول للذكاء الاصطناعي ومنع الانحرافات السلوكية.
- تحسين الشفافية والإبلاغ عن أي خلل قد يؤثر على سلامة المستخدمين.
توضح هذه القضية أن إدماج الذكاء الاصطناعي في الحياة اليومية يحتاج إلى ضوابط صارمة، خاصة عند التعامل مع فئات حساسة مثل الأطفال، لضمان حماية المستخدمين ومنع استغلال التقنيات.
