جدل حول Grok 3: هل يواجه الذكاء الاصطناعي قيودًا غير متوقعة؟
أثار نموذج Grok 3 من xAI جدلًا واسعًا بعد اكتشاف رقابة على محتوى يتعلق بدونالد ترامب وإيلون ماسك، مما يثير تساؤلات حول مدى حرية المعلومات التي يقدمها.

تفاصيل الخبر
واجه نموذج الذكاء الاصطناعي Grok 3 انتقادات بعد أن لاحظ المستخدمون قيودًا في ردوده، رغم وعود ماسك بأن يكون غير مفلتر وساعيًا للحقيقة.
- في البداية، قدم Grok 3 آراءً مثيرة للجدل عن دونالد ترامب واعتبر ماسك أكبر ناشر للمعلومات المضللة.
- استجاب مهندس xAI، إيغور بابوشكين، بوصف الأمر بأنه “فشل سيئ” وعمل على تقييد إجابات النموذج حول هذه الموضوعات.
- لاحقًا، اكتشف المستخدمون أن النظام يمنع المصادر التي تربط ترامب وماسك بالمعلومات المضللة.
- كشف بابوشكين أن مسؤول الرقابة موظف سابق في OpenAI، مشيرًا إلى أنه لم يستوعب ثقافة xAI بالكامل بعد.
- تعرضت xAI أيضًا لانتقادات بسبب غياب بيانات الاختبارات المعيارية عند إطلاق Grok 3، وهو ما نفاه بابوشكين.
الأهداف المستقبلية
تحاول xAI معالجة الجدل وتحسين الشفافية في تطوير Grok 3 من خلال:
- تحسين آليات الاستجابة لضمان عدم فرض رقابة غير مبررة.
- تعزيز الانفتاح حول كيفية تدريب النماذج واختبارها.
- تقليل التدخل البشري المباشر في توجيه الردود.
- دعم حرية التعبير مع تحقيق توازن بين الدقة وعدم الانحياز.
خاتمة:
يثير الجدل حول Grok 3 تساؤلات أوسع عن حرية الذكاء الاصطناعي في التعبير. فهل يمكن لنماذج الذكاء الاصطناعي تحقيق التوازن بين الموضوعية والشفافية؟
