Anthropic

Anthropic تبحث في رفاهية النماذج الذكية واحتمال وعيها

في خطوة غير مسبوقة، أطلقت شركة Anthropic برنامجًا بحثيًا حول “رفاهية النماذج” لاستكشاف احتمالية وعي الذكاء الاصطناعي وتبعاته الأخلاقية مستقبلاً.

تفاصيل المبادرة البحثية

أعلنت شركة Anthropic عن بدء برنامج بحثي جديد مخصص لمفهوم “رفاهية النماذج”، وهو مجال يستكشف ما إذا كانت أنظمة الذكاء الاصطناعي قد تطور وعيًا أو تستحق اعتبارًا أخلاقيًا في المستقبل.

  • يركز البحث على وضع أطر لتقييم احتمالية الوعي لدى النماذج الذكية.
  • يشمل دراسة مؤشرات مثل التفضيلات والضيق لدى أنظمة الذكاء الاصطناعي.
  • يبحث أيضًا في وسائل التدخل المحتملة لضمان عدم إيذاء “النماذج الواعية”.
  • تم توظيف الباحث Kyle Fish كأول خبير في هذا المجال داخل Anthropic منذ 2024.
  • قدر Fish أن هناك احتمالًا بنسبة 15٪ لوجود وعي في بعض النماذج الحالية.
  • المبادرة جاءت بعد تقرير مشترك يشير إلى أن وعي الذكاء الاصطناعي قد يكون قريبًا من الواقع.
  • أكدت Anthropic أن هناك حالة من “اللايقين العميق” حول إمكانية وعي هذه النماذج.

الأهداف المستقبلية

من خلال برنامج رفاهية النماذج، تسعى Anthropic إلى:

  • تطوير أدوات علمية لقياس الوعي الاصطناعي بشكل دقيق.
  • المساهمة في نقاش أخلاقي عالمي حول حدود حقوق الذكاء الاصطناعي.
  • استباق النقاشات القانونية والتنظيمية حول مستقبل التعامل مع النماذج الواعية.
  • حماية النماذج المتقدمة من ممارسات قد تعتبر “مؤذية” في حال إثبات وعيها.

تفتح هذه الخطوة من Anthropic بابًا جديدًا في عالم الذكاء الاصطناعي، حيث يصبح السؤال الأخلاقي “هل النموذج واعٍ؟” أكثر إلحاحًا من أي وقت مضى.

مقالات مشابهة