OpenAI تنشر تقريرًا عن إساءة استخدام نماذجها

أصدرت OpenAI تقريرًا من 37 صفحة يستعرض محاولات جهات خبيثة استغلال نماذجها، بما في ذلك ChatGPT، في عمليات احتيال دولية وحملات تأثير سياسي وعمليات تصيّد عاطفي ومنصات “احتيال كخدمة”.

تفاصيل الخبر

يوثّق تقرير OpenAI دراسات حالة توضح كيف يحاول فاعلون سيئون توظيف أدوات الذكاء الاصطناعي لتوسيع نطاق أنشطتهم، مع تأكيد الشركة أنها رصدت هذه السلوكيات وأغلقت الحسابات المتورطة.

  • شبكة احتيال عاطفي استخدمت نصوصًا مولدة بالذكاء الاصطناعي لتخصيص الرسائل على نطاق واسع.
  • جهات مرتبطة بكوريا الشمالية بحثت عن ثغرات في هجمات العملات المشفرة وصاغت رسائل توظيف مزيفة.
  • مُشغّل واحد أدار حملات تأثير سياسي عبر أكثر من ست دول على منصات مثل Facebook وInstagram وX.
  • قراصنة مدعومون من دول مثل الصين وإيران وكوريا الشمالية استخدموا النماذج لأغراض الاستطلاع وصياغة رسائل تصيّد.
  • شبكة أنشأت عملية “احتيال كخدمة” تضمنت ترجمة نصوص الاحتيال إلى اليابانية، وإنشاء وظائف وهمية، وصياغة رسائل SMS خادعة.

يشير التقرير إلى أن كثيرًا من هذه الأنماط الإجرامية ليست جديدة بحد ذاتها، لكن الذكاء الاصطناعي يزيد من سرعتها وقابليتها للتوسع، ما يعقّد جهود الكشف والردع.

الأهداف المستقبلية

تؤكد OpenAI أن نشر التقرير يهدف إلى تعزيز الشفافية والتعاون مع الجهات الحكومية والمنصات التقنية للحد من إساءة الاستخدام.

  • تحسين أنظمة الرصد الآلي للحسابات المشبوهة.
  • تطوير أدوات تصنيف واكتشاف محتوى الاحتيال والتصيّد.
  • مشاركة المعلومات مع شركاء الصناعة لتعزيز الاستجابة المشتركة.
  • تحديث سياسات الاستخدام باستمرار لمواكبة أساليب التهديد المتطورة.

يعكس التقرير واقعًا متناميًا يتمثل في أن تقنيات الذكاء الاصطناعي، رغم فوائدها الواسعة، أصبحت أداة تضخيم للتهديدات الرقمية، ما يفرض سباقًا متوازيًا بين الابتكار والحماية.

مقالات مشابهة