Meta

Meta تشترط الإفصاح عن استخدام الذكاء الاصطناعي في الإعلانات

في خطوة لتعزيز الشفافية، ستلزم Meta المعلنين بالكشف عن أي محتوى تم إنشاؤه أو تعديله بواسطة الذكاء الاصطناعي في الإعلانات السياسية والاجتماعية.

تفاصيل السياسة الجديدة

قبل الانتخابات الفيدرالية الكندية المقبلة، أعلنت Meta Platforms عن سياسة جديدة تلزم المعلنين بالإفصاح عن أي استخدام للذكاء الاصطناعي أو التقنيات الرقمية في إنتاج أو تعديل الإعلانات السياسية والاجتماعية.

تهدف هذه الخطوة إلى مكافحة المعلومات المضللة من خلال ضمان وضوح المحتوى الذي يتضمن صورًا أو مقاطع فيديو أو تسجيلات صوتية تبدو حقيقية ولكنها تمثل أفرادًا أو أحداثًا بطريقة غير دقيقة أو ملفقة.

أبرز النقاط

  • تشمل السياسة المحتوى الذي يصور أشخاصًا غير موجودين أو أحداثًا مفبركة.
  • تأتي بعد حظر Meta للإعلانات السياسية الجديدة بعد الانتخابات الأمريكية بسبب مخاوف التضليل الإعلامي.
  • منعت Meta الحملات السياسية من استخدام أدواتها الإعلانية القائمة على الذكاء الاصطناعي في عام 2023.
  • رغم هذه الإجراءات، تعرضت Meta لانتقادات بعد إيقافها برامج التحقق من الحقائق في الولايات المتحدة والحد من المناقشات حول القضايا الحساسة.
  • تسمح المنصة الآن للمستخدمين بإضافة تصنيفات على المحتوى الذي يتم إنشاؤه بالذكاء الاصطناعي عند مشاركته، لتعزيز الشفافية.

دور مبادرة Meta في نزاهة الانتخابات

تعكس هذه السياسة الجديدة جهود Meta المستمرة للحفاظ على نزاهة الانتخابات ومعالجة التحديات التي يفرضها المحتوى الذي يتم إنشاؤه بواسطة الذكاء الاصطناعي في المشهد السياسي.

تؤكد هذه الخطوة التزام Meta بتعزيز الشفافية في الإعلانات السياسية وحماية نزاهة الانتخابات. ومع تزايد استخدام الذكاء الاصطناعي، يصبح الإفصاح عن محتوى الإعلانات أمرًا بالغ الأهمية. تبقى مراقبة تنفيذ هذه السياسة مفتاحًا لمدى فعاليتها في الحد من التضليل الإعلامي.

مقالات مشابهة