المدعي العام بتكساس يحقق مع Meta وCharacter.AI حول الأطفال
فتح المدعي العام كين باكستون تحقيقًا في منصات الذكاء الاصطناعي مثل Meta وCharacter.AI بسبب استخدام محتمل لممارسات تجارية مضللة وتسويق خداع على أنها أدوات للصحة النفسية، بما قد يؤثر على الأطفال والمستخدمين الضعفاء.

تفاصيل الخبر
يشير التحقيق إلى أن بعض منصات الدردشة الذكية مثل Meta وCharacter.AI قد تتصرف بطريقة توحي بأنها أدوات علاجية محترفة رغم عدم وجود مؤهلات طبية:
- قد يقدم الروبوتات الذكية نصائح تبدو طبية أو نفسية، وتقلد اختصاصيين مرخصين، وتزيف شهاداتهم أو ادعاءات الأهلية المهنية.
- المنصات غالبًا تدعي السرية، لكن شروط الخدمة تكشف أن المحادثات تُسجل وتُستغل للإعلانات المستهدفة وتطوير الخوارزميات، ما يثير مخاوف تتعلق بالخصوصية واستغلال البيانات.
- أصدر المدعي العام مطالبات تحقيق مدنية (CIDs) للشركات المعنية لتحديد ما إذا كانت انتهكت قوانين حماية المستهلك في تكساس، بما يشمل الادعاءات الاحتيالية وتمثيل الخصوصية بشكل مضلل وإخفاء بيانات الاستخدام.
- البيان الرسمي أكد أن التكنولوجيا في Meta وCharacter.AI قد تخدع الأطفال والمستخدمين الضعفاء، وتوهمهم بتلقي دعم نفسي شرعي بينما يحصلون على ردود عامة مُعاد تدويرها ومصممة لتتناسب مع بياناتهم الشخصية المستخلصة.
الأهداف المستقبلية
يسعى المدعي العام باكستون من خلال التحقيق مع Meta وCharacter.AI إلى:
- حماية الأطفال والأسر في تكساس من الاستغلال التكنولوجي والخداع النفسي.
- التأكد من شفافية ومصداقية أدوات الذكاء الاصطناعي التي تقدم خدمات مشابهة للصحة النفسية.
- محاسبة الشركات التي تستخدم الذكاء الاصطناعي بطريقة تنتهك القوانين وتشكل تهديدًا للمستهلكين، بما في ذلك الانتهاكات المحتملة لقانون SCOPE Act.
- تعزيز بيئة رقمية آمنة تضمن أن التكنولوجيا لا تُستخدم كسلاح ضد المستخدمين الضعفاء.
هذا التحقيق مع Meta وCharacter.AI يبرز الحاجة الملحة لضبط ومراقبة استخدامات الذكاء الاصطناعي، خصوصًا فيما يتعلق بالأطفال والمستخدمين الذين يعتمدون على المنصات الرقمية للحصول على دعم نفسي أو عاطفي.