MLCommons تطلق مجموعة بيانات Unsupervised People’s Speech

أعلنت مجموعة العمل في MLCommons عن إطلاق مجموعة بيانات Unsupervised People’s Speech بالتعاون مع HuggingFace، تحتوي على أكثر من مليون ساعة من الصوت بعدة لغات.

تفاصيل الخبر

أعلنت مجموعة العمل في MLCommons عن إطلاق مجموعة بيانات Unsupervised People’s Speech التي تشمل:

  • تعاون مشترك مع HuggingFace.
  • أكثر من مليون ساعة من الصوت عبر عدة لغات.
  • دعم تحسين نماذج التعلم الذاتي والتعرف التلقائي على الكلام.

الأهداف المستقبلية

تهدف مجموعة بيانات Unsupervised People’s Speech إلى:

  • توفير مجموعة بيانات صوتية متعددة اللغات لدعم البحث والتطوير في تقنيات الصوت.
  • دعم الأبحاث في معالجة اللغات الطبيعية (NLP) للغات ذات الموارد القليلة.
  • تحسين النماذج القائمة للتعرف على الكلام وتطبيقات جديدة في توليد الكلام.

بفضل هذه المجموعة، يمكن للباحثين مواصلة تطوير وتحسين نماذج الذكاء الاصطناعي لدعم مجموعة متنوعة من اللغات والتحديات التقنية.

بإطلاق مجموعة بيانات Unsupervised People’s Speech، تساهم MLCommons في تعزيز الابتكار في تقنيات الصوت ومعالجة اللغات الطبيعية، مما يتيح فرصاً جديدة للتطور والبحث في هذا المجال المتنامي.

مقالات مشابهة