Magenta RealTime: نموذج مفتوح لإنشاء الموسيقى الحيّة

أعلنت Google عن Magenta RT، نموذج موسيقي مفتوح يتيح تأليف الموسيقى والتفاعل معها لحظيًا باستخدام الذكاء الاصطناعي وبجودة عالية ولُحنيّة ديناميكية.

تفاصيل الخبر

Magenta RealTime (Magenta RT) هو نموذج موسيقي جديد مفتوح المصدر من فريق Magenta في Google، صُمّم لإنشاء الموسيقى بشكل تفاعلي ومباشر، ويعد تطويرًا موازيًا لنموذج Lyria RealTime.

  • يعتمد على بنية Transformer autoregressive بحجم 800 مليون معلمة.
  • تم تدريبه على 190 ألف ساعة من الموسيقى الآلية متعددة المصادر، بجودة 48kHz ستيريو.
  • يعمل على توليد متسلسل ومشروط على مقاطع صوتية قصيرة (2 ثانية) استنادًا إلى السياق السابق (10 ثوانٍ).
  • يوفر تحكمًا لحظيًا عبر style embedding المستمد من نصوص أو عينات صوتية.
  • يستخدم تمثيلًا صوتيًا متطورًا باسم SpectroStream، وهو تطوير لـ SoundStream.
  • يدعم النماذج التفاعلية مع أدوات مثل Notion، Slack، وPerplexity عبر بروتوكول MCP.
  • يعمل حاليًا عبر TPU في Google Colab، مع خطط لتشغيله محليًا لاحقًا.
  • مرخص تحت تراخيص مرنة مع إمكانية التخصيص والتعديل.

التطلعات المستقبلية

Google ومشروع Magenta RealTime يهدفان إلى تطوير جيل جديد من أدوات الذكاء الاصطناعي الموسيقية الحيّة:

  • إتاحة التحكم اللحظي الكامل بصوتيات متعددة الأدوات والأنماط.
  • تطوير أدوات شخصية لتوليف النموذج محليًا بناءً على الذوق أو النمط.
  • تسهيل العروض الموسيقية الحيّة والتفاعل مع الفضاءات الرقمية والفنية.
  • تعزيز الابداع التشاركي بين الإنسان والآلة لتحقيق “حالة تدفق إبداعي” في الوقت الفعلي.
  • تمكين فنانين ومطوّرين من استكشاف الفضاء الكامن للموسيقى وإعادة تشكيل الأساليب الموسيقية.

Magenta RealTime يمثل قفزة نوعية في الموسيقى التفاعلية الحيّة، حيث يفتح المجال أمام إمكانيات إبداعية جديدة تجمع بين السرعة، الدقة، والتعبير اللحظي. هذا النموذج قد يشكّل أداة المستقبل للمؤلفين والعازفين في العصر الرقمي.

مقالات مشابهة