Meta تكشف عن نظارات AR xAI ونموذج جديد والمزيد

 في مؤتمر Connect 2024، كشفت Meta عن مجموعة من الإعلانات الجديدة المتعلقة بالذكاء الاصطناعي، بما في ذلك نظارات Orion AR x AI الجديدة، ونموذج Llama 3.2، وميزات الذكاء الاصطناعي الجديدة لـ Reels، وتحديثات كبيرة لـ Meta AI، بما في ذلك وضع الصوت الجديد.

تفاصيل الخبر

  • نظارات Orion AR: تتميز بوزن أقل من 100 جرام، وشاشات ذات مجال رؤية واسع، وميزات متقدمة مثل التحكم الصوتي وتتبع اليد. استغرق تطوير هذه النظارات أكثر من 10 سنوات.
  • نموذج Llama 3.2: أول نموذج رؤية رئيسي من Meta قادر على فهم الصور والنصوص، ويتوفر بإصدارات 11B و90B.
  • نماذج Llama الجديدة: نماذج صغيرة جدًا بقدرات 1B و3B، مصممة للاستخدام على الأجهزة المحمولة وربما النظارات المستقبلية.
  • ميزات الذكاء الاصطناعي لـ Instagram: تتضمن دبلجة الفيديو التلقائية ومزامنة الشفاه للمبدعين بأي لغة، ومحتوى مولد بواسطة الذكاء الاصطناعي معروض على Feeds.
  • وضع الصوت: يسمح للمستخدمين بالتفاعل مع Meta AI باستخدام الصوت على Messenger وFacebook وWhatsApp وInstagram DMs، مشابه لوضع الصوت المتقدم في ChatGPT.

الأهداف المستقبلية

تهدف Meta إلى تعزيز مكانتها في مجال التكنولوجيا من خلال تقديم نماذج مفتوحة المصدر جديدة، وأحدث نظارات AR على الإطلاق، وتوفير ميزات الذكاء الاصطناعي لمئات الملايين من المستخدمين النشطين شهريًا. تسعى Meta إلى الاستمرار في الابتكار وتقديم تجارب مستخدم متقدمة على منصاتها المختلفة، مما يعزز من تفاعل المستخدمين ويعزز مكانتها في السوق.

مقالات مشابهة