
- شريحة ميتا الفائقة بقوة 1700 واط تقدم 30 PFLOPs و512 جيجابايت من ذاكرة HBM
- تعطي MTIA 450 و500 الأولوية للاستدلال على حساب أعباء العمل المسبقة
- الأجيال المستقبلية من MTIA ستدعم أعباء العمل الخاصة بالاستدلال والتصنيف للذكاء الاصطناعي
تتقدم ميتا في بنيتها التحتية للذكاء الاصطناعي بمحفظة من شرائح MTIA المخصصة المصممة خصيصًا لأعباء عمل الاستدلال عبر تطبيقاتها.
تقوم الشركة بتطوير شريحة فائقة بقوة 1700 واط قادرة على 30 PFLOPs و512 جيجابايت من HBM، مدمجة ضمن نفس بنية MTIA للتعامل مع مهام الاستدلال على نطاق واسع.
المثير للاهتمام، أنها تحقق هذا الإنجاز دون أي من أصدقائها — لا يوجد إنفيديا، أيه إم دي، إنتل، أو آرم.
يتواصل المقال أدناه
وفقًا لـ ميتا، تم نشر مئات الآلاف من شرائح MTIA بالفعل في الإنتاج، تدعم التصنيف والتوصيات وأعباء الإعلانات.
تعد هذه الشرائح جزءًا من نظام شامل مصمم خصيصًا لاحتياجات ميتا، حيث تحقق كفاءة حسابية أعلى من الأجهزة العامة لأعباء العمل المستهدفة.
على عكس الشركات الكبرى الأخرى مثل جوجل، وAWS، ومايكروسوفت، وأبل، تتبع ميتا استراتيجية كاملة من السيليكون المخصص.
تعطي هذه التصميم الأولوية للكفاءة على الاستخدامات العامة، مما يسمح للاستدلال بالعمل بتكلفة أقل بكثير مقارنة بمعالجات الرسوميات أو المعالجات المركزية التقليدية.
تحافظ على التوافق مع البرمجيات القياسية في الصناعة مثل PyTorch وvLLM وTriton.
تتوقع خارطة طريق MTIA الخاصة بميتا أربعة أجيال جديدة من الشرائح خلال العامين المقبلين، بما في ذلك MTIA 300، التي هي حاليًا في مرحلة الإنتاج للتصنيف والتوصيات.
ستوسع الأجيال المستقبلية — MTIA 400 و450 و500 — دعم أعباء العمل الخاصة بالاستدلال للذكاء الاصطناعي، مع تصميمات يمكن أن تناسب البنية التحتية الحالية للرفوف.
تشدد ميتا على التطوير السريع والتكراري، حيث تطلق شريحة جديدة تقريبًا كل ستة أشهر من خلال تصاميم معيارية وقابلة لإعادة الاستخدام.
يسمح التصميم المعياري بإضافة شرائح جديدة في أنظمة الرفوف الحالية، مما يقلل من الاحتكاك في النشر ويسرع الوقت إلى الإنتاج.
تتيح هذه الطريقة للشركة اعتماد تقنيات الذكاء الاصطناعي الناشئة والابتكارات في الأجهزة بسرعة أكبر من المنافسين، الذين عادةً ما يحتاجون إلى دورة تتراوح بين عام إلى عامين لكل جيل.
على عكس معظم شرائح الذكاء الاصطناعي السائدة التي تعطي الأولوية لتعلم GenAI المسبق على نطاق واسع ثم تتكيف لاحقًا للاستدلال، تركز MTIA 450 و500 الخاصة بميتا أولاً على أعباء العمل الخاصة بالاستدلال.
يمكن للشرائح أيضًا دعم مهام أخرى، بما في ذلك تدريب التصنيف والتوصيات أو تدريب GenAI، ولكن تصميمها يبقيها مضبوطة على النمو المتوقع في الطلب على الاستدلال.
يتماشى تصميم ميتا على مستوى النظام مع معايير مشروع Open Compute، مما يمكّن النشر السلس في مراكز البيانات، مع الحفاظ على كفاءة حسابية عالية.
تعترف الشركة بأنه لا يمكن لأي شريحة واحدة التعامل مع الطيف الكامل لأعباء عمل الذكاء الاصطناعي الخاصة بها.
لهذا السبب تقوم بنشر أجيال متعددة من MTIA جنبًا إلى جنب مع سيليكون تكميلي من بائعين آخرين.
تسعى الاستراتيجية إلى تحقيق التوازن بين المرونة والأداء مع تسريع الابتكار نحو الذكاء الفائق الشخصي.
تابع TechRadar على أخبار جوجل و أضفنا كمصدر مفضل للحصول على أخبارنا، ومراجعاتنا، وآرائنا في خلاياك. تأكد من النقر على زر المتابعة!
وبالطبع يمكنك أيضًا متابعة TechRadar على TikTok للحصول على أخبار، ومراجعات، ومحتوى بالصوت والصورة، والحصول على تحديثات منتظمة منا على واتساب أيضًا.
