تكنولوجيا

ميكرون تؤكد بيعها مخزون ذواكر HBM3E لعام 2024

حققت شركة ميكرون ربحًا كبيرًا لكونها أول شركة تشحن ذواكر عرض النطاق الترددي العالي HBM3E إلى الأسواق.

فقد كشفت الشركة عن تمكنها من بيع مخزونها من ذاكرة HBM3E لعام 2024، وفي الوقت نفسه حُجز معظم إنتاجها لعام 2025.

وقد استخدمت إنفيديا ذاكرة ميكرون HBM3E مع وحدتي معالجة الرسوم H200 و GH200، لذلك يبدو أن شركة ميكرون ستكون المورد الرئيسي لوحدات معالجة الرسوم المستندة إلى معمارية Blackwell.

وتتكون أول رقاقة HBM3E من شركة ميكرون من حزمة ذاكرة بثماني طبقات وبحجم قدره 24 جيجابايت مع واجهة ذاكرة تبلغ 1024 بتًا، وبمعدل نقل بيانات يبلغ 9.2 جيجا عملية نقل/ الثانية (GT/s) وعرض نطاقٍ ترددي يصل إلى 1.2 تيرابايت/ الثانية.

وستستخدم وحدة معالجة الرسوم إنفيديا H200، الخاصة بالذكاء الاصطناعي والحوسبة العالية الأداء، ست حزم من ذاكرة HBM3E، لتعمل البطاقة بحجم ذاكرة قدره 141 جيجابايت.

وقال سانجاي مهروترا، الرئيس التنفيذي لشركة ميكرون، في تصريحاته أثناء مكالمة أرباح الشركة هذا الأسبوع: “لقد نفد مخزوننا من ذاكرة HBM3E لعام 2024، وحُجزت الغالبية العظمى من إنتاجنا لعام 2025”.

وأضاف قائلًا: “نحن في طريقنا إلى تحقيق إيرادات بمئات الملايين من الدولارات من ذاكرة عرض النطاق الترددي العالي (HBM) في السنة المالية 2024، ونتوقع أن تساهم إيرادات HBM في تحسين هوامش أرباحنا الإجمالية في مجال ذاكرة الوصول العشوائي الديناميكية (DRAM)”.

وقد حققت طلبات خوادم الذكاء الاصطناعي أرقامًا قياسيةً في العام الماضي، ويبدو أنها ستظل مرتفعة هذا العام أيضًا. ويعتقد بعض المحللين أن وحدتي معالجة الرسوم A100 و H100 استحوذتا على نسبة تصل إلى 80% من سوق معالجات الذكاء الاصطناعي في عام 2023.

وفي حين ستواجه إنفيديا هذا العام منافسة أكثر شراسة مع AMD و AWS و D-Matrix وإنتل و Tenstorrent وغيرها من الشركات في مجال استدلال الذكاء الاصطناعي، يبدو أن وحدة معالجة الرسوم إنفيديا H200 ستبقى الاختيار الأبرز لتدريب الذكاء الاصطناعي، خاصة لكبرى الشركات مثل: Meta، و Microsoft، و Amazon، التي تدير أساطيل بمئات الآلاف من معالجات إنفيديا.



مقالات ذات صلة

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى