في وقت هيمنة الذكاء الاصطناعي التوليدي على العالم، تكمن القوة الدافعة وراء هذه الثورة في شرائح الذكاء الاصطناعي عالية الأداء. على مدى السنوات العشر الماضية، زرعت NVIDIA بذور ثورة الذكاء الاصطناعي من خلال وحدات معالجة الرسوميات (GPU)، والآن تم تصميم Blackwell GPU خصيصًا للتدريب والاستدلال المتقدم للذكاء الاصطناعي، وأصبحت معيارًا في مراكز البيانات العالمية، حيث بلغ حجم الشحنات العام الماضي 6000000 وحدة. في حوامل الخوادم الكبيرة، يمكن تجميع 72 وحدة معالجة رسومية من خلال تقنية NVLink لتكوين وحدة حسابية واحدة ضخمة. اليوم، لم يعد سوق شرائح الذكاء الاصطناعي ساحة حصرية لوحدات معالجة الرسوميات من NVIDIA، حيث يتم اعتماد ASICs المخصصة وFPGA من قبل الشركات التقنية الكبيرة، فما هي اختلافات هذه الشرائح؟ كيف ستؤثر على تطوير الذكاء الاصطناعي في المستقبل، وقد تهز حتى هيمنة NVIDIA الوحيدة؟ هذا المقال مقتبس من ملخص الفيديو الخاص بـ CNBC.
GPU: بداية عصر الذهب للذكاء الاصطناعي
انتقلت وحدة معالجة الرسوميات من بطاقات الألعاب إلى كونها نواة الذكاء الاصطناعي، ويمكن تتبع ذلك إلى AlexNet في عام 2012. استخدم فريق البحث لأول مرة القدرة على المعالجة المتوازية لوحدات معالجة الرسوميات من NVIDIA في تدريب الشبكات العصبية، وحققوا نجاحًا كبيرًا في المنافسات الخاصة بالتعرف على الصور، مما فتح عصر التعلم العميق.
تأتي الميزة الأساسية لوحدة معالجة الرسومات (GPU) من الآلاف من نوى المعالجة المتوازية، مما يمكنها من تنفيذ عمليات المصفوفات مثل عمليات التنسور بكفاءة، مما يجعلها مناسبة تمامًا لتدريب الذكاء الاصطناعي واستنتاجه. اليوم، لا تزود NVIDIA فقط OpenAI والحكومات والشركات في جميع أنحاء العالم بوحدات معالجة الرسومات، بل تقوم أيضًا ببناء مجموعة كاملة من أنظمة الخوادم. يصل سعر خادم Blackwell في وحدة رف واحدة إلى 3 ملايين دولار، وكشفت NVIDIA أنها تقوم بشحن 1000 وحدة أسبوعيًا، مما يدل على جنون الطلب على قوة الحوسبة للذكاء الاصطناعي. تعتمد AMD، المنافسة لـ NVIDIA، على وحدات معالجة الرسومات Instinct ونظام البرمجيات مفتوحة المصدر لتسريع التقدم، وقد حصلت مؤخرًا على دعم من OpenAI وOracle، مما جعلها لاعبًا رئيسيًا في سوق بنية الذكاء الاصطناعي التحتية. تتمثل ميزة وحدات معالجة الرسومات AMD في استخدامها الرئيسي للبرمجيات مفتوحة المصدر، بينما تركز وحدات معالجة الرسومات NVIDIA بشكل وثيق على تحسين CUDA، وهي منصة البرمجيات المملوكة لـ NVIDIA.
أصبح تصميم ASIC للاستخدام الواحد اتجاهًا جديدًا
من Google، أمازون، ميتا، مايكروسوفت، إلى OpenAI و Broadcom، جميع عمالقة السحابة ي投入ون في تطوير ASIC (الدوائر المتكاملة المخصصة للتطبيقات). من المتوقع أن تصبح هذه الشرائح المصممة لغرض واحد فئة شرائح الذكاء الاصطناعي الأسرع نموًا في السنوات القادمة.
مع نضوج نماذج اللغة الكبيرة، تتجاوز متطلبات الاستدلال بسرعة متطلبات التدريب. أصبحت تكلفة الاستدلال واستهلاك الطاقة والاستقرار نقاط ألم لمنصات السحابة، وهذا هو ساحة المعركة الرئيسية لـ ASIC، فبخلاف GPU الشاملة، فإن ASIC تشبه “أداة فائقة الدقة مخصصة”، حيث يتم تحسينها عن طريق البرمجة الصلبة لنوع واحد من أحمال العمل الذكية، مما يجعلها أسرع وأقل استهلاكًا للطاقة. العيب هو أن المرونة أقل، وأن عتبة التطوير مرتفعة للغاية، حيث تتجاوز تكلفة تصميم شريحة مخصصة مليارات الدولارات، لذلك لا يمكن إلا للعمالقة السحابيين تحمّلها.
تكلفة ASIC المخصص للذكاء الصناعي أعلى. إنها باهظة الثمن، وتتطلب على الأقل عدة آلاف أو حتى مئات الملايين من الدولارات. ولكن بالنسبة لمقدمي خدمات السحابة الكبيرة الذين لا يمكنهم تحمل تكلفة ASIC المخصص، فإن AS6 المخصص يمكن أن يحقق عوائد لأنه أكثر كفاءة في استخدام الطاقة ويقلل الاعتماد على نفيديا.
تحدي ASIC القوي من Broadcom لنسبة سوق الذكاء الاصطناعي
تعتبر شركة بروكوم وشركات تصميم أشباه الموصلات مثل مارفيل، شركاء استراتيجيين رئيسيين لشركات السحابة العملاقة. يتم تطوير TPU من جوجل، ومسرعات الذكاء الاصطناعي الخاصة بشركة ميتا، وASIC الذي ستطرحه OpenAI قريبًا، بمشاركة عميقة من بروكوم. ساعدت بروكوم في بناء TPU لجوجل وتدريب استدلال الذكاء الاصطناعي لميتّا، وقدّر المحللون أن حصة بروكوم في سوق ASIC المخصص قد تصل إلى 70% إلى 80%.
FPGA: خيار مرن يقع بين ASIC و GPU
FPGA تستخدم لدعم الذكاء الاصطناعي على حافة الأجهزة بدلاً من السحابة. الميزة الرئيسية لـ FPGA هي “إعادة التكوين”. عندما تحتاج الشركات لاختبار البنية قبل التحديد النهائي للأجهزة، توفر FPGA خياراً بين مرونة GPU وكفاءة ASIC العالية. على الرغم من أن الأداء أقل من ASIC، إلا أن المرونة تجعلها مفضلة في مراكز البيانات والأجهزة المدمجة. تعتبر AMD (التي استحوذت على Xilinx) وإنتل (التي استحوذت على Altera) هما القوتان الرئيسيتان في سوق FPGA.
جوجل TPU
جوجل هي اللاعب الكبير الأول في مجال ASIC، حيث قامت بإنشاء دوائر متكاملة خاصة مصممة لتسريع الذكاء الاصطناعي (ASIC) في وقت مبكر، وعندما تم إطلاق أول ASIC لها في عام 2015، تم ابتكار مصطلح وحدة معالجة التنسور (TPU). كما ساهمت TPU في اختراع جوجل لهياكل Transformer في عام 2017، مما أصبح أساسًا مشتركًا للذكاء الاصطناعي مثل ChatGPT وClaude. اليوم، تطورت جوجل إلى الجيل السابع من TPU Ironwood، وساعدت Anthropologie في استخدام ملايين TPU لتدريب نماذج سلسلة Claude. هناك شائعات بأن TPU تتفوق على GPU من إنفيديا في بعض الحالات، لكن جوجل تقليديًا تستخدمها فقط داخليًا، لذا لا يزال الإمكانات الحقيقية لـ TPU لم تُستغل بالكامل.
AWS Tranium: مصفوفة استدلال السحابة
بعد استحواذ AWS على Annapurna Labs، استثمرت بالكامل في شرائح AI الخاصة بها. أصبح Tranium و Inferentia دعائم رئيسية في منصة التدريب والاستدلال الخاصة بـ AWS. يتكون Tranium من عدد كبير من محركات التنسور الصغيرة، وهو مرن للغاية، حيث تدعي AWS أن تكلفة الأداء أفضل بنسبة 30% إلى 40% من الأجهزة الأخرى في السحابة. في عام 2024، تدربت Anthropic على نموذج باستخدام 500,000 Tranium 2 في مركز بيانات AWS في شمال إنديانا، حيث لم يتم استخدام أي GPU من NVIDIA، مما يدل على أن مكانة ASIC في ارتفاع.
NPU (معالج الشبكة العصبية): شريحة AI على الحافة للهواتف الذكية وأجهزة الكمبيوتر والأجهزة المستخدمة في السيارات
بالإضافة إلى مراكز البيانات، تمتد رقائق الذكاء الاصطناعي أيضًا إلى الأجهزة الشخصية. تم تصميم NPU (معالج الشبكات العصبية) كرقاقة متخصصة لتشغيل الذكاء الاصطناعي على الحافة على الأجهزة بدلاً من التشغيل على السحابة، مما يضمن خصوصية الأفراد. تم دمجه الآن في شرائح SoC من Qualcomm Snapdragon وAMD وIntel وApple M-Series، ويستخدم في الهواتف المحمولة وأجهزة الكمبيوتر المحمولة والمنازل الذكية والسيارات وحتى الروبوتات. ستحقق الذكاء الاصطناعي على جانب الجهاز حماية خصوصية أعلى، وزمن استجابة أقل، وتحكمًا أقوى، مما يعد دافعًا هامًا للانتشار المقبل للذكاء الاصطناعي.
تعتبر TSMC جوهر معركة شرائح
بغض النظر عن شركة إنفيديا Blackwell أو Google TPU أو AWS Tranium، فإن معظم رقائق الذكاء الاصطناعي يتم تصنيعها في نهاية المطاف بواسطة TSMC. وهذا يجعل إمدادات قوة الذكاء الاصطناعي مرتبطة ارتباطًا وثيقًا بالجغرافيا السياسية العالمية. تحاول الولايات المتحدة من خلال مصنع TSMC في أريزونا وعملية Intel 18A سحب جزء من قدرات تصنيع الرقائق إلى الوطن. ومع ذلك، فإن الشركات الصينية مثل هواوي وعلي بابا تعمل أيضًا بنشاط على تطوير ASIC الخاص بها، بحثًا عن بدائل محلية في ظل القيود المفروضة على الصادرات.
عصر هيمنة رقائق الذكاء الاصطناعي قد بدأ
سواء كانت الهيمنة القوية لوحدات معالجة الرسوميات من إنفيديا، أو سباق ASIC من الشركات مثل جوجل، وأمازون، وميتا، وأوبن إيه آي، فإن وحدات معالجة الشبكات العصبية (NPU) تدفع بالذكاء الاصطناعي إلى كل هاتف وسيارة، وتستمر حرب الشرائح في التسارع. رغم أنه ليس من السهل زعزعة مكانة إنفيديا، إلا أن سوق الذكاء الاصطناعي ضخم، ويتدفق اللاعبون الجدد بشكل مستمر، ومن المؤكد أن خريطة الشرائح في العقد القادم ستكون أكثر حدة.
هذه المقالة تتناول الفروق التكنولوجية بين معالجات GPU من NVIDIA ورقائق الذكاء الاصطناعي التي طورتها Google وAmazon AWS، بالإضافة إلى اتجاهات السوق المستقبلية. ظهرت لأول مرة في Chain News ABMedia.
شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
الفروق التكنولوجية بين وحدة معالجة الرسومات من نفيديا والشرائح الذكية التي طورتها جوجل وأمازون AWS واتجاهات السوق المستقبلية
في وقت هيمنة الذكاء الاصطناعي التوليدي على العالم، تكمن القوة الدافعة وراء هذه الثورة في شرائح الذكاء الاصطناعي عالية الأداء. على مدى السنوات العشر الماضية، زرعت NVIDIA بذور ثورة الذكاء الاصطناعي من خلال وحدات معالجة الرسوميات (GPU)، والآن تم تصميم Blackwell GPU خصيصًا للتدريب والاستدلال المتقدم للذكاء الاصطناعي، وأصبحت معيارًا في مراكز البيانات العالمية، حيث بلغ حجم الشحنات العام الماضي 6000000 وحدة. في حوامل الخوادم الكبيرة، يمكن تجميع 72 وحدة معالجة رسومية من خلال تقنية NVLink لتكوين وحدة حسابية واحدة ضخمة. اليوم، لم يعد سوق شرائح الذكاء الاصطناعي ساحة حصرية لوحدات معالجة الرسوميات من NVIDIA، حيث يتم اعتماد ASICs المخصصة وFPGA من قبل الشركات التقنية الكبيرة، فما هي اختلافات هذه الشرائح؟ كيف ستؤثر على تطوير الذكاء الاصطناعي في المستقبل، وقد تهز حتى هيمنة NVIDIA الوحيدة؟ هذا المقال مقتبس من ملخص الفيديو الخاص بـ CNBC.
GPU: بداية عصر الذهب للذكاء الاصطناعي
انتقلت وحدة معالجة الرسوميات من بطاقات الألعاب إلى كونها نواة الذكاء الاصطناعي، ويمكن تتبع ذلك إلى AlexNet في عام 2012. استخدم فريق البحث لأول مرة القدرة على المعالجة المتوازية لوحدات معالجة الرسوميات من NVIDIA في تدريب الشبكات العصبية، وحققوا نجاحًا كبيرًا في المنافسات الخاصة بالتعرف على الصور، مما فتح عصر التعلم العميق.
تأتي الميزة الأساسية لوحدة معالجة الرسومات (GPU) من الآلاف من نوى المعالجة المتوازية، مما يمكنها من تنفيذ عمليات المصفوفات مثل عمليات التنسور بكفاءة، مما يجعلها مناسبة تمامًا لتدريب الذكاء الاصطناعي واستنتاجه. اليوم، لا تزود NVIDIA فقط OpenAI والحكومات والشركات في جميع أنحاء العالم بوحدات معالجة الرسومات، بل تقوم أيضًا ببناء مجموعة كاملة من أنظمة الخوادم. يصل سعر خادم Blackwell في وحدة رف واحدة إلى 3 ملايين دولار، وكشفت NVIDIA أنها تقوم بشحن 1000 وحدة أسبوعيًا، مما يدل على جنون الطلب على قوة الحوسبة للذكاء الاصطناعي. تعتمد AMD، المنافسة لـ NVIDIA، على وحدات معالجة الرسومات Instinct ونظام البرمجيات مفتوحة المصدر لتسريع التقدم، وقد حصلت مؤخرًا على دعم من OpenAI وOracle، مما جعلها لاعبًا رئيسيًا في سوق بنية الذكاء الاصطناعي التحتية. تتمثل ميزة وحدات معالجة الرسومات AMD في استخدامها الرئيسي للبرمجيات مفتوحة المصدر، بينما تركز وحدات معالجة الرسومات NVIDIA بشكل وثيق على تحسين CUDA، وهي منصة البرمجيات المملوكة لـ NVIDIA.
أصبح تصميم ASIC للاستخدام الواحد اتجاهًا جديدًا
من Google، أمازون، ميتا، مايكروسوفت، إلى OpenAI و Broadcom، جميع عمالقة السحابة ي投入ون في تطوير ASIC (الدوائر المتكاملة المخصصة للتطبيقات). من المتوقع أن تصبح هذه الشرائح المصممة لغرض واحد فئة شرائح الذكاء الاصطناعي الأسرع نموًا في السنوات القادمة.
مع نضوج نماذج اللغة الكبيرة، تتجاوز متطلبات الاستدلال بسرعة متطلبات التدريب. أصبحت تكلفة الاستدلال واستهلاك الطاقة والاستقرار نقاط ألم لمنصات السحابة، وهذا هو ساحة المعركة الرئيسية لـ ASIC، فبخلاف GPU الشاملة، فإن ASIC تشبه “أداة فائقة الدقة مخصصة”، حيث يتم تحسينها عن طريق البرمجة الصلبة لنوع واحد من أحمال العمل الذكية، مما يجعلها أسرع وأقل استهلاكًا للطاقة. العيب هو أن المرونة أقل، وأن عتبة التطوير مرتفعة للغاية، حيث تتجاوز تكلفة تصميم شريحة مخصصة مليارات الدولارات، لذلك لا يمكن إلا للعمالقة السحابيين تحمّلها.
تكلفة ASIC المخصص للذكاء الصناعي أعلى. إنها باهظة الثمن، وتتطلب على الأقل عدة آلاف أو حتى مئات الملايين من الدولارات. ولكن بالنسبة لمقدمي خدمات السحابة الكبيرة الذين لا يمكنهم تحمل تكلفة ASIC المخصص، فإن AS6 المخصص يمكن أن يحقق عوائد لأنه أكثر كفاءة في استخدام الطاقة ويقلل الاعتماد على نفيديا.
تحدي ASIC القوي من Broadcom لنسبة سوق الذكاء الاصطناعي
تعتبر شركة بروكوم وشركات تصميم أشباه الموصلات مثل مارفيل، شركاء استراتيجيين رئيسيين لشركات السحابة العملاقة. يتم تطوير TPU من جوجل، ومسرعات الذكاء الاصطناعي الخاصة بشركة ميتا، وASIC الذي ستطرحه OpenAI قريبًا، بمشاركة عميقة من بروكوم. ساعدت بروكوم في بناء TPU لجوجل وتدريب استدلال الذكاء الاصطناعي لميتّا، وقدّر المحللون أن حصة بروكوم في سوق ASIC المخصص قد تصل إلى 70% إلى 80%.
FPGA: خيار مرن يقع بين ASIC و GPU
FPGA تستخدم لدعم الذكاء الاصطناعي على حافة الأجهزة بدلاً من السحابة. الميزة الرئيسية لـ FPGA هي “إعادة التكوين”. عندما تحتاج الشركات لاختبار البنية قبل التحديد النهائي للأجهزة، توفر FPGA خياراً بين مرونة GPU وكفاءة ASIC العالية. على الرغم من أن الأداء أقل من ASIC، إلا أن المرونة تجعلها مفضلة في مراكز البيانات والأجهزة المدمجة. تعتبر AMD (التي استحوذت على Xilinx) وإنتل (التي استحوذت على Altera) هما القوتان الرئيسيتان في سوق FPGA.
جوجل TPU
جوجل هي اللاعب الكبير الأول في مجال ASIC، حيث قامت بإنشاء دوائر متكاملة خاصة مصممة لتسريع الذكاء الاصطناعي (ASIC) في وقت مبكر، وعندما تم إطلاق أول ASIC لها في عام 2015، تم ابتكار مصطلح وحدة معالجة التنسور (TPU). كما ساهمت TPU في اختراع جوجل لهياكل Transformer في عام 2017، مما أصبح أساسًا مشتركًا للذكاء الاصطناعي مثل ChatGPT وClaude. اليوم، تطورت جوجل إلى الجيل السابع من TPU Ironwood، وساعدت Anthropologie في استخدام ملايين TPU لتدريب نماذج سلسلة Claude. هناك شائعات بأن TPU تتفوق على GPU من إنفيديا في بعض الحالات، لكن جوجل تقليديًا تستخدمها فقط داخليًا، لذا لا يزال الإمكانات الحقيقية لـ TPU لم تُستغل بالكامل.
AWS Tranium: مصفوفة استدلال السحابة
بعد استحواذ AWS على Annapurna Labs، استثمرت بالكامل في شرائح AI الخاصة بها. أصبح Tranium و Inferentia دعائم رئيسية في منصة التدريب والاستدلال الخاصة بـ AWS. يتكون Tranium من عدد كبير من محركات التنسور الصغيرة، وهو مرن للغاية، حيث تدعي AWS أن تكلفة الأداء أفضل بنسبة 30% إلى 40% من الأجهزة الأخرى في السحابة. في عام 2024، تدربت Anthropic على نموذج باستخدام 500,000 Tranium 2 في مركز بيانات AWS في شمال إنديانا، حيث لم يتم استخدام أي GPU من NVIDIA، مما يدل على أن مكانة ASIC في ارتفاع.
NPU (معالج الشبكة العصبية): شريحة AI على الحافة للهواتف الذكية وأجهزة الكمبيوتر والأجهزة المستخدمة في السيارات
بالإضافة إلى مراكز البيانات، تمتد رقائق الذكاء الاصطناعي أيضًا إلى الأجهزة الشخصية. تم تصميم NPU (معالج الشبكات العصبية) كرقاقة متخصصة لتشغيل الذكاء الاصطناعي على الحافة على الأجهزة بدلاً من التشغيل على السحابة، مما يضمن خصوصية الأفراد. تم دمجه الآن في شرائح SoC من Qualcomm Snapdragon وAMD وIntel وApple M-Series، ويستخدم في الهواتف المحمولة وأجهزة الكمبيوتر المحمولة والمنازل الذكية والسيارات وحتى الروبوتات. ستحقق الذكاء الاصطناعي على جانب الجهاز حماية خصوصية أعلى، وزمن استجابة أقل، وتحكمًا أقوى، مما يعد دافعًا هامًا للانتشار المقبل للذكاء الاصطناعي.
تعتبر TSMC جوهر معركة شرائح
بغض النظر عن شركة إنفيديا Blackwell أو Google TPU أو AWS Tranium، فإن معظم رقائق الذكاء الاصطناعي يتم تصنيعها في نهاية المطاف بواسطة TSMC. وهذا يجعل إمدادات قوة الذكاء الاصطناعي مرتبطة ارتباطًا وثيقًا بالجغرافيا السياسية العالمية. تحاول الولايات المتحدة من خلال مصنع TSMC في أريزونا وعملية Intel 18A سحب جزء من قدرات تصنيع الرقائق إلى الوطن. ومع ذلك، فإن الشركات الصينية مثل هواوي وعلي بابا تعمل أيضًا بنشاط على تطوير ASIC الخاص بها، بحثًا عن بدائل محلية في ظل القيود المفروضة على الصادرات.
عصر هيمنة رقائق الذكاء الاصطناعي قد بدأ
سواء كانت الهيمنة القوية لوحدات معالجة الرسوميات من إنفيديا، أو سباق ASIC من الشركات مثل جوجل، وأمازون، وميتا، وأوبن إيه آي، فإن وحدات معالجة الشبكات العصبية (NPU) تدفع بالذكاء الاصطناعي إلى كل هاتف وسيارة، وتستمر حرب الشرائح في التسارع. رغم أنه ليس من السهل زعزعة مكانة إنفيديا، إلا أن سوق الذكاء الاصطناعي ضخم، ويتدفق اللاعبون الجدد بشكل مستمر، ومن المؤكد أن خريطة الشرائح في العقد القادم ستكون أكثر حدة.
هذه المقالة تتناول الفروق التكنولوجية بين معالجات GPU من NVIDIA ورقائق الذكاء الاصطناعي التي طورتها Google وAmazon AWS، بالإضافة إلى اتجاهات السوق المستقبلية. ظهرت لأول مرة في Chain News ABMedia.