В умовах, коли генеративний штучний інтелект охоплює світ, основою цього революційного зрушення є швидкісні обчислювальні чипи штучного інтелекту. Протягом останніх десяти років компанія NVIDIA посадила насіння AI-промислової революції, використовуючи GPU, а сьогодні Blackwell GPU, створений спеціально для найсучаснішого навчання та інференції AI, став стандартним обладнанням для дата-центрів у всьому світі, а минулого року обсяги постачання досягли 6 мільйонів одиниць. У великих серверах 72 GPU можуть об'єднуватися за допомогою технології NVLink в обчислювальний блок, що функціонує як один гігантський GPU. Сьогодні ринок чипів AI вже не є монополією GPU від NVIDIA; кастомізовані ASIC та FPGA починають використовувати великі технологічні компанії. Які ж відмінності між цими чипами AI? Як це вплине на розвиток AI в майбутньому, і чи може це навіть підривати домінування NVIDIA? Ця стаття є узагальненням основних моментів з відео CNBC.
GPU:початок золотої епохи AI
GPU з ігрових карт піднявся до рівня AI-ядер, що можна простежити до 2012 року з AlexNet. Дослідницька команда вперше використала паралельні обчислювальні можливості GPU від NVIDIA для навчання нейронних мереж, успішно випередивши інших конкурентів на змаганнях з розпізнавання зображень, що відкриває еру глибокого навчання.
Основна перевага GPU полягає в тисячах паралельних обробних ядер, які ефективно виконують матричні множення та інші тензорні обчислення, що робить їх ідеальними для навчання та висновків AI. Сьогодні NVIDIA не тільки постачає GPU для OpenAI, урядів різних країн і підприємств, але також безпосередньо створює цілі системи серверів. Вартість одного сервера Blackwell у рамках одного стійка досягає 3 мільйонів доларів, і NVIDIA навіть повідомила, що щотижня здійснює дамп 1000 одиниць, що свідчить про шалений попит на обчислювальну потужність AI. Конкурент NVIDIA, AMD, покладається на GPU Instinct та екосистему відкритого програмного забезпечення для прискорення прогресу, нещодавно отримавши підтримку від OpenAI та Oracle, ставши важливим гравцем на ринку інфраструктури AI, відмінність GPU AMD полягає в основному в використанні відкритого програмного забезпечення, тоді як GPU Nvidia тісно оптимізується навколо CUDA, що є власною програмною платформою Nvidia.
Спеціально розроблені ASIC для однієї мети стають новим трендом
Від Google, Amazon, Meta, Microsoft до OpenAI та Broadcom, усі великі хмарні гіганти активно інвестують у розробку кастомізованих ASIC (спеціалізованих інтегральних схем). Ці чіпи, розроблені спеціально для єдиного використання, очікується, що стануть найшвидше зростаючим класом AI-чіпів у найближчі кілька років.
Зі зрістом великих мовних моделей, попит на інференцію швидко перевищує навчання. Витрати на інференцію, енергоспоживання та стабільність стають болючими точками для хмарних платформ, і це є основним полем бою для ASIC. На відміну від універсальних GPU, ASIC є своєрідним “спеціалізованим надточним інструментом”, оптимізованим для жорсткого кодування одного типу AI навантаження, що робить його швидшим і з меншим споживанням енергії. Недоліком є гірша гнучкість і надзвичайно високі бар'єри для розробки: проектування кастомного чіпа коштує десятки мільярдів доларів, тому лише великі хмарні гіганти можуть це собі дозволити.
Вартість кастомізованих ASIC для AI є вищою. Вони надзвичайно дорогі, щонайменше кілька тисяч, а то й кілька сотень мільйонів доларів. Але для тих великих постачальників хмарних послуг, які не можуть дозволити собі кастомізовані ASIC, кастомізовані AS6 можуть принести вигоду, оскільки вони мають вищу ефективність і зменшують залежність від NVIDIA.
ASIC від Broadcom активно викликає конкуренцію за частку ринку AI
Broadcom та Marvell та інші компанії з розробки чіпів є стратегічними партнерами супер великих хмарних підприємств. Google TPU, самостійно розроблений прискорювач Meta та ASIC, які незабаром вийдуть від OpenAI, всі залучаються глибоко Broadcom. Broadcom допомагає будувати TPU Google та навчання AI Meta, аналітики оцінюють, що частка ринку Broadcom у кастомізованих ASIC може досягти 70% до 80%.
FPGA: гнучкий вибір між ASIC та GPU
FPGA використовується для підтримки краєвих AI на стороні пристрою, а не в хмарі. Найбільша перевага FPGA полягає в “переналаштуванні”. Коли компаніям потрібно протестувати архітектуру, поки апаратне забезпечення ще не затверджено, FPGA пропонує варіант між універсальністю GPU та високою продуктивністю ASIC. Хоча продуктивність нижча, ніж у ASIC, гнучкість робить його популярним серед дата-центрів та вбудованих пристроїв. AMD (придбала Xilinx) та Intel (придбала Altera) є двома основними гравцями на ринку FPGA.
Гугл ТПУ
Google є першим великим гравцем у ASIC, який першим створив спеціалізовані інтегровані схеми (ASIC) для прискорення штучного інтелекту, і коли його перший ASIC з'явився на ринку в 2015 році, було створено термін Tensor Processing Unit (TPU). TPU також сприяв винаходу Google архітектури Transformer у 2017 році, ставши спільною основою для таких AI, як ChatGPT, Claude тощо. Сьогодні Google розвинувся до 7-го покоління TPU Ironwood і допомагає Anthropologie використовувати мільйони TPU для навчання моделей серії Claude. Вважається, що TPU в деяких випадках навіть перевершує GPU від NVIDIA, але Google традиційно використовує їх лише для власних потреб, тому справжній потенціал TPU ще не повністю реалізовано.
AWS Tranium: матриця для хмарного висновку
AWS, після придбання Annapurna Labs, активно інвестує у власні AI чіпи. Tranium та Inferentia стали важливими опорами платформи навчання та інференції AWS. Tranium складається з великої кількості малих тензорних двигунів, що забезпечує високу гнучкість, за словами AWS, його вартість ефективніша на 30% до 40% у порівнянні з іншими апаратними засобами у хмарі. У 2024 році Anthropic в центрі даних AWS у Північному Індіані навчає моделі на 500 000 Tranium 2, при цьому навіть без жодного GPU від Nvidia, що свідчить про зростаючу роль ASIC.
NPU (нейронний процесор): краєвий AI чіп для мобільних телефонів, комп'ютерів та автомобільних пристроїв
Окрім центрів обробки даних, AI чіпи також поширюються на персональні пристрої. NPU (процесор нейронних мереж) — це чіп, спеціально розроблений для виконання крайового штучного інтелекту на пристроях, а не в хмарі, що забезпечує конфіденційність особистих даних. Вже інтегровано в SoC Qualcomm Snapdragon, AMD, Intel та Apple M серії, використовується в мобільних телефонах, ноутбуках, розумних будинках, автомобілях і навіть роботах. AI на рівні пристроїв забезпечить вищий рівень конфіденційності, меншу затримку та більший контроль, що є важливим поштовхом для наступної хвилі поширення штучного інтелекту.
Taiwan Semiconductor Manufacturing Company стала центром боротьби за чіпи
Незалежно від того, чи це чіпи NVIDIA Blackwell, Google TPU або AWS Tranium, більшість AI чіпів в кінцевому підсумку виробляються на замовлення TSMC. Це робить постачання обчислювальної потужності AI тісно пов'язаним з глобальною геополітикою. США намагаються повернути частину виробничих потужностей чіпів на батьківщину через завод TSMC в Аризоні та технологію Intel 18A. Проте китайські компанії, такі як Huawei та Alibaba, також активно розробляють власні ASIC, шукаючи внутрішні альтернативи в умовах експортного контролю.
Ера панування AI чіпів наставала
Незалежно від сильного домінування GPU від NVIDIA, чи ASIC-гонки та NPU від компаній, таких як Google, AWS, Meta, OpenAI, які просувають крайній AI до кожного смартфона та автомобіля, війна чіпів продовжує прискорюватися. Хоча важко потрясти позицію NVIDIA, ринок AI має величезний масштаб, нові гравці постійно входять, і в наступні десять років карта чіпів стане ще більш жорсткою.
Ця стаття присвячена технічним відмінностям між GPU від NVIDIA та самостійно розробленими AI чіпами Google і Amazon AWS, а також майбутнім тенденціям на ринку. Вперше вона з'явилася в Chain News ABMedia.
Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
Технічні відмінності між GPU NVIDIA та самостійно розробленими AI чіпами Google і Amazon AWS, а також майбутні тенденції на ринку
В умовах, коли генеративний штучний інтелект охоплює світ, основою цього революційного зрушення є швидкісні обчислювальні чипи штучного інтелекту. Протягом останніх десяти років компанія NVIDIA посадила насіння AI-промислової революції, використовуючи GPU, а сьогодні Blackwell GPU, створений спеціально для найсучаснішого навчання та інференції AI, став стандартним обладнанням для дата-центрів у всьому світі, а минулого року обсяги постачання досягли 6 мільйонів одиниць. У великих серверах 72 GPU можуть об'єднуватися за допомогою технології NVLink в обчислювальний блок, що функціонує як один гігантський GPU. Сьогодні ринок чипів AI вже не є монополією GPU від NVIDIA; кастомізовані ASIC та FPGA починають використовувати великі технологічні компанії. Які ж відмінності між цими чипами AI? Як це вплине на розвиток AI в майбутньому, і чи може це навіть підривати домінування NVIDIA? Ця стаття є узагальненням основних моментів з відео CNBC.
GPU:початок золотої епохи AI
GPU з ігрових карт піднявся до рівня AI-ядер, що можна простежити до 2012 року з AlexNet. Дослідницька команда вперше використала паралельні обчислювальні можливості GPU від NVIDIA для навчання нейронних мереж, успішно випередивши інших конкурентів на змаганнях з розпізнавання зображень, що відкриває еру глибокого навчання.
Основна перевага GPU полягає в тисячах паралельних обробних ядер, які ефективно виконують матричні множення та інші тензорні обчислення, що робить їх ідеальними для навчання та висновків AI. Сьогодні NVIDIA не тільки постачає GPU для OpenAI, урядів різних країн і підприємств, але також безпосередньо створює цілі системи серверів. Вартість одного сервера Blackwell у рамках одного стійка досягає 3 мільйонів доларів, і NVIDIA навіть повідомила, що щотижня здійснює дамп 1000 одиниць, що свідчить про шалений попит на обчислювальну потужність AI. Конкурент NVIDIA, AMD, покладається на GPU Instinct та екосистему відкритого програмного забезпечення для прискорення прогресу, нещодавно отримавши підтримку від OpenAI та Oracle, ставши важливим гравцем на ринку інфраструктури AI, відмінність GPU AMD полягає в основному в використанні відкритого програмного забезпечення, тоді як GPU Nvidia тісно оптимізується навколо CUDA, що є власною програмною платформою Nvidia.
Спеціально розроблені ASIC для однієї мети стають новим трендом
Від Google, Amazon, Meta, Microsoft до OpenAI та Broadcom, усі великі хмарні гіганти активно інвестують у розробку кастомізованих ASIC (спеціалізованих інтегральних схем). Ці чіпи, розроблені спеціально для єдиного використання, очікується, що стануть найшвидше зростаючим класом AI-чіпів у найближчі кілька років.
Зі зрістом великих мовних моделей, попит на інференцію швидко перевищує навчання. Витрати на інференцію, енергоспоживання та стабільність стають болючими точками для хмарних платформ, і це є основним полем бою для ASIC. На відміну від універсальних GPU, ASIC є своєрідним “спеціалізованим надточним інструментом”, оптимізованим для жорсткого кодування одного типу AI навантаження, що робить його швидшим і з меншим споживанням енергії. Недоліком є гірша гнучкість і надзвичайно високі бар'єри для розробки: проектування кастомного чіпа коштує десятки мільярдів доларів, тому лише великі хмарні гіганти можуть це собі дозволити.
Вартість кастомізованих ASIC для AI є вищою. Вони надзвичайно дорогі, щонайменше кілька тисяч, а то й кілька сотень мільйонів доларів. Але для тих великих постачальників хмарних послуг, які не можуть дозволити собі кастомізовані ASIC, кастомізовані AS6 можуть принести вигоду, оскільки вони мають вищу ефективність і зменшують залежність від NVIDIA.
ASIC від Broadcom активно викликає конкуренцію за частку ринку AI
Broadcom та Marvell та інші компанії з розробки чіпів є стратегічними партнерами супер великих хмарних підприємств. Google TPU, самостійно розроблений прискорювач Meta та ASIC, які незабаром вийдуть від OpenAI, всі залучаються глибоко Broadcom. Broadcom допомагає будувати TPU Google та навчання AI Meta, аналітики оцінюють, що частка ринку Broadcom у кастомізованих ASIC може досягти 70% до 80%.
FPGA: гнучкий вибір між ASIC та GPU
FPGA використовується для підтримки краєвих AI на стороні пристрою, а не в хмарі. Найбільша перевага FPGA полягає в “переналаштуванні”. Коли компаніям потрібно протестувати архітектуру, поки апаратне забезпечення ще не затверджено, FPGA пропонує варіант між універсальністю GPU та високою продуктивністю ASIC. Хоча продуктивність нижча, ніж у ASIC, гнучкість робить його популярним серед дата-центрів та вбудованих пристроїв. AMD (придбала Xilinx) та Intel (придбала Altera) є двома основними гравцями на ринку FPGA.
Гугл ТПУ
Google є першим великим гравцем у ASIC, який першим створив спеціалізовані інтегровані схеми (ASIC) для прискорення штучного інтелекту, і коли його перший ASIC з'явився на ринку в 2015 році, було створено термін Tensor Processing Unit (TPU). TPU також сприяв винаходу Google архітектури Transformer у 2017 році, ставши спільною основою для таких AI, як ChatGPT, Claude тощо. Сьогодні Google розвинувся до 7-го покоління TPU Ironwood і допомагає Anthropologie використовувати мільйони TPU для навчання моделей серії Claude. Вважається, що TPU в деяких випадках навіть перевершує GPU від NVIDIA, але Google традиційно використовує їх лише для власних потреб, тому справжній потенціал TPU ще не повністю реалізовано.
AWS Tranium: матриця для хмарного висновку
AWS, після придбання Annapurna Labs, активно інвестує у власні AI чіпи. Tranium та Inferentia стали важливими опорами платформи навчання та інференції AWS. Tranium складається з великої кількості малих тензорних двигунів, що забезпечує високу гнучкість, за словами AWS, його вартість ефективніша на 30% до 40% у порівнянні з іншими апаратними засобами у хмарі. У 2024 році Anthropic в центрі даних AWS у Північному Індіані навчає моделі на 500 000 Tranium 2, при цьому навіть без жодного GPU від Nvidia, що свідчить про зростаючу роль ASIC.
NPU (нейронний процесор): краєвий AI чіп для мобільних телефонів, комп'ютерів та автомобільних пристроїв
Окрім центрів обробки даних, AI чіпи також поширюються на персональні пристрої. NPU (процесор нейронних мереж) — це чіп, спеціально розроблений для виконання крайового штучного інтелекту на пристроях, а не в хмарі, що забезпечує конфіденційність особистих даних. Вже інтегровано в SoC Qualcomm Snapdragon, AMD, Intel та Apple M серії, використовується в мобільних телефонах, ноутбуках, розумних будинках, автомобілях і навіть роботах. AI на рівні пристроїв забезпечить вищий рівень конфіденційності, меншу затримку та більший контроль, що є важливим поштовхом для наступної хвилі поширення штучного інтелекту.
Taiwan Semiconductor Manufacturing Company стала центром боротьби за чіпи
Незалежно від того, чи це чіпи NVIDIA Blackwell, Google TPU або AWS Tranium, більшість AI чіпів в кінцевому підсумку виробляються на замовлення TSMC. Це робить постачання обчислювальної потужності AI тісно пов'язаним з глобальною геополітикою. США намагаються повернути частину виробничих потужностей чіпів на батьківщину через завод TSMC в Аризоні та технологію Intel 18A. Проте китайські компанії, такі як Huawei та Alibaba, також активно розробляють власні ASIC, шукаючи внутрішні альтернативи в умовах експортного контролю.
Ера панування AI чіпів наставала
Незалежно від сильного домінування GPU від NVIDIA, чи ASIC-гонки та NPU від компаній, таких як Google, AWS, Meta, OpenAI, які просувають крайній AI до кожного смартфона та автомобіля, війна чіпів продовжує прискорюватися. Хоча важко потрясти позицію NVIDIA, ринок AI має величезний масштаб, нові гравці постійно входять, і в наступні десять років карта чіпів стане ще більш жорсткою.
Ця стаття присвячена технічним відмінностям між GPU від NVIDIA та самостійно розробленими AI чіпами Google і Amazon AWS, а також майбутнім тенденціям на ринку. Вперше вона з'явилася в Chain News ABMedia.