Nvidia Vera Rubin викликає зростання попиту на пам’ять: аналіз переваг і недоліків SK Hynix, Samsung, Micron, SanDisk

ChainNewsAbmedia
STG0,35%

2026 рік CES виставка споживчої електроніки, генеральний директор NVIDIA 黃仁勳 офіційно оголосив про масове виробництво Vera Rubin, що ознаменовує ключовий поворот у історії розвитку штучного інтелекту (AI): від початкового етапу генеративного AI, зосередженого на моделюванні (Training), до епохи, де домінують агентний AI (Agentic AI) та масштабне виведення (Inference).

(黃仁勳 CES визначає 2026 рік: Vera Rubin повністю запускається у масове виробництво, AI-автопілоти виходять на ринок у Q1, ключові технології зосереджені у TSMC)

Цей звіт глибоко аналізує, як цей технологічний поворот змінює апаратне забезпечення дата-центрів, зокрема рівень зберігання G3.5 та платформу зберігання контексту для виведення (ICMS). У цьому контексті чотири глобальні гіганти пам’яті та зберігання — SK Hynix, Samsung Electronics, Micron Technology та SanDisk — стикаються з унікальними можливостями та викликами.

Що таке HBM, DRAM, NAND? Аналіз термінів пам’яті

Перед основним змістом коротко пояснимо ці терміни:

Пояснення термінів пам’яті: HBM (включно з HBM3E, HBM4, HBM5)

HBM — High Bandwidth Memory (високопродуктивна пам’ять). Можна уявити собі: багато шарів DRAM-чипів, зложених у вигляді багатошарового торта, з’єднаних із GPU дуже швидкими магістралями для передачі даних.

HBM3E: наразі основний продукт, використовується у найновішому поколінні GPU, швидкий та з низким споживанням.

HBM4: наступне покоління, для більш потужних GPU типу Vera Rubin, з більшою пропускною здатністю та обсягом.

HBM5: ще одне покоління (у планах), з підвищеною швидкістю та обсягом, готується для майбутніх великих моделей.

Поблизу GPU Vera Rubin буде розміщено багато HBM у стосах, що дозволить GPU швидко отримувати дані. Основна обчислювальна потужність для тренування та виведення AI цілком залежить від HBM, що робить цю технологію головною зіркою у дефіциті постачання AI-серверів. Виробники спрямовують значні потужності на виробництво HBM, що призводить до напруженості у постачанні інших типів пам’яті. У епоху Vera Rubin HBM є найважливішим компонентом.

Пояснення термінів пам’яті: SSD

SSD — це як дуже великий USB-накопичувач, призначений для довгострокового зберігання даних, він не забуває їх після вимкнення. Файли, відео, ігри зберігаються на SSD (або традиційних жорстких дисках). У епоху Vera Rubin для того, щоб AI-чатботи могли запам’ятовувати багато текстів, історій та знань, Vera Rubin підключає багато SSD, що слугують великими бібліотеками даних. За оцінками Citi, один сервер Vera Rubin потребує приблизно 1,152TB (тобто 1,152 з 1TB) SSD для роботи нової системи ICMS.

Раніше SSD були швидше як допоміжне сховище даних, тепер у системах ICMS/довгого контексту вони стають ключовими.

Пояснення термінів пам’яті: NAND

NAND — це матеріал, у якому зберігаються дані в SSD. Можна уявити собі: SSD — це книжкова шафа, а NAND — це окремі сторінки книг. ICMS Vera Rubin використовує багато SSD, а всередині SSD — безліч NAND-чипів, тому AI потребує багато NAND. Чим більша модель AI та довше історія діалогу, тим більше NAND потрібно для збереження текстів і проміжних результатів.

Пояснення термінів пам’яті: DRAM

DRAM — це короткочасна пам’ять, як біла дошка для запису. Під час обчислень комп’ютер записує дані у DRAM, а після завершення роботи (вимкнення) вона стирається. Швидша за SSD, але втрачає дані при вимкненні. У Vera Rubin вона слугує робочим простором для CPU / GPU. Не зберігає довгострокові діалоги або великі моделі, але підтримує роботу системи. Оскільки виробники спрямовують потужності на HBM, звичайний DRAM стає менше у постачанні, ціни зростають, і виникає дефіцит.

Пояснення термінів пам’яті: LPDDR5X / DDR5

DDR5 — це основна пам’ять у серверах і настільних ПК, швидша за DDR4.

LPDDR5X — енергозберігаюча версія для мобільних пристроїв або високоплотних CPU-модулів, можна уявити як «енергозберігаючий DRAM».

Процесори типу Rubin CPU потребують багато LPDDR5X або DDR5 для системної пам’яті, контролю, планування та системних задач. Вони не безпосередньо пов’язані з GPU, але є основою стабільної роботи AI-серверів. Через спрямування виробництва на HBM, постачання DDR5 / LPDDR5X ускладнюється, ціни зростають.

Пояснення термінів пам’яті: High Bandwidth Flash (HBF)

HBF — це швидкісна версія NAND, яка прагне зробити Flash (快閃記憶體) швидким і схожим на пам’ять. У порівнянні з типовим SSD, HBF робить акцент на «високій пропускній здатності та низькій затримці», щоб AI міг швидко читати та записувати великі обсяги контексту під час виведення.

У Vera Rubin як один із ключових компонентів ICMS: великі KV Cache та довгий контекст зберігаються у цьому швидкому Flash, а через мережі (RDMA тощо) GPU отримує доступ до KV Cache майже з такою ж швидкістю, як і до пам’яті. Це концепція G3.5. Перетворює Flash із простого сховища у швидкий зовнішній пам’ятний пристрій, що може брати участь у обчислювальних процесах.

Глобальні зміни у архітектурі Vera Rubin: фундаментальна реконструкція апаратного забезпечення

Екстремальне співпрацювання (Extreme Co-design) та обчислення на рівні серверних шаф

На CES 2026 року, виступаючи, 黃仁勳 з NVIDIA виклав ідею: у поколінні Rubin обчислювальні одиниці — це не окремий GPU або сервер, а цілий дата-центр у шафі. Платформа Rubin складається з шести основних чипів: Vera CPU, Rubin GPU, NVLink 6 Switch, ConnectX-9 SuperNIC, BlueField-4 DPU та Spectrum-6 Ethernet Switch.

Ця стратегія, відома як екстремальне співпрацювання, має на меті усунути вузькі місця у комунікації між чипами, перетворюючи шафу NVL72 у єдину потужну машину з 3.6 ExaFLOPS для виведення та 75TB швидкої пам’яті.

Ця еволюція архітектури — не просто нарощування продуктивності, а відповідь на суттєві зміни у навантаженнях AI. Від Blackwell до Rubin, моделі AI перетворилися з простих систем питання-відповіді у складних агентів, здатних виконувати багатоступеневі висновки, довгострокове збереження пам’яті та використання інструментів. Такі навантаження вимагають не лише високої пропускної здатності, а й дуже низької затримки та здатності зберігати величезний обсяг контексту.

Злиття з Groq та революція в виведенні: початок епохи захисних поглинань та ASIC

Наприкінці 2025 року NVIDIA придбала стартап Groq за $20 млрд через поглинання талантів та ліцензування технологій. Основна технологія Groq — архітектура LPU (Language Processing Unit), яка є ASIC, оптимізованим для трансформерних моделей. На відміну від традиційних GPU з HBM, Groq використовує внутрішню SRAM (статичну оперативну пам’ять) та пріоритетний компілятор.

У сценаріях реального часу ця архітектура забезпечує у 10 разів швидше генерування токенів та у 10 разів вищу енергоефективність порівняно з традиційними GPU. NVIDIA прагне поєднати низьку затримку виведення (Groq LPU) з екосистемою CUDA. Хмарні гіганти, такі як Google (TPU) та Amazon (Inferentia), вже довели переваги спеціалізованих ASIC у зниженні витрат на виведення, тому NVIDIA використовує технології Groq для захисту.

Проблема «Стіни контексту» (The Context Wall)

У довгому контексті (Long-context) виведення, Key-Value (KV) Cache — це механізм запам’ятовування історії діалогів AI-моделлю. З розширенням вікна контексту до мільйонів токенів, обсяг KV Cache зростає лінійно, швидко вичерпуючи дорогоцінний об’єм GPU HBM (G1). При заповненні HBM дані вивантажуються у системний DRAM (G2) або локальні SSD (G3). Це спричиняє кризу KV Cache: GPU часто просто очікує, поки історичні дані будуть доступні.

Рівень G3.5: платформа зберігання контексту для виведення (ICMS)

У архітектурі Vera Rubin найреволюційнішою та найглибшою зміною є рівень пам’яті G3.5, тобто платформа зберігання контексту для виведення (ICMS, Inference Context Memory Storage). Це інновація не лише як оновлення архітектури, а й як ознака приходу епохи контекстуально-усвідомлених (Context-Aware) обчислень.

ICMS використовує BlueField-4 DPU та Spectrum-X Ethernet для створення спільного буфера на рівні шафи (Pod), заснованого на швидкій Flash-пам’яті. Цей рівень G3.5 розташований між DRAM та традиційним сховищем, і за допомогою RDMA (віддаленого прямого доступу до пам’яті) дозволяє GPU швидко отримувати доступ до KV Cache у віддаленому Flash.

Обов’язкова стандартизація нових технологій (HBF & AI-SSD)

Щоб NAND Flash міг витримувати високі навантаження, індустрія змушена прискорити технологічний розвиток, що змінює дорожню карту основних виробників пам’яті.

High Bandwidth Flash (HBF): для підвищення пропускної здатності SK Hynix та SanDisk розробляють HBF — технологію 3D-стекування, схожу на HBM, але з NAND-чипами, що має забезпечити у кілька разів більшу пропускну здатність у порівнянні з традиційними SSD, орієнтовану на AI-виведення.

Спеціалізовані AI SSD (AI-NP): SK Hynix тісно співпрацює з NVIDIA у розробці AI-NP SSD, здатних до 100 мільйонів IOPS. Це у 100 разів швидше за сучасні високопродуктивні SSD і призначені для задоволення екстремальних вимог ICMS до швидкості випадкового зчитування, щоб дані могли миттєво подаватися GPU.

Рівень G3.5 ICMS — ключовий міст між високою вартістю HBM та NAND Flash у ланцюгу AI. Він вирішує проблему безмежної пам’яті для складних завдань AI Agent, перетворюючи NAND з циклічного товару у незамінний стратегічний ресурс у інфраструктурі AI-обчислень.

Ефект зростання сховища у Vera Rubin NVL72

За даними Citi та інших аналітичних агентств, попит на NAND у архітектурі Vera Rubin є вибуховим. Крім стандартного зберігання, ICMS, керований BlueField-4, додає кожному GPU близько 16TB високошвидкісної NAND-пам’яті. Для повністю навантаженого NVL72 з 72 GPU це означає додатковий попит у 1,152TB (приблизно 1.15PB) NAND.

Якщо у 2026 році глобально буде розгорнуто 100 000 таких шаф, це спричинить понад 115 Екзабайт (EB) додаткового попиту на NAND, що становитиме близько 12% від світового обсягу постачання NAND у 2025 році. Такий попит є не лише великим, а й дуже високим за вимогами до продуктивності, що спричиняє паніку на ринку щодо дефіциту корпоративних SSD і запускає суперциклічний процес, керований продавцями.

Ця революція у архітектурі підштовхує ринок пам’яті до «тройного суперциклу» (зростання цін на DRAM, дефіцит NAND, вичерпання HBM). Нижче наведено глибокий аналіз конкурентних переваг чотирьох основних виробників:

SK Hynix (SK Hynix): Архітектор AI-інфраструктури

Позиція

Абсолютний лідер на ринку HBM (HBM3/3E — частка 5~60%), ключовий партнер NVIDIA.

Переваги

Монополія на HBM4: оцінки аналітиків передбачають, що понад 70% початкових замовлень платформи Vera Rubin припадає на HBM4, а виробництва вже повністю зайняті до 2026 року.

Стандартизація HBF: співпраця з SanDisk для просування High Bandwidth Flash (HBF), що прагне підняти NAND до рівня напівпам’яті.

AI-NP SSD: розробка високопродуктивних SSD з 100 мільйонами IOPS, спеціально для ICMS.

Недоліки

Зараз SK hynix переживає бум у AI-суперциклі, HBM3E / HBM4 майже повністю розпродані, і у 2026 році компанія сама визнає ризики цінових корекцій та посилення конкуренції. Багато аналітиків попереджають, що після 2026 року, коли постачання HBM почне зростати і ціни знизяться, найбільше залежною від HBM буде саме SK hynix, і ризик зниження прибутків у неї найвищий.

Samsung (Samsung): Імперія у відповідь та переваги у виробництві

Позиція

Постачальник комплексних рішень, гігант виробництва.

Переваги

Turnkey HBM4: компанія пропонує «пам’ять + логіка + пакування» у єдиному пакеті, що дуже привабливо для клієнтів, таких як Google і Amazon, які розробляють власні чипи.

Безпосередньо виграє від G3.5: як найбільший у світі виробник NAND, має найпотужніші можливості з постачання корпоративних SSD та CXL-пам’яті (PBSSD), здатних задовольнити потреби у HBM та масивних сховищах.

Недоліки

Технологія HBM запізнюється у порівнянні з конкурентами, потрібно відновлювати довіру клієнтів у поколінні Rubin; хоча NAND має обсяг, ціноутворення не таке сильне, як у HBM.

Micron (Micron): Ефективність та геополітичні вигоди

Позиція

Перший вибір США у сфері AI, дві рушійні сили — HBM та NAND.

Переваги

Подвійна вигода: єдиний виробник, що має потужності HBM3E/4 та передові корпоративні SSD. Може отримати вигоду від обох рівнів зберігання у системі Vera Rubin — пам’ять GPU та рівень ICMS.

Лідер у енергоефективності: заявляє, що його HBM продукти споживають на 30% менше енергії, що відповідає високим вимогам AI-центрів щодо TCO.

Геополітична перевага: єдиний американський виробник, що забезпечує національну безпеку у хмарних AI-сервісах.

Недоліки

Малий обсяг виробництва порівняно з корейськими гігантами, залежність від технологічної премії для збереження високої маржі, неспроможність вести цінову війну.

SanDisk: переоцінка цінності від зберігання до обчислень

Позиція

Найбільший чистий вигодонабувач рівня G3.5, перетворюється у компанію інфраструктури AI.

Переваги

Найчистіший актив у концепції G3.5: потреба у 1,152TB NAND для кожної системи Rubin — це чистий приріст для SanDisk. Її корпоративний SSD Stargate вже отримав сертифікацію від великих клієнтів.

Стратегічна трансформація: після відділення від Western Digital, повністю зосереджена на дата-центрах (зростання доходів на 26% на рік), позбавилася споживчого сегменту.

Цінова динаміка: у разі дефіциту постачання ціни на корпоративний NAND можуть подвоїтися, що дає високий рівень прибутковості.

Недоліки

Відсутність власних фабрик, модель fabless, залежність від контрактного виробництва, слабка здатність до масштабування виробництва порівняно з IDM.

Передбачення на 2026 рік: закріплення ринку продавців пам’яті

Nomura і Citi одностайно прогнозують, що у 2026 році очікується серйозний дисбаланс попиту та пропозиції. Очікується зростання доходів DRAM на 51% на рік, а ціна контрактів на NAND може подвоїтися. Через дефіцит чистих кімнат (Cleanroom) та високий споживання HBM (у 3 рази більше за DRAM), напруженість у постачанні триватиме щонайменше до середини 2027 року. У цій індустрії вартістю у 10 трильйонів доларів, появи Vera Rubin та платформи ICMS перетворює виробників пам’яті з ролі допоміжних у головних гравців.

Очікується, що у період 2026–2028 років, крім обмежень у розширенні виробництва HBM та тиску ICMS на корпоративні SSD, з’явиться ще один прискорювач: комерціалізація HBF (високопродуктивної NAND-стекової швидкої Flash). Оскільки HBF частково використовує технології та структури пакування, накопичені у часи HBM, її впровадження може відбутися швидше за HBM і початися приблизно у 2027 році, інтегруючись у основні платформи прискорювачів.

Ця стаття «NVIDIA Vera Rubin викликає бум у попиті на пам’ять: аналіз переваг і недоліків SK Hynix, Samsung, Micron, SanDisk» вперше з’явилася на Chain News ABMedia.

Застереження: Інформація на цій сторінці може походити від третіх осіб і не відображає погляди або думки Gate. Вміст, що відображається на цій сторінці, є лише довідковим і не є фінансовою, інвестиційною або юридичною порадою. Gate не гарантує точність або повноту інформації і не несе відповідальності за будь-які збитки, що виникли в результаті використання цієї інформації. Інвестиції у віртуальні активи пов'язані з високим ризиком і піддаються значній ціновій волатильності. Ви можете втратити весь вкладений капітал. Будь ласка, повністю усвідомлюйте відповідні ризики та приймайте обережні рішення, виходячи з вашого фінансового становища та толерантності до ризику. Для отримання детальної інформації, будь ласка, зверніться до Застереження.
Прокоментувати
0/400
Немає коментарів