2026 рік CES виставка споживчої електроніки, генеральний директор NVIDIA 黃仁勳 офіційно оголосив про масове виробництво Vera Rubin, що ознаменовує ключовий поворот у історії розвитку штучного інтелекту (AI): від початкового етапу генеративного AI, зосередженого на моделюванні (Training), до епохи, де домінують агентний AI (Agentic AI) та масштабне виведення (Inference).
(黃仁勳 CES визначає 2026 рік: Vera Rubin повністю запускається у масове виробництво, AI-автопілоти виходять на ринок у Q1, ключові технології зосереджені у TSMC)
Цей звіт глибоко аналізує, як цей технологічний поворот змінює апаратне забезпечення дата-центрів, зокрема рівень зберігання G3.5 та платформу зберігання контексту для виведення (ICMS). У цьому контексті чотири глобальні гіганти пам’яті та зберігання — SK Hynix, Samsung Electronics, Micron Technology та SanDisk — стикаються з унікальними можливостями та викликами.
Що таке HBM, DRAM, NAND? Аналіз термінів пам’яті
Перед основним змістом коротко пояснимо ці терміни:
Пояснення термінів пам’яті: HBM (включно з HBM3E, HBM4, HBM5)
HBM — High Bandwidth Memory (високопродуктивна пам’ять). Можна уявити собі: багато шарів DRAM-чипів, зложених у вигляді багатошарового торта, з’єднаних із GPU дуже швидкими магістралями для передачі даних.
HBM3E: наразі основний продукт, використовується у найновішому поколінні GPU, швидкий та з низким споживанням.
HBM4: наступне покоління, для більш потужних GPU типу Vera Rubin, з більшою пропускною здатністю та обсягом.
HBM5: ще одне покоління (у планах), з підвищеною швидкістю та обсягом, готується для майбутніх великих моделей.
Поблизу GPU Vera Rubin буде розміщено багато HBM у стосах, що дозволить GPU швидко отримувати дані. Основна обчислювальна потужність для тренування та виведення AI цілком залежить від HBM, що робить цю технологію головною зіркою у дефіциті постачання AI-серверів. Виробники спрямовують значні потужності на виробництво HBM, що призводить до напруженості у постачанні інших типів пам’яті. У епоху Vera Rubin HBM є найважливішим компонентом.
Пояснення термінів пам’яті: SSD
SSD — це як дуже великий USB-накопичувач, призначений для довгострокового зберігання даних, він не забуває їх після вимкнення. Файли, відео, ігри зберігаються на SSD (або традиційних жорстких дисках). У епоху Vera Rubin для того, щоб AI-чатботи могли запам’ятовувати багато текстів, історій та знань, Vera Rubin підключає багато SSD, що слугують великими бібліотеками даних. За оцінками Citi, один сервер Vera Rubin потребує приблизно 1,152TB (тобто 1,152 з 1TB) SSD для роботи нової системи ICMS.
Раніше SSD були швидше як допоміжне сховище даних, тепер у системах ICMS/довгого контексту вони стають ключовими.
Пояснення термінів пам’яті: NAND
NAND — це матеріал, у якому зберігаються дані в SSD. Можна уявити собі: SSD — це книжкова шафа, а NAND — це окремі сторінки книг. ICMS Vera Rubin використовує багато SSD, а всередині SSD — безліч NAND-чипів, тому AI потребує багато NAND. Чим більша модель AI та довше історія діалогу, тим більше NAND потрібно для збереження текстів і проміжних результатів.
Пояснення термінів пам’яті: DRAM
DRAM — це короткочасна пам’ять, як біла дошка для запису. Під час обчислень комп’ютер записує дані у DRAM, а після завершення роботи (вимкнення) вона стирається. Швидша за SSD, але втрачає дані при вимкненні. У Vera Rubin вона слугує робочим простором для CPU / GPU. Не зберігає довгострокові діалоги або великі моделі, але підтримує роботу системи. Оскільки виробники спрямовують потужності на HBM, звичайний DRAM стає менше у постачанні, ціни зростають, і виникає дефіцит.
Пояснення термінів пам’яті: LPDDR5X / DDR5
DDR5 — це основна пам’ять у серверах і настільних ПК, швидша за DDR4.
LPDDR5X — енергозберігаюча версія для мобільних пристроїв або високоплотних CPU-модулів, можна уявити як «енергозберігаючий DRAM».
Процесори типу Rubin CPU потребують багато LPDDR5X або DDR5 для системної пам’яті, контролю, планування та системних задач. Вони не безпосередньо пов’язані з GPU, але є основою стабільної роботи AI-серверів. Через спрямування виробництва на HBM, постачання DDR5 / LPDDR5X ускладнюється, ціни зростають.
Пояснення термінів пам’яті: High Bandwidth Flash (HBF)
HBF — це швидкісна версія NAND, яка прагне зробити Flash (快閃記憶體) швидким і схожим на пам’ять. У порівнянні з типовим SSD, HBF робить акцент на «високій пропускній здатності та низькій затримці», щоб AI міг швидко читати та записувати великі обсяги контексту під час виведення.
У Vera Rubin як один із ключових компонентів ICMS: великі KV Cache та довгий контекст зберігаються у цьому швидкому Flash, а через мережі (RDMA тощо) GPU отримує доступ до KV Cache майже з такою ж швидкістю, як і до пам’яті. Це концепція G3.5. Перетворює Flash із простого сховища у швидкий зовнішній пам’ятний пристрій, що може брати участь у обчислювальних процесах.
Глобальні зміни у архітектурі Vera Rubin: фундаментальна реконструкція апаратного забезпечення
Екстремальне співпрацювання (Extreme Co-design) та обчислення на рівні серверних шаф
На CES 2026 року, виступаючи, 黃仁勳 з NVIDIA виклав ідею: у поколінні Rubin обчислювальні одиниці — це не окремий GPU або сервер, а цілий дата-центр у шафі. Платформа Rubin складається з шести основних чипів: Vera CPU, Rubin GPU, NVLink 6 Switch, ConnectX-9 SuperNIC, BlueField-4 DPU та Spectrum-6 Ethernet Switch.
Ця стратегія, відома як екстремальне співпрацювання, має на меті усунути вузькі місця у комунікації між чипами, перетворюючи шафу NVL72 у єдину потужну машину з 3.6 ExaFLOPS для виведення та 75TB швидкої пам’яті.
Ця еволюція архітектури — не просто нарощування продуктивності, а відповідь на суттєві зміни у навантаженнях AI. Від Blackwell до Rubin, моделі AI перетворилися з простих систем питання-відповіді у складних агентів, здатних виконувати багатоступеневі висновки, довгострокове збереження пам’яті та використання інструментів. Такі навантаження вимагають не лише високої пропускної здатності, а й дуже низької затримки та здатності зберігати величезний обсяг контексту.
Злиття з Groq та революція в виведенні: початок епохи захисних поглинань та ASIC
Наприкінці 2025 року NVIDIA придбала стартап Groq за $20 млрд через поглинання талантів та ліцензування технологій. Основна технологія Groq — архітектура LPU (Language Processing Unit), яка є ASIC, оптимізованим для трансформерних моделей. На відміну від традиційних GPU з HBM, Groq використовує внутрішню SRAM (статичну оперативну пам’ять) та пріоритетний компілятор.
У сценаріях реального часу ця архітектура забезпечує у 10 разів швидше генерування токенів та у 10 разів вищу енергоефективність порівняно з традиційними GPU. NVIDIA прагне поєднати низьку затримку виведення (Groq LPU) з екосистемою CUDA. Хмарні гіганти, такі як Google (TPU) та Amazon (Inferentia), вже довели переваги спеціалізованих ASIC у зниженні витрат на виведення, тому NVIDIA використовує технології Groq для захисту.
Проблема «Стіни контексту» (The Context Wall)
У довгому контексті (Long-context) виведення, Key-Value (KV) Cache — це механізм запам’ятовування історії діалогів AI-моделлю. З розширенням вікна контексту до мільйонів токенів, обсяг KV Cache зростає лінійно, швидко вичерпуючи дорогоцінний об’єм GPU HBM (G1). При заповненні HBM дані вивантажуються у системний DRAM (G2) або локальні SSD (G3). Це спричиняє кризу KV Cache: GPU часто просто очікує, поки історичні дані будуть доступні.
Рівень G3.5: платформа зберігання контексту для виведення (ICMS)
У архітектурі Vera Rubin найреволюційнішою та найглибшою зміною є рівень пам’яті G3.5, тобто платформа зберігання контексту для виведення (ICMS, Inference Context Memory Storage). Це інновація не лише як оновлення архітектури, а й як ознака приходу епохи контекстуально-усвідомлених (Context-Aware) обчислень.
ICMS використовує BlueField-4 DPU та Spectrum-X Ethernet для створення спільного буфера на рівні шафи (Pod), заснованого на швидкій Flash-пам’яті. Цей рівень G3.5 розташований між DRAM та традиційним сховищем, і за допомогою RDMA (віддаленого прямого доступу до пам’яті) дозволяє GPU швидко отримувати доступ до KV Cache у віддаленому Flash.
Обов’язкова стандартизація нових технологій (HBF & AI-SSD)
Щоб NAND Flash міг витримувати високі навантаження, індустрія змушена прискорити технологічний розвиток, що змінює дорожню карту основних виробників пам’яті.
High Bandwidth Flash (HBF): для підвищення пропускної здатності SK Hynix та SanDisk розробляють HBF — технологію 3D-стекування, схожу на HBM, але з NAND-чипами, що має забезпечити у кілька разів більшу пропускну здатність у порівнянні з традиційними SSD, орієнтовану на AI-виведення.
Спеціалізовані AI SSD (AI-NP): SK Hynix тісно співпрацює з NVIDIA у розробці AI-NP SSD, здатних до 100 мільйонів IOPS. Це у 100 разів швидше за сучасні високопродуктивні SSD і призначені для задоволення екстремальних вимог ICMS до швидкості випадкового зчитування, щоб дані могли миттєво подаватися GPU.
Рівень G3.5 ICMS — ключовий міст між високою вартістю HBM та NAND Flash у ланцюгу AI. Він вирішує проблему безмежної пам’яті для складних завдань AI Agent, перетворюючи NAND з циклічного товару у незамінний стратегічний ресурс у інфраструктурі AI-обчислень.
Ефект зростання сховища у Vera Rubin NVL72
За даними Citi та інших аналітичних агентств, попит на NAND у архітектурі Vera Rubin є вибуховим. Крім стандартного зберігання, ICMS, керований BlueField-4, додає кожному GPU близько 16TB високошвидкісної NAND-пам’яті. Для повністю навантаженого NVL72 з 72 GPU це означає додатковий попит у 1,152TB (приблизно 1.15PB) NAND.
Якщо у 2026 році глобально буде розгорнуто 100 000 таких шаф, це спричинить понад 115 Екзабайт (EB) додаткового попиту на NAND, що становитиме близько 12% від світового обсягу постачання NAND у 2025 році. Такий попит є не лише великим, а й дуже високим за вимогами до продуктивності, що спричиняє паніку на ринку щодо дефіциту корпоративних SSD і запускає суперциклічний процес, керований продавцями.
Ця революція у архітектурі підштовхує ринок пам’яті до «тройного суперциклу» (зростання цін на DRAM, дефіцит NAND, вичерпання HBM). Нижче наведено глибокий аналіз конкурентних переваг чотирьох основних виробників:
SK Hynix (SK Hynix): Архітектор AI-інфраструктури
Позиція
Абсолютний лідер на ринку HBM (HBM3/3E — частка 5~60%), ключовий партнер NVIDIA.
Переваги
Монополія на HBM4: оцінки аналітиків передбачають, що понад 70% початкових замовлень платформи Vera Rubin припадає на HBM4, а виробництва вже повністю зайняті до 2026 року.
Стандартизація HBF: співпраця з SanDisk для просування High Bandwidth Flash (HBF), що прагне підняти NAND до рівня напівпам’яті.
AI-NP SSD: розробка високопродуктивних SSD з 100 мільйонами IOPS, спеціально для ICMS.
Недоліки
Зараз SK hynix переживає бум у AI-суперциклі, HBM3E / HBM4 майже повністю розпродані, і у 2026 році компанія сама визнає ризики цінових корекцій та посилення конкуренції. Багато аналітиків попереджають, що після 2026 року, коли постачання HBM почне зростати і ціни знизяться, найбільше залежною від HBM буде саме SK hynix, і ризик зниження прибутків у неї найвищий.
Samsung (Samsung): Імперія у відповідь та переваги у виробництві
Позиція
Постачальник комплексних рішень, гігант виробництва.
Переваги
Turnkey HBM4: компанія пропонує «пам’ять + логіка + пакування» у єдиному пакеті, що дуже привабливо для клієнтів, таких як Google і Amazon, які розробляють власні чипи.
Безпосередньо виграє від G3.5: як найбільший у світі виробник NAND, має найпотужніші можливості з постачання корпоративних SSD та CXL-пам’яті (PBSSD), здатних задовольнити потреби у HBM та масивних сховищах.
Недоліки
Технологія HBM запізнюється у порівнянні з конкурентами, потрібно відновлювати довіру клієнтів у поколінні Rubin; хоча NAND має обсяг, ціноутворення не таке сильне, як у HBM.
Micron (Micron): Ефективність та геополітичні вигоди
Позиція
Перший вибір США у сфері AI, дві рушійні сили — HBM та NAND.
Переваги
Подвійна вигода: єдиний виробник, що має потужності HBM3E/4 та передові корпоративні SSD. Може отримати вигоду від обох рівнів зберігання у системі Vera Rubin — пам’ять GPU та рівень ICMS.
Лідер у енергоефективності: заявляє, що його HBM продукти споживають на 30% менше енергії, що відповідає високим вимогам AI-центрів щодо TCO.
Геополітична перевага: єдиний американський виробник, що забезпечує національну безпеку у хмарних AI-сервісах.
Недоліки
Малий обсяг виробництва порівняно з корейськими гігантами, залежність від технологічної премії для збереження високої маржі, неспроможність вести цінову війну.
SanDisk: переоцінка цінності від зберігання до обчислень
Позиція
Найбільший чистий вигодонабувач рівня G3.5, перетворюється у компанію інфраструктури AI.
Переваги
Найчистіший актив у концепції G3.5: потреба у 1,152TB NAND для кожної системи Rubin — це чистий приріст для SanDisk. Її корпоративний SSD Stargate вже отримав сертифікацію від великих клієнтів.
Стратегічна трансформація: після відділення від Western Digital, повністю зосереджена на дата-центрах (зростання доходів на 26% на рік), позбавилася споживчого сегменту.
Цінова динаміка: у разі дефіциту постачання ціни на корпоративний NAND можуть подвоїтися, що дає високий рівень прибутковості.
Недоліки
Відсутність власних фабрик, модель fabless, залежність від контрактного виробництва, слабка здатність до масштабування виробництва порівняно з IDM.
Передбачення на 2026 рік: закріплення ринку продавців пам’яті
Nomura і Citi одностайно прогнозують, що у 2026 році очікується серйозний дисбаланс попиту та пропозиції. Очікується зростання доходів DRAM на 51% на рік, а ціна контрактів на NAND може подвоїтися. Через дефіцит чистих кімнат (Cleanroom) та високий споживання HBM (у 3 рази більше за DRAM), напруженість у постачанні триватиме щонайменше до середини 2027 року. У цій індустрії вартістю у 10 трильйонів доларів, появи Vera Rubin та платформи ICMS перетворює виробників пам’яті з ролі допоміжних у головних гравців.
Очікується, що у період 2026–2028 років, крім обмежень у розширенні виробництва HBM та тиску ICMS на корпоративні SSD, з’явиться ще один прискорювач: комерціалізація HBF (високопродуктивної NAND-стекової швидкої Flash). Оскільки HBF частково використовує технології та структури пакування, накопичені у часи HBM, її впровадження може відбутися швидше за HBM і початися приблизно у 2027 році, інтегруючись у основні платформи прискорювачів.
Ця стаття «NVIDIA Vera Rubin викликає бум у попиті на пам’ять: аналіз переваг і недоліків SK Hynix, Samsung, Micron, SanDisk» вперше з’явилася на Chain News ABMedia.