Після підйому агентів вся розподіл цінності штучного інтелекту змінився

AI інвестиційна основна наративність зазнає структурної міграції. Останні дослідження Morgan Stanley вказують, що з переходом AI від «генерації контенту» до «автоматичного виконання завдань», наступна хвиля інфраструктури AI буде розширюватися від «конкуренції за обчислювальні потужності на одному чипі» до «повного стеку системної інженерії» — GPU залишаються ключовими, але вже не мають монополії на бюджет і преміальні ціни.

За даними аналітиків ChaseTrade, аналітик відділу досліджень Morgan Stanley Shawn Kim прямо у звіті написав: «Інтелектуальні агенти AI позначають структурний перехід від обчислень до оркестрації.» У робочих потоках інтелектуальних агентів, час оркестрації на CPU може становити від 50% до 90% загальної затримки, що дозволяє прогнозувати до 2030 року додатковий ринок CPU обсягом від 32,5 до 60 мільярдів доларів, а загальний TAM серверних CPU — до 82,5–110 мільярдів доларів.

Тим часом, DRAM, ABF-плати, виробництво кремнію, сховища, з’єднувачі та пасивні компоненти — всі ці сегменти піднімуться з ролі «додаткових» до нових вузьких місць і джерел прибутку. Вони, за прогнозами, у 2030 році додатково створять попит на 15–45EB DRAM, що становить 26%–77% від загального річного пропозиції галузі у 2027 році.

Це означає, що вигідоприносящі інвестиції у AI зростатимуть не лише за рахунок кількох гігантів-чиповиків, а й поширюватимуться по всьому глобальному ланцюжку постачання. Наступна хвиля надприбутків, ймовірно, виникне у тих «ключових ланках», що найраніше стають вузькими місцями у робочих потоках інтелектуальних агентів і найважче швидко розширювати виробництво. Зі зміною вузьких місць у різних сегментах, змінюється і розподіл ваги у ціновій та цінності ланцюжка AI.

З «генерації» до «дії»: інтелектуальні агенти переносять вузькі місця з обчислювальної потужності до оркестрації

Типовий робочий потік генеративного AI досить простий: після отримання запиту користувача CPU виконує невелику попередню обробку, GPU відповідає за генерацію токенів, і потім повертає результат. У всій цій ланцюжку GPU — абсолютний головний герой, а CPU виконує допоміжні функції.

Логіка роботи інтелектуальних агентів кардинально відрізняється. Щоб завершити завдання, система має пройти через планування, пошук, виклик зовнішніх інструментів і API, виконання, рефлексію та ітерації, а також залучає багато «контрольних» функцій — співпрацю кількох агентів, управління правами, збереження стану та планування. Основний висновок Morgan Stanley: інтелектуальні агенти не приносять більш «важких» одиночних висновків, а збільшують кількість кроків, станів і координаційних процесів, які природно краще обробляються CPU.

Це має два прямі наслідки: по-перше, співвідношення CPU і GPU у кластері систематично зросте; по-друге, DRAM перетвориться з «ємності» у «ключовий компонент для продуктивності та пропускної здатності». Вузькі місця у дата-центрах все частіше з’являтимуться у пам’яті, пропускній здатності, затримках між з’єднаннями та системній координації, а не лише у обчислювальній потужності GPU.

Перегляд співвідношення CPU: від «1:12» до «1:2» і навіть до зворотного

Раніше описували архітектуру AI-сервера як «один CPU на 12 GPU». Але у звіті зазначається, що з ускладненням робочих потоків агентів, викликів інструментів і управління контекстом цей коефіцієнт швидко зменшується.

Наприклад, за оновленими оцінками NVIDIA, у платформі Rubin співвідношення CPU і GPU вже близьке до 1:2; при переході до більш агресивних конфігурацій, таких як Rubin Ultra, можливо, з’явиться зворотне співвідношення — 2 CPU на 1 GPU. Навіть якщо покращити з 1:12 до 1:8, для масштабних розгортань абсолютна потреба у CPU зросте значно.

Якщо ця тенденція підтвердиться, еластичність попиту на CPU перейде від «залежності від поставок серверів» до «залежності від складності агентів», тобто зростання попиту на CPU стане більш структурованим і менш залежним від традиційних циклів оновлення апаратного забезпечення.

Перерахунок TAM CPU: до 2030 року — 82,5–110 мільярдів доларів, додатковий обсяг — від оркестрації

Morgan Stanley застосовує «системний рівень» підхід, щоб відокремити можливості CPU, що виникають у рамках інновацій серверів, і створює три окремі аналітичні сценарії:

  • Head Node CPU
    Відповідає за керування системою, близьку до GPU, — на 2030 рік у світі буде близько 5 мільйонів AI-акселераторів, кожен з яких матиме 2 високопродуктивних CPU, середня ціна CPU — близько 5000 доларів, що дає TAM близько 50 мільярдів доларів.
  • Orchestration CPU
    Враховує додаткові потреби у оркестрації агентів, включаючи планування, управління інструментами, RAG-процеси, кеші KV і векторні бази даних, політики та моніторинг. Передбачається додавання 10–15 мільйонів CPU з ціною близько 3000 доларів, що дає TAM 30–45 мільярдів доларів.
  • Other CPU
    Включає сховищні вузли, частину мережевих вузлів і т.п., — приблизно 2,5 мільярди CPU, що дає ще 15 мільярдів доларів.

Загалом, до 2030 року загальний TAM серверних CPU становитиме близько 82,5–110 мільярдів доларів, з яких додатковий обсяг від інтелектуальних агентів — 32,5–60 мільярдів доларів. Базою для цих розрахунків є оцінка глобальних продажів AI-інфраструктури у 1,2 трильйона доларів у 2030 році (у 2025 — близько 242 мільярдів).

Звіт також пропонує «запуск оновлення»: якщо враховувати сценарій NVIDIA, і обсяг продажів AI-інфраструктури у 2030 році досягне 3 або 5 трильйонів доларів, то TAM CPU може бути переоцінений до 2060–275 мільярдів доларів, або навіть 344–458 мільярдів доларів. Це не базовий прогноз, але показує системний ефект розширення масштабів «AI-заводів» на попит на CPU.

Пам’ять — від ролі додаткового компонента до головної лінії: у 2030 році додатковий попит на DRAM становитиме 15–45EB

Основна різниця інтелектуальних агентів полягає не лише у здатності до висновків, а й у «стійкому контексті та пам’яті». Постійний контекст, кеші KV, проміжний стан викликів інструментів і паралельні робочі набори агентів фактично перетворюють DRAM у функціональне продовження HBМ.

Модель розрахунків досить проста: додатковий попит на DRAM дорівнює кількості нових оркестрових CPU, помноженій на середню конфігурацію DRAM на CPU. Два сценарії — 10 мільйонів CPU з 1,5 ТБ DRAM кожен і 15 мільйонів CPU з 3 ТБ кожен. Це дає прогноз у 15–45EB додаткового попиту на DRAM у 2030 році, що становить 26%–77% від річного глобального пропозиції у 2027 році.

Щодо структури ринку, у звіті зазначається, що більшість постачальників пам’яті ведуть довгострокові угоди з великими клієнтами на 3–5 років, що може зменшити цінову динаміку і підвищити прогнозованість прибутків до 2027 року. «Рівень пам’яті стає ключовим шляхом монетизації AI-систем» — у тому числі через серверну DRAM, інтерфейсні чіпи, розширення CXL і ієрархію сховищ SSD/HDD.

Вузькі місця у постачанні мають найбільший ціновий потенціал: ABF-плати, виробництво та компоненти-ключі

Найбільший потенціал для надприбутків мають ті «ключові ланки», що розвиваються повільно і мають довгі цикли підтвердження. У звіті названо кілька таких сегментів:

ABF-плати: цей цикл зростання попиту на ABF через AI може тривати до кінця десятиліття, з можливим дефіцитом у 2026–2027 роках. Лише «збільшення TAM CPU» може підвищити попит на ABF на 5–10% до 2030 року; у сегменті серверних CPU ринок ABF-плат досягне близько 4,7 мільярдів доларів, додатковий попит — близько 1,2 мільярда доларів.

Виробництво кремнію (особливо передові технології): ринок CPU-ваерінгу у 2026 році оцінюється у 33 мільярди доларів, у 2028 — у 37 мільярдів. TSMC планує збільшити свою частку у CPU-ваерінгу з 70% у 2026 до 75% у 2028. Також очікується, що Intel почне у 2027 році передавати виробництво серверних CPU на TSMC.

BMC і інтерфейси пам’яті: Aspeed — ключовий гравець у сегменті BMC для серверів, з приблизною часткою ринку 70%. Новий платформний рівень AST2700 може підвищити ASP на 40–50%. Montage — у ланцюжку цінності «інтерконект пам’яті», з глобальним доходом близько 36,8%.

CPU-слоти і пасивні компоненти: за моделлю Lotes і FIT, кожне додавання 1 мільйона CPU збільшує дохід Lotes приблизно на 0,6%, а FIT — на 0,2% (з урахуванням лише слота). За спрощеною моделлю, додатковий попит на MLCC у 2030 році становитиме близько 500 мільйонів доларів, що приблизно 2–3% глобального ринку MLCC.

CPU — найчіткіший драйвер зростання, але «ключові ланки» отримують більшу увагу

У звіті визнається, що зростання навантаження на інтелектуальні агенти структурно вигідне для частки AMD у хмарних сервісах, але обидва — AMD і Intel — отримують однакову оцінку «рівновагу» (Equal-weight). Вони схильні слідкувати за інвестиціями у NVIDIA, Broadcom та інші компанії, де капітальні витрати і зростання токенів більш безпосередньо відображаються у прибутках, а також враховують обмеження у оцінках.

З більш широкої перспективи, головна цінність цього звіту — у тому, що він підвищує інвестиційну парадигму AI з «гонки за окремими обчислювальними потужностями» до «системної ефективності та економіки вузьких місць»: GPU — двигун, CPU — коробка передач і система управління, пам’ять і з’єднання — паливо і підвіска — окремі компоненти, що визначають масштабний успіх.

Для галузі це означає, що надприбутки від інвестицій у AI стануть більш розподіленими і довгостроковими: не лише за рахунок «найпотужнішого GPU», а й тих «ключових ланок», що найраніше стають вузькими місцями у робочих потоках і найважче швидко розширювати. Постійне відстеження високочастотних індикаторів — таких як оновлення BOM платформи, довгострокові угоди з хмарними провайдерами, використання виробничих потужностей ABF і передових технологій — допоможе оцінити цю динаміку.

Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
  • Нагородити
  • Прокоментувати
  • Репост
  • Поділіться
Прокоментувати
Додати коментар
Додати коментар
Немає коментарів
  • Закріпити