Ф'ючерси
Сотні безстрокових контрактів
TradFi
Золото
Одна платформа для світових активів
Опціони
Hot
Торгівля ванільними опціонами європейського зразка
Єдиний рахунок
Максимізуйте ефективність вашого капіталу
Демо торгівля
Вступ до ф'ючерсної торгівлі
Підготуйтеся до ф’ючерсної торгівлі
Ф'ючерсні події
Заробляйте, беручи участь в подіях
Демо торгівля
Використовуйте віртуальні кошти для безризикової торгівлі
Запуск
CandyDrop
Збирайте цукерки, щоб заробити аірдропи
Launchpool
Швидкий стейкінг, заробляйте нові токени
HODLer Airdrop
Утримуйте GT і отримуйте масові аірдропи безкоштовно
Pre-IPOs
Отримайте повний доступ до глобальних IPO акцій.
Alpha Поінти
Ончейн-торгівля та аірдропи
Ф'ючерсні бали
Заробляйте фʼючерсні бали та отримуйте аірдроп-винагороди
Інвестиції
Simple Earn
Заробляйте відсотки за допомогою неактивних токенів
Автоінвестування
Автоматичне інвестування на регулярній основі
Подвійні інвестиції
Прибуток від волатильності ринку
Soft Staking
Earn rewards with flexible staking
Криптопозика
0 Fees
Заставте одну криптовалюту, щоб позичити іншу
Центр кредитування
Єдиний центр кредитування
Центр багатства VIP
Преміальні плани зростання капіталу
Управління приватним капіталом
Розподіл преміальних активів
Квантовий фонд
Квантові стратегії найвищого рівня
Стейкінг
Стейкайте криптовалюту, щоб заробляти на продуктах PoS
Розумне кредитне плече
Кредитне плече без ліквідації
Випуск GUSD
Мінтинг GUSD для прибутку RWA
Після підйому агентів вся розподіл цінності штучного інтелекту змінився
AI інвестиційна основна наративність зазнає структурної міграції. Останні дослідження Morgan Stanley вказують, що з переходом AI від «генерації контенту» до «автоматичного виконання завдань», наступна хвиля інфраструктури AI буде розширюватися від «конкуренції за обчислювальні потужності на одному чипі» до «повного стеку системної інженерії» — GPU залишаються ключовими, але вже не мають монополії на бюджет і преміальні ціни.
За даними аналітиків ChaseTrade, аналітик відділу досліджень Morgan Stanley Shawn Kim прямо у звіті написав: «Інтелектуальні агенти AI позначають структурний перехід від обчислень до оркестрації.» У робочих потоках інтелектуальних агентів, час оркестрації на CPU може становити від 50% до 90% загальної затримки, що дозволяє прогнозувати до 2030 року додатковий ринок CPU обсягом від 32,5 до 60 мільярдів доларів, а загальний TAM серверних CPU — до 82,5–110 мільярдів доларів.
Тим часом, DRAM, ABF-плати, виробництво кремнію, сховища, з’єднувачі та пасивні компоненти — всі ці сегменти піднімуться з ролі «додаткових» до нових вузьких місць і джерел прибутку. Вони, за прогнозами, у 2030 році додатково створять попит на 15–45EB DRAM, що становить 26%–77% від загального річного пропозиції галузі у 2027 році.
Це означає, що вигідоприносящі інвестиції у AI зростатимуть не лише за рахунок кількох гігантів-чиповиків, а й поширюватимуться по всьому глобальному ланцюжку постачання. Наступна хвиля надприбутків, ймовірно, виникне у тих «ключових ланках», що найраніше стають вузькими місцями у робочих потоках інтелектуальних агентів і найважче швидко розширювати виробництво. Зі зміною вузьких місць у різних сегментах, змінюється і розподіл ваги у ціновій та цінності ланцюжка AI.
З «генерації» до «дії»: інтелектуальні агенти переносять вузькі місця з обчислювальної потужності до оркестрації
Типовий робочий потік генеративного AI досить простий: після отримання запиту користувача CPU виконує невелику попередню обробку, GPU відповідає за генерацію токенів, і потім повертає результат. У всій цій ланцюжку GPU — абсолютний головний герой, а CPU виконує допоміжні функції.
Логіка роботи інтелектуальних агентів кардинально відрізняється. Щоб завершити завдання, система має пройти через планування, пошук, виклик зовнішніх інструментів і API, виконання, рефлексію та ітерації, а також залучає багато «контрольних» функцій — співпрацю кількох агентів, управління правами, збереження стану та планування. Основний висновок Morgan Stanley: інтелектуальні агенти не приносять більш «важких» одиночних висновків, а збільшують кількість кроків, станів і координаційних процесів, які природно краще обробляються CPU.
Це має два прямі наслідки: по-перше, співвідношення CPU і GPU у кластері систематично зросте; по-друге, DRAM перетвориться з «ємності» у «ключовий компонент для продуктивності та пропускної здатності». Вузькі місця у дата-центрах все частіше з’являтимуться у пам’яті, пропускній здатності, затримках між з’єднаннями та системній координації, а не лише у обчислювальній потужності GPU.
Перегляд співвідношення CPU: від «1:12» до «1:2» і навіть до зворотного
Раніше описували архітектуру AI-сервера як «один CPU на 12 GPU». Але у звіті зазначається, що з ускладненням робочих потоків агентів, викликів інструментів і управління контекстом цей коефіцієнт швидко зменшується.
Наприклад, за оновленими оцінками NVIDIA, у платформі Rubin співвідношення CPU і GPU вже близьке до 1:2; при переході до більш агресивних конфігурацій, таких як Rubin Ultra, можливо, з’явиться зворотне співвідношення — 2 CPU на 1 GPU. Навіть якщо покращити з 1:12 до 1:8, для масштабних розгортань абсолютна потреба у CPU зросте значно.
Якщо ця тенденція підтвердиться, еластичність попиту на CPU перейде від «залежності від поставок серверів» до «залежності від складності агентів», тобто зростання попиту на CPU стане більш структурованим і менш залежним від традиційних циклів оновлення апаратного забезпечення.
Перерахунок TAM CPU: до 2030 року — 82,5–110 мільярдів доларів, додатковий обсяг — від оркестрації
Morgan Stanley застосовує «системний рівень» підхід, щоб відокремити можливості CPU, що виникають у рамках інновацій серверів, і створює три окремі аналітичні сценарії:
Загалом, до 2030 року загальний TAM серверних CPU становитиме близько 82,5–110 мільярдів доларів, з яких додатковий обсяг від інтелектуальних агентів — 32,5–60 мільярдів доларів. Базою для цих розрахунків є оцінка глобальних продажів AI-інфраструктури у 1,2 трильйона доларів у 2030 році (у 2025 — близько 242 мільярдів).
Звіт також пропонує «запуск оновлення»: якщо враховувати сценарій NVIDIA, і обсяг продажів AI-інфраструктури у 2030 році досягне 3 або 5 трильйонів доларів, то TAM CPU може бути переоцінений до 2060–275 мільярдів доларів, або навіть 344–458 мільярдів доларів. Це не базовий прогноз, але показує системний ефект розширення масштабів «AI-заводів» на попит на CPU.
Пам’ять — від ролі додаткового компонента до головної лінії: у 2030 році додатковий попит на DRAM становитиме 15–45EB
Основна різниця інтелектуальних агентів полягає не лише у здатності до висновків, а й у «стійкому контексті та пам’яті». Постійний контекст, кеші KV, проміжний стан викликів інструментів і паралельні робочі набори агентів фактично перетворюють DRAM у функціональне продовження HBМ.
Модель розрахунків досить проста: додатковий попит на DRAM дорівнює кількості нових оркестрових CPU, помноженій на середню конфігурацію DRAM на CPU. Два сценарії — 10 мільйонів CPU з 1,5 ТБ DRAM кожен і 15 мільйонів CPU з 3 ТБ кожен. Це дає прогноз у 15–45EB додаткового попиту на DRAM у 2030 році, що становить 26%–77% від річного глобального пропозиції у 2027 році.
Щодо структури ринку, у звіті зазначається, що більшість постачальників пам’яті ведуть довгострокові угоди з великими клієнтами на 3–5 років, що може зменшити цінову динаміку і підвищити прогнозованість прибутків до 2027 року. «Рівень пам’яті стає ключовим шляхом монетизації AI-систем» — у тому числі через серверну DRAM, інтерфейсні чіпи, розширення CXL і ієрархію сховищ SSD/HDD.
Вузькі місця у постачанні мають найбільший ціновий потенціал: ABF-плати, виробництво та компоненти-ключі
Найбільший потенціал для надприбутків мають ті «ключові ланки», що розвиваються повільно і мають довгі цикли підтвердження. У звіті названо кілька таких сегментів:
ABF-плати: цей цикл зростання попиту на ABF через AI може тривати до кінця десятиліття, з можливим дефіцитом у 2026–2027 роках. Лише «збільшення TAM CPU» може підвищити попит на ABF на 5–10% до 2030 року; у сегменті серверних CPU ринок ABF-плат досягне близько 4,7 мільярдів доларів, додатковий попит — близько 1,2 мільярда доларів.
Виробництво кремнію (особливо передові технології): ринок CPU-ваерінгу у 2026 році оцінюється у 33 мільярди доларів, у 2028 — у 37 мільярдів. TSMC планує збільшити свою частку у CPU-ваерінгу з 70% у 2026 до 75% у 2028. Також очікується, що Intel почне у 2027 році передавати виробництво серверних CPU на TSMC.
BMC і інтерфейси пам’яті: Aspeed — ключовий гравець у сегменті BMC для серверів, з приблизною часткою ринку 70%. Новий платформний рівень AST2700 може підвищити ASP на 40–50%. Montage — у ланцюжку цінності «інтерконект пам’яті», з глобальним доходом близько 36,8%.
CPU-слоти і пасивні компоненти: за моделлю Lotes і FIT, кожне додавання 1 мільйона CPU збільшує дохід Lotes приблизно на 0,6%, а FIT — на 0,2% (з урахуванням лише слота). За спрощеною моделлю, додатковий попит на MLCC у 2030 році становитиме близько 500 мільйонів доларів, що приблизно 2–3% глобального ринку MLCC.
CPU — найчіткіший драйвер зростання, але «ключові ланки» отримують більшу увагу
У звіті визнається, що зростання навантаження на інтелектуальні агенти структурно вигідне для частки AMD у хмарних сервісах, але обидва — AMD і Intel — отримують однакову оцінку «рівновагу» (Equal-weight). Вони схильні слідкувати за інвестиціями у NVIDIA, Broadcom та інші компанії, де капітальні витрати і зростання токенів більш безпосередньо відображаються у прибутках, а також враховують обмеження у оцінках.
З більш широкої перспективи, головна цінність цього звіту — у тому, що він підвищує інвестиційну парадигму AI з «гонки за окремими обчислювальними потужностями» до «системної ефективності та економіки вузьких місць»: GPU — двигун, CPU — коробка передач і система управління, пам’ять і з’єднання — паливо і підвіска — окремі компоненти, що визначають масштабний успіх.
Для галузі це означає, що надприбутки від інвестицій у AI стануть більш розподіленими і довгостроковими: не лише за рахунок «найпотужнішого GPU», а й тих «ключових ланок», що найраніше стають вузькими місцями у робочих потоках і найважче швидко розширювати. Постійне відстеження високочастотних індикаторів — таких як оновлення BOM платформи, довгострокові угоди з хмарними провайдерами, використання виробничих потужностей ABF і передових технологій — допоможе оцінити цю динаміку.