Setelah kebangkitan agen cerdas, distribusi seluruh rantai nilai AI telah berubah

AI investasi utama narasi sedang mengalami migrasi struktural. Penelitian terbaru Morgan Stanley menunjukkan bahwa, seiring AI beralih dari “menghasilkan konten” ke “otomatisasi tugas”, logika peningkatan infrastruktur AI berikutnya akan berkembang dari “perlombaan kekuatan chip tunggal” menjadi “rekayasa sistem lengkap”—GPU tetap menjadi inti, tetapi tidak lagi menjadi satu-satunya yang mendapatkan anggaran dan premi.

Menurut追风交易台, analis dari departemen riset Morgan Stanley Shawn Kim secara langsung menulis dalam laporannya, “AI agen cerdas menandai perubahan struktural dari komputasi ke orkestrasi.” Dalam alur kerja agen cerdas, waktu orkestrasi di sisi CPU dapat menyumbang 50% hingga 90% dari total latensi, yang diperkirakan akan menghasilkan pasar CPU tambahan sebesar 32,5 miliar hingga 60 miliar dolar AS pada tahun 2030, dan mendorong total TAM server CPU ke kisaran 82,5 miliar hingga 110 miliar dolar AS.

Sementara itu, DRAM, papan ABF, wafer foundry, penyimpanan, konektor, dan komponen pasif, semuanya akan melonjak dari peran “pendukung” menjadi hambatan baru dan kolam keuntungan. Diperkirakan akan menimbulkan permintaan DRAM tambahan sebesar 15 hingga 45EB pada tahun 2030, setara dengan 26% hingga 77% dari pasokan tahunan industri secara keseluruhan pada tahun 2027.

Penilaian ini berarti: manfaat dari pengeluaran modal AI akan menyebar dari beberapa raksasa chip ke seluruh rantai pasokan global, dan keuntungan berlebih berikutnya mungkin lebih banyak berasal dari “elemen pengaktif” yang paling awal menjadi hambatan dalam alur kerja agen cerdas dan paling sulit untuk diperluas secara cepat. Seiring hambatan berpindah di berbagai bagian, distribusi bobot nilai dalam rantai nilai AI pun berubah.

Dari “menghasilkan” ke “bertindak”: agen cerdas memindahkan hambatan dari kekuatan komputasi ke orkestrasi

Struktur alur kerja AI generatif yang tipikal relatif sederhana: setelah permintaan pengguna masuk, CPU menyelesaikan sedikit preprocessing, GPU bertanggung jawab atas pembuatan token, lalu mengembalikan hasilnya. Sepanjang jalur ini, GPU adalah tokoh utama, sementara CPU hanya menjalankan fungsi pendukung.

Logika operasi agen cerdas sangat berbeda. Untuk menyelesaikan satu tugas, sistem perlu melalui beberapa langkah seperti perencanaan, pencarian, pemanggilan alat dan API eksternal, eksekusi, refleksi, dan iterasi, serta melibatkan kolaborasi multi-agen, manajemen izin, persistensi status, dan penjadwalan—banyak kemampuan “kontrol” lainnya. Kesimpulan utama Morgan Stanley adalah: yang dibawa agen cerdas bukanlah inferensi yang lebih “berat” secara tunggal, melainkan lebih banyak langkah, lebih banyak status, dan lebih banyak koordinasi, yang secara alami lebih cocok diproses oleh CPU.

Dampak langsung dari hal ini adalah: pertama, rasio CPU dan GPU di tingkat kluster akan meningkat secara sistematis; kedua, DRAM akan naik dari “elemen konfigurasi kapasitas” menjadi “komponen inti sistem untuk kinerja dan throughput.” Hambatan pusat data akan semakin banyak muncul di bandwidth memori, pemindahan data, latensi interkoneksi, dan koordinasi tingkat sistem, bukan lagi sekadar kekuatan komputasi GPU.

Rasio CPU sedang dievaluasi ulang: dari “1:12” menuju “1:2” bahkan berbalik

Dulu, gambaran arsitektur server AI yang tipikal adalah “1 CPU melayani sekitar 12 GPU.” Tetapi laporan menunjukkan bahwa, seiring alur kerja agen cerdas menjadi lebih panjang dan pemanggilan alat serta manajemen konteks menjadi lebih kompleks, rasio ini sedang menyempit dengan cepat.

Sebagai contoh, peta jalan NVIDIA, perkiraan terbaru menunjukkan bahwa di dekat platform Rubin, rasio CPU terhadap GPU sudah mendekati 1:2; jika berkembang ke bentuk yang lebih agresif seperti Rubin Ultra, bahkan mungkin terjadi konfigurasi terbalik di mana 2 CPU setara dengan 1 GPU. Bahkan jika hanya membaik dari 1:12 ke 1:8, untuk deployment skala besar, kebutuhan CPU secara absolut akan melonjak secara signifikan.

Jika tren ini benar, elastisitas permintaan CPU akan beralih dari “mengikuti pengiriman server” ke “mengikuti kompleksitas agen cerdas,” yang berarti pertumbuhan permintaan CPU akan lebih bersifat struktural, bukan sekadar berlanjut dari siklus pergantian hardware tradisional.

Perhitungan ulang TAM CPU: 825 miliar—1100 miliar dolar AS pada 2030, peningkatan dari orkestrasi

Morgan Stanley menggunakan pendekatan “lapisan sistem” untuk memisahkan peluang CPU dari logika pembaruan dan pergantian server tradisional, membangun tiga kerangka analisis independen:

  • Head Node CPU

    Mengacu pada lapisan kontrol rak yang dekat dengan sistem GPU, dengan asumsi sekitar 5 juta akselerator AI global pada 2030, masing-masing dilengkapi 2 CPU kelas tinggi, dengan harga rata-rata sekitar 5000 dolar AS per CPU, menghasilkan TAM sekitar 50 miliar dolar.

  • Orchestration CPU

    Meliputi kebutuhan baru untuk orkestrasi agen cerdas, termasuk perencanaan dan penjadwalan, rantai alat, pipeline RAG, layanan memori terkait cache KV dan basis vektor, strategi, dan observabilitas. Perkiraan menambah 10 juta hingga 15 juta CPU, dengan ASP sekitar 3000 dolar, menghasilkan TAM 30 hingga 45 miliar dolar.

  • Other CPU

    Meliputi node penyimpanan, beberapa node jaringan, dan lain-lain, dengan kisaran 2,5 miliar dolar hingga 15 miliar dolar.

Total ketiga kategori ini, TAM CPU server pada 2030 diperkirakan sekitar 82,5 miliar hingga 110 miliar dolar, dengan tambahan dari agen cerdas sekitar 32,5 miliar hingga 60 miliar dolar. Dasar dari perhitungan ini adalah asumsi bahwa penjualan infrastruktur pusat data AI global pada 2030 akan mencapai sekitar 1,2 triliun dolar (dibandingkan dengan sekitar 242 miliar dolar pada 2025).

Laporan ini juga menyertakan “tombol peningkatan”: jika berdasarkan peta jalan NVIDIA, penjualan infrastruktur AI mencapai 3 triliun atau 5 triliun dolar, maka kisaran TAM CPU akan didorong secara keseluruhan ke 206 miliar hingga 275 miliar dolar, bahkan 344 miliar hingga 458 miliar dolar. Ini bukan prediksi dasar, tetapi mengungkapkan efek amplifikasi sistematis dari ekspansi skala “pabrik AI” terhadap permintaan CPU.

Memori beralih dari pendukung menjadi garis utama: permintaan DRAM tambahan 15 hingga 45EB pada 2030

Perbedaan utama agen cerdas tidak hanya terletak pada kemampuan inferensi, tetapi juga pada “konteks dan memori yang berkelanjutan.” Konteks yang terus berlanjut, cache KV, status tengah pemanggilan alat, dan kumpulan kerja agen cerdas secara paralel, secara substansial menjadikan DRAM di sisi CPU sebagai perluasan fungsional dari HBM.

Model perhitungan langsung menunjukkan bahwa permintaan DRAM tambahan sama dengan jumlah CPU orkestrasi baru dikalikan dengan kapasitas DRAM rata-rata per CPU. Dua skenario asumsi adalah: penambahan 10 juta CPU orkestrasi, masing-masing sekitar 1,5TB; dan skenario optimistis 15 juta CPU, masing-masing sekitar 3TB. Dari sini, diperkirakan bahwa pada 2030, agen cerdas akan membawa permintaan DRAM tambahan sebesar 15 hingga 45EB, setara dengan 26% hingga 77% dari pasokan tahunan industri DRAM pada 2027.

Dalam penilaian siklus, laporan juga memperhatikan variabel struktur pasar: sebagian besar pemasok memori sedang berdiskusi tentang perjanjian jangka panjang 3 hingga 5 tahun (LTA) dengan pelanggan besar, yang dapat memperlambat tren penurunan harga dan meningkatkan visibilitas profitabilitas sebelum 2027. “Lapisan memori sedang menjadi jalur utama monetisasi sistem AI”—DRAM host, chip antarmuka memori, ekstensi CXL, dan penyimpanan tiered SSD/HDD akan menjadi titik nilai yang lebih berkelanjutan.

Segmen yang kekurangan pasokan akan memiliki kekuatan penetapan harga: papan ABF, foundry, dan komponen pengaktif

Sementara itu, yang benar-benar memiliki potensi keuntungan berlebih adalah elemen “peningkatan kapasitas yang lambat dan siklus verifikasi yang panjang.” Laporan menyoroti beberapa rantai berikut:

Papan ABF: Siklus kenaikan ABF yang didorong oleh AI ini mungkin akan berlanjut hingga akhir dekade ini, dengan risiko kekurangan pasokan sekitar 2026 hingga 2027. Hanya dari “perluasan TAM CPU,” permintaan ABF pada 2030 bisa meningkat 5% hingga 10%; pasar papan ABF untuk CPU server pada 2030 diperkirakan mencapai sekitar 4,7 miliar dolar AS, dengan tambahan permintaan sekitar 1,2 miliar dolar dari CPU.

Wafer foundry (terutama proses maju): Pasar foundry CPU sekitar 33 miliar dolar AS pada 2026 dan sekitar 37 miliar dolar AS pada 2028. TSMC diperkirakan akan meningkatkan pangsa pasar foundry CPU dari sekitar 70% pada 2026 menjadi sekitar 75% pada 2028; dan diharapkan Intel mulai mengalihdayakan pembuatan server CPU ke TSMC pada paruh kedua 2027.

BMC dan antarmuka memori: Aspeed dipandang sebagai penerima manfaat utama dari BMC server CPU, dengan sekitar 70% pangsa pasar di segmen ini, dan platform AST2700 generasi baru menawarkan potensi peningkatan ASP sebesar 40% hingga 50%; Montage berada di jalur “nilai interkoneksi memori,” dengan pangsa pendapatan global sekitar 36,8%.

Socket CPU dan komponen pasif: Laporan menggunakan Lotes dan FIT sebagai representasi langsung dari socket CPU, memperkirakan bahwa setiap penambahan 1 juta CPU akan meningkatkan pendapatan Lotes sekitar 0,6%, dan FIT sekitar 0,2% (hanya berdasarkan socket). Untuk komponen pasif, dengan asumsi “sekitar 30 dolar AS per server umum untuk kandungannya,” diperkirakan permintaan tambahan MLCC sebesar 500 juta dolar AS pada 2030, sekitar 2% hingga 3% dari pasar MLCC global saat itu.

CPU adalah elemen paling jelas untuk peningkatan, tetapi “elemen pengaktif” lebih disukai

Laporan mengakui bahwa pertumbuhan beban kerja agen cerdas akan secara struktural menguntungkan pangsa pasar cloud AMD, tetapi tetap mempertahankan peringkat Equal-weight untuk AMD dan Intel, dan lebih cenderung mengikuti tema agen cerdas melalui perusahaan seperti NVIDIA dan Broadcom yang “pengeluaran modal dan pertumbuhan token lebih langsung mencerminkan profit,” sambil menempatkan pembatasan valuasi sebagai pertimbangan penting.

Secara makro, inti dari laporan ini adalah mengangkat paradigma investasi AI dari “perlombaan kekuatan komputasi titik tunggal” menjadi “ekonomi efisiensi sistem dan hambatan”: GPU adalah mesin penggerak, CPU adalah transmisi dan sistem kontrol, memori dan interkoneksi adalah jalur minyak dan rangka—meskipun penting, keberhasilan skala besar ditentukan oleh kolaborasi seluruh kendaraan.

Bagi rantai industri, ini berarti bahwa sumber keuntungan berlebih dari investasi AI akan semakin tersebar dan lebih jangka panjang: tidak hanya dari “GPU paling kuat,” tetapi juga dari elemen-elemen yang paling awal menjadi hambatan dalam alur kerja agen cerdas dan paling sulit diperluas secara cepat. Indikator verifikasi frekuensi tinggi yang dapat terus dipantau termasuk: revisi jumlah CPU dan konfigurasi memori dalam platform baru, ritme penandatanganan perjanjian jangka panjang oleh penyedia cloud, serta tren utilisasi kapasitas ABF dan proses maju.

Lihat Asli
Halaman ini mungkin berisi konten pihak ketiga, yang disediakan untuk tujuan informasi saja (bukan pernyataan/jaminan) dan tidak boleh dianggap sebagai dukungan terhadap pandangannya oleh Gate, atau sebagai nasihat keuangan atau profesional. Lihat Penafian untuk detailnya.
  • Hadiah
  • Komentar
  • Posting ulang
  • Bagikan
Komentar
Tambahkan komentar
Tambahkan komentar
Tidak ada komentar
  • Sematkan