Sau sự trỗi dậy của trí thông minh nhân tạo, phân phối của toàn bộ chuỗi giá trị AI đã thay đổi

AI đầu tư chính kể chuyện đang trải qua một sự dịch chuyển mang tính cấu trúc. Nghiên cứu mới nhất của Morgan Stanley chỉ ra rằng, khi AI chuyển từ “tạo nội dung” sang “tự động thực thi nhiệm vụ”, logic gia tăng hạ tầng AI trong vòng tiếp theo sẽ mở rộng từ “cuộc đua sức mạnh chip đơn” thành “hệ thống toàn bộ chuỗi công nghệ” — GPU vẫn là trung tâm, nhưng không còn độc quyền về ngân sách và giá trị vượt trội.

Theo theo dõi thị trường, nhà phân tích của bộ phận nghiên cứu Morgan Stanley Shawn Kim trực tiếp viết trong báo cáo rằng, “AI thể thể thông minh đánh dấu sự chuyển đổi mang tính cấu trúc từ tính toán sang phối hợp.” Trong quy trình làm việc của thể thể thông minh, thời gian phối hợp ở phía CPU có thể chiếm từ 50% đến 90% tổng độ trễ, từ đó suy ra không gian thị trường bổ sung cho CPU từ 32,5 tỷ đến 60 tỷ USD vào năm 2030, đồng thời đẩy tổng TAM của CPU máy chủ lên mức 82,5 tỷ đến 110 tỷ USD.

Trong khi đó, các lĩnh vực như DRAM, bo mạch ABF, gia công wafer, lưu trữ, kết nối và linh kiện thụ động, đều sẽ từ vai trò phụ trở thành các điểm nghẽn mới và các vùng lợi nhuận. Dự kiến sẽ tạo ra nhu cầu DRAM bổ sung từ 15 đến 45EB vào năm 2030, quy mô tương đương 26% đến 77% tổng cung ngành trong năm 2027.

Phán đoán này mang ý nghĩa gì đối với thị trường: Những người hưởng lợi từ chi tiêu vốn của AI sẽ không chỉ là các ông lớn chip, mà còn mở rộng ra toàn bộ chuỗi cung ứng toàn cầu, và vòng lợi nhuận vượt trội tiếp theo có thể đến từ những “bộ phận kích hoạt” đầu tiên trở thành điểm nghẽn trong quy trình thể thể thông minh, đồng thời là những bộ phận khó mở rộng nhanh nhất. Khi các điểm nghẽn dịch chuyển qua các lĩnh vực khác nhau, phân bổ trọng số của chuỗi giá trị AI cũng sẽ thay đổi theo.

Từ “tạo ra” đến “hành động”: thể thể đẩy điểm nghẽn từ sức mạnh tính toán sang phối hợp

Cấu trúc quy trình làm việc của AI dạng tạo ra tương đối đơn giản: yêu cầu của người dùng đến, CPU thực hiện một lượng xử lý sơ bộ nhỏ, GPU chịu trách nhiệm sinh token, rồi trả kết quả. Trong toàn bộ chuỗi này, GPU là trung tâm, CPU chỉ đảm nhiệm vai trò hỗ trợ.

Logic hoạt động của thể thể hoàn toàn khác biệt. Hoàn thành một nhiệm vụ, hệ thống cần trải qua nhiều bước như lập kế hoạch, truy xuất, gọi công cụ và API bên ngoài, thực thi, phản hồi, phản tư và lặp lại, còn liên quan đến hợp tác đa thể thể, quản lý quyền, duy trì trạng thái và điều phối, tức là các khả năng “mặt điều khiển” rất lớn. Phân tích của Morgan cho rằng, thể thể mang lại không phải là “suy luận nặng” hơn, mà là nhiều bước hơn, nhiều trạng thái hơn, nhiều sự phối hợp hơn, và những công việc này tự nhiên phù hợp hơn với CPU.

Điều này dẫn đến hai hậu quả trực tiếp: Thứ nhất, tỷ lệ CPU và GPU ở cấp độ cụm sẽ tăng lên một cách hệ thống; Thứ hai, DRAM từ “tùy chọn dung lượng” sẽ nâng cấp thành “thành phần cốt lõi về hiệu năng và thông suất”. Các điểm nghẽn của trung tâm dữ liệu ngày càng nhiều hơn sẽ xuất hiện ở băng thông bộ nhớ, vận chuyển dữ liệu, độ trễ liên kết và phối hợp hệ thống, chứ không chỉ đơn thuần là sức mạnh tính toán của GPU.

Tỷ lệ CPU đang được đánh giá lại: từ “1:12” tiến tới “1:2” hoặc thậm chí đảo ngược

Trước đây, mô tả kiến trúc điển hình của máy chủ AI là “1 CPU phục vụ khoảng 12 GPU”. Nhưng báo cáo chỉ ra rằng, khi quy trình làm việc của thể thể dài hơn, việc gọi công cụ và quản lý ngữ cảnh trở nên phức tạp hơn, tỷ lệ này đang nhanh chóng thu hẹp.

Lấy lộ trình của NVIDIA làm ví dụ, ước tính cập nhật cho thấy, gần nền tảng Rubin, tỷ lệ CPU so với GPU đã gần 1:2; nếu tiến tới các dạng tiến bộ hơn như Rubin Ultra, thậm chí có thể xuất hiện cấu hình đảo ngược 2 CPU tương ứng 1 GPU. Ngay cả khi cải thiện từ 1:12 lên 1:8, đối với các triển khai quy mô lớn, nhu cầu tuyệt đối về CPU cũng sẽ tăng lên đáng kể.

Nếu xu hướng này đúng, nhu cầu về CPU sẽ chuyển từ “theo dõi theo số lượng máy chủ xuất xưởng” sang “theo độ phức tạp của thể thể”, nghĩa là tăng trưởng về CPU sẽ mang tính cấu trúc hơn, không chỉ đơn thuần là chu kỳ nâng cấp phần cứng truyền thống.

Tổng TAM của CPU được tính lại: 825 tỷ đến 1100 tỷ USD vào năm 2030, tăng thêm từ phối hợp

Morgan Stanley sử dụng phương pháp “phân lớp hệ thống” để tách biệt cơ hội CPU do thể thể mang lại khỏi logic nâng cấp máy chủ truyền thống, xây dựng ba cách phân tích riêng biệt:

  • CPU Node Chính (Head Node CPU)

    Tương ứng với tầng kiểm soát rack gần hệ thống GPU, giả định khoảng 5 triệu bộ tăng tốc AI toàn cầu vào năm 2030, mỗi bộ tăng tốc có 2 CPU cao cấp, giá trung bình mỗi CPU khoảng 5000 USD, tương đương TAM khoảng 50 tỷ USD.

  • CPU Điều phối (Orchestration CPU)

    Bao phủ nhu cầu bổ sung cho lập kế hoạch, điều phối, chuỗi công cụ, pipeline RAG, bộ nhớ đệm KV và kho vecto, chính sách và khả năng quan sát. Ước tính thêm 10-15 triệu CPU, ASP khoảng 3000 USD, tương đương TAM từ 30 đến 45 tỷ USD.

  • Các CPU khác (Other CPU)

    Bao gồm các nút lưu trữ, một số nút mạng, tương đương khoảng 2,5 tỷ USD đến 15 tỷ USD.

Tổng cộng, TAM CPU máy chủ vào năm 2030 khoảng 82,5 tỷ đến 110 tỷ USD, trong đó phần tăng thêm do thể thể mang lại khoảng 32,5 tỷ đến 60 tỷ USD. Toàn bộ ước tính dựa trên giả định rằng doanh thu hạ tầng dữ liệu trung tâm AI toàn cầu vào năm 2030 khoảng 1,2 nghìn tỷ USD (so với khoảng 242 tỷ USD vào 2025).

Báo cáo cũng đưa ra “công tắc nâng cấp”: nếu theo cách của NVIDIA, doanh thu bán hạ tầng AI đạt 3 nghìn tỷ hoặc 5 nghìn tỷ USD vào năm 2030, thì phạm vi TAM CPU sẽ được đẩy toàn bộ lên 206 tỷ đến 275 tỷ USD, thậm chí 344 tỷ đến 458 tỷ USD. Đây không phải dự báo chuẩn, nhưng cho thấy quy mô mở rộng của “nhà máy AI” sẽ làm tăng hệ thống nhu cầu CPU một cách hệ thống.

Bộ nhớ từ vai trò phụ chuyển thành chủ đạo: Nhu cầu DRAM bổ sung 15 đến 45EB vào năm 2030

Sự khác biệt thực sự của thể thể không chỉ nằm ở khả năng suy luận, mà còn ở “bối cảnh và bộ nhớ bền vững”. Bối cảnh liên tục, bộ đệm KV, trạng thái trung gian của gọi công cụ và làm việc đồng thời của các thể thể thông minh, về mặt lý thuyết, DRAM trên CPU thực chất là mở rộng chức năng của HBM.

Mô hình tính toán rõ ràng: Nhu cầu DRAM bổ sung bằng số lượng CPU phối hợp mới nhân với dung lượng trung bình mỗi CPU. Hai giả định là: thêm 10 triệu CPU phối hợp, mỗi cái khoảng 1,5TB; giả định lạc quan hơn là 15 triệu CPU, mỗi cái khoảng 3TB. Từ đó suy ra, vào năm 2030, thể thể mang lại nhu cầu DRAM bổ sung từ 15 đến 45EB, tương đương 26% đến 77% tổng cung ngành DRAM vào năm 2027.

Về góc độ chu kỳ, báo cáo còn chú ý đến một biến số cấu trúc thị trường: đa số nhà cung cấp bộ nhớ đang thảo luận các hợp đồng dài hạn 3-5 năm với khách hàng lớn, điều này có thể làm giảm tốc độ giảm giá và nâng cao khả năng dự báo lợi nhuận trước 2027. “Cấp độ bộ nhớ đang trở thành con đường chính để các hệ thống AI kiếm lời” — bộ nhớ chủ, chip giao diện bộ nhớ, mở rộng CXL và lưu trữ phân tầng SSD/HDD đều sẽ trở thành các điểm bền vững hơn để tạo giá trị.

Các điểm cung ứng càng chặt chẽ, quyền định giá càng lớn: bo mạch ABF, gia công và linh kiện kích hoạt

Và những phần có tiềm năng lợi nhuận vượt trội thực sự là các “bộ phận kích hoạt” có khả năng mở rộng chậm, chu kỳ xác nhận dài. Báo cáo nhấn mạnh các chuỗi sau:

Bo mạch ABF: Chu kỳ tăng trưởng do AI thúc đẩy của ABF có thể kéo dài đến cuối thập kỷ này, dự kiến có thể có thiếu hụt cung cầu vào khoảng năm 2026-2027. Chỉ riêng “tăng TAM CPU” đã có thể nâng dự báo nhu cầu ABF vào năm 2030 thêm 5-10%; trong đó, thị trường bo mạch ABF cho CPU máy chủ vào năm 2030 khoảng 4,7 tỷ USD, nhu cầu tăng thêm do CPU mang lại khoảng 1,2 tỷ USD.

Gia công wafer (đặc biệt là công nghệ tiến trình cao cấp): Thị trường gia công CPU dự kiến khoảng 33 tỷ USD vào 2026, khoảng 37 tỷ USD vào 2028. TSMC dự kiến sẽ nâng thị phần trong lĩnh vực gia công CPU từ khoảng 70% vào 2026 lên khoảng 75% vào 2028; đồng thời dự đoán Intel có thể bắt đầu thuê ngoài gia công CPU cho TSMC từ nửa cuối 2027.

BMC và giao diện bộ nhớ: Aspeed được nhấn mạnh là nhà hưởng lợi chính trong phân khúc BMC của CPU máy chủ, chiếm khoảng 70% thị phần, nền tảng mới AST2700 mang lại khả năng ASP tăng 40-50%; Montage nằm trong chuỗi giá trị “kết nối bộ nhớ”, chiếm khoảng 36,8% doanh thu toàn cầu.

Socket CPU và linh kiện thụ động: Báo cáo lấy Lotes và FIT làm ví dụ về socket CPU, ước tính mỗi tăng 1 triệu CPU sẽ làm doanh thu Lotes tăng khoảng 0,6%, FIT tăng khoảng 0,2% (chỉ dựa trên socket). Về linh kiện thụ động, dựa trên giả định “mỗi máy chủ phổ thông khoảng 30 USD MLCC”, tính ra nhu cầu MLCC bổ sung vào năm 2030 khoảng 500 triệu USD, chiếm khoảng 2-3% thị trường MLCC toàn cầu vào thời điểm đó.

CPU rõ ràng là phần tăng trưởng rõ ràng nhất, nhưng “bộ phận kích hoạt” lại được ưa chuộng hơn

Báo cáo thừa nhận rằng, tăng trưởng của khối lượng công việc thể thể sẽ mang lại lợi ích mang tính cấu trúc cho thị phần đám mây của AMD, nhưng vẫn duy trì xếp hạng Equal-weight cho AMD và Intel, đồng thời hướng tới theo dõi các mục tiêu như NVIDIA, Broadcom, những “đối tượng có đầu tư và tăng token phản ánh trực tiếp lợi nhuận”, đồng thời coi trọng giới hạn định giá như một yếu tố quan trọng.

Xét theo khung cảnh vĩ mô, giá trị cốt lõi của báo cáo này nằm ở việc nâng cấp mô hình đầu tư AI từ “chạy đua sức mạnh điểm đơn” lên “hiệu quả hệ thống và kinh tế điểm nghẽn”: GPU là động cơ, CPU là hộp số và hệ thống điều khiển, bộ nhớ và liên kết là hệ thống dầu và khung gầm — tối đa hóa điểm đơn vẫn quan trọng, nhưng quy mô lợi nhuận đến từ sự phối hợp toàn bộ hệ thống.

Đối với chuỗi ngành, điều này có nghĩa rằng, lợi nhuận vượt trội từ đầu tư AI sẽ ngày càng phân tán và dài hạn hơn: không chỉ đến từ “GPU mạnh nhất”, mà còn đến từ các bộ phận trở thành điểm nghẽn đầu tiên trong quy trình thể thể, đồng thời là những bộ phận khó mở rộng nhanh nhất. Các chỉ số xác nhận tần suất cao có thể theo dõi liên tục bao gồm: mức độ nâng cấp BOM của nền tảng mới về số lượng CPU và cấu hình bộ nhớ, nhịp ký hợp đồng dài hạn của các nhà cung cấp đám mây, và tỷ lệ sử dụng năng lực của các công nghệ như ABF và công nghệ tiến trình cao cấp.

Xem bản gốc
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
  • Phần thưởng
  • Bình luận
  • Đăng lại
  • Retweed
Bình luận
Thêm một bình luận
Thêm một bình luận
Không có bình luận
  • Ghim