Hiện tại, làm thế nào để phá vỡ “bong bóng” AI? - Nền tảng giao dịch tiền mã hóa an toàn và đáng tin cậy

Gần đây, cổ phiếu các công ty liên quan đến AI đều bị ảnh hưởng nặng nề do các vòng huy động vốn liên tục của Mỹ,

khi không thấy rõ lợi nhuận từ các khoản đầu tư lớn và thiếu hụt thanh khoản trên thị trường toàn cầu.

Các ông lớn CSP chuyển sang khấu hao,

dòng tiền,

tỷ lệ chi tiêu vốn trên doanh thu đã khá cao, điều này tôi đã đề cập từ giữa năm ngoái,

nhưng thị trường lúc đó bỏ qua,

tiếp tục đẩy mạnh AI,

giờ lại được đem ra bàn luận sôi nổi,

nguyên nhân cốt lõi cũng hoàn toàn giống như thời điểm đó,

vẫn chưa thấy lợi nhuận và ứng dụng đột phá phù hợp với chi tiêu vốn,

nói thẳng ra, bong bóng thị trường chính là do chi phí đầu tư quá cao.

Nhưng hiện tại, ai cũng không thể thực sự ngừng đầu tư vào AI,

Thay vì dự đoán mơ hồ về việc phá vỡ chi tiêu vốn và thời điểm xuất hiện các ứng dụng đột phá,

còn hơn là nghiên cứu xu hướng phát triển ngành để giải quyết vấn đề “bong bóng” AI.

Làm thế nào để giải quyết?

Câu trả lời chính là giảm chi phí,

bất kỳ xu hướng phát triển công nghệ nào cũng đều là giảm dần chi phí đơn vị,

nếu không, nó sẽ không thể phổ biến.

Từ điện thoại di động lớn đến nhỏ gọn hơn rồi đến smartphone,

từ internet đến internet di động, đều đi theo hướng này.

Vậy, khó khăn lớn nhất của AI hiện nay là gì: chi tiêu vốn cao và thiếu điện,

tương ứng là GPU quá đắt,

tiêu thụ điện năng quá lớn,

Vậy làm thế nào để giải quyết vấn đề này,

Có hai hướng sau:

Một,

Giảm chi phí hệ thống của các card tính toán

(1) Tự phát triển chip,

điển hình là Google,

và Google cũng như Apple đều có nguồn tiền dồi dào,

hệ sinh thái khép kín,

chiến binh hình lục giác kết hợp phần mềm và phần cứng,

tự nhiên trở thành khoản đầu tư cuối cùng của ông bà Larry Page.

Qua bảng dưới đây cũng có thể thấy cấu hình TPU7 của Google vẫn khá ổn,

hai chip có khả năng tương đương B300,

nhưng về giá,

mua một chiếc B300 có thể làm được bốn chiếc TPU7.

Vì vậy, dự kiến xuất xưởng TPU năm 26 đã đạt tới bốn triệu chiếc,

gần bằng dự đoán của Rubin cho năm 26.

Ảnh hưởng đến ngành là,

nếu GPU phổ thông và card tự phát triển đạt tỷ lệ 1:1 lâu dài,

tức là với cùng mức chi tiêu vốn,

có thể đạt được khoảng 1.5 lần công suất tính toán và dung lượng lưu trữ ban đầu.

Điều này cũng đúng với các sản phẩm phụ trợ như module quang,

nhiều card hơn đồng nghĩa với nhu cầu phụ trợ tăng lên.

(Đoạn này tôi viết ngày 7 tháng 9,

đúng lúc trước đợt bùng nổ lưu trữ này,

chi tiết có thể xem lại nội dung lúc đó)

(2) Chia nhỏ một loại GPU truyền thống thành hai cấu hình: inference + huấn luyện sâu,

sử dụng giải pháp bộ nhớ phối hợp cao thấp,

ví dụ như tổ hợp Rubin+CPX của Nvidia và chip series Ascend 950pr+950dr,

phần logic có thể dùng cùng loại chip,

nhưng giảm chi phí bằng cách sử dụng các cấu hình bộ nhớ khác nhau.

Ví dụ, chi phí của 288G HBM4 đã lên tới hơn 30.000 nhân dân tệ,

nhưng tôi dùng GDDR7 288G có thể chỉ khoảng 15.000 nhân dân tệ,

tiền xử lý nhẹ nhàng cho văn bản có thể giảm đáng kể chi phí của card inference,

triển khai nhiều card hơn cho inference.

Chiếc Ascend 950pr tự phát triển của Huawei là một giải pháp card inference băng thông cao không truyền thống dựa trên HBM,

chưa chính thức ra mắt, không phù hợp để thảo luận công khai,

nhưng trong ngành có thể đoán được đó là gì rồi.

Hai,

Giảm tiêu thụ điện của máy chủ

Tuần này đã có tin tức đề cập,

để giảm tiêu thụ điện của máy chủ AI,

Nvidia gần đây quyết định chuyển bộ nhớ sử dụng trong máy chủ từ DDR5 (đời thứ 5, bộ nhớ đồng bộ tốc độ dữ liệu gấp đôi) sang LPDDR5X — cũng là loại bộ nhớ được nhiều điện thoại flagship sử dụng.

Về chip AI nội địa tiết kiệm điện,

giống như Qualcomm,

làm còn quyết liệt hơn Nvidia nhiều,

họ còn dùng LPDDR để tiết kiệm điện cho bộ nhớ CPU,

còn chúng ta thì chuyển sang bộ nhớ GPU,

không thể tiết lộ thêm nữa,

chỉ có thể nói là bạn hiểu rồi.

Ngoài ra còn có việc làm mát bằng chất lỏng thay cho làm mát bằng gió cho máy chủ,

đương nhiên không cần phải nói,

về tản nhiệt,

đây cũng là yếu tố tiêu hao năng lượng chính.

Tổng thể,

ngành sẽ có nhiều chuyển đổi cấu trúc lớn, các bước này vẫn là cơ hội lớn trong tương lai.

Về lưu trữ,

tuần này cũng làm rất quyết liệt,

một là vấn đề thanh khoản,

hai là mở rộng quy mô sản xuất bộ nhớ.

Trước hết, SK Hynix và Samsung chỉ có hai nhà máy mới thực sự xây dựng là M15X và P4 tại Pyeongtaek,

các nhà máy khác chủ yếu chuyển đổi từ các dây chuyền cũ DDR4/LPDDR5 của chính họ,

thực tế không phải là mở rộng công suất mới,

Tiêu đề “mở rộng 8 lần” chỉ là trò chơi chữ,

thứ nhất, quy trình công nghệ 1C tiên tiến vốn ban đầu nhỏ,

thứ hai, hơn 50% là nâng cấp từ công suất cũ lên công nghệ mới,

tổng thể tăng thêm không đáng kể.

Hơn nữa, việc mở rộng này ít nhất phải đến nửa cuối năm 26 mới có thể thực hiện,

có thể còn là hợp đồng kỳ hạn 27-28,

việc lắp đặt hoàn toàn có thể điều chỉnh theo nhu cầu thị trường.

Giữ giá DRAM ở mức cao tương đối dao động,

mở rộng bán hàng để đáp ứng nhu cầu,

đây là điều các nhà sản xuất lưu trữ cần làm,

để có được lợi nhuận cao dài hạn như HBM,

tăng cả về lượng và giá.

Vì thị trường chủ đạo của DRAM chỉ có Samsung,

Micron,

Hynix, ba hãng,

nghe đồn hai hãng Hàn Quốc có chút thỏa thuận ngầm.

Ngoài ra,

cần chú ý rằng,

giá giao ngay mà mọi người thấy,

các nhà cung cấp bán theo hợp đồng,

chưa bằng giá giao ngay,

dù giá giao ngay giảm một nửa, giá hợp đồng vẫn thấp hơn 50% so với giá giao ngay.

Việc mở rộng HBM sang bộ nhớ phổ thông,

khiến tỷ lệ AI tăng mạnh,

thời điểm “thời kỳ bùng nổ module quang” của các nhà sản xuất lưu trữ đã đến.

Ngân hàng Mỹ cũng đã phát hành báo cáo mô tả tình hình hiện tại khá khó xử,

chia rẽ trong nội bộ các nhà mua rất lớn,

các nhà nghiên cứu của các quỹ đều lạc quan về lưu trữ,

nhưng các quản lý quỹ lo ngại trở thành người nhận hàng cuối cùng,

nói dễ hiểu là những người hiểu biết đều nghĩ không vấn đề gì,

nhưng người quản lý tiền lại lo lắng,

chỉ còn chờ thị trường thứ cấp chạm đáy rồi mới mua vào.

TAO-1,94%
DAI0,02%
AIA-6,68%
Xem bản gốc
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
  • Phần thưởng
  • Bình luận
  • Đăng lại
  • Retweed
Bình luận
0/400
Không có bình luận
  • Ghim