Cơ bản
Giao ngay
Giao dịch tiền điện tử một cách tự do
Giao dịch ký quỹ
Tăng lợi nhuận của bạn với đòn bẩy
Chuyển đổi và Đầu tư định kỳ
0 Fees
Giao dịch bất kể khối lượng không mất phí không trượt giá
ETF
Sản phẩm ETF có thuộc tính đòn bẩy giao dịch giao ngay không cần vay không cháy tải khoản
Giao dịch trước giờ mở cửa
Giao dịch token mới trước niêm yết
Futures
Truy cập hàng trăm hợp đồng vĩnh cửu
TradFi
Vàng
Một nền tảng cho tài sản truyền thống
Quyền chọn
Hot
Giao dịch với các quyền chọn kiểu Châu Âu
Tài khoản hợp nhất
Tối đa hóa hiệu quả sử dụng vốn của bạn
Giao dịch demo
Bắt đầu với Hợp đồng
Nắm vững kỹ năng giao dịch hợp đồng từ đầu
Sự kiện tương lai
Tham gia sự kiện để nhận phần thưởng
Giao dịch demo
Sử dụng tiền ảo để trải nghiệm giao dịch không rủi ro
Launch
CandyDrop
Sưu tập kẹo để kiếm airdrop
Launchpool
Thế chấp nhanh, kiếm token mới tiềm năng
HODLer Airdrop
Nắm giữ GT và nhận được airdrop lớn miễn phí
Launchpad
Đăng ký sớm dự án token lớn tiếp theo
Điểm Alpha
Giao dịch trên chuỗi và nhận airdrop
Điểm Futures
Kiếm điểm futures và nhận phần thưởng airdrop
Đầu tư
Simple Earn
Kiếm lãi từ các token nhàn rỗi
Đầu tư tự động
Đầu tư tự động một cách thường xuyên.
Sản phẩm tiền kép
Kiếm lợi nhuận từ biến động thị trường
Soft Staking
Kiếm phần thưởng với staking linh hoạt
Vay Crypto
0 Fees
Thế chấp một loại tiền điện tử để vay một loại khác
Trung tâm cho vay
Trung tâm cho vay một cửa
Hiện tại, làm thế nào để phá vỡ “bong bóng” AI? - Nền tảng giao dịch tiền mã hóa an toàn và đáng tin cậy
Gần đây, cổ phiếu các công ty liên quan đến AI đều bị ảnh hưởng nặng nề do các vòng huy động vốn liên tục của Mỹ,
khi không thấy rõ lợi nhuận từ các khoản đầu tư lớn và thiếu hụt thanh khoản trên thị trường toàn cầu.
Các ông lớn CSP chuyển sang khấu hao,
dòng tiền,
tỷ lệ chi tiêu vốn trên doanh thu đã khá cao, điều này tôi đã đề cập từ giữa năm ngoái,
nhưng thị trường lúc đó bỏ qua,
tiếp tục đẩy mạnh AI,
giờ lại được đem ra bàn luận sôi nổi,
nguyên nhân cốt lõi cũng hoàn toàn giống như thời điểm đó,
vẫn chưa thấy lợi nhuận và ứng dụng đột phá phù hợp với chi tiêu vốn,
nói thẳng ra, bong bóng thị trường chính là do chi phí đầu tư quá cao.
Nhưng hiện tại, ai cũng không thể thực sự ngừng đầu tư vào AI,
Thay vì dự đoán mơ hồ về việc phá vỡ chi tiêu vốn và thời điểm xuất hiện các ứng dụng đột phá,
còn hơn là nghiên cứu xu hướng phát triển ngành để giải quyết vấn đề “bong bóng” AI.
Làm thế nào để giải quyết?
Câu trả lời chính là giảm chi phí,
bất kỳ xu hướng phát triển công nghệ nào cũng đều là giảm dần chi phí đơn vị,
nếu không, nó sẽ không thể phổ biến.
Từ điện thoại di động lớn đến nhỏ gọn hơn rồi đến smartphone,
từ internet đến internet di động, đều đi theo hướng này.
Vậy, khó khăn lớn nhất của AI hiện nay là gì: chi tiêu vốn cao và thiếu điện,
tương ứng là GPU quá đắt,
tiêu thụ điện năng quá lớn,
Vậy làm thế nào để giải quyết vấn đề này,
Có hai hướng sau:
Một,
Giảm chi phí hệ thống của các card tính toán
(1) Tự phát triển chip,
điển hình là Google,
và Google cũng như Apple đều có nguồn tiền dồi dào,
hệ sinh thái khép kín,
chiến binh hình lục giác kết hợp phần mềm và phần cứng,
tự nhiên trở thành khoản đầu tư cuối cùng của ông bà Larry Page.
Qua bảng dưới đây cũng có thể thấy cấu hình TPU7 của Google vẫn khá ổn,
hai chip có khả năng tương đương B300,
nhưng về giá,
mua một chiếc B300 có thể làm được bốn chiếc TPU7.
Vì vậy, dự kiến xuất xưởng TPU năm 26 đã đạt tới bốn triệu chiếc,
gần bằng dự đoán của Rubin cho năm 26.
Ảnh hưởng đến ngành là,
nếu GPU phổ thông và card tự phát triển đạt tỷ lệ 1:1 lâu dài,
tức là với cùng mức chi tiêu vốn,
có thể đạt được khoảng 1.5 lần công suất tính toán và dung lượng lưu trữ ban đầu.
Điều này cũng đúng với các sản phẩm phụ trợ như module quang,
nhiều card hơn đồng nghĩa với nhu cầu phụ trợ tăng lên.
(Đoạn này tôi viết ngày 7 tháng 9,
đúng lúc trước đợt bùng nổ lưu trữ này,
chi tiết có thể xem lại nội dung lúc đó)
(2) Chia nhỏ một loại GPU truyền thống thành hai cấu hình: inference + huấn luyện sâu,
sử dụng giải pháp bộ nhớ phối hợp cao thấp,
ví dụ như tổ hợp Rubin+CPX của Nvidia và chip series Ascend 950pr+950dr,
phần logic có thể dùng cùng loại chip,
nhưng giảm chi phí bằng cách sử dụng các cấu hình bộ nhớ khác nhau.
Ví dụ, chi phí của 288G HBM4 đã lên tới hơn 30.000 nhân dân tệ,
nhưng tôi dùng GDDR7 288G có thể chỉ khoảng 15.000 nhân dân tệ,
tiền xử lý nhẹ nhàng cho văn bản có thể giảm đáng kể chi phí của card inference,
triển khai nhiều card hơn cho inference.
Chiếc Ascend 950pr tự phát triển của Huawei là một giải pháp card inference băng thông cao không truyền thống dựa trên HBM,
chưa chính thức ra mắt, không phù hợp để thảo luận công khai,
nhưng trong ngành có thể đoán được đó là gì rồi.
Hai,
Giảm tiêu thụ điện của máy chủ
Tuần này đã có tin tức đề cập,
để giảm tiêu thụ điện của máy chủ AI,
Nvidia gần đây quyết định chuyển bộ nhớ sử dụng trong máy chủ từ DDR5 (đời thứ 5, bộ nhớ đồng bộ tốc độ dữ liệu gấp đôi) sang LPDDR5X — cũng là loại bộ nhớ được nhiều điện thoại flagship sử dụng.
Về chip AI nội địa tiết kiệm điện,
giống như Qualcomm,
làm còn quyết liệt hơn Nvidia nhiều,
họ còn dùng LPDDR để tiết kiệm điện cho bộ nhớ CPU,
còn chúng ta thì chuyển sang bộ nhớ GPU,
không thể tiết lộ thêm nữa,
chỉ có thể nói là bạn hiểu rồi.
Ngoài ra còn có việc làm mát bằng chất lỏng thay cho làm mát bằng gió cho máy chủ,
đương nhiên không cần phải nói,
về tản nhiệt,
đây cũng là yếu tố tiêu hao năng lượng chính.
Tổng thể,
ngành sẽ có nhiều chuyển đổi cấu trúc lớn, các bước này vẫn là cơ hội lớn trong tương lai.
Về lưu trữ,
tuần này cũng làm rất quyết liệt,
một là vấn đề thanh khoản,
hai là mở rộng quy mô sản xuất bộ nhớ.
Trước hết, SK Hynix và Samsung chỉ có hai nhà máy mới thực sự xây dựng là M15X và P4 tại Pyeongtaek,
các nhà máy khác chủ yếu chuyển đổi từ các dây chuyền cũ DDR4/LPDDR5 của chính họ,
thực tế không phải là mở rộng công suất mới,
Tiêu đề “mở rộng 8 lần” chỉ là trò chơi chữ,
thứ nhất, quy trình công nghệ 1C tiên tiến vốn ban đầu nhỏ,
thứ hai, hơn 50% là nâng cấp từ công suất cũ lên công nghệ mới,
tổng thể tăng thêm không đáng kể.
Hơn nữa, việc mở rộng này ít nhất phải đến nửa cuối năm 26 mới có thể thực hiện,
có thể còn là hợp đồng kỳ hạn 27-28,
việc lắp đặt hoàn toàn có thể điều chỉnh theo nhu cầu thị trường.
Giữ giá DRAM ở mức cao tương đối dao động,
mở rộng bán hàng để đáp ứng nhu cầu,
đây là điều các nhà sản xuất lưu trữ cần làm,
để có được lợi nhuận cao dài hạn như HBM,
tăng cả về lượng và giá.
Vì thị trường chủ đạo của DRAM chỉ có Samsung,
Micron,
Hynix, ba hãng,
nghe đồn hai hãng Hàn Quốc có chút thỏa thuận ngầm.
Ngoài ra,
cần chú ý rằng,
giá giao ngay mà mọi người thấy,
các nhà cung cấp bán theo hợp đồng,
chưa bằng giá giao ngay,
dù giá giao ngay giảm một nửa, giá hợp đồng vẫn thấp hơn 50% so với giá giao ngay.
Việc mở rộng HBM sang bộ nhớ phổ thông,
khiến tỷ lệ AI tăng mạnh,
thời điểm “thời kỳ bùng nổ module quang” của các nhà sản xuất lưu trữ đã đến.
Ngân hàng Mỹ cũng đã phát hành báo cáo mô tả tình hình hiện tại khá khó xử,
chia rẽ trong nội bộ các nhà mua rất lớn,
các nhà nghiên cứu của các quỹ đều lạc quan về lưu trữ,
nhưng các quản lý quỹ lo ngại trở thành người nhận hàng cuối cùng,
nói dễ hiểu là những người hiểu biết đều nghĩ không vấn đề gì,
nhưng người quản lý tiền lại lo lắng,
chỉ còn chờ thị trường thứ cấp chạm đáy rồi mới mua vào.