Tại CES 2026, Giám đốc Tài chính của Nvidia, Colette Kress, đã chia sẻ một cái nhìn sâu sắc về sự phát triển kinh doanh của công ty: gần 90% khách hàng mua các hệ thống AI toàn diện cũng đang mua các sản phẩm mạng lưới. Tỷ lệ gắn kết mạng này làm sáng tỏ một sự chuyển đổi căn bản trong cách Nvidia định vị chính mình—không chỉ là nhà cung cấp GPU, mà còn là nhà cung cấp hạ tầng AI toàn diện từ đầu đến cuối. Phát hiện này nhấn mạnh rằng mạng lưới đã âm thầm trở thành một trong những đòn bẩy tăng trưởng mạnh mẽ nhất của công ty, ngay cả khi cạnh tranh trong thị trường GPU ngày càng gay gắt.
Tỷ lệ Gắn kết Mạng Đang Định Hình Lại Mối Quan Hệ Khách Hàng
Thông tin của Colette Kress về tỷ lệ gắn kết 90% báo hiệu một sự biến đổi lớn trong hành vi mua hàng của khách hàng. Chỉ số này phản ánh điều gì đó sâu hơn việc đóng gói sản phẩm đơn thuần: nó cho thấy các tổ chức xây dựng trung tâm dữ liệu AI quy mô lớn đã nhận thức được rằng mạng lưới không thể tách rời khỏi khả năng tính toán. Kress cũng lưu ý rằng ngay cả các công ty triển khai chip AI tùy chỉnh của riêng họ vẫn thường xuyên sử dụng các giải pháp mạng của Nvidia, chứng tỏ tính chất quan trọng của các hệ thống liên kết này.
Trong quý thứ ba của năm tài chính 2026, xu hướng này thể hiện rõ qua kết quả tài chính: Nvidia đã thu về 8,2 tỷ USD doanh thu từ mạng lưới, tăng 162% so với cùng kỳ năm trước. Danh mục này bao gồm NVLink (kết nối các GPU), các switch InfiniBand và nền tảng Ethernet Spectrum-X. Các nhà xây dựng hạ tầng AI lớn như Meta, Microsoft, Oracle và xAI đều cam kết sử dụng các switch Ethernet Spectrum-X trong các trung tâm dữ liệu thế hệ tiếp theo của họ.
Tại Sao Hạ Tầng AI Yêu Cầu Các Phương Pháp Mạng Khác Biệt
Yêu cầu về mạng lưới cho trung tâm dữ liệu AI khác biệt căn bản so với kiến trúc trung tâm dữ liệu đám mây truyền thống. Trong quá trình huấn luyện AI, lưu lượng dữ liệu giữa các GPU phải duy trì ở mức cực cao—bất kỳ GPU nào bị bỏ trống đều là lãng phí khả năng tính toán. Tương tự, các công việc suy luận AI phụ thuộc vào việc di chuyển dữ liệu nhanh chóng để cung cấp kết quả với độ trễ tối thiểu. Mạng lưới doanh nghiệp tiêu chuẩn, được thiết kế cho các mô hình lưu lượng khác nhau, không thể đáp ứng những yêu cầu này. Nhu cầu kỹ thuật này đã định vị danh mục mạng chuyên dụng của Nvidia trở thành không thể thay thế trong các triển khai AI tiên tiến.
Thị trường đang xác nhận tính đặc thù này. Theo các nhà phân tích ngành tại IDC, doanh thu của các switch 800GbE siêu cao tốc gần như đã tăng gấp đôi theo quý trong quý thứ ba năm 2025. Nvidia hiện chiếm 11,6% thị phần trong thị trường chuyển mạch Ethernet trung tâm dữ liệu, đứng sau chỉ sau Arista Networks và Cisco Systems. Vị thế này phản ánh việc chiếm lĩnh thị phần nhanh chóng trong một phân khúc cực kỳ quan trọng cho việc xây dựng hạ tầng AI.
Nền Tảng Rubin: Đóng Gói GPU, Bộ Xử Lý và Mạng Lưới Với Quy Mô Lớn
Bước đi chiến lược mới nhất của Nvidia mở rộng tư duy lấy mạng làm trung tâm này. Công ty đã giới thiệu nền tảng Rubin tại CES, tích hợp GPU, CPU và nhiều công nghệ mạng vào các hệ thống dạng rack có thể mở rộng, gồm các cấu hình 8 GPU và 72 GPU. Vera Rubin NVL72 là giải pháp tham vọng nhất trong số này, dự kiến sẽ được triển khai trên tất cả các nhà cung cấp dịch vụ đám mây lớn vào năm 2026.
Kiến trúc Rubin sử dụng dòng switch Ethernet Spectrum-6 mới, hỗ trợ kết nối 800 GB/s mỗi cổng và cung cấp tổng công suất chuyển mạch lên tới 102,4 Tb/s. Bằng cách chuyển trọng tâm thương mại từ việc bán GPU đơn lẻ sang bán các hệ thống dạng rack hoàn chỉnh, Nvidia đã định vị mình để thu về doanh thu mạng lưới cùng với doanh thu tính toán. Cách đóng gói này hiệu quả khóa chặt tỷ lệ gắn kết 90% như mô tả của Colette Kress, tạo lợi thế cấu trúc trong mối quan hệ khách hàng.
Mở Rộng Thị Trường Mạng Lưới AI: Từ 14,9 Tỷ USD Đến 46,8 Tỷ USD Đến Năm 2029
Cơ hội tài chính này biện minh cho các khoản đầu tư mạng của Nvidia. Các nhà nghiên cứu thị trường tại MarketsandMarkets dự báo thị trường mạng lưới AI sẽ mở rộng từ 14,9 tỷ USD năm 2025 lên 46,8 tỷ USD vào năm 2029, với tốc độ tăng trưởng kép hàng năm là 33,8%. Ngay cả khi áp lực cạnh tranh làm giảm thị phần GPU của Nvidia theo thời gian, lĩnh vực mạng lưới vẫn cung cấp một động lực tăng trưởng song song với tốc độ tương tự.
Tốc độ tăng trưởng này phản ánh việc triển khai vốn khổng lồ đang diễn ra trong hạ tầng AI. Nghiên cứu của McKinsey cho thấy chi tiêu vốn cho trung tâm dữ liệu toàn cầu phải gần đạt 7 nghìn tỷ USD vào năm 2030 để đáp ứng nhu cầu AI dự kiến. Một phần lớn trong số này sẽ chảy trực tiếp vào các nhà cung cấp như Nvidia, có khả năng cung cấp toàn diện cả khả năng tính toán lẫn hạ tầng mạng.
Đánh Giá Cơ Hội Đầu Tư: Cơ Hội So Với Rủi Ro
Quỹ đạo mà Colette Kress trình bày và các dự báo thị trường phản ánh một kịch bản tích cực dài hạn cho Nvidia. Công ty kiểm soát các hạ tầng thiết yếu mà các nhà phát triển AI không thể tránh khỏi phải mua, và lĩnh vực mạng lưới của Nvidia cung cấp sự đa dạng doanh thu vượt ra ngoài thị trường GPU.
Tuy nhiên, vẫn còn nhiều yếu tố không chắc chắn. Dự đoán nhu cầu AI trong vòng bốn năm tới mang tính chất nhiều suy đoán. Thêm vào đó, các ngành công nghiệp vốn đòi hỏi vốn lớn trước đây cho thấy khả năng dư thừa công suất—tình huống mà đầu tư hạ tầng vượt quá nhu cầu thực tế. Nếu xảy ra tình trạng xây dựng quá mức trung tâm dữ liệu, nhu cầu về các hệ thống AI của Nvidia có thể gặp phải những trở ngại đáng kể, bất chấp vị thế thị trường hiện tại.
Công nghệ nền tảng của AI chắc chắn sẽ tiếp tục phát triển và thúc đẩy năng suất. Tuy nhiên, việc những lợi ích này có duy trì mang lại lợi nhuận bền vững cho cổ đông Nvidia hay không còn phụ thuộc vào việc điều hướng các chu kỳ thị trường và sự cạnh tranh ngày càng khốc liệt, những yếu tố vẫn còn nhiều không chắc chắn. Câu chuyện về mạng lưới mà Colette Kress nhấn mạnh thực sự hấp dẫn, nhưng nó không thể bảo vệ công ty khỏi các chu kỳ ngành hoặc các bất ngờ công nghệ lớn hơn.
Xem bản gốc
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
Colette Kress tiết lộ lý do tại sao 90% khách hàng của Nvidia mua hàng ngoài GPU
Tại CES 2026, Giám đốc Tài chính của Nvidia, Colette Kress, đã chia sẻ một cái nhìn sâu sắc về sự phát triển kinh doanh của công ty: gần 90% khách hàng mua các hệ thống AI toàn diện cũng đang mua các sản phẩm mạng lưới. Tỷ lệ gắn kết mạng này làm sáng tỏ một sự chuyển đổi căn bản trong cách Nvidia định vị chính mình—không chỉ là nhà cung cấp GPU, mà còn là nhà cung cấp hạ tầng AI toàn diện từ đầu đến cuối. Phát hiện này nhấn mạnh rằng mạng lưới đã âm thầm trở thành một trong những đòn bẩy tăng trưởng mạnh mẽ nhất của công ty, ngay cả khi cạnh tranh trong thị trường GPU ngày càng gay gắt.
Tỷ lệ Gắn kết Mạng Đang Định Hình Lại Mối Quan Hệ Khách Hàng
Thông tin của Colette Kress về tỷ lệ gắn kết 90% báo hiệu một sự biến đổi lớn trong hành vi mua hàng của khách hàng. Chỉ số này phản ánh điều gì đó sâu hơn việc đóng gói sản phẩm đơn thuần: nó cho thấy các tổ chức xây dựng trung tâm dữ liệu AI quy mô lớn đã nhận thức được rằng mạng lưới không thể tách rời khỏi khả năng tính toán. Kress cũng lưu ý rằng ngay cả các công ty triển khai chip AI tùy chỉnh của riêng họ vẫn thường xuyên sử dụng các giải pháp mạng của Nvidia, chứng tỏ tính chất quan trọng của các hệ thống liên kết này.
Trong quý thứ ba của năm tài chính 2026, xu hướng này thể hiện rõ qua kết quả tài chính: Nvidia đã thu về 8,2 tỷ USD doanh thu từ mạng lưới, tăng 162% so với cùng kỳ năm trước. Danh mục này bao gồm NVLink (kết nối các GPU), các switch InfiniBand và nền tảng Ethernet Spectrum-X. Các nhà xây dựng hạ tầng AI lớn như Meta, Microsoft, Oracle và xAI đều cam kết sử dụng các switch Ethernet Spectrum-X trong các trung tâm dữ liệu thế hệ tiếp theo của họ.
Tại Sao Hạ Tầng AI Yêu Cầu Các Phương Pháp Mạng Khác Biệt
Yêu cầu về mạng lưới cho trung tâm dữ liệu AI khác biệt căn bản so với kiến trúc trung tâm dữ liệu đám mây truyền thống. Trong quá trình huấn luyện AI, lưu lượng dữ liệu giữa các GPU phải duy trì ở mức cực cao—bất kỳ GPU nào bị bỏ trống đều là lãng phí khả năng tính toán. Tương tự, các công việc suy luận AI phụ thuộc vào việc di chuyển dữ liệu nhanh chóng để cung cấp kết quả với độ trễ tối thiểu. Mạng lưới doanh nghiệp tiêu chuẩn, được thiết kế cho các mô hình lưu lượng khác nhau, không thể đáp ứng những yêu cầu này. Nhu cầu kỹ thuật này đã định vị danh mục mạng chuyên dụng của Nvidia trở thành không thể thay thế trong các triển khai AI tiên tiến.
Thị trường đang xác nhận tính đặc thù này. Theo các nhà phân tích ngành tại IDC, doanh thu của các switch 800GbE siêu cao tốc gần như đã tăng gấp đôi theo quý trong quý thứ ba năm 2025. Nvidia hiện chiếm 11,6% thị phần trong thị trường chuyển mạch Ethernet trung tâm dữ liệu, đứng sau chỉ sau Arista Networks và Cisco Systems. Vị thế này phản ánh việc chiếm lĩnh thị phần nhanh chóng trong một phân khúc cực kỳ quan trọng cho việc xây dựng hạ tầng AI.
Nền Tảng Rubin: Đóng Gói GPU, Bộ Xử Lý và Mạng Lưới Với Quy Mô Lớn
Bước đi chiến lược mới nhất của Nvidia mở rộng tư duy lấy mạng làm trung tâm này. Công ty đã giới thiệu nền tảng Rubin tại CES, tích hợp GPU, CPU và nhiều công nghệ mạng vào các hệ thống dạng rack có thể mở rộng, gồm các cấu hình 8 GPU và 72 GPU. Vera Rubin NVL72 là giải pháp tham vọng nhất trong số này, dự kiến sẽ được triển khai trên tất cả các nhà cung cấp dịch vụ đám mây lớn vào năm 2026.
Kiến trúc Rubin sử dụng dòng switch Ethernet Spectrum-6 mới, hỗ trợ kết nối 800 GB/s mỗi cổng và cung cấp tổng công suất chuyển mạch lên tới 102,4 Tb/s. Bằng cách chuyển trọng tâm thương mại từ việc bán GPU đơn lẻ sang bán các hệ thống dạng rack hoàn chỉnh, Nvidia đã định vị mình để thu về doanh thu mạng lưới cùng với doanh thu tính toán. Cách đóng gói này hiệu quả khóa chặt tỷ lệ gắn kết 90% như mô tả của Colette Kress, tạo lợi thế cấu trúc trong mối quan hệ khách hàng.
Mở Rộng Thị Trường Mạng Lưới AI: Từ 14,9 Tỷ USD Đến 46,8 Tỷ USD Đến Năm 2029
Cơ hội tài chính này biện minh cho các khoản đầu tư mạng của Nvidia. Các nhà nghiên cứu thị trường tại MarketsandMarkets dự báo thị trường mạng lưới AI sẽ mở rộng từ 14,9 tỷ USD năm 2025 lên 46,8 tỷ USD vào năm 2029, với tốc độ tăng trưởng kép hàng năm là 33,8%. Ngay cả khi áp lực cạnh tranh làm giảm thị phần GPU của Nvidia theo thời gian, lĩnh vực mạng lưới vẫn cung cấp một động lực tăng trưởng song song với tốc độ tương tự.
Tốc độ tăng trưởng này phản ánh việc triển khai vốn khổng lồ đang diễn ra trong hạ tầng AI. Nghiên cứu của McKinsey cho thấy chi tiêu vốn cho trung tâm dữ liệu toàn cầu phải gần đạt 7 nghìn tỷ USD vào năm 2030 để đáp ứng nhu cầu AI dự kiến. Một phần lớn trong số này sẽ chảy trực tiếp vào các nhà cung cấp như Nvidia, có khả năng cung cấp toàn diện cả khả năng tính toán lẫn hạ tầng mạng.
Đánh Giá Cơ Hội Đầu Tư: Cơ Hội So Với Rủi Ro
Quỹ đạo mà Colette Kress trình bày và các dự báo thị trường phản ánh một kịch bản tích cực dài hạn cho Nvidia. Công ty kiểm soát các hạ tầng thiết yếu mà các nhà phát triển AI không thể tránh khỏi phải mua, và lĩnh vực mạng lưới của Nvidia cung cấp sự đa dạng doanh thu vượt ra ngoài thị trường GPU.
Tuy nhiên, vẫn còn nhiều yếu tố không chắc chắn. Dự đoán nhu cầu AI trong vòng bốn năm tới mang tính chất nhiều suy đoán. Thêm vào đó, các ngành công nghiệp vốn đòi hỏi vốn lớn trước đây cho thấy khả năng dư thừa công suất—tình huống mà đầu tư hạ tầng vượt quá nhu cầu thực tế. Nếu xảy ra tình trạng xây dựng quá mức trung tâm dữ liệu, nhu cầu về các hệ thống AI của Nvidia có thể gặp phải những trở ngại đáng kể, bất chấp vị thế thị trường hiện tại.
Công nghệ nền tảng của AI chắc chắn sẽ tiếp tục phát triển và thúc đẩy năng suất. Tuy nhiên, việc những lợi ích này có duy trì mang lại lợi nhuận bền vững cho cổ đông Nvidia hay không còn phụ thuộc vào việc điều hướng các chu kỳ thị trường và sự cạnh tranh ngày càng khốc liệt, những yếu tố vẫn còn nhiều không chắc chắn. Câu chuyện về mạng lưới mà Colette Kress nhấn mạnh thực sự hấp dẫn, nhưng nó không thể bảo vệ công ty khỏi các chu kỳ ngành hoặc các bất ngờ công nghệ lớn hơn.