Theo theo giám sát từ 1M AI News, CEO kiêm sáng lập viên của NVIDIA, Huang Renxun, đã chính thức công bố nền tảng Vera Rubin được sản xuất hàng loạt tại sự kiện GTC 2026, tích hợp bảy vi chip mới, bao gồm năm loại hệ thống rack, với thiết kế tổng thể dành riêng cho một siêu máy tính được tạo ra cho trí tuệ nhân tạo.
Rack cốt lõi Vera Rubin NVL72 tích hợp 72 chip GPU Rubin và 36 chip CPU Vera, được kết nối qua NVLink 6. So với thế hệ trước đó là nền tảng Blackwell, số lượng GPU cần thiết cho việc huấn luyện mô hình chuyên gia kết hợp lớn đã giảm xuống còn một phần tư, hiệu suất thông qua mỗi watt của khả năng suy luận có thể đạt tới 10 lần so với Blackwell, và chi phí mỗi mã thông báo đã giảm xuống còn một phần mười.
Năm loại hệ thống rack hình thành cơ sở hạ tầng nhà máy AI toàn diện:
- Vera Rubin NVL72 GPU Rack
- Vera CPU Rack (256 chip Vera CPU, hiệu suất gấp đôi so với CPU truyền thống, tăng tốc độ 50%)
- Groq 3 LPX Inference Acceleration Rack
- BlueField-4 STX Storage Rack (được thiết kế đặc biệt cho bộ nhớ đệm khóa giá trị AI Agent, tăng cường hiệu suất suy luận 5 lần)
- Spectrum-6 SPX Ethernet Rack
Trong việc quản lý năng lượng, NVIDIA đồng thời ra mắt nền tảng DSX: DSX Max-Q có thể triển khai nhiều hơn 30% cơ sở hạ tầng AI trong giới hạn điện năng cố định, DSX Flex có thể kích hoạt 100 gigawatt khả năng chứa của mạng điện đọng trước đây không thể sử dụng.
Nhà cung cấp dịch vụ đám mây như AWS, Google Cloud, Microsoft Azure, Oracle Cloud cùng CoreWeave, Lambda, Nebius và các nhà sản xuất hệ thống như Cisco, Dell Technologies, HP Enterprise, Lenovo, AMD đã công bố sẽ ra mắt sản phẩm Vera Rubin trong nửa cuối năm nay. Anthropic, Meta, Mistral AI và OpenAI đã tuyên bố sẽ sử dụng nền tảng này để huấn luyện mô hình quy mô lớn hơn.
Huang Renxun cho biết, dự đoán của ông là tổng giá trị đơn đặt hàng của hệ thống Blackwell và Vera Rubin từ năm 2025 đến 2027 sẽ ít nhất là 1 nghìn tỷ đô la, tăng gấp đôi so với dự đoán 500 tỷ đô la từ GTC năm ngoái.
