NVIDIA DGX A100 là hệ thống phổ quát cho tất cả các AI workload
Siêu máy chủ này có bộ tăng tốc tiên tiến nhất thế giới, đó là GPU NVIDIA A100 Tensor Core dựa trên kiến trúc Ampere.
Máy chủ thiết lập một tiêu chuẩn mới cho năng lực tính toán thông qua hiệu năng đạt được lên tới 5 petaFLOPS hiệu suất xử lý trí tuệ nhân tạo (AI) trong một hệ khung máy chủ kích thước chỉ 6U cho phép thay thế cơ sở hạ tầng tính toán AI/Machine Learning cũ bằng một hệ thống thống nhất và duy nhất.
Phần cứng tích hợp dựa trên kiến trúc tham chiếu đã được chứng minh của NVIDIA với khả năng mở rộng hàng trăm node:
- Đáp ứng triển khai và cập nhật hệ thống nhanh chóng do việc tham chiếu kiến trúc khuyến nghị cho phép tổ chức/doanh nghiệp hướng tới phát triển một giải pháp tổng thể với ít rủi do mặt thiết kế.
- Đáp ứng khả năng mở rộng linh hoạt cũng như hỗ trợ nhiều người dùng chạy khối lượng công việc AI đa dạng cùng một thời điểm bao gồm phân tích dữ liệu (data analytics), đào tạo máy học (Machine Learning training) cho đến suy luận (inference).
- Cung cấp khả năng trong việc phân bổ sức mạnh tính toán chi tiết với tính năng chia nhỏ GPU thành các GPU nhỏ hơn thông qua tính năng Multi-instance GPU (MIG) của GPU NVIDIA Tensor Core. Tính năng này cho phép quản trị viên chỉ định tài nguyên có kích thước phù hợp cho từng khối lượng công việc cụ thể với yêu cầu tài nguyên từ 1/7 GPU cho đến ghép 08 GPU (lên đến 640 gigabyte – GB) của ứng dụng, giúp cho DGX có thể giải quyết các công việc đơn giản nhất và nhỏ nhất cho tới lớn nhất và phức tạp nhất.
- Thế hệ thứ 3 của NVIDIA NVLink, cho phép tăng gấp đôi băng thông giao tiếp giữa GPU-GPU lên 600 gigabyte mỗi giây (GB / s), cao hơn gần 10 lần so với PCIe Gen 4. Kết hợp giữa NVIDIA NVLink và NVIDIA NVSwitch thế hệ mới (nhanh hơn gấp 2 lần so với thế hệ trước) cho phép mang lại sức mạnh xử lý tối ưu với các workload đòi hỏi Multi-GPU giảm thời gian xử lý của workload đồng thời giải quyết các thách thức về hiệu năng xử lý không thể thực thực hiện được trước đây.
- Các container, AI/ML Framework, SDK trên NVIDIA NGC cung cấp quyền truy cập vào danh mục các phần mềm tăng tốc xử lý với GPU cho các bài toán AI, DL, máy học (ML) và HPC cho phép tận dụng, tối ưu hóa nhằm tăng hiệu suất GPU tối đa trên hệ thống NVIDIA DGX A100
Phần mềm hỗ trợ được tích hợp kiểm thử cho phép tối ưu môi trường phát triển sản phẩm và môi trường cung cấp dịch vụ, được cập nhật thường xuyên ( cập nhật hàng tháng) và được hỗ trợ kĩ thuật chính hãng từ NVIDIA.
DGX A100 mang lại những ưu điểm trên 04 building-block thiết yếu của một trung tâm dữ liệu AI.
DGXperts: Tích hợp quyền truy cập vào cộng đồng chuyên nghiệp AI
Lợi ích đi cùng với mọi hệ thống DGX là trực tiếp tiếp cận với NVIDIA DGXperts – đội ngũ hơn 14000 kỹ sư lập trình và chuyên gia đầu ngành trong lĩnh vực AI trên toàn cầu.
Kèm theo đó là NVIDIA NGC Platform – một nền tảng toàn diện cung cấp nhiều công cụ phần mềm, frameworks, thư viện và pre-train models rút ngắn thời gian phát triển sản phẩm ra thị trường, tối đa hóa giá trị khoản đầu tư cho hệ thống DGX.
DGX A100 là một biểu tượng đầu tiên trong lĩnh vực trí tuệ nhân tạo, được xây dựng dựa trên GPU NVIDIA A100 Tensor Core – một cột đèn quan trọng trong công nghệ chuyên ngành. Với 8 GPU A100 tích hợp, hệ thống này cung cấp khả năng tăng tốc độ chưa từng thấy, hoàn toàn tối ưu hóa cho phần mềm NVIDIA CUDA-X™ và các giải pháp end-to-end cho trung tâm dữ liệu NVIDIA.
Đặc biệt, DGX A100 có khả năng mở rộng cho trung tâm dữ liệu một cách hoạt động và hiệu quả. Với việc tích hợp bộ điều hợp mạng Mellanox ConnectX-6 VPI HDR InfiniBand/Ethernet, máy chủ này đảm bảo băng thông hai chiều lên đến 450GB/s – Đạt mức cao nhất trong lĩnh vực này. Điều này làm cho việc mở rộng trung tâm dữ liệu AI trở nên dễ dàng hơn, đặc biệt trong bối cảnh dữ liệu và nhu cầu tính toán ngày càng tăng.