Hãng sản xuất GPU NVIDIA đã quá nổi tiếng trên thị trường với hàng loạt các sản phẩm khác nhau nhắm vào nhiều đối tượng sử dụng. Đối với những hệ thống trung tâm dữ liệu AI, DeepLearning thì dòng sản phẩm Tesla hiện đang được các hệ thống sử dụng rất nhiều và dường như là chủ đạo. Để tiếp nối thế hệ Tesla V100 thì Nvidia đã có kế hoạch cho sản phẩm tiếp theo có tên là Tesla V100s.

NVIDIA Tesla V100 Tensor Core là GPU tiên tiến nhất dành cho các hệ thống AI, điện toán hiệu năng cao (HPC), trung tâm dữ liệu và đồ họa. Dòng sản phẩm Tesla V100s tiếp theo sẽ là bản nâng cấp “nhẹ nhàng” trên nền tảng Tesla V100. Tesla V100s vẫn sử dụng kiến trúc Nvidia Volta, được trang bị 32GB VRAM HBM2 và băng thông lên đến 1134 GB/s, nó sẽ cung cấp hiệu năng tương đương với 100 nhân CPU chỉ trong 1 GPU. Tesla V100s sẽ sử dụng kết nối chuẩn PCIe và có điểm TFLOPS Deeplearning lên tới 130 (Cao nhất trong dòng Tesla V100). Với sản phẩm này các nhà khoa học dữ liệu, nhà nghiên cứu, kỹ sư có thể tiết kiệm được nhiều thời thời gian hơn và có được những bước đột phá trong AI.

Với 640 Tensor Cores, Tesla V100 đã “xưng danh” là GPU đầu tiên trên thế giới vượt qua rào cản 100 teraFLOPS (TFLOPS) về hiệu suất deeplearning. Thế hệ tiếp theo của sản phẩm sử dụng công nghệ Nvidia NVLINK có thể kết nối được nhiều GPU V100 với tốc độ lên đến 300GB/s để tạo ra các máy chủ điện toán mạnh nhất thế giới. Các mô hình AI thường tiêu tốn hàng tuần để có thể đào tạo được dữ liệu nay đã được rút gọn xuống chỉ còn vài ngày. Với việc giảm đáng kể thời gian đào tạo dữ liệu AI này thì các trung tâm cơ sở dữ liệu đã tiết kiệm được rất nhiều thời gian và đẩy nhanh các giai đoạn khác nhau.