IoT & AI

  • IoT AI
  • NVIDIA DGX Series
제품문의

NVIDIA® Tesla® GPU를 사용하면 높은 사양을 요구하는 HPC와 하이퍼스케일 데이터센터 워크로드를 처리 할 수 있습니다. 데이터를 이용한 딥러닝을 다양한 응용 분야에서 기존의 CPU가 지원했던 수준보다 훨씬 더 빠르게 페타바이트급 데이터 처리를 경험하실 수 있습니다.. NVIDIA의 Enterprise Platform은 이전보다 훨씬 빠른 속도로 더욱 큰 규모의 시뮬레이션을 실행하는 데 전혀 문제가 없습니다. 가상 데스크톱, 애플리케이션, 워크스테이션에 최고의 성능과 경험을 사용자에게 제공합니다.

가장 복잡한 AI 과제를 위한 세계에서 가장 강력한 AI 시스템

딥러닝 성능을 5 배로 높이기 위해 상호 연결된 16개의 GPU를 결합하는 최초의 2페타플롭스 시스템인 NVIDIA DGX-2로 AI 속도를 향상시키고 쉽게 확장할 수 있습니다. 이 제품은 NVIDIA® DGX™ 소프트웨어와 NVIDIA NVSwitch 기술을 기반으로 하는 확장 가능한 아키텍처로 구동되므로 세계에서 가장 복잡한 AI 과제를 수행할 수 있습니다.

제품 사양

NVIDIA DGX-2
GPUs 16X NVIDIA® Tesla V100
GPU Memory 512GB total
Performance 2 petaFLOPS
NVIDIA CUDA® Cores 81920
NVIDIA Tensor Cores 10240
NVSwitches 12
Maximum Power Usage 10 kW
CPU Dual Intel Xeon Platinum 8168, 2.7 GHz, 24-cores
System Memory 1.5TB
Network 8X 100Gb/sec Infiniband/100GigE Dual 10/25Gb/sec Ethernet
Storage OS: 2X 960GB NVME SSDs Internal Storage: 30TB (8X 3.84TB) NVME SSDs
Software Ubuntu Linux OS See Software stack for details
System Weight 340 lbs (154.2 kgs)
System Dimensions Height: 17.3 in (440.0 mm)
Width: 19.0 in (482.3 mm)
Length: 31.3 in (795.4 mm) - No Front Bezel
32.8 in (834.0 mm) - With Front Bezel

현재의 AI와 Deep Learning의 요구를 충족시키기 위한 스케일링의 챌린지

  • 1 - NVIDIA TESLA V100 32GB, SXM3
  • 2 - 16 TOTAL GPUS FOR BOTH BOARDS, 512GB TOTAL HBM2 MEMORY
    • 각각의 GPU 보드에 탑재된 8개의 NVIDIA Tesla V100
  • 3 - 12 TOTAL NVSWITCHES
    • HSI(High Speed Interconnect), 2.4 TB/초의 바이섹션 대역폭(bisection bandwidth)
  • 4 - 8 EDR INFINIBAND/100 GbE ETHERNET
    • 1600 Gb/초의 양방향 대역폭(Bi-directional Bandwidth)과 저지연
  • 5 - PCIE SWITCH COMPLEX
  • 6 - TWO INTEL XEON PLATINUM CPUS
  • 7 - 1.5 TB SYSTEM MEMORY
  • 8 - DUAL 10/25 GbE ETHERNET
  • 9 - 30 TB NVME SSDS INTERNAL STORAGE

자세한 제품 정보는 NVIDIA 홈페이지를 참고하세요. 사이트 바로가기