GPU 가격 및 성능 정리

GPU 클라우드의 가격과 NVIDIA Tesla 칩셋별 성능을 정리한다.

2019년 9월 8일 초안 작성


Developing AI applications takes many steps and each step involves processing large volumes of data and performing massive computing operations. CUDA-X AI provides the tools and technologies needed to conquer this challenge. 1



Type On Demand RI(3yrs)
P3/V100 $4.234 $1.676(60%)
G3/M60 $1.420 $0.685(52%)
G3/g3s.xlarge $0.934  
P2/K80 $1.460 $0.679(54%)


서울 리전은 V100만 지원한다.

Google Cloud

GCP는 아직 한국 리전이 없다.

Region Type On Demand Preemptible 1yr 3yrs Latency
도쿄(asia-northeast1) T4 $1.03 $0.31 $0.65 $0.47 85.963782ms
타이완(asia-east1) V100 $2.48 $0.74 $1.562 $1.116 145.619823ms
타이완(asia-east1) P100 $1.60 $0.43 $1.008 $0.720  
타이완(asia-east1) K80 $0.49 $0.135 $0.308 N/A  
Oregon(us-west1) K80     $206.590 (monthly)
$0.198 (effective hourly rate)

  • A 30% discount off the cost of using 1 GPU for a full month.
  • K80: $224.840 272,250 KRW

Best Deals in Deep Learning Cloud Providers



GPGPU 제품군인 NVIDIA Tesla 칩셋을 정리3한다.

  • NVIDIA Quadro cards are designed for accelerating CAD.
  • NVIDIA Tesla cards are designed for scientific computations.
  • NVIDIA RTX is a graphics rendering development platform.



  • PCIe: 2560 * 585/1590 MHz, 8100 GFLOS, 16G (Sep 2018)

차세대 인퍼런스 가속을 위해 특별히 개발되었습니다. The World’s Most Advanced Inference Accelerator. NVIDIA Turing Tensor Core를 기반으로 AI 인퍼런스 속도를 CPU 대비 40배 이상 빠른 속도로 가속합니다. 4



  • mezzanine(NVLink): 5120 * ?/1455 MHz, 14899 GFLOPS, 16G or 32G (Jun 2017)



  • mezzanine(NVLink): 3584 * 1328/1480 MHz, 9519–10609 GFLOPS, 16G (Apr 2016)

딥러닝을 위한 제품으로 Mezzanine과 PCI-Express 모델로 구분되며 3,584개의 CUDA 코어를 제공합니다.

P40, P4

  • P40: 3840 * 1303/1531 MHz, 10007–11758 GFLOPS, 24G (Sep 2016)
  • P4: 2560 * 810/1063 MHz, 4147–5443 GFLOPS, 8G (Sep 2016)

인퍼런스(Inferences)에 특화된 카드로 각각 3,584/1,024 CUDA 코어를 제공합니다.

M60, M6


  • M60: 4096 * 899/1178 MHz, 7365–9650 GFLOPS, 2x8G (Aug 2015)
  • M6: 1536 * 722/1051 MHz, 2218–3229 GFLOPS, 8G (Aug 2015)

엔터프라이즈에서 사용하는 서버용 모델입니다. M60은 랙 타입 서버에 탑재되고, M6는 블레이드 서버에 장착됩니다. M60은 4,096개의 CUDA 코어를 제공하며, 16GB의 GDDR5 메모리가 제공됩니다. M6는 1,536 CUDA 코어, 8GB GDDR5 메모리를 주요 사양으로 합니다.

K40, K80


  • K80: 4992 * 560/875 MHz, 5591–8736 GFLOPS, 2x12G (Nov 2014)
  • K40: 2880 * 745/875 MHz, 4291–5040 GFLOPS, 12G (Oct 2013)


Low Precision Inference on GPU

T4 GPU에서 Quantized 연산으로 8.1TFLOPS를 130 TOPS, 16배 개선할 수 있다. 그러나, BERT SQuAD 1.1(F1) 점수가 Int8에서 6.43%나 낮다. Activation으로 GeLU10을 사용해 0.67% 이내로 줄일 수 있다. 5 MRPC는 두 문장의 유사 문장 판별 태스크로 마찬가지로 성능 차이를 0.80% 이내로 줄일 수 있다.

NumPy GPU acceleration


  • CuPy, which has a NumPy interface for arrays allocated on the GPU used in Chainer.
  • Numba is an JIT compiler using the industry-standard LLVM compiler library that translates a subset of Python and NumPy code into fast machine code.
  • PyCUDA lets you access Nvidia’s CUDA parallel computation API from Python.
  • PyTorch as you know very well.
  • JAX can automatically differentiate native Python and NumPy functions with updated version of Autograd.


is a collection of Papers I have written.
© 2000 - Sang-Kil Park Except where otherwise noted, content on this site is licensed under a CC BY 4.0.
This site design was brought from Distill.