User Tools

Site Tools


cluster:181

Differences

This shows you the differences between two versions of the page.

Link to this comparison view

Both sides previous revision Previous revision
Next revision
Previous revision
Next revision Both sides next revision
cluster:181 [2019/07/30 17:14]
hmeij07
cluster:181 [2019/07/31 14:25]
hmeij07 [2019 GPU Models]
Line 3: Line 3:
  
 ===== 2019 GPU Models ===== ===== 2019 GPU Models =====
-^          Quadro  ^^^^^  Tesla  ^^    ^ + 
-^  Model  ^  RTX 2080 Ti  ^  RTX TITAN  ^  RTX 4000  ^  RTX 6000  ^  RTX 8000  ^  P100  ^  V100  ^  Notes  ^ +We do not do AI (yet).  The pattern is mostly one job per GPU for exclusive access.  So no NVlink requirements, CPI connections sufficient.  The application list is Amber, Gromacs, Lammps and some python biosequencing packages. Our current per GPU memory footprint is 8 GB which seems sufficient. 
-|  Cores  |  4352  |  4608  |  2304  |  4608  |  4608  |  3584  |  5120  |parallel cuda| + 
-| Memory  |  11  |  24  |  8  |  24  |  46  |  12  |  16  |ddr6| +^          Quadro  ^^^^^  Tesla  ^^  Turing  ^    ^ 
-|  Watts  |  250  |  280  |  250  |  295  |  295  |  250  |  250  |    | +^  Model  ^  RTX 2080 Ti  ^  RTX TITAN  ^  RTX 4000  ^  RTX 6000  ^  RTX 8000  ^  P100  ^  V100   T4   Notes  ^ 
-|  Double   -  |  0.5  |  -  |  0.5  |  -  |  4.7  |  7  |FP64 precision+|  Cores  |  4352  |  4608  |  2304  |  4608  |  4608  |  3584  |  5120   2560  |parallel cuda| 
-|  Single   13.5  |  16  |  7  |  16  |  16  |  9.3  |  14  |FP32 precision+| Memory  |  11  |  24  |  8  |  24  |  46  |  12   32   16  |GB ddr6| 
-|  Price  |  $1,199  |  $2,499  |  $900  |    $4,000  |  $5,500  |  $4,250  |  $7,000  |list price| +|  Watts  |  250  |  280  |  250  |  295  |  295  |  250  |  250   70!     | 
-|  Notes  |  small scale  |  medium scale, some fp64   small scale |  medium scale, some fp64   large scale  |  versatile  |  most advanced  |    |+|  Tflops   -  |  0.5  |  -  |  0.5  |  -  |  4.7  |  7  |   |double fp64
 +|  Tflops   13.5  |  16  |  7  |  16  |  16  |  9.3  |  14  |  8.1  |single fp32| 
 +|  Avg Bench  |  197%  |  215%  |  120%  |  207%  |  219%  |  120%  |  150%  |  ??  |user bench
 +|  Price  |  $1,199  |  $2,499  |  $900  |    $4,000  |  $5,500  |  $4,250  |  $9,538  |  $2,200  |list price
 +|  $/fp32  |  $89  |  $156  |  $129  |  $250  |  $344  |  $457  |  $681  |  $272  |    
 +|  Notes  |  small scale  |  medium scale  |  small scale |  medium scale  |  large scale  |  versatile but EOL |  most advanced   supercharge     
 +|  FP64?  |  -  |  some  |  -  |  some  |  -  |  yes  |  yes  |  -  |double fp64|
  
 A lot of information comes from this web site [[https://blog.exxactcorp.com/whats-the-best-gpu-for-deep-learning-rtx-2080-ti-vs-titan-rtx-vs-rtx-8000-vs-rtx-6000/|Best GPU for deep learning]] A lot of information comes from this web site [[https://blog.exxactcorp.com/whats-the-best-gpu-for-deep-learning-rtx-2080-ti-vs-titan-rtx-vs-rtx-8000-vs-rtx-6000/|Best GPU for deep learning]]
Line 19: Line 25:
 Most GPU models come in multiple memory configurations, showing the most common footprints. Most GPU models come in multiple memory configurations, showing the most common footprints.
  
 +This is a handy tool [[https://www.nvidia.com/en-us/data-center/tesla/tesla-qualified-servers-catalog/|GPU Server Catalog]]
 +
 +Learn more about the T4 ... the T4 can run in mixed mode (fp32/fp16) and deliver 65 Tflops. Other modes are INT8 at 130 Tops and INT4 260 Tops.
 +
 +  * [[https://www.nvidia.com/en-us/data-center/tesla-t4/|T4]]
 +  * [[https://www.nvidia.com/en-us/data-center/products/enterprise-server/|External Link]]
 +
 +Keep track of this; does Amber run on the T4, the web site lists "Turing (SM_75) based cards require CUDA 9.2 or later." but does not list the T4 (too new?).
  
 \\ \\
 **[[cluster:0|Back]]** **[[cluster:0|Back]]**
cluster/181.txt · Last modified: 2019/08/13 12:15 by hmeij07