Evaluación comparativa de Tensorflow Alexnet
Evaluación comparativa de Tensorflow™ Alexnet
Attention: due to the newly amended License for Customer Use of Nvidia® GeForce® Sofware, the GPUs presented in the benchmark (GTX 1080, GTX 1080 TI) can not be used for training neural networks.(except blockchain processing).
Servicios LeaderGPU® orientados a cambiar las reglas del juego del mercado del GPU-computing. Características distintivas LeaderGPU® demuestra la asombrosa velocidad de cálculos para el modelo Alexnet - 2,3 veces más rápido que en la nube de Google, y 2,2 veces más rápido que en el AWS (los datos se dan para 8x GTX 1080). El coste de alquiler por minuto de la GPU en LeaderGPU® parte de 0,02 euros, lo que es 4,1 veces inferior que en Google Cloud, y 5,35 veces inferior que en AWS (a 7 de julio de 2017).
A lo largo de este artículo ofreceremos resultados de pruebas del modelo Alexnet en servicios como LeaderGPU®, AWS y Google Cloud. Entenderás por qué LeaderGPU® es una opción preferible para todas las necesidades de GPU-computing.
Todas las pruebas consideradas se llevaron a cabo utilizando python 3.5 y Tensorflow-gpu 1.2 en máquinas con GTX 1080, GTX 1080 TI y Tesla® P 100 con el sistema operativo CentOS 7 instalado y la librería CUDA® 8.0.
Se utilizaron los siguientes comandos para ejecutar la prueba:
# git clone https://github.com/tensorflow/benchmarks.git
# python3.5 benchmarks/scripts/tf_cnn_benchmarks/tf_cnn_benchmarks.py --num_gpus=?(Number of cards on the server) --model alexnet --batch_size 32 (64, 128, 256, 512)
Instancias GTX 1080
Las primeras pruebas del modelo Alexnet se realizarán con las instancias de la GTX 1080. A continuación se ofrecen los datos del entorno de prueba (con tamaños de lote de 32, 64, 128, 256 y 512):
Entorno de pruebas:
- Tipos de instancia: ltbv17, ltbv13, ltbv16
- GPU: 2x GTX 1080, 4x GTX 1080, 8x GTX 1080
- SO: CentOS 7
- CUDA® / cuDNN: 8.0 / 5.1
- TensorFlow™ hash de GitHub: b1e174e
- Benchmark GitHub hash: 9165a70
- Comando: # python3.5 benchmarks/scripts/tf_cnn_benchmarks/tf_cnn_benchmarks.py --num_gpus=2 (4,8) --model alexnet --batch_size 32 (opcional 64, 128,256, 512)
- Modelo Alexnet
- Fecha de la prueba: junio de 2017
Los resultados de la prueba se muestran en el siguiente diagrama:

Instancias GTX 1080TI
El siguiente paso es probar el modelo Alexnet con las instancias de la GTX 1080TI. A continuación se ofrecen los datos del entorno de prueba (con los tamaños de lote 32, 64, 128, 256 y 512):
- Tipos de instancia: ltbv21, ltbv18
- GPU: 2x GTX 1080TI, 4x GTX 1080TI
- SO: CentOS 7
- CUDA® / cuDNN: 8.0 / 5.1
- TensorFlow™ GitHub hash: b1e174e
- Benchmark GitHub hash: 9165a70
- Comando: # python3.5 benchmarks/scripts/tf_cnn_benchmarks/tf_cnn_benchmarks.py --num_gpus=2 (4) --model alexnet --batch_size 32 (opcional 64, 128,256, 512)
- Modelo Alexnet
- Fecha de las pruebas: junio de 2017
Los resultados de la prueba se muestran en el siguiente diagrama:

Tesla® P100 instancia
Por último, es hora de probar el modelo Alexnet con las instancias Tesla® P100. El entorno de pruebas (con tamaños de lote 32, 64, 128, 256 y 512) tendrá el siguiente aspecto:
- Tipo de instancia: ltbv20
- GPU: 2x NVIDIA® Tesla® P100
- Sistema operativo: CentOS 7
- CUDA® / cuDNN: 8.0 / 5.1
- TensorFlow™ GitHub hash: b1e174e
- Benchmark hash de GitHub: 9165a70
- Comando: # python3.5 benchmarks/scripts/tf_cnn_benchmarks/tf_cnn_benchmarks.py --num_gpus=2 --model alexnet --batch_size 32 (opcional 64, 128, 256, 512)
- Modelo Alexnet
- Fecha de la prueba: junio de 2017
Los resultados de la prueba se muestran en el siguiente diagrama:

Pruebas similares de Alexnet en la nube de Google y AWS mostraron los siguientes resultados:
GPU | Nube de Google | AWS |
---|---|---|
1x Tesla® K80 | 656 | 684 |
2x Tesla® K80 | 1209 | 1244 |
4x Tesla® K80 | 2328 | 2479 |
8x Tesla® K80 | 4640 | 4853 |
* Los datos facilitados proceden de las siguientes fuentes:
https://www.tensorflow.org/performance/benchmarks#details_for_google_compute_engine_nvidia_tesla_k80 https://www.tensorflow.org/performance/benchmarks#details_for_amazon_ec2_nvidia_tesla_k80
Ahora vamos a calcular el coste y el tiempo de procesamiento de 1.000.000 de imágenes en cada máquina de LeaderGPU®, AWS y Google. El cálculo se realizó según el resultado más alto de cada máquina.
GPU | Número de imágenes | Tiempo | Coste (por minuto) | Coste total |
---|---|---|---|---|
2x GTX 1080 | 1000000 | 5m | 0,02 € | 0,1 € |
4x GTX 1080 | 1000000 | 2m 40seg | 0,03 € | 0,08 € |
8x GTX 1080 | 1000000 | 1m 46seg | 0,09 € | 0,16 € |
4x GTX 1080TI | 1000000 | 2m 5seg | 0,04 € | 0,08 € |
2х Tesla® P100 | 1000000 | 3m 15seg | 0,08 € | 0,26 € |
8x Tesla® K80 Nube de Google | 1000000 | 3m 35seg | 0,0825 €** | 0,29 € |
8x Tesla® K80 AWS | 1000000 | 3m 26seg | 0,107 € | 0,36 € |
** El servicio en la nube de Google no ofrece planes de pago por minuto. Los cálculos del coste por minuto se basan en el precio por hora (5,645 $).
Como se puede concluir de la tabla, la velocidad de procesamiento de imágenes en el modelo VGG16 tiene el resultado más alto en 8x GTX 1080 de LeaderGPU®, mientras que:
- El coste de alquiler inicial en LeaderGPU® parte de tan sólo 1,92 euros, lo que es unas 2,5 veces inferior al de las instancias de 8x Tesla® K80 de Google Cloud, y unas 3,6 veces inferior al de las instancias de 8x Tesla® K80 de Google AWS;
- el tiempo de procesamiento fue de 38 minutos y 53 segundos, lo que es 1,8 veces más rápido que en las instancias de 8x Tesla® K80 de Google Cloud, y 1,7 veces más rápido que en las instancias de 8x Tesla® K80 de Google AWS.
En base a estos hechos se puede concluir que LeaderGPU® es mucho más rentable en comparación con sus competidores. LeaderGPU® permite alcanzar la máxima velocidad a precios óptimos. Alquile hoy mismo la mejor GPU con etiquetas de precios flexibles en LeaderGPU®.
LEGAL WARNING:
PLEASE READ THE LICENSE FOR CUSTOMER USE OF NVIDIA® GEFORCE® SOFTWARE CAREFULLY BEFORE AGREEING TO IT, AND MAKE SURE YOU USE THE SOFTWARE IN ACCORDANCE WITH THE LICENSE, THE MOST IMPORTANT PROVISION IN THIS RESPECT BEING THE FOLLOWING LIMITATION OF USE OF THE SOFTWARE IN DATACENTERS:
«No Datacenter Deployment. The SOFTWARE is not licensed for datacenter deployment, except that blockchain processing in a datacenter is permitted.»
BY AGREEING TO THE LICENSE AND DOWNLOADING THE SOFTWARE YOU GUARANTEE THAT YOU WILL MAKE CORRECT USE OF THE SOFTWARE AND YOU AGREE TO INDEMNIFY AND HOLD US HARMLESS FROM ANY CLAIMS, DAMAGES OR LOSSES RESULTING FROM ANY INCORRECT USE OF THE SOFTWARE BY YOU.
Actualizado: 18.03.2025
Publicado: 07.12.2017