Tensorflow Alexnet-Benchmark
Tensorflow™ Alexnet-Benchmark
Attention: due to the newly amended License for Customer Use of Nvidia® GeForce® Sofware, the GPUs presented in the benchmark (GTX 1080, GTX 1080 TI) can not be used for training neural networks.(except blockchain processing).
Die LeaderGPU®-Dienste sind darauf ausgerichtet, die Spielregeln des GPU-Computing-Marktes zu verändern. Die charakteristischen Merkmale von LeaderGPU® zeigen die erstaunliche Geschwindigkeit der Berechnungen für das Alexnet-Modell - 2,3 Mal schneller als in der Google-Cloud und 2,2 Mal schneller als in AWS (die Daten werden für 8x GTX 1080 angegeben). Die Kosten für die GPU-Miete pro Minute in LeaderGPU® beginnen bei 0,02 Euro, was 4,1 Mal niedriger ist als in Google Cloud und 5,35 Mal niedriger als in AWS (Stand: 7. Juli 2017).
In diesem Artikel werden wir Testergebnisse für das Alexnet-Modell in Diensten wie LeaderGPU®, AWS und Google Cloud bereitstellen. Sie werden verstehen, warum LeaderGPU® eine bevorzugte Wahl für alle GPU-Computing-Anforderungen ist.
Alle betrachteten Tests wurden mit Python 3.5 und Tensorflow-gpu 1.2 auf Maschinen mit GTX 1080, GTX 1080 TI und Tesla® P 100 mit installiertem CentOS 7 Betriebssystem und CUDA® 8.0 Bibliothek durchgeführt.
Die folgenden Befehle wurden verwendet, um den Test durchzuführen:
# git clone https://github.com/tensorflow/benchmarks.git
# python3.5 benchmarks/scripts/tf_cnn_benchmarks/tf_cnn_benchmarks.py --num_gpus=?(Number of cards on the server) --model alexnet --batch_size 32 (64, 128, 256, 512)
GTX 1080-Instanzen
Die ersten Tests des Alexnet-Modells werden mit den Instanzen der GTX 1080 durchgeführt. Die Daten der Testumgebung (mit den Losgrößen 32, 64, 128, 256 und 512) sind unten aufgeführt:
Testumgebung:
- Instanztypen: ltbv17, ltbv13, ltbv16
- GPU: 2x GTX 1080, 4x GTX 1080, 8x GTX 1080
- Betriebssystem: CentOS 7
- CUDA® / cuDNN: 8.0 / 5.1
- TensorFlow™ GitHub-Hash: b1e174e
- Benchmark GitHub-Hash: 9165a70
- Befehl: # python3.5 benchmarks/scripts/tf_cnn_benchmarks/tf_cnn_benchmarks.py --num_gpus=2 (4,8) --model alexnet --batch_size 32 (optional 64, 128,256, 512)
- Modell: Alexnet
- Datum der Prüfung: Juni 2017
Die Testergebnisse sind im folgenden Diagramm dargestellt:

GTX 1080TI-Instanzen
Im nächsten Schritt wird das Alexnet-Modell mit den Instanzen der GTX 1080TI getestet. Die Daten der Testumgebung (mit den Losgrößen 32, 64, 128, 256 und 512) sind unten aufgeführt:
- Instanztypen: ltbv21, ltbv18
- GPU: 2x GTX 1080TI, 4x GTX 1080TI
- Betriebssystem: CentOS 7
- CUDA® / cuDNN: 8.0 / 5.1
- TensorFlow™ GitHub-Hash: b1e174e
- Benchmark GitHub-Hash: 9165a70
- Befehl: # python3.5 benchmarks/scripts/tf_cnn_benchmarks/tf_cnn_benchmarks.py --num_gpus=2 (4) --model alexnet --batch_size 32 (optional 64, 128,256, 512)
- Modell: Alexnet
- Datum der Prüfung: Juni 2017
Die Testergebnisse sind im folgenden Diagramm dargestellt:

Tesla® P100-Instanz
Schließlich ist es an der Zeit, das Alexnet-Modell mit den Tesla® P100-Instanzen zu testen. Die Testumgebung (mit den Losgrößen 32, 64, 128, 256 und 512) wird wie folgt aussehen:
- Instanztyp: ltbv20
- GPU: 2x NVIDIA® Tesla® P100
- Betriebssystem: CentOS 7
- CUDA® / cuDNN: 8.0 / 5.1
- TensorFlow™ GitHub-Hash: b1e174e
- Benchmark GitHub-Hash: 9165a70
- Befehl: # python3.5 benchmarks/scripts/tf_cnn_benchmarks/tf_cnn_benchmarks.py --num_gpus=2 --model alexnet --batch_size 32 (optional 64, 128, 256, 512)
- Modell: Alexnet
- Datum der Prüfung: Juni 2017
Die Testergebnisse sind im folgenden Diagramm dargestellt:

Ähnliche Alexnet-Tests in der Google-Cloud und AWS ergaben die folgenden Ergebnisse:
GPU | Google-Wolke | AWS |
---|---|---|
1x Tesla® K80 | 656 | 684 |
2x Tesla® K80 | 1209 | 1244 |
4x Tesla® K80 | 2328 | 2479 |
8x Tesla® K80 | 4640 | 4853 |
* Die bereitgestellten Daten stammen aus den folgenden Quellen:
https://www.tensorflow.org/performance/benchmarks#details_for_google_compute_engine_nvidia_tesla_k80 https://www.tensorflow.org/performance/benchmarks#details_for_amazon_ec2_nvidia_tesla_k80
Berechnen wir nun die Kosten und die Verarbeitungszeit von 1.000.000 Bildern auf jedem LeaderGPU®-, AWS- und Google-Rechner. Die Berechnung wurde anhand des höchsten Ergebnisses jedes Rechners vorgenommen.
GPU | Anzahl der Bilder | Zeit | Kosten (pro Minute) | Gesamtkosten |
---|---|---|---|---|
2x GTX 1080 | 1000000 | 5m | 0,02 € | 0,1 € |
4x GTX 1080 | 1000000 | 2m 40sec | 0,03 € | 0,08 € |
8x GTX 1080 | 1000000 | 1m 46sec | 0,09 € | 0,16 € |
4x GTX 1080TI | 1000000 | 2m 5sec | 0,04 € | 0,08 € |
2х Tesla® P100 | 1000000 | 3m 15sec | 0,08 € | 0,26 € |
8x Tesla® K80 Google Wolke | 1000000 | 3m 35sec | 0,0825 €** | 0,29 € |
8x Tesla® K80 AWS | 1000000 | 3m 26sec | 0,107 € | 0,36 € |
** Der Google-Cloud-Dienst bietet keine minutenbasierten Zahlungspläne an. Die Berechnung der Kosten pro Minute basiert auf dem Stundenpreis ($ 5,645).
Wie aus der Tabelle zu entnehmen ist, hat die Bildverarbeitungsgeschwindigkeit im VGG16-Modell das höchste Ergebnis auf 8x GTX 1080 von LeaderGPU®, während:
- Die anfänglichen Mietkosten bei LeaderGPU® beginnen bei nur 1,92 €, was etwa 2,5 Mal niedriger ist als bei den Instanzen von 8x Tesla® K80 von Google Cloud und etwa 3,6 Mal niedriger als bei den Instanzen von 8x Tesla® K80 von Google AWS;
- Die Verarbeitungszeit betrug 38 Minuten und 53 Sekunden, was 1,8 Mal schneller ist als bei den Instanzen von 8x Tesla® K80 von Google Cloud und 1,7 Mal schneller als bei den Instanzen von 8x Tesla® K80 von Google AWS.
Aus diesen Tatsachen kann man schließen, dass LeaderGPU® im Vergleich zu seinen Konkurrenten viel profitabler ist. LeaderGPU® ermöglicht es, maximale Geschwindigkeit zu optimalen Preisen zu erreichen. Mieten Sie die beste GPU mit flexiblen Preisschildern bei LeaderGPU® noch heute!
LEGAL WARNING:
PLEASE READ THE LICENSE FOR CUSTOMER USE OF NVIDIA® GEFORCE® SOFTWARE CAREFULLY BEFORE AGREEING TO IT, AND MAKE SURE YOU USE THE SOFTWARE IN ACCORDANCE WITH THE LICENSE, THE MOST IMPORTANT PROVISION IN THIS RESPECT BEING THE FOLLOWING LIMITATION OF USE OF THE SOFTWARE IN DATACENTERS:
«No Datacenter Deployment. The SOFTWARE is not licensed for datacenter deployment, except that blockchain processing in a datacenter is permitted.»
BY AGREEING TO THE LICENSE AND DOWNLOADING THE SOFTWARE YOU GUARANTEE THAT YOU WILL MAKE CORRECT USE OF THE SOFTWARE AND YOU AGREE TO INDEMNIFY AND HOLD US HARMLESS FROM ANY CLAIMS, DAMAGES OR LOSSES RESULTING FROM ANY INCORRECT USE OF THE SOFTWARE BY YOU.
Aktualisiert: 18.03.2025
Veröffentlicht: 07.12.2017