Sie fragen - wir antworten!

Tensorflow Alexnet-Benchmark

Tensorflow™ Alexnet-Benchmark

Attention: due to the newly amended License for Customer Use of Nvidia® GeForce® Sofware, the GPUs presented in the benchmark (GTX 1080, GTX 1080 TI) can not be used for training neural networks.(except blockchain processing). 

Die LeaderGPU®-Dienste sind darauf ausgerichtet, die Spielregeln des GPU-Computing-Marktes zu verändern. Die charakteristischen Merkmale von LeaderGPU® zeigen die erstaunliche Geschwindigkeit der Berechnungen für das Alexnet-Modell - 2,3 Mal schneller als in der Google-Cloud und 2,2 Mal schneller als in AWS (die Daten werden für 8x GTX 1080 angegeben). Die Kosten für die GPU-Miete pro Minute in LeaderGPU® beginnen bei 0,02 Euro, was 4,1 Mal niedriger ist als in Google Cloud und 5,35 Mal niedriger als in AWS (Stand: 7. Juli 2017).

In diesem Artikel werden wir Testergebnisse für das Alexnet-Modell in Diensten wie LeaderGPU®, AWS und Google Cloud bereitstellen. Sie werden verstehen, warum LeaderGPU® eine bevorzugte Wahl für alle GPU-Computing-Anforderungen ist.

Alle betrachteten Tests wurden mit Python 3.5 und Tensorflow-gpu 1.2 auf Maschinen mit GTX 1080, GTX 1080 TI und Tesla® P 100 mit installiertem CentOS 7 Betriebssystem und CUDA® 8.0 Bibliothek durchgeführt.

Die folgenden Befehle wurden verwendet, um den Test durchzuführen:

# git clone https://github.com/tensorflow/benchmarks.git
# python3.5 benchmarks/scripts/tf_cnn_benchmarks/tf_cnn_benchmarks.py --num_gpus=?(Number of cards on the server) --model alexnet --batch_size 32 (64, 128, 256, 512)

GTX 1080-Instanzen

Die ersten Tests des Alexnet-Modells werden mit den Instanzen der GTX 1080 durchgeführt. Die Daten der Testumgebung (mit den Losgrößen 32, 64, 128, 256 und 512) sind unten aufgeführt:

Testumgebung:

  • Instanztypen: ltbv17, ltbv13, ltbv16
  • GPU: 2x GTX 1080, 4x GTX 1080, 8x GTX 1080
  • Betriebssystem: CentOS 7
  • CUDA® / cuDNN: 8.0 / 5.1
  • TensorFlow™ GitHub-Hash: b1e174e
  • Benchmark GitHub-Hash: 9165a70
  • Befehl: # python3.5 benchmarks/scripts/tf_cnn_benchmarks/tf_cnn_benchmarks.py --num_gpus=2 (4,8) --model alexnet --batch_size 32 (optional 64, 128,256, 512)
  • Modell: Alexnet
  • Datum der Prüfung: Juni 2017

Die Testergebnisse sind im folgenden Diagramm dargestellt:

Alexnet GTX 1080 test results

GTX 1080TI-Instanzen

Im nächsten Schritt wird das Alexnet-Modell mit den Instanzen der GTX 1080TI getestet. Die Daten der Testumgebung (mit den Losgrößen 32, 64, 128, 256 und 512) sind unten aufgeführt:

  • Instanztypen: ltbv21, ltbv18
  • GPU: 2x GTX 1080TI, 4x GTX 1080TI
  • Betriebssystem: CentOS 7
  • CUDA® / cuDNN: 8.0 / 5.1
  • TensorFlow™ GitHub-Hash: b1e174e
  • Benchmark GitHub-Hash: 9165a70
  • Befehl: # python3.5 benchmarks/scripts/tf_cnn_benchmarks/tf_cnn_benchmarks.py --num_gpus=2 (4) --model alexnet --batch_size 32 (optional 64, 128,256, 512)
  • Modell: Alexnet
  • Datum der Prüfung: Juni 2017

Die Testergebnisse sind im folgenden Diagramm dargestellt:

Alexnet GTX 1080 TI test results

Tesla® P100-Instanz

Schließlich ist es an der Zeit, das Alexnet-Modell mit den Tesla® P100-Instanzen zu testen. Die Testumgebung (mit den Losgrößen 32, 64, 128, 256 und 512) wird wie folgt aussehen:

  • Instanztyp: ltbv20
  • GPU: 2x NVIDIA® Tesla® P100
  • Betriebssystem: CentOS 7
  • CUDA® / cuDNN: 8.0 / 5.1
  • TensorFlow™ GitHub-Hash: b1e174e
  • Benchmark GitHub-Hash: 9165a70
  • Befehl: # python3.5 benchmarks/scripts/tf_cnn_benchmarks/tf_cnn_benchmarks.py --num_gpus=2 --model alexnet --batch_size 32 (optional 64, 128, 256, 512)
  • Modell: Alexnet
  • Datum der Prüfung: Juni 2017

Die Testergebnisse sind im folgenden Diagramm dargestellt:

Alexnet Tesla® P100 test results

Ähnliche Alexnet-Tests in der Google-Cloud und AWS ergaben die folgenden Ergebnisse:

GPU Google-Wolke AWS
1x Tesla® K80 656 684
2x Tesla® K80 1209 1244
4x Tesla® K80 2328 2479
8x Tesla® K80 4640 4853

* Die bereitgestellten Daten stammen aus den folgenden Quellen:

https://www.tensorflow.org/performance/benchmarks#details_for_google_compute_engine_nvidia_tesla_k80 https://www.tensorflow.org/performance/benchmarks#details_for_amazon_ec2_nvidia_tesla_k80

Berechnen wir nun die Kosten und die Verarbeitungszeit von 1.000.000 Bildern auf jedem LeaderGPU®-, AWS- und Google-Rechner. Die Berechnung wurde anhand des höchsten Ergebnisses jedes Rechners vorgenommen.

GPU Anzahl der Bilder Zeit Kosten (pro Minute) Gesamtkosten
2x GTX 1080 1000000 5m 0,02 € 0,1 €
4x GTX 1080 1000000 2m 40sec 0,03 € 0,08 €
8x GTX 1080 1000000 1m 46sec 0,09 € 0,16 €
4x GTX 1080TI 1000000 2m 5sec 0,04 € 0,08 €
2х Tesla® P100 1000000 3m 15sec 0,08 € 0,26 €
8x Tesla® K80 Google Wolke 1000000 3m 35sec 0,0825 €** 0,29 €
8x Tesla® K80 AWS 1000000 3m 26sec 0,107 € 0,36 €

** Der Google-Cloud-Dienst bietet keine minutenbasierten Zahlungspläne an. Die Berechnung der Kosten pro Minute basiert auf dem Stundenpreis ($ 5,645).

Wie aus der Tabelle zu entnehmen ist, hat die Bildverarbeitungsgeschwindigkeit im VGG16-Modell das höchste Ergebnis auf 8x GTX 1080 von LeaderGPU®, während:

  • Die anfänglichen Mietkosten bei LeaderGPU® beginnen bei nur 1,92 €, was etwa 2,5 Mal niedriger ist als bei den Instanzen von 8x Tesla® K80 von Google Cloud und etwa 3,6 Mal niedriger als bei den Instanzen von 8x Tesla® K80 von Google AWS;
  • Die Verarbeitungszeit betrug 38 Minuten und 53 Sekunden, was 1,8 Mal schneller ist als bei den Instanzen von 8x Tesla® K80 von Google Cloud und 1,7 Mal schneller als bei den Instanzen von 8x Tesla® K80 von Google AWS.

Aus diesen Tatsachen kann man schließen, dass LeaderGPU® im Vergleich zu seinen Konkurrenten viel profitabler ist. LeaderGPU® ermöglicht es, maximale Geschwindigkeit zu optimalen Preisen zu erreichen. Mieten Sie die beste GPU mit flexiblen Preisschildern bei LeaderGPU® noch heute!

LEGAL WARNING:

PLEASE READ THE LICENSE FOR CUSTOMER USE OF NVIDIA® GEFORCE® SOFTWARE CAREFULLY BEFORE AGREEING TO IT, AND MAKE SURE YOU USE THE SOFTWARE IN ACCORDANCE WITH THE LICENSE, THE MOST IMPORTANT PROVISION IN THIS RESPECT BEING THE FOLLOWING LIMITATION OF USE OF THE SOFTWARE IN DATACENTERS:

«No Datacenter Deployment. The SOFTWARE is not licensed for datacenter deployment, except that blockchain processing in a datacenter is permitted.»

BY AGREEING TO THE LICENSE AND DOWNLOADING THE SOFTWARE YOU GUARANTEE THAT YOU WILL MAKE CORRECT USE OF THE SOFTWARE AND YOU AGREE TO INDEMNIFY AND HOLD US HARMLESS FROM ANY CLAIMS, DAMAGES OR LOSSES RESULTING FROM ANY INCORRECT USE OF THE SOFTWARE BY YOU. 



Aktualisiert: 18.03.2025

Veröffentlicht: 07.12.2017


Haben Sie noch Fragen? Schreiben Sie uns!

By clicking «I Accept» you confirm that you have read and accepted the website Terms and Conditions, Privacy Policy, and Moneyback Policy.