KI-Lösung

Mit Datenparallelität benutzerdefinierte KI-Modelle schneller trainieren

Einführung

Mit leistungsstarken NVIDIA-GPUs und -Techniken wie Datenparallelität können Sie Ihre benutzerdefinierten KI-Modelle schneller trainieren.

Die Verwendung mehrerer GPUs auf einem einzelnen Knoten bietet eine Leistungssteigerung, Hardwarebeschränkungen können jedoch die Anzahl der verfügbaren GPUs einschränken. Um dies zu überwinden, können wir verteilte Schulungen über mehrere Oracle Cloud Infrastructure-(OCI-)Instanzen hinweg nutzen, bei denen zwei oder mehr Knoten über ein Netzwerk verbunden sind.

Hier kommt die Parallelität ins Spiel. Parallelität besteht darin, die Berechnung in kleinere Teile aufzuteilen, die gleichzeitig auf verschiedenen Computing-Ressourcen ausgeführt werden können.

Demo

Demo: Mit Datenparallelität benutzerdefinierte KI-Modelle schneller trainieren (1:56)

Voraussetzungen und Einrichtung

  1. Oracle Cloud-Account – Anmeldeseite
  2. Oracle Cloud Infrastructure – Dokumentation
  3. NVIDIA GPU-optimierter VMI im Oracle Cloud Marketplace – Dokumentation
  4. Oracle Cloud - GPU-Instanzen – Dokumentation