OKE optimiert den Betrieb für Cloud-natives Kubernetes der Unternehmensklasse in jeder Größenordnung. Stellen Sie Ihre anspruchsvollsten Workloads – einschließlich KI und Microservices – mit automatisierten Upgrades, intelligenter Skalierung und integrierter Sicherheit bereit, verwalten und skalieren Sie sie.
Am 11. Dezember erfahren Sie, wie Sie die Entwicklung beschleunigen und das Management von KI-Workloads in Produktionsumgebungen vereinfachen können.
Lernen Sie, wie Sie die Entwicklung beschleunigen und das Management von KI-Workloads in der Produktion vereinfachen.
Sehen Sie, wie 8x8 die Leistung und Gesamtbetriebskosten auf OCI verbessert hat.
Erfahren Sie, wie DMCC durch elastische Skalierung Spitzenlasten bewältigt.
Entdecken Sie, wie Cohere die Effizienz der Bereitstellung auf OCI erhöht hat.
Erfahren Sie, wie CNCF Kubernetes-Workloads mit minimalen Änderungen zu OCI verlagerte.
Entdecken Sie, wie EZ Cloud die Bereitstellung und den Betrieb am zweiten Tag optimiert hat.
Erfahren Sie, wie B3 anspruchsvolle Verfügbarkeitsziele mit OCI realisiert.
Erfahren Sie, wie Zimperium für regionales Failover und schnelle Wiederherstellung entwickelt.
OCI Kubernetes Engine (OKE) ist von der Cloud Native Computing Foundation (CNCF) sowohl für die Kubernetes Platform als auch für die Kubernetes AI Platform Conformance zertifiziert.
Diese Zertifizierungen bestätigen das Engagement von OKE für offene Standards und gewährleisten, dass Ihre Cloud-nativen und KI-/ML-Workloads auf einer Plattform ausgeführt werden, die vollständig mit den Best Practices der Branche übereinstimmt und weltweit im Kubernetes-Ökosystem interoperabel ist.
Weitere Informationen zur neuen AI Conformance-Zertifizierung von OCI.
Der Prozess zur Erstellung von KI-Modellen beginnt mit der Datenaufbereitung und dem Experimentieren – profitiert von einem sicheren, gemeinsamen Zugriff auf GPUs und einer zentralen Verwaltung. Mit OKE können Teams Folgendes erreichen:
– Maximale GPU-Auslastung durch sichere, mehrmandantenfähige Cluster
– Effiziente Zusammenarbeit in zentral verwalteten Umgebungen
– Integration mit Kubeflow für eine moderne Modellentwicklung und -bereitstellung
Erfahren Sie mehr über das Ausführen von Anwendungen auf GPU-basierten Nodes mit OKE.
OKE basiert auf der leistungsstarken OCI-Infrastruktur und bietet Ihnen:
– Zugriff auf die neuesten NVIDIA GPUs (H100, A100, A10 und mehr)
– Rasend schnelles RDMA-Netzwerk für maximale Bandbreite und niedrige Latenz
– Volle Kontrolle über verwaltete oder selbstverwaltete Kubernetes-Worker-Knoten
Erfahren Sie, wie Sie ein Kubernetes-Cluster erstellen und Kubeflow darin installieren.
Data Scientists vertrauen auf optimiertes Scheduling, um Ressourcen für Trainingsaufgaben optimal zu nutzen. OKE unterstützt moderne Scheduler wie Volcano und Kueue, um parallele und verteilte Workloads effizient zu verarbeiten.
Groß angelegtes KI-Training benötigt schnelle, latenzarme Clusternetzwerke. Die RDMA-fähige Infrastruktur von OCI ermöglicht es OKE, Daten direkt zum und vom GPU-Speicher zu übertragen, wodurch die Latenz minimiert und die Bandbreite maximiert wird.
OKE, das auf einer zuverlässigen OCI-Infrastruktur basiert, bietet Ihnen:
– Zugang zu NVIDIA GPUs (H100, A100, A10 und mehr)
– Ultraschnelle, RDMA-gestützte Netzwerkverbindungen
– Die Flexibilität, Jobs auf selbstverwalteten Kubernetes-Knoten auszuführen
Weitere Informationen zum Ausführen von Anwendungen auf GPU-basierten Knoten mit OKE.
Sind Sie bereit, GPU-Workloads auf OKE mit NVIDIA A100-Bare-Metal-Knoten auszuführen? In diesem Tutorial erfahren Sie, wie es geht.
OKE nutzt Kubernetes optimal, um Inferenz-Pods effizient zu verwalten und Ressourcen automatisch an den Bedarf anzupassen. Mit dem Kubernetes Cluster Autoscaler kann OKE verwaltete Knotenpools automatisch an den aktuellen Workload anpassen und so beim Skalieren von Inferenzservices High Availability und eine optimale Kosteneffizienz erzielen.
Dank fortschrittlichem Scheduling und Ressourcenmanagement von OKE können Sie für Inferenz-Pods präzise CPU- und Arbeitsspeicherzuteilungen festlegen und so auch bei schwankender Auslastung stets eine gleichbleibende, zuverlässige Leistung gewährleisten. Weitere Informationen zum Deployment und Verwalten von Anwendungen auf OKE.
OKE bietet robuste Optionen für skalierbare, kosteneffiziente KI-Inferenz – einschließlich virtueller Knoten für rasches Pod-Level-Scaling und die Flexibilität, auf GPU- oder ARM-Prozessoren zu laufen.
Entdecken Sie, wie Sie NVIDIA NIM Inferenz-Microservices mit OCI Kubernetes Engine im großen Umfang bereitstellen.
Weitere Informationen zum Betrieb von KI-Inferenz auf GPU-Knoten finden Sie in der Dokumentation zu GPU-basierten Knoten.
Wenn Sie Anwendungen auf OKE migrieren, können Sie:
Mit OKE modernisieren Sie schneller und sicherer – während Oracle die komplexen Prozesse im Hintergrund übernimmt. Migration leicht gemacht – damit Sie sich auf das Wesentliche konzentrieren können: Ihr Geschäft.
Folgen Sie der Schritt-für-Schritt-Bereitstellungsanleitung für OKE, OCI Bastion und GitHub Actions für eine sichere, automatisierte Migration.
Weitere Informationen zu OKE-Funktionen und -Verwaltung finden Sie in der offiziellen OKE-Dokumentation.
Durch das Erstellen von Microservices mit OKE können Ihre Teams:
Mit OKE erhalten Sie die bekannten stabilen Tools und die Unternehmenssicherheit von Oracle – sowie die Flexibilität, die Microservices benötigen. Verändern Sie Ihre Art, Anwendungen zu entwickeln, zu aktualisieren und zu skalieren: mit weniger Aufwand und mehr Kontrolle.
Weitere Informationen zur Entwicklung und Verwaltung von Microservices:
Kunden wählen OKE, weil die Plattform genau die Ergebnisse und Zuverlässigkeit liefert, die für Wachstum und erfolgreichen Geschäftsbetrieb entscheidend sind.