Kubernetes Engine (OKE)

Vereinfachen Sie den Betrieb von Kubernetes der Unternehmensklasse in großem Maßstab. Stellen Sie ressourcenintensive Workloads wie KI mit automatischer Skalierung, Patching und Upgrades einfach bereit und verwalten Sie sie.

Oracle Cloud Infrastructure: Ein führendes Preis-Leistungs-Verhältnis für Kubernetes

Das CIO-Magazin würdigt OCI für seine Expertise bei der Bereitstellung innovativer Kubernetes-Lösungen, die eine skalierbare und effiziente Anwendungsentwicklung unterstützen.

Ankündigung einer vollautomatischen End-to-End-Disaster-Recovery für OKE

OCI Full Stack Disaster Recovery (DR) ist eine komplett Cloud-native Disaster-Recovery-as-a-Service (DRaaS), die viele verschiedene Wiederherstellungsprozesse in einem einzigen, zusammenhängenden Workflow zusammenfasst, den Sie mit einem Klick auslösen können. Unsere neue integrierte Funktion macht es einfach, bestehende OKE-Cluster zu OCI Full Stack DR hinzuzufügen, um eine vollständig automatisierte End-to-End-Recovery-Orchestrierung von OKE zwischen OCI-Regionen zu ermöglichen.

Warum sollten Sie sich für OKE entscheiden?

  • Preis-Leistungs-Verhältnis

    OKE ist der kostengünstigste Kubernetes-Service unter allen Hyperscalern, insbesondere für serverlose Services.

  • Automatische Skalierung

    OKE passt die Rechenressourcen automatisch an den Bedarf an, wodurch sich Ihre Kosten senken lassen.

  • Effizienz

    Grafikprozessoren können zwar knapp sein, aber die OKE-Jobplanung macht es einfach, die Ressourcennutzung zu maximieren.

  • Portabilität,

    OKE ist einheitlich über Clouds und On-Premises hinweg, ermöglicht Portabilität und vermeidet die Bindung an einen Anbieter.

  • Einfachheit

    OKE reduziert den Zeit- und Kostenaufwand für die Verwaltung der komplexen Kubernetes-Infrastruktur.

  • Zuverlässigkeit

    Automatische Upgrades und Sicherheitspatches erhöhen die Zuverlässigkeit der Control Plane und Worker-Knoten.

  • Zuverlässigkeit

    Mit OCI Full Stack Disaster Recovery ist eine vollautomatische, native, regionsübergreifende Wiederherstellung möglich.

OKE-Anwendungsfälle

OKE unterstützt OCI-KI-Services

Kubernetes ist die Plattform der Wahl für die Bereitstellung von KI-Workloads. OKE unterstützt die KI-Services von Oracle Cloud Infrastructure (OCI).

KI-Modellerstellung

– In der ersten Phase eines KI-Projekts werden das Problem definiert und Daten für die Erstellung von Modellen vorbereitet.

– Kubernetes-Cluster können die Effizienz erheblich steigern, indem sie den gemeinsamen Zugriff auf teure und oft begrenzte GPU-Ressourcen ermöglichen und gleichzeitig sichere und zentral verwaltete Umgebungen bereitstellen.

Kubeflow, ein Kubernetes-bezogenes Open-Source-Projekt, bietet ein umfassendes Framework, das die Erstellung, Schulung und Bereitstellung von Modellen optimieren soll.

OKE für die KI-Modellerstellung

OKE baut auf OCI auf und bietet einen vollständigen Stack einer Hochleistungsinfrastruktur, die für KI/ML-Workloads ausgelegt ist, wie z. B.:

– Die gesamte Palette der NVIDIA-GPUs, einschließlich H100, A100, A10 usw.

– Ultraschnelle RDMA-Netzwerke

Mit OKE-Selbstverwaltungsknoten können Sie KI/ML-Workloads auf Ihren Kubernetes-Clustern ausführen.

OKE unterstützt OCI-KI-Services

Kubernetes ist die Plattform der Wahl für die Bereitstellung von KI-Workloads. OKE unterstützt OCI-KI-Services.

KI-Modelltraining

– Im Modell-Training wählen Data Scientists einen Algorithmus aus und starten Trainingsjobs mit vorbereiteten Daten. Diese Phase erfordert ausgeklügelte Planungssysteme, um die Aufträge effizient zu bearbeiten.

Kubernetes-Projekte wie Volcano und Kueue helfen bei der Bewältigung solcher Anforderungen und sorgen für eine effiziente Nutzung der Rechenressourcen.

– Ein groß angelegtes verteiltes Training erfordert eine Kommunikation zwischen den Knotenpunkten im Cluster mit geringer Latenz. Hier ist ein spezialisiertes ultraschnelles Netzwerk mit Remote Direct Memory Access (RDMA) erforderlich. Es ermöglicht die direkte Übertragung von Daten in den oder aus dem Speicher einer Anwendung unter Umgehung der CPU, um die Latenz zu reduzieren.

OKE für das Training von KI-Modellen

OKE baut auf OCI auf und bietet einen vollständigen Stack einer Hochleistungsinfrastruktur, die für KI/ML-Workloads ausgelegt ist, wie z. B.:

– Die gesamte Palette der NVIDIA-GPUs, einschließlich H100, A100, A10 usw.

– RDMA-Netzwerke mit geringer Latenz und extrem hoher Leistung

Mit OKE-Knoten, die Sie selbst verwalten, können Sie KI/ML-Training auf Ihren Kubernetes-Clustern durchführen.

OKE unterstützt OCI-KI-Services

Kubernetes ist die Plattform der Wahl für die Bereitstellung von KI-Workloads. OKE unterstützt OCI-KI-Services.

KI-Modellinferenzierung (Serving)

– Bei der Inferenzierung von KI-Modellen kann Kubernetes seine Stärken voll ausspielen. Kubernetes kann die Anzahl der Inferenz-Pods je nach Bedarf automatisch erhöhen oder verringern und so eine effiziente Nutzung der Ressourcen gewährleisten.

– Kubernetes bietet ein ausgeklügeltes Ressourcenmanagement, einschließlich der Möglichkeit, CPU- und Speichergrenzen für Container festzulegen.

OKE für die KI-Modellinferenz

OKE ist auf Ausfallsicherheit ausgelegt und nutzt die integrierte Pod-Autoscaling-Funktion von Kubernetes, um Worker-Knoten je nach Nutzung zu skalieren. Worker-Knoten können für eine hohe Verfügbarkeit über mehrere Fehler- und/oder Verfügbarkeitsbereiche verteilt werden.

Virtuelle OKE-Knoten bieten eine serverlose Kubernetes-Erfahrung. Sie müssen lediglich auf Pod-Ebene skaliert werden, ohne jemals Worker-Knoten zu skalieren. So ist eine schnellere Skalierung und eine kostengünstigere Verwaltung möglich, da die Servicegebühren ausschließlich auf den verwendeten Pods basieren.

Virtuelle Knoten eignen sich gut für Inferenz-Workloads und können Arm-Prozessoren verwenden, die für die KI-Inferenz immer attraktiver werden – insbesondere, wenn GPUs knapp sind.

Bestehende Anwendungen können von einer Migration zu OCI und OKE profitieren.

OKE bietet niedrigere Gesamtbetriebskosten und eine kürzere Markteinführungszeit.

OKE vereinfacht Abläufe in großem Maßstab auf folgende Weise:

  • Lift-and-Shift; es besteht keine Notwendigkeit für eine Umstrukturierung
  • Reduzierung des Betriebsaufwands durch Automatisierung
  • Zeitersparnis beim Infrastrukturmanagement
  • Erhöhen von Ressourcenauslastung und Effizienz
  • Verbesserung von Agilität, Flexibilität, Betriebszeit und Widerstandsfähigkeit
  • Senkung des Compliance-Risikos und Verbesserung der Sicherheit

Microservices bieten viele Vorteile gegenüber monolithischen Anwendungen

Machen Sie Ihre Anwendungen mit einer OKE-zentrierten Microservices-Architektur zukunftssicher.

  • Modernisierung der Architektur
  • Schnellere Innovationen
  • Automatisierung bereitstellen
  • Parallele Entwicklung
  • Einfachere Skalierbarkeit
  • Höhere Zuverlässigkeit
  • Mehr Flexibilität
  • Mehr Flexibilität

„Viele OCI AI Services laufen auf OCI Kubernetes Engine (OKE), dem verwalteten Kubernetes-Service von Oracle. Unser Entwicklungsteam konnte mit OCI Vision eine 10-fache Leistungssteigerung erzielen, indem es einfach von einer früheren Plattform zu OKE wechselte. So gut ist es.“

Jun Qian

VP von OCI AI Services, Oracle Cloud Infrastructure

Kunden, die mit Cloud-nativen Services auf OCI innovativ sind

Weitere Kundenberichte

Erste Schritte mit Kubernetes Engine

  • Bereitstellung einer einfachen containerisierten Anwendung mit OKE-verwalteten Knoten

    Stellen Sie einfache Microservices bereit, die als Docker-Container verpackt sind, und kommunizieren Sie über eine gemeinsame API.


  • Kubernetes-Cluster mit virtuellen Knoten bereitstellen

    Entdecken Sie Best Practices für die Bereitstellung eines serverlosen virtuellen Knotenpools mithilfe der bereitgestellten Terraform-Automatisierungs- und Referenzarchitektur.


  • Muster erkennen, um Ihre Kubernetes-Ressourcen zu optimieren

    Erfahren Sie, wie Tryg Insurance seine Kosten durch dynamische Anpassung um 50 % senken konnte.


26. März 2025

Ankündigung der vollautomatischen Disaster Recovery für OCI Kubernetes Engine mit OCI Full Stack DR

Gregory King, Senior Principal Product Manager

Oracle Cloud Infrastructure (OCI) Full Stack Disaster Recovery (Full Stack DR) kündigt nativen Support für OCI Kubernetes Engine (OKE) an. OKE-Cluster sind nun eine auswählbare OCI-Ressource in Full Stack DR, genau wie virtuelle Maschinen, Speicher, Load Balancer und Oracle Databases. Das bedeutet, dass wir genau wissen, wie wir Ihre Funktionen zur Wiederherstellung von OKE, Infrastruktur und Datenbanken validieren, ausfallsicher machen, umschalten und testen können, ohne dass Ihre IT-Mitarbeiter eine einzige Zeile Code oder Anleitungen in einer Tabelle oder Textdatei schreiben müssen.

Vollständigen Beitrag lesen

Kubernetes-Ressourcen

Workshops

Was ist Kubernetes?

Kubernetes ist eine Open-Source-Plattform für die Verwaltung und Skalierung von Clustern containerisierter Anwendungen und Dienste.

Ähnliche Kubernetes-Produkte

Registrierung

Sicherer, standardbasierter Service für die Arbeit mit Container-Images

Full Stack DR

Vollständig automatisierte Disaster Recovery für Oracle Kubernetes Engine

DevOps CI/CD

Automatisierte Anwendungsbereitstellung über Build, Test und Bereitstellungen hinweg

Ressourcen-Manager

Terraform-basierte Automatisierung der Cloud-Infrastruktur

Erste Schritte mit OKE


Oracle Cloud Free Tier

Erhalten Sie 30 Tage Zugriff auf CI/CD-Tools, verwaltetes Terraform, Telemetrie und mehr.


Architecture Center

Erkunden Sie bereitstellbare Referenzarchitekturen und Lösungs-Playbooks.


Oracle Cloud Native-Dienste

Treiben Sie die Anwendungsentwicklung mit Kubernetes, Docker, Serverless, APIs und mehr voran.


Kontakt

Kontaktieren Sie unsere Mitarbeiter für Vertrieb, Support und andere Fragen.