OKE는 모든 규모의 클라우드 네이티브 엔터프라이즈급 Kubernetes 운영을 간소화합니다. 자동 업그레이드, 지능형 확장, 내장된 보안을 통해 AI 및 마이크로서비스를 비롯한 가장 까다로운 워크로드를 배포, 관리, 확장할 수 있습니다.
12월 11일, 개발 속도를 높이고 운영 환경에서 AI 워크로드 관리를 간소화하는 방법을 확인해 보세요.
개발 속도를 높이고 운영 환경에서 AI 워크로드 관리를 간소화하는 방법을 확인해 보세요.
OCI에서 성능과 TCO를 개선한 8x8의 사례를 살펴보세요.
탄력적인 확장으로 최대 수요를 충족하는 DMCC의 사례를 살펴보세요.
Cohere가 OCI에서의 서비스 효율성을 개선한 방법을 살펴보세요.
기존의 Kubernetes 워크로드를 최소한의 변경만으로 OCI로 이전한 CNCF의 사례를 살펴보세요.
EZ Cloud 가 배포 및 2일차 운영을 간소화한 사례를 살펴보세요.
OCI에서 엄격한 가용성 목표를 달성한 B3의 사례를 살펴보세요.
Zimperium이 리전 페일오버와 신속한 복구를 설계하는 방식을 살펴보세요.
OCI Kubernetes Engine(OKE)은 Cloud Native Computing Foundation(CNCF)의 Kubernetes Platform 및 Kubernetes AI Platform conformance 인증을 모두 획득했습니다.
해당 인증들은 개방형 표준에 대한 OKE의 약속의 증거로서, 귀사의 클라우드 네이티브 및 AI/ML 워크로드가 업계의 모범 사례에 완전히 부합하고 글로벌 Kubernetes 생태계 전반에서 상호운용 가능한 플랫폼에서 실행되도록 지원합니다.
OCI의 새로운 AI Conformance 인증에 대한 더 많은 내용을 읽어보세요.
AI 모델 구축 과정은 데이터 준비와 실험으로 시작되고, GPU에 대한 안전한 공유 액세스 및 중앙화된 관리는 해당 과정에 도움을 줍니다. OKE는 모델 구축팀에게 다음과 같은 이점을 제공합니다.
– 안전한 멀티테넌트 클러스터를 통해 GPU 활용도 극대화
– 중앙화된 관리 환경에서의 효율적 협업
– Kubeflow와의 통합으로 모델 개발 및 배포 간소화
OKE를 사용해 GPU 기반 노드에서 애플리케이션을 실행하는 방법에 대한 더 많은 정보를 살펴보세요.
OCI의 고성능 인프라 상에 구축된 OKE는 다음과 같은 이점을 제공합니다.
– 최신 NVIDIA GPU 액세스(H100, A100, A10 등)
– 초고속 RDMA 네트워킹으로 처리량 극대화 및 지연 시간 단축
– 관리형 또는 자체 관리형 Kubernetes 작업자 노드를 통한 완전한 제어
데이터 과학자는 최적화된 스케줄링을 사용하여 교육 작업과 관련된 리소스 사용을 극대화합니다. OKE는 병렬 및 분산 워크로드를 효율적으로 실행하기 위해 Volcano 및 Kueue와 같은 고급 스케줄러를 지원합니다.
대규모 AI 학습을 위해서는 빠르고 지연 시간이 짧은 클러스터 네트워킹이 필요합니다. OCI의 RDMA 지원 인프라는 OKE가 GPU 메모리에서 직접 또는 GPU 메모리로 데이터를 이동할 수 있도록 지원함으로써 지연 시간을 최소화하고 처리량을 극대화합니다.
안정적인 OCI 인프라 상에 구축된 OKE는 다음과 같은 이점을 제공합니다.
– NVIDIA GPU 액세스(H100, A100, A10 등)
– 초고속 RDMA 지원 네트워크 연결
– 자체 관리형 Kubernetes 노드에서 작업을 실행할 수 있는 유연성
OKE를 사용해 GPU 기반 노드에서 애플리케이션을 실행하는 방법에 대한 자세한 정보를 확인해 보세요.
OKE에서 NVIDIA A100 베어메탈 노드를 사용해 GPU 워크로드를 실행할 준비가 되셨나요? 본 튜토리얼을 통해 자세한 방법을 확인해 보세요.
OKE는 Kubernetes를 최대한 활용하여 추론 포드를 효율적으로 관리하고, 수요에 맞게 리소스를 자동으로 조정합니다. OKE는 Kubernetes Cluster Autoscaler를 활용해 실시간 워크로드 수요에 따라 관리형 노드 풀의 크기를 자동으로 조정할 수 있으므로 추론 서비스를 확장할 때 고가용성과 최적의 비용 관리를 가능케 합니다.
OKE의 고급 스케줄링 및 리소스 관리를 통해 추론 포드에 대한 정확한 CPU 및 메모리 할당량을 설정할 수 있으며, 워크로드의 변동에 맞춰 일관적이고 안정적인 성능을 지원합니다. OKE에서의 애플리케이션 배포 및 관리에 대한 자세한 정보를 확인해 보세요.
OKE는 신속한 포드 레벨 확장을 위한 가상 노드, GPU 및 Arm 기반 프로세서 모두에서 실행할 수 있는 유연성 등 확장 가능하고 비용 효율적인 AI 추론을 위한 강력한 옵션을 제공합니다.
OCI Kubernetes Engine으로 NVIDIA NIM 추론 마이크로서비스를 대규모로 배포하는 방법을 확인해 보세요.
GPU 노드에서 AI 추론을 실행하는 방법에 대한 자세한 내용은 GPU 기반 노드에서 애플리케이션 실행하기 설명서를 참고하세요.
애플리케이션을 OKE로 이전하면 다음과 같은 이점을 누릴 수 있습니다.
OKE를 활용한 현대화는 더 빠르고 안전한 이전을 지원합니다. 복잡한 부분은 Oracle이 백그라운드에서 처리합니다. 마이그레이션 과정이 간편해지므로 고객은 가장 중요한 업무인 자사의 비즈니스에 집중할 수 있습니다.
OKE, OCI Bastion, GitHub Actions을 사용한 단계별 배포 가이드를 참고해 안전하고 자동화된 마이그레이션을 직접 경험해 보세요.
OKE 기능 및 관리에 대한 자세한 내용은 공식 OKE 설명서를 참고하세요.
OKE로 마이크로서비스를 구축하면 다음과 같은 이점을 누릴 수 있습니다.
OKE는 Oracle이 자랑하는 견고한 도구 및 엔터프라이즈급 보안, 마이크로서비스에 필요한 유연성을 제공합니다. 앱을 구축, 업데이트, 확장하는 방식을 바꿔 보세요. 번거로움은 줄어들고 제어력은 강화됩니다.
마이크로서비스 개발 및 관리에 대한 자세한 내용은 다음을 참고하세요.
고객이 OKE를 선택하는 이유는 비즈니스 운영 및 성장에 필요한 결과와 신뢰성을 제공하기 때문입니다.