Oracle Cloud Infrastructure(OCI) Compute는 메인스트림 그래픽, AI 추론, AI 훈련, 디지털 트윈 및 HPC를 위한 NVIDIA 및 AMD GPU 기반의 베어메탈과 가상 머신(VM) 인스턴스에 업계 최고 수준 확장성과 성능을 제공합니다.
NVIDIA DGX Cloud와 OCI에 NVIDIA GB200 NVL72 시스템이 도입됩니다. 자세히 알아보세요.
160개 이상의 AI 도구에 대해, 원클릭 콘솔 통합과 유연한 라이선싱을 사용할 수 있습니다.
OCI의 분산형 클라우드에 NVIDIA Blackwell이 탑재됩니다. 발표를 확인해 보세요.
OCI의 클러스터 네트워크가 확장 가능한 생성형 AI를 어떻게 지원하는지 확인해 보세요.
Oracle과 NVIDIA는 어디서나 소버린 AI를 제공합니다.
OCI Kubernetes Engine의 플러그인이 더 강력한 제어와 유연성을 제공합니다.
운영 환경에서 AI 워크로드를 손쉽게 배포하고 확장할 수 있습니다.
AMD GPU가 탑재된 OCI 컴퓨트 베어메탈 인스턴스가 상용 출시되었습니다.
Oracle AI 인프라와 AMD Instinct GPU가 확장 가능하고 비용 효율적인 고성능 AI/ML 기반을 어떻게 제공하는지 확인해 보세요.
확장성
131,072
OCI Supercluster의 최대 GPU 수1
성능
3,200
최대 3,200Gb/초의 RDMA 클러스터 네트워크 대역폭2
가치
220%
다른 CSP용 GPU의 경우 비용이 최대 220% 더 소요될 수 있음3
선택
VM/BM
VM을 통한 크기 조정 및 베어메탈을 통한 성능 조정
1. OCI Supercluster는 NVIDIA Blackwell B200 GPU 최대 131,072개, NVIDIA Grace Blackwell GB200 Superchips의 NVIDIA Blackwell B200 GPU 100,000개 이상, NVIDIA H200 Tensor Core GPU 65,536개, NVIDIA H200 Tensor Core GPU 32,768개, NVIDIA A100 Tensor Core GPU 16,384개, NVIDIA H100 Tensor Core GPU 16,384개까지 확장 가능합니다.
2. NVIDIA B200, H200, H100 GPU 및 AMD Instinct MI300X 가속기를 사용하는 베어메탈 인스턴스의 경우.
3. 2024년 6월 5일 기준 온디맨드 가격 정책 기반 정보입니다.
AMD Instinct MI300X GPU를 탑재한 OCI Compute용 신규 구매 전 체험판 프로그램에 등록하세요.
OCI는 NVIDIA 및 AMD GPU를 탑재한 베어메탈 인스턴스를 제공하는 유일한 주요 클라우드 제공업체로, 가상화 오버헤드가 없는 고성능 서비스를 제공합니다. AI 훈련 중 체크포인트 작업을 위해서, 당사 인스턴스는 노드당 가장 많은 로컬 스토리지(61.44TB 및 H100 GPU)를 제공합니다.
OCI는 다음과 같은 NVIDIA GPU들을 활용하여 베어메탈 및 가상 머신 컴퓨트 인스턴스를 위한 최고의 성능을 제공합니다: NVIDIA Blackwell GPU, H200 Tensor Core GPU, H100 Tensor Core GPU, L40S GPU, A100 Tensor Core GPU, A10 Tensor Core GPU.
OCI는 100,000개 이상의 GPU로 확장되는 슈퍼클러스터에서 NVIDIA GB200 Grace Blackwell Superchip을 제공합니다.
OCI는 192GB의 메모리를 갖춘 AMD Instinct MI300X GPU를 GPU 시간당 $6라는 탁월한 가격에 제공합니다.
Oracle의 원격 직접 메모리 액세스(RDMA) 기반 초단기 대기 시간 클러스터 네트워킹의 지연시간은 마이크로초 단위입니다.
VM의 경우 1~4개 코어, VM당 16~64GB의 GPU 메모리, 최대 48Gb/초의 네트워크 대역폭을 갖춘 NVIDIA의 Hopper, Ampere 및 그 이전의 GPU 아키텍처를 선택할 수 있습니다.
AMD Instinct GPU, NVIDIA Blackwell GPU 또는 Superchips, NVIDIA Hopper GPU 또는 Superchips, NVIDIA Ampere GPU를 포함한 베어메탈 인스턴스를 갖춘 OCI Supercluster를 사용할 수 있습니다.
관리형 Kubernetes, 서비스 메시, 컨테이너 레지스트리를 활용하여 AI 및 머신러닝(ML) 교육과 컨테이너 추론을 통합관리할 수 있습니다.
Oracle Cloud Marketplace에서 제공하는 데이터 과학, 분석, 인공 지능(AI), 머신러닝(ML) 모델용 소프트웨어 및 디스크 이미지를 통해 데이터로부터 인사이트를 신속히 도출할 수 있습니다.
생성형 AI, 컴퓨터 비전, 음성 AI 등의 데이터 과학 및 생산 AI를 위한 엔드투엔드 소프트웨어 플랫폼인 NVIDIA AI Enterprise에 액세스할 수 있습니다.
OCI의 NVIDIA DGX Cloud는 서비스형 AI 교육 플랫폼으로, 개발자에게 생성형 AI에 최적화된 서버리스 경험을 제공합니다.
NVIDIA GPU Cloud Machine Image를 사용하여 광범위한 산업 및 워크로드에 적용 가능한 수백 가지의 딥러닝, 머신러닝, 고성능 컴퓨팅용 GPU 최적화 애플리케이션에 액세스할 수 있습니다.
Oracle Cloud에서 구동되는 NVIDIA RTX Virtual Workstation을 통해 직원들이 필요로 하는 강력한 워크스테이션 성능을 어디서든 제공할 수 있습니다.
OCI Dedicated Region을 통해 데이터 센터에 완전한 클라우드 리전을 배포하여 데이터 및 애플리케이션을 완벽하게 제어할 수 있습니다.
Oracle Alloy의 파트너가 되면 특정 시장 요구 사항을 해결하기 위한 클라우드 서비스를 제공할 수 있습니다.
컨테이너를 사용하여 애플리케이션을 구축하는 개발자는 고가용성 Oracle 관리형 프라이빗 컨테이너 레지스트리 서비스를 활용하여 컨테이너 이미지를 저장하고 공유할 수 있습니다. Docker V2 API 및 표준 Docker 명령줄 인터페이스(CLI)를 사용하여 레지스트리 사이에서 Docker 이미지를 푸시하거나 풀링할 수 있습니다. 이미지를 Kubernetes 배포로 직접 풀링할 수 있습니다.
Functions as a service(FaaS)를 사용하면 개발자가 Oracle Cloud Infrastructure, Oracle Cloud Applications 및 타사 서비스와 통합되는 서버리스 애플리케이션을 실행할 수 있습니다. 또한 오픈 소스 Fn 프로젝트 커뮤니티를 통해 효율성을 개선할 수 있죠.
OCI Data Science, 베어메탈 인스턴스, RDMA 기반 클러스터 네트워킹, NVIDIA GPU 등을 사용하여 AI 모델을 학습시킬 수 있습니다.
NVIDIA GPU를 활용하는 OCI Compute는 VDI를 위한 일관된 고성능을 제공합니다.
OCI는 컴퓨터 보조 엔지니어링 및 전산 유체 역학을 활용하여 물체의 공기역학적 특성을 빠르게 예측할 수 있도록 지원합니다.
Oracle AI 서비스들의 가격 정책에는 대부분 무료로 이용 가능한 티어가 포함되어 있으며, 추가 클라우드 서비스를 체험할 수 있는 미화 300달러 상당의 무료 크레딧이 함께 제공됩니다. Oracle은 생성형 AI가 포함된 다양한 AI 서비스 모음을 제공합니다. 개발자들은 Oracle의 사전 구축된 머신러닝 모델을 활용하여 애플리케이션 및 비즈니스 운영에 AI를 손쉽게 적용할 수 있습니다.
또한 OCI Data Science를 사용하면서 발생한 컴퓨트 및 스토리지 비용만이 청구됩니다.
Oracle Cloud는 저렴한 가격을 전 세계적으로 동일하게 적용하며, 간편하고 다양한 사용 사례를 지원합니다. 예상 요금 절감액을 확인하려면, 비용 계산기를 사용하여 필요에 맞게 서비스를 구성해보세요.
Oracle 전문가들이 GPU 솔루션 구축, OCI AI 인프라에 워크로드 배포하기와 같은 다양한 AI 관련 주제에 대한 상담을 제공합니다.