GPU 인스턴스

Oracle Cloud Infrastructure(OCI) Compute는 NVIDIA GPU 기반의 베어메탈 및 가상 머신(VM) 인스턴스를 통해 업계 최고의 확장성을 제공하여 메인스트림 그래픽, AI 추론, AI 훈련, 디지털 트윈, HPC를 지원합니다.

Modal Labs, OCI로 개발자의 AI 컴퓨팅 관련 도전 과제 해결(1:35)
Stanford 연구원, 새로운 심장마비 치료법 연구에 Oracle Cloud 활용

OCI Supercluster는 심장 및 흉부 연구에 사용되는 대규모 언어 모델(LLM)의 교육 속도를 가속화할 수 있는 대규모 고성능 GPU를 제공합니다.

OCI의 GPU 인스턴스를 선택하는 이유

확장성

131,072

OCI Supercluster의 최대 GPU 수1

성능

3,200

최대 3,200Gb/초의 RDMA 클러스터 네트워크 대역폭2

가치

220%

다른 CSP용 GPU의 경우 비용이 최대 220% 더 소요될 수 있음3

선택

VM/BM

VM을 통한 크기 조정 및 베어메탈을 통한 성능 조정

1: OCI Supercluster는 최대 131,072개 NVIDIA B200 GPU(예정), NVIDIA GB200 슈퍼칩에 포함된 100,000개 이상의 NVIDIA B200 GPU(예정), 65,536개 H200 GPU(예정), 32,768개 NVIDIA A100 GPU, 16,384개 NVIDIA H100 GPU까지 확장할 수 있습니다.

2: NVIDIA H100 GPU가 탑재된 베어메탈 인스턴스 기준입니다.

3: 2024년 6월 5일 기준 온디맨드 가격 정책 기반 정보입니다.

GPU 인스턴스-주요 기능

OCI는 NVIDIA GPU를 탑재한 베어메탈 인스턴스를 유일하게 제공하는 주요 클라우드 제공업체로, 가상화 오버헤드가 없는 고성능 서비스를 제공합니다. AI 학습 중 체크포인트 작업을 위해서, 당사 인스턴스는 노드당 가장 많은 로컬 스토리지(61.44TB)를 제공합니다.

고성능 NVIDIA GPU 인스턴스

NVIDIA Tensor 코어 GPU

OCI는 NVIDIA H100 Tensor Core GPU, L40S GPU, A100 Tensor Core GPU, A10 Tensor Core GPU 및 구세대 NVIDIA GPU가 탑재된 베어메탈 및 가상 머신 컴퓨팅 인스턴스를 위한 최고의 가치 및 성능을 제공합니다. 또한 OCI는 향후 NVIDIA H200Blackwell GPU가 탑재된 인스턴스를 함께 제공할 예정입니다.

NVIDIA 슈퍼칩

OCI는 NVIDIA GH200 Grace Hopper Superchip을 제공 중이며, LLM 추론을 위한 GB200 Grace Blackwell Superchip을 제공할 예정입니다.

고성능 클러스터 네트워킹

Oracle의 원격 직접 메모리 액세스(RDMA) 기반 초단기 대기 시간 클러스터 네트워킹의 지연시간은 마이크로초 단위입니다.

VM, 베어메탈 인스턴스 및 Kubernetes 클러스터에 배포

VM 인스턴스

VM의 경우 1~4개 코어, VM당 16~64GB의 GPU 메모리, 최대 48Gb/초의 네트워크 대역폭을 갖춘 NVIDIA의 Hopper, Ampere 및 그 이전의 GPU 아키텍처를 선택할 수 있습니다.

베어메탈 인스턴스

NVIDIA의 Blackwell, Hopper 또는 Ampere 슈퍼칩과 GPU, 노드당 640GB의 GPU 메모리가 탑재된 베어메탈 인스턴스에서 OCI Supercluster를 사용할 수 있습니다.

Kubernetes 통합관리

관리형 Kubernetes, 서비스 메시, 컨테이너 레지스트리를 활용하여 AI 및 머신러닝(ML) 교육과 컨테이너 추론을 통합관리할 수 있습니다.

즉시 사용 가능한 소프트웨어 활용

소프트웨어 및 디스크 이미지에 액세스

Oracle Cloud Marketplace에서 제공하는 데이터 과학, 분석, 인공 지능(AI), 머신러닝(ML) 모델용 소프트웨어 및 디스크 이미지를 통해 데이터로부터 인사이트를 신속히 도출할 수 있습니다.

NVIDIA AI 엔터프라이즈

생성형 AI, 컴퓨터 비전, 음성 AI 등의 데이터 과학 및 생산 AI를 위한 엔드투엔드 소프트웨어 플랫폼인 NVIDIA AI Enterprise에 액세스할 수 있습니다.

NVIDIA DGX Cloud

OCI의 NVIDIA DGX Cloud는 서비스형 AI 교육 플랫폼으로, 개발자에게 생성형 AI에 최적화된 서버리스 경험을 제공합니다.

NVIDIA GPU Cloud Machine Image

NVIDIA GPU Cloud Machine Image를 사용하여 광범위한 산업 및 워크로드에 적용 가능한 수백 가지의 딥러닝, 머신러닝, 고성능 컴퓨팅용 GPU 최적화 애플리케이션에 액세스할 수 있습니다.

NVIDIA RTX Virtual Workstation

Oracle Cloud에서 구동되는 NVIDIA RTX Virtual Workstation을 통해 직원들이 필요로 하는 강력한 워크스테이션 성능을 어디서든 제공할 수 있습니다.

AI 컴퓨팅 환경 및 데이터 제어

분산형 클라우드

OCI의 분산형 클라우드는 GPU 컴퓨팅과 결합되어 조직이 AI 및 클라우드 서비스를 필요한 곳과 방식으로 실행할 수 있도록 지원합니다.

소버린 클라우드

EU, US, UK, Australia 등 리전 또는 국가 내 데이터 레지던시를 지원합니다.

OCI Dedicated Region

OCI Dedicated Region을 통해 데이터 센터에 완전한 클라우드 리전을 배포하여 데이터 및 애플리케이션을 완벽하게 제어할 수 있습니다.

Oracle Alloy

Oracle Alloy의 파트너가 되면 특정 시장 요구 사항을 해결하기 위한 클라우드 서비스를 제공할 수 있습니다.

마이크로서비스 및 컨테이너

컨테이너 레지스트리

컨테이너를 사용하여 애플리케이션을 구축하는 개발자는 고가용성 Oracle 관리형 프라이빗 컨테이너 레지스트리 서비스를 활용하여 컨테이너 이미지를 저장하고 공유할 수 있습니다. Docker V2 API 및 표준 Docker 명령줄 인터페이스(CLI)를 사용하여 레지스트리 사이에서 Docker 이미지를 푸시하거나 풀링할 수 있습니다. 이미지를 Kubernetes 배포로 직접 풀링할 수 있습니다.

Oracle Functions

Functions as a service(FaaS)를 사용하면 개발자가 Oracle Cloud Infrastructure, Oracle Cloud Applications 및 타사 서비스와 통합되는 서버리스 애플리케이션을 실행할 수 있습니다. 또한 오픈 소스 Fn 프로젝트 커뮤니티를 통해 효율성을 개선할 수 있죠.

GPU 인스턴스-사용 사례

딥 러닝 학습 및 추론을 위한 AI 인프라

OCI Data Science, 베어메탈 인스턴스, RDMA 기반 클러스터 네트워킹, NVIDIA GPU 등을 사용하여 AI 모델을 학습시킬 수 있습니다.


AI 학습 및 추론 이 다이어그램에서는 딥 러닝 모델 개발의 두 가지 단계인 '모델 훈련'과 '모델 인퍼런싱'을 설명합니다. 왼쪽의 모델 훈련에서는 훈련되지 않은 신경망 네트워크가 OCI Data Science, 베어메탈 컴퓨트, 로컬 스토리지, 클러스터 네트워킹이 지원하는 훈련 알고리즘에 입력됩니다. 새로운 기능을 활용해 훈련받은 모델이 훈련 알고리즘을 통해 출력됩니다. 모델 인퍼런싱 단계는 오른쪽에 설명되어 있습니다. 텍스트 입력을 받아 이미지를 생성할 수 있는 DALL-E 2 등 훈련된 모델을 예로 들 수 있습니다. 훈련된 모델에 텍스트 입력이 제공되면, 해당 모델이 이미지 출력을 제공합니다.

Virtual Desktop Infrastructure(VDI)

NVIDIA GPU를 활용하는 OCI Compute는 VDI를 위한 일관된 고성능을 제공합니다.


Virtual Desktop Infrastructure Virtual Desktop Infrastructure

GPU 인스턴스를 사용하는 CFD 및 고성능 컴퓨팅

OCI는 컴퓨터 보조 엔지니어링 및 전산 유체 역학을 활용하여 물체의 공기역학적 특성을 빠르게 예측할 수 있도록 지원합니다.


GPU 인스턴스를 사용하는 CFD 및 고성능 컴퓨팅 GPU 인스턴스를 사용하는 CFD 및 고성능 컴퓨팅
2024년 9월 11일

세계 최초, 최대 규모의 클라우드 제타스케일 AI 슈퍼컴퓨터 발표

OCI, Executive Vice President, Mahesh Thiagarajan

Oracle Cloud Infrastructure(OCI) 고객들은 OCI에서 가장 발전된 AI 워크로드를 실행해 왔습니다. Oracle은 해당 고객들의 성공 사례를 참고하여 강력한 보안 및 주권 제어 기능이 탑재된 최고 성능의 AI 인프라를 바탕으로 가장 가치있는 클라우드 서비스를 제공하기 위한 전략을 보강하고 있습니다.

게시물 전문 읽어보기

GPU 인스턴스 시작하기

Oracle AI 30일 무료 체험하기

Oracle AI 서비스들의 가격 정책에는 대부분 무료로 이용 가능한 티어가 포함되어 있으며, 추가 클라우드 서비스를 체험할 수 있는 미화 300달러 상당의 무료 크레딧이 함께 제공됩니다. Oracle은 생성형 AI가 포함된 다양한 AI 서비스 모음을 제공합니다. 개발자들은 Oracle의 사전 구축된 머신러닝 모델을 활용하여 애플리케이션 및 비즈니스 운영에 AI를 손쉽게 적용할 수 있습니다.

  • 무료 서비스 항목이 포함된 Oracle AI 및 ML 서비스

    • OCI Speech
    • OCI Language
    • OCI Vision
    • OCI Document Understanding
    • Oracle Database에 포함된 Machine Learning
    • OCI Data Labeling

    또한 OCI Data Science를 사용하면서 발생한 컴퓨트 및 스토리지 비용만이 청구됩니다.

OCI를 통해 얻을 수 있는 절감 효과 확인하기

Oracle Cloud는 저렴한 가격을 전 세계적으로 동일하게 적용하며, 간편하고 다양한 사용 사례를 지원합니다. 예상 요금 절감액을 확인하려면, 비용 계산기를 사용하여 필요에 맞게 서비스를 구성해보세요.

GPU 및 AI 전문가와 상담하기

Oracle 전문가들이 GPU 솔루션 구축, OCI AI 인프라에 워크로드 배포하기와 같은 다양한 AI 관련 주제에 대한 상담을 제공합니다.

  • 다음과 같은 문의사항들에 답해드립니다.

    • Oracle Cloud를 시작하려면 어떻게 해야 하나요?
    • OCI에서는 어떤 종류의 AI 워크로드를 실행할 수 있나요?
    • OCI는 어떤 유형의 AI 서비스를 제공하나요?