In che modo puoi fornire richieste di inferenza su larga scala per il tuo modello di linguaggio di grandi dimensioni e accelerare la distribuzione dell'AI? Implementando la soluzione di livello Enterprise NVIDIA NIM su Oracle Cloud Infrastructure (OCI) Container Engine for Kubernetes (OKE). In questa demo verrà illustrato come distribuire NVIDIA NIM su OKE con il repository di modelli ospitato nello storage degli oggetti OCI. Utilizzando una distribuzione Helm, puoi eseguire facilmente lo scale-up e lo scale-down del numero di repliche a seconda del numero di richieste di inferenza, oltre a semplificare il monitoraggio. Sfrutta OCI Object Storage per distribuire i modelli da qualsiasi luogo, con il supporto di vari tipi di modelli. Basato sulle GPU NVIDIA, sfrutta appieno NIM per ottenere il throughput massimo e la latenza minima per le tue richieste di inferenza.
Questa pagina è stata tradotta da una macchina.