Simplificați operațiunile Kubernetes de nivel enterprise la scară largă. Implementați și gestionați cu ușurință fluxuri de lucru cu resurse intensive, cum ar fi AI, cu scalare, corecții și upgrade-uri automate.
Revista CIO recunoaște OCI pentru expertiza sa în furnizarea de soluții Kubernetes de ultimă oră, susținând dezvoltarea de aplicații scalabile și eficiente.
OKE este serviciul Kubernetes cu cel mai mic cost dintre toate hyperscalers, în special pentru serverless.
OKE ajustează automat resursele de calcul în funcție de cerere, ceea ce vă poate reduce costurile.
Procesoarele grafice GPU pot fi limitate, dar programarea lucrărilor OKE facilitează maximizarea utilizării resurselor.
OKE este consecvent în toate mediile cloud și on-premises, permițând portabilitatea și evitarea dependenței de un furnizor.
OKE reduce timpul și costurile necesare pentru a gestiona complexitatea infrastructurii Kubernetes.
Actualizările automate și corecțiile de securitate sporesc fiabilitatea planului de control și a nodurilor worker.
Kubernetes este platforma de implementare a fluxurilor de lucru AI. OKE susține serviciile AI Oracle Cloud Infrastructure (OCI).
– Etapa inițială de construcție a unui proiect AI implică definirea problemei și pregătirea datelor pentru a crea modele.
– Clusterele Kubernetes pot îmbunătăți semnificativ eficiența, oferind acces partajat la resurse GPU costisitoare și adesea limitate, oferind în același timp medii securizate și gestionate central.
– Kubeflow, un proiect open source aferent Kubernetes, oferă un framework cuprinzător, conceput pentru a simplifica crearea, instruirea şi implementarea de modele.
OKE este construit pe baza OCI, oferind o stivă completă de infrastructură de înaltă performanță, proiectată pentru sarcini de lucru AI/ML, cum ar fi:
– Gama completă de procesoare grafice NVIDIA, inclusiv H100, A100, A10 etc.
– Rețele RDMA ultra-rapide
Utilizând noduri OKE autogestionate, puteți rula sarcini de lucru AI/ML generând pe clusterele dvs. Kubernetes.
Kubernetes este platforma de implementare a fluxurilor de lucru AI. OKE susține serviciile OCI AI.
- În instruirea modelelor, experții în date selectează un algoritm și inițiază joburi de instruire utilizând date pregătite. Această etapă necesită sisteme sofisticate de programare pentru gestionarea eficientă a sarcinilor.
– Proiectele Kubernetes, cum ar fi Volcano și Kueue, ajută la gestionarea acestor cerințe și la utilizarea eficientă a resurselor de calcul.
– Instruirea distribuită pe scară largă necesită comunicații internode cu latență scăzută în cluster. Aici este nevoie de o rețea ultra-rapidă specializată cu acces direct la memorie de la distanță (RDMA). El permite mutarea datelor direct în sau din memoria unei aplicații, ocolind procesorul pentru a reduce latența.
OKE este construit pe baza OCI, oferind o stivă completă de infrastructură de înaltă performanță, proiectată pentru sarcini de lucru AI/ML, cum ar fi:
– Gama completă de procesoare grafice NVIDIA, inclusiv H100, A100, A10 etc.
– Rețele RDMA cu latență scăzută și performanță ultra-înaltă
Utilizând noduri OKE autogestionate, puteți rula instruire AI/ML pe clusterele dvs. Kubernetes.
Kubernetes este platforma de implementare a fluxurilor de lucru AI. OKE susține serviciile OCI AI.
– Inferențierea modelelor de inteligență artificială este locul în care Kubernetes strălucește cu adevărat. Kubernetes poate scala automat numărul de containere de inferență în sus sau în jos, în funcție de cerere, asigurând utilizarea eficientă a resurselor.
– Kubernetes oferă un management sofisticat al resurselor, inclusiv posibilitatea de a specifica limitele de procesor și memorie pentru containere.
OKE este proiectat cu rezistență în centrul său, folosind scalarea automată a containerelor încorporate Kubernetes, pentru a scala nodurile worker în funcție de utilizare. Nodurile worker pot fi distribuite pe mai multe domenii cu toleranţă la eşec şi/sau disponibilitate, pentru o disponibilitate ridicată.
Nodurile virtuale OKE oferă o experiență Kubernetes serverless. Acestea trebuie doar să scaleze la nivel de pod, fără a scala vreodată nodurile worker. Acest lucru permite o scalare mai rapidă și un management mai economic, deoarece taxele pentru servicii se bazează exclusiv pe modulele utilizate.
Nodurile virtuale sunt potrivite pentru fluxurile de lucru cu inferență și pot utiliza procesoare Arm, care devin o opțiune mult mai atractivă pentru inferența AI – mai ales atunci când GPU-urile sunt în aprovizionare scurtă.
OKE oferă un cost total al deținerii mai mic și un timp mai bun de lansare pe piață.
OKE simplifică operațiunile la scară largă în următoarele moduri:
Asigurați-vă aplicațiile pentru viitor cu o arhitectură de microservicii axată pe OKE.
"Multe servicii OCI AI rulează pe OCI Kubernetes Engine (OKE), serviciul Kubernetes gestionat de Oracle. De fapt, echipa noastră de ingineri a experimentat o îmbunătățire a performanței 10X cu OCI Vision doar prin trecerea de la o platformă anterioară la OKE. E atât de bine."
Vicepreședinte OCI AI Services, Oracle Cloud Infrastructure
Implementaţi microservicii simple, împachetate drept containere Docker, şi comunicaţi printr-un API comun.
Descoperiți cele mai bune practici pentru implementarea unui centralizator de noduri virtuale serverless utilizând automatizarea și arhitectura de referință oferite de Terraform.
Aflați cum Tryg Insurance și-a redus costurile cu 50% prin optimizarea dinamică a drepturilor.
Mickey Boxell, managementul produselor
Suplimentele OKE oferă o oportunitate de a descărca managementul software-ului operațional pentru clustere către Oracle. De asemenea, oferă flexibilitatea de a personaliza sau de a renunța complet la software-ul operațional Kubernetes implicit pentru a aduce software echivalent. Suntem încântați să partajăm lansarea a patru suplimente suplimentare: Kubernetes Cluster Autoscaler, rețeaua de servicii Istio, controlerul de intrare nativ OCI și serverul Kubernetes Metrics Server – precum și suportul pentru noi argumente de configurare, pentru a oferi un control mai mare asupra suplimentelor implementate în clusterele dvs.
Citiți postarea completăKubernetes este o platformă open source pentru gestionarea și scalarea clusterelor de aplicații și servicii containerizate.
Kubernetes este o platformă open source pentru gestionarea și scalarea clusterelor de aplicații și servicii containerizate.
Obțineți 30 de zile de acces la instrumentele CI/CD, Terraform gestionat, telemetrie și multe altele.
Explorați arhitecturile de referință implementabile și ghidurile de soluții.
Stimulați dezvoltarea aplicațiilor cu Kubernetes, Docker, serverless, API-uri și multe altele.
Adresați-vă asociaților noștri pentru vânzări, asistență și alte întrebări.
Această pagină a fost tradusă automat.