Generative AI – Servicefunktionen

 

Modelle

Zu den Modellen von Cohere und Meta für OCI Generative AI gehören folgende:

  • Cohere Command R: Als Teil einer neuen Kategorie skalierbarer Modelle zielt Command R darauf ab, hohe Effizienz und hohe Genauigkeit für Retrieval-Augmented Generation(RAG)-Anwendungen auszugleichen. Im Vergleich zu den ursprünglichen Cohere-Modellen bietet Command R einen höheren Durchsatz und eine geringere Latenz, ein größeres Kontextfenster und eine starke Leistung in 10 Sprachen.
  • Cohere Command R+: Cohere Command R+ wurde durch zusätzliche Schulungen zu Command R für speziellere Anwendungsfälle erweitert. Command R+ bietet ein tieferes Verständnis der Sprache und kann nuanciertere und kontextbezogenere Antworten generieren. Verwenden Sie Command R+ für Anwendungsfälle wie das Generieren von Langforminhalten, Zusammenfassungen, die Beantwortung von Fragen und die Sprachgenerierung für bestimmte Domains oder Branchen.
  • Cohere Embed: Diese englischen und mehrsprachigen Einbettungsmodelle (v3) konvertieren Text in eine Vektoreinbettungsdarstellung. Die „Light“-Versionen von Embed sind kleiner und schneller (nur auf Englisch verfügbar).
  • Meta Llama 3: Die Llama 3-Modelle sind modern und Open Source, mit verbesserter Performance und Reaktionsvielfalt. Zu den verbesserten Funktionen gehören Argumentation, Codegenerierung und Befolgung von Anweisungen. OCI Generative AI bietet das Llama-3-Modell 70B mit Unterstützung für eine Feinabstimmung mit der Methode LoRA.

Dedicated AI-Cluster

Mit Dedicated AI-Clustern können Sie grundlegende Modelle auf dedizierten GPUs hosten, die nur Ihnen zur Verfügung stehen. Solche Cluster bieten eine stabile Leistung mit hohem Durchsatz, die für Produktionsanwendungen erforderlich ist, und unterstützen das Hosting und die Feinabstimmung von Workloads. OCI Generative AI ermöglicht es Ihnen, Ihren Cluster ohne Ausfallzeiten zu skalieren, um Volumenschwankungen zu bewältigen.

Chat-API und Playground

Das Chat-Erlebnis bietet eine einsatzbereite Schnittstelle mit Cohere- und Meta-Modellen, in der Benutzer Fragen stellen und gesprächsorientierte Antworten über die OCI-Konsole oder -API erhalten können.

LangChain-Integration

OCI Generative AI enthält LangChain, ein Open-Source-Framework, das für die Entwicklung neuer Schnittstellen für generative KI-Anwendungen auf der Grundlage von Sprachmodellen verwendet werden kann. LangChain vereinfacht den Austausch von Abstraktionen und Komponenten, die für die Arbeit mit Sprachmodellen erforderlich sind.

LlamaIndex-Integration

Verwenden Sie LlamaIndex, ein Open-Source-Framework, zum Erstellen kontextabhängiger Anwendungen mit OCI Generative AI, um RAG-Lösungen oder -Agents einfach zu erstellen. Bringen Sie Ihre Lösungen mit benutzerdefinierten Datenquellen und flexiblen Tools vom Prototyp zur Produktion.

Generative KI-Vorgänge

OCI Generative AI bietet Kontrollmechanismen für die Inhaltsmoderation. Demnächst verfügbar ist außerdem der Austausch von Endpunktmodellen ohne Ausfallzeiten sowie die Möglichkeit, Endpunkte zu deaktivieren und zu aktivieren. Für jeden Modellendpunkt erfasst OCI Generative AI zudem eine Reihe von Analysen, darunter Anrufstatistiken, verarbeitete Token und Fehlerzahlen.

OCI Generative AI for Oracle Fusion Cloud Applications

Durch die direkte Einbettung von mit OCI Generative AI erstellten Funktionen in seine Geschäftsanwendungen stellen wir unseren Kunden ganz einfach sofort KI-gesteuerte Funktionen ohne komplexe Integrationen zur Verfügung.

Weitere Informationen