Zu den Modellen von Cohere und Meta für OCI Generative AI gehören folgende:
Mit Dedicated AI-Clustern können Sie grundlegende Modelle auf dedizierten GPUs hosten, die nur Ihnen zur Verfügung stehen. Solche Cluster bieten eine stabile Leistung mit hohem Durchsatz, die für Produktionsanwendungen erforderlich ist, und unterstützen das Hosting und die Feinabstimmung von Workloads. OCI Generative AI ermöglicht es Ihnen, Ihren Cluster ohne Ausfallzeiten zu skalieren, um Volumenschwankungen zu bewältigen.
Das Chat-Erlebnis bietet eine einsatzbereite Schnittstelle mit Cohere- und Meta-Modellen, in der Benutzer Fragen stellen und gesprächsorientierte Antworten über die OCI-Konsole oder -API erhalten können.
OCI Generative AI enthält LangChain, ein Open-Source-Framework, das für die Entwicklung neuer Schnittstellen für generative KI-Anwendungen auf der Grundlage von Sprachmodellen verwendet werden kann. LangChain vereinfacht den Austausch von Abstraktionen und Komponenten, die für die Arbeit mit Sprachmodellen erforderlich sind.
Verwenden Sie LlamaIndex, ein Open-Source-Framework, zum Erstellen kontextabhängiger Anwendungen mit OCI Generative AI, um RAG-Lösungen oder -Agents einfach zu erstellen. Bringen Sie Ihre Lösungen mit benutzerdefinierten Datenquellen und flexiblen Tools vom Prototyp zur Produktion.
OCI Generative AI bietet Kontrollmechanismen für die Inhaltsmoderation. Demnächst verfügbar ist außerdem der Austausch von Endpunktmodellen ohne Ausfallzeiten sowie die Möglichkeit, Endpunkte zu deaktivieren und zu aktivieren. Für jeden Modellendpunkt erfasst OCI Generative AI zudem eine Reihe von Analysen, darunter Anrufstatistiken, verarbeitete Token und Fehlerzahlen.
Durch die direkte Einbettung von mit OCI Generative AI erstellten Funktionen in seine Geschäftsanwendungen stellen wir unseren Kunden ganz einfach sofort KI-gesteuerte Funktionen ohne komplexe Integrationen zur Verfügung.