Les modèles disponibles avec Cohere et Meta pour OCI Generative AI comprennent
Avec les clusters d'IA dédiés, vous pouvez héberger des modèles de base sur des GPU dédiés à votre utilisation. Ces clusters offrent les performances élevées et la stabilité requises pour les cas d'utilisation de production. Ils peuvent prendre en charge l'hébergement et des charges de travail d'affinage. OCI Generative AI vous permet d'agrandir votre cluster sans temps d'arrêt pour gérer la fluctuation du volume à traiter.
L'expérience de chat fournit une interface prête à l'emploi avec les modèles Cohere et Meta où les utilisateurs peuvent poser des questions et obtenir des réponses conversationnelles via la console ou l'API OCI.
OCI Generative AI est intégré à LangChain, un framework open source qui permet de développer de nouvelles interfaces pour les applications d'IA générative basées sur des modèles linguistiques. LangChain facilite l'échange des abstractions et des composants nécessaires à l'utilisation des modèles de langage.
Utilisez LlamaIndex, une structure open source pour créer des applications augmentées en contexte, avec OCI Generative AI pour créer facilement des solutions ou des agents RAG. Faites passer vos solutions du prototype à la production avec des sources de données personnalisées et des outils flexibles.
OCI Generative AI fournit des contrôles de modération de contenu, et bientôt, un échange de modèles sans temps d'arrêt et des fonctionnalités de désactivation et d'activation des points de terminaison. Pour chaque point de terminaison de modèle, OCI Generative AI capture une série de mesures, notamment les statistiques d'appel, les jetons traités et le nombre d'erreurs.
En intégrant des fonctionnalités créées avec OCI Generative AI directement dans les applications Oracle Cloud, nous facilitons l'accès instantané des clients à ces applications sans intégrations complexes.