Solution IA

Réglage fin des LLM avec OCI Generative AI Playground

Introduction

Lorsque nous travaillons avec de grands modèles de langage (LLM), le modèle répond généralement aux données d'entraînement qui lui ont été fournies. Cependant, l'entraînement de ces modèles peut être difficile car ils utilisent beaucoup de ressources, telles que les GPU et la puissance.

Heureusement, l'optimisation du modèle a avancé pour permettre une version de "formation plus petite" avec moins de données, grâce à un processus appelé affinage.

L'exemple de solution spécifique ci-dessous fournit une méthode pour affiner un LLM à l'aide du playground de test d'IA générative Oracle Cloud Infrastructure (OCI), une interface dans la console OCI.

Démonstration

Démonstration : Réglage précis des LLM dans le terrain de jeu OCI Generative AI (1:32)

Prérequis et configuration

  1. Compte Oracle Cloud : page d'inscription
  2. Introduction à OCI Generative AI - Documentation pour OCI Generative AI
  3. Réglage fin d'OCI Generative AI : documentation sur le réglage fin d'OCI Generative AI
  4. Aire de jeux OCI Generative AI—Documentation pour l'aire de jeux OCI Generative AI
  5. Python 3.10
  6. Gestionnaire de packages open source : Conda