Lorsque nous travaillons avec de grands modèles de langage (LLM), le modèle répond généralement aux données d'entraînement qui lui ont été fournies. Cependant, l'entraînement de ces modèles peut être difficile car ils utilisent beaucoup de ressources, telles que les GPU et la puissance.
Heureusement, l'optimisation du modèle a avancé pour permettre une version de "formation plus petite" avec moins de données, grâce à un processus appelé affinage.
L'exemple de solution spécifique ci-dessous fournit une méthode pour affiner un LLM à l'aide du playground de test d'IA générative Oracle Cloud Infrastructure (OCI), une interface dans la console OCI.