Cuando trabajamos con modelos de lenguaje grandes (LLM), normalmente hacemos que el modelo responda a los datos de entrenamiento que se le han dado. Sin embargo, entrenar estos modelos puede ser difícil, ya que utilizan una gran cantidad de recursos, como GPU y potencia.
Afortunadamente, la optimización de modelos ha avanzado para permitir una versión de "entrenamiento más pequeño" con menos datos, a través de un proceso llamado ajuste fino.
La solución de ejemplo específica que se muestra a continuación proporciona un método para ajustar un LLM mediante el patio de juegos de Oracle Cloud Infrastructure (OCI) Generative AI, una interfaz en la consola de OCI.