Cuando trabajamos con modelos de lenguaje grandes (LLM), normalmente hacemos que el modelo responda a los datos de entrenamiento que se le han dado. Sin embargo, entrenar estos modelos puede ser difícil, ya que utilizan una gran cantidad de recursos, como GPU y potencia.
Afortunadamente, la optimización de modelos ha avanzado para permitir una versión de "entrenamiento más pequeño" con menos datos, a través de un proceso llamado ajuste fino.
La solución de ejemplo específica que se muestra a continuación proporciona un método para ajustar un LLM mediante el patio de juegos de Oracle Cloud Infrastructure (OCI) Generative AI, una interfaz en la consola de OCI.
Esta página ha sido traducida por una máquina.