El diccionario de Oxford define fine-tuning de una forma tal que podría decirse que resume la idea a la perfección. Dice: “hacer pequeños ajustes a algo para lograr un desempeño mejor o deseado”. Hoy, el fine-tuning en Generative AI se convierte en una fase clave para obtener el máximo nivel de personalización, y por ende, de valor de esta tecnología.
Básicamente, se trata de una técnica en la que los modelos fundacionales, que ya han sido preentrenados con grandes volúmenes de datos “públicos”, se personalizan con datos particulares que no formaron parte del entrenamiento. Esto significa que se los adapta a temas más específicos o se acota su alcance a un objetivo más enfocado. Para hacerlo, se pueden aprovechar algunas soluciones del mercado, como Amazon Bedrock.
Los LLM (siglas por large language models) son entrenados con una vasta cantidad de contenidos. El fine-tuning en Generative AI permite ajustarlos con datos de la organización para producir respuestas alineadas con las necesidades del negocio.
Cuándo se necesita fine-tuning en Generative AI
Para identificar cuándo se necesita fine-tuning debemos primero entender qué es RAG (siglas de Retrieval Augmented Generation). Se trata del mecanismo mediante el cual podemos usar un LLM con datos particulares de la empresa. A diferencia del fine-tuning, no a través de un entrenamiento específico, sino de métodos de búsqueda y recuperación de información de un corpus de datos.
Si bien ambos métodos sirven para usar un modelo fundacional con los datos particulares de la organización, son mecanismos distintos, con limitantes y requerimientos diferentes.
¿Cuándo necesitamos realmente fine-tuning? La respuesta no es sencilla, pero existe una regla simple que puede ayudar en la toma de decisión. Lo utilizaremos cuando necesitemos utilizar un LLM con datos particulares y los resultados obtenidos vía RAG sean insuficientes.
Otras consideraciones a tener en cuenta son latencia, escala y performance.
Fine-tuning, por su naturaleza de tener el modelo entrenado para una tarea específica, en general tiene menor latencia que RAG.
En términos de escalabilidad, ambos están limitados por el tamaño del contexto que el modelo fundacional soporta. Pero mediante el fine-tuning el contexto necesario para resolver una tarea es menor que en RAG.
Por último, si el entrenamiento se ha hecho de manera correcta, se debería observar una mejor performance (métricas al estilo accuracy, F1 score, ROC AUC)) del modelo con fine-tuning que con RAG.
Beneficios de hacer fine-tuning de modelos preentrenados
Fine-tuning en Generative AI ofrece numerosos beneficios:
– Mejora el rendimiento específico de la tarea:
Dado que se realiza un entrenamiento específico a un modelo preentrenado, el modelo se alinea con los datos específicos del dominio, generando conocimientos especializados. Así, si el entrenamiento se realizó correctamente, es esperable que tengamos mejores métricas de performance. De cierta forma, se vuelve experto para ofrecer resultados precisos y contextualmente relevantes. Esto es fundamental para una organización, ya que asegura una coherencia entre el modelo y la necesidad del negocio.
– Se adapta mejor al caso de uso:
Cada industria tiene sus particularidades, sus características y sus necesidades de datos específicas. No son las mismas las necesidades de un banco que las de un retail, una telco o una empresa de salud. Con fine-tuning en Generative AI, las soluciones son entrenadas de manera específica y logran resultados más puntuales y efectivos.
– Disminuye los riesgos:
Ayuda a evitar alucinaciones en el modelo, así como la entrega de información incorrecta, incoherente o inapropiada. Las aplicaciones de Generative AI están mayormente en el frontend (atención al cliente, experiencia del empleado). Esto, por lo tanto, es esencial para evitar problemas reputacionales o legales. Con fine-tuning en Generative AI, las respuestas se ajustan a las necesidades de la organización.
Cómo realizar Fine-Tuning en un LLM
Como en todo proceso de entrenamiento de modelos, el primer paso para avanzar sobre un fine-tuning en un LLM consiste en preparar el conjunto de datos de entrenamiento y evaluación. En este sentido, las empresas con cultura de datos estarán un paso por delante.
Esto es porque deben ser datos de alta calidad y específicos a la tarea sobre la cual funcionará la solución. Es importante que sea un conjunto diverso y representativo, de forma que el modelo pueda aprender los múltiples matices del dominio objetivo.
¿Cómo establecer el tamaño de ese conjunto de datos? El fine-tuning no requiere de una enorme cantidad de datos ya que parte de un modelo preentrenado. No obstante, una buena práctica aconseja iniciar con un subconjunto pequeño para las primeras experimentaciones. A medida que se obtienen resultados o se hace necesario, se incrementa gradualmente.
El entrenamiento propiamente dicho consiste en, a partir de ese conjunto de datos, ajustar el modelo para el dominio elegido.
La tercera etapa es la de mejora continua. Con el proceso de fine-tuning realizado, se evalúa el modelo a partir de un conjunto de validaciónes. Se verifica así si cumple con los criterios de rendimiento previstos. En caso de que sea necesario, se itera el proceso con los parámetros ajustados con el objetivo de obtener resultados aún mejores.
La evaluación regular del modelo ajustado a partir de PKI (siglas en inglés por indicadores clave de rendimiento) ayuda a identificar las áreas para el perfeccionamiento. Entre ellos, destacanr accuracy, F1 score y ROC AUC.
Conclusiones
El fine-tuning en Generative AI es un proceso clave que nos permite personalizar con datos propios modelos fundacionales preentrenados.
Habilita un mejor rendimiento, mayores niveles de eficiencia y un mayor alineamiento con las necesidades específicas de tu negocio. No obstante, se debe considerar que este proceso implica un entrenamiento con datos curados, con sus respectivos costos computacionales de entrenamiento.
En definitiva: es un mecanismo muy poderoso, que le permite a las organizaciones extraer un gran valor de sus datos potenciados por modelos fundacionales, mediante el entrenamiento para resolver tareas puntuales con datos específicos de la empresa.
¿Te interesa maximizar tus inversiones en IA generativa? Nuestros expertos en Nubiral están esperando tu contacto. ¡Agenda tu reunión!
Te puede interesar:
Paper • Tendencias 2024: Obtener valor de la IA generativa
Blog • Crear y escalar aplicaciones de Generative AI con AWS Bedrock
Blog • Generative AI en telecomunicaciones: cinco casos de uso de alta complejidad