#004 - Fine tunning de modelos generativos
Después de los capítulos sobre Retrieval Augmented Generation y Prompt Engineering, completamos la tríada de estrategias de base para el uso de IA generativa con datos propios con este capítulo dedicado al fine-tunning. Angel Conde, arquitecto de soluciones en AWS, nos cuenta todo lo que necesitas saber sobre esta técnica y como poder implementarla en AWS. ¿Qué es el fine tunning? ¿Cuándo aplicar el fine tunning? ¿Cómo hacerlo? ¿Qué es el olvido catastrófico? Todas las respuestas a estas preguntas y otras en este capítulo.Si quieres probar los conceptos aparecidos en el capítulo, puedes hacerlo siguiendo los pasos descritos en los siguientes links:https://aws.amazon.com/es/blogs/machine-learning/fine-tune-and-deploy-mistral-7b-with-amazon-sagemaker-jumpstart/https://aws.amazon.com/es/blogs/machine-learning/fine-tune-text-to-image-stable-diffusion-models-with-amazon-sagemaker-jumpstart/Albert Capdevila es un arquitecto de soluciones de AWS basado en Barcelona, ayudando a los clientes a construir sus cargas en AWS de acuerdo a las mejores prácticas. Después de más de 15 años trabajando en proyectos en el ámbito de las arquitecturas de integración, lleva ya 4 años focalizado en el cloud y en el AI/ML.Albert está actualmente trabajando en un modelo de predicción del tiempo libre que sus hijos le van a dejar para poder ir a escalar montañas.Contacta con Albert Capdevila en LinkedIn en https://www.linkedin.com/in/albertcapdevila/Angel Conde es especialista de analítica de Datos en AWS. Aparte de analítica, forma parte del equipo de especialización de IA/ML de AWS. Antes de estar en AWS dirigió un equipo de investigación en Analítica y AWS, tiene una tesis en NLP y ha dirigido dos tesis en colaboración con diferentes universidades sobre Deep Learning y detección de anomalías en series temporales.Contacta con Angel Conde en LinkedIn en https://www.linkedin.com/in/acmanjon/