#51 Cómo personalizar tu modelo de lenguaje (LLM): RAG, Fine-tuning, Prompt engineering y más | Podcast Inteligencia Artificial
Las alucinaciones y la falta de conocimiento actualizado son algunas de las principales falencias de los modelos de lenguaje como ChatGPT, Gemini u otros. Existen muchas técnicas que permiten disminuir los efectos de estas falencias y/o darle nuevas funcionalidades a los modelos de lenguaje para así adaptarlo más a tu caso de uso. En este episodio únete a Eduardo Fica y Sebastián Cisterna para aprender sobre los pros y contras de técnicas cómo el RAG (retrieval-augmented generation), function calling, fine-tuning y prompt engineering. ==== Links: - Qué es una API: https://www.youtube.com/watch?v=0TEJgVJoO34 - ChatGPT para principiantes https://evoacademy.cl/libro - Como entrenar tu LLM https://youtu.be/4Pzv2JburBM ==== Sobre nuestro podcast ¿Qué IA está pasando? Es el podcast de Inteligencia Artificial de EvoAcademy. Escúchalo todas las semanas en tu plataforma favorita. ---- (00:00) - Inicio (01:12) - Cómo ajustar tu LLM (01:35) - Ingeniería de prompts (06:35) - Libro ChatGPT para principiantes (06:51) - Cómo agregar información actualizada o personalizada (07:59) - RAG (13:02) - Llamadas de función (22:06) - ¿Cuántas funciones puede llamar un modelo? (22:29) - Ajuste fino (Fine-Tuning) (28:06) - ¿Cuántas herramientas puedo usar en un modelo? (31:11) - Cierre