Curso de Fine-Tuning for Retrieval-Augmented Generation (RAG) Systems
Fine-Tuning for Retrieval-Augmented Generation (RAG) Systems is the process of optimizing how large language models retrieve and generate relevant information from external sources for enterprise applications.
This instructor-led, live training (online or onsite) is aimed at intermediate-level NLP engineers and knowledge management teams who wish to fine-tune RAG pipelines to enhance performance in question answering, enterprise search, and summarization use cases.
By the end of this training, participants will be able to:
- Understand the architecture and workflow of RAG systems.
- Fine-tune retriever and generator components for domain-specific data.
- Evaluate RAG performance and apply improvements through PEFT techniques.
- Deploy optimized RAG systems for internal or production use.
Format of the Course
- Interactive lecture and discussion.
- Lots of exercises and practice.
- Hands-on implementation in a live-lab environment.
Course Customization Options
- To request a customized training for this course, please contact us to arrange.
Programa del Curso
Introduction to Retrieval-Augmented Generation (RAG)
- What is RAG and why it matters for enterprise AI
- Components of a RAG system: retriever, generator, document store
- Comparison with standalone LLMs and vector search
Setting Up a RAG Pipeline
- Installing and configuring Haystack or similar frameworks
- Document ingestion and preprocessing
- Connecting retrievers to vector databases (e.g., FAISS, Pinecone)
Fine-Tuning the Retriever
- Training dense retrievers using domain-specific data
- Using sentence transformers and contrastive learning
- Evaluating retriever quality with top-k accuracy
Fine-Tuning the Generator
- Selecting base models (e.g., BART, T5, FLAN-T5)
- Instruction tuning vs. supervised fine-tuning
- LoRA and PEFT methods for efficient updates
Evaluation and Optimization
- Metrics for evaluating RAG performance (e.g., BLEU, EM, F1)
- Latency, retrieval quality, and hallucination reduction
- Experiment tracking and iterative improvement
Deployment and Real-World Integration
- Deploying RAG in internal search engines and chatbots
- Security, data access, and governance considerations
- Integration with APIs, dashboards, or knowledge portals
Case Studies and Best Practices
- Enterprise use cases in finance, healthcare, and legal
- Managing domain drift and knowledge base updates
- Future directions in retrieval-augmented LLM systems
Summary and Next Steps
Requerimientos
- An understanding of natural language processing (NLP) concepts
- Experience with transformer-based language models
- Familiarity with Python and basic machine learning workflows
Audience
- NLP engineers
- Knowledge management teams
Los cursos de formación abiertos requieren más de 5 participantes.
Curso de Fine-Tuning for Retrieval-Augmented Generation (RAG) Systems - Booking
Curso de Fine-Tuning for Retrieval-Augmented Generation (RAG) Systems - Enquiry
Fine-Tuning for Retrieval-Augmented Generation (RAG) Systems - Consultas
Consultas
Próximos cursos
Cursos Relacionados
Advanced Techniques in Transfer Learning
14 HorasEsta capacitación en vivo dirigida por un instructor en Uruguay (en línea o presencial) está dirigida a profesionales del aprendizaje automático de nivel avanzado que desean dominar técnicas de transferencia de aprendizaje de vanguardia y aplicarlas a problemas complejos del mundo real.
Al final de esta formación, los participantes serán capaces de:
- Comprender conceptos y metodologías avanzadas en el aprendizaje por transferencia.
- Implemente técnicas de adaptación específicas del dominio para modelos previamente entrenados.
- Aplique el aprendizaje continuo para gestionar tareas y conjuntos de datos en evolución.
- Domine el ajuste multitarea para mejorar el rendimiento del modelo en todas las tareas.
Deploying Fine-Tuned Models in Production
21 HorasEsta capacitación en vivo dirigida por un instructor en Uruguay (en línea o presencial) está dirigida a profesionales de nivel avanzado que desean implementar modelos ajustados de manera confiable y eficiente.
Al final de esta formación, los participantes serán capaces de:
- Comprenda los desafíos de implementar modelos ajustados en producción.
- Incluya e implemente modelos en contenedores con herramientas como Docker y Kubernetes.
- Implemente la supervisión y el registro para los modelos implementados.
- Optimice los modelos para la latencia y la escalabilidad en escenarios del mundo real.
Domain-Specific Fine-Tuning for Finance
21 HorasEsta capacitación en vivo dirigida por un instructor en Uruguay (en línea o presencial) está dirigida a profesionales de nivel intermedio que desean adquirir habilidades prácticas en la personalización de modelos de IA para tareas financieras críticas.
Al final de esta formación, los participantes serán capaces de:
- Comprender los fundamentos del ajuste fino para aplicaciones financieras.
- Aproveche los modelos entrenados previamente para tareas específicas de dominio en finanzas.
- Aplicar técnicas de detección de fraude, evaluación de riesgos y generación de asesoramiento financiero.
- Garantice el cumplimiento de las regulaciones financieras como GDPR y SOX.
- Implemente prácticas éticas de seguridad de datos e IA en aplicaciones financieras.
Fine-Tuning Models and Large Language Models (LLMs)
14 HorasEsta capacitación en vivo dirigida por un instructor en Uruguay (en línea o presencial) está dirigida a profesionales de nivel intermedio a avanzado que desean personalizar modelos previamente entrenados para tareas y conjuntos de datos específicos.
Al final de esta formación, los participantes serán capaces de:
- Comprender los principios del ajuste fino y sus aplicaciones.
- Prepare conjuntos de datos para ajustar los modelos previamente entrenados.
- Ajuste los modelos de lenguaje grandes (LLM) para las tareas de NLP.
- Optimice el rendimiento del modelo y aborde los desafíos comunes.
Efficient Fine-Tuning with Low-Rank Adaptation (LoRA)
14 HorasEsta capacitación en vivo dirigida por un instructor en Uruguay (en línea o presencial) está dirigida a desarrolladores de nivel intermedio y profesionales de la IA que desean implementar estrategias de ajuste para modelos grandes sin la necesidad de grandes recursos computacionales.
Al final de esta formación, los participantes serán capaces de:
- Comprender los principios de la Adaptación de Bajo Rango (LoRA).
- Implemente LoRA para un ajuste eficiente de modelos grandes.
- Optimice el ajuste fino para entornos con recursos limitados.
- Evalúe e implemente modelos ajustados a LoRA para aplicaciones prácticas.
Fine-Tuning Multimodal Models
28 HorasEsta capacitación en vivo dirigida por un instructor en Uruguay (en línea o presencial) está dirigida a profesionales de nivel avanzado que deseen dominar el ajuste fino de modelos multimodales para soluciones innovadoras de IA.
Al final de esta formación, los participantes serán capaces de:
- Comprender la arquitectura de modelos multimodales como CLIP y Flamingo.
- Prepare y preprocese conjuntos de datos multimodales de forma eficaz.
- Ajuste los modelos multimodales para tareas específicas.
- Optimice los modelos para las aplicaciones y el rendimiento del mundo real.
Fine-Tuning for Natural Language Processing (NLP)
21 HorasEsta capacitación en vivo dirigida por un instructor en Uruguay (en línea o presencial) está dirigida a profesionales de nivel intermedio que desean mejorar sus proyectos de PNL a través del ajuste efectivo de modelos de lenguaje preentrenados.
Al final de esta formación, los participantes serán capaces de:
- Comprender los fundamentos del ajuste fino de las tareas de PNL.
- Ajuste los modelos previamente entrenados, como GPT, BERT y T5, para aplicaciones específicas de NLP.
- Optimice los hiperparámetros para mejorar el rendimiento del modelo.
- Evalúe e implemente modelos ajustados en escenarios del mundo real.
Fine-Tuning DeepSeek LLM for Custom AI Models
21 HorasEste entrenamiento en vivo dirigido por un instructor en Uruguay (en línea o en el sitio) está dirigido a investigadores de IA, ingenieros de aprendizaje automático y desarrolladores de nivel avanzado que desean ajustar (536) modelos LLM para crear aplicaciones de IA especializadas adaptadas a industrias, dominios o necesidades comerciales específicas.
Al final de esta capacitación, los participantes podrán:
- Entender la arquitectura y las capacidades de los modelos DeepSeek, incluidos DeepSeek-R1 y DeepSeek-V3.
- Preparar conjuntos de datos y preprocessar datos para fine-tuning.
- Ajustar DeepSeek LLM para aplicaciones específicas de dominio.
- Optimizar y desplegar modelos afinados de manera eficiente.
Fine-Tuning Large Language Models Using QLoRA
14 HorasEsta formación en vivo dirigida por un instructor en Uruguay (en línea o presencial) está destinada a ingenieros de aprendizaje automático de nivel intermedio y avanzado, desarrolladores de IA y científicos de datos que desean aprender a utilizar QLoRA para ajustar eficientemente grandes modelos a tareas específicas y personalizaciones.
Al finalizar esta formación, los participantes podrán:
- Comprender la teoría detrás de QLoRA y las técnicas de cuantización para modelos de lenguaje grandes (LLM).
- Implementar QLoRA en el ajuste fino de grandes modelos de lenguaje para aplicaciones específicas de dominio.
- Optimizar el rendimiento del ajuste fino en recursos computacionales limitados utilizando cuantización.
- Deploy and evaluate fine-tuned models in real-world applications efficiently.
Fine-Tuning Open-Source LLMs (LLaMA, Mistral, Qwen, etc.)
14 HorasThis instructor-led, live training in Uruguay (online or onsite) is aimed at intermediate-level ML practitioners and AI developers who wish to fine-tune and deploy open-weight models like LLaMA, Mistral, and Qwen for specific business or internal applications.
By the end of this training, participants will be able to:
- Understand the ecosystem and differences between open-source LLMs.
- Prepare datasets and fine-tuning configurations for models like LLaMA, Mistral, and Qwen.
- Execute fine-tuning pipelines using Hugging Face Transformers and PEFT.
- Evaluate, save, and deploy fine-tuned models in secure environments.
Fine-Tuning with Reinforcement Learning from Human Feedback (RLHF)
14 HorasEsta formación en vivo dirigida por un instructor en Uruguay (en línea o presencial) está destinada a ingenieros avanzados de aprendizaje automático y investigadores de IA que desean aplicar RLHF para afinar modelos grandes de IA con un rendimiento superior, seguridad y alineación.
Al finalizar esta formación, los participantes podrán:
- Comprender las bases teóricas del RLHF y por qué es esencial en el desarrollo moderno de IA.
- Implementar modelos de recompensa basados en la retroalimentación humana para guiar los procesos de aprendizaje por refuerzo.
- Afinar modelos grandes de lenguaje utilizando técnicas de RLHF para alinear las salidas con las preferencias humanas.
- Aplicar las mejores prácticas para escalar flujos de trabajo de RLHF en sistemas de IA de producción.
Fine-Tuning Vision-Language Models (VLMs)
14 HorasThis instructor-led, live training in Uruguay (online or onsite) is aimed at advanced-level computer vision engineers and AI developers who wish to fine-tune VLMs such as CLIP and Flamingo to improve performance on industry-specific visual-text tasks.
By the end of this training, participants will be able to:
- Understand the architecture and pretraining methods of vision-language models.
- Fine-tune VLMs for classification, retrieval, captioning, or multimodal QA.
- Prepare datasets and apply PEFT strategies to reduce resource usage.
- Evaluate and deploy customized VLMs in production environments.
Optimizing Large Models for Cost-Effective Fine-Tuning
21 HorasEsta capacitación en vivo dirigida por un instructor en Uruguay (en línea o presencial) está dirigida a profesionales de nivel avanzado que desean dominar técnicas para optimizar modelos grandes para un ajuste rentable en escenarios del mundo real.
Al final de esta formación, los participantes serán capaces de:
- Comprenda los desafíos de ajustar modelos grandes.
- Aplique técnicas de entrenamiento distribuidas a modelos grandes.
- Aproveche la cuantificación y la poda de modelos para lograr la eficiencia.
- Optimice la utilización del hardware para las tareas de ajuste.
- Implemente modelos ajustados de forma eficaz en entornos de producción.
Prompt Engineering and Few-Shot Fine-Tuning
14 HorasEsta capacitación en vivo dirigida por un instructor en Uruguay (en línea o en el sitio) está dirigida a profesionales de nivel intermedio que desean aprovechar el poder de la ingeniería rápida y el aprendizaje de pocos disparos para optimizar el rendimiento de LLM para aplicaciones del mundo real.
Al final de esta formación, los participantes serán capaces de:
- Comprender los principios de la ingeniería rápida y el aprendizaje de pocos disparos.
- Diseñe indicaciones efectivas para varias tareas de NLP.
- Aproveche las técnicas de pocos disparos para adaptar los LLM con datos mínimos.
- Optimice el rendimiento de LLM para aplicaciones prácticas.
Parameter-Efficient Fine-Tuning (PEFT) Techniques for LLMs
14 HorasEsta formación en vivo dirigida por un instructor en Uruguay (en línea o presencial) está destinada a científicos de datos y ingenieros de IA de nivel intermedio que desean afinar modelos de lenguaje grandes de manera más económica y eficiente utilizando métodos como LoRA, Adapter Tuning y Prefix Tuning.
Al finalizar esta formación, los participantes podrán:
- Comprender la teoría detrás de los enfoques de afinado con parámetros eficientes.
- Implementar LoRA, Adapter Tuning y Prefix Tuning utilizando Hugging Face PEFT.
- Comparar el rendimiento y las compensaciones de costos de los métodos PEFT frente al afinado completo.
- Deploy and scale fine-tuned LLMs with reduced compute and storage requirements.