curso
¿Qué es el RAFT? Combinar la GAR y el ajuste fino para adaptar los LLM a dominios especializados
RAFT combina la Generación Mejorada por Recuperación (RAG) y el ajuste fino para mejorar el rendimiento de los grandes modelos lingüísticos en dominios especializados
Actualizado 29 jul 2024 · 11 min de lectura
Temas
¡Continúa hoy tu viaje de aprendizaje de la IA!
2 hr
36.9K
curso
Developing LLM Applications with LangChain
3 hr
11.1K
curso
Introduction to LLMs in Python
4 hr
10.1K
Ver más
RelacionadoVer másVer más
tutorial
Guía para principiantes de LlaMA-Factory WebUI: Ajuste de los LLM
Aprende a afinar los LLM en conjuntos de datos personalizados, evaluar el rendimiento y exportar y servir modelos sin problemas utilizando el marco de trabajo de bajo/ningún código de LLaMA-Factory.
Abid Ali Awan
12 min
tutorial
RankGPT como Agente de Re-Ranking para RAG (Tutorial)
RankGPT es un método que utiliza LLMs como ChatGPT para reordenar los documentos recuperados en sistemas RAG, mejorando la calidad del resultado al priorizar la información más relevante.
Ryan Ong
8 min
tutorial
Guía introductoria para el ajuste preciso de los LLM
El ajuste preciso de los grandes modelos lingüísticos (LLM) ha revolucionado el procesamiento del lenguaje natural (PLN) y ofrece capacidades sin precedentes en tareas como la traducción lingüística, el análisis del sentimiento y la generación de textos. Este enfoque transformador aprovecha modelos preentrenados como el GPT-2 y mejora su rendimiento en dominios específicos mediante el proceso de ajuste preciso.
Josep Ferrer
12 min
tutorial
RAG Con Llama 3.1 8B, Ollama y Langchain: Tutorial
Aprende a crear una aplicación RAG con Llama 3.1 8B utilizando Ollama y Langchain, configurando el entorno, procesando documentos, creando incrustaciones e integrando un recuperador.
Ryan Ong
12 min
tutorial
Ajuste fino de LLaMA 2: Guía paso a paso para personalizar el modelo de lenguaje grande
Aprende a ajustar Llama-2 en Colab utilizando nuevas técnicas para superar las limitaciones de memoria y computación y hacer más accesibles los grandes modelos lingüísticos de código abierto.
Abid Ali Awan
12 min
tutorial
Cómo formar a un LLM con PyTorch
Domine el proceso de entrenamiento de grandes modelos lingüísticos con PyTorch, desde la configuración inicial hasta la implementación final.
Zoumana Keita
8 min