Curso
vLLM: Configurar vLLM localmente y en Google Cloud para CPU
Aprende a configurar y ejecutar vLLM (Virtual Large Language Model) localmente utilizando Docker y en la nube utilizando Google Cloud.
Actualizado 9 ene 2025 · 12 min de lectura
Aprende IA con estos cursos
3 hr
12.4K
Curso
Developing AI Systems with the OpenAI API
3 hr
4.6K
Curso
Developing LLM Applications with LangChain
3 hr
12.4K
Ver más
RelacionadoVer másVer más
blog
Explicación de los modelos de lenguaje visual (VLM)
Los modelos de lenguaje visual (VLM) son modelos de IA que pueden comprender y procesar datos visuales y textuales, lo que permite realizar tareas como subtitular imágenes, responder a preguntas visuales y generar texto a imagen.
Bhavishya Pandit
8 min
blog
Evaluación de un LLM: Métricas, metodologías y buenas prácticas
Aprende a evaluar grandes modelos lingüísticos (LLM) utilizando métricas clave, metodologías y mejores prácticas para tomar decisiones informadas.
Stanislav Karzhev
9 min
Tutorial
Cómo formar a un LLM con PyTorch
Domine el proceso de entrenamiento de grandes modelos lingüísticos con PyTorch, desde la configuración inicial hasta la implementación final.
Zoumana Keita
8 min
Tutorial
Ajuste fino de LLaMA 2: Guía paso a paso para personalizar el modelo de lenguaje grande
Aprende a ajustar Llama-2 en Colab utilizando nuevas técnicas para superar las limitaciones de memoria y computación y hacer más accesibles los grandes modelos lingüísticos de código abierto.
Abid Ali Awan
12 min
Tutorial
Guía para principiantes de LlaMA-Factory WebUI: Ajuste de los LLM
Aprende a afinar los LLM en conjuntos de datos personalizados, evaluar el rendimiento y exportar y servir modelos sin problemas utilizando el marco de trabajo de bajo/ningún código de LLaMA-Factory.
Abid Ali Awan
12 min
Tutorial
Guía introductoria para el ajuste preciso de los LLM
El ajuste preciso de los grandes modelos lingüísticos (LLM) ha revolucionado el procesamiento del lenguaje natural (PLN) y ofrece capacidades sin precedentes en tareas como la traducción lingüística, el análisis del sentimiento y la generación de textos. Este enfoque transformador aprovecha modelos preentrenados como el GPT-2 y mejora su rendimiento en dominios específicos mediante el proceso de ajuste preciso.
Josep Ferrer
11 min