programa
Cómo configurar y ejecutar QwQ 32B localmente con Ollama
Aprende a instalar, configurar y ejecutar QwQ-32B localmente con Ollama y a crear una sencilla aplicación Gradio.
Actualizado 10 mar 2025 · 12 min de lectura
Aprende IA con estos cursos
23hrs hr
curso
Developing LLM Applications with LangChain
3 hr
18.3K
programa
Llama Fundamentals
5 hours hr
Ver más
RelacionadoVer másVer más
tutorial
RAG Con Llama 3.1 8B, Ollama y Langchain: Tutorial
Aprende a crear una aplicación RAG con Llama 3.1 8B utilizando Ollama y Langchain, configurando el entorno, procesando documentos, creando incrustaciones e integrando un recuperador.
Ryan Ong
12 min
tutorial
Ajuste fino de LLaMA 2: Guía paso a paso para personalizar el modelo de lenguaje grande
Aprende a ajustar Llama-2 en Colab utilizando nuevas técnicas para superar las limitaciones de memoria y computación y hacer más accesibles los grandes modelos lingüísticos de código abierto.
Abid Ali Awan
12 min
tutorial
Guía de torchchat de PyTorch: Configuración local con Python
Aprende a configurar el torchat de PyTorch localmente con Python en este tutorial práctico, que proporciona orientación paso a paso y ejemplos.
François Aubry
tutorial
Guía para principiantes de LlaMA-Factory WebUI: Ajuste de los LLM
Aprende a afinar los LLM en conjuntos de datos personalizados, evaluar el rendimiento y exportar y servir modelos sin problemas utilizando el marco de trabajo de bajo/ningún código de LLaMA-Factory.
Abid Ali Awan
12 min
tutorial
DCLM-7B de Apple: Configuración, Ejemplo de uso, Ajuste fino
Empieza a utilizar el gran modelo de lenguaje DCLM-7B de Apple y aprende a configurarlo, utilizarlo y ajustarlo para tareas específicas.
Dimitri Didmanidze
9 min
tutorial
Tutorial FLAN-T5: Guía y puesta a punto
Una guía completa para afinar un modelo FLAN-T5 para una tarea de respuesta a preguntas utilizando la biblioteca de transformadores, y ejecutando la inferencia optmizada en un escenario del mundo real.
Zoumana Keita
15 min