curso
Cómo configurar y ejecutar DeepSeek R1 localmente con Ollama
Aprende a instalar, configurar y ejecutar DeepSeek-R1 localmente con Ollama y a crear una sencilla aplicación RAG.
Actualizado 30 ene 2025 · 12 min de lectura
Aprende IA con estos cursos
3 hr
13.7K
curso
Retrieval Augmented Generation (RAG) with LangChain
3 hr
2.8K
programa
Llama Fundamentals
5 hours hr
Ver más
RelacionadoVer másVer más
tutorial
RAG Con Llama 3.1 8B, Ollama y Langchain: Tutorial
Aprende a crear una aplicación RAG con Llama 3.1 8B utilizando Ollama y Langchain, configurando el entorno, procesando documentos, creando incrustaciones e integrando un recuperador.
Ryan Ong
12 min
tutorial
Tutorial de DeepSeek-Coder-V2: Ejemplos, instalación, puntos de referencia
DeepSeek-Coder-V2 es un modelo de lenguaje de código de código abierto que rivaliza con el rendimiento de GPT-4, Gemini 1.5 Pro, Claude 3 Opus, Llama 3 70B o Codestral.
Dimitri Didmanidze
8 min
tutorial
Guía de torchchat de PyTorch: Configuración local con Python
Aprende a configurar el torchat de PyTorch localmente con Python en este tutorial práctico, que proporciona orientación paso a paso y ejemplos.
François Aubry
tutorial
Ajuste fino de LLaMA 2: Guía paso a paso para personalizar el modelo de lenguaje grande
Aprende a ajustar Llama-2 en Colab utilizando nuevas técnicas para superar las limitaciones de memoria y computación y hacer más accesibles los grandes modelos lingüísticos de código abierto.
Abid Ali Awan
12 min
tutorial
Guía para principiantes de LlaMA-Factory WebUI: Ajuste de los LLM
Aprende a afinar los LLM en conjuntos de datos personalizados, evaluar el rendimiento y exportar y servir modelos sin problemas utilizando el marco de trabajo de bajo/ningún código de LLaMA-Factory.
Abid Ali Awan
12 min
tutorial
Cómo ejecutar Stable Diffusion:
Explora la IA generativa con nuestro tutorial introductorio sobre Stable Diffusion. Aprende a ejecutar el modelo de aprendizaje profundo en línea y localmente para generar imágenes detalladas.
Kurtis Pykes
7 min