Categoría
Technologies
LLM Tutorials
Keep up to date with the latest news, techniques, and resources for Large Language Models. Our tutorials are full of practical walk throughs & use cases you can use to upskill.
Other technologies:
¿Formar a 2 o más personas?Probar DataCamp for Business
Ejecuta Qwen3-Coder-Next localmente: Vibe Code, un panel de control analítico
Ejecuta Qwen3-Coder-Next localmente en una RTX 3090 con llama.cpp y, a continuación, crea un panel de análisis completo en cuestión de minutos utilizando Qwen Code CLI.
Abid Ali Awan
6 de febrero de 2026
Cómo ejecutar Kimi K2.5 localmente
Aprende a ejecutar un modelo de código abierto de primera categoría localmente con llama.cpp, conéctalo a la CLI de Kimi y crea un juego interactivo de una sola vez utilizando la codificación vibe.
Abid Ali Awan
5 de febrero de 2026
Tutorial de FLUX.2 Klein: Creación de una aplicación para generar y editar imágenes con Gradio
Aprende a combinar la generación local FLUX.2 Klein 4B con la edición de imágenes basada en API, el acondicionamiento multirreferencia y el historial de sesiones para crear un editor de imágenes con Gradio.
Aashi Dutt
3 de febrero de 2026
Uso de Claude Code con modelos locales de Ollama
Ejecuta GLM 4.7 Flash localmente (RTX 3090) con Claude Code y Ollama en cuestión de minutos, sin nube, sin bloqueos, solo velocidad y control puros.
Abid Ali Awan
3 de febrero de 2026
Kimi K2.5 y Agent Swarm: Una guía con cuatro ejemplos prácticos
Descubre qué es Kimi K2.5 de Moonshot, cómo funciona Agent Swarm y míralo en acción a través de cuatro experimentos prácticos del mundo real.
Aashi Dutt
29 de enero de 2026
Tutorial sobre servidores MCP de Google: Implementación de IA agencial en GCP
Explora la arquitectura de los servidores MCP gestionados por Google y descubre cómo convertir los LLM en operadores proactivos para BigQuery, Maps, GCE y Kubernetes.
Aryan Irani
28 de enero de 2026
Tokenización de Transformers v5: Guía de arquitectura y migración
Actualiza a Transformers v5. Una guía práctica sobre el backend unificado de Rust, los cambios en la API y los patrones de migración comparativos entre la versión 4 y la versión 5 para la codificación y el chat.
Aashi Dutt
27 de enero de 2026
Cómo ejecutar GLM-4.7 localmente con llama.cpp: Una guía de alto rendimiento
Configuración de llama.cpp para ejecutar el modelo GLM-4.7 en una sola GPU NVIDIA H100 de 80 GB, alcanzando hasta 20 tokens por segundo mediante la descarga de la GPU, Flash Attention, el tamaño de contexto optimizado, el procesamiento por lotes eficiente y el subprocesamiento de la CPU ajustado.
Abid Ali Awan
26 de enero de 2026
Cómo utilizar Sora AI: Una guía con 10 ejemplos prácticos
Aprende a utilizar Sora AI para crear y editar vídeos, incluyendo el uso de remezclas, bucles, recortes, ajustes preestablecidos de estilo y guiones gráficos.
François Aubry
22 de enero de 2026
Cómo utilizar GLM 4.7 Flash localmente
Aprende a ejecutar GLM-4.7-Flash en una RTX 3090 para obtener una inferencia local rápida e integrarlo con OpenCode para crear un agente de codificación de IA totalmente local y automatizado.
Abid Ali Awan
22 de enero de 2026
Cómo ajustar FunctionGemma: Una guía paso a paso
Aprende a ajustar FunctionGemma en menos de 10 minutos utilizando las GPU gratuitas de Kaggle, desde la preparación del conjunto de datos y la evaluación de referencia hasta el entrenamiento y la validación posterior al ajuste.
Abid Ali Awan
21 de enero de 2026
Código Claude: Una guía con ejemplos prácticos
Aprende a utilizar Claude Code de Anthropic para mejorar los flujos de trabajo de desarrollo de software mediante un ejemplo práctico con la biblioteca Python de Supabase.
Aashi Dutt
20 de enero de 2026