Categoría
Temas
Tutoriales de IA
Mantente al día de las últimas técnicas, herramientas e investigaciones en inteligencia artificial. Nuestros tutoriales de IA te guiarán a través de modelos de aprendizaje automático desafiantes.
Otros temas:
¿Formar a 2 o más personas?Probar DataCamp for Business
Biblioteca de Python de Ollama: primeros pasos con LLMs en local
Domina el SDK de Python de Ollama para desarrollar LLMs en local. Aprende a generar texto, gestionar chats multi‑turno, usar modelos de visión y crear apps de IA con seguridad.
Austin Chia
17 de abril de 2026
Ejecutar MiniMax M2.7 en local para programación con agentes
En esta guía, alquilaremos una GPU H200 e instalaremos llama.cpp, descargaremos MiniMax M2.7 GGUF, lo ejecutaremos en local, lo probaremos en la WebUI y lo conectaremos a OpenCode.
Abid Ali Awan
17 de abril de 2026
Tutorial de LM Studio: empieza con LLMs locales
Descubre cómo instalar y ejecutar LLMs en local con LM Studio. Mantén tus datos privados, chatea con documentos usando RAG integrado y configura una API local.
Srujana Maddula
15 de abril de 2026
Cómo ejecutar GLM 5.1 en local para programación agentic
Aprende a ejecutar GLM 5.1 en local en una GPU H100 con llama.cpp, probarlo, usar la WebUI e integrar Claude Code.
Abid Ali Awan
10 de abril de 2026
Tutorial de WebMCP: Cómo crear sitios web preparados para los agentes con el nuevo estándar de Chrome
Una guía práctica para implementar el nuevo estándar de interfaz de agente WebMCP de Chrome con HTML, JavaScript, patrones de seguridad y flujos de trabajo de pruebas.
Josep Ferrer
19 de marzo de 2026
Uso de OpenClaw con Ollama: Creación de un analista de datos local
Aprende a crear un analista de datos de IA totalmente local utilizando OpenClaw y Ollama, que coordina flujos de trabajo de varios pasos, analiza conjuntos de datos y genera informes visuales, sin enviar tus datos a la nube.
Aashi Dutt
9 de febrero de 2026
Cómo crear complementos para Claude Code: Una guía paso a paso
Guía completa de los complementos de Claude Code. Descubre cómo instalar extensiones, elegir entre Skills y MCP, y crear un registrador de sesiones personalizado desde cero.
Bex Tuychiev
9 de febrero de 2026
Ejecuta Qwen3-Coder-Next localmente: Vibe Code, un panel de control analítico
Ejecuta Qwen3-Coder-Next localmente en una RTX 3090 con llama.cpp y, a continuación, crea un panel de análisis completo en cuestión de minutos utilizando Qwen Code CLI.
Abid Ali Awan
6 de febrero de 2026
Cómo ejecutar Kimi K2.5 localmente
Aprende a ejecutar un modelo de código abierto de primera categoría localmente con llama.cpp, conéctalo a la CLI de Kimi y crea un juego interactivo de una sola vez utilizando la codificación vibe.
Abid Ali Awan
5 de febrero de 2026
Tutorial de FLUX.2 Klein: Creación de una aplicación para generar y editar imágenes con Gradio
Aprende a combinar la generación local FLUX.2 Klein 4B con la edición de imágenes basada en API, el acondicionamiento multirreferencia y el historial de sesiones para crear un editor de imágenes con Gradio.
Aashi Dutt
3 de febrero de 2026
API Grok Imagine: Una guía completa de Python con ejemplos
Aprende a generar vídeos utilizando la API de Grok Imagine. Esta guía de Python abarca todo, desde animaciones de imágenes hasta edición de vídeo con el nuevo modelo de vídeo xAI.
François Aubry
3 de febrero de 2026
Uso de Claude Code con modelos locales de Ollama
Ejecuta GLM 4.7 Flash localmente (RTX 3090) con Claude Code y Ollama en cuestión de minutos, sin nube, sin bloqueos, solo velocidad y control puros.
Abid Ali Awan
3 de febrero de 2026