Categoría
Technologies
Tutorías LLM
Mantente al día de las últimas noticias, técnicas y recursos para los Grandes Modelos Lingüísticos. Nuestros tutoriales están llenos de ejemplos prácticos y casos de uso que puedes utilizar para mejorar tus conocimientos.
Otras tecnologías:
¿Formar a 2 o más personas?Probar DataCamp for Business
Cómo ejecutar DeepSeek V4 Flash en local
Aprende a ejecutar el modelo completo DeepSeek V4 Flash en una sola GPU usando una build modificada de llama.cpp y un archivo GGUF compatible en este tutorial práctico.
Abid Ali Awan
5 de mayo de 2026
Ajuste fino de NVIDIA Nemotron-3-Nano con datos de Q&A de psicología
Aprende a ajustar NVIDIA Nemotron-3-Nano-4B con un dataset de Q&A de psicología en una GPU RTX 3090 usando LoRA y TRL tras descargar el modelo de Hugging Face.
Abid Ali Awan
29 de abril de 2026
Tutorial de la API de Qwen 3.6 Plus: crea una canalización de procesamiento de facturas en Python
Aprende a usar Qwen 3.6 Plus de Alibaba, Python y el SDK de OpenAI para crear una canalización automática de procesamiento de facturas con visión nativa y llamadas a herramientas.
Bex Tuychiev
27 de abril de 2026
Nano Banana 2: guía completa con Python
Descubre todo lo que necesitas saber sobre el nuevo modelo de generación de imágenes de Google, Nano Banana 2, incluido cómo crear un editor de imágenes conversacional e iterativo usando la API con Python.
François Aubry
22 de abril de 2026
Ejecuta GLM-5 en local para programación con agentes
Ejecuta GLM-5, el mejor modelo de IA de pesos abiertos, en una sola GPU con llama.cpp y conéctalo a Aider para convertirlo en un potente agente de programación local.
Abid Ali Awan
22 de abril de 2026
Tutorial de OpenClaw (Clawdbot): controla tu PC desde WhatsApp
Configura OpenClaw (antes Clawdbot/Moltbot), un agente autoalojado que conecta Claude con tu Mac vía WhatsApp. Busca archivos y ejecuta comandos de shell desde el móvil.
Bex Tuychiev
22 de abril de 2026
Ajuste fino de Qwen3.6 con un conjunto de datos de preguntas y respuestas médicas
Aprende a ajustar Qwen3.6 en una GPU H100 NVL con SFT: desde la preparación del dataset y la carga en 4 bits, hasta el entrenamiento y la evaluación.
Abid Ali Awan
21 de abril de 2026
Tutorial de la API de Claude Opus 4.7: crea un digitalizador de gráficos
Descubre las capacidades del mejor modelo público de Anthropic, Claude Opus 4.7, y crea una herramienta de data science que convierte un gráfico en datos en bruto.
François Aubry
20 de abril de 2026
LLM como juez: guía completa con un ejemplo práctico de RAG
Aprende a crear un sistema automatizado de LLM-como-juez para evaluar a escala tus pipelines RAG en fidelidad y relevancia y cerrar la brecha en las pruebas de IA.
Josep Ferrer
20 de abril de 2026
Tutorial de Claude Cowork: cómo usar el agente de escritorio de IA de Anthropic
Descubre qué es Claude Cowork y cómo usarlo para organizar archivos, generar documentos y automatizar el navegador. Tutorial práctico con ejemplos reales y limitaciones.
Bex Tuychiev
17 de abril de 2026
Biblioteca de Python de Ollama: primeros pasos con LLMs en local
Domina el SDK de Python de Ollama para desarrollar LLMs en local. Aprende a generar texto, gestionar chats multi‑turno, usar modelos de visión y crear apps de IA con seguridad.
Austin Chia
17 de abril de 2026
Ejecutar MiniMax M2.7 en local para programación con agentes
En esta guía, alquilaremos una GPU H200 e instalaremos llama.cpp, descargaremos MiniMax M2.7 GGUF, lo ejecutaremos en local, lo probaremos en la WebUI y lo conectaremos a OpenCode.
Abid Ali Awan
17 de abril de 2026