Categoría
Technologies
AI Tutorials
Keep up to date with the latest techniques, tools, and research in artificial intelligence. Out AI tutorials will walk you though challenging machine learning models.
Other technologies:
¿Formar a 2 o más personas?Probar DataCamp for Business
Recomendados
Cursor AI: A Guide With 10 Practical Examples
Learn how to install Cursor AI on Windows, macOS, and Linux, and discover how to use it through 10 different use cases.
François Aubry
17 de octubre de 2025
Fine-Tuning Llama 4: A Guide With Demo Project
Learn how to fine-tune the Llama 4 Scout Instruct model on a medical reasoning dataset using RunPod GPUs.
Abid Ali Awan
10 de abril de 2025
How to Set Up and Run Qwen 3 Locally With Ollama
Learn how to install, set up, and run Qwen3 locally with Ollama and build a simple Gradio-based application.
Aashi Dutt
30 de abril de 2025
Todas las publicaciones
Ejecuta Qwen3-Coder-Next localmente: Vibe Code, un panel de control analítico
Ejecuta Qwen3-Coder-Next localmente en una RTX 3090 con llama.cpp y, a continuación, crea un panel de análisis completo en cuestión de minutos utilizando Qwen Code CLI.
Abid Ali Awan
6 de febrero de 2026
Cómo ejecutar Kimi K2.5 localmente
Aprende a ejecutar un modelo de código abierto de primera categoría localmente con llama.cpp, conéctalo a la CLI de Kimi y crea un juego interactivo de una sola vez utilizando la codificación vibe.
Abid Ali Awan
5 de febrero de 2026
Tutorial de FLUX.2 Klein: Creación de una aplicación para generar y editar imágenes con Gradio
Aprende a combinar la generación local FLUX.2 Klein 4B con la edición de imágenes basada en API, el acondicionamiento multirreferencia y el historial de sesiones para crear un editor de imágenes con Gradio.
Aashi Dutt
3 de febrero de 2026
API Grok Imagine: Una guía completa de Python con ejemplos
Aprende a generar vídeos utilizando la API de Grok Imagine. Esta guía de Python abarca todo, desde animaciones de imágenes hasta edición de vídeo con el nuevo modelo de vídeo xAI.
François Aubry
3 de febrero de 2026
Uso de Claude Code con modelos locales de Ollama
Ejecuta GLM 4.7 Flash localmente (RTX 3090) con Claude Code y Ollama en cuestión de minutos, sin nube, sin bloqueos, solo velocidad y control puros.
Abid Ali Awan
3 de febrero de 2026
Kimi K2.5 y Agent Swarm: Una guía con cuatro ejemplos prácticos
Descubre qué es Kimi K2.5 de Moonshot, cómo funciona Agent Swarm y míralo en acción a través de cuatro experimentos prácticos del mundo real.
Aashi Dutt
29 de enero de 2026
Claude en Excel: Asistente de Excel con IA de Anthropic
Una guía fácil de usar para principiantes sobre cómo utilizar Claude en Excel. Aprenderás qué hace realmente, dónde resulta más útil y cómo utilizarlo de forma segura en hojas de cálculo reales sin causar ningún daño.
Laiba Siddiqui
28 de enero de 2026
Tokenización de Transformers v5: Guía de arquitectura y migración
Actualiza a Transformers v5. Una guía práctica sobre el backend unificado de Rust, los cambios en la API y los patrones de migración comparativos entre la versión 4 y la versión 5 para la codificación y el chat.
Aashi Dutt
27 de enero de 2026
Cómo ejecutar GLM-4.7 localmente con llama.cpp: Una guía de alto rendimiento
Configuración de llama.cpp para ejecutar el modelo GLM-4.7 en una sola GPU NVIDIA H100 de 80 GB, alcanzando hasta 20 tokens por segundo mediante la descarga de la GPU, Flash Attention, el tamaño de contexto optimizado, el procesamiento por lotes eficiente y el subprocesamiento de la CPU ajustado.
Abid Ali Awan
26 de enero de 2026
Cómo utilizar Sora AI: Una guía con 10 ejemplos prácticos
Aprende a utilizar Sora AI para crear y editar vídeos, incluyendo el uso de remezclas, bucles, recortes, ajustes preestablecidos de estilo y guiones gráficos.
François Aubry
22 de enero de 2026
Gemini CLI: Una guía con ejemplos prácticos
Aprende a instalar y utilizar la CLI de Google Gemini para optimizar tu flujo de trabajo de programación y corregir errores más rápidamente con IA.
Aashi Dutt
22 de enero de 2026
Cómo utilizar GLM 4.7 Flash localmente
Aprende a ejecutar GLM-4.7-Flash en una RTX 3090 para obtener una inferencia local rápida e integrarlo con OpenCode para crear un agente de codificación de IA totalmente local y automatizado.
Abid Ali Awan
22 de enero de 2026