Categoría
Technologies
LLM Tutorials
Keep up to date with the latest news, techniques, and resources for Large Language Models. Our tutorials are full of practical walk throughs & use cases you can use to upskill.
Other technologies:
Treinar 2 ou mais pessoas?Experimentar DataCamp for Business
Executar o Qwen3-Coder-Next localmente: Vibe Code, um painel de análise
Execute o Qwen3-Coder-Next localmente em um RTX 3090 com llama.cpp e, em seguida, crie um painel de análise completo em poucos minutos usando o Qwen Code CLI.
Abid Ali Awan
6 de fevereiro de 2026
Como rodar o Kimi K2.5 localmente
Aprenda a rodar um modelo de código aberto top de linha localmente com o llama.cpp, conecte-o à CLI Kimi e crie um jogo interativo de uma só vez usando a codificação vibe.
Abid Ali Awan
5 de fevereiro de 2026
FLUX.2 Klein Tutorial: Criando um aplicativo para gerar e editar imagens com o Gradio
Aprenda a juntar a geração local FLUX.2 Klein 4B com edição de imagens baseada em API, condicionamento de múltiplas referências e histórico de sessões para criar um editor de imagens com o Gradio.
Aashi Dutt
3 de fevereiro de 2026
Usando o Claude Code com modelos locais do Ollama
Execute o GLM 4.7 Flash localmente (RTX 3090) com Claude Code e Ollama em minutos, sem nuvem, sem bloqueio, apenas velocidade e controle puros.
Abid Ali Awan
3 de fevereiro de 2026
Kimi K2.5 e Agente Swarm: Um guia com quatro exemplos práticos
Descubra o que é o Kimi K2.5 da Moonshot, como funciona o Agent Swarm e veja tudo isso em ação através de quatro experiências práticas e reais.
Aashi Dutt
29 de janeiro de 2026
Google MCP Servers Tutorial: Implantando IA Agente no GCP
Dá uma olhada na arquitetura dos servidores MCP gerenciados pelo Google e aprende como transformar LLMs em operadores proativos para BigQuery, Maps, GCE e Kubernetes.
Aryan Irani
28 de janeiro de 2026
Transformadores v5 Tokenização: Guia de arquitetura e migração
Atualize para o Transformers v5. Um guia prático sobre o backend Rust unificado, mudanças na API e padrões de migração lado a lado da v4 para a v5 para codificação e chat.
Aashi Dutt
27 de janeiro de 2026
Como rodar o GLM-4.7 localmente com o llama.cpp: Um guia de alto desempenho
Configurando o llama.cpp para rodar o modelo GLM-4.7 em uma única GPU NVIDIA H100 de 80 GB, conseguindo até 20 tokens por segundo usando descarregamento de GPU, Flash Attention, tamanho de contexto otimizado, processamento em lote eficiente e threading de CPU ajustado.
Abid Ali Awan
26 de janeiro de 2026
Como usar o Sora AI: Um guia com 10 exemplos práticos
Aprenda a usar o Sora AI para criar e editar vídeos, incluindo o uso de remix, loop, recorte, predefinições de estilo e storyboards.
François Aubry
22 de janeiro de 2026
Como usar o GLM 4.7 Flash localmente
Aprenda a usar o GLM-4.7-Flash em uma RTX 3090 pra fazer inferências locais rápidas e integrar com o OpenCode pra criar um agente de codificação de IA totalmente local e automatizado.
Abid Ali Awan
22 de janeiro de 2026
Como ajustar a função Gemma: Um guia passo a passo
Aprenda a ajustar o FunctionGemma em menos de 10 minutos usando as GPUs gratuitas do Kaggle, desde a preparação do conjunto de dados e avaliação da linha de base até o treinamento e a validação pós-ajuste.
Abid Ali Awan
21 de janeiro de 2026
Código Claude: Um guia com exemplos práticos
Aprenda a usar o Claude Code da Anthropic para melhorar os fluxos de trabalho de desenvolvimento de software através de um exemplo prático usando a biblioteca Python Supabase.
Aashi Dutt
20 de janeiro de 2026