Categoría
Tecnologias
Tutoriais do LLM
Mantenha-se atualizado com as últimas notícias, técnicas e recursos para Large Language Models. Nossos tutoriais estão repletos de orientações práticas e casos de uso que você pode usar para aprimorar suas habilidades.
Outras tecnologias:
Treinar 2 ou mais pessoas?Experimentar DataCamp for Business
Tutorial LM Studio: comece com LLMs locais
Aprenda a instalar e rodar LLMs localmente com o LM Studio. Mantenha seus dados privados, converse com documentos usando RAG nativo e configure uma API local.
Srujana Maddula
15 de abril de 2026
Como rodar o GLM 5.1 localmente para coding com agentes
Aprenda a rodar o GLM 5.1 localmente em uma GPU H100 com o llama.cpp, fazer testes, usar o WebUI e integrar com o Claude Code.
Abid Ali Awan
10 de abril de 2026
Como criar plugins Claude Code: Um guia passo a passo
Um guia completo dos plugins do Claude Code. Descubra como instalar extensões, escolher entre Skills e MCPs e criar um registrador de sessão personalizado do zero.
Bex Tuychiev
9 de fevereiro de 2026
Executar o Qwen3-Coder-Next localmente: Vibe Code, um painel de análise
Execute o Qwen3-Coder-Next localmente em um RTX 3090 com llama.cpp e, em seguida, crie um painel de análise completo em poucos minutos usando o Qwen Code CLI.
Abid Ali Awan
6 de fevereiro de 2026
Como rodar o Kimi K2.5 localmente
Aprenda a rodar um modelo de código aberto top de linha localmente com o llama.cpp, conecte-o à CLI Kimi e crie um jogo interativo de uma só vez usando a codificação vibe.
Abid Ali Awan
5 de fevereiro de 2026
FLUX.2 Klein Tutorial: Criando um aplicativo para gerar e editar imagens com o Gradio
Aprenda a juntar a geração local FLUX.2 Klein 4B com edição de imagens baseada em API, condicionamento de múltiplas referências e histórico de sessões para criar um editor de imagens com o Gradio.
Aashi Dutt
3 de fevereiro de 2026
Usando o Claude Code com modelos locais do Ollama
Execute o GLM 4.7 Flash localmente (RTX 3090) com Claude Code e Ollama em minutos, sem nuvem, sem bloqueio, apenas velocidade e controle puros.
Abid Ali Awan
3 de fevereiro de 2026
Kimi K2.5 e Agente Swarm: Um guia com quatro exemplos práticos
Descubra o que é o Kimi K2.5 da Moonshot, como funciona o Agent Swarm e veja tudo isso em ação através de quatro experiências práticas e reais.
Aashi Dutt
29 de janeiro de 2026
Google MCP Servers Tutorial: Implantando IA Agente no GCP
Dá uma olhada na arquitetura dos servidores MCP gerenciados pelo Google e aprende como transformar LLMs em operadores proativos para BigQuery, Maps, GCE e Kubernetes.
Aryan Irani
28 de janeiro de 2026
Transformadores v5 Tokenização: Guia de arquitetura e migração
Atualize para o Transformers v5. Um guia prático sobre o backend Rust unificado, mudanças na API e padrões de migração lado a lado da v4 para a v5 para codificação e chat.
Aashi Dutt
27 de janeiro de 2026
Como rodar o GLM-4.7 localmente com o llama.cpp: Um guia de alto desempenho
Configurando o llama.cpp para rodar o modelo GLM-4.7 em uma única GPU NVIDIA H100 de 80 GB, conseguindo até 20 tokens por segundo usando descarregamento de GPU, Flash Attention, tamanho de contexto otimizado, processamento em lote eficiente e threading de CPU ajustado.
Abid Ali Awan
26 de janeiro de 2026
Como usar o Sora AI: Um guia com 10 exemplos práticos
Aprenda a usar o Sora AI para criar e editar vídeos, incluindo o uso de remix, loop, recorte, predefinições de estilo e storyboards.
François Aubry
22 de janeiro de 2026