Categoría
Tecnologias
Tutoriais de IA
Mantenha-se atualizado com as mais recentes técnicas, ferramentas e pesquisas em inteligência artificial. Nossos tutoriais de IA orientarão você em relação a modelos desafiadores de aprendizado de máquina.
Outras tecnologias:
Treinar 2 ou mais pessoas?Experimentar DataCamp for Business
Usando o OpenClaw com o Ollama: Criando um analista de dados local
Aprenda a criar um analista de dados de IA totalmente local usando o OpenClaw e o Ollama, que organizam fluxos de trabalho em várias etapas, analisam conjuntos de dados e geram relatórios visuais, sem precisar mandar seus dados para a nuvem.
Aashi Dutt
9 de fevereiro de 2026
Como criar plugins Claude Code: Um guia passo a passo
Um guia completo dos plugins do Claude Code. Descubra como instalar extensões, escolher entre Skills e MCPs e criar um registrador de sessão personalizado do zero.
Bex Tuychiev
9 de fevereiro de 2026
Executar o Qwen3-Coder-Next localmente: Vibe Code, um painel de análise
Execute o Qwen3-Coder-Next localmente em um RTX 3090 com llama.cpp e, em seguida, crie um painel de análise completo em poucos minutos usando o Qwen Code CLI.
Abid Ali Awan
6 de fevereiro de 2026
Como rodar o Kimi K2.5 localmente
Aprenda a rodar um modelo de código aberto top de linha localmente com o llama.cpp, conecte-o à CLI Kimi e crie um jogo interativo de uma só vez usando a codificação vibe.
Abid Ali Awan
5 de fevereiro de 2026
FLUX.2 Klein Tutorial: Criando um aplicativo para gerar e editar imagens com o Gradio
Aprenda a juntar a geração local FLUX.2 Klein 4B com edição de imagens baseada em API, condicionamento de múltiplas referências e histórico de sessões para criar um editor de imagens com o Gradio.
Aashi Dutt
3 de fevereiro de 2026
API Grok Imagine: Um guia completo de Python com exemplos
Aprenda a criar vídeos usando a API Grok Imagine. Este guia Python fala sobre tudo, desde animações de imagens até edição de vídeo com o novo modelo de vídeo xAI.
François Aubry
3 de fevereiro de 2026
Usando o Claude Code com modelos locais do Ollama
Execute o GLM 4.7 Flash localmente (RTX 3090) com Claude Code e Ollama em minutos, sem nuvem, sem bloqueio, apenas velocidade e controle puros.
Abid Ali Awan
3 de fevereiro de 2026
Kimi K2.5 e Agente Swarm: Um guia com quatro exemplos práticos
Descubra o que é o Kimi K2.5 da Moonshot, como funciona o Agent Swarm e veja tudo isso em ação através de quatro experiências práticas e reais.
Aashi Dutt
29 de janeiro de 2026
Claude no Excel: Assistente de IA do Excel da Anthropic
Um guia fácil de usar para iniciantes sobre como usar o Claude no Excel. Você vai aprender o que ele realmente faz, onde é mais útil e como usá-lo com segurança em planilhas reais sem causar nenhum problema.
Laiba Siddiqui
28 de janeiro de 2026
Transformadores v5 Tokenização: Guia de arquitetura e migração
Atualize para o Transformers v5. Um guia prático sobre o backend Rust unificado, mudanças na API e padrões de migração lado a lado da v4 para a v5 para codificação e chat.
Aashi Dutt
27 de janeiro de 2026
Como rodar o GLM-4.7 localmente com o llama.cpp: Um guia de alto desempenho
Configurando o llama.cpp para rodar o modelo GLM-4.7 em uma única GPU NVIDIA H100 de 80 GB, conseguindo até 20 tokens por segundo usando descarregamento de GPU, Flash Attention, tamanho de contexto otimizado, processamento em lote eficiente e threading de CPU ajustado.
Abid Ali Awan
26 de janeiro de 2026
Como usar o Sora AI: Um guia com 10 exemplos práticos
Aprenda a usar o Sora AI para criar e editar vídeos, incluindo o uso de remix, loop, recorte, predefinições de estilo e storyboards.
François Aubry
22 de janeiro de 2026