Categoría
Tecnologias
Tutoriais de IA
Mantenha-se atualizado com as mais recentes técnicas, ferramentas e pesquisas em inteligência artificial. Nossos tutoriais de IA orientarão você em relação a modelos desafiadores de aprendizado de máquina.
Outras tecnologias:
Treinar 2 ou mais pessoas?Experimentar DataCamp for Business
Tutorial da API Claude Opus 4.7: construindo um digitalizador de gráficos
Conheça os recursos do melhor modelo público da Anthropic, o Claude Opus 4.7, e construa uma ferramenta de ciência de dados que transforma um gráfico em dados brutos.
François Aubry
20 de abril de 2026
LLM como juiz: guia completo com exemplo prático de RAG
Aprenda a construir um sistema automatizado de LLM-como-juiz para avaliar, em escala, seus pipelines de RAG quanto à fidelidade e relevância — e reduzir a lacuna nos testes de IA.
Josep Ferrer
20 de abril de 2026
Tutorial Claude Cowork: como usar o agente de desktop de IA da Anthropic
Entenda o que é o Claude Cowork e como usá-lo para organizar arquivos, gerar documentos e automatizar o navegador. Tutorial prático com exemplos reais e limitações.
Bex Tuychiev
17 de abril de 2026
Biblioteca Python do Ollama: começando com LLMs localmente
Domine o SDK Python do Ollama para desenvolvimento local com LLMs. Aprenda a gerar texto, lidar com chats de múltiplos turnos, usar modelos de visão e criar apps de IA com segurança.
Austin Chia
17 de abril de 2026
Executando o MiniMax M2.7 localmente para programação agentic
Neste guia, vamos alugar uma GPU H200 e instalar o llama.cpp, baixar o MiniMax M2.7 GGUF, executá-lo localmente, testá-lo no WebUI e conectá-lo ao OpenCode.
Abid Ali Awan
17 de abril de 2026
Tutorial LM Studio: comece com LLMs locais
Aprenda a instalar e rodar LLMs localmente com o LM Studio. Mantenha seus dados privados, converse com documentos usando RAG nativo e configure uma API local.
Srujana Maddula
15 de abril de 2026
Como rodar o GLM 5.1 localmente para coding com agentes
Aprenda a rodar o GLM 5.1 localmente em uma GPU H100 com o llama.cpp, fazer testes, usar o WebUI e integrar com o Claude Code.
Abid Ali Awan
10 de abril de 2026
Tutorial sobre Transformadores de Visão (ViT): Arquitetura e exemplos de código
Descubra como os Vision Transformers (ViTs) usam patch embeddings e autoatenção pra superar as CNNs na classificação moderna de imagens. Este tutorial detalhado explica a arquitetura ViT, fornece código Python passo a passo e mostra quando escolher ViTs para projetos reais de visão computacional.
Vaibhav Mehra
9 de março de 2026
Usando o OpenClaw com o Ollama: Criando um analista de dados local
Aprenda a criar um analista de dados de IA totalmente local usando o OpenClaw e o Ollama, que organizam fluxos de trabalho em várias etapas, analisam conjuntos de dados e geram relatórios visuais, sem precisar mandar seus dados para a nuvem.
Aashi Dutt
9 de fevereiro de 2026
Como criar plugins Claude Code: Um guia passo a passo
Um guia completo dos plugins do Claude Code. Descubra como instalar extensões, escolher entre Skills e MCPs e criar um registrador de sessão personalizado do zero.
Bex Tuychiev
9 de fevereiro de 2026
Executar o Qwen3-Coder-Next localmente: Vibe Code, um painel de análise
Execute o Qwen3-Coder-Next localmente em um RTX 3090 com llama.cpp e, em seguida, crie um painel de análise completo em poucos minutos usando o Qwen Code CLI.
Abid Ali Awan
6 de fevereiro de 2026
Como rodar o Kimi K2.5 localmente
Aprenda a rodar um modelo de código aberto top de linha localmente com o llama.cpp, conecte-o à CLI Kimi e crie um jogo interativo de uma só vez usando a codificação vibe.
Abid Ali Awan
5 de fevereiro de 2026