Categoría
Tecnologias
Tutoriais do LLM
Mantenha-se atualizado com as últimas notícias, técnicas e recursos para Large Language Models. Nossos tutoriais estão repletos de orientações práticas e casos de uso que você pode usar para aprimorar suas habilidades.
Outras tecnologias:
Treinar 2 ou mais pessoas?Experimentar DataCamp for Business
Como executar o DeepSeek V4 Flash localmente
Aprenda a executar o modelo completo DeepSeek V4 Flash em uma única GPU usando uma build modificada do llama.cpp e um arquivo GGUF compatível neste tutorial prático.
Abid Ali Awan
5 de maio de 2026
Fine-tuning do NVIDIA Nemotron-3-Nano em dados de perguntas e respostas de psicologia
Aprenda a fazer fine-tuning do NVIDIA Nemotron-3-Nano-4B em um dataset de Q&A de psicologia usando uma GPU RTX 3090, com LoRA e TRL, após baixar o modelo do Hugging Face.
Abid Ali Awan
29 de abril de 2026
Tutorial da API Qwen 3.6 Plus: construindo um pipeline de processamento de faturas em Python
Aprenda a usar o Qwen 3.6 Plus da Alibaba, Python e o SDK da OpenAI para criar um pipeline automatizado de processamento de faturas com visão nativa e chamadas de ferramentas.
Bex Tuychiev
27 de abril de 2026
Nano Banana 2: guia completo com Python
Aprenda tudo o que você precisa saber sobre o mais novo modelo de geração de imagens do Google, o Nano Banana 2, incluindo como criar um editor iterativo de imagens em chat usando a API com Python.
François Aubry
22 de abril de 2026
Tutorial OpenClaw (Clawdbot): controle seu PC pelo WhatsApp
Configure o OpenClaw (antes Clawdbot/Moltbot), um agente self-hosted que conecta o Claude ao seu Mac via WhatsApp. Busque arquivos e rode comandos do celular.
Bex Tuychiev
22 de abril de 2026
Execute o GLM-5 localmente para programação com agentes
Execute o GLM-5, o melhor modelo de IA open-weight, em uma única GPU com o llama.cpp e conecte-o ao Aider para transformá-lo em um poderoso agente local de programação.
Abid Ali Awan
22 de abril de 2026
Fine-tuning do Qwen3.6 em um dataset de Q&A médico
Aprenda a fazer fine-tuning do Qwen3.6 em uma GPU H100 NVL usando SFT: da preparação do dataset e carregamento em 4 bits ao treinamento e avaliação.
Abid Ali Awan
21 de abril de 2026
Tutorial da API Claude Opus 4.7: construindo um digitalizador de gráficos
Conheça os recursos do melhor modelo público da Anthropic, o Claude Opus 4.7, e construa uma ferramenta de ciência de dados que transforma um gráfico em dados brutos.
François Aubry
20 de abril de 2026
LLM como juiz: guia completo com exemplo prático de RAG
Aprenda a construir um sistema automatizado de LLM-como-juiz para avaliar, em escala, seus pipelines de RAG quanto à fidelidade e relevância — e reduzir a lacuna nos testes de IA.
Josep Ferrer
20 de abril de 2026
Tutorial Claude Cowork: como usar o agente de desktop de IA da Anthropic
Entenda o que é o Claude Cowork e como usá-lo para organizar arquivos, gerar documentos e automatizar o navegador. Tutorial prático com exemplos reais e limitações.
Bex Tuychiev
17 de abril de 2026
Biblioteca Python do Ollama: começando com LLMs localmente
Domine o SDK Python do Ollama para desenvolvimento local com LLMs. Aprenda a gerar texto, lidar com chats de múltiplos turnos, usar modelos de visão e criar apps de IA com segurança.
Austin Chia
17 de abril de 2026
Executando o MiniMax M2.7 localmente para programação agentic
Neste guia, vamos alugar uma GPU H200 e instalar o llama.cpp, baixar o MiniMax M2.7 GGUF, executá-lo localmente, testá-lo no WebUI e conectá-lo ao OpenCode.
Abid Ali Awan
17 de abril de 2026