Pular para o conteúdo principal
Categoría
Tecnologias

Tutoriais do LLM

Mantenha-se atualizado com as últimas notícias, técnicas e recursos para Large Language Models. Nossos tutoriais estão repletos de orientações práticas e casos de uso que você pode usar para aprimorar suas habilidades.
Outras tecnologias:
Agentes de IAAWSAzureBusiness IntelligenceCara de abraçoChatGPTdbtDockerExcelGitGoogle Cloud PlatformIA generativaInteligência Artificial JavaKafkaKubernetesMongoDBMySQLNoSQLOpenAIPlanilhasPostgreSQLPower BIPySparkPythonRSnowflakeSQLSQLiteTableauTelas de dados
GroupTreinar 2 ou mais pessoas?Experimentar DataCamp for Business

Tutorial LM Studio: comece com LLMs locais

Aprenda a instalar e rodar LLMs localmente com o LM Studio. Mantenha seus dados privados, converse com documentos usando RAG nativo e configure uma API local.
Srujana Maddula's photo

Srujana Maddula

15 de abril de 2026

Como criar plugins Claude Code: Um guia passo a passo

Um guia completo dos plugins do Claude Code. Descubra como instalar extensões, escolher entre Skills e MCPs e criar um registrador de sessão personalizado do zero.
Bex Tuychiev's photo

Bex Tuychiev

9 de fevereiro de 2026

Executar o Qwen3-Coder-Next localmente: Vibe Code, um painel de análise

Execute o Qwen3-Coder-Next localmente em um RTX 3090 com llama.cpp e, em seguida, crie um painel de análise completo em poucos minutos usando o Qwen Code CLI.
Abid Ali Awan's photo

Abid Ali Awan

6 de fevereiro de 2026

Como rodar o Kimi K2.5 localmente

Aprenda a rodar um modelo de código aberto top de linha localmente com o llama.cpp, conecte-o à CLI Kimi e crie um jogo interativo de uma só vez usando a codificação vibe.
Abid Ali Awan's photo

Abid Ali Awan

5 de fevereiro de 2026

FLUX.2 Klein Tutorial: Criando um aplicativo para gerar e editar imagens com o Gradio

Aprenda a juntar a geração local FLUX.2 Klein 4B com edição de imagens baseada em API, condicionamento de múltiplas referências e histórico de sessões para criar um editor de imagens com o Gradio.
Aashi Dutt's photo

Aashi Dutt

3 de fevereiro de 2026

Usando o Claude Code com modelos locais do Ollama

Execute o GLM 4.7 Flash localmente (RTX 3090) com Claude Code e Ollama em minutos, sem nuvem, sem bloqueio, apenas velocidade e controle puros.
Abid Ali Awan's photo

Abid Ali Awan

3 de fevereiro de 2026

Kimi K2.5 e Agente Swarm: Um guia com quatro exemplos práticos

Descubra o que é o Kimi K2.5 da Moonshot, como funciona o Agent Swarm e veja tudo isso em ação através de quatro experiências práticas e reais.
Aashi Dutt's photo

Aashi Dutt

29 de janeiro de 2026

Google MCP Servers Tutorial: Implantando IA Agente no GCP

Dá uma olhada na arquitetura dos servidores MCP gerenciados pelo Google e aprende como transformar LLMs em operadores proativos para BigQuery, Maps, GCE e Kubernetes.
Aryan Irani's photo

Aryan Irani

28 de janeiro de 2026

Transformadores v5 Tokenização: Guia de arquitetura e migração

Atualize para o Transformers v5. Um guia prático sobre o backend Rust unificado, mudanças na API e padrões de migração lado a lado da v4 para a v5 para codificação e chat.
Aashi Dutt's photo

Aashi Dutt

27 de janeiro de 2026

Como rodar o GLM-4.7 localmente com o llama.cpp: Um guia de alto desempenho

Configurando o llama.cpp para rodar o modelo GLM-4.7 em uma única GPU NVIDIA H100 de 80 GB, conseguindo até 20 tokens por segundo usando descarregamento de GPU, Flash Attention, tamanho de contexto otimizado, processamento em lote eficiente e threading de CPU ajustado.
Abid Ali Awan's photo

Abid Ali Awan

26 de janeiro de 2026

Como usar o Sora AI: Um guia com 10 exemplos práticos

Aprenda a usar o Sora AI para criar e editar vídeos, incluindo o uso de remix, loop, recorte, predefinições de estilo e storyboards.
François Aubry's photo

François Aubry

22 de janeiro de 2026