programa
Como configurar e executar o QwQ 32B localmente com o Ollama
Saiba como instalar, configurar e executar o QwQ-32B localmente com o Ollama e criar um aplicativo Gradio simples.
Actualizado 10 de mar. de 2025 · 12 min de leitura
Aprenda IA com estes cursos!
23hrs hr
curso
Developing LLM Applications with LangChain
3 hr
18.3K
programa
Llama Fundamentals
5 hours hr
Ver mais
RelacionadoVer maisVer mais
tutorial
RAG With Llama 3.1 8B, Ollama e Langchain: Tutorial
Aprenda a criar um aplicativo RAG com o Llama 3.1 8B usando Ollama e Langchain, configurando o ambiente, processando documentos, criando embeddings e integrando um retriever.
Ryan Ong
12 min
tutorial
Guia de torchchat do PyTorch: Configuração local com Python
Saiba como configurar o torchchat do PyTorch localmente com Python neste tutorial prático, que fornece orientação e exemplos passo a passo.
François Aubry
tutorial
DCLM-7B da Apple: Configuração, exemplo de uso, ajuste fino
Comece a usar o modelo de linguagem grande DCLM-7B da Apple e saiba como configurá-lo, usá-lo e ajustá-lo para tarefas específicas.
Dimitri Didmanidze
9 min
tutorial
Ajuste fino do Llama 3.1 para classificação de textos
Comece a usar os novos modelos Llama e personalize o Llama-3.1-8B-It para prever vários distúrbios de saúde mental a partir do texto.
Abid Ali Awan
13 min
tutorial
Como treinar um LLM com o PyTorch
Domine o processo de treinamento de grandes modelos de linguagem usando o PyTorch, desde a configuração inicial até a implementação final.
Zoumana Keita
8 min
tutorial
Guia para iniciantes do LlaMA-Factory WebUI: Ajuste fino dos LLMs
Saiba como fazer o ajuste fino dos LLMs em conjuntos de dados personalizados, avaliar o desempenho e exportar e servir modelos com facilidade usando a estrutura com pouco ou nenhum código do LLaMA-Factory.
Abid Ali Awan
12 min