Curso
Trabalhando com Llama 3
IntermediárioNível de habilidade
Atualizado 03/2025Iniciar Curso Gratuitamente
Incluído comPremium or Teams
LlamaArtificial Intelligence2 h7 vídeos21 Exercícios1,750 XP12,115Certificado de conclusão
Crie sua conta gratuita
ou
Ao continuar, você aceita nossos Termos de Uso, nossa Política de Privacidade e que seus dados serão armazenados nos EUA.Preferido por alunos de milhares de empresas
Treinar 2 ou mais pessoas?
Experimentar DataCamp for BusinessDescrição do curso
Aprenda a usar o Llama Large-Language Model (LLM)
O que é o Llama LLM e como você pode usá-lo para melhorar seus projetos? Este curso vai te ensinar como rodar o Llama localmente, guiar suas respostas usando engenharia de prompt e construir conversas estruturadas e sensíveis ao contexto.Entenda o modelo Llama e suas aplicações
Você vai começar com uma introdução aos conceitos básicos do Llama, aprendendo a interagir com os modelos do Llama e explorando seus casos de uso. Você vai ganhar experiência prática configurando, executando e interagindo com o modelo usando a biblioteca llama-cpp-python. Conforme você avança, vai usar técnicas para refinar as respostas do Llama, manter o histórico de conversas e gerar resultados estruturados prontos para serem integrados em fluxos de trabalho automatizados.Essa é uma introdução ideal ao Llama para desenvolvedores e profissionais de IA. Ele fala sobre os fundamentos desse LLM de código aberto super poderoso e como usar ele em situações reais.
Pré-requisitos
Python Toolbox1
Entendendo LLMs e Llama
A área de modelos de linguagem de grande porte explodiu, e o Llama se destaca. Com o Llama 3, as possibilidades cresceram muito. Explore suas capacidades, aprenda a usá-lo com o llama-cpp-python e entenda como controlar o comportamento do modelo ajustando parâmetros e atribuindo papéis específicos para orientar a conversa.
2
Usando Llama localmente
Modelos de linguagem vão além de apenas gerar texto — eles podem ser orientados para produzir respostas estruturadas e cientes de contexto. Neste capítulo, você vai explorar como usar o llama-cpp-python para gerar saídas em formatos específicos, incluindo respostas compatíveis com JSON para integração de dados. Você também vai refinar as saídas do Llama usando técnicas de prompting para alinhar as respostas a diferentes tarefas. Por fim, você vai construir conversas que mantêm o contexto ao longo de várias interações, garantindo diálogos mais naturais.
Trabalhando com Llama 3
Curso concluído
Obtenha um certificado de conclusão
Adicione esta credencial ao seu perfil do LinkedIn, currículo ou CVCompartilhe nas redes sociais e em sua avaliação de desempenho
Incluído comPremium or Teams
Inscreva-se AgoraFaça como mais de 19 milhões de alunos e comece Trabalhando com Llama 3 hoje mesmo!
Crie sua conta gratuita
ou
Ao continuar, você aceita nossos Termos de Uso, nossa Política de Privacidade e que seus dados serão armazenados nos EUA.