Course
Guia do Llama 3.2: Como funciona, casos de uso e muito mais
A Meta lança o Llama 3.2, que apresenta LLMs de visão de pequeno e médio porte (11B e 90B) juntamente com modelos leves somente de texto (1B e 3B). Ele também apresenta a distribuição Llama Stack.
Actualizado 26 de set. de 2024 · 8 min leer
Demonstração de compreensão de imagem (Fonte: Meta AI)
Demonstração de resumo (Fonte: Meta AI)
Reescrevendo a demonstração (Fonte: Meta AI)
O que é a Llama 3.2 e qual é a diferença em relação à Llama 3.1?
Como os modelos de visão Llama 3.2 se comparam ao GPT-4o-mini e ao Claude 3 Haiku?
O Llama 3.2 é de código aberto?
O que é o Llama Stack e por que ele é importante para os desenvolvedores?
Quais são os requisitos de hardware para executar os modelos Llama 3.2?
Aprenda IA com estes cursos!
Certificação disponível
4 hr
1.3K
Track
Fundamentos de IA
10 horas hr
Certificação disponível
Course
Entendendo a Lei de IA da UE
1 hr
953
Ver mais
RelacionadoSee MoreSee More
blog
O que é o Mistral Large 2? Como funciona, casos de uso e muito mais
O Mistral Large 2 é o modelo de idioma mais recente da Mistral AI, competindo com modelos como GPT-4o, Llama 3.1 e Claude 3 Opus.
Ryan Ong
8 min
blog
Introdução ao LLaMA da Meta AI
O LLaMA, uma estrutura revolucionária de código aberto, tem como objetivo tornar mais acessível a pesquisa de modelos de linguagem de grande porte.
Abid Ali Awan
8 min
tutorial
Llama.cpp Tutorial: Um guia completo para inferência e implementação eficientes de LLM
Este guia abrangente sobre o Llama.cpp o guiará pelos fundamentos da configuração do seu ambiente de desenvolvimento, compreendendo suas principais funcionalidades e aproveitando seus recursos para resolver casos de uso reais.
Zoumana Keita
11 min
tutorial
Guia de Introdução ao Ajuste Fino de LLMs
O ajuste fino dos grandes modelos de linguagem (LLMs, Large Language Models) revolucionou o processamento de linguagem natural (PLN), oferecendo recursos sem precedentes em tarefas como tradução de idiomas, análise de sentimentos e geração de textos. Essa abordagem transformadora aproveita modelos pré-treinados como o GPT-2, aprimorando seu desempenho em domínios específicos pelo processo de ajuste fino.
Josep Ferrer
12 min
tutorial
RAG With Llama 3.1 8B, Ollama e Langchain: Tutorial
Aprenda a criar um aplicativo RAG com o Llama 3.1 8B usando Ollama e Langchain, configurando o ambiente, processando documentos, criando embeddings e integrando um retriever.
Ryan Ong
12 min
tutorial
Guia para iniciantes do LlaMA-Factory WebUI: Ajuste fino dos LLMs
Saiba como fazer o ajuste fino dos LLMs em conjuntos de dados personalizados, avaliar o desempenho e exportar e servir modelos com facilidade usando a estrutura com pouco ou nenhum código do LLaMA-Factory.
Abid Ali Awan
12 min