Course
12 projetos de LLM para todos os níveis
Aprender por meio da criação de projetos é a melhor maneira de aprofundar sua compreensão e suas habilidades práticas no campo de modelos de linguagem grande (LLMs) e IA. Ao trabalhar em projetos, você obterá conhecimento de novas ferramentas, técnicas e modelos que podem otimizar seus aplicativos e permitir que você crie aplicativos de IA altamente precisos e rápidos.
A solução de problemas desses projetos proporcionará uma experiência valiosa, aumentará suas chances de conseguir o emprego dos seus sonhos e permitirá que você obtenha renda adicional monetizando seus projetos e criando um produto comercializável.
Imagem do autor
Neste blog, exploraremos os projetos de LLM criados para iniciantes, intermediários, alunos do último ano e especialistas. Cada projeto inclui um guia e material de origem para você estudar e replicar os resultados.
Se você for novato em LLMs, preencha o formulário Fundamentos de IA antes de você começar a participar do projeto mencionado abaixo. Isso ajudará você a obter conhecimento prático sobre tópicos populares de IA, como ChatGPT, modelos de linguagem grandes, IA generativa e muito mais.
Projetos de LLMs para iniciantes
Nos projetos para iniciantes, você aprenderá a usar a API OpenAI para ajustar modelos, gerar respostas, criar assistentes de IA com recursos multimodais e atender aos endpoints de API do seu aplicativo usando a FastAPI.
Pré-requisitos: É necessário que você tenha conhecimento de Python.
1. Ajuste fino dos modelos da OpenAI
Link do projeto: Ajuste fino do GPT-4 da OpenAI
O ajuste fino do GPT-4 em um conjunto de dados personalizado tornou-se bastante fácil. Você não precisa de GPUs caras, instalar software ou escrever código Python. A única coisa que você precisa fazer é carregar o conjunto de dados e executar a API OpenAI de ajuste fino. Simples.
Após a conclusão do ajuste fino, você pode usar esse modelo em seu aplicativo de IA, de forma semelhante a qualquer outro modelo que use a API OpenAI.
Neste projeto, você aprenderá sobre a API OpenAI e como modificar e carregar o conjunto de dados. No final, você pode acessar o modelo ajustado e gerar a resposta personalizada.
Fonte: Ajuste fino do GPT-4 da OpenAI
2. Criando um assistente de IA para ciência de dados com recursos multimodais
Link do projeto: Criando assistentes de IA com o GPT-4o
Neste projeto, você criará seu próprio assistente de IA semelhante ao ChatGPT. Você aprenderá a usar a API OpenAI e o GPT-4o para criar um assistente de IA especializado e adaptado para tarefas de ciência de dados. Isso inclui o fornecimento de instruções personalizadas, o manuseio de arquivos e dados e o uso de recursos multimodais.
A parte divertida é que todo o projeto exige apenas que você entenda várias funções da API Python da OpenAI. Com algumas linhas de código, você pode criar sua própria IA automatizada que processará os dados para você e apresentará a análise.
Fonte: Criando assistentes de IA com o GPT-4o
3. Servindo um aplicativo LLM como um ponto de extremidade de API usando FastAPI
Link do projeto: Servindo um aplicativo LLM como um endpoint de API usando FastAPI em Python
Qual é a próxima etapa depois de criar seu aplicativo usando a API OpenAI? Você o servirá e implantará em um servidor. Isso significa criar um aplicativo de API REST que qualquer pessoa possa usar para integrar seu aplicativo de IA aos sistemas dela.
Neste projeto, você aprenderá sobre a FastAPI e como criar e atender a aplicativos de IA. Você também aprenderá como a API funciona e como testá-la localmente.
Fonte: Servindo um aplicativo LLM como um endpoint de API usando FastAPI em Python
Projetos de LLMs intermediários
Nos projetos intermediários de LLM, você aprenderá a integrar várias APIs de LLM, como Groq, OpenAI e Cohere, com estruturas como LlamaIndex e LangChain. Você aprenderá a criar aplicativos com reconhecimento de contexto e a conectar várias fontes externas para gerar respostas altamente relevantes e precisas.
Pré-requisitos: Você deve ter experiência com Python e entender como os agentes de IA funcionam.
4. Criação de um aplicativo ChatPDF com reconhecimento de contexto
Link do projeto: Tutorial do mecanismo de inferência LPU do Groq
A API do Groq é semelhante à API da OpenAI, mas oferece uma velocidade de quase 500 tokens por segundo, em comparação com os 45 tokens por segundo da OpenAI, fornecendo respostas em tempo real.
Neste projeto, você aprenderá sobre a API Groq Python e como usá-la para criar aplicativos de IA. Você explorará conceitos como armazenamento de vetores, indexação, embeddings, LLMs, mecanismos de bate-papo e buffers de memória.
Ao usar esses componentes, você criará um aplicativo RAG (Retrieval-Augmented Generation) com reconhecimento de contexto que pode gerar respostas relevantes usando arquivos PDF.
Fonte: Tutorial do mecanismo de inferência LPU do Groq
5. Criando um mecanismo de consulta SQL do DuckDB usando um LLM
Link do projeto: Tutorial do DuckDB: Criação de projetos de IA
O DuckDB é um sistema de gerenciamento de banco de dados analítico (DBMS) moderno, de alto desempenho e na memória, que pode ser usado como um armazenamento de vetores e um mecanismo de consulta SQL.
Neste projeto, você aprenderá sobre a estrutura LlamaIndex para criar um aplicativo RAG usando o DuckDB como um armazenamento de vetores. Além disso, você criará um mecanismo de consulta SQL do DuckDB que converte a linguagem natural em consultas SQL e gera respostas que podem ser usadas como contexto para o prompt. É um projeto divertido, e você aprenderá sobre muitas funções e agentes do LlamaIndex.
Fonte: Tutorial do DuckDB: Criação de projetos de IA
Projetos de LLM para alunos do último ano
Os alunos do último ano têm a oportunidade de criar aplicativos adequados para o LLM. Portanto, a maioria dos projetos mencionados nesta seção exige conhecimento sobre ajuste fino, arquiteturas LLM, aplicativos multimodais, agentes de IA e, por fim, a implantação do aplicativo em um servidor.
Pré-requisitos: Você tem um bom conhecimento da linguagem Python, LLMs, agentes de IA e ajuste fino de modelos.
6. Criando aplicativos de IA multimodal com LangChain e a API OpenAI
Link do projeto: Criando aplicativos de IA multimodal com LangChain e a API OpenAI
A IA generativa facilita ir além do simples trabalho com texto. Agora podemos combinar o poder dos modelos de IA de texto e áudio para criar um bot que responda a perguntas sobre vídeos do YouTube.
Neste projeto, você aprenderá a transcrever o conteúdo de vídeo do YouTube com a IA de fala para texto Whisper e, em seguida, usará o GPT para fazer perguntas sobre o conteúdo. Você também aprenderá sobre o LangChain e várias funções do OpenAI.
O projeto inclui um guia em vídeo e sessões de código para você acompanhar e criar o aplicativo com o instrutor.
Pegue o Desenvolvendo aplicativos LLM com LangChain para saber mais sobre seus recursos por meio de exercícios interativos, slides, testes, tutoriais em vídeo e perguntas de avaliação.
Fonte: Criando aplicativos de IA multimodal com LangChain e a API OpenAI
7. Ajustando o Llama 3 e usando-o localmente
Link do projeto: Ajuste fino do Llama 3 e seu uso local: Um guia passo a passo
É fácil fazer o ajuste fino usando a API da OpenAI, mas ela tem limitações. Ele só pode fazer o ajuste fino do modelo da OpenAI, e você está sacrificando a privacidade e também pagando mais do que se fizesse o ajuste fino em sua própria máquina. Em última análise, tudo se resume a custo e segurança.
Neste projeto, você aprenderá a usar a estrutura Transformers para ajustar o modelo Llama 3 nas conversas entre pacientes e médicos. Além disso, você aprenderá a mesclar o modelo básico com o adaptador ajustado, convertê-lo no formato GGUF, quantizá-lo e usá-lo localmente com um aplicativo Jan.
Ao concluir este projeto, você obterá conhecimento sobre LLMs, ajuste fino, quantização e vários métodos para otimizar o uso da memória e da computação.
Fonte: Ajustando o Llama 3 e usando-o localmente
8. Crie um agente de IA em várias etapas usando a API LangChain e Cohere
Link do projeto: Comando Cohere R+: Um tutorial passo a passo completo
A API Cohere é semelhante à API OpenAI e oferece muitos recursos em comparação com outras estruturas LLM. Neste projeto, você aprenderá os principais recursos da API Cohere e os usará para criar um agente de IA em várias etapas.
Você também dominará a estrutura LangChain e o encadeamento de vários agentes de IA.
No final, você criará um aplicativo de IA que receberá a consulta do usuário para pesquisar na Web e gerar código Python. Em seguida, ele usará o Python REPL para executar o código e retornar a visualização solicitada pelo usuário.
Fonte: Comando Cohere R+: Um tutorial passo a passo completo
9. Implementação de aplicativos LLM com o LangServe
Link do projeto: Implementação de aplicativos LLM com o LangServe
Neste projeto, você aprenderá a implantar aplicativos LLM usando o LangServe. Você começará configurando o LangServe, criando um servidor usando o FastAPI, testando o servidor localmente e, em seguida, implantando o aplicativo. Você também aprenderá a monitorar o desempenho do LLM usando a estrutura do Prometheus e, em seguida, usará o Grafana para visualizar o desempenho do modelo no painel.
Há muito o que aprender, e isso ajudará você a conseguir um emprego na área de LLMOps, cuja demanda está crescendo.
Fonte: Implementação de aplicativos LLM com o LangServe
Projetos de LLMs avançados
Os projetos avançados de LLM foram desenvolvidos para especialistas que desejam criar aplicativos prontos para produção e aprimorar aplicativos de LLM já implantados. Ao trabalhar nesses projetos, você aprenderá a fazer inferências e ajustes finos em TPUs em vez de GPUs para obter um desempenho mais rápido, automatizar a geração de taxonomia e a classificação de texto e criar aplicativos de IA na nuvem do Microsoft Azure.
Pré-requisitos: Você tem um bom conhecimento de Python, LLMs, ajuste fino de modelos, TPUs e computação em nuvem.
10. Ajuste fino e execução de inferência no modelo Gemma do Google usando TPUs
Link do projeto: Ajuste fino e execução de inferência no modelo Gemma do Google com TPU
O ajuste fino e a execução da inferência do modelo nas TPUs vêm com seu próprio conjunto de problemas e limitações, mas, em troca, você obtém 4x a velocidade em comparação com uma configuração de várias GPUs.
Neste projeto, você aprenderá sobre CPUs, GPUs e TPUs e como pode usar TPUs para gerar respostas mais rápidas e ajustar modelos em um quarto do tempo. Você também aprenderá sobre o ajuste fino distribuído e a inferência de modelos com TPUs, obtidos por meio do paralelismo de modelos, que distribui os pesos de um único modelo em vários dispositivos, permitindo o dimensionamento horizontal e acelerando o treinamento.
Fonte: Ajuste fino e execução de inferência no modelo Gemma do Google com TPU
11. Criar um aplicativo TNT-LLM
Link do projeto: Tutorial GPT-4o e LangGraph: Criar um aplicativo TNT-LLM
O TNT-LLM da Microsoft é um sistema de ponta projetado para automatizar a geração de taxonomia e a classificação de texto, aproveitando o poder dos modelos de linguagem grandes (LLMs), como o GPT-4, para aumentar a eficiência e a precisão com o mínimo de intervenção humana. Neste projeto, você implementará o TNT-LLM usando LangGraph, LangChain e a API OpenAI.
Você definirá a classe de estado do gráfico, carregará conjuntos de dados, resumirá documentos, criará minibatches, gerará e atualizará a taxonomia, revisará, orquestrará o pipeline TNT-LLM com o StateGraph e, por fim, agrupará e exibirá a taxonomia.
Fonte: Tutorial GPT-4o e LangGraph
12. Criando um aplicativo de IA usando a nuvem do Azure
Link do projeto: Usando GPT no Azure
Adquirir experiência em computação em nuvem é uma habilidade crucial que fará com que você consiga uma posição em qualquer campo relacionado ao LLM. Ao dominar a capacidade de criar, automatizar, implantar e manter um pipeline de LLM na nuvem do Azure, você receberá o título de especialista em LLMs.
Neste projeto, você aprenderá a configurar uma instância paga do OpenAI e a criar aplicativos simples que demonstrem o poder dos LLMs e da IA generativa com seus dados. Você também usará um armazenamento de vetores para criar um aplicativo RAG e reduzirá a alucinação no aplicativo de IA.
Fonte: Usando GPT no Azure
Considerações finais
Trabalhar nos projetos mencionados acima fornecerá a você experiência suficiente para criar seu próprio produto ou até mesmo garantir um emprego na área de LLM. A chave para o sucesso não é apenas a codificação ou o ajuste fino, mas a documentação e o compartilhamento do seu trabalho nas mídias sociais para atrair a atenção. Certifique-se de que seu projeto seja bem explicado e fácil de usar, incluindo uma demonstração ou um guia de usabilidade na documentação.
Neste blog, analisamos 12 projetos de LLM que podem ajudar você a conseguir o emprego dos seus sonhos como cientista de LLM. Se você estiver interessado em saber mais sobre LLMs, recomendamos que explore a página Desenvolvimento de modelos de idiomas grandes programa de habilidades. Você aprenderá as técnicas mais recentes para desenvolver modelos de linguagem de ponta, dominando a aprendizagem profunda com o PyTorch, criando seu próprio modelo de transformador a partir do zero e ajustando LLMs pré-treinados do Hugging Face.
Principais cursos da DataCamp
Track
AI Fundamentals
Course
Large Language Models for Business
blog
25 projetos de aprendizado de máquina para todos os níveis
blog
8 principais LLMs de código aberto para 2024 e seus usos
blog
Avaliação do LLM: Métricas, metodologias, práticas recomendadas
Stanislav Karzhev
9 min
tutorial
Como criar aplicativos LLM com o tutorial LangChain
tutorial