Crie sua conta gratuita
ou
Ao continuar, você aceita nossos Termos de Uso, nossa Política de Privacidade e que seus dados são armazenados nos EUA.Treinar 2 ou mais pessoas?Experimente o DataCamp For Business
Amado por alunos de milhares de empresas
Descrição do Curso
Os modelos de linguagem ampla (LLMs) tornaram-se ferramentas essenciais que impulsionam alguns dos avanços e aplicativos mais impressionantes no cenário atual de IA. Este curso prático o equipará com o conhecimento prático e as habilidades necessárias para entender, criar e aproveitar o poder dos LLMs para resolver tarefas complexas de linguagem, como tradução, geração de linguagem, resposta a perguntas e muito mais. Por meio de exercícios de codificação iterativos, você aprenderá a trabalhar com transformadores, a arquitetura de aprendizagem profunda mais popular para a construção de LLMs e sistemas de PNL. Você também explorará modelos de linguagem pré-treinados e conjuntos de dados do Hugging Face: um vasto repositório de recursos para integrar perfeitamente os LLMs aos seus projetos. Ao final deste curso, você será capaz de criar LLMs usando várias arquiteturas de transformadores e configurar, ajustar e avaliar LLMs pré-treinados usando métricas especializadas. Você também obterá insights sobre conceitos avançados, como o Aprendizado por Reforço a partir do Feedback Humano (RLHF), e compreenderá os principais desafios e considerações éticas para viabilizar aplicativos LLM do mundo real.
Para Empresas
Treinar 2 ou mais pessoas?
Obtenha acesso à biblioteca completa do DataCamp, com relatórios, atribuições, projetos e muito mais centralizadosNas seguintes faixas
Desenvolvimento de modelos de idiomas grandes
Ir para a trilha- 1
O cenário dos modelos de linguagem grande (LLMs)
GrátisOs Modelos de Linguagem Grande (LLMs) representam o auge atual da tecnologia de IA, impulsionando avanços notáveis no Processamento e Compreensão de Linguagem Natural. Este capítulo serve como porta de entrada para a compreensão dos LLMs: o que são, seus recursos extraordinários e a ampla gama de tarefas linguísticas em que se destacam. Você ganhará experiência prática no carregamento e aproveitamento de vários LLMs para tarefas de compreensão e geração de linguagem. Ao longo do caminho, você será apresentado ao catalisador de sucesso que está no centro da maioria dos LLMs: a arquitetura do transformador. Pronto para iniciar sua jornada no mundo dos LLMs?
Introdução de modelos de linguagem grandes50 xpClassificação das avaliações de clientes de um restaurante100 xpQuebra-cabeça do rearranjo do pipeline100 xpTarefas que os LLMs podem realizar50 xpUso de um pipeline para compactação100 xpÉ hora de responder a algumas perguntas!100 xpA arquitetura do transformador50 xpOlá, transformador PyTorch100 xpPipeline de tradução prático100 xpGeração de respostas a avaliações de clientes100 xp - 2
Construção de uma arquitetura de transformador
Neste capítulo, você descobrirá os segredos e as complexidades práticas dos transformadores, a arquitetura de aprendizagem profunda mais popular usada para criar os modelos de linguagem mais bem-sucedidos da atualidade. Passo a passo, com a ajuda da biblioteca PyTorch, você aprenderá a projetar e configurar manualmente diferentes tipos de arquiteturas de transformadores. Você desenvolverá uma sólida compreensão de seus elementos principais, incluindo mecanismos de autoatenção, camadas de codificador e decodificador e cabeças de modelo especializadas projetadas para tarefas de linguagem e casos de uso específicos.
Mecanismos de atenção e codificação posicional50 xpCodificação posicional prática100 xpImplementação da autoatenção com várias cabeças100 xpConstrução de um transformador de codificador50 xpCamada de feed-forward pós-atenção100 xpÉ hora de uma camada de codificador100 xpCorpo e cabeçote do transformador do codificador100 xpTeste do transformador do codificador100 xpConstrução de um transformador de decodificador50 xpConstrução de um corpo e cabeça de decodificador100 xpTeste do transformador do decodificador100 xpConstrução de um transformador codificador-decodificador50 xpIncorporação da atenção cruzada em um decodificador100 xpTeste de um transformador codificador-decodificador100 xpMontagem do transformador de baixo para cima100 xp - 3
Aproveitamento de LLMs pré-treinados
Este capítulo revela o potencial transformador do aproveitamento de LLMs (Large Language Models) pré-treinados. Ao longo do capítulo, você descobrirá dicas e truques eficazes para dominar casos de uso de linguagem complexa e obterá insights práticos sobre o aproveitamento de LLMs pré-treinados e conjuntos de dados do Hugging Face. Ao longo do caminho, você aprenderá os prós e contras de vários problemas comuns de linguagem, incluindo classificação de sentimentos, resumo e resposta a perguntas, e explorará como os LLMs são treinados de forma adaptativa para resolvê-los.
LLMs para classificação e geração de textos50 xpPipelines versus classes automáticas50 xpClassificação de duas opiniões sobre filmes100 xpArrumando um caso de uso de geração de texto100 xpLLMs para resumo e tradução de textos50 xpResumir a opinião de um produto100 xpA missão do livro de frases em espanhol100 xpLLMs para responder a perguntas50 xpCarregar e inspecionar um conjunto de dados de controle de qualidade100 xpExtrair e decodificar a resposta100 xpAjuste fino do LLM e aprendizagem por transferência50 xpPreparações de ajuste fino100 xpO LLM de dentro para fora100 xpCasos de uso e arquiteturas de LLM correspondentes100 xp - 4
Avaliação e aproveitamento de LLMs no mundo real
Nossa empolgante jornada de aprendizado de LLMs está chegando ao fim! Você se aprofundará em diferentes métricas e métodos para avaliar o desempenho do seu modelo, seja ele pré-treinado, uma versão ajustada ou algo que você tenha criado do zero! Você aprenderá sobre os aspectos e desafios cruciais da aplicação de modelos de linguagem em cenários do mundo real, incluindo a otimização de um modelo com feedback de seres humanos (RLHF), o enfrentamento de resultados de linguagem tendenciosos e muito mais.
Diretrizes e métricas padrão para avaliação de LLMs50 xpCálculo da precisão100 xpAlém da precisão: descrevendo métricas100 xpAlém da precisão: usando métricas100 xpMétricas especializadas para tarefas de linguagem50 xpPerplexo com relação a 2030100 xpUm banquete de métricas do LLM100 xpTraduções à prova de BLEU100 xpAjuste fino do modelo usando feedback humano50 xpA função de um modelo de recompensa50 xpConfiguração de um loop RLHF100 xpDesafios e considerações éticas50 xpAvaliações tóxicas de funcionários?100 xpMelhor "consideração"!100 xpA linha de chegada50 xp
Para Empresas
Treinar 2 ou mais pessoas?
Obtenha acesso à biblioteca completa do DataCamp, com relatórios, atribuições, projetos e muito mais centralizadosNas seguintes faixas
Desenvolvimento de modelos de idiomas grandes
Ir para a trilhaColaboradores
Audio Gravado Por
Pre Requisitos
Deep Learning for Text with PyTorchIván Palomares Carrascosa
Veja MaisSenior Data Science & AI Manager
O que os outros alunos têm a dizer?
Cadastre-se mais 13 milhões de alunos e comece Introdução aos LLMs em Python Hoje!
Crie sua conta gratuita
ou
Ao continuar, você aceita nossos Termos de Uso, nossa Política de Privacidade e que seus dados são armazenados nos EUA.