Pular para o conteúdo principal
HomePythonIntrodução aos LLMs em Python

Introdução aos LLMs em Python

Comece O Curso Gratuitamente
4 Horas16 Videos54 Exercicios
3.554 AprendizesTrophyDeclaração de Realização

Crie sua conta gratuita

GoogleLinkedInFacebook

ou

Ao continuar, você aceita nossos Termos de Uso, nossa Política de Privacidade e que seus dados são armazenados nos EUA.
GroupTreinar 2 ou mais pessoas?Experimente o DataCamp For Business

Amado por alunos de milhares de empresas


Descrição do Curso

Os modelos de linguagem ampla (LLMs) tornaram-se ferramentas essenciais que impulsionam alguns dos avanços e aplicativos mais impressionantes no cenário atual de IA. Este curso prático o equipará com o conhecimento prático e as habilidades necessárias para entender, criar e aproveitar o poder dos LLMs para resolver tarefas complexas de linguagem, como tradução, geração de linguagem, resposta a perguntas e muito mais. Por meio de exercícios de codificação iterativos, você aprenderá a trabalhar com transformadores, a arquitetura de aprendizagem profunda mais popular para a construção de LLMs e sistemas de PNL. Você também explorará modelos de linguagem pré-treinados e conjuntos de dados do Hugging Face: um vasto repositório de recursos para integrar perfeitamente os LLMs aos seus projetos. Ao final deste curso, você será capaz de criar LLMs usando várias arquiteturas de transformadores e configurar, ajustar e avaliar LLMs pré-treinados usando métricas especializadas. Você também obterá insights sobre conceitos avançados, como o Aprendizado por Reforço a partir do Feedback Humano (RLHF), e compreenderá os principais desafios e considerações éticas para viabilizar aplicativos LLM do mundo real.
Para Empresas

GroupTreinar 2 ou mais pessoas?

Obtenha acesso à biblioteca completa do DataCamp, com relatórios, atribuições, projetos e muito mais centralizados
Experimente O DataCamp for BusinessPara uma solução sob medida , agende uma demonstração.

Nas seguintes faixas

Desenvolvimento de modelos de idiomas grandes

Ir para a trilha
  1. 1

    O cenário dos modelos de linguagem grande (LLMs)

    Grátis

    Os Modelos de Linguagem Grande (LLMs) representam o auge atual da tecnologia de IA, impulsionando avanços notáveis no Processamento e Compreensão de Linguagem Natural. Este capítulo serve como porta de entrada para a compreensão dos LLMs: o que são, seus recursos extraordinários e a ampla gama de tarefas linguísticas em que se destacam. Você ganhará experiência prática no carregamento e aproveitamento de vários LLMs para tarefas de compreensão e geração de linguagem. Ao longo do caminho, você será apresentado ao catalisador de sucesso que está no centro da maioria dos LLMs: a arquitetura do transformador. Pronto para iniciar sua jornada no mundo dos LLMs?

    Reproduzir Capítulo Agora
    Introdução de modelos de linguagem grandes
    50 xp
    Classificação das avaliações de clientes de um restaurante
    100 xp
    Quebra-cabeça do rearranjo do pipeline
    100 xp
    Tarefas que os LLMs podem realizar
    50 xp
    Uso de um pipeline para compactação
    100 xp
    É hora de responder a algumas perguntas!
    100 xp
    A arquitetura do transformador
    50 xp
    Olá, transformador PyTorch
    100 xp
    Pipeline de tradução prático
    100 xp
    Geração de respostas a avaliações de clientes
    100 xp
  2. 2

    Construção de uma arquitetura de transformador

    Neste capítulo, você descobrirá os segredos e as complexidades práticas dos transformadores, a arquitetura de aprendizagem profunda mais popular usada para criar os modelos de linguagem mais bem-sucedidos da atualidade. Passo a passo, com a ajuda da biblioteca PyTorch, você aprenderá a projetar e configurar manualmente diferentes tipos de arquiteturas de transformadores. Você desenvolverá uma sólida compreensão de seus elementos principais, incluindo mecanismos de autoatenção, camadas de codificador e decodificador e cabeças de modelo especializadas projetadas para tarefas de linguagem e casos de uso específicos.

    Reproduzir Capítulo Agora
  3. 3

    Aproveitamento de LLMs pré-treinados

    Este capítulo revela o potencial transformador do aproveitamento de LLMs (Large Language Models) pré-treinados. Ao longo do capítulo, você descobrirá dicas e truques eficazes para dominar casos de uso de linguagem complexa e obterá insights práticos sobre o aproveitamento de LLMs pré-treinados e conjuntos de dados do Hugging Face. Ao longo do caminho, você aprenderá os prós e contras de vários problemas comuns de linguagem, incluindo classificação de sentimentos, resumo e resposta a perguntas, e explorará como os LLMs são treinados de forma adaptativa para resolvê-los.

    Reproduzir Capítulo Agora
  4. 4

    Avaliação e aproveitamento de LLMs no mundo real

    Nossa empolgante jornada de aprendizado de LLMs está chegando ao fim! Você se aprofundará em diferentes métricas e métodos para avaliar o desempenho do seu modelo, seja ele pré-treinado, uma versão ajustada ou algo que você tenha criado do zero! Você aprenderá sobre os aspectos e desafios cruciais da aplicação de modelos de linguagem em cenários do mundo real, incluindo a otimização de um modelo com feedback de seres humanos (RLHF), o enfrentamento de resultados de linguagem tendenciosos e muito mais.

    Reproduzir Capítulo Agora
Para Empresas

GroupTreinar 2 ou mais pessoas?

Obtenha acesso à biblioteca completa do DataCamp, com relatórios, atribuições, projetos e muito mais centralizados

Nas seguintes faixas

Desenvolvimento de modelos de idiomas grandes

Ir para a trilha

Colaboradores

Collaborator's avatar
James Chapman
Collaborator's avatar
Chris Harper
Collaborator's avatar
Jasmin Ludolf

Audio Gravado Por

Iván Palomares Carrascosa's avatar
Iván Palomares Carrascosa

Pre Requisitos

Deep Learning for Text with PyTorch
Iván Palomares Carrascosa HeadshotIván Palomares Carrascosa

Senior Data Science & AI Manager

Veja Mais

O que os outros alunos têm a dizer?

Cadastre-se mais 13 milhões de alunos e comece Introdução aos LLMs em Python Hoje!

Crie sua conta gratuita

GoogleLinkedInFacebook

ou

Ao continuar, você aceita nossos Termos de Uso, nossa Política de Privacidade e que seus dados são armazenados nos EUA.