Accéder au contenu principal
AccueilPython

Développer des applications LLM avec LangChain

Découvrez comment créer des applications alimentées par l'IA en utilisant des LLM, des invites, des chaînes et des agents dans LangChain.

Commencer Le Cours Gratuitement
3 heures10 vidéos33 exercices11 460 apprenantsTrophyDéclaration de réalisation

Créez votre compte gratuit

GoogleLinkedInFacebook

ou

En continuant, vous acceptez nos Conditions d'utilisation, notre Politique de confidentialité et le fait que vos données sont stockées aux États-Unis.
Group

Formation de 2 personnes ou plus ?

Essayer DataCamp for Business

Apprécié par les apprenants de milliers d'entreprises


Description du cours

Les bases du développement de l'écosystème LangChain

Augmentez votre boîte à outils LLM avec l'écosystème de LangChain, permettant une intégration transparente avec les modèles OpenAI et Hugging Face. Découvrez un framework open-source qui optimise les applications du monde réel et vous permet de créer des systèmes de recherche d'information sophistiqués et uniques en leur genre.

Méthodologies de création de chatbot à l'aide de LangChain

Utilisez les outils LangChain pour développer des chatbots, en comparant les nuances entre les modèles open-source de HuggingFace et les modèles fermés d'OpenAI. Utilisez des modèles d'invite pour des conversations complexes, en jetant les bases d'un développement avancé du chatbot.

Traitement des données et génération d'augmentation de la recherche (RAG) à l'aide de LangChain

Maîtrisez la tokenisation et les bases de données vectorielles pour optimiser la récupération des données, en enrichissant les interactions du chatbot d'une multitude d'informations externes. Utilisez les fonctions de mémoire de RAG pour optimiser divers cas d'utilisation.

Intégrations avancées de chaînes, d'outils et d'agents

Utilisez la puissance des chaînes, des outils, des agents, des API et de la prise de décision intelligente pour gérer les cas d'utilisation de bout en bout et le traitement avancé des sorties LLM.

Débogage et mesures de performance

Enfin, devenez compétent en matière de débogage, d'optimisation et d'évaluation des performances, en veillant à ce que vos chatbots soient développés pour gérer les erreurs. Ajoutez des couches de transparence pour résoudre les problèmes.
Pour les entreprises

Formation de 2 personnes ou plus ?

Donnez à votre équipe l’accès à la plateforme DataCamp complète, y compris toutes les fonctionnalités.
DataCamp Pour Les EntreprisesPour une solution sur mesure , réservez une démo.

Dans les titres suivants

Ingénieur IA associé pour les développeurs

Aller à la piste

Développer des applications d'IA

Aller à la piste
  1. 1

    Introduction à LangChain et à la mécanique des chatbots

    Gratuit

    Bienvenue dans le cadre LangChain pour la création d'applications sur LLMs ! Vous découvrirez les principaux composants de LangChain, notamment les modèles, les chaînes, les agents, les invites et les analyseurs. Vous créerez des chatbots en utilisant à la fois des modèles open-source de Hugging Face et des modèles propriétaires d'OpenAI, créerez des modèles d'invite et intégrerez différentes stratégies de mémoire de chatbot pour gérer le contexte et les ressources pendant les conversations.

    Jouez Au Chapitre Maintenant
    L'écosystème LangChain
    50 xp
    Les modèles Hugging Face dans LangChain !
    100 xp
    Modèles OpenAI dans LangChain !
    100 xp
    Stratégies d'incitation pour les chatbots
    50 xp
    Modèles d'invites et enchaînement
    100 xp
    Modèles d'invites de chat
    100 xp
    Gestion de la mémoire du modèle de chat
    50 xp
    Intégrer l'historique des messages d'un chatbot
    100 xp
    Création d'une mémoire tampon
    100 xp
    Mise en place d'une mémoire de synthèse
    100 xp
  2. 2

    Chaînes et agents

    Il est temps d'améliorer vos chaînes LangChain ! Vous apprendrez à utiliser le LangChain Expression Language (LCEL) pour définir des chaînes avec une plus grande flexibilité. Vous créerez des chaînes séquentielles, où les entrées sont transmises entre les composants pour créer des applications plus avancées. Vous commencerez également à intégrer des agents, qui utilisent LLMs pour prendre des décisions.

    Jouez Au Chapitre Maintenant
  3. 3

    Retrieval Augmented Generation (RAG)

    L'une des limites de LLMs est qu'ils ont un seuil de connaissance en raison du fait qu'ils ont été formés sur des données jusqu'à un certain point. Dans ce chapitre, vous apprendrez à créer des applications qui utilisent Retrieval Augmented Generation (RAG) pour intégrer des données externes dans les applications LLM. Le flux de travail du site RAG comprend plusieurs processus différents, notamment la division des données, la création et le stockage des enchâssements à l'aide d'une base de données vectorielle et l'extraction des informations les plus pertinentes pour l'utilisation dans l'application. Vous apprendrez à maîtriser l'ensemble du flux de travail !

    Jouez Au Chapitre Maintenant
Pour les entreprises

Formation de 2 personnes ou plus ?

Donnez à votre équipe l’accès à la plateforme DataCamp complète, y compris toutes les fonctionnalités.

Dans les titres suivants

Ingénieur IA associé pour les développeurs

Aller à la piste

Développer des applications d'IA

Aller à la piste

collaborateurs

Collaborator's avatar
James Chapman

audio enregistré par

Jonathan Bennion's avatar
Jonathan Bennion

prérequis

Introduction to Embeddings with the OpenAI APIChatGPT Prompt Engineering for Developers
Jonathan Bennion HeadshotJonathan Bennion

AI Engineer & LangChain Contributor

Voir Plus

Qu’est-ce que les autres apprenants ont à dire ?

Inscrivez-vous 15 millions d’apprenants et commencer Développer des applications LLM avec LangChain Aujourd’hui!

Créez votre compte gratuit

GoogleLinkedInFacebook

ou

En continuant, vous acceptez nos Conditions d'utilisation, notre Politique de confidentialité et le fait que vos données sont stockées aux États-Unis.