Accéder au contenu principal

12 projets LLM pour tous les niveaux

Découvrez 12 idées de projets LLM avec des guides visuels faciles à suivre et des codes sources, adaptés aux débutants, aux étudiants intermédiaires, aux étudiants de dernière année et aux experts.
Actualisé 26 nov. 2024  · 12 min de lecture

L'apprentissage par le biais de projets de construction est le meilleur moyen d'approfondir votre compréhension et vos compétences pratiques dans le domaine des grands modèles de langage (LLM) et de l'IA. En travaillant sur des projets, vous acquerrez des connaissances sur de nouveaux outils, techniques et modèles qui peuvent optimiser vos applications et vous permettre de créer des applications d'IA très précises et rapides. 

Le dépannage de ces projets vous apportera une expérience précieuse, augmentera vos chances de décrocher l'emploi de vos rêves et vous permettra de gagner un revenu supplémentaire en monétisant vos projets et en créant un produit commercialisable.

Image par l'auteur

Dans ce blog, nous explorerons les projets LLM conçus pour les débutants, les intermédiaires, les étudiants de dernière année et les experts. Chaque projet comprend un guide et du matériel de base pour étudier et reproduire les résultats. 

Si vous êtes un nouveau venu dans le domaine des MLD, veuillez compléter le formulaire suivant Principes fondamentaux de l'IA avant de vous lancer dans le projet mentionné ci-dessous. Vous pourrez ainsi acquérir des connaissances exploitables sur des sujets d'IA populaires tels que le ChatGPT, les grands modèles de langage, l'IA générative, et bien plus encore.

Vous souhaitez vous lancer dans l'IA générative ?

Apprenez à travailler avec des LLM en Python directement dans votre navigateur

Commencez Maintenant

Projets LLM pour les débutants 

Dans les projets pour débutants, vous apprendrez à utiliser l'API OpenAI pour affiner les modèles, générer des réponses, construire des assistants d'IA avec des capacités multimodales et servir les points d'extrémité API de votre application à l'aide de FastAPI.

Prérequis : Une compréhension de Python est nécessaire. 

1. Affiner les modèles d'OpenAI

Lien vers le projet : Le perfectionnement du GPT-4 d'OpenAI

Le réglage fin de GPT-4 sur un ensemble de données personnalisé est devenu très facile. Vous n'avez pas besoin de GPU coûteux, d'installer un logiciel ou d'écrire du code Python. La seule chose que vous devez faire est de télécharger l'ensemble de données et d'exécuter l'API OpenAI de réglage fin. Simple. 

Une fois la mise au point terminée, vous pouvez utiliser ce modèle dans votre application d'IA, comme n'importe quel autre modèle utilisant l'API OpenAI. 

Dans ce projet, vous apprendrez à connaître l'API OpenAI et à modifier et télécharger l'ensemble de données. Au final, vous pouvez accéder au modèle affiné et générer une réponse personnalisée.

Rapport d'évaluation du modèle turbo GPT-3.5 de l'OpenAI.

Source : Le perfectionnement du GPT-4 d'OpenAI

2. Construire un assistant IA pour la science des données avec des capacités multimodales

Lien vers le projet : Créer des assistants IA avec GPT-4o

Dans ce projet, vous allez créer votre propre assistant IA similaire au ChatGPT. Vous apprendrez à utiliser l'API OpenAI et GPT-4o pour créer un assistant d'IA spécialisé dans les tâches de science des données. Il s'agit notamment de fournir des instructions personnalisées, de traiter des fichiers et des données et d'utiliser des capacités multimodales. 

Ce qui est amusant, c'est que l'ensemble du projet ne nécessite que la compréhension de diverses fonctions de l'API Python d'OpenAI. Avec quelques lignes de code, vous pouvez créer votre propre IA automatisée qui traitera les données pour vous et vous présentera l'analyse. 

Création d'assistants IA avec GPT-4o Code Along screenshot

Source : Créer des assistants IA avec GPT-4o

3. Servir une application LLM en tant que point d'extrémité d'API à l'aide de FastAPI

Lien vers le projet : Servir une application LLM en tant que point d'extrémité d'API en utilisant FastAPI en Python

Quelle est l'étape suivante après la création de votre application à l'aide de l'API OpenAI ? Vous allez le servir et le déployer sur un serveur. Il s'agit de créer une application API REST que tout le monde peut utiliser pour intégrer votre application d'IA dans leurs systèmes. 

Dans ce projet, vous découvrirez FastAPI et apprendrez à créer et à utiliser des applications d'intelligence artificielle. Vous apprendrez également comment fonctionne l'API et comment la tester localement. 

Serveur web FastAPI

Source : Servir une application LLM en tant que point d'extrémité d'API en utilisant FastAPI en Python

Projets LLM intermédiaires

Dans les projets LLM intermédiaires, vous apprendrez à intégrer diverses API LLM comme Groq, OpenAI et Cohere avec des frameworks tels que LlamaIndex et LangChain. Vous apprendrez à créer des applications tenant compte du contexte et à connecter de multiples sources externes pour générer des réponses très pertinentes et précises.

Prérequis : Expérience avec Python et compréhension du fonctionnement des agents d'intelligence artificielle. 

4. Création d'une application ChatPDF adaptée au contexte

Lien vers le projet : Tutoriel sur le moteur d'inférence Groq LPU

L'API Groq est similaire à l'API OpenAI mais offre une vitesse de près de 500 jetons par seconde, contre 45 jetons par seconde pour OpenAI, ce qui permet d'obtenir des réponses en temps réel. 

Dans ce projet, vous découvrirez l'API Groq Python et apprendrez à l'utiliser pour créer des applications d'IA. Vous explorerez des concepts tels que les entrepôts vectoriels, l'indexation, l'intégration, les LLM, les moteurs de discussion et les tampons de mémoire. 

En utilisant ces composants, vous construirez une application RAG (Retrieval-Augmented Generation) contextuelle qui peut générer des réponses pertinentes à partir de fichiers PDF.

Code de l'application ChatPDF contextuelle avec la sortie

Source : Tutoriel sur le moteur d'inférence Groq LPU

5. Construction d'un moteur de requête SQL DuckDB à l'aide d'un LLM

Lien vers le projet : Tutoriel DuckDB : Construire des projets d'IA

DuckDB est un système de gestion de base de données analytique (SGBD) moderne, très performant et en mémoire, qui peut être utilisé comme magasin de vecteurs et comme moteur de requête SQL. 

Dans ce projet, vous apprendrez à utiliser le cadre LlamaIndex pour construire une application RAG utilisant DuckDB comme magasin de vecteurs. En outre, vous construirez un moteur de requête SQL DuckDB qui convertit le langage naturel en requêtes SQL et génère des réponses qui peuvent être utilisées comme contexte pour l'invite. C'est un projet amusant, et vous apprendrez beaucoup de fonctions et d'agents de LlamaIndex. 

Code du moteur de requête SQL de DuckDB avec le résultat

Source : Tutoriel DuckDB : Construire des projets d'IA

Projets de LLM pour les étudiants en dernière année

Les étudiants de dernière année ont la possibilité de constituer des dossiers de candidature pour le LLM. Par conséquent, la plupart des projets mentionnés dans cette section nécessitent des connaissances sur le réglage fin, les architectures LLM, les applications multimodales, les agents d'intelligence artificielle et, enfin, le déploiement de l'application sur un serveur.

Prérequis : Bonne compréhension du langage Python, des LLM, des agents d'IA et de la mise au point des modèles.

6. Construire des applications d'IA multimodales avec LangChain et l'API OpenAI

Lien vers le projet : Construire des applications d'IA multimodales avec LangChain et l'API OpenAI

L'IA générative permet d'aller au-delà du simple travail sur le texte. Nous pouvons désormais combiner la puissance des modèles d'IA textuelle et audio pour créer un robot qui répond aux questions sur les vidéos YouTube. 

Dans ce projet, vous apprendrez à transcrire le contenu d'une vidéo YouTube à l'aide de l'IA Whisper, puis à utiliser GPT pour poser des questions sur le contenu. Vous découvrirez également LangChain et diverses fonctions d'OpenAI. 

Le projet comprend un guide vidéo et des sessions de code-along pour que vous puissiez suivre et construire l'application avec l'instructeur.

Prenez le Développer des applications LLM avec LangChain pour en savoir plus sur ses fonctionnalités grâce à des exercices interactifs, des diapositives, des quiz, des tutoriels vidéo et des questions d'évaluation.

Construire des applications d'IA multimodales avec LangChain et l'API OpenAI - Capture d'écran

Source : Construire des applications d'IA multimodales avec LangChain et l'API OpenAI

7. Mise au point du Llama 3 et utilisation locale

Lien vers le projet : Mise au point de Llama 3 et utilisation locale : Un guide pas à pas

Il est facile d'affiner les réglages à l'aide de l'API OpenAI, mais elle a ses limites. Il ne peut qu'affiner le modèle OpenAI, et vous sacrifiez votre vie privée tout en payant plus cher que si vous l'affiniez sur votre propre machine. En fin de compte, tout se résume à une question de coût et de sécurité. 

Dans ce projet, vous apprendrez à utiliser le cadre Transformers pour affiner le modèle Llama 3 sur les conversations entre patients et médecins. En outre, vous apprendrez à fusionner le modèle de base avec l'adaptateur affiné, à le convertir au format GGUF, à le quantifier et à l'utiliser localement avec une application Jan. 

En réalisant ce projet, vous acquerrez des connaissances sur les LLM, le réglage fin, la quantification et diverses méthodes d'optimisation de l'utilisation de la mémoire et du calcul.

Application de bureau Jan à l'aide d'un modèle affiné

Source : Mise au point du Llama 3 et utilisation locale

8. Construire un agent d'intelligence artificielle à étapes multiples en utilisant l'API LangChain et Cohere

Lien vers le projet : Cohere Command R+ : Un tutoriel complet, étape par étape

L'API Cohere est similaire à l'API OpenAI et offre de nombreuses fonctionnalités par rapport à d'autres cadres LLM. Dans ce projet, vous apprendrez les principales fonctionnalités de l'API Cohere et les utiliserez pour construire un agent d'intelligence artificielle à plusieurs étapes. 

Vous maîtriserez également le cadre LangChain et l'enchaînement de divers agents d'intelligence artificielle. 

Au final, vous construirez une application d'IA qui prendra la requête de l'utilisateur pour effectuer une recherche sur le web et générera du code Python. Ensuite, il utilisera Python REPL pour exécuter le code et renvoyer la visualisation demandée par l'utilisateur. 

L'agent d'intelligence artificielle à plusieurs étapes en action

Source : Cohere Command R+ : Un tutoriel complet, étape par étape

9. Déploiement d'applications LLM avec LangServe

Lien vers le projet : Déploiement d'applications LLM avec LangServe

Dans ce projet, vous apprendrez à déployer des applications LLM à l'aide de LangServe. Vous commencerez par installer LangServe, créer un serveur à l'aide de FastAPI, tester le serveur localement, puis déployer l'application. Vous apprendrez également à surveiller les performances de LLM à l'aide du framework Prometheus et à utiliser Grafana pour visualiser les performances du modèle dans le tableau de bord. 

Il y a beaucoup à apprendre et cela vous aidera à obtenir un emploi dans le domaine des LLMOps, qui est de plus en plus demandé. 

Démarrage du serveur Langserve

Source : Déploiement d'applications LLM avec LangServe

Projets LLM avancés

Les projets LLM avancés sont destinés aux experts qui souhaitent créer des applications prêtes à la production et améliorer les applications LLM déjà déployées. En travaillant sur ces projets, vous apprendrez à inférer et à affiner sur des TPU au lieu de GPU pour des performances plus rapides, à automatiser la génération de taxonomies et la classification de textes, et à construire des applications d'IA dans le cloud Microsoft Azure.

Prérequis : Bonne compréhension de Python, des LLM, du réglage fin des modèles, des TPU et du cloud computing.

10. Ajustement et inférence sur le modèle Gemma de Google à l'aide de TPUs

Lien vers le projet : Affiner et exécuter l'inférence sur le modèle Gemma de Google avec TPU

La mise au point et l'exécution de l'inférence du modèle sur les TPU s'accompagnent de leur propre lot de problèmes et de limitations, mais en contrepartie, vous bénéficiez d'une vitesse quatre fois supérieure à celle d'une configuration multi-GPU. 

Dans ce projet, vous découvrirez les CPU, les GPU et les TPU, et vous apprendrez comment utiliser les TPU pour générer des réponses plus rapides et affiner les modèles en un quart de temps. Vous découvrirez également la mise au point et l'inférence distribuées des modèles avec les TPU, grâce au parallélisme des modèles, qui distribue les poids d'un modèle unique sur plusieurs appareils, ce qui permet une mise à l'échelle horizontale et accélère l'entraînement.

Résumé du modèle pour les paramètres entraînables

Source : Affiner et exécuter l'inférence sur le modèle Gemma de Google avec TPU

11. Créer une application TNT-LLM

Lien vers le projet : GPT-4o et LangGraph Tutorial : Créer une application TNT-LLM

TNT-LLM de Microsoft est un système de pointe conçu pour automatiser la génération de taxonomies et la classification de textes en exploitant la puissance des grands modèles de langage (LLM), tels que GPT-4, afin d'améliorer l'efficacité et la précision avec une intervention humaine minimale. Dans ce projet, vous mettrez en œuvre TNT-LLM en utilisant LangGraph, LangChain et l'API OpenAI. 

Vous définirez la classe d'état du graphique, chargerez les ensembles de données, résumerez les documents, créerez des minibatches, générerez et mettrez à jour la taxonomie, la réviserez, orchestrerez le pipeline TNT-LLM avec StateGraph et, enfin, regrouperez et afficherez la taxonomie.

TNT-LLM Code d'application avec la sortie

Source : Tutoriel GPT-4o et LangGraph

12. Construire une application d'intelligence artificielle à l'aide d'Azure Cloud

Lien vers le projet : Utiliser GPT sur Azure

Acquérir une expérience du cloud computing est une compétence cruciale qui vous permettra de décrocher un poste dans n'importe quel domaine lié au LLM. Maîtriser la capacité à construire, automatiser, déployer et maintenir un pipeline LLM sur le cloud Azure vous vaudra le titre d'expert en LLM. 

Dans ce projet, vous apprendrez à mettre en place une instance payante d'OpenAI et à construire des applications simples qui démontrent la puissance des LLM et de l'IA générative avec vos données. Vous utiliserez également un magasin de vecteurs pour construire une application RAG et réduire l'hallucination dans l'application AI. 

Utilisation de GPT sur Azure Code Along capture d'écran

Source : Utiliser GPT sur Azure

Réflexions finales 

En travaillant sur les projets mentionnés ci-dessus, vous acquerrez suffisamment d'expérience pour créer votre propre produit ou même obtenir un emploi dans le domaine du LLM. La clé du succès n'est pas seulement de coder ou de peaufiner, mais aussi de documenter et de partager votre travail sur les médias sociaux pour attirer l'attention. Veillez à ce que votre projet soit bien expliqué et convivial, en incluant une démonstration ou un guide d'utilisation dans la documentation.

Dans ce blog, nous avons passé en revue 12 projets LLM qui peuvent vous aider à décrocher l'emploi de vos rêves en tant que scientifique LLM. Si vous souhaitez en savoir plus sur les LLM, nous vous recommandons vivement d'explorer le site suivant Développement de grands modèles de langage le cursus de compétences. Il enseignera les dernières techniques pour développer des modèles de langage de pointe, maîtriser l'apprentissage profond avec PyTorch, construire votre propre modèle de transformateur à partir de zéro, et affiner les LLM pré-entraînés de Hugging Face.


Photo of Abid Ali Awan
Author
Abid Ali Awan
LinkedIn
Twitter

En tant que data scientist certifié, je suis passionné par l'utilisation des technologies de pointe pour créer des applications innovantes d'apprentissage automatique. Avec une solide expérience en reconnaissance vocale, en analyse de données et en reporting, en MLOps, en IA conversationnelle et en NLP, j'ai affiné mes compétences dans le développement de systèmes intelligents qui peuvent avoir un impact réel. En plus de mon expertise technique, je suis également un communicateur compétent, doué pour distiller des concepts complexes dans un langage clair et concis. En conséquence, je suis devenu un blogueur recherché dans le domaine de la science des données, partageant mes idées et mes expériences avec une communauté grandissante de professionnels des données. Actuellement, je me concentre sur la création et l'édition de contenu, en travaillant avec de grands modèles linguistiques pour développer un contenu puissant et attrayant qui peut aider les entreprises et les particuliers à tirer le meilleur parti de leurs données.

Sujets

Les meilleurs cours de DataCamp

Certification disponible

cours

Développer des applications LLM avec LangChain

3 hr
7K
Découvrez comment créer des applications alimentées par l'IA à l'aide de LLM, d'invites, de chaînes et d'agents dans LangChain.
Afficher les détailsRight Arrow
Commencer Le Cours
Voir plusRight Arrow