Przejdź do treści głównej
DomAI

course

Working with Llama 3

MediatorPoziom umiejętności
Zaktualizowano 03.2025
Explore the latest techniques for running the Llama LLM locally and integrating it within your stack.
Rozpocznij Kurs Za Darmo
LlamaArtificial Intelligence2 godz.7 videos21 Exercises1,750 PD13,059Oświadczenie o osiągnięciu

Utwórz bezpłatne konto

Lub

Kontynuując, akceptujesz nasze Warunki korzystania, naszą Politykę prywatności oraz fakt, że Twoje dane są przechowywane w USA.

Uwielbiany przez pracowników tysięcy firm

Group

Szkolenie 2 lub więcej osób?

Wypróbuj DataCamp for Business

Opis kursu

Learn to use the Llama Large-Language Model (LLM)

What is the Llama LLM, and how can you use it to enhance your projects? This course will teach you how to run Llama locally, guide its responses using prompt engineering, and build structured and context-aware conversations.

Understand the Llama model and its applications

You'll start with an introduction to the foundational concepts of Llama, learning how to interact with Llama models and exploring their use cases. You'll gain hands-on experience setting up, running, and interacting with the model using the llama-cpp-python library. As you progress, you'll apply techniques to refine Llama’s responses, maintain conversation history, and generate structured outputs ready to be integrated into automated workflows.

This is an ideal introduction to Llama for developers and AI practitioners. It explores the foundations of this powerful open-source LLM and how to apply it in real-world scenarios.

Wymagania wstępne

Python Toolbox
1

Understanding LLMs and Llama

The field of large language models has exploded, and Llama is a standout. With Llama 3, possibilities have soared. Explore its capabilities, learn to use it with llama-cpp-python, and understand how to control the model's behavior by adjusting parameters and assigning specific roles to guide the conversation.
Rozpocznij Rozdział
2

Using Llama Locally

Language models can do more than just generate text - they can be guided to produce structured and context-aware responses. In this chapter, you'll explore how to leverage llama-cpp-python to generate outputs in specific formats, including JSON-compatible responses for data integration. You'll also refine Llama's output using prompting techniques to align responses with different tasks. Finally, you'll build conversations that maintain context across multiple exchanges, ensuring more natural interactions.
Rozpocznij Rozdział
Working with Llama 3
Kurs
ukończony

Zdobądź oświadczenie o osiągnięciach

Dodaj te dane uwierzytelniające do swojego profilu na LinkedIn, CV lub życiorysu
Udostępnij w mediach społecznościowych i w swojej ocenie okresowej
Zapisz Się Teraz

Dołącz do nas 19 milionów uczniów i zacznij Working with Llama 3 już dziś!

Utwórz bezpłatne konto

Lub

Kontynuując, akceptujesz nasze Warunki korzystania, naszą Politykę prywatności oraz fakt, że Twoje dane są przechowywane w USA.

Rozwijaj swoje umiejętności w zakresie danych dzięki DataCamp dla urządzeń mobilnych

Rób postępy w podróży dzięki naszym kursom mobilnym i codziennym 5-minutowym wyzwaniom kodowania.