Direkt zum Inhalt

Einsatz von DeepSeek R1 auf Databricks: Eine Schritt-für-Schritt-Anleitung

Erfahre, wie du ein Databricks-Konto einrichtest, das DeepSeek R1-Modell registrierst, es auf einem Endpunkt bereitstellst und für eine nahtlose KI-Integration lokal darauf zugreifst!
Aktualisierte 18. Feb. 2025

Databricks ist seit langem ein Favorit in der Data-Engineering-Community und erweitert seine Fähigkeiten nun stetig in den Bereich der künstlichen Intelligenz (KI) und des maschinellen Lernens (ML). Diese Entwicklung bedeutet, dass du jetzt Modelle trainieren, Lernpfade verfolgen, Modelle registrieren und sie an Databricks-Endpunkten einsetzen kannst - und das alles innerhalb derselben einheitlichen Plattform. Diese Integration vereinfacht Arbeitsabläufe und macht Databricks zu einem leistungsstarken Werkzeug für Daten- und KI-Experten.

Wenn du neu bei Databricks bist, solltest du den Kurs Einführung in Databricks besuchen, um mehr über die Databricks Lakehouse-Plattform zu erfahren. Dieser Kurs hilft dir zu verstehen, wie Databricks Datenarchitekturen modernisieren und Datenmanagementprozesse verbessern kann.

In diesem Tutorial zeige ich dir, wie du die verteilte Version des DeepSeek R1-Modells auf Databricks einsetzt. DeepSeek R1 erfreut sich zunehmender Beliebtheit. Viele Unternehmen entscheiden sich dafür, es auf ihrer eigenen Cloud-Infrastruktur zu betreiben, anstatt Daten an externe Server zu senden. 

Diese Anleitung hilft dir dabei, ein Databricks-Konto einzurichten, das DeepSeek R1-Modell zu registrieren, es über die Benutzeroberfläche einzusetzen und über die Spielwiese und lokal mit dem CURL-Befehl darauf zuzugreifen.

Um mehr über DeepSeek R1 zu erfahren, einschließlich der Funktionen, des Entwicklungsprozesses, der destillierten Modelle, der Preise und wie es im Vergleich zu anderen KI-Modellen wie den Angeboten von OpenAI abschneidet, besuche die Website DeepSeek-R1: Eigenschaften, Vergleich, destillierte Modelle & mehr blog.

Einrichten von Databricks

Es gibt zwei einfache Möglichkeiten, Databricks zu nutzen. Du kannst entweder zu GCP, AWS oder dem Azure Marketplace gehen und den Databricks-Dienst abonnieren. Alternativ kannst du dich für ein eigenständiges Databricks-Konto anmelden, das dir einige Rechenressourcen zur Verfügung stellt, ohne dass du ein Rechencluster erstellen musst.

Hier beschreibe ich die beiden Möglichkeiten.

Datenstrukturen mit Cloud-Anbietern

Wenn du bereits Zugang zu einer AWS GPU hast, ist diese Methode sehr empfehlenswert. Es ist einfach und erfordert nicht allzu viel Aufwand. 

  • Besuche die Databricks-Website.
  • Melde dich für ein Konto an.
  • Wähle "Mit der Cloud-Einrichtung fortfahren". Es leitet dich zu deinem AWS-Konto weiter und fordert dich auf, das Databricks-Abonnement einzurichten. 

Einrichten von Databricks auf dem AWS-Marktplatz.

Einrichten von Databricks auf dem AWS-Marktplatz.

Sobald du damit fertig bist, wird ein Databricks-Arbeitsbereich mit allen möglichen Optionen für dich erstellt. Alle Zahlungen werden über die AWS-Abrechnung abgewickelt. 

Das Dashboard von Databricks.

Wenn du auf den Reiter "Compute" klickst, kannst du den Compute-Cluster deiner Wahl erstellen.

Einrichten eines GPU-Clusters in Databricks.

Dieser Cluster wird später in einem Notebook und zum Einsatz des Modells verwendet. 

Eigenständige Datenplattformen

Wenn du lieber die Einzelplatzversion von Databricks verwendest, weil du keinen Zugang zu einem Cloud-GPU hast oder aus einem anderen Grund, befolge diese Schritte: 

  • Melde dich für ein Databricks-Konto an.
  • Klicke auf die Schaltfläche "Mit der Express-Einrichtung fortfahren". 

Der Arbeitsbereich und alles andere wird innerhalb weniger Sekunden für dich eingerichtet.

Melde die Standalone-Version für die Databricks an.

Melde dich für die Einzelplatzversion von Databricks an.

Bitte beachte, dass es einen Haken gibt: Du kannst mit dieser Methode keinen eigenen Compute-Cluster oder GPU-Cluster erstellen. Du kannst das Modell nur mit einer CPU in einem Notebook registrieren, was ein Problem sein kann, das du vielleicht vermeiden möchtest.

Wenn du mit DeepSeekR1 in einer Produktions- oder Forschungsumgebung arbeitest, kann die Verwendung einer CPU anstelle eines Grafikprozessors aufgrund der Leistungseinbußen, der Speicherbeschränkungen und der möglichen Kosten frustrierend sein. Erfahre mehr im Blogbeitrag CPU vs. GPU

KI-Anwendungen entwickeln

Lerne, wie man KI-Anwendungen mit der OpenAI API erstellt.
Start Upskilling For Free

Registrierung des DeepSeek R1-Modells auf Databricks

Der nächste Schritt ist die Registrierung des Modells. 

  • Sobald der Arbeitsbereich erstellt ist, klicke auf die Schaltfläche "+ Neu" und wähle das Notizbuch aus, um es zu starten.

Ein Databricks-Notizbuch.

  • Erstelle eine Jupyter-Zelle und führe den folgenden Code aus:

1. Installiere die erforderlichen Python-Pakete:

%%capture
!pip install torch transformers mlflow accelerate torchvision
%restart_python

2. Lade die Token, Konfigurationen und das Modell aus dem Hugging Face Repository:

import pandas as pd
import mlflow
import mlflow.transformers
import torch
from mlflow.models.signature import infer_signature
from transformers import AutoModelForCausalLM, AutoTokenizer, AutoConfig, pipeline


# Specify the model from HuggingFace transformers
model_name = "deepseek-ai/DeepSeek-R1-Distill-Llama-8B"


# Load tokenizer and model
tokenizer = AutoTokenizer.from_pretrained(model_name)
config = AutoConfig.from_pretrained(model_name)


model = AutoModelForCausalLM.from_pretrained(
    model_name,
    config=config,
    torch_dtype=torch.float16  
)

Herunterladen des Deepseek R1-Modells.

3. Teste das geladene Modell, indem du es mit einer Probeaufforderung versiehst. 

Wir werden auch eine Signatur erstellen, die wir bei der Modellregistrierung hinzufügen werden:

text_generator = pipeline("text-generation", model=model, tokenizer=tokenizer)
example_prompt = "How does a computer work?"
example_inputs = pd.DataFrame({"inputs": [example_prompt]})
example_outputs = text_generator(example_prompt, max_length=200)
signature = infer_signature(example_inputs, example_outputs)


print(example_outputs)

Das Modell sollte perfekt funktionieren!

Die Ausgabe, die mir angezeigt wird, ist:

[{'generated_text': "How does a computer work? What is the computer? What is the computer used for? What is the computer used for in real life?\n\nI need to answer this question, but I need to do it step by step. I need to start with the very basic level and build up from there. I need to make sure I understand each concept before moving on. I need to use a lot of examples to explain each idea. I need to write my thoughts as if I'm explaining them to someone else, but I need to make sure I understand how to structure the answer properly.\n\nOkay, let's start with the basic level. What is a computer? It's an electronic device, right? And it has a central processing unit (CPU) that does the processing. But I think the central processing unit is more efficient, so maybe it's the CPU. Then, it has memory and storage. I remember that memory is like RAM and storage is like ROM. But wait, I think"}]

4. Richte die Umgebung conda mit der richtigen Python-Version und den erforderlichen Python-Paketen ein. 

Das hilft uns dabei, einen Container zu erstellen, der alle notwendigen Werkzeuge enthält, um das Modell auszuführen:

conda_env = {
    "name": "mlflow-env",
    "channels": ["defaults", "conda-forge"],
    "dependencies": [
        "python=3.11",
        "pip",
        {
            "pip": [
                "mlflow",
                "transformers",
                "accelerate",
                "torch",
                "torchvision"
            ]
        }
    ]
}

5. Das Modell registrieren 

Gib der Funktion mlflow.transformers.log_model die Textgenerierungspipeline, den Artefaktpfad, die Signatur, die Beispieleingabe, den Modellnamen und die conda Umgebung an:

with mlflow.start_run() as run:
    mlflow.transformers.log_model(
        transformers_model=text_generator,
        artifact_path="deepseek_model",
        signature=signature,
        input_example=example_inputs,
        registered_model_name="deepseek_r1_llama_8b",
        conda_env=conda_env
    )

Es dauert ein paar Minuten, bis das Modell registriert ist.

Registrierung des DeepSeek R1-Modells in der Modellregistrierung.

Lerne die Leistungsfähigkeit von Databricks Lakehouse kennen und verbessere deine Fähigkeiten in den Bereichen Data Engineering und maschinelles Lernen, indem du den Kurs Data Management in Databricks belegst.

Einsatz von Deepseek auf Databricks

Es ist an der Zeit, das Modell einzusetzen!

  • Sobald das Modell registriert ist, klickst du auf den Reiter "Modelle" unten links im Databricks-Dashboard. 
  • Wähle dein Modell aus und klicke auf die Schaltfläche "Dieses Modell bedienen".

Das Modell DeepSeek R1 wird bedient.

  • Gib den Serving-Namen des Endpunkts ein, wähle die Berechnungsoptionen und lege die Gleichzeitigkeit fest, bevor du auf die Schaltfläche "Erstellen" klickst.

Auswahl der CPU und GPU für den Serving-Endpunkt.

Es dauert ein paar Minuten, bis der Serving-Endpunkt eingerichtet ist. Sobald die Einrichtung abgeschlossen ist, wird der Status grün und zeigt "Bereit" an.

Der DeepSeek-Serving-Endpunkt wird eingesetzt.

Außerdem kannst du den DeepSeek R1 auf einem benutzerdefinierten Datensatz feinabstimmen, bevor du das Modell registrierst. Folge dem Tutorial zum Feintuning von DeepSeek R1, um alles zu erfahren, was du über diesen Prozess wissen musst.

Zugriff auf das eingesetzte Modell

Es gibt viele Möglichkeiten, auf dieses Modell zuzugreifen oder es zu nutzen. 

  1. Du kannst deine Frage in die Databricks-Spielwiese schreiben, die dann eine Antwort im Browser erzeugt. 
  2. Außerdem kannst du mit CURL, dem Python-Paket für Anfragen oder mit SQL-Befehlen auf das Modell zugreifen.

Um loszulegen, werden wir die Frage mit dem Browser schreiben und die Antwort generieren.

Benutze den Databricks-Spielplatz, um auf das Modell zuzugreifen.

Um auf das Modell lokal zuzugreifen oder es in deine Anwendung zu integrieren, musst du zunächst einen Databricks-API-Schlüssel generieren. 

  • Gehe zu den Einstellungen.
  • Klicke auf "Entwickler" und generiere dann einen neuen Token. 
  • Kopiere dieses Token und erstelle eine lokale Umgebungsvariable.

Generierung des Databricks API-Tokens.

  • Verwende den CURL-Befehl und gib das API-Token ein. Achte darauf, dass die Eingabeaufforderung und die Server-Endpunkt-URL im richtigen JSON-Format sind. Hier ist ein Beispiel:
curl \
  -u token:$DATABRICKS_TOKEN \
  -X POST \
  -H "Content-Type: application/json" \
  -d '{"dataframe_split": {"columns": ["inputs"], "data": [["How does a computer work?"]]}}' \
  https://dbc-85e34089.cloud.databricks.com/serving-endpoints/deepseek_r1/invocations

Wenn du den Befehl ausführst, dauert es ein paar Sekunden, bis du die Antwort erhältst. So einfach ist das!

Benutze den CURL-Befehl, um auf das Modell zuzugreifen.

Schau dir den DeepSeek R1 vs V3 Blog an, um mehr über die besten großen Sprachmodelle von DeepSeek zu erfahren.

Fazit

Die Registrierung und Bereitstellung des DeepSeek R1-Modells auf Databricks ist ganz einfach. Du kannst das große Modell sogar mit einem CPU-Cluster oder einer lokalen CPU-Maschine registrieren und einsetzen, ohne dass dir Kosten entstehen. Die Ausführung des Modells auf einer CPU kann jedoch langsam sein und erfordert Geduld, vor allem beim Erstellen des Docker-Images.

In diesem Lernprogramm haben wir den gesamten Prozess der Modellbereitstellung Schritt für Schritt behandelt. Wir begannen mit der Einrichtung von Databricks und der Registrierung des vortrainierten DeepSeek Distilled R1-Modells in der Databricks Model Registry. Dann haben wir das Databricks-Dashboard verwendet, um das Modell einzusetzen. Schließlich haben wir das eingesetzte Modell getestet und gezeigt, wie man es mit einem einfachen CURL-Befehl lokal nutzen kann.

Wenn du neu im Bereich KI und große Sprachmodelle bist, empfehle ich dir den Kurs "Einführung in LLMs in Python ". Dies wird dir helfen, eine solide Grundlage zu schaffen, die wichtigsten Begriffe zu verstehen und mit der Arbeit an fortgeschrittenen Modellen wie DeepSeek R1 zu beginnen!


Abid Ali Awan's photo
Author
Abid Ali Awan
LinkedIn
Twitter

Als zertifizierter Data Scientist ist es meine Leidenschaft, modernste Technologien zu nutzen, um innovative Machine Learning-Anwendungen zu entwickeln. Mit meinem fundierten Hintergrund in den Bereichen Spracherkennung, Datenanalyse und Reporting, MLOps, KI und NLP habe ich meine Fähigkeiten bei der Entwicklung intelligenter Systeme verfeinert, die wirklich etwas bewirken können. Neben meinem technischen Fachwissen bin ich auch ein geschickter Kommunikator mit dem Talent, komplexe Konzepte in eine klare und prägnante Sprache zu fassen. Das hat dazu geführt, dass ich ein gefragter Blogger zum Thema Datenwissenschaft geworden bin und meine Erkenntnisse und Erfahrungen mit einer wachsenden Gemeinschaft von Datenexperten teile. Zurzeit konzentriere ich mich auf die Erstellung und Bearbeitung von Inhalten und arbeite mit großen Sprachmodellen, um aussagekräftige und ansprechende Inhalte zu entwickeln, die sowohl Unternehmen als auch Privatpersonen helfen, das Beste aus ihren Daten zu machen.

Themen

Lerne mehr über Databricks mit diesen Kursen!

Kurs

Introduction to Databricks

3 hr
11.2K
Learn about the Databricks Lakehouse platform and how it can modernize data architectures and improve data management processes.
Siehe DetailsRight Arrow
Kurs starten
Mehr anzeigenRight Arrow
Verwandt

Der Blog

Lehrer/innen und Schüler/innen erhalten das Premium DataCamp kostenlos für ihre gesamte akademische Laufbahn

Keine Hacks, keine Tricks. Schüler/innen und Lehrer/innen, lest weiter, um zu erfahren, wie ihr die Datenerziehung, die euch zusteht, kostenlos bekommen könnt.
Nathaniel Taylor-Leach's photo

Nathaniel Taylor-Leach

4 Min.

Der Blog

Top 30 Generative KI Interview Fragen und Antworten für 2024

Dieser Blog bietet eine umfassende Sammlung von Fragen und Antworten zu generativen KI-Interviews, die von grundlegenden Konzepten bis hin zu fortgeschrittenen Themen reichen.
Hesam Sheikh Hassani's photo

Hesam Sheikh Hassani

15 Min.

Der Blog

Die 20 besten Snowflake-Interview-Fragen für alle Niveaus

Bist du gerade auf der Suche nach einem Job, der Snowflake nutzt? Bereite dich mit diesen 20 besten Snowflake-Interview-Fragen vor, damit du den Job bekommst!
Nisha Arya Ahmed's photo

Nisha Arya Ahmed

20 Min.

Der Blog

Q2 2023 DataCamp Donates Digest

DataCamp Donates hat im zweiten Quartal 2023 über 20.000 Stipendien an unsere gemeinnützigen Partner vergeben. Erfahre, wie fleißige benachteiligte Lernende diese Chancen in lebensverändernde berufliche Erfolge verwandelt haben.
Nathaniel Taylor-Leach's photo

Nathaniel Taylor-Leach

Der Blog

2022-2023 DataCamp Classrooms Jahresbericht

Zu Beginn des neuen Schuljahres ist DataCamp Classrooms motivierter denn je, das Lernen mit Daten zu demokratisieren. In den letzten 12 Monaten sind über 7.650 neue Klassenzimmer hinzugekommen.
Nathaniel Taylor-Leach's photo

Nathaniel Taylor-Leach

8 Min.

Mehr anzeigenMehr anzeigen