Direkt zum Inhalt

GPT-4.5 API Tutorial: Erste Schritte mit der API von OpenAI

Lerne, wie du dich mit der OpenAI API verbindest, einen API-Schlüssel erstellst, eine Python-Umgebung einrichtest und einen einfachen Chatbot mit GPT-4.5 erstellst.
Aktualisierte 3. März 2025  · 8 Min. Lesezeit

GPT-4.5 bietet eine verbesserte Kontexterkennung, Tonhöhenanpassung und Zusammenfassungen, was es zu einer guten Wahl für Chatbots, Schreibwerkzeuge, Automatisierung des Kundensupports und Bildungsanwendungen macht.

In diesem Tutorial gebe ich dir eine Schritt-für-Schritt-Anleitung zur Verwendung von GPT-4.5 über die OpenAI-API. Wir werden herausfinden, wie wir mit Python und der API von GPT 4.5 einen Chatbot bauen können, der es uns ermöglicht, mit GPT 4.5 zu einem Bruchteil der monatlichen Abonnementkosten zu chatten.

Arbeiten mit der OpenAI API

Beginne deine Reise zur Entwicklung von KI-gestützten Anwendungen mit der OpenAI API.
Kurs erkunden

Was ist GPT 4.5?

GPT-4.5 ist OpenAIs neuestes Sprachmodell, das entwickelt wurde, um die Konversationsfähigkeit, das Kontextbewusstsein und die sachliche Genauigkeit zu verbessern. Es baut auf den Vorgängermodellen auf und bietet natürlichere Reaktionen, eine bessere Tonanpassung und weniger HalluzinationenDadurch eignet er sich gut für Anwendungen wie Chatbots, Inhaltserstellung und Aufgabenautomatisierung.

Im Gegensatz zu den Modellen der o-Serie von OpenAI verlässt sich GPT-4.5 jedoch nicht auf schrittweises Denken, sodass es nicht die beste Wahl für komplexe Problemlösungen in Bereichen wie Mathematik oder Programmieren ist. Wenn du ein Argumentationsmodell für deine Anwendung brauchst, kannst du dieses Tutorial lesen OpenAI O1 API.

gpt-4.5 vs. o-series Modelle

Für einen tieferen Einblick in die Stärken, Grenzen und Benchmark-Vergleiche von GPT-4.5, schau dir unseren vollständigen Bericht über GPT-4.5.

GPT-4.5 API: Wie man sich mit der API von OpenAI verbindet

In diesem Abschnitt gehen wir die Schritte zur Verbindung mit der OpenAI API durch, einschließlich der Erstellung eines API-Schlüssels und der Einrichtung deiner Python-Umgebung.

Einen API-Schlüssel erstellen

Um die OpenAI API zu nutzen, müssen wir einen API-Schlüssel erstellen. Dieser Schlüssel wird verwendet, um unseren Python-Client bei der API zu authentifizieren.

1. Navigieren Sie zu der OpenAI API Schlüssel Seite.

2. Du musst dich anmelden oder ein OpenAI-Konto erstellen, wenn du noch keins hast.

3. Klicke auf die Schaltfläche "Neuencretschlüssel erstellen".

Einen neuen API-Schlüssel für OpenAIs API erstellen

4. Du kannst einen Namen dafür wählen, aber es ist in Ordnung, die Standardoptionen zu belassen.

5. Klicke auf die Schaltfläche "Geheimschlüssel erstellen".

Formular zur Schlüsselerstellung für die API von OpenAI

6. Wenn der Schlüssel angezeigt wird, kopiere ihn. Du wirst es später nicht mehr sehen können. Wenn du sie verlierst, kannst du sie jederzeit löschen und eine neue erstellen.

Kopieren des API-Schlüssels für die API von OpenAI

7. Erstelle eine Datei mit dem Namen .env in demselben Ordner, in dem du den Python-Code schreibst, und füge den Schlüssel in folgendem Format ein:

OPENAI_API_KEY=<paste_your_key_here>

API-Preise

Die OpenAI API ist nicht kostenlos. Je nachdem, welches Modell du nutzt, fallen unterschiedliche Gebühren an. Alle Details zu den Preisen findest du auf der ihrer Preisseite.

Diese Gebühren unterscheiden sich von den Abonnements für die Nutzung von ChatGPT über seine Online-Schnittstelle. Wenn wir die API nutzen, zahlen wir pro Nachricht, anstatt jeden Monat einen festen Betrag zu zahlen. Bei regelmäßiger Nutzung kann dies eine viel günstigere Möglichkeit sein, auf ihre Modelle zuzugreifen.

In diesem Tutorial werden wir das neueste Modell, GPT-4.5, verwenden. Dies ist das am weitesten fortgeschrittene generalistische Modell.

GPT 4.5 Preiskarte

Die Preise werden nicht pro Nachricht, sondern pro Token festgelegt. Wenn wir eine Nachricht an einen LLM senden, wird sie in Token. Es gibt keine verlässliche Formel für die Umwandlung von Wörtern in Token, aber um eine Vorstellung zu bekommen, kann man schätzen, dass ein Token mehr oder weniger 3/4 eines Wortes ist.

Das bedeutet, dass die oben genannten Preise ungefähr 750.000 Wörtern entsprechen. 

Um die API zu nutzen, müssen wir Guthaben zu unserem Konto hinzufügen. Dies kann geschehen auf OpenAIs Abrechnungsseite.

Python-Umgebung einrichten 

OpenAI stellt einen Python-Client zur Verfügung, der die Interaktion mit ihrer API erleichtert. Um ihn zu benutzen, müssen wir ihn installieren, ebenso wie einige andere Pakete, die uns helfen, den Schlüssel zu laden, den wir zuvor erstellt haben.

Wir verwenden Anaconda um eine Python-Umgebung zu erstellen und die notwendigen Abhängigkeiten zu installieren. Das ist eine sauberere Methode, da sie mögliche Konflikte mit anderen Python-Paketen vermeidet.

Nachdem wir Anaconda installiert haben, können wir die Umgebung mit dem Terminalbefehl erstellen:

conda create -n gpt45 -y python=3.9

Mit diesem Befehl wird eine Umgebung namens gpt45 erstellt, die die Version 3.9 von Python verwendet. Die Option -y wird verwendet, um alle Fragen im Erstellungsprozess automatisch mit Ja zu beantworten.

Als Nächstes aktivieren wir die Umgebung mit:

conda activate gpt45

Schließlich haben wir die notwendigen Abhängigkeiten installiert.

  • pip install openai: Installiere die OpenAI-Python-Bibliothek.
  • pip install python-dovenv: Installiere ein Paket, um den API-Schlüssel aus der Datei .env zu laden, die wir zuvor erstellt haben.

Unsere erste API-Anfrage stellen

Jetzt können wir damit beginnen, Python-Code zu schreiben, um Anfragen an die OpenAI-API zu stellen.

Beginne damit, eine Datei namens script.py zu erstellen. Hier werden wir den Code schreiben.

Als nächstes importieren wir die Pakete:

from openai import OpenAI
from dotenv import load_dotenv
import os

Dann laden wir den API-Schlüssel und initialisieren den Client:

load_dotenv()
api_key = os.getenv("OPENAI_API_KEY")
client = OpenAI(api_key=api_key)

Zum Schluss senden wir eine Nachricht. Für den Anfang senden wir einfach "Hallo":

completion = client.chat.completions.create(
    model="gpt-4.5-preview",
    messages=[
        {
            "role": "user",
            "content": "Hello"
        }
    ]
)
print(completion.choices[0].message.content)

Der Parameter model wird verwendet, um das Modell festzulegen, das wir verwenden wollen. Um andere Modelle auszuprobieren, ersetze sie durch ein anderes.

Wir können das Skript mit ausführen:

python script.py

Hier ist das Ergebnis:

Hello! How can I help you today?

Einen GPT-4.5 Chatbot mit Python erstellen

In diesem Abschnitt bauen wir auf unserem vorherigen Skript auf, um einen interaktiven Chatbot zu erstellen, mit dem wir im Terminal mit GPT-4.5 sprechen können.

Dazu müssen wir unser Skript ändern in:

  1. Nimm die Eingaben des Nutzers entgegen.
  2. Behalte den Lernpfad der Konversation im Auge und sende sowohl die vorherigen Nachrichten als auch die neue Aufforderung.
  3. Wiederhole dies so lange, bis der Benutzer aussteigt.

Den Benutzer eine Eingabeaufforderung eingeben lassen

Um Benutzereingaben auf dem Terminal zu lesen, verwenden wir die Funktion input(). Wenn sie aufgerufen wird, wartet sie darauf, dass der Benutzer einen Text eingibt und gibt ihn dann zurück.

prompt = input("> ")
print(prompt)

So sieht es aus, wenn wir es im Terminal ausführen:

> Hello
Hello

Die Chatschleife

Um den Chat zu implementieren, verwenden wir eine Schleife, die so lange läuft, bis der Prompt gleich "exit" ist. Dies ist die Logik der Hauptschleife:

while True:
  prompt = input("> ")
  if prompt == "exit":
    exit()
  # Prompt processing goes here

Bearbeitung der Eingabeaufforderung

Das Modell speichert keine Historie der Nachrichten, die wir zuvor verschickt haben. Es behandelt jede Nachricht als eine neue. Um ein Chat-Verhalten zu erhalten, müssen wir also alle bisher gesendeten Nachrichten zusammen mit dem neuen Prompt bereitstellen. Das erreichen wir, indem wir den Lernpfad des Chats aufzeichnen.

Die Nachrichten der Nutzer sollten das folgende Format haben:

{
  "role": "user",
  "content": <user prompt>
}

Die Antwort des Modells sollte die Rolle "assistant" haben.

{
  "role": "assistant",
  "content": <model answer>
}

In diesem Sinne, hier ist die komplette Chat-Implementierung:

from openai import OpenAI
from dotenv import load_dotenv
import os

load_dotenv()
api_key = os.getenv("OPENAI_API_KEY")

client = OpenAI(api_key=api_key)

# Initialize the chat history
chat_history = []
while True:
    prompt = input("> ")
    if prompt == "exit":
        exit()
    # Add the user message to the chat history
    chat_history.append({
        "role": "user",
        "content": prompt,
    })
    # Send the full chat history
    completion = client.chat.completions.create(
        model="gpt-4.5-preview", messages=chat_history
    )
    # Display the answer
    answer = completion.choices[0].message.content
    print(answer)
    # Add the answer to the chat history
    chat_history.append({
        "role": "assistant",
        "content": answer,
    })

Chat-Beispiel

Um den Chat auszuprobieren, können wir ihn mit dem Befehl ausführen:

python script.py

Dann können wir anfangen zu chatten, indem wir unsere Eingabeaufforderung in das Terminal eingeben. Hier ist ein Beispiel für einen Chat:

GPT-4.5 Chatbot Beispiel

Das Beispiel zeigt zwei Prompts. Zuerst bitten wir das Modell, uns ein Beispiel für eine for Schleife in Python zu zeigen. Um zu testen, ob der Chatverlauf richtig gesendet wird, bitten wir ihn, dasselbe in Javascript zu tun.

Da wir den Chatverlauf zur Verfügung stellen, kann der Modus verstehen, was wir mit "das Gleiche tun" meinen und gibt uns ein Beispiel für eine for Schleife in Javascript.

Fazit

In diesem Tutorial haben wir uns angeschaut, wie man mit Python das GPT-4.5-Modell von OpenAI einrichtet und mit ihm chattet. Wir haben gelernt, wie wir einen OpenAI-API-Schlüssel erstellen und ihn in unserer Python-Umgebung verwenden können, damit wir mit GPT-4.5 auch außerhalb der abonnementbasierten Plattform von OpenAI interagieren können.

Wir haben eine Python-Umgebung mit Anaconda eingerichtet, die notwendigen Pakete installiert und unsere erste Anfrage an die OpenAI-API gestellt.

Schließlich haben wir einen einfachen interaktiven terminalbasierten Chatbot gebaut, der einen Gesprächsverlauf führt.


François Aubry's photo
Author
François Aubry
LinkedIn
Das Unterrichten war schon immer meine Leidenschaft. Schon als Schülerin habe ich eifrig nach Möglichkeiten gesucht, anderen Schülern Nachhilfe zu geben und sie zu unterstützen. Diese Leidenschaft führte dazu, dass ich einen Doktortitel anstrebte, wobei ich auch als Lehrassistentin tätig war, um meine akademischen Bemühungen zu unterstützen. In diesen Jahren fand ich im traditionellen Klassenzimmer große Erfüllung, indem ich Verbindungen förderte und das Lernen erleichterte. Mit dem Aufkommen von Online-Lernplattformen erkannte ich jedoch das transformative Potenzial der digitalen Bildung. Ich war sogar aktiv an der Entwicklung einer solchen Plattform an unserer Hochschule beteiligt. Es ist mir ein großes Anliegen, traditionelle Unterrichtsprinzipien mit innovativen digitalen Methoden zu verbinden. Meine Leidenschaft ist es, Kurse zu erstellen, die nicht nur ansprechend und informativ, sondern auch für Lernende im digitalen Zeitalter zugänglich sind.
Themen

Lerne KI mit diesen Kursen!

Kurs

Working with the OpenAI API

3 hr
41.3K
Start your journey developing AI-powered applications with the OpenAI API. Learn about the functionality that underpins popular AI applications like ChatGPT.
Siehe DetailsRight Arrow
Kurs starten
Mehr anzeigenRight Arrow
Verwandt

Der Blog

Top 30 Generative KI Interview Fragen und Antworten für 2024

Dieser Blog bietet eine umfassende Sammlung von Fragen und Antworten zu generativen KI-Interviews, die von grundlegenden Konzepten bis hin zu fortgeschrittenen Themen reichen.
Hesam Sheikh Hassani's photo

Hesam Sheikh Hassani

15 Min.

Der Blog

Die 20 besten Snowflake-Interview-Fragen für alle Niveaus

Bist du gerade auf der Suche nach einem Job, der Snowflake nutzt? Bereite dich mit diesen 20 besten Snowflake-Interview-Fragen vor, damit du den Job bekommst!
Nisha Arya Ahmed's photo

Nisha Arya Ahmed

20 Min.

Der Blog

Lehrer/innen und Schüler/innen erhalten das Premium DataCamp kostenlos für ihre gesamte akademische Laufbahn

Keine Hacks, keine Tricks. Schüler/innen und Lehrer/innen, lest weiter, um zu erfahren, wie ihr die Datenerziehung, die euch zusteht, kostenlos bekommen könnt.
Nathaniel Taylor-Leach's photo

Nathaniel Taylor-Leach

4 Min.

Der Blog

Q2 2023 DataCamp Donates Digest

DataCamp Donates hat im zweiten Quartal 2023 über 20.000 Stipendien an unsere gemeinnützigen Partner vergeben. Erfahre, wie fleißige benachteiligte Lernende diese Chancen in lebensverändernde berufliche Erfolge verwandelt haben.
Nathaniel Taylor-Leach's photo

Nathaniel Taylor-Leach

Der Blog

2022-2023 DataCamp Classrooms Jahresbericht

Zu Beginn des neuen Schuljahres ist DataCamp Classrooms motivierter denn je, das Lernen mit Daten zu demokratisieren. In den letzten 12 Monaten sind über 7.650 neue Klassenzimmer hinzugekommen.
Nathaniel Taylor-Leach's photo

Nathaniel Taylor-Leach

8 Min.

Mehr anzeigenMehr anzeigen