Direkt zum Inhalt

OpenAIs O3: Funktionen, O1 Vergleich, Benchmarks & mehr

Erfahre mehr über OpenAIs o3 und o3 mini, einschließlich ihrer wichtigsten Funktionen, ARC AGI-Durchbrüche und Sicherheitsinnovationen wie deliberative Ausrichtung.
Aktualisierte 17. Apr. 2025  · 8 Min. Lesezeit

OpenAI hat gerade das lang erwartete o3-Modell veröffentlicht. Ursprünglich wurden o3 und o3-mini während des 12-tägigen Weihnachtsevents des Unternehmens im Dezember 2024 als großer Sprung nach vorn angekündigt - so sehr, dass OpenAI "o2" ganz weggelassen hat, um eine mögliche Verwechslung mit Telefonicas O2 zu vermeiden, aber wahrscheinlich auch, um einen großen Sprung nach vorn gegenüber OpenAI o1 zu signalisieren.

Nach monatelangem Hin und Her - einschließlich eines kurzen Umwegs, bei dem o3 angeblich in GPT-5 integriert werden sollte-hat OpenAI o3 zu seinem neuen Flaggschiffmodell gemacht. Es übertrifft o1 jetzt bei fast allen Benchmarks, mit vollem Tool-Zugriff in chatGPT und über API.

Lies weiter, um mehr über o3 und o3-mini zu erfahren. Wenn du auch etwas über das neueste Modell, o4-mini, erfahren möchtest, schau dir diese Einführung an o4-mini.

OpenAI Grundlagen

Benutze die OpenAI API und mehr!

Jetzt starten

Was ist OpenAI o3?

o3 ist OpenAIs neuestes Grenzmodell, das entwickelt wurde, um die Denkfähigkeiten bei einer Reihe komplexer Aufgaben wie Programmierung, Mathematik, Wissenschaft und visuelle Wahrnehmung zu verbessern. 

Das o3-Schlussfolgermodell ist das erste Schlussfolgermodellmit Zugriff auf die autonome Werkzeugnutzung. Das bedeutet, dass o3 die Suche, Python, Bilderzeugung und Interpretation nutzen kann, um seine Aufgaben zu erfüllen. 

Dies hat sich in einer starken Leistung bei anspruchsvollen Benchmarks niedergeschlagen, die das Lösen von Problemen in der realen Welt testen, bei denen frühere Modelle Schwierigkeiten hatten. OpenAI hebt die Verbesserungen von o3 gegenüber o1 hervor und bezeichnet es als das bisher leistungsfähigste und vielseitigste Modell. 

O1 vs. O3

o3 baut direkt auf dem Fundament von o1 auf, aber die Verbesserungen sind in wichtigen Bereichen erheblich. OpenAI hat o3 als ein Modell positioniert, das für komplexere Denkaufgaben entwickelt wurde, was sich in den Benchmarks widerspiegelt.

Codierung

Bei der Prüfung von Software-Engineering-Aufgaben erreichte o3 eine Genauigkeit von 69,1 % beim SWE-Bench Verified Software Engineering Benchmark, was eine deutliche Verbesserung gegenüber o1 (48,9 %) ist.

SWE Bench Verified Software Engineering Test für OpenAI o3

Quelle: OpenAI

Auch bei der Wettbewerbsprogrammierung erreichte o3 eine ELO-Punktzahl von 2706 und übertraf damit den bisherigen Höchstwert von o1 (1891) bei weitem. Außerdem schneidet o3 bei den Code-Editing-Benchmarks deutlich besser ab. Beim Aider Polyglot Code Editing Benchmark übertrifft die o3-Variante die o1-Variante auf ganzer Linie.  

Quelle: OpenAI

Mathematik und Wissenschaft

Die Verbesserungen beschränken sich nicht nur auf das Programmieren. o3 schneidet auch im mathematischen Denken besser ab und erreicht beim AIME 2024 eine Genauigkeit von 91,6 % im Vergleich zu 74,3 % bei o1. Auf dem AIME 2025 hat sie außerdem 88,9 % erreicht. Diese Fortschritte deuten darauf hin, dass das Modell differenziertere und schwierigere Probleme bewältigen kann und sich damit den Benchmarks annähert, die traditionell von menschlichen Experten dominiert werden.

OpenAI o1 vs. o3 auf AIME 2024 und AIME 2025 Wettbewerb Mathematik Benchmark Bewertung

Quelle: OpenAI

Ähnlich deutlich ist der Sprung bei den naturwissenschaftlichen Benchmarks. Beim GPQA Diamond, der die Leistung bei wissenschaftlichen Fragen auf PhD-Niveau misst, erreichte o3 eine Genauigkeit von 83,3 %, gegenüber 78 % bei o1. Diese Fortschritte zeigen, dass das Modell die Fähigkeit, technisch anspruchsvolle Probleme zu lösen, in allen Disziplinen verbessert hat.

OpenAI o3 Leistung auf GPQA Diamond

Quelle: OpenAI

Visuelles Denken

Einer der auffälligsten Aspekte des neuen o3-Modells ist seine Fähigkeit, Bilder direkt in seine Denkkette einzubeziehen. Das bedeutet, dass o3 beim Lösen von Problemen visuelles und textuelles Denken kombinieren kann, was sich in der Leistung von o3 bei verschiedenen Benchmarks zum visuellen Denken widerspiegelt.

Quelle: OpenAI 

So übertrifft o3 o1 bei einer Reihe von Benchmarks zum visuellen Denken, darunter der MMMU College-Level Benchmark zum visuellen Problemlösen (82,9 % gegenüber 77,6 % bei o1), der MathVista Visual Math Reasoning Benchmark (86,8 % gegenüber 71,8 % bei o1) und der CharXiv-Reasoning Scientific Figure Reasoning Benchmark (78,6 % gegenüber 55,1 % bei o1). 

Quelle: OpenAI

EpochAI-Grenzmathematik

Ein Bereich, in dem die Fortschritte von o3 besonders bemerkenswert sind, ist der EpochAI Frontier Math Benchmark.

Er gilt als einer der anspruchsvollsten Benchmarks in der KI, weil er aus neuartigen, unveröffentlichten Problemen besteht, die absichtlich so gestaltet sind, dass sie viel schwieriger sind als Standarddatensätze. Viele dieser Probleme sind auf dem Niveau der mathematischen Forschung und erfordern oft Stunden oder sogar Tage von professionellen Mathematikern, um ein einziges Problem zu lösen. Aktuelle KI-Systeme erreichen bei diesem Benchmark in der Regel weniger als 2 %, was seine Schwierigkeit unterstreicht.

O3 an der EpochAI-Grenze Mathematik

O3 auf EpochAI Frontier Math. Quelle: OpenAI

Epic AI's Frontier Math ist wichtig, weil es die Modelle über das Auswendiglernen oder die Optimierung von bekannten Mustern hinausbringt. Stattdessen wird ihre Fähigkeit getestet, zu verallgemeinern, abstrakt zu denken und Probleme zu lösen, mit denen sie noch nie in Berührung gekommen sind - Eigenschaften, die für die Weiterentwicklung der KI-Fähigkeiten unerlässlich sind. o3s Ergebnis von 25,2 % bei diesem Benchmark ist ein Sprung über den bisherigen Stand der Technik. .

Der Durchbruch von O3 bei ARC AGI

Einer der bemerkenswertesten Erfolge von o3 ist seine Leistung beim ARC AGI Benchmark, einem Test, der weithin als Goldstandard für die Bewertung der allgemeinen Intelligenz in der KI gilt.

Das 2019 von François Chollet entwickelte ARC (Abstraction and Reasoning Corpus) konzentriert sich darauf, die Fähigkeit einer KI zu bewerten, neue Fähigkeiten aus minimalen Beispielen zu lernen und zu verallgemeinern. Im Gegensatz zu herkömmlichen Benchmarks, die oft vortrainiertes Wissen oder Mustererkennung testen, sind die ARC-Aufgaben so konzipiert, dass sie die Modelle herausfordern, Regeln und Transformationen im Handumdrehen abzuleiten - Aufgaben, die Menschen intuitiv lösen können, mit denen sich die KI aber bisher schwer getan hat.

Was ARC AGI besonders schwierig macht, ist die Tatsache, dass jede Aufgabe unterschiedliche logische Fähigkeiten erfordert. Die Modelle können sich nicht auf auswendig gelernte Lösungen oder Vorlagen verlassen, sondern müssen sich bei jeder Prüfung auf völlig neue Herausforderungen einstellen. Bei einer Aufgabe könnte es zum Beispiel darum gehen, Muster in geometrischen Transformationen zu erkennen, während bei einer anderen Aufgabe Schlussfolgerungen über Zahlenfolgen gezogen werden müssen. Diese Vielfalt macht ARC AGI zu einem starken Maßstab dafür, wie gut eine KI wirklich wie ein Mensch denken und lernen kann.

Beispiel für eine Aufgabe aus dem ARC AGI-Test

Kannst du die Logik erraten, mit der die Eingabe in eine Ausgabe umgewandelt wird? Quelle: OpenAI

Die Leistung von o3 bei ARC AGI ist ein wichtiger Meilenstein. Bei niedrigen Recheneinstellungen erreichte o3 76 % im halbprivaten Holdout-Set - ein Wert, der weit über dem aller vorherigen Modelle liegt.

Bei Tests mit hohen Recheneinstellungen erreichte er sogar noch beeindruckendere 88 % und übertraf damit die 85 %-Schwelle, die oft als Leistung auf menschlichem Niveau genannt wird. Dies ist das erste Mal, dass eine KI den Menschen bei diesem Benchmark übertrifft und damit einen neuen Standard für logische Aufgaben setzt.

Leistung der O-Serie auf ARC AGI

Quelle: ArcPrize

Wir glauben, dass diese Ergebnisse besonders bemerkenswert sind, weil sie zeigen, dass o3 in der Lage ist, Aufgaben zu bewältigen, die Anpassungsfähigkeit und Verallgemeinerung erfordern, anstatt auswendig gelerntes Wissen oder rohe Berechnungen. Das ist ein klares Indiz dafür, dass o3 auf dem Weg zu echter allgemeiner Intelligenz ist, die über domänenspezifische Fähigkeiten hinausgeht und in Bereiche vordringt, von denen man bisher dachte, sie seien ausschließlich menschliches Terrain.

Die obigen Ergebnisse basieren jedoch auf der Version von o3, die im Rahmen des OpenAI-Events "12 Days of Christmas" im Dezember veröffentlicht wurde. OpenAI hat bestätigt, dass sich die neu veröffentlichte Version von o3 von der in den obigen Tests gezeigten Version unterscheidet. ARC AGI wird die aktualisierten Leistungsergebnisse von o3 bald veröffentlichen. 

o3 Technische Innovationen

Eine so große Leistungsverbesserung passiert nicht einfach so. Das Team von OpenAI hat einige Durchbrüche entdeckt, um diese Art von Zahlen zu erreichen:

Innovationen beim verstärkenden Lernen

OpenAI fand heraus, dass eine Erhöhung des Rechenbudgets während des Reinforcement-Learning-Trainings die Leistung des Modells verbessert - ähnlich dem Skalierungsverhalten, das wir beim überwachten Pre-Training in GPT-Modellen gesehen haben. Aber anstatt die Vorhersage des nächsten Wortes zu optimieren, lernt o3 durch die Maximierung der Belohnungen des Verstärkungslernens, oft durch eine durch das Werkzeug unterstützte Umgebung.

Mit anderen Worten: OpenAI behandelt das Verstärkungslernen eher wie ein Vortraining, indem es sowohl die Dauer als auch die Rechenleistung erhöht - und es scheint zu funktionieren. Dadurch werden Fähigkeiten freigeschaltet, die von langfristiger Planung und sequentiellem Denken profitieren, wie z.B. kompetitives Programmieren und mehrstufige mathematische Beweise. In Verbindung mit dem Einsatz von Werkzeugen wird der Leistungsgewinn noch deutlicher.

Innovationen im Bereich des visuellen Denkens

o3 zeigt auch deutliche Verbesserungen im visuellen Denken. Er versteht nicht nur Bilder, sondern integriert sie direkt in seine Denkschleife. Dazu gehört es, Bilder zu interpretieren, zu manipulieren und erneut zu betrachten, während du Probleme löst. Das ist ein Grund, warum o3 bei Aufgaben mit wissenschaftlichen Zahlen, mathematischen Diagrammen und sogar bei der Planung von Fotos gut abschneidet.

Eine wichtige Neuerung ist, dass o3 das Rohbild während des gesamten Rechenprozesses im Speicher behält. Anstatt eine statische Beschriftung zu verarbeiten und das Bild zu verwerfen, kann es bei Bedarf mit Werkzeugen zoomen, drehen oder verschiedene Teile des Bildes erneut betrachten. Das macht die Argumentation dynamischer und ermöglicht es, mit unübersichtlichen visuellen Eingaben umzugehen, z. B. mit einem verschwommenen Whiteboard, einem handgezeichneten Diagramm oder einem Foto eines Konferenzplans.

In einem Beispiel nutzte OpenAI o3, um ein qualitativ minderwertiges Bild eines Veranstaltungsplans zu lesen und eine Reiseroute zu planen, die jede Veranstaltung mit zehnminütigen Pausen dazwischen berücksichtigt - etwas, das sowohl das Parsen des visuellen Layouts als auch die Anwendung von Echtzeitbeschränkungen erfordern würde.

OpenAI o3 Visual Reasoning Problem mit Terminkonflikten

Wir wollten die visuellen Fähigkeiten mit einem eigenen Schnelltest testen. Wir gaben o1 zunächst eine rudimentäre Zeichnung und fragten es: "Welches Fraktal beginnen wir zu zeichnen?" 

Testen des visuellen Denkens von OpenAI o3 mit einer Zeichnung

o1 hat falsch geantwortet. o3 hingegen hat es richtig gemacht: Es sagte uns, dass wir anfangen, die Drachenkurve zu ziehen. Das war ein kleiner Test, aber wir waren von dem Ergebnis beeindruckt, denn wir haben o3 nicht viel zugemutet.

OpenAI o3 Visual Reasoning Analyse für eine fraktale Zeichnung

Innovationen bei der Kosteneffizienz

Interessanterweise ist das Verhältnis zwischen Kosten und Leistung bei o3 besser. Das heißt, die Leistung ist bei gleichbleibenden Inferenzkosten höher. Dies könnte auf Optimierungen der Architektur zurückzuführen sein, die den Token-Durchsatz verbessern und die Latenzzeit verringern. Die Kosten sind ein großes Diskussionsthema, seit Deepseek-R1 eine sehr hohe Leistung zu einem Bruchteil der Kosten von ChatGPT angekündigt hat.

o1 vs o3 Kosten vs Leistung

Was ist o3 Mini?

Im April 2025 wurde o3-mini vollständig durch o4-mini in chatGPT und der APIersetzt. o4-mini bietet bei den meisten Benchmarks eine bessere Leistung, fügt native multimodale Eingaben hinzu und behält die Kompatibilität mit Tools bei - und ist dabei schneller und günstiger als o3. Tatsächlich übernimmt o4-mini jetzt die Rolle, die o3-mini ausfüllen sollte. Der folgende Inhalt gilt jedoch weiterhin für o3-mini.

o3-mini wurde neben o3 als kosteneffiziente Alternative eingeführt, um mehr Nutzerinnen und Nutzern erweiterte Argumentationsfähigkeiten zur Verfügung zu stellen und gleichzeitig die Leistung zu erhalten. OpenAI beschreibt o3-mini als eine Neudefinition der "Kosten-Leistungs-Grenze" bei Reasoning-Modellen, die es für Aufgaben zugänglich macht, die eine hohe Genauigkeit erfordern, aber mit Ressourcenbeschränkungen zurechtkommen müssen.

Eine der herausragenden Eigenschaften von o3-mini ist seine adaptive Denkzeit, mit der die Nutzer/innen die Denkleistung des Modells an die Komplexität der Aufgabe anpassen können. Für einfachere Probleme können die Nutzer/innen auswählen, um die Geschwindigkeit und Effizienz zu maximieren.

Bei anspruchsvolleren Aufgaben kann das Modell dank der Optionen für einen höheren Denkaufwand eine vergleichbare Leistung wie o3 selbst erbringen, allerdings zu einem Bruchteil der Kosten. Diese Flexibilität ist besonders für Entwickler und Forscher interessant, die mit verschiedenen Anwendungsfällen arbeiten.

O3 mini Benchmarks

Quelle: OpenAI

Die Live-Demo hat gezeigt, dass o3-mini hält, was es verspricht. In einer Programmieraufgabe wurde o3-mini zum Beispiel damit beauftragt, ein Python-Skript zu erstellen, um einen lokalen Server mit einer interaktiven Benutzeroberfläche für Tests zu erstellen. Trotz der Komplexität der Aufgabe hat das Modell gut abgeschnitten und gezeigt, dass es mit den Herausforderungen der Programmierung umgehen kann.

Mit o3 mini erstellte interaktive Benutzeroberfläche während der Live-Demo

Quelle: OpenAI

Wir sehen o3-mini als praktische Lösung für Szenarien, in denen Kosteneffizienz und Leistung übereinstimmen müssen.

o3 Aktualisierungen bei Sicherheitsprüfungen

Es hat etwas länger gedauert, bis O3 verfügbar war, und einige der Gründe dafür könnten mit Innovationen im Bereich Sicherheit zusammenhängen.

Verweigerungstraining neu definiert

OpenAI hat nach eigenen Angaben seine Sicherheitstrainingsdatensätze überarbeitet und Tausende von gezielten Ablehnungsaufforderungen eingeführt. Sie nannten bestimmte Kategorien: biologische Bedrohungen, Malware-Generierung und Jailbreak-Techniken. Dank dieser aufgefrischten Trainingsdaten konnte o3 bei internen Benchmarks wie der Handhabung der Befehlshierarchie und der Widerstandsfähigkeit gegen Gefängnisausbrüche eine hohe Ablehnungsgenauigkeit nachweisen. Um dies zu erreichen, haben die Teammitglieder von OpenAI Berichten zufolge tausend Stunden damit verbracht, unsichere Inhalte zu markieren.

Überwachung mit begründeten LLMs

OpenAI hat auch einen auf Schlussfolgerungen basierenden LLM-Monitor implementiert (den sie als "sicherheitsfokussierten, schlussfolgernden Monitor" bezeichnen). Zusätzlich zum Training des Modells, bei unsicheren Aufforderungen "Nein" zu sagen, hat OpenAI eine zusätzliche Sicherheitsebene eingeführt, die auf einem schlussfolgernden LLM basiert. Stell dir das wie ein parallel laufendes Überwachungsmodell vor, das speziell darauf trainiert ist, die Absichten und potenziellen Risiken von Benutzereingaben zu durchschauen und sich dabei an von Menschen geschriebenen Sicherheitsregeln zu orientieren.

Deliberative Ausrichtung

OpenAI hat einen proaktiven Ansatz für die Sicherheitstests von o3 und o3 mini gewählt, indem es Forschern den Zugang für öffentliche Sicherheitstests öffnet, bevor die Modelle vollständig veröffentlicht werden.

Ein zentrales Merkmal der Sicherheitsstrategie von OpenAI für o3 ist die deliberative Ausrichtung, eine Methode, die über traditionelle Sicherheitsansätze hinausgeht. Die folgende Grafik zeigt, wie sich die deliberative Ausrichtung von anderen Methoden wie RLHF (Reinforcement Learning with Human Feedback) unterscheidet, RLAIF (Reinforcement Learning with AI Feedback) und Inferenzzeit-Verfeinerungstechniken wie Self-REFINE.

deliberatives Alighment vs. rlhf vs. rlaif vs. Inferenzzeit-Verfeinerungstechniken

Quelle: OpenAI

Beim deliberativen Abgleich verlässt sich das Modell nicht einfach auf statische Regeln oder Präferenzdaten, um zu bestimmen, ob eine Aufforderung sicher oder unsicher ist. Stattdessen nutzt es seine Denkfähigkeiten, um Aufforderungen in Echtzeit zu bewerten. Die Grafik oben veranschaulicht diesen Prozess:

  1. Generierung von Trainingsdaten: Im Gegensatz zu RLHF, bei dem menschliche Eingaben direkt in das Modell einfließen, wird beim deliberativen Alignment ein Argumentationsmodell verwendet, um die chain-of-thought (CoT) Ergebnisse für bestimmte Aufforderungen. Diese CoT-Outputs liefern nuancierte Argumentationsmuster, die den Trainingsprozess leiten und dem Modell helfen, Kontext und Absicht besser zu verstehen.
  2. Inferenzzeit: Während der Schlussfolgerung wertet das Argumentationsmodell die Eingabeaufforderungen aus und liefert neben den Antworten auch eine Erklärung der Gedankenkette. Dieser Schritt ermöglicht es dem Modell, die Absicht und den Kontext einer Aufforderung dynamisch zu bewerten und potenzielle versteckte Risiken oder Unklarheiten zu identifizieren, die statischen Regeln entgehen könnten.

OpenAI geht davon aus, dass wir uns weiter über Sicherheit informieren wollen. In Erwartung dessen veröffentlichten sie ihr Preparedness Framework mit ihren Ideen zur Messung und zum Schutz vor schweren Schäden.

Was ist mit o3-Pro?

In der ChatGPT-Modellauswahl siehst du jetzt o3 und o4-mini. Laut der Ankündigung von OpenAI wird o3-pro voraussichtlich in den nächsten Wochen starten. Es wird dieselben Funktionen wie die anderen Modelle der o-Serie enthalten, z. B. Python, Browsing und Bildanalyse.

Wenn du wissen willst, wann o3-pro verfügbar ist, melde dich für den DataCamp-Newsletter The Median an und wir informieren dich, sobald er erscheint.

Fazit

O3 und o3 mini verdeutlichen die wachsende Komplexität von KI-Systemen und die Herausforderungen, sie verantwortungsvoll freizugeben. Die Benchmarks sind zwar beeindruckend, aber wir interessieren uns mehr für die Fragen, die diese Modelle aufwerfen: Wie gut werden sie auch in der Praxis funktionieren? Sind die Sicherheitsmaßnahmen robust genug, um Grenzfälle in großem Umfang zu bewältigen?

Für uns sind o3 und o3 mini frühe Signale für KI-Systeme, die auf dem Weg zu mehr Autonomie sind. Ihr beeindruckendes Denkvermögen und ihre Anpassungsfähigkeit deuten darauf hin, dass wir nicht mehr mit Werkzeugen arbeiten, sondern mit Agenten, die in unserem Namen handeln. Was passiert, wenn diese Systeme offene Aufgaben ohne menschliche Führung bewältigen? Wie bewerten wir Modelle, die ihre eigenen Ziele und nicht nur ihre Ergebnisse generieren?

Wenn du dich für weitere KI-Themen interessierst, empfehlen wir dir:

FAQs

Was ist OpenAI o3, und wie unterscheidet es sich von o1?

o3 ist die neueste Version von OpenAIs Argumentationsmodellen. Im Vergleich zu OpenAI o1 zeigen die o3- und o3-mini-Modelle eine bessere Leistung bei logischen Aufgaben, einschließlich Codierung, wissenschaftlicher Analyse und bahnbrechenden Fähigkeiten für neue Aufgaben.

Ist OpenAI o3 multimodal?

Zurzeit gibt es noch keine Ankündigung über multimodale Fähigkeiten für o3.

Was ist der Unterschied zwischen OpenAI o3 und o3-mini?

Ähnlich wie bei OpenAI O1 und O1-mini wird erwartet, dass OpenAI O3-mini etwas weniger leistungsfähig ist als O3, dafür aber kostengünstiger zu betreiben und zu nutzen. 


Alex Olteanu's photo
Author
Alex Olteanu
LinkedIn

Ich bin Redakteurin und Autorin für KI-Blogs, Tutorials und Nachrichten und sorge dafür, dass alles zu einer starken Content-Strategie und SEO-Best Practices passt. Ich habe Data-Science-Kurse über Python, Statistik, Wahrscheinlichkeit und Datenvisualisierung geschrieben. Außerdem habe ich einen preisgekrönten Roman veröffentlicht und verbringe meine Freizeit mit Drehbuchschreiben und Filmregie.


Adel Nehme's photo
Author
Adel Nehme

Adel ist Data Science Educator, Speaker und Evangelist bei DataCamp, wo er verschiedene Kurse und Live-Trainings zu Datenanalyse, maschinellem Lernen und Data Engineering veröffentlicht hat. Er setzt sich leidenschaftlich für die Verbreitung von Datenkenntnissen und Datenkompetenz in Organisationen und an der Schnittstelle zwischen Technologie und Gesellschaft ein. Er hat einen MSc in Data Science und Business Analytics. In seiner Freizeit ist er mit seinem Kater Louis unterwegs.


Josef Waples's photo
Author
Josef Waples
Themen

Lerne KI mit diesen Kursen! 

Lernpfad

ChatGPT Fundamentals

3hrs hr
Explore the essentials of ChatGPT and prompt engineering. Master crafting prompts to maximize ChatGPT's capabilities.
Siehe DetailsRight Arrow
Kurs starten
Mehr anzeigenRight Arrow
Verwandt

Der Blog

Top 30 Generative KI Interview Fragen und Antworten für 2024

Dieser Blog bietet eine umfassende Sammlung von Fragen und Antworten zu generativen KI-Interviews, die von grundlegenden Konzepten bis hin zu fortgeschrittenen Themen reichen.
Hesam Sheikh Hassani's photo

Hesam Sheikh Hassani

15 Min.

Der Blog

Die 50 besten AWS-Interview-Fragen und Antworten für 2025

Ein kompletter Leitfaden zur Erkundung der grundlegenden, mittleren und fortgeschrittenen AWS-Interviewfragen, zusammen mit Fragen, die auf realen Situationen basieren.
Zoumana Keita 's photo

Zoumana Keita

15 Min.

Der Blog

Lehrer/innen und Schüler/innen erhalten das Premium DataCamp kostenlos für ihre gesamte akademische Laufbahn

Keine Hacks, keine Tricks. Schüler/innen und Lehrer/innen, lest weiter, um zu erfahren, wie ihr die Datenerziehung, die euch zusteht, kostenlos bekommen könnt.
Nathaniel Taylor-Leach's photo

Nathaniel Taylor-Leach

4 Min.

Der Blog

Q2 2023 DataCamp Donates Digest

DataCamp Donates hat im zweiten Quartal 2023 über 20.000 Stipendien an unsere gemeinnützigen Partner vergeben. Erfahre, wie fleißige benachteiligte Lernende diese Chancen in lebensverändernde berufliche Erfolge verwandelt haben.
Nathaniel Taylor-Leach's photo

Nathaniel Taylor-Leach

Der Blog

Die 20 besten Snowflake-Interview-Fragen für alle Niveaus

Bist du gerade auf der Suche nach einem Job, der Snowflake nutzt? Bereite dich mit diesen 20 besten Snowflake-Interview-Fragen vor, damit du den Job bekommst!
Nisha Arya Ahmed's photo

Nisha Arya Ahmed

15 Min.

Der Blog

2022-2023 DataCamp Classrooms Jahresbericht

Zu Beginn des neuen Schuljahres ist DataCamp Classrooms motivierter denn je, das Lernen mit Daten zu demokratisieren. In den letzten 12 Monaten sind über 7.650 neue Klassenzimmer hinzugekommen.
Nathaniel Taylor-Leach's photo

Nathaniel Taylor-Leach

8 Min.

Mehr anzeigenMehr anzeigen