Weiter zum Inhalt

ChatGPT Images 2.0: Ein Guide zum Next-Gen-Imagemodell von OpenAI

Entdecke, wie ChatGPT Images 2.0 die Bildgenerierung in eine neue Ära führt – mit stärkerem Alltagsverständnis, mehrsprachigem Textrendering, stilistischem Realismus und einem Workflow wie mit einem visuellen Sparringspartner.
Aktualisiert 22. Apr. 2026  · 14 Min. lesen

Es ist fast genau ein Jahr her, seit die erste Version von ChatGPT Images mit dem Modell GPT Image 1 erschien. OpenAI hat sein Imagemodell nun erneut grundlegend überarbeitet und verkauft uns die Idee, dass der "Image Generator" jetzt ein "visueller Denksparringspartner" ist.

In diesem Artikel zeigen wir dir, was neu ist, wie es sich gegenüber dem Vorgänger ChatGPT Images 1.5 schlägt, wie es im Vergleich zu Googles Nano Banana 2 abschneidet und wo das Modell glänzt (und wo nicht).

Was ist ChatGPT Images 2.0?

ChatGPT Images 2.0 ist OpenAIs Bildmodell der nächsten Generation. Es wird als System positioniert, das erst recherchiert und schlussfolgert – und dann rendert.

Willst du mit generativer KI beginnen?

Lerne, wie du mit LLMs in Python direkt in deinem Browser arbeiten kannst

Jetzt starten

Was ist neu bei ChatGPT Images 2.0?

Eine der größten Erkenntnisse aus dem Release von ChatGPT Images 1.5 war der deutliche Performance-Schub. Damals hieß es, es sei viermal schneller. Wir haben das überprüft, sahen aber, dass sich das vor allem auf Bearbeitungen bezog, nicht auf die Neugenerierung von Bildern. 

Diesmal lautet die große Botschaft: Intelligenz. ChatGPT Images 2.0 ist ein „denkend“ arbeitendes Imagemodell. Es soll recherchieren, Fakten einordnen und grobe Eingaben (Notizen, Skizzen, Referenzen) mit deutlich weniger manuellen Prompts in saubere Visuals übersetzen.

Weitere Kernpunkte der Ankündigung:

  • Mehr Präzision und Kontrolle bei der Generierung selbst
  • Stärker in mehreren Sprachen und Schriftsystemen
  • Mehr stilistische Raffinesse und Realismus
  • Besseres Weltverständnis direkt im Modell verankert
  • Flexible Seitenverhältnisse – von Mobile bis Banner

Ein Modell, das mitdenkt

Eine der größten Aussagen: Das neue Modell „denkt“ und agiert wie ein „visueller Denksparringspartner“. Die Idee: Agenten arbeiten im Hintergrund, verstehen die Aufgabe gründlich und planen, bevor sie die Bildgenerierung ausführen.

Sein Weltwissen wurde bis Dezember 2025 aktualisiert, wodurch Ausgaben kontextuell stimmiger sind. Das soll das Modell besonders für Bildungsgrafiken und mehrstufige Workflows mit Kontextanforderungen stark machen.

Das Web durchsuchen

Um die Lücke zwischen Wissensstichtag und aktuellen Informationen zu schließen, kann Images 2.0 das Web durchsuchen. Aus OpenAIs Release Notes geht nicht exakt hervor, wie das funktioniert, aber nach unserem Verständnis dient die Websuche als Tool, das vom oben erwähnten denkenden Agenten aufgerufen wird.

Mehrere Bilder aus einem Prompt erzeugen

Das neue Modell unterstützt nativ die Generierung mehrerer Bilder aus demselben Prompt. Über die API ging das zuvor per Workaround (eine „Komposition“ anfordern), jetzt auch direkt im UI – bis zu zehn Bilder. OpenAI verspricht durchgängige Konsistenz von Figuren und Objekten über alle Ausgaben hinweg.

ChatGPT Images 2.0 im Test

Zeit zu sehen, was das neue Modell wirklich kann! Wir haben folgende Fähigkeiten und Features getestet:

  • Editing-Workflow
  • Thinking Mode und Websuche
  • Stilistische Bandbreite
  • Feinschliff von groben Skizzen
  • Flexible Seitenverhältnisse
  • Kreativität

Den Editing-Workflow testen

OpenAIs Pitch für 2.0 setzt stark auf Iteration: grobe Eingabe rein, poliertes Asset raus – mit besseren Trefferquoten bei Anweisungen und dichter Textdarstellung. Wir haben den Loop mit einer berühmten US-Briefmarke von 1898 getestet: Western Cattle in Storm.

Hier ein Foto einer Marke in der Erhaltungsstufe Fine. 

1898 Western Cattle in Storm stamp in fine condition

Um den Editing-Workflow gezielt zu prüfen, nutzten wir folgenden Prompt ohne Thinking Mode. Das bedeutet auch: keine Websuche – die haben wir separat getestet.

Please create for me a picture of the famous 1898 Western Cattle in Storm stamp issued by the U.S. Post Office as part of the Trans-Mississippi Issue . The name of the stamp is "Western Cattle in Storm" Quality should be Fine to Very Fine -Centering: design shifted right, left margin twice as wide as right margin, perfs nearly touching design on the right side -Perforations: two short teeth on the top edge, slightly uneven spacing along the bottom -Gum: quarter-inch matte hinge remnant in upper-center of back, small paper fragment still -attached -Paper: diagonal gum bend across lower-left quadrant, light yellow toning along top edge -Cancellation: partial black circular datestamp in lower-right corner, moderate coverage over the cattle

Und hier das Ergebnis: 

Prompt: Please create for me a picture of the famous 1898 Western Cattle in Storm stamp issued by the U.S. Post Office as part of the Trans-Mississippi Issue . The name of the stamp is "Western Cattle in Storm" Quality should be Fine to Very Fine -Centering: design shifted right, left margin twice as wide as right margin, perfs nearly touching design on the right side -Perforations: two short teeth on the top edge, slightly uneven spacing along the bottom -Gum: quarter-inch matte hinge remnant in upper-center of back, small paper fragment still -attached -Paper: diagonal gum bend across lower-left quadrant, light yellow toning along top edge -Cancellation: partial black circular datestamp in lower-right corner, moderate coverage over the cattle

Nur Text hat nicht funktioniert. Die detaillierte Beschreibung der Marke und ihrer Erhaltungsnote kam in den wichtigen Punkten falsch zurück – falsche Farbe, falsches Layout der Wertangabe, karikaturhaftes Off-Centering. Ein historisches Artefakt rein aus Text zu reproduzieren, ist eine hohe Hürde.

Erst als wir dem Modell das Referenzbild gaben und gezielte Edits verlangten, spielte 2.0 seine Stärken aus: Unregelmäßigkeiten der Zähnung, ein Hinge-Überrest, ein diagonaler Gum-Bend, leichte Tönung und ein teilweiser Stempel.

Die Edits landeten ungefähr dort, wo wir sie wollten. Das Modell führte einen kleinen Seitenverhältnis-Fehler ein, aber ein einfacher Folgeprompt behob das. Das Endergebnis ist nicht forensik-tauglich – die "$1" wirkt etwas gestaucht, der Mais ist anders –, aber der Loop hat funktioniert: holpriger Start, Kurskorrektur, nutzbares Resultat in drei Runden.

Edited version of the stamp

Thinking Mode und Websuche testen

Beim Test der Websuche mussten wir vorsichtig sein: Wenn du dem Modell im Prompt sagst, was du willst, testest du nicht die Suche, sondern die Befolgung von Anweisungen. Der sauberste Test ist, nach etwas sehr Aktuellem und Spezifischem zu fragen, kaum Informationen zu geben und zu sehen, ob das Modell die Lücken korrekt füllt.

Wir wählten den Boston Marathon von gestern. Das Rennen endete am Montag, 20. April – einen Tag vor der Ankündigung von ChatGPT Images 2.0 – und der Männer-Streckenrekord wurde erstmals seit 2011 gebrochen. Das liefert einen konkreten Faktenkatalog (Sieger, Land, Zeit, Abstand, Kontext), den das Modell unmöglich aus dem Training haben kann, der sich aber per Kurssuche leicht prüfen lässt.

Hier der stark abgespeckte Prompt. Und im Ergebnis sieht man: Das Modell sucht tatsächlich im Web!

Create a celebratory poster-style infographic commemorating the course record set at yesterday's Boston Marathon. Include the winner's name, country, finish time, and the margin by which the previous record was broken. Include one or two additional stats or context details that make the achievement meaningful.

Prompt: Create a celebratory poster-style infographic commemorating the course record set at yesterday's Boston Marathon. Include the winner's name, country, finish time, and the margin by which the previous record was broken. Include one or two additional stats or context details that make the achievement meaningful.

Das Ergebnis sieht visuell sehr ansprechend aus und hält sich am Farbcode des Boston Marathons – ein nettes Extra. Alle genannten Fakten stimmen; wir haben sie gegenrecherchiert.

Noch beeindruckender wird es im Vergleich zum Output des alten Modells (Images 1.5) oder des neuen Modells ohne Thinking Mode – bei identischem Prompt:

Prompt: Create a celebratory poster-style infographic commemorating the course record set at yesterday's Boston Marathon. Include the winner's name, country, finish time, and the margin by which the previous record was broken. Include one or two additional stats or context details that make the achievement meaningful. (Result without thinking mode)

Stilistisch kann es mithalten, aber bei den Zahlen gibt es etliche Probleme.

  • Der Lauf war die 130. Auflage des Boston Marathons, also müsste es „129 Jahre Tradition“ heißen, nicht 127.
  • Die Aussage, er sei der „3. Läufer der Geschichte unter 2:04 im Marathon“, ist falsch. Rund 20 Läufer haben das geschafft.
  • Laut Website der Boston Athletic Association lag seine zweite Rennhälfte bei 1:00:02, nicht 1:01:05 (was trotzdem noch die schnellste zweite Hälfte gewesen sein könnte).
  • Am gravierendsten: ChatGPT Images verwechselte neue und alte Rekordzeit. Der alte Rekord lag bei 2:03:02; der neue bei 2:01:52. Die Differenz beträgt 1:10 Minuten.
  • Da John Korir auch den letztjährigen Boston Marathon gewann, ist anzunehmen, dass das Modell bei einem anderen Sieger den Namen nicht richtig getroffen hätte.

Die Suchfähigkeit macht beim visuellen Aufbereiten aktueller Informationen einen Unterschied. Dafür muss der Thinking Mode aktiv sein.

Stilistische Bandbreite testen

OpenAI verspricht spürbare Fortschritte bei der stilistischen Raffinesse – von Fotografie über Illustration, Manga und Pixel Art bis hin zu weiteren Stilen. Der ehrliche Test ist nicht, ob ein einzelnes Bild gut aussieht, sondern ob dasselbe Motiv in drei klar unterschiedlichen Stilen jeweils authentisch wirkt – oder ob alles einen typischen, leicht erkennbaren KI-Glanz trägt.

Dafür baten wir um drei Varianten einer Espressomaschine auf einer Holzwerkbank (Fotografie, Manga, Pixel Art). Hier sind die Prompts und Ergebnisse:

A battered, vintage espresso machine sitting on a wooden workbench next to a potted fern. Style: 35mm street photography, gritty, natural window lighting, Kodak Portra 400, shallow depth of field.

Vintage espresso machine (photograph)

A battered, vintage espresso machine sitting on a wooden workbench next to a potted fern. Style: 1990s Japanese manga, black and white ink drawing, screentone shading, bold linework, Katsuhiro Otomo style.

Copyright-related request denial

Ein interessantes – und ironisches – Ergebnis, wenn man bedenkt, dass Image 1 vor einem Jahr mit Studio-Ghibli-Montagen viral ging (auch bei uns). Offenbar ist OpenAI beim Thema Urheberrecht und IP inzwischen vorsichtiger.

Indem wir Katsuhiro Otomos Stil beschrieben, ohne ihn namentlich zu nennen, klappte es. Wichtig: Wir mussten dafür einen neuen Chat öffnen. Im gleichen Chat merkte das Modell offenbar, dass wir die Sperre umgehen wollten.

A battered, vintage espresso machine sitting on a wooden workbench next to a potted fern. Style: 1990s Japanese manga, black and white ink drawing, screentone shading, bold linework, hyper-detailed mechanical illustration, dramatic high contrast, retro-cyberpunk aesthetic.

Vintage espresso machine (black-white anime)

A battered, vintage espresso machine sitting on a wooden workbench next to a potted fern. Style: 16-bit pixel art, isometric perspective, crisp edges, limited SNES color palette.

Vintage espresso machine (pixel-art)

Unser Eindruck: Alle drei Bilder sehen stark aus und treffen die jeweils sehr spezifischen Stile authentisch. Das Foto wirkt sehr natürlich, die beiden anderen könnten direkt aus einem Manga-Band bzw. einem SNES-Spiel stammen.

Auffällig ist zudem, wie das Modell seine flexiblen Seitenverhältnisse nutzt und pro Stil passend wählt: 16:9-Landschaft fürs Foto, Hochformat für das Manga-Bild und ein quadratisches Pixel-Art-Motiv.

Flexible Seitenverhältnisse testen

Das Release unterstützt Seitenverhältnisse von 3:1 bis 1:3 und Auflösungen bis 2K. Die spannende Frage ist nicht, ob ein langes oder breites Bild möglich ist – sondern ob das Modell intelligent über Formate hinweg neu komponiert oder nur zuschneidet.

Um die räumliche Logik offenzulegen, braucht es eine Szene mit klaren, unverrückbaren Elementen auf mehreren Achsen (etwas Hohes, etwas Breites und ein zentrales Subjekt).

Als Test generierten wir unser Motiv (einen Astronauten in einer spezifischen Umgebung) aus einem Basisprompt und baten das Modell dann, es als Mobile-Wallpaper, Banner und Quadrat neu zu erstellen – um zu sehen, wie sich die Komposition anpasst.

Der Basisprompt:

A lone astronaut standing on a rocky, desolate hill. To the far left, a massive, blocky futuristic rover is parked. In the sky directly above the astronaut, a gigantic, luminous ringed planet dominates the starry backdrop.

Prompt: A lone astronaut standing on a rocky, desolate hill. To the far left, a massive, blocky futuristic rover is parked. In the sky directly above the astronaut, a gigantic, luminous ringed planet dominates the starry backdrop.

Schauen wir uns die Varianten an:

Recreate the original image as a banner

Recreate the original image as a banner

Recreate the original image as a mobile wallpaper

Recreate the original image as a mobile wallpaper

Recreate the original image as a square

Recreate the original image as a square

Jede Version wählte ein passendes Seitenverhältnis, enthält alle wichtigen Elemente (Astronaut, Rover, Planet), ordnet sie wie im Originalprompt und zentriert sie sauber. Test bestanden.

Von grobem Input zum polierten Output

Das Sparringspartner-Versprechen basiert darauf, dass das Modell vage oder chaotische Inputs – grobe Skizze, Stichpunkte, ein paar Referenzen – in ein fertiges Asset verwandelt. Darum dreht sich dieses Release im Kern; entsprechend haben wir genau das getestet. 

Dazu luden wir diese sehr grobe Bleistiftskizze einer Hütte am See hoch:

Pencil sketch

Zur Schwierigkeit trägt bei: viele Details, das finnische Wort für Steg („laituri“), zwei Gebäudetypen (Haus und Hütte) sowie zwei Wasserflächen (See und Teich) – Potenzial für Verwechslungen.

Turn this crude layout into a photorealistic, cinematic landscape of a modern cabin at sunset. Keep elements where I mapped them out. The cabin includes a sauna with smoke coming out of the chimney.

Prompt: Turn this crude layout into a photorealistic, cinematic landscape of a modern cabin at sunset. Keep elements where I mapped them out. The cabin includes a sauna with smoke coming out of the chimney.

Das Ergebnis ohne Thinking Mode wirkt ordentlich, aber nicht sehr fotorealistisch. Lichtstimmung passt, und die Bildwirkung trifft den Prompt gut. Fast alle Elemente aus der Skizze sind da. Ein paar Details weichen ab:

  • Das Boot fehlt.
  • Der Steg ist am Teich, nicht am See.
  • Die Sonne steht nicht oben rechts.

Mit demselben Prompt und der gleichen Skizze im Thinking Mode war der Output deutlich realistischer und korrigierte die kleinen Ungenauigkeiten:

Prompt: Turn this crude layout into a photorealistic, cinematic landscape of a modern cabin at sunset. Keep elements where I mapped them out. The cabin includes a sauna with smoke coming out of the chimney.

Das Bild enthält jedes Element aus der Skizze an der vorgesehenen Position und wirkt sehr stimmig. Wichtiges Learning: Für den Sprung von grober Skizze zu fotorealistischem Bild lohnt sich der Thinking Mode.

Kreativität testen

Als Nächstes wollten wir sehen, ob das Modell die konkrete Poesie von Niikuni Seiichi nachbilden kann.

Dieses berühmte Gedicht zeigt das japanische Kanji für Regen, umgeben von Regen – gewissermaßen Regen in Sprache eingefangen.

concrete poetry of Niikuni Seiichi

Hier unser Prompt:

Please recreate the concrete poetry of Niikuni Seiichi. I want to see "Ame" meaning Rain. But make it different using your creativity.

Und hier das Ergebnis:

Prompt: Please recreate the concrete poetry of Niikuni Seiichi. I want to see "Ame" meaning Rain. But make it different using your creativity.

Das finden wir spannend. Es hat das Bild nicht exakt rekonstruiert, sondern etwas Eigenes geschaffen. In der neuen Komposition ist das Kanji für „Regen“ nicht von Regen umgeben, sondern fällt selbst als Regen. Die Anordnung der Zeichen wirkt sehr zufällig – wie Regentropfen –, steht aber in schönem Kontrast zum sehr geordneten Original.

Wie kann ich auf ChatGPT Images 2.0 zugreifen?

Der Zugang folgt dem Muster der vorherigen Version. Der im Dezember eingeführte dedizierte Kreativbereich bleibt – Canvas-Editor, persistente Artefakte, Stilpresets – darunter arbeitet nun ein deutlich leistungsfähigeres Modell.

  • Web, Mobile-App und Codex: ChatGPT Images 2.0 ist im Tab Images für Free-, Plus- und Pro-Nutzer verfügbar, mit nutzungsabhängigen Limits je Tarif. Zugang für Business und Enterprise folgt in der Regel nach dem ersten Rollout.
  • API: Entwicklerinnen und Entwickler können das neue Modell über die OpenAI API und den Azure OpenAI Service nutzen – über die Endpunkte für Bildgenerierung und -bearbeitung. Wie bei 1.5 wird die Bildausgabe in Tokens bepreist; Teilregeneration bei Edits hält die Kosten niedriger als eine komplette Neugenerierung.

ChatGPT Images 2.0 vs. Nano Banana 2

Du fragst dich vielleicht, wie sich ChatGPT Images 2.0 im Vergleich zu Nano Banana 2 schlägt. Beide Modelle sind neu, beide sind der Default in ihren Ökosystemen und beide werden mit Tempo, Reasoning und Alltagsintelligenz beworben.

 

ChatGPT Images 2.0

Nano Banana 2

Basisarchitektur

GPT-Image-2 (Nachfolger von GPT-Image-1.5)

Gemini 3.1 Flash

Editing-Modell

Präzision: Bereichsauswahl & In-Place-Editing

Reasoning: Konversationell & Smart Masking

Workflow

Dedizierter Kreativbereich (Images-Tab)

In Gemini Chat integriert

Iteration

Effizient: Teilregeneration

Schnell: 4–6 s bei 1K, steuerbar über Thinking Mode

Realitätsbezug

Eingebautes Reasoning und aktuelles Wissen

Image Search Grounding (zieht Live-Referenzen aus Google Search)

Mehrbild-Konsistenz

Stark über Sequenzen und Character Sheets

Stark, mit Fokus auf Subjektkonsistenz

Mehrsprachiger Text

Großes Upgrade vs. 1.5; breite Script-Unterstützung

Stark, besonders in Chinesisch und ostasiatischen Layouts

Standardauflösung

Standard + flexible Seitenverhältnisse

2K-Default in der Gemini App

Ökosystem

OpenAI & Azure

Google-/Gemini-Stack, Search, Lens

Wann ChatGPT Images 2.0 vs. Nano Banana 2 nutzen?

Nutze ChatGPT Images 2.0, wenn …

  • Du einen referenzgeführten Editing-Loop brauchst. Das Modell akzeptiert ein Referenzbild und setzt gezielte Änderungen (Texturdetails, Positionskorrekturen, Seitenverhältnis-Fixes) über mehrere Runden um. Einfache Folgeprompts steuern zuverlässig nach, ohne neu zu starten – das spart auch Tokens.
  • Du grobe Inputs in polierte Assets verwandelst. Der Thinking Mode löst vage Skizzen und räumliche Anweisungen in präzise, fotorealistische Kompositionen auf – mit exakt platzieren Elementen.
  • Fakten im Bild absolut sitzen müssen. Websuche verankert Live-Informationen und rendert sie korrekt im Bild – ideal für Eventposter, News-Infografiken oder jedes Visual, in dem Zahlen und Namen stimmen müssen. Denk daran: Thinking Mode aktivieren, sonst keine Websuche.

Nutze Nano Banana 2, wenn …

  • Du konkrete reale Objekte oder Orte in eine Szene setzt. Image Search Grounding zieht Live-Visuellen aus Google und rekonstruiert spezifische Orte (sogar per GPS-Koordinaten) akkurat – kombiniert mit subjektkonstanten Figuren in einem einzigen Durchlauf.
  • Du Identität über mehrere Figuren und Objekte in einem Workflow erhalten musst. Das Modell unterstützt explizit bis zu fünf Figuren und vierzehn Referenzen (Figuren + Objekte) mit strenger Konsistenz – stark für Storyboards, Produktshots oder mehrfigurige Erzählungen.
  • Du im Google-Ökosystem baust. Nano Banana ist nativ in Gemini Chat, Google Search, Google Ads, Firebase und Vertex AI integriert.

Beim Text-Rendering im Bild, der stilistischen Bandbreite und dem konversationalen Editing sind beide eine gute Wahl.

Fazit

Das Konzept des „visuellen Denksparringspartners“ trägt – aber nur mit aktiviertem Thinking Mode. Ohne tut sich das Modell mit räumlicher Logik und Fotorealismus schwer; mit Thinking Mode werden aus mehrdeutigen Inputs Outputs, die eher kollaborativ als mechanisch wirken. Zwei Bereiche, in denen das Modell auch ohne Thinking Mode punktet: stilistische Authentizität und flexible Seitenverhältnisse.

Websuche ist das größte Upgrade gegenüber Images 1.5. Beim Boston-Marathon-Test war der Unterschied klar: 2.0 traf alle Fakten, 1.5 war nicht aktuell. Wichtig: Websuche funktioniert ebenfalls nur im Thinking Mode.

Auffällig war außerdem: Die Copyright-Guidelines sind strenger – und das merkt man. Wenn du den Stil einer bestimmten Firma oder Person nachbilden willst, musst du die Essenz des Stils beschreiben, statt den Namen zu nennen (was heute zum Glück leicht fällt).

Unterm Strich ist das Modell ein deutliches Upgrade zum Vorgänger und greift Nano Banana 2s Status als Top-Tool für KI-Bildgenerierung und -bearbeitung an. 

Um solche Tools optimal zu nutzen, ist gutes Prompting eine Schlüsselkompetenz. Wir empfehlen dir unsere Kurse Understanding Prompt Engineering und Prompt Engineering with the OpenAI API – für fundierte Theorie und Praxis.


Josef Waples's photo
Author
Josef Waples

Tom Farnschläder's photo
Author
Tom Farnschläder
LinkedIn

Datenwissenschaftsredakteur bei DataCamp | Prognosen erstellen und mit APIs arbeiten ist genau mein Ding.

Themen

Lerne mit DataCamp

Kurs

So funktioniert Prompt Engineering

1 Std.
181.5K
Lerne, wie du mit ChatGPT effektive Prompts schreibst, die du noch heute in deinem Arbeitsablauf anwenden kannst.
Details anzeigenRight Arrow
Kurs starten
Mehr anzeigenRight Arrow
Verwandt

Blog

Die 36 wichtigsten Fragen und Antworten zum Thema generative KI für 2026

Dieser Blog hat eine ganze Reihe von Fragen und Antworten zu generativer KI, von den Grundlagen bis hin zu fortgeschrittenen Themen.
Hesam Sheikh Hassani's photo

Hesam Sheikh Hassani

15 Min.

Blog

Arten von KI-Agenten: Ihre Rollen, Strukturen und Anwendungen verstehen

Lerne die wichtigsten Arten von KI-Agenten kennen, wie sie mit ihrer Umgebung interagieren und wie sie in verschiedenen Branchen eingesetzt werden. Verstehe einfache reflexive, modellbasierte, zielbasierte, nutzenbasierte, lernende Agenten und mehr.
Vinod Chugani's photo

Vinod Chugani

14 Min.

Blog

Q2 2023 DataCamp Donates Digest

DataCamp Donates hat im zweiten Quartal 2023 über 20.000 Stipendien an unsere gemeinnützigen Partner vergeben. Erfahre, wie fleißige benachteiligte Lernende diese Chancen in lebensverändernde berufliche Erfolge verwandelt haben.
Nathaniel Taylor-Leach's photo

Nathaniel Taylor-Leach

Tutorial

Python-Tutorial zum Verknüpfen von Zeichenfolgen

Lerne verschiedene Methoden zum Verknüpfen von Zeichenfolgen in Python kennen, mit Beispielen, die jede Technik zeigen.
DataCamp Team's photo

DataCamp Team

Tutorial

Python Switch Case Statement: Ein Leitfaden für Anfänger

Erforsche Pythons match-case: eine Anleitung zu seiner Syntax, Anwendungen in Data Science und ML sowie eine vergleichende Analyse mit dem traditionellen switch-case.
Matt Crabtree's photo

Matt Crabtree

Tutorial

30 coole Python-Tricks für besseren Code mit Beispielen

Wir haben 30 coole Python-Tricks zusammengestellt, mit denen du deinen Code verbessern und deine Python-Kenntnisse ausbauen kannst.
Kurtis Pykes 's photo

Kurtis Pykes

Mehr anzeigenMehr anzeigen