Przejdź do treści głównej

ChatGPT Images 2.0: przewodnik po nowej generacji modelu obrazów OpenAI

Odkryj, jak ChatGPT Images 2.0 wprowadza generowanie obrazów w nową erę dzięki lepszemu rozumowaniu w świecie rzeczywistym, wielojęzycznemu renderowaniu tekstu, stylistycznemu realizmowi oraz pracy w trybie wizualnego partnera do myślenia.
Zaktualizowano 22 kwi 2026  · 14 min Czytać

Mija niemal równo rok od dnia, w którym pierwsza wersja ChatGPT Images została wydana z modelem o nazwie GPT Image 1. OpenAI ponownie gruntownie przebudowało swój model obrazów i przedstawia nam nową ideę: „generator obrazów” staje się teraz „wizualnym partnerem do myślenia”.

W tym artykule omówimy, co nowego się pojawiło, jak wypada na tle poprzednika ChatGPT Images 1.5, jak porównuje się z Nano Banana 2 od Google oraz gdzie model błyszczy (a gdzie nie).

Czym jest ChatGPT Images 2.0?

ChatGPT Images 2.0 to nowej generacji model obrazów OpenAI. Przedstawiany jest jako coś, co potrafi rozumować, wyszukiwać, a następnie renderować.

Co nowego w ChatGPT Images 2.0?

Jednym z najważniejszych wniosków po wydaniu ChatGPT Images 1.5 był duży wzrost szybkości działania. Wówczas ogłoszono, że jest 4 razy szybciej. Próbowaliśmy to zweryfikować, ale wyglądało na to, że dotyczyło to edycji, a nie generowania nowych obrazów. 

Tym razem główna teza to inteligencja. ChatGPT Images 2.0 to „myślący” model obrazów: ma wyszukiwać, rozumować o faktach i przekładać surowe wejścia (notatki, szkice, referencje) na dopracowane wizualizacje przy znacznie mniejszej liczbie ręcznych podpowiedzi.

Inne najważniejsze motywy z zapowiedzi to:

  • Większa precyzja i kontrola nad samym procesem generowania
  • Silniejsza wydajność w różnych językach i alfabetach
  • Więcej wyrafinowania stylistycznego i realizmu
  • Wzmocniona inteligencja dotycząca świata rzeczywistego wbudowana w model
  • Elastyczne proporcje obrazu — od formatów mobilnych po banery

Model, który myśli

Jedno z największych założeń wydania to, że nowy model „myśli” i działa jak „wizualny partner do myślenia”. Chodzi o to, że agenci wykonują pracę w tle, aby dogłębnie zrozumieć zadanie i przemyśleć je przed realizacją żądania wygenerowania.

Jego wiedza o świecie została zaktualizowana do granicy z grudnia 2025 r., więc wyniki są bardziej kontekstowo trafne. Zapowiadano, że dzięki temu nowy model świetnie nadaje się do grafik edukacyjnych i wieloetapowych przepływów wymagających kontekstu.

Wyszukiwanie w sieci

Aby zniwelować lukę między granicą wiedzy a świeżymi informacjami, Images 2.0 potrafi przeszukiwać Internet w poszukiwaniu odpowiednich danych. Z notatek wydawniczych OpenAI nie wynika dokładnie, jak to działa, ale rozumiemy, że wyszukiwanie w sieci służy jako narzędzie wywoływane przez wspomnianego wyżej myślącego agenta.

Tworzenie wielu obrazów z jednego promptu

Nowy model natywnie obsługuje także generowanie wielu obrazów na podstawie tych samych promptów. Było to możliwe obejściem w API (prosząc o „kompozycję”), ale teraz da się to zrobić również w interfejsie, do dziesięciu obrazów. OpenAI obiecuje spójność postaci i obiektów we wszystkich wynikach.

Testowanie ChatGPT Images 2.0

Czas sprawdzić, co nowy model naprawdę potrafi! Przetestowaliśmy następujące możliwości i funkcje Images 2.0:

  • Przepływ pracy edycji
  • Tryb myślenia i wyszukiwanie w sieci
  • Zakres stylistyczny
  • Dopracowanie surowych szkiców
  • Elastyczność proporcji obrazu
  • Kreatywność

Testowanie przepływu pracy edycji

Przekaz OpenAI dla wersji 2.0 opiera się na iteracji: surowe wejście, dopracowany materiał, z poprawą w zakresie wykonywania instrukcji i renderowania gęstego tekstu. Przetestowaliśmy ten cykl, korzystając ze słynnego amerykańskiego znaczka z 1898 roku o nazwie Western Cattle in Storm.

Oto zdjęcie jednego ze znaczków w stanie Fine.

1898 Western Cattle in Storm stamp in fine condition

Aby konkretnie przetestować przepływ edycji, użyliśmy następującego promptu bez trybu myślenia. Oznacza to również, że model nie ma dostępu do wyszukiwań w sieci, co testowaliśmy osobno.

Please create for me a picture of the famous 1898 Western Cattle in Storm stamp issued by the U.S. Post Office as part of the Trans-Mississippi Issue . The name of the stamp is "Western Cattle in Storm" Quality should be Fine to Very Fine -Centering: design shifted right, left margin twice as wide as right margin, perfs nearly touching design on the right side -Perforations: two short teeth on the top edge, slightly uneven spacing along the bottom -Gum: quarter-inch matte hinge remnant in upper-center of back, small paper fragment still -attached -Paper: diagonal gum bend across lower-left quadrant, light yellow toning along top edge -Cancellation: partial black circular datestamp in lower-right corner, moderate coverage over the cattle

A oto wynik: 

Prompt: Please create for me a picture of the famous 1898 Western Cattle in Storm stamp issued by the U.S. Post Office as part of the Trans-Mississippi Issue . The name of the stamp is "Western Cattle in Storm" Quality should be Fine to Very Fine -Centering: design shifted right, left margin twice as wide as right margin, perfs nearly touching design on the right side -Perforations: two short teeth on the top edge, slightly uneven spacing along the bottom -Gum: quarter-inch matte hinge remnant in upper-center of back, small paper fragment still -attached -Paper: diagonal gum bend across lower-left quadrant, light yellow toning along top edge -Cancellation: partial black circular datestamp in lower-right corner, moderate coverage over the cattle

Samo podawanie tekstu nie zadziałało. Szczegółowy opis znaczka i oceny jego stanu okazał się błędny w większości kluczowych aspektów — zły kolor, błędny układ oznaczenia nominału, karykaturalne przesunięcie centrowania. Odtworzenie konkretnego historycznego artefaktu wyłącznie na podstawie tekstu to trudne zadanie.

Przekazanie modelowi obrazu referencyjnego i poproszenie o ukierunkowane poprawki to miejsce, w którym 2.0 pokazało swoją wartość: nieregularności perforacji, pozostałość zawiasu, ukośne zagięcie gumy, delikatne przebarwienia i częściowe unieważnienie stempla.

Edycje trafiły mniej więcej tam, gdzie prosiliśmy. Model wprowadził regres w proporcjach obrazu, ale jedna doprecyzowująca komenda w prostym języku to naprawiła. Ostateczny efekt nie jest klasy „kryminalistycznej” — „$1” wygląda lekko rozciągnięte, kolby kukurydzy są inne — ale cykl zadziałał: trudny start, korekta kursu, użyteczny rezultat po trzech turach.

Edited version of the stamp

Testowanie trybu myślenia i wyszukiwania w sieci

Musieliśmy zachować ostrożność przy testowaniu możliwości wyszukiwania w sieci, bo jeśli powiemy modelowi w promptcie, czego chcemy, to testujemy nie wyszukiwanie, tylko wykonywanie instrukcji. Najczystszym testem jest poproszenie o coś bardzo świeżego i bardzo konkretnego, podanie modelowi niemal zerowej ilości informacji i sprawdzenie, czy poprawnie uzupełni luki.

Wybraliśmy wczorajszy Maraton Bostoński. Bieg zakończył się w poniedziałek, 20 kwietnia — dzień przed ogłoszeniem ChatGPT Images 2.0 — i rekord trasy mężczyzn został pobity po raz pierwszy od 2011 roku. Daje to konkretny zestaw faktów (zwycięzca, kraj, czas, różnica, kontekst), których model nie mógł mieć z treningu, ale które łatwo zweryfikować szybkim wyszukaniem.

Oto prompt, celowo pozbawiony szczegółów. Na wyniku widać, że model rzeczywiście przeszukuje sieć!

Create a celebratory poster-style infographic commemorating the course record set at yesterday's Boston Marathon. Include the winner's name, country, finish time, and the margin by which the previous record was broken. Include one or two additional stats or context details that make the achievement meaningful.

Prompt: Create a celebratory poster-style infographic commemorating the course record set at yesterday's Boston Marathon. Include the winner's name, country, finish time, and the margin by which the previous record was broken. Include one or two additional stats or context details that make the achievement meaningful.

Wynik wygląda bardzo atrakcyjnie wizualnie i utrzymany jest w kolorystyce Maratonu Bostońskiego, co jest miłym dodatkiem. Wszystkie przytoczone fakty są poprawne, co dwukrotnie sprawdziliśmy i potwierdziliśmy.

Jeszcze bardziej imponujące jest porównanie z wynikiem starego modelu (Images 1.5) lub nowego modelu bez trybu myślenia, przy tym samym promptcie:

Prompt: Create a celebratory poster-style infographic commemorating the course record set at yesterday's Boston Marathon. Include the winner's name, country, finish time, and the margin by which the previous record was broken. Include one or two additional stats or context details that make the achievement meaningful. (Result without thinking mode)

Pod względem stylu może konkurować, ale jest tu sporo problemów z liczbami.

  • To była 130. edycja Maratonu Bostońskiego, więc powinno być „129 lat tradycji”, a nie 127.
  • Twierdzenie, że to „3. biegacz w historii, który przebiegł maraton poniżej 2:04”, jest również fałszywe. Dokonało tego około 20 biegaczy.
  • Zgodnie ze stroną Boston Athletic Association, jego czas drugiej połowy wyniósł 1:00:02, a nie 1:01:05 (co być może wciąż byłoby najszybszą drugą połową w historii).
  • Co najważniejsze, ChatGPT Images pomylił nowy i stary rekord. Stary rekord to 2:03:02; nowy to 2:01:52. Różnica wynosi 1:10 min.
  • Skoro John Korir wygrał również zeszłoroczny Maraton Bostoński, można rozsądnie założyć, że gdyby zwycięzca był inny, model nie podałby poprawnego nazwiska.

Możliwości wyszukiwania robią różnicę, gdy chodzi o wizualną prezentację aktualnych informacji. Aby z nich korzystać, należy włączyć tryb myślenia.

Testowanie zakresu stylistycznego

OpenAI obiecuje realne postępy w wyrafinowaniu stylistycznym — w fotografii, ilustracji, mandze, pixel arcie i innych stylach. Uczciwy test to nie ocena, czy pojedynczy obraz wygląda dobrze, lecz czy ten sam temat przedstawiony w trzech różnych stylach autentycznie oddaje charakter każdego gatunku, czy też wszystko ma ten sam „AI-owy” połysk pod spodem.

Aby to sprawdzić, poprosiliśmy o trzy różne wersje ekspresu do kawy na drewnianym stole roboczym (fotografia, manga, pixel art). Oto prompty i wyniki:

A battered, vintage espresso machine sitting on a wooden workbench next to a potted fern. Style: 35mm street photography, gritty, natural window lighting, Kodak Portra 400, shallow depth of field.

Vintage espresso machine (photograph)

A battered, vintage espresso machine sitting on a wooden workbench next to a potted fern. Style: 1990s Japanese manga, black and white ink drawing, screentone shading, bold linework, Katsuhiro Otomo style.

Copyright-related request denial

To ciekawy, a nawet ironiczny wynik, biorąc pod uwagę, że Image 1 zasłynął montażami w stylu Studia Ghibli, które wszyscy robili rok temu (my też). Wygląda na to, że OpenAI podeszło od tego czasu ostrożniej do kwestii praw autorskich i IP.

Opisanie stylu Katsuhiro Otomo bez wymieniania go wprost zadziałało. Warto dodać, że musieliśmy otworzyć nowy czat, aby to przeszło. W tym samym czacie, co oryginalny prompt, model zdawał się rozumieć, że próbujemy obejść blokadę.

A battered, vintage espresso machine sitting on a wooden workbench next to a potted fern. Style: 1990s Japanese manga, black and white ink drawing, screentone shading, bold linework, hyper-detailed mechanical illustration, dramatic high contrast, retro-cyberpunk aesthetic.

Vintage espresso machine (black-white anime)

A battered, vintage espresso machine sitting on a wooden workbench next to a potted fern. Style: 16-bit pixel art, isometric perspective, crisp edges, limited SNES color palette.

Vintage espresso machine (pixel-art)

Naszym zdaniem wszystkie trzy obrazy wyglądają świetnie i autentycznie oddają bardzo konkretne style, o które prosiliśmy. Zdjęcie prezentuje się bardzo naturalnie, a pozostałe dwie wersje mogłyby pochodzić wprost z mangi lub z gry na SNES, odpowiednio.

W oczy rzuca się także to, jak model wykorzystał elastyczne proporcje obrazu, dopasowując je do każdego obrazu: format 16:9 dla fotografii, portret dla wersji manga i kwadrat dla pixel artu.

Testowanie elastycznych proporcji obrazu

Wydanie obsługuje proporcje od 3:1 do 1:3 i rozdzielczości do 2K. Interesujące pytanie nie brzmi, czy potrafi wygenerować obraz wysoki lub szeroki — tylko czy model mądrze rekonponuje scenę w różnych formatach, czy po prostu przycina.

Aby ujawnić przestrzenną logikę modelu, potrzebujemy sceny z wyraźnymi, niepodlegającymi negocjacji elementami na wielu osiach (coś wysokiego, coś szerokiego i centralny obiekt).

Jako test wygenerowaliśmy nasz temat (astronautę w określonym otoczeniu) z promptu bazowego, a następnie poprosiliśmy model o odtworzenie go jako tapety mobilnej, banera i kwadratu, aby zobaczyć, jak dopasuje kompozycję.

Prompt bazowy:

A lone astronaut standing on a rocky, desolate hill. To the far left, a massive, blocky futuristic rover is parked. In the sky directly above the astronaut, a gigantic, luminous ringed planet dominates the starry backdrop.

Prompt: A lone astronaut standing on a rocky, desolate hill. To the far left, a massive, blocky futuristic rover is parked. In the sky directly above the astronaut, a gigantic, luminous ringed planet dominates the starry backdrop.

Zobaczmy, jak to się zmienia:

Recreate the original image as a banner

Recreate the original image as a banner

Recreate the original image as a mobile wallpaper

Recreate the original image as a mobile wallpaper

Recreate the original image as a square

Recreate the original image as a square

Każda z wersji dobrała odpowiednie proporcje do prośby, zawiera wszystkie ważne elementy (astronautę, łazik, planetę), ma je ułożone tak, jak prosiliśmy w oryginalnym promptcie, i dba o ich wycentrowanie. Test zaliczony.

Od surowego wejścia do dopracowanego rezultatu

Koncepcja partnera do myślenia opiera się na tym, że model przyjmuje niejasne lub nieuporządkowane dane wejściowe — prowizoryczny szkic, wypunktowaną notatkę, kilka referencji — i zamienia je w gotowy materiał. To właśnie cykl, wokół którego zbudowano to wydanie, i ten warto przetestować najpełniej. 

Aby to sprawdzić, wgraliśmy poniższy, bardzo surowy szkic ołówkiem przedstawiający chatę nad jeziorem:

Pencil sketch

Aby było trudniej, zawiera on sporo detali, używa fińskiego słowa na pomost, „laituri”, oraz może wprowadzać zamieszanie, bo zawiera dwa typy zabudowań (dom i chatę) oraz dwie powierzchnie wodne (jezioro i staw).

Turn this crude layout into a photorealistic, cinematic landscape of a modern cabin at sunset. Keep elements where I mapped them out. The cabin includes a sauna with smoke coming out of the chimney.

Prompt: Turn this crude layout into a photorealistic, cinematic landscape of a modern cabin at sunset. Keep elements where I mapped them out. The cabin includes a sauna with smoke coming out of the chimney.

Wynik w trybie bez myślenia wygląda przyzwoicie, ale nie bardzo fotorealistycznie. Mimo to oświetlenie dobrze się zgadza i obraz idealnie oddaje klimat promptu. Widzimy prawie wszystkie elementy szkicu. Kilka szczegółów jest nie na miejscu:

  • Brakuje łodzi
  • Pomost znajduje się nad stawem, a nie nad jeziorem
  • Pozycja słońca nie jest w prawym górnym rogu.

Gdy spróbowaliśmy tego samego promptu z tym samym szkicem w trybie myślenia, wynik wyglądał znacznie realistyczniej i poprawił wszystkie drobne nieścisłości:

Prompt: Turn this crude layout into a photorealistic, cinematic landscape of a modern cabin at sunset. Keep elements where I mapped them out. The cabin includes a sauna with smoke coming out of the chimney.

Obraz zawiera każdy element ze szkicu na wyznaczonej pozycji i wygląda bardzo schludnie. Główny wniosek: aby uzyskać najlepsze efekty podczas zamiany surowych szkiców na fotorealistyczne obrazy, warto używać trybu myślenia.

Testowanie kreatywności

W kolejnym teście chcieliśmy sprawdzić, czy model potrafi odtworzyć poezję konkretną Niikuni Seiichiego.

Ten słynny utwór przedstawia japoński znak kanji oznaczający deszcz, otoczony deszczem — jakby łapał deszcz w języku, tak to widzimy.

concrete poetry of Niikuni Seiichi

Oto nasz prompt:

Please recreate the concrete poetry of Niikuni Seiichi. I want to see "Ame" meaning Rain. But make it different using your creativity.

A oto efekt:

Prompt: Please recreate the concrete poetry of Niikuni Seiichi. I want to see "Ame" meaning Rain. But make it different using your creativity.

To naszym zdaniem ciekawy przypadek. Nie odtworzono obrazu dokładnie, ale powstało coś intrygującego. W nowej kompozycji kanji oznaczające „deszcz” nie jest otoczone deszczem, ale spada jak deszcz. Rozmieszczenie symboli wydaje się bardzo losowe, tak jak można oczekiwać po kroplach deszczu, ale tworzy ciekawy kontrast wobec bardzo uporządkowanego oryginału.

Jak uzyskać dostęp do ChatGPT Images 2.0?

Dostęp przebiega podobnie jak w poprzednim wydaniu. Zachowuje dedykowaną przestrzeń twórczą wprowadzoną w grudniu — edytor w stylu płótna, trwałe artefakty, presety stylów — i podmienia model pod spodem na znacznie bardziej wydajny.

  • Web, aplikacja mobilna i Codex: ChatGPT Images 2.0 jest dostępny na karcie Images dla użytkowników Free, Plus i Pro, z limitami użycia rosnącymi w zależności od planu. Dostęp dla Business i Enterprise zwykle następuje po wstępnym wdrożeniu.
  • API: Deweloperzy mogą korzystać z nowego modelu przez OpenAI API i Azure OpenAI Service, za pośrednictwem endpointów generowania i edycji obrazów. Podobnie jak w 1.5, wyniki obrazów są rozliczane w tokenach, a częściowa regeneracja podczas edycji utrzymuje koszty niższe niż każdorazowe generowanie pełnego obrazu.

ChatGPT Images 2.0 vs. Nano Banana 2

Można się zastanawiać, jak ChatGPT Images 2.0 wypada w porównaniu z Nano Banana 2. Oba modele są świeże, oba stanowią domyślne doświadczenie w swoich ekosystemach i oba sąpromowane pod kątem szybkości, rozumowania i „uziemienia” w świecie rzeczywistym.

 

ChatGPT Images 2.0

Nano Banana 2

Architektura bazowa

GPT-Image-2 (następca GPT-Image-1.5)

Gemini 3.1 Flash

Model edycji

Precyzja: zaznaczanie obszarów i edycja w miejscu

Rozumowanie: konwersacyjność i inteligentne maskowanie

Przepływ pracy

Dedykowana przestrzeń twórcza (karta Images)

Zintegrowany z czatem Gemini

Iteracja

Wydajna: częściowa regeneracja

Szybka: 4–6 s przy 1K, strojenie przez Thinking Mode

Osadzenie w rzeczywistości

Wbudowane rozumowanie i aktualna wiedza

Image Search Grounding (pobiera bieżące referencje z Google Search)

Spójność wielopanelowa

Silna w sekwencjach i arkuszach postaci

Silna, ze skupieniem na spójności tematu

Tekst wielojęzyczny

Duży skok względem 1.5; szerokie wsparcie skryptów

Silny, zwłaszcza w chińskim i układach wschodnioazjatyckich

Domyślna rozdzielczość

Standard + elastyczne proporcje

2K domyślnie w aplikacji Gemini

Ekosystem

OpenAI i Azure

Stos Google / Gemini, Search, Lens

Kiedy używać ChatGPT Images 2.0 vs. Nano Banana 2

Używaj ChatGPT Images 2.0, gdy…

  • Potrzebują Państwo pętli edycji opartej na referencjach. Model przyjmuje obraz referencyjny i wprowadza ukierunkowane zmiany (detale tekstur, korekty położenia, poprawki proporcji) w kolejnych turach, a doprecyzowania w zwykłym języku skutecznie sterują wynikiem bez zaczynania od nowa, co oszczędza też tokeny
  • Przekształcają Państwo surowe wejścia w dopracowane materiały. Tryb myślenia przekłada niejasne szkice i instrukcje przestrzenne na trafne, fotorealistyczne kompozycje z elementami rozmieszczonymi dokładnie tak, jak zamierzono
  • Kluczowa jest dokładność faktów wewnątrz obrazu. Osadzenie w wyszukiwaniu sieciowym pobiera aktualne informacje i poprawnie przedstawia je na samym obrazie, co czyni go wiarygodnym narzędziem do plakatów wydarzeń, infografik newsowych czy wszelkich wizualizacji, w których liczby i nazwy muszą być poprawne. Proszę pamiętać o użyciu trybu myślenia, aby włączyć wyszukiwanie w sieci

Używaj Nano Banana 2, gdy…

  • Umieszczają Państwo konkretne, rzeczywiste obiekty lub lokalizacje w scenie. Image Search Grounding pobiera bieżące wizualne referencje z Google, wiernie odtwarzając konkretne miejsca (nawet po współrzędnych GPS) i łącząc je ze spójnymi postaciami w jednym generowaniu
  • Trzeba utrzymać tożsamość w wielu postaciach i obiektach w jednym przepływie. Model oficjalnie wspiera do pięciu postaci i czternastu łącznie referencji (postacie + obiekty) ze ścisłą spójnością. To mocny wybór do storyboardów, ujęć produktowych czy narracji z wieloma postaciami
  • Budują Państwo w ekosystemie Google. Nano Banana jest natywnie zintegrowany z czatem Gemini, Google Search, Google Ads, Firebase i Vertex AI

Oba modele dobrze wypadają pod względem renderowania tekstu w obrazie, zakresu stylistycznego i konwersacyjnej edycji.

Wnioski końcowe

Koncepcja „wizualnego partnera do myślenia” się broni — ale tylko przy włączonym trybie myślenia. Bez niego model ma trudności z logiką przestrzenną i fotorealizmem; z nim przekształca niejednoznaczne wejścia w wyniki, które wydają się współtworzone, a nie mechaniczne. Dwie sfery, w których model błyszczy nawet bez trybu myślenia, to autentyczność stylistyczna i elastyczność proporcji obrazu.

Osadzenie w wyszukiwaniu internetowym to chyba największa poprawa względem Images 1.5. W teście Maratonu Bostońskiego widać to wyraźnie: 2.0 miało wszystkie fakty poprawne, podczas gdy 1.5 nie był na bieżąco. Warto wiedzieć, że wyszukiwanie w sieci działa również tylko w trybie myślenia.

Ciekawym spostrzeżeniem jest też to, że zabezpieczenia związane z prawami autorskimi są bardziej restrykcyjne — i to widać. Jeśli chcą Państwo odtworzyć styl, z którego znana jest dana firma lub osoba, trzeba zrobić dodatkowy krok i zidentyfikować istotę tego stylu, a następnie ją opisać (co — co do zasady — dziś nie jest trudne).

Ogólnie rzecz biorąc, model stanowi istotny krok naprzód względem poprzednika i rzuca wyzwanie Nano Banana 2 jako narzędziu numer jeden do generowania i edycji obrazów AI. 

Aby jak najlepiej wykorzystać takie narzędzia, kluczowa jest umiejętność tworzenia promptów. Gorąco polecamy nasze Understanding Prompt Engineering oraz Prompt Engineering with the OpenAI API — kursy, które zapewniają solidne podstawy teoretyczne i praktyczne.

Tematy

Ucz się z DataCamp

course

Understanding Prompt Engineering

1 godz.
181.5K
Learn how to write effective prompts with ChatGPT to apply in your workflow today.
Zobacz szczegółyRight Arrow
Rozpocznij kurs
Zobacz więcejRight Arrow