Dla generatorów obrazów ostatnich pięciu lat istniała jedna zasada. Prosisz o byle co i dostajesz arcydzieło. Wpisujesz “rysunek dziecka”, a model rysuje akwarelę godną galerii. Wpisujesz “krzywy szkic”, a dostajesz wyrafinowany szkic w stylu Picassa. Modele po prostu nie umiały być brzydkie, nawet kiedy o to wprost prosiłeś.
GPT Image 2 (czyli generator obrazów wprowadzony do ChatGPT 21 kwietnia 2026) zmienił tę regułę. Dlatego pod koniec kwietnia w sieci zaczął krążyć viralowy prompt, który każe modelowi przerysować dowolne zdjęcie “w najbardziej niezdarny i żałosny sposób, jaki potrafisz, jakbyś rysował myszką w MS Paincie”. I oto cud nowoczesnej technologii: GPT Image 2 słucha. W rezultacie dostajemy krzywe koła samochodu, oczy na różnych wysokościach, budynki narysowane jako pionowe kreski. Co tu naprawdę się dzieje i dlaczego to ważniejsze niż wygląda na pierwszy rzut oka?
O co chodzi z tym viralowym promptem
Treść promptu, w wielu wariantach krążących po Threads i X, wygląda mniej więcej tak. “Przerysuj załączony obraz w najbardziej niezdarny, bazgrolny i wręcz żałosny sposób. Białe tło. Tak, jakby narysowała to siedmiolatka myszką w MS Paint na starym pececie z Windows 98”. Po polsku można dorzucić frazę “bez prób upiększenia, bez próby zachowania proporcji, bez korekty stylu”. W efekcie dostajesz nie “stylistyczny szkic”, a naprawdę paskudny rysunek, który wygląda jak owoc piętnastominutowej walki z myszką.
Co takie obrazy zawierają w praktyce? Z testów Adama Holtera i dziesiątek innych użytkowników wynika natomiast, że model:
- rysuje budynki jako nierówne pionowe linie z losowymi niebieskimi prostokątami w miejsce okien,
- portretom dorzuca oczy na zupełnie różnych wysokościach i asymetryczne usta,
- samochodom maluje koła w różnych rozmiarach, a światła zaznacza dwoma żółtymi kropkami,
- pejzaże spłaszcza z kolei do dziecięcego horyzontu z trójkątnymi górami i kreskowanym słońcem.
Dlaczego ludzie w ogóle to robią? Pierwsza fala to zabawa. Memy w rodzaju “moja firma, kiedy poprosiłem o szybką makietę” robią setki tysięcy odsłon. Drugą falą jest test technologii, ponieważ wielu twórców treści weryfikuje w ten sposób, czy nowy model OpenAI naprawdę robi to, o co go się prosi, czy tylko udaje. Trzecia fala to z kolei zwykła ciekawość: czy AI faktycznie potrafi obniżyć jakość na komendę.
Czemu wcześniejsze modele nie umiały być brzydkie
Tu zaczyna się część techniczna, która jest naprawdę ciekawa. Generatory obrazów ostatniej generacji (DALL-E 3, Midjourney, Imagen, Stable Diffusion) trenowane były na ogromnych zbiorach obrazów z jedną dominującą cechą. Każdy obraz w treningu był do czegoś użyty. Mowa o zdjęciach stockowych, ilustracjach na bloga, plakatach, fotografiach produktowych. Brzydkich rysunków w tych zbiorach prawie nie ma, ponieważ nikt brzydkich rysunków publicznie nie publikuje.
W efekcie model, kiedy słyszy słowo “rysunek”, sięga w pierwszej kolejności po reprezentacje “rysunku artystycznego”. Brzydki bazgroł nie jest dla niego osobnym konceptem, ponieważ stanowi awarię normalnego procesu generowania. Dlatego prosząc DALL-E 3 o “rysunek dziecka kredkami”, dostawałeś coś, co wygląda jak ilustracja z książeczki dla dzieci, czyli efekt “rysunku dziecka” wyfiltrowany przez profesjonalnego ilustratora. Innymi słowy model nie rozumiał polecenia “bądź gorszy”. Zamiast tego zawsze próbował być najlepszą wersją tego, co wpisałeś.
Generatory obrazów dotąd zachowywały się jak zbyt staranny stażysta – poprosiłeś o szybką notatkę na karteczce, a dostajesz dokument w Wordzie z trzema fontami i eleganckim nagłówkiem.
Co zmieniło się w GPT Image 2? OpenAI przeprojektował proces decyzyjny modelu tak, że stylistyczne instrukcje są teraz traktowane dosłownie. Dlatego jeśli prosisz o niską jakość, model nie wraca do trybu “no ale klient pewnie chce ładnie”. Po prostu idzie tam, gdzie go wysyłasz. W rezultacie wprowadza to do generatorów coś, czego dotąd brakowało: realną kontrolę nad poziomem profesjonalizmu efektu. Adam Holter w swojej recenzji z 1 maja 2026 nazywa to “pierwszą wersją, która wreszcie akceptuje zlecenie bycia żałosnym”.
Praktyczne zastosowania: memy, marketing, prototypy
Z perspektywy twórcy treści viralowy prompt to dwa konkretne narzędzia w kieszeni. Pierwszym z nich są memy. Wystarczy wziąć dowolne zdjęcie z internetu (zachowując prawo cytatu), dorzucić prompt o MS Paincie, dostać paskudną wersję i wstawić ją w mema. W efekcie pięć minut pracy zamiast godziny w Photoshopie.
Druga rola to marketing. Zespoły reklamowe, które robią ironiczne, retro albo “lo-fi” kampanie, zwykle płaciły grafikom za bazgroł wyglądający jak narysowany ręcznie. Teraz mogą natomiast wygenerować dziesięć wariantów w dziesięć minut, wybrać najlepszy i dopiero potem ewentualnie polerować. To dokładnie ten typ workflowu, w którym modele AI naprawdę przyspieszają codzienną pracę. Pisaliśmy już, jak Anthropic w raporcie o 1 mln rozmów pokazał, że ludzie często traktują AI jak partnera do iteracji, a nie jak finalnego dostawcę. Dlatego generatory obrazów wchodzą właśnie w tę samą fazę.
Trzecim zastosowaniem są prototypy interfejsów. Programiści i projektanci od dawna używają tak zwanych “low-fi mockups” (czyli niskiej jakości makiet) do testowania pomysłów. Brzydki, byle jaki rysunek wygląda jak coś tymczasowego, dlatego klient nie czepia się szczegółów koloru i komentuje pomysł, a nie pikselową przesuwkę. Wcześniej taką makietę trzeba było rysować ręcznie albo w narzędziach typu Balsamiq. Tymczasem GPT Image 2 z odpowiednim promptem produkuje to bez wychodzenia z ChatGPT.
Dobry mockup jest celowo brzydki. Klient skupia się na układzie, a nie na czcionce. Im ładniejszy rysunek, tym częściej rozmowa zbacza na detale, których jeszcze nie czas.
Czwartym zastosowaniem są ilustracje do edukacji. Nauczyciel, który robi prezentację dla dzieci, nie chce przecież, żeby slajd wyglądał jak okładka korporacyjnego raportu. Brzydki, ręczny rysunek lepiej trzyma uwagę i sprawia, że materiał wygląda na “ludzki”. Dotąd takie ilustracje rysowało się ręcznie albo szukało darmowych zasobów. Tymczasem teraz wystarczy GPT Image 2 i jeden prompt.
Jak używać tego promptu po polsku – krok po kroku
Najprostsza wersja w języku polskim wygląda tak. Otwierasz ChatGPT, wybierasz tryb generowania obrazu, wgrywasz zdjęcie i wpisujesz: “Przerysuj ten obraz w najbardziej niezdarny i żałosny sposób, jaki potrafisz. Użyj białego tła. Wynik ma wyglądać tak, jakby narysowała to siedmiolatka myszką w MS Paint. Bez prób upiększania, bez korekty proporcji, bez wygładzania linii”. W większości przypadków model wykonuje polecenie poprawnie już za pierwszym razem.
Co warto modyfikować pod własne zastosowania? Pod memy dorzuć “z wyraźnym poczuciem humoru i przesadnymi proporcjami”. W retro kampanii zadziała “w estetyce wczesnych grafik komputerowych z lat 90”. Z kolei do prototypów wystarczy “w stylu szkicu na serwetce, czarne linie, bez kolorów wypełnienia”. Każda z tych modyfikacji prowadzi do nieco innego efektu, ponieważ model rozumie różnicę między “siedmiolatka w MS Paincie” a “szybki szkic na serwetce”.
Ostatnia rzecz. Generator obrazów ma zawsze pewien losowy element. Dlatego jeśli pierwszy efekt wygląda za ładnie, dorzuć w promptu jeszcze mocniejsze instrukcje obniżające jakość: “wyraźnie nierówne kreski, krzywa perspektywa, oczy na różnych wysokościach, koła w różnych rozmiarach”. W efekcie im konkretniej opiszesz, co ma być źle, tym ładniej model to popsuje.
Pierwsza Misja AI · Kodożercy
AI zmienia rynek pracy. Zacznij rozumieć o co chodzi.
Kurs Pierwsza Misja AI to najkrótszy kurs Kodożerców, po którym naprawdę rozumiesz AI. Sci-fi fabuła, gamifikacja, prawdziwy GPT-4 w ćwiczeniach i certyfikat na koniec.
Sprawdź program kursu →

Podsumowanie
Viralowy prompt do GPT Image 2 to z jednej strony żart internetu, a z drugiej istotny sygnał o tym, jak rozwija się sztuczna inteligencja w 2026. Pierwsza ważna obserwacja: nowy model OpenAI naprawdę słucha instrukcji stylistycznych, w tym tych, które każą mu być gorszym niż domyślnie. Druga: dzięki temu zyskujemy w codziennej pracy realną kontrolę nad poziomem profesjonalizmu efektu, czego dotąd brakowało. Trzecia: praktyczne zastosowania to memy, ironiczne kampanie marketingowe, prototypy interfejsów i ludzkie ilustracje do edukacji. W efekcie recepta jest prosta. Zdjęcie, prompt o MS Paincie i gotowy paskudny rysunek w trzydzieści sekund. Pięć minut pracy zamiast godziny w Photoshopie i dokładnie taki efekt, jakiego się chciało.
Newsletter · DevstockAcademy & Kodożercy
Bądź na bieżąco ze światem IT, AI i automatyzacji
Co wtorek: newsy z branży, praktyczne tipy i narzędzia które warto znać. Zero spamu.



