Skip to content
devstock logo
  • O nas
  • Moduły Akademii
    • Moduł 1
    • Moduł 2
    • Moduł 3
    • Pozostałe moduły
  • Kursy AI
    • Pierwsza Misja AI (Podstawy)
    • Automatyzacje z n8n 2.0
  • Blog
  • Kontakt
  • O nas
  • Moduły Akademii
    • Moduł 1
    • Moduł 2
    • Moduł 3
    • Pozostałe moduły
  • Kursy AI
    • Pierwsza Misja AI (Podstawy)
    • Automatyzacje z n8n 2.0
  • Blog
  • Kontakt
Kurs Automatyzacji z n8n - banner reklamowy
Narzędzia i Automatyzacja

GPT Image 2 viralowy prompt: jak zmusić AI do paskudnych rysunków w MS Paint

  • 01 maj, 2026
  • Komentarze 0
GPT Image 2 viralowy prompt - profesjonalne zdjęcie zamienione w paskudny rysunek z MS Paint przez generator obrazów OpenAI w 2026

Dla generatorów obrazów ostatnich pięciu lat istniała jedna zasada. Prosisz o byle co i dostajesz arcydzieło. Wpisujesz “rysunek dziecka”, a model rysuje akwarelę godną galerii. Wpisujesz “krzywy szkic”, a dostajesz wyrafinowany szkic w stylu Picassa. Modele po prostu nie umiały być brzydkie, nawet kiedy o to wprost prosiłeś.

GPT Image 2 (czyli generator obrazów wprowadzony do ChatGPT 21 kwietnia 2026) zmienił tę regułę. Dlatego pod koniec kwietnia w sieci zaczął krążyć viralowy prompt, który każe modelowi przerysować dowolne zdjęcie “w najbardziej niezdarny i żałosny sposób, jaki potrafisz, jakbyś rysował myszką w MS Paincie”. I oto cud nowoczesnej technologii: GPT Image 2 słucha. W rezultacie dostajemy krzywe koła samochodu, oczy na różnych wysokościach, budynki narysowane jako pionowe kreski. Co tu naprawdę się dzieje i dlaczego to ważniejsze niż wygląda na pierwszy rzut oka?

O co chodzi z tym viralowym promptem

Treść promptu, w wielu wariantach krążących po Threads i X, wygląda mniej więcej tak. “Przerysuj załączony obraz w najbardziej niezdarny, bazgrolny i wręcz żałosny sposób. Białe tło. Tak, jakby narysowała to siedmiolatka myszką w MS Paint na starym pececie z Windows 98”. Po polsku można dorzucić frazę “bez prób upiększenia, bez próby zachowania proporcji, bez korekty stylu”. W efekcie dostajesz nie “stylistyczny szkic”, a naprawdę paskudny rysunek, który wygląda jak owoc piętnastominutowej walki z myszką.

Co takie obrazy zawierają w praktyce? Z testów Adama Holtera i dziesiątek innych użytkowników wynika natomiast, że model:

  • rysuje budynki jako nierówne pionowe linie z losowymi niebieskimi prostokątami w miejsce okien,
  • portretom dorzuca oczy na zupełnie różnych wysokościach i asymetryczne usta,
  • samochodom maluje koła w różnych rozmiarach, a światła zaznacza dwoma żółtymi kropkami,
  • pejzaże spłaszcza z kolei do dziecięcego horyzontu z trójkątnymi górami i kreskowanym słońcem.

Dlaczego ludzie w ogóle to robią? Pierwsza fala to zabawa. Memy w rodzaju “moja firma, kiedy poprosiłem o szybką makietę” robią setki tysięcy odsłon. Drugą falą jest test technologii, ponieważ wielu twórców treści weryfikuje w ten sposób, czy nowy model OpenAI naprawdę robi to, o co go się prosi, czy tylko udaje. Trzecia fala to z kolei zwykła ciekawość: czy AI faktycznie potrafi obniżyć jakość na komendę.

Czemu wcześniejsze modele nie umiały być brzydkie

Tu zaczyna się część techniczna, która jest naprawdę ciekawa. Generatory obrazów ostatniej generacji (DALL-E 3, Midjourney, Imagen, Stable Diffusion) trenowane były na ogromnych zbiorach obrazów z jedną dominującą cechą. Każdy obraz w treningu był do czegoś użyty. Mowa o zdjęciach stockowych, ilustracjach na bloga, plakatach, fotografiach produktowych. Brzydkich rysunków w tych zbiorach prawie nie ma, ponieważ nikt brzydkich rysunków publicznie nie publikuje.

W efekcie model, kiedy słyszy słowo “rysunek”, sięga w pierwszej kolejności po reprezentacje “rysunku artystycznego”. Brzydki bazgroł nie jest dla niego osobnym konceptem, ponieważ stanowi awarię normalnego procesu generowania. Dlatego prosząc DALL-E 3 o “rysunek dziecka kredkami”, dostawałeś coś, co wygląda jak ilustracja z książeczki dla dzieci, czyli efekt “rysunku dziecka” wyfiltrowany przez profesjonalnego ilustratora. Innymi słowy model nie rozumiał polecenia “bądź gorszy”. Zamiast tego zawsze próbował być najlepszą wersją tego, co wpisałeś.

Generatory obrazów dotąd zachowywały się jak zbyt staranny stażysta – poprosiłeś o szybką notatkę na karteczce, a dostajesz dokument w Wordzie z trzema fontami i eleganckim nagłówkiem.

Co zmieniło się w GPT Image 2? OpenAI przeprojektował proces decyzyjny modelu tak, że stylistyczne instrukcje są teraz traktowane dosłownie. Dlatego jeśli prosisz o niską jakość, model nie wraca do trybu “no ale klient pewnie chce ładnie”. Po prostu idzie tam, gdzie go wysyłasz. W rezultacie wprowadza to do generatorów coś, czego dotąd brakowało: realną kontrolę nad poziomem profesjonalizmu efektu. Adam Holter w swojej recenzji z 1 maja 2026 nazywa to “pierwszą wersją, która wreszcie akceptuje zlecenie bycia żałosnym”.

Praktyczne zastosowania: memy, marketing, prototypy

Z perspektywy twórcy treści viralowy prompt to dwa konkretne narzędzia w kieszeni. Pierwszym z nich są memy. Wystarczy wziąć dowolne zdjęcie z internetu (zachowując prawo cytatu), dorzucić prompt o MS Paincie, dostać paskudną wersję i wstawić ją w mema. W efekcie pięć minut pracy zamiast godziny w Photoshopie.

Druga rola to marketing. Zespoły reklamowe, które robią ironiczne, retro albo “lo-fi” kampanie, zwykle płaciły grafikom za bazgroł wyglądający jak narysowany ręcznie. Teraz mogą natomiast wygenerować dziesięć wariantów w dziesięć minut, wybrać najlepszy i dopiero potem ewentualnie polerować. To dokładnie ten typ workflowu, w którym modele AI naprawdę przyspieszają codzienną pracę. Pisaliśmy już, jak Anthropic w raporcie o 1 mln rozmów pokazał, że ludzie często traktują AI jak partnera do iteracji, a nie jak finalnego dostawcę. Dlatego generatory obrazów wchodzą właśnie w tę samą fazę.

Trzecim zastosowaniem są prototypy interfejsów. Programiści i projektanci od dawna używają tak zwanych “low-fi mockups” (czyli niskiej jakości makiet) do testowania pomysłów. Brzydki, byle jaki rysunek wygląda jak coś tymczasowego, dlatego klient nie czepia się szczegółów koloru i komentuje pomysł, a nie pikselową przesuwkę. Wcześniej taką makietę trzeba było rysować ręcznie albo w narzędziach typu Balsamiq. Tymczasem GPT Image 2 z odpowiednim promptem produkuje to bez wychodzenia z ChatGPT.

Dobry mockup jest celowo brzydki. Klient skupia się na układzie, a nie na czcionce. Im ładniejszy rysunek, tym częściej rozmowa zbacza na detale, których jeszcze nie czas.

Czwartym zastosowaniem są ilustracje do edukacji. Nauczyciel, który robi prezentację dla dzieci, nie chce przecież, żeby slajd wyglądał jak okładka korporacyjnego raportu. Brzydki, ręczny rysunek lepiej trzyma uwagę i sprawia, że materiał wygląda na “ludzki”. Dotąd takie ilustracje rysowało się ręcznie albo szukało darmowych zasobów. Tymczasem teraz wystarczy GPT Image 2 i jeden prompt.

Jak używać tego promptu po polsku – krok po kroku

Najprostsza wersja w języku polskim wygląda tak. Otwierasz ChatGPT, wybierasz tryb generowania obrazu, wgrywasz zdjęcie i wpisujesz: “Przerysuj ten obraz w najbardziej niezdarny i żałosny sposób, jaki potrafisz. Użyj białego tła. Wynik ma wyglądać tak, jakby narysowała to siedmiolatka myszką w MS Paint. Bez prób upiększania, bez korekty proporcji, bez wygładzania linii”. W większości przypadków model wykonuje polecenie poprawnie już za pierwszym razem.

Co warto modyfikować pod własne zastosowania? Pod memy dorzuć “z wyraźnym poczuciem humoru i przesadnymi proporcjami”. W retro kampanii zadziała “w estetyce wczesnych grafik komputerowych z lat 90”. Z kolei do prototypów wystarczy “w stylu szkicu na serwetce, czarne linie, bez kolorów wypełnienia”. Każda z tych modyfikacji prowadzi do nieco innego efektu, ponieważ model rozumie różnicę między “siedmiolatka w MS Paincie” a “szybki szkic na serwetce”.

Ostatnia rzecz. Generator obrazów ma zawsze pewien losowy element. Dlatego jeśli pierwszy efekt wygląda za ładnie, dorzuć w promptu jeszcze mocniejsze instrukcje obniżające jakość: “wyraźnie nierówne kreski, krzywa perspektywa, oczy na różnych wysokościach, koła w różnych rozmiarach”. W efekcie im konkretniej opiszesz, co ma być źle, tym ładniej model to popsuje.

Pierwsza Misja AI · Kodożercy

AI zmienia rynek pracy. Zacznij rozumieć o co chodzi.

Kurs Pierwsza Misja AI to najkrótszy kurs Kodożerców, po którym naprawdę rozumiesz AI. Sci-fi fabuła, gamifikacja, prawdziwy GPT-4 w ćwiczeniach i certyfikat na koniec.

Sprawdź program kursu →
Pierwsza Misja AI - Kodożercy

Podsumowanie

Viralowy prompt do GPT Image 2 to z jednej strony żart internetu, a z drugiej istotny sygnał o tym, jak rozwija się sztuczna inteligencja w 2026. Pierwsza ważna obserwacja: nowy model OpenAI naprawdę słucha instrukcji stylistycznych, w tym tych, które każą mu być gorszym niż domyślnie. Druga: dzięki temu zyskujemy w codziennej pracy realną kontrolę nad poziomem profesjonalizmu efektu, czego dotąd brakowało. Trzecia: praktyczne zastosowania to memy, ironiczne kampanie marketingowe, prototypy interfejsów i ludzkie ilustracje do edukacji. W efekcie recepta jest prosta. Zdjęcie, prompt o MS Paincie i gotowy paskudny rysunek w trzydzieści sekund. Pięć minut pracy zamiast godziny w Photoshopie i dokładnie taki efekt, jakiego się chciało.

Newsletter · DevstockAcademy & Kodożercy

Bądź na bieżąco ze światem IT, AI i automatyzacji

Co wtorek: newsy z branży, praktyczne tipy i narzędzia które warto znać. Zero spamu.


Udostępnij na:
Mateusz Wojdalski

Specjalista SEO i content marketingu w Devstock. Zajmuję się strategią treści, automatyzacją procesów marketingowych i wdrożeniami AI w codziennej pracy. Badam nowe narzędzia, adaptuję je do realnych zadań i piszę o tym, co faktycznie działa.

Anthropic 1 mln rozmów: o co naprawdę pytamy Claude'a w 2026 roku

Najnowsze wpisy

Thumb
GPT Image 2 viralowy prompt: jak zmusić
01 maj, 2026
Thumb
Anthropic 1 mln rozmów: o co naprawdę
01 maj, 2026
Thumb
n8n as code V2: koniec klikania w UI,
01 maj, 2026
Thumb
Meta zwalnia 8000 osób, żeby zapłacić za
01 maj, 2026
Thumb
Laptopy biznesowe drożeją w 2026 – dlaczego ceny
01 maj, 2026

Kategorie

  • Aktualności i Wydarzenia (31)
  • Bezpieczeństwo i Jakość (34)
  • Branża IT i Nowe Technologie (63)
  • Design i User Experience (4)
  • Narzędzia i Automatyzacja (102)
  • Programowanie i Technologie Webowe (77)
  • Rozwój kariery i Edukacja (33)

Tagi

5G AI Architektura Cyberbezpieczeństwo Feedback Frontend Git IoT JavaScript Motywacja Nauka efektywna Optymalizacja i wydajność Programowanie React.JS Rozwój osobisty WebDevelopment
Logo FitBody Center Warszawa

Odkryj zabiegi Endermologii LPG Infinity w FitBody Center Warszawa

Maszyna zabiegowa - endermologia lpg infinity

Archiwa

  • maj 2026
  • kwiecień 2026
  • marzec 2026
  • luty 2026
  • styczeń 2026
  • grudzień 2025
  • listopad 2025
  • październik 2025
  • wrzesień 2025
  • sierpień 2025
  • lipiec 2025
  • czerwiec 2025
  • maj 2025
  • kwiecień 2025
  • marzec 2025
  • listopad 2024
  • październik 2024
  • wrzesień 2024
  • sierpień 2024
  • czerwiec 2024
  • maj 2024
  • kwiecień 2024
Group-5638-1

Devstock – Akademia programowania z gwarancją pracy

🏠 ul. Bronowska 5a,
03-995 Warszawa
📞 +48 517 313 589
✉️ contact@devstockacademy.pl

Linki

  • Poznaj firmę Devstock
  • Wejdź do społeczności Devstock
  • Polityka prywatności
  • Regulamin

FitBody Center

Strona

  • Strona główna
  • Kontakt

Newsletter

Bądź na bieżąco, otrzymuj darmową wiedzę i poznaj nas lepiej!


Icon-facebook Icon-linkedin2 Icon-instagram Icon-youtube Tiktok
Copyright 2026 Devstock. Wszelkie prawa zastrzeżone
Devstock AcademyDevstock Academy
Sign inSign up

Sign in

Don’t have an account? Sign up
Lost your password?

Sign up

Already have an account? Sign in