46 tysięcy fałszywych materiałów tylko w jednym kraju i tylko w jednym roku. Tyle zgłosił polski NASK do Facebooka, Twittera i TikToka w 2025 roku, a platformy usunęły z tego jedynie 12 procent. 16 kwietnia 2026 roku Kyle Kingsbury, autor słynnego projektu Jepsen do testowania baz danych, opublikował esej zatytułowany “The Future of Everything is Lies, I Guess” i w branży zawrzało. Tekst zebrał ponad 600 punktów na Hacker News w jeden dzień. Kingsbury pisze o tym, że sztuczna inteligencja nie zmieni naszej pracy tak, jak obiecuje marketing. Zmieni nasze społeczeństwo w taki sposób, w jaki samochody zmieniły miasta. A to trzeba zobaczyć wcześniej, nie po fakcie. W polskim kontekście sprawa jest jeszcze pilniejsza. Google właśnie ogłosił wojnę z tak zwanym AI slop, czyli masowo generowaną treścią o zerowej wartości. Polskie blogi, sklepy i redakcje dopiero teraz zaczynają rozumieć, co to oznacza dla ich ruchu.
Kto to Kyle Kingsbury i dlaczego warto przeczytać właśnie jego
Kingsbury to nie jest przypadkowy bloger z opinią. Od kilkunastu lat prowadzi Jepsen, czyli jedyny w swoim rodzaju projekt niezależnego testowania rozproszonych baz danych. Gdy Jepsen publikuje raport, producenci typu MongoDB, PostgreSQL, Cassandra czy Redis reagują natychmiast – poprawiają błędy, zmieniają dokumentację, czasem przepisują fragmenty silnika. To autorytet zbudowany przez lata pracy, a nie przez krzyk na Twitterze.
Dlatego, gdy taka osoba pisze dwudziestostronicowy esej o sztucznej inteligencji i mówi wprost, że należy jej się opierać, warto się zatrzymać. Kingsbury nie jest technofobem. Jest inżynierem, który widzi, że narzędzie ma efekty uboczne, o których prawie nikt nie mówi.
Kingsbury nie ostrzega przed AI z pozycji publicysty. Robi to z pozycji inżyniera, który przez dekadę łamał dla zabawy to, co inni uznawali za niezawodne.
Główna teza eseju mieści się w jednym porównaniu. Samochody też kiedyś miały nas tylko szybciej przewozić z punktu A do B. Skończyło się tym, że przebudowały miasta, zabiły komunikację zbiorową w Stanach Zjednoczonych, wprowadziły ołów do powietrza i na dziesięciolecia uzależniły gospodarkę od ropy. Nikt z tych skutków nie przewidział, ponieważ każdy patrzył na samochód jako “szybszy koń”. Dokładnie tę samą pułapkę Kingsbury widzi przy AI. Jeśli patrzymy tylko na “szybsze pisanie maila”, przegapimy to, co dzieje się obok.
Co to jest AI slop i dlaczego weszło do słownika Google
AI slop to angielski termin, który w 2025 i 2026 roku stał się jednym z najpopularniejszych buzzwordów branży. Dosłownie oznacza “pomyje sztucznej inteligencji”. W praktyce chodzi o masowo generowane treści, które wyglądają jak normalne artykuły, recenzje albo komentarze, a tak naprawdę są sklejką z modelu językowego bez żadnego wkładu człowieka. Zero oryginalnych przemyśleń, zero nowych danych, zero doświadczenia.
Skala zjawiska zaczyna być policzalna. Firma Graphite zajmująca się SEO policzyła w 2026 roku, że ponad połowa anglojęzycznych treści w sieci jest dziś generowana lub współgenerowana przez AI. Euronews podsumował 2025 rok tytułem “To był rok, w którym AI slop wszedł do mainstreamu”. Wikipedia ma już własne hasło “AI slop” i definiuje je jako low-effort content produkowany w wysokich nakładach po to, żeby wygrać w ekonomii uwagi. Problem nie jest teoretyczny, ponieważ dotyka codzienne wyszukiwanie recenzji butów, przepisów na schabowego czy porad o alergii u dziecka.
Analogia z życia jest oczywista. To jak supermarket, w którym półki uginają się od towarów, ale połowa produktów to puste opakowania – wygląda jak jedzenie, lśni kolorami, a w środku nic nie ma. Konsument uczy się z czasem rozpoznawać podróbki, jednak traci na to zdrowie i pieniądze.
Polska rzeczywistość – 46 tysięcy fałszywek tylko w jednym roku
Ktoś mógłby powiedzieć, że to dalekie problemy USA, a Polska jest bezpieczna. Raport NASK z 2025 roku pokazuje, że tak nie jest. Centrum Analizy Dezinformacji NASK zgłosiło do platform społecznościowych ponad 46 tysięcy materiałów zawierających dezinformację. Platformy w reakcji usunęły tylko 12 procent, czyli około 5,5 tysiąca. Kolejne 68 procent zostało jakoś “zmoderowane” (czytaj: ukryte, ale nie zlikwidowane), a co piąte zgłoszenie zostało po prostu odrzucone.
Najmocniej uderzyła kampania prezydencka w pierwszym kwartale 2025. NASK zgłosił 168 politycznych materiałów dezinformacyjnych, w tym deepfake’i z wizerunkami kandydatów. Platformy usunęły z tej puli osiem. Cztery dostały etykietę “zmoderowano”. Reszta została. To nie jest problem techniczny, lecz strukturalny – kampania polityczna trwa sześć tygodni, a procedury zgłoszeń na platformach działają miesiącami. Zanim kłamstwo zostanie oznaczone, wybory są dawno rozstrzygnięte.
Kampania prezydencka trwa sześć tygodni. Procedura usunięcia deepfake’a na Facebooku, kilka miesięcy. Ten jeden ułamek mówi wszystko o tym, kto dziś wygrywa w sieci.
Dla polskiej firmy płynie z tego konkretna lekcja. Jeśli ktoś wygeneruje fałszywą recenzję Twojego produktu, fałszywy komentarz szefa albo fałszywe nagranie z biura, ścieżka sądowa i zgłoszeniowa zajmie dłużej niż cykl życia tego materiału w sieci. Widzieliśmy to z bliska przy okazji opisywanego już zakazu treści AI na Wikipedii. Redakcja największej encyklopedii świata uznała, że moderacja po prostu przegrywa wyścig z generatorami.
Google odpowiada – Core Update z lutego 2026 i słowa “AI slop is dead”
Jeszcze w 2024 roku Google tłumaczył, że treść AI jest dla niego neutralna, o ile jest “pomocna”. W lutym 2026 ton się zmienił. Discover Core Update z lutego, a potem oficjalne wystąpienie na Google Search Central Live w Zurychu, wprowadził jeden konkretny zwrot – “AI slop is dead”. Przedstawiciele Google nazwali rzecz po imieniu. Masowo generowane artykuły bez wartości degradują doświadczenie użytkownika w całej sieci, a Discover, czyli karta wiadomości w telefonach, już od nich odcina ruch.
Efekty poczuli polscy wydawcy natychmiast. Blogi, które w 2025 roku napędzały Discover setkami postów generowanych przez ChatGPT, straciły po Core Update między 40 a 80 procent ruchu z Google w ciągu trzech tygodni. Redakcje, które prowadziły autorską pracę z ludzkimi redaktorami, w większości zyskały. Paradoksalnie, to dobra wiadomość – Google pokazał, że umie odróżnić treść z doświadczenia od treści z modelu. Kłopot w tym, że algorytm co pół roku się zmienia, a granica “jeszcze pomocne” od “już slop” jest płynna i definiowana jednostronnie.
Podobny schemat działania widzieliśmy już przy halucynacjach w raportach firmowych. Przypomnijmy historię rządowego raportu w Australii napisanego przy pomocy AI. Zawierał on wymyślone źródła – temat rozkładaliśmy w tekście błąd AI w rządowym raporcie Deloitte i jak go uniknąć. Różnica polega tylko na skali. Deloitte to jeden raport. AI slop to miliony artykułów miesięcznie.
Pierwsza Misja AI · Kodożercy
Rozumiesz zagrożenia AI, gdy rozumiesz, jak naprawdę działa
Kurs Pierwsza Misja AI ma dedykowaną lekcję o ciemnej stronie sztucznej inteligencji: halucynacje, deepfake’i, manipulacja. Zanim zaczniesz się bać, zacznij rozumieć – 8 lekcji, gamifikacja, prawdziwe ćwiczenia z modelami.
Poznaj pełny program →

Co może zrobić polska firma, redakcja i Ty sam
Kingsbury w swoim eseju nie proponuje biernego narzekania. Daje konkretne rekomendacje, a większość z nich przekłada się jeden do jednego na polskie realia. Pierwsza i najprostsza brzmi tak: nie generuj, jeśli nie masz nic do dodania. Jeżeli Twój wpis na blogu mógłby być napisany przez dowolny model bez dostępu do Twoich danych, Twojego doświadczenia i Twoich wniosków, prawdopodobnie nie powinien powstać w tej formie. Google coraz lepiej to wyłapuje, a czytelnik już dawno się zorientował.
Druga rekomendacja dotyczy pracy w zespole. Jeśli w Twojej firmie pojawia się nakaz “piszcie wszystko z Copilotem”, warto zapytać o dwie rzeczy. Po pierwsze, kto odpowiada za błąd, gdy model zmyśli fragment oferty albo umowy. Po drugie, co firma robi, gdy klient udowodni, że dostał wygenerowaną odpowiedź zamiast rozmowy z człowiekiem. Brak odpowiedzi w obu punktach to sygnał alarmowy dla kadr, nie dla działu IT. Temat szerzej opisaliśmy przy okazji historii o weryfikacji tożsamości w Claude, gdzie widać, jak łańcuch odpowiedzialności rozjeżdża się, gdy w grę wchodzą dostawcy AI.
Trzecia rekomendacja jest organizacyjna. Polska firma marketingowa albo e-commerce w 2026 roku powinna umieć odpowiedzieć na proste pytania audytu. Jaki procent naszego bloga jest generowany przez AI bez weryfikacji człowieka? Jak oznaczamy treść tłumaczoną maszynowo? Czy nasze recenzje produktów pochodzą od prawdziwych klientów, czy od generatora? Kto zatwierdza obrazki AI w reklamach, żeby nie pokazać klienta z sześcioma palcami? To nie są pytania paranoidalne. Są to pytania, które regulatorzy europejscy zaczynają zadawać w ramach AI Act i DSA.
I pytanie retoryczne na koniec – ile czasu dziennie spędzasz dziś na odsiewaniu treści AI od treści ludzi, zanim zdążysz cokolwiek przeczytać? Jeśli odpowiedź brzmi “nic, bo nie zauważam różnicy”, to jest właśnie problem, o którym pisze Kingsbury.
FAQ – najczęstsze pytania o AI slop i dezinformację AI
Co to jest AI slop?
AI slop to masowo generowana treść tworzona przy pomocy modeli językowych, która nie wnosi żadnej oryginalnej wartości, wiedzy ani doświadczenia. Charakteryzuje się neutralnym tonem, powtarzalnymi frazami i ogólnikowymi informacjami. W 2026 roku termin wszedł do słownika Google, który ogłosił mu wojnę podczas Core Update w lutym.
Czy Google usuwa treści AI z wyników wyszukiwania?
Google nie usuwa treści AI automatycznie za sam fakt ich wygenerowania. Po Core Update z lutego 2026 roku algorytm odcina jednak ruch do stron, które masowo publikują artykuły bez eksperckiej wartości, bez autora, bez danych z doświadczenia. W praktyce blogi polegające na automatycznym AI bez weryfikacji człowieka straciły 40-80 procent ruchu z Discover w ciągu kilku tygodni.
Czy Polska ma duży problem z deepfake’ami politycznymi?
Tak. Raport NASK z 2025 roku pokazał, że w pierwszym kwartale roku wyborczego zgłoszono 168 materiałów politycznej dezinformacji, w tym deepfake’i z wizerunkami kandydatów na prezydenta. Platformy usunęły z tej puli tylko osiem materiałów. Cztery dostały etykietę “zmoderowano”. Skala ogólna dezinformacji w Polsce w 2025 roku to ponad 46 tysięcy zgłoszonych materiałów, z czego platformy usunęły 12 procent.
Jak polska firma może się chronić przed AI slop?
Po pierwsze, monitoruj własną markę w wyszukiwarce Google, TikToku oraz LinkedIn co najmniej raz w tygodniu. Szukaj fałszywych recenzji i wygenerowanych treści z Twoim logo. Po drugie, stwórz politykę użycia AI w firmie, która określa, kto może generować treść w imieniu marki i jak jest ona weryfikowana. Wreszcie po trzecie, przy reklamach z wizerunkami ludzi korzystaj z oznaczeń “wygenerowano przez AI”, których wymaga od 2026 roku Europejski Akt o Usługach Cyfrowych.
Czy warto jeszcze zakładać bloga w 2026 roku?
Tak, ale nie dowolnego. Blog oparty na automatycznym AI nie ma dziś szans w Google Discover. Blog prowadzony przez autora, który pisze z doświadczenia, ma liczby, cytaty i opinie, zyskuje po każdym kolejnym Core Update. Różnica polega na tym, czy stawiasz na ilość, czy na autorytet. Tylko to drugie utrzymuje ruch w długim terminie.
Podsumowanie
Esej Kyle’a Kingsbury’ego trafił w nerw, ponieważ połączył dwie rzeczy, które dotąd żyły osobno. Z jednej strony codzienne doświadczenie użytkownika internetu, który widzi, że coś się psuje. Z drugiej strony twarde liczby, które pokazują, że to “coś” dotyczy już większości wszystkich treści anglojęzycznych. W Polsce obraz jest podobny. NASK zgłasza 46 tysięcy fałszywych materiałów rocznie, platformy usuwają co ósmy. Google nazwał zjawisko po imieniu, dał mu etykietę AI slop i zaczął karać strony, które z niego żyją. Dla czytelnika płyną z tego dwa proste wnioski. Jeśli prowadzisz firmę, redakcję albo bloga, stawiaj na treść z doświadczenia, a nie na treść z automatu, bo zarówno algorytm, jak i klient coraz lepiej odróżniają jedno od drugiego. Jeśli korzystasz z internetu codziennie, naucz się rozumieć jak działają modele, które go wypełniają. Rozumienie narzędzia zabiera strach i daje kontrolę. To jest powód, dla którego warto wcześniej wiedzieć, co się zmienia – zanim zmiana zmieni Ciebie.
Newsletter · DevstockAcademy & Kodożercy
Bądź na bieżąco ze światem IT, AI i automatyzacji
Co wtorek: newsy z branży, praktyczne tipy i narzędzia które warto znać. Zero spamu.



