14 maja 2026 The Register opisał historię czytelnika, który dostał od AWS rachunek 30 141,33 dolara za inference Claude Opus na Bedrocku w kwietniu. Do tego doszło jeszcze 675,07 dolara opłat za samą infrastrukturę AWS. Najboleśniejsze nie były jednak same koszty. Najboleśniejsza była cisza. AWS Cost Anomaly Detection, czyli usługa, którą Amazon sprzedaje jako alarm przed nieoczekiwanymi wydatkami, nie wysłała ani jednego ostrzeżenia. I to nie z powodu opóźnienia ani źle ustawionego progu. Próg był ustawiony 33 dni przed pierwszym użyciem, na “Absolute ≥ 100 dolarów AND Relative ≥ 40%”. Powód braku alertu okazał się znacznie głębszy. Dlatego dotyczy każdej polskiej firmy, która właśnie wdraża agenta Claude na Bedrocku.
Rachunek za Claude na Bedrock w takiej skali to dziś nie egzotyka. To efekt trzech nakładających się rzeczy. Pierwsza to model rozliczania per token, w którym koszt rośnie liniowo do ilości pracy agenta. Druga to agentowe pętle bez twardych limitów. Potrafią pracować dziesiątkami godzin, jeśli zadanie jest źle sformułowane albo zewnętrzne API zwraca błędy zachęcające do ponawiania. Trzecia, najmniej oczywista, to pułapka samego AWS. Rozliczanie Bedrock idzie bowiem przez AWS Marketplace, a ten kanał omija standardowe narzędzia kontroli kosztów. W dodatku Anthropic kilka dni wcześniej uruchomił natywną platformę Claude w AWS, co przyśpiesza wdrożenia agentów. Im łatwiejszy dostęp, tym łatwiejsza katastrofa, gdy ktoś klika “uruchom” bez wcześniejszego ustawienia zabezpieczeń.
Co dokładnie się stało z rachunkiem za Claude na Bedrock
Według relacji The Register sekwencja wyglądała następująco. Czytelnik założył konto AWS i włączył Cost Anomaly Detection 33 dni przed pierwszym użyciem Bedrock. W ustawieniach wybrał monitoring scope “AWS Services”. Amazon opisuje tę opcję w dokumentacji jako “tracks all AWS services automatically”. Próg alertu czytelnik ustawił na “Absolute ≥ 100 dolarów AND Relative ≥ 40%”. To rozsądne minimum dla kogoś, kto chce zostać powiadomiony przy pierwszym sygnale anomalii.
Najpierw jednak spaliły się kredyty AWS Activate, łącznie 8026,54 dolara – całkowicie po cichu, bez maila o wyczerpaniu. Kolejne tygodnie Bedrock rozliczał Claude Opus dalej, tym razem już na rachunek karty płatniczej. Pierwszy sygnał, że coś jest nie tak, czytelnik dostał dopiero w postaci faktury. 30 141,33 dolara plus 675,07 dolara za infrastrukturę. W rezultacie blisko 31 tysięcy dolarów bez jednego alertu z systemu, który Amazon sprzedaje jako siatka bezpieczeństwa.
To zresztą nie pierwsza taka historia. W kwietniu 2026 opisaliśmy agenta AI w Cursorze, który skasował produkcyjną bazę PocketOS na Railway. Schemat jest podobny. Brakuje warstwy pomiędzy agentem a produkcyjnym zasobem. W tamtym przypadku zasobem była baza, tu z kolei portfel. Skala konsekwencji finansowej różni się, jednak źródło problemu pozostaje takie samo: agent dostał dostęp, ale nie dostał limitu.
Agent dostał dostęp, ale nie dostał limitu. To dziś najbardziej powtarzalny błąd architektury produkcyjnej AI.
Dlaczego Cost Anomaly Detection w ogóle nie zadziałał
Tu zaczyna się techniczna lekcja warta kilkadziesiąt tysięcy dolarów. Cost Anomaly Detection w tej historii nie zawiódł przez opóźnienie ani przez za wysoki próg. Powód jest natomiast znacznie głębszy. AWS Marketplace w ogóle nie jest objęty zakresem działania CAD. Rozliczanie Claude na Bedrock idzie zaś właśnie przez AWS Marketplace, ponieważ Anthropic to dostawca trzeci, nie native serwis AWS.
Detal dotyczący Marketplace siedzi w dokumentacji AWS w jednej linijce. Korzystanie z Bedrock wygląda jednak z poziomu konsoli identycznie jak każdy inny serwis. Co więcej, w ustawieniach CAD widnieje opcja “AWS Services”. Amazon opisuje ją jako “tracks all AWS services automatically”. Z perspektywy administratora to wygląda jak komplet. W rzeczywistości to natomiast komplet z dziurą. Wpadają w nią wszystkie najdroższe modele AI dostępne w Bedrock Marketplace.
Cost Anomaly Detection nie zawiódł. CAD nie obejmuje Marketplace, a Claude na Bedrock to właśnie Marketplace. To luka projektowa, a nie awaria.
Corey Quinn, cloud economist z Duckbill Group, skomentował to dla The Register krótko: “To nieintuicyjne, że wydatki na model w Bedrock idą przez Marketplace, chyba że jesteś naprawdę głęboko obeznany z AWS”. Quinn dodaje, że sam robi inference bezpośrednio z Anthropic. Dlaczego? Ponieważ tam dostaje real-time billing, alerty, twarde cutoffy oraz limity per klucz API. AWS oficjalnie odpowiedział: “Customers should reach out to AWS Support”. Firma przypomniała też, że jest jeszcze drugi mechanizm – AWS Budgets – który Marketplace już obsługuje. Innymi słowy, usługa monitorująca koszty istnieje. To jednak inna usługa niż ta, którą większość zespołów aktywuje automatycznie przy zakładaniu konta.
Druga pułapka, dla wielu nawet bardziej dotkliwa, dotyczy kredytów AWS Activate. Kredyty są ciche. Konto wygląda tak, jakby nic się nie działo, ponieważ saldo jest zerowe. Bedrock w tym czasie rozlicza zapytania, kredyty się topią, jednak żaden mechanizm nie informuje, że przekroczyłeś próg. Następnego dnia po wyczerpaniu kredytów rachunek przestawia się na realne pieniądze. Alert mailowy o “wyczerpaniu kredytów AWS Activate” w tym konkretnym przypadku natomiast nie przyszedł. W efekcie granica między darmowym testowaniem a produkcyjnym fakturowaniem przeszła bezgłośnie.
Trzy guardraile dla agenta Claude na Bedrock
Większość polskich firm pracujących z Bedrock nie ma dedykowanego inżyniera FinOps. Dlatego dobrym minimum jest komplet trzech zabezpieczeń, które każdy zespół może wdrożyć w jeden dzień. Warto od razu zaznaczyć, że żaden z tych guardraili nie polega na Cost Anomaly Detection – z przyczyn opisanych wyżej.
AWS Budgets z akcją automatyczną
To inna usługa niż CAD. Ma natomiast jedną kluczową przewagę: Budgets obejmuje także AWS Marketplace, więc i Claude na Bedrock. Budget działa na progu kwotowym, nie statystycznym. Można ustawić limit “1000 dolarów dziennie na Bedrock w tym koncie” oraz akcję “Deny IAM policy na invoke” po przekroczeniu progu. To brutalne, jednak ratuje portfel. Stanowisko AWS po sprawie The Register wprost wskazuje Budgets jako narzędzie, którego należało użyć. Warto traktować to jak oficjalne uznanie, że CAD samodzielnie nie wystarczy.
Twardy max_tokens po stronie Bedrock
Każde wywołanie powinno mieć ustawione max_tokens na rozsądny limit. Dla Opus typowo 4-8 tysięcy. Bez tego model może wygenerować odpowiedź na 200 tysięcy tokenów. Co więcej, w długich łańcuchach agentowych każda iteracja konsumuje pełen wcześniejszy kontekst. Dlatego prawdziwy koszt rośnie kwadratowo do liczby kroków, nie liniowo. Sam ten guardrail nie zatrzyma pętli, jednak ogranicza wybuchy długości pojedynczych odpowiedzi.
Circuit breaker w kodzie agenta
Trzecia warstwa działa najbliżej samego problemu, ponieważ siedzi w kodzie agenta. Najlepiej w postaci max-turn guarda. Jeden z komentujących wątek Reddit ujął mechanizm precyzyjnie. Typowy runaway to pętla retry bez max-turn guarda. Agent uderza w błąd. Retry idzie z akumulowanym kontekstem każdej nieudanej próby. Nic nie wymusza wyjścia, ponieważ model nie wie, że pali pieniądze. Dlatego sam licznik iteracji (na przykład 30 wywołań na sesję albo 5 prób tej samej operacji) zatrzymuje pętlę, której AWS w ogóle nie wykryje. Ten jeden mechanizm zapobiega 80% historii typu “obudziłem się z rachunkiem na pięć cyfr”.
Opcja zaawansowana: Bedrock access gateway
Dla zespołów z większym budżetem dochodzi czwarta warstwa. Bedrock access gateway pełni rolę proxy między aplikacją a Bedrock. Narzuca twarde limity osobno dla użytkownika, klucza API albo całej organizacji, w czasie zbliżonym do realtime. To rozwiązanie, do którego firmy budujące poważne agenty na Bedrock zaczynają wracać po pierwszym poważnym incydencie kosztowym.
Rachunek za Claude na Bedrock vs direct Anthropic – co wybiera ekspert FinOps
Cytat Corey Quinna z wywiadu dla The Register jest cenny, ponieważ pochodzi od kogoś, kto rozlicza chmury klientom zawodowo. Quinn świadomie nie korzysta z Bedrock do inference Claude’a. Wybiera bezpośredni dostęp do Anthropic. Dlaczego? Tam dostaje real-time billing, alerty oraz cutoffy. Dodatkowo każdy klucz API może mieć osobne limity. To są rzeczy, które na Bedrocku albo nie istnieją, albo wymagają samodzielnego zbudowania warstwy abstrakcji ponad nimi.
Z tego samego powodu Anthropic wynajął ostatnio superkomputer Colossus 1 od SpaceX i podwoił limity Claude Code, żeby utrzymać użytkowników premium. Równolegle wprowadza coraz bardziej szczegółowe metering i throttling per organizacja. Chodzi o to, żeby chronić zarówno klientów, jak i własną infrastrukturę przed pętlami agentowymi. Nowa platforma Claude w AWS to ten sam kierunek. Co istotne, kontrola nad billingiem siedzi po stronie Anthropic, nie AWS Marketplace.
Dla polskiego dewelopera oznacza to konkretną decyzję architektoniczną. Wybór “Bedrock dla wygody integracji z AWS” ma swoją cenę w postaci słabszej kontroli kosztów po stronie dostawcy. Wybór “direct Anthropic dla lepszego billingu” wymaga z kolei dodatkowej pracy przy integracji z resztą infrastruktury. Najprostsza separacja, niezależnie od wyboru, polega na utworzeniu osobnego konta albo klucza API dla każdego agenta produkcyjnego. Z własnym budżetem dziennym. To załatwia 90% ryzyka jednym ruchem.
Kurs n8n 2.0 · Kodożercy
Ile godzin tygodniowo tracisz na powtarzalne zadania?
n8n pozwala zautomatyzować to, co robisz ręcznie – przesyłanie danych, powiadomienia, raporty. Kurs n8n 2.0 na Kodożercach pokaże Ci jak, krok po kroku, bez pisania kodu.
Sprawdź kurs n8n 2.0 →

Czego rachunek za Claude na Bedrock naprawdę uczy
Najłatwiej jest sprowadzić tę historię do anegdoty “gość zostawił agenta i dostał rachunek”. Tak jednak nie wygląda jej prawdziwa nauka. Prawdziwa nauka brzmi: warstwa AI bez zewnętrznej warstwy kontrolnej nie jest produkcyjnym systemem. Jest demem. Działa świetnie, dopóki nie przestanie działać świetnie. To “przestaje” przychodzi zazwyczaj nocą, w weekend, podczas urlopu albo przy konfiguracji testowej. Najczęściej takiej, którą ktoś włączył na produkcję “tylko na chwilę”.
Warstwa AI bez zewnętrznej warstwy kontrolnej nie jest produkcyjnym systemem. Jest demem.
Polskie firmy budujące pierwsze agenty produkcyjne wpadają w tę samą pułapkę. Dlatego, że dokumentacja Bedrock pokazuje przykłady działające na laptopie. Tam koszty są niewidoczne, ponieważ demo trwa minutę. Skok na produkcję wymaga z kolei zupełnie innego myślenia o limitach. Anthropic zauważył to dopiero teraz. Dlatego nowa platforma Claude w AWS dorzuca coraz więcej knobs do strojenia limitów per zespół. To dobry kierunek, jednak nie zwalnia firm z wdrożenia własnych guardraili. Pierwszy alert i tak zobaczysz na swojej fakturze, nie w dashboardzie Anthropic.
Podsumowanie
Rachunek za Claude na Bedrock w wysokości 30 141 dolarów spadł na czytelnika The Register nie przez jedną pomyłkę, tylko przez lukę projektową: Cost Anomaly Detection nie obejmuje AWS Marketplace, a Claude na Bedrocku to właśnie Marketplace. AWS Budgets z twardą akcją IAM, max_tokens na poziomie modelu oraz circuit breaker w kodzie agenta – te trzy rzeczy załatwiają większość ryzyka i wdrożysz je w jeden dzień. Każdy polski zespół wypuszczający agenta na Bedrock w najbliższych tygodniach powinien przejść przez tę listę przed pierwszym uruchomieniem produkcyjnym. Alternatywą pozostaje direct Anthropic API z real-time billingiem – tę drogę wybiera Quinn po pierwszym poważnym incydencie kosztowym.
Newsletter · DevstockAcademy & Kodożercy
Bądź na bieżąco ze światem IT, AI i automatyzacji
Co wtorek: newsy z branży, praktyczne tipy i narzędzia które warto znać. Zero spamu.



