Stella Laurenzo, Senior Director AI w AMD, przeanalizowała 6852 sesji i ponad 234 tysiące wywołań narzędzi w Claude Code na przestrzeni trzech miesięcy. Wyniki potwierdzają to, co wielu użytkowników odczuwa od marca 2026: Claude Opus 4.6 daje gorsze rezultaty niż jeszcze dwa miesiące temu. Mediana długości myślenia (thinking) spadła o 73%. Model pięć razy częściej edytuje pliki bez wcześniejszego przeczytania kodu. Użytkownicy przerywają sesje sześć razy częściej niż wcześniej. Co się wydarzyło?
Co dokładnie zmieniło się w Claude Opus 4.6?
Anthropic wprowadził dwie zmiany domyślnych ustawień, które bezpośrednio wpłynęły na zachowanie modelu.
Pierwsza zmiana to włączenie adaptive thinking jako ustawienia domyślnego 9 lutego 2026. Wcześniej model wykorzystywał pełny budżet tokenów na myślenie przed odpowiedzią. Po zmianie sam decyduje, ile czasu poświęci na analizę problemu. W praktyce oznacza to, że model “myśli” krócej, bo optymalizuje pod szybkość odpowiedzi zamiast pod głębokość analizy.
Druga zmiana nastąpiła 3 marca 2026. Anthropic obniżył domyślny poziom wysiłku (effort) z maksymalnego do poziomu 85 na skali 0-255. Boris Cherny, lider zespołu Claude Code, wyjaśnił tę decyzję jako “najlepszy balans między inteligencją, opóźnieniami i kosztem dla większości użytkowników”.
Dodatkowo 12 lutego Anthropic zaczął ukrywać bloki thinking w interfejsie użytkownika. Firma twierdzi, że to zmiana czysto wizualna, jednak Laurenzo odnotowała regresję jakości dokładnie w dniu, gdy ukrywanie thinking przekroczyło 50% sesji.
Dane z 6852 sesji – co pokazują liczby?
Analiza Laurenzo, opublikowana jako issue #42796 na GitHubie Claude Code (ponad 400 komentarzy), przedstawia konkretne metryki porównujące okres styczeń-luty z marcem 2026.
| Metryka | Styczeń-luty | Marzec | Zmiana |
|---|---|---|---|
| Mediana długości thinking | ~2200 znaków | ~600-720 znaków | -73% |
| Stosunek Read do Edit | 6.6 | 2.0 | -70% |
| Edycje bez czytania pliku | 6.2% | 33.7% | +444% |
| Przerwania przez użytkownika na 1000 wywołań | 0.9 | 5.9 | +556% |
Najważniejszy wskaźnik to stosunek Read do Edit. Spadek z 6.6 do 2.0 oznacza, że model coraz rzadziej czyta kod przed jego modyfikacją. Co trzecia edycja w marcu była “ślepa”, bez wcześniejszego zapoznania się z plikiem. To tłumaczy wzrost halucynacji i błędnych poprawek, na które skarżą się użytkownicy.
Paradoksalnie te zmiany nie oszczędzają pieniędzy. Laurenzo oszacowała, że koszt na porównywalną ilość pracy wzrósł z 345 dolarów w lutym do ponad 42 tysięcy dolarów w marcu. Model robi gorzej za pierwszym razem, więc musi ponawiać próby dziesiątki razy.
Jeśli chcesz lepiej zrozumieć jak działają limity tokenów w Claude Code i jak ich nie marnować, przeczytaj nasz artykuł o limitach i tokenach w Claude Code.
Czy Anthropic celowo obniżył jakość modelu?
Krążą dwie wersje tej historii. Pierwsza mówi, że Anthropic “ogłupia” model, żeby zmniejszyć koszty infrastrukturalne. Druga, że to normalna optymalizacja dla szerszej bazy użytkowników.
Prawda leży pośrodku. Anthropic nie zmienił samego modelu. Benchmarki SWE-Bench-Pro (Margin Lab) nie wykazują istotnego spadku wydajności od lutego. To, co się zmieniło, to domyślne ustawienia, które kontrolują ile zasobów model wykorzystuje na każde zapytanie.
Thariq Shihipar z Anthropic: “Anthropic nie degraduje swoich modeli żeby lepiej obsługiwać popyt.”
Warto jednak zauważyć, że viralowy “dowód” degradacji z BridgeBench (Opus miał spaść z 2. na 10. miejsce na leaderboardzie halucynacji) został obalony. Informatyk Paul Calcraft wykazał błąd metodologiczny: oryginalny test obejmował 6 zadań, nowy 30. Na tych samych 6 zadaniach spadek wynosił 2.2 punktu procentowego, co mieści się w normalnej wariancji.
Natomiast infrastruktura Anthropic ma realne problemy. W marcu 2026 strona statusowa odnotowała około 15 incydentów z podwyższonymi błędami na Opus 4.6. W pierwszych dwóch tygodniach kwietnia kolejne kilka. Anthropic stracił status powyżej 99% dostępności w pierwszym kwartale 2026.
Więcej o problemach z rate limitami i kosztami Claude Code pisaliśmy w artykule o rate limitach i cache bug w Claude Code Pro.
Co możesz z tym zrobić?
Jeśli używasz Claude Code i odczuwasz spadek jakości, masz kilka opcji.
Pierwsza to wymuszenie pełnego myślenia. W ustawieniach Claude Code możesz ustawić reasoning effort na maksymalny poziom zamiast domyślnego 85. Model będzie myślał dłużej, ale dokładniej. Kosztuje więcej tokenów na jedno zapytanie, jednak łącznie może wyjść taniej, bo nie będziesz musiał ponawiać tych samych poleceń.
Druga opcja to jawne instrukcje w CLAUDE.md. Dodaj zasadę, że model ma zawsze czytać plik przed edycją. Użytkownicy raportują, że takie jawne reguły zmniejszają liczbę “ślepych” edycji.
Trzecia, bardziej radykalna, to przesiadka na API z pełną kontrolą parametrów. Przez API możesz ustawić dokładny budżet thinking i effort, nie polegając na domyślnych wartościach, które Anthropic zmienia bez uprzedzenia. Wymaga to więcej pracy, ale daje przewidywalne wyniki.
Warto śledzić GitHub issues Claude Code. Społeczność aktywnie dokumentuje regresje, a Anthropic (choć z opóźnieniem) odpowiada na najgłośniejsze zgłoszenia.
Kurs n8n 2.0 · Kodożercy
Ile godzin tygodniowo tracisz na powtarzalne zadania?
n8n pozwala zautomatyzować to co robisz ręcznie – przesyłanie danych, powiadomienia, raporty. Kurs n8n 2.0 na Kodożercach pokaże Ci jak, krok po kroku, bez pisania kodu.
Sprawdź kurs n8n 2.0 →

FAQ – Najczęstsze pytania o degradację Claude Opus 4.6
Czy Anthropic zmienił sam model Opus 4.6?
Według dostępnych danych nie. Benchmarki SWE-Bench-Pro nie wykazują spadku wydajności samego modelu. Zmieniły się domyślne ustawienia: adaptive thinking i obniżony effort level, które kontrolują ile zasobów model zużywa na każde zapytanie.
Jak przywrócić wcześniejszą jakość Claude Code?
Ustaw reasoning effort na maksymalny poziom w konfiguracji Claude Code. Dodaj do CLAUDE.md zasady wymagające czytania plików przed edycją. Rozważ korzystanie z API, gdzie masz pełną kontrolę nad parametrami.
Czy lepiej przesiąść się na Claude Opus 4.5?
Na dziś nie ma bezpośrednich porównań Opus 4.6 (po zmianach) z Opus 4.5. Dyskusja skupia się na degradacji 4.6 względem siebie samego. Opus 4.5 jest starszym modelem z innymi kompromisami wydajnościowymi.
Podsumowanie
Claude Opus 4.6 nie został potajemnie “ogłupiony”. Anthropic jawnie zmienił domyślne ustawienia modelu: włączył adaptive thinking i obniżył effort do poziomu 85. Dla przeciętnego użytkownika te zmiany przyspieszają odpowiedzi. Dla power userów, którzy polegają na głębokim myśleniu modelu przy złożonych zadaniach inżynieryjnych, oznaczają realny spadek jakości. Dane z 6852 sesji Stelli Laurenzo potwierdzają to liczbami. Rozwiązanie istnieje: wymuszenie wyższego poziomu effort i jawne zasady w CLAUDE.md. Warto je zastosować, zanim Anthropic znów zmieni domyślne wartości.
Newsletter · DevstockAcademy & Kodożercy
Bądź na bieżąco ze światem IT, AI i automatyzacji
Co wtorek: newsy z branży, praktyczne tipy i narzędzia które warto znać. Zero spamu.



