Skip to content
devstock logo
  • O nas
  • Moduły Akademii
    • Moduł 1
    • Moduł 2
    • Moduł 3
    • Pozostałe moduły
  • Kursy AI
    • Pierwsza Misja AI (Podstawy)
    • Automatyzacje z n8n 2.0
  • Blog
  • Kontakt
  • O nas
  • Moduły Akademii
    • Moduł 1
    • Moduł 2
    • Moduł 3
    • Pozostałe moduły
  • Kursy AI
    • Pierwsza Misja AI (Podstawy)
    • Automatyzacje z n8n 2.0
  • Blog
  • Kontakt
Kurs Automatyzacji z n8n - banner reklamowy
Narzędzia i Automatyzacja

Claude Opus 4.6 myśli 73% krócej – co Anthropic zmienił i co z tym zrobić

  • 14 kwi, 2026
  • Komentarze 0
Claude Opus 4.6 degradacja - spadek jakości thinking o 73 procent dane z 6852 sesji

Stella Laurenzo, Senior Director AI w AMD, przeanalizowała 6852 sesji i ponad 234 tysiące wywołań narzędzi w Claude Code na przestrzeni trzech miesięcy. Wyniki potwierdzają to, co wielu użytkowników odczuwa od marca 2026: Claude Opus 4.6 daje gorsze rezultaty niż jeszcze dwa miesiące temu. Mediana długości myślenia (thinking) spadła o 73%. Model pięć razy częściej edytuje pliki bez wcześniejszego przeczytania kodu. Użytkownicy przerywają sesje sześć razy częściej niż wcześniej. Co się wydarzyło?

Co dokładnie zmieniło się w Claude Opus 4.6?

Anthropic wprowadził dwie zmiany domyślnych ustawień, które bezpośrednio wpłynęły na zachowanie modelu.

Pierwsza zmiana to włączenie adaptive thinking jako ustawienia domyślnego 9 lutego 2026. Wcześniej model wykorzystywał pełny budżet tokenów na myślenie przed odpowiedzią. Po zmianie sam decyduje, ile czasu poświęci na analizę problemu. W praktyce oznacza to, że model “myśli” krócej, bo optymalizuje pod szybkość odpowiedzi zamiast pod głębokość analizy.

Druga zmiana nastąpiła 3 marca 2026. Anthropic obniżył domyślny poziom wysiłku (effort) z maksymalnego do poziomu 85 na skali 0-255. Boris Cherny, lider zespołu Claude Code, wyjaśnił tę decyzję jako “najlepszy balans między inteligencją, opóźnieniami i kosztem dla większości użytkowników”.

Dodatkowo 12 lutego Anthropic zaczął ukrywać bloki thinking w interfejsie użytkownika. Firma twierdzi, że to zmiana czysto wizualna, jednak Laurenzo odnotowała regresję jakości dokładnie w dniu, gdy ukrywanie thinking przekroczyło 50% sesji.

Dane z 6852 sesji – co pokazują liczby?

Analiza Laurenzo, opublikowana jako issue #42796 na GitHubie Claude Code (ponad 400 komentarzy), przedstawia konkretne metryki porównujące okres styczeń-luty z marcem 2026.

MetrykaStyczeń-lutyMarzecZmiana
Mediana długości thinking~2200 znaków~600-720 znaków-73%
Stosunek Read do Edit6.62.0-70%
Edycje bez czytania pliku6.2%33.7%+444%
Przerwania przez użytkownika na 1000 wywołań0.95.9+556%

Najważniejszy wskaźnik to stosunek Read do Edit. Spadek z 6.6 do 2.0 oznacza, że model coraz rzadziej czyta kod przed jego modyfikacją. Co trzecia edycja w marcu była “ślepa”, bez wcześniejszego zapoznania się z plikiem. To tłumaczy wzrost halucynacji i błędnych poprawek, na które skarżą się użytkownicy.

Paradoksalnie te zmiany nie oszczędzają pieniędzy. Laurenzo oszacowała, że koszt na porównywalną ilość pracy wzrósł z 345 dolarów w lutym do ponad 42 tysięcy dolarów w marcu. Model robi gorzej za pierwszym razem, więc musi ponawiać próby dziesiątki razy.

Jeśli chcesz lepiej zrozumieć jak działają limity tokenów w Claude Code i jak ich nie marnować, przeczytaj nasz artykuł o limitach i tokenach w Claude Code.

Czy Anthropic celowo obniżył jakość modelu?

Krążą dwie wersje tej historii. Pierwsza mówi, że Anthropic “ogłupia” model, żeby zmniejszyć koszty infrastrukturalne. Druga, że to normalna optymalizacja dla szerszej bazy użytkowników.

Prawda leży pośrodku. Anthropic nie zmienił samego modelu. Benchmarki SWE-Bench-Pro (Margin Lab) nie wykazują istotnego spadku wydajności od lutego. To, co się zmieniło, to domyślne ustawienia, które kontrolują ile zasobów model wykorzystuje na każde zapytanie.

Thariq Shihipar z Anthropic: “Anthropic nie degraduje swoich modeli żeby lepiej obsługiwać popyt.”

Warto jednak zauważyć, że viralowy “dowód” degradacji z BridgeBench (Opus miał spaść z 2. na 10. miejsce na leaderboardzie halucynacji) został obalony. Informatyk Paul Calcraft wykazał błąd metodologiczny: oryginalny test obejmował 6 zadań, nowy 30. Na tych samych 6 zadaniach spadek wynosił 2.2 punktu procentowego, co mieści się w normalnej wariancji.

Natomiast infrastruktura Anthropic ma realne problemy. W marcu 2026 strona statusowa odnotowała około 15 incydentów z podwyższonymi błędami na Opus 4.6. W pierwszych dwóch tygodniach kwietnia kolejne kilka. Anthropic stracił status powyżej 99% dostępności w pierwszym kwartale 2026.

Więcej o problemach z rate limitami i kosztami Claude Code pisaliśmy w artykule o rate limitach i cache bug w Claude Code Pro.

Co możesz z tym zrobić?

Jeśli używasz Claude Code i odczuwasz spadek jakości, masz kilka opcji.

Pierwsza to wymuszenie pełnego myślenia. W ustawieniach Claude Code możesz ustawić reasoning effort na maksymalny poziom zamiast domyślnego 85. Model będzie myślał dłużej, ale dokładniej. Kosztuje więcej tokenów na jedno zapytanie, jednak łącznie może wyjść taniej, bo nie będziesz musiał ponawiać tych samych poleceń.

Druga opcja to jawne instrukcje w CLAUDE.md. Dodaj zasadę, że model ma zawsze czytać plik przed edycją. Użytkownicy raportują, że takie jawne reguły zmniejszają liczbę “ślepych” edycji.

Trzecia, bardziej radykalna, to przesiadka na API z pełną kontrolą parametrów. Przez API możesz ustawić dokładny budżet thinking i effort, nie polegając na domyślnych wartościach, które Anthropic zmienia bez uprzedzenia. Wymaga to więcej pracy, ale daje przewidywalne wyniki.

Warto śledzić GitHub issues Claude Code. Społeczność aktywnie dokumentuje regresje, a Anthropic (choć z opóźnieniem) odpowiada na najgłośniejsze zgłoszenia.

Kurs n8n 2.0 · Kodożercy

Ile godzin tygodniowo tracisz na powtarzalne zadania?

n8n pozwala zautomatyzować to co robisz ręcznie – przesyłanie danych, powiadomienia, raporty. Kurs n8n 2.0 na Kodożercach pokaże Ci jak, krok po kroku, bez pisania kodu.

Sprawdź kurs n8n 2.0 →
Kurs n8n 2.0 - Kodożercy

FAQ – Najczęstsze pytania o degradację Claude Opus 4.6

Czy Anthropic zmienił sam model Opus 4.6?

Według dostępnych danych nie. Benchmarki SWE-Bench-Pro nie wykazują spadku wydajności samego modelu. Zmieniły się domyślne ustawienia: adaptive thinking i obniżony effort level, które kontrolują ile zasobów model zużywa na każde zapytanie.

Jak przywrócić wcześniejszą jakość Claude Code?

Ustaw reasoning effort na maksymalny poziom w konfiguracji Claude Code. Dodaj do CLAUDE.md zasady wymagające czytania plików przed edycją. Rozważ korzystanie z API, gdzie masz pełną kontrolę nad parametrami.

Czy lepiej przesiąść się na Claude Opus 4.5?

Na dziś nie ma bezpośrednich porównań Opus 4.6 (po zmianach) z Opus 4.5. Dyskusja skupia się na degradacji 4.6 względem siebie samego. Opus 4.5 jest starszym modelem z innymi kompromisami wydajnościowymi.

Podsumowanie

Claude Opus 4.6 nie został potajemnie “ogłupiony”. Anthropic jawnie zmienił domyślne ustawienia modelu: włączył adaptive thinking i obniżył effort do poziomu 85. Dla przeciętnego użytkownika te zmiany przyspieszają odpowiedzi. Dla power userów, którzy polegają na głębokim myśleniu modelu przy złożonych zadaniach inżynieryjnych, oznaczają realny spadek jakości. Dane z 6852 sesji Stelli Laurenzo potwierdzają to liczbami. Rozwiązanie istnieje: wymuszenie wyższego poziomu effort i jawne zasady w CLAUDE.md. Warto je zastosować, zanim Anthropic znów zmieni domyślne wartości.

Newsletter · DevstockAcademy & Kodożercy

Bądź na bieżąco ze światem IT, AI i automatyzacji

Co wtorek: newsy z branży, praktyczne tipy i narzędzia które warto znać. Zero spamu.


Udostępnij na:
Mateusz Wojdalski

Specjalista SEO i content marketingu w Devstock. Zajmuję się strategią treści, automatyzacją procesów marketingowych i wdrożeniami AI w codziennej pracy. Badam nowe narzędzia, adaptuję je do realnych zadań i piszę o tym, co faktycznie działa.

GAIA od AMD - open-source framework do budowania agentów AI lokalnie
Password manager i SSO - jak naprawdę zabezpieczyć hasła w 2026 roku

Najnowsze wpisy

Thumb
Claude Code na Apple Watch – jak
14 kwi, 2026
Thumb
Password manager i SSO – jak naprawdę
14 kwi, 2026
Thumb
Claude Opus 4.6 myśli 73% krócej –
14 kwi, 2026
Thumb
GAIA od AMD – open-source framework do
14 kwi, 2026
Thumb
ROCm od AMD dogania CUDA – w
13 kwi, 2026

Kategorie

  • Aktualności i Wydarzenia (25)
  • Bezpieczeństwo i Jakość (22)
  • Branża IT i Nowe Technologie (45)
  • Design i User Experience (4)
  • Narzędzia i Automatyzacja (80)
  • Programowanie i Technologie Webowe (76)
  • Rozwój kariery i Edukacja (32)

Tagi

5G AI Architektura Cyberbezpieczeństwo Feedback Frontend Git IoT JavaScript Motywacja Nauka efektywna Optymalizacja i wydajność Programowanie React.JS Rozwój osobisty WebDevelopment
Logo FitBody Center Warszawa

Odkryj zabiegi Endermologii LPG Infinity w FitBody Center Warszawa

Maszyna zabiegowa - endermologia lpg infinity

Archiwa

  • kwiecień 2026
  • marzec 2026
  • luty 2026
  • styczeń 2026
  • grudzień 2025
  • listopad 2025
  • październik 2025
  • wrzesień 2025
  • sierpień 2025
  • lipiec 2025
  • czerwiec 2025
  • maj 2025
  • kwiecień 2025
  • marzec 2025
  • listopad 2024
  • październik 2024
  • wrzesień 2024
  • sierpień 2024
  • czerwiec 2024
  • maj 2024
  • kwiecień 2024
Group-5638-1

Devstock – Akademia programowania z gwarancją pracy

🏠 ul. Bronowska 5a,
03-995 Warszawa
📞 +48 517 313 589
✉️ contact@devstockacademy.pl

Linki

  • Poznaj firmę Devstock
  • Wejdź do społeczności Devstock
  • Polityka prywatności
  • Regulamin

FitBody Center

Strona

  • Strona główna
  • Kontakt

Newsletter

Bądź na bieżąco, otrzymuj darmową wiedzę i poznaj nas lepiej!


Icon-facebook Icon-linkedin2 Icon-instagram Icon-youtube Tiktok
Copyright 2026 Devstock. Wszelkie prawa zastrzeżone
Devstock AcademyDevstock Academy
Sign inSign up

Sign in

Don’t have an account? Sign up
Lost your password?

Sign up

Already have an account? Sign in