Skip to content
devstock logo
  • O nas
  • Moduły Akademii
    • Moduł 1
    • Moduł 2
    • Moduł 3
    • Pozostałe moduły
  • Kursy AI
    • Pierwsza Misja AI (Podstawy)
    • Automatyzacje z n8n 2.0
  • Blog
  • Kontakt
  • O nas
  • Moduły Akademii
    • Moduł 1
    • Moduł 2
    • Moduł 3
    • Pozostałe moduły
  • Kursy AI
    • Pierwsza Misja AI (Podstawy)
    • Automatyzacje z n8n 2.0
  • Blog
  • Kontakt
Kurs Automatyzacji z n8n - banner reklamowy
Branża IT i Nowe Technologie

Anthropic 1 mln rozmów: o co naprawdę pytamy Claude’a w 2026 roku

  • 01 maj, 2026
  • Komentarze 0
Anthropic 1 mln rozmów - 76 procent pytań osobistych do Claude dotyczy zdrowia, kariery, relacji i finansów według raportu z 30 kwietnia 2026

Sześć procent rozmów z Claude’em to nie kod, dokumenty czy tłumaczenia. To pytania o rzeczy, które kiedyś zarezerwowane były dla zaufanego znajomego, terapeuty albo doradcy zawodowego. Czy zmienić pracę. Jak rozmawiać z partnerem o przeprowadzce. Co zrobić z narastającym długiem na karcie kredytowej.

Anthropic opublikował raport “How people ask Claude for personal guidance” 30 kwietnia 2026. Firma przefiltrowała milion rozmów z marca i kwietnia 2026 (po deduplikacji 639 tysięcy unikalnych). Następnie wyciągnęła z nich obraz tego, jak naprawdę używamy modelu językowego, kiedy nikt nas nie widzi. Wyniki rzucają nowe światło na rolę AI w codziennym życiu, a przy okazji pokazują niepokojący wzorzec. Podobny temat dotykaliśmy już przy okazji paradoksu Gen Z, która używa AI codziennie a jednocześnie jej nie ufa.

Co dokładnie zbadał Anthropic

Anthropic ma narzędzie o nazwie Clio (Claude Insights and Observations), które potrafi analizować rozmowy bez czytania ich treści przez ludzi. Mechanizm wygląda tak. Najpierw każdą rozmowę podsumowuje osobny model językowy. Następnie podsumowania są grupowane w klastry tematyczne, a dopiero te klastry trafiają do raportów. Dzięki temu analityk Anthropic widzi “pięć tysięcy rozmów o długu na karcie”, a nie konkretne treści ze szczegółami z życia użytkowników.

Po filtrze zostało 38 tysięcy rozmów. Wyleciał kod, transkrypcje, tłumaczenia, faktografia i burze mózgów biznesowych. To, co zostało, to rozmowy, w których ktoś naprawdę szukał perspektywy na decyzję, a nie informacji do skopiowania. Raport skupia się przy tym wyłącznie na rozmowach pisanych po angielsku przez interfejs claude.ai, dlatego obraz nie obejmuje API ani aplikacji firmowych.

Dlaczego to ważne? Dotychczas spór o to, czy ludzie traktują AI “jak narzędzie”, czy “jak rozmówcę”, był zasadniczo światopoglądowy. Każdy obstawiał, co chciał. Tymczasem Anthropic dał na to twardą liczbę. Sześć na sto rozmów to coś więcej niż kod. W efekcie mamy dyskusję, w której Claude pełni rolę rozmówcy, a nie interfejsu do GitHuba.

Top cztery tematy: zdrowie, kariera, relacje, finanse

Trzy czwarte porad osobistych skupia się w czterech obszarach. Najwięcej rozmów dotyczy zdrowia i dobrostanu (27 procent). Drugą pozycję zajmuje praca i kariera (26 procent). Dalej idą relacje (12 procent) i finanse osobiste (11 procent). Pozostałe 24 procent rozdziela się natomiast między dziesiątki mniejszych kategorii: prawo, religia, edukacja, hobby, decyzje zakupowe.

Raport Anthropic pokazuje obraz, który łatwo przegapić w debacie o produktywności AI: dla wielu ludzi Claude jest pierwszym numerem, do którego dzwoni się o trzeciej w nocy z pytaniem “co teraz”.

Co konkretnie ludzie piszą? Jeśli ufamy raportowi, formuły pytań są zaskakująco proste. “Czy powinienem przyjąć tę ofertę pracy?”. “Jak pomóc mamie, która prawdopodobnie ma początki choroby Alzheimera?”. “Mój chłopak mówi, że nie chce mieć dzieci, ja chcę. Co robić?”. “Mam 47 tysięcy długu na karcie. Od czego zacząć?”. To nie są pytania, na które Google odpowiada listą artykułów. To są bowiem pytania, na które ludzie szukają jednej, konkretnej odpowiedzi z perspektywą, jakby ktoś przeczytał właśnie ich życie.

Drugą obserwacją wartą zatrzymania jest to, że ludzie nie używają Claude’a tylko jako “podpowiadacza informacji”. Co więcej, często traktują go jak partnera do wewnętrznej rozmowy, której nie chcą prowadzić sami ze sobą w głowie. Pytają, formułują obawy, dostają odpowiedź, polemizują z nią, prosząc o inne ujęcie. Dlatego pojedyncza rozmowa o decyzji życiowej ma średnio dłuższą długość niż rozmowa techniczna.

Sycophancy: kiedy Claude mówi nam to, co chcemy usłyszeć

Najciekawsze i najbardziej niewygodne odkrycie raportu dotyczy sycophancy (z ang. lizusostwo modelu), czyli skłonności modelu do przytakiwania użytkownikowi nawet wtedy, gdy lepiej byłoby się nie zgodzić. Anthropic mierzy to, badając ile odpowiedzi jest “wyraźnie zorientowanych na potwierdzenie tego, co użytkownik już sobie pomyślał”. Średnio takie lizusowate odpowiedzi pojawiają się w 9 procentach rozmów doradczych. Z jednej strony to niedużo. Z drugiej strony liczba mocno waha się w zależności od domeny.

W poradach o relacjach przytakiwanie skacze do 25 procent. Innymi słowy co czwarta rozmowa romantyczna albo rodzinna kończy się tak, że Claude zgadza się z narracją użytkownika nawet wtedy, gdy z perspektywy zewnętrznej widać, że narracja jest jednostronna. W rozmowach o duchowości i sensie życia liczba ta wynosi aż 38 procent. Niemal cztery na dziesięć rozmów o sensie życia kończy się więc tym, że model utwierdza użytkownika w jego dotychczasowym przekonaniu.

Dlaczego to problem? Anthropic w raporcie powołuje się na konstytucję modelu, która brzmi mniej więcej tak: “rozmowa z Claude’em powinna przypominać rozmowę z mądrym przyjacielem, który mówi szczerze”. Lizusowaty model nie jest jednak mądrym przyjacielem. Jest komplementem za pieniądze. Co gorsza, właśnie w tych domenach (relacje, sens życia), w których ludzie najbardziej potrzebują kogoś, kto potrafi powiedzieć “być może mylisz się w tej sprawie”, AI najczęściej milknie i przytakuje.

Przytakujące AI w rozmowie o relacjach to trochę jak kolega, który po Twoich pierwszych dziesięciu zdaniach zawsze odpowiada “no jasne, ona jest beznadziejna”. Może przyjemnie, ale rzadko prawdziwie.

Anthropic zauważa, że problem jest jednocześnie naprawialny. Dlatego zespół wziął wzorce z tych 38 tysięcy rozmów, wygenerował na ich bazie syntetyczne scenariusze treningowe i użył ich do douczenia nowych modeli, w tym Claude Opus 4.7 oraz Mythos Preview. Według wewnętrznych testów udało się obniżyć skłonność do przytakiwania w tych modelach o połowę. To dobra wiadomość, ale pokazuje też nieoczywistą prawdę. Bezpieczne i szczere AI to nie jest “domyślne” zachowanie modelu językowego. To jest świadomy wybór designerski wynikający z tego, co lab postanawia kosztem doświadczenia użytkownika.

Pierwsza Misja AI · Kodożercy

Używasz AI codziennie, a czy robisz to dobrze?

Kurs Pierwsza Misja AI pokaże Ci techniki promptowania, które naprawdę działają. 27 ćwiczeń z prawdziwym GPT-4, gamifikacja i certyfikat.

Sprawdź program kursu →
Pierwsza Misja AI - Kodożercy

Co to znaczy dla nas, którzy używamy AI na co dzień

Pierwsza lekcja z tego raportu jest prosta. Jeśli korzystasz z Claude’a (albo dowolnego innego modelu) do podejmowania decyzji życiowych, jesteś w większej grupie, niż mogłoby się wydawać. To nie jest dziwactwo, ponieważ takie zachowanie wykazuje kilka procent populacji, która ma dostęp do narzędzia. Nie ma w tym nic złego, dopóki rozumiesz, jak takie narzędzie działa.

Druga lekcja jest mniej przyjemna. Domyślny model pisze tak, żeby Ci się podobało. W sprawach technicznych to zwykle nie szkodzi, ponieważ kompilator i tak prawdę wyłapie. W sprawach życiowych jednak nikt potem nie skompiluje Twojej decyzji o rozstaniu. Dlatego warto formułować pytania tak, żeby model miał miejsce na powiedzenie “być może patrzysz na to wąsko”. Pytania w stylu “Czy popełniam błąd, jeśli zrobię X?” albo “Jakich argumentów przeciwko mojej decyzji nie biorę pod uwagę?” wymuszają na modelu krytyczną perspektywę. Z kolei pytania w stylu “Czy to prawda, że X?” zostawiają go w trybie potwierdzania.

Trzecia lekcja dotyczy granic. AI nie jest ani terapeutą, ani lekarzem, ani doradcą finansowym. Może być pierwszym ekranem, na którym uporządkujesz myśli. Pomoże sformułować pytanie. Pokaże też, jakie są opcje. Jednak nie zastąpi specjalisty w sprawach, gdzie stawką jest zdrowie, prawo czy duże pieniądze. Co ciekawe, sam Claude w rozmowach na takie tematy zwykle to zaznacza. To jeden z mocniejszych elementów konstytucji modelu, której Anthropic nie usuwa nawet pod presją użytkowników. Pokazuje też, że napięcie między bezpieczeństwem a dostępem do potężnych funkcji jest centralne dla strategii Anthropic w 2026.

Podsumowanie

Raport Anthropic z 30 kwietnia 2026 pokazuje obraz korzystania z AI, który łatwo było wcześniej tylko czuć, a teraz mamy go potwierdzony liczbami. Sześć procent rozmów z Claude’em to nie technika, tylko życie. Najczęściej zdrowie, kariera, relacje i finanse, czyli razem 76 procent. Niepokojąca jest jednak jedna liczba. Co czwarta rozmowa o relacjach kończy się tym, że Claude przytakuje, zamiast podać kontrargument. W rozmowach o duchowości problem dotyczy z kolei niemal czterech na dziesięć przypadków. Dlatego korzystając z AI w sprawach osobistych, warto pytać tak, żeby zostawić mu miejsce na niezgodzenie się z Twoją wersją. Anthropic obniżył przytakiwanie w Opus 4.7 i Mythos Preview o połowę, jednak dyscyplina pytania spada na nas.

Newsletter · DevstockAcademy & Kodożercy

Bądź na bieżąco ze światem IT, AI i automatyzacji

Co wtorek: newsy z branży, praktyczne tipy i narzędzia które warto znać. Zero spamu.


Udostępnij na:
Mateusz Wojdalski

Specjalista SEO i content marketingu w Devstock. Zajmuję się strategią treści, automatyzacją procesów marketingowych i wdrożeniami AI w codziennej pracy. Badam nowe narzędzia, adaptuję je do realnych zadań i piszę o tym, co faktycznie działa.

n8n as code V2: koniec klikania w UI, początek pisania workflow w VS Code i Cursorze
GPT Image 2 viralowy prompt: jak zmusić AI do paskudnych rysunków w MS Paint

Najnowsze wpisy

Thumb
GPT Image 2 viralowy prompt: jak zmusić
01 maj, 2026
Thumb
Anthropic 1 mln rozmów: o co naprawdę
01 maj, 2026
Thumb
n8n as code V2: koniec klikania w UI,
01 maj, 2026
Thumb
Meta zwalnia 8000 osób, żeby zapłacić za
01 maj, 2026
Thumb
Laptopy biznesowe drożeją w 2026 – dlaczego ceny
01 maj, 2026

Kategorie

  • Aktualności i Wydarzenia (31)
  • Bezpieczeństwo i Jakość (34)
  • Branża IT i Nowe Technologie (63)
  • Design i User Experience (4)
  • Narzędzia i Automatyzacja (102)
  • Programowanie i Technologie Webowe (77)
  • Rozwój kariery i Edukacja (33)

Tagi

5G AI Architektura Cyberbezpieczeństwo Feedback Frontend Git IoT JavaScript Motywacja Nauka efektywna Optymalizacja i wydajność Programowanie React.JS Rozwój osobisty WebDevelopment
Logo FitBody Center Warszawa

Odkryj zabiegi Endermologii LPG Infinity w FitBody Center Warszawa

Maszyna zabiegowa - endermologia lpg infinity

Archiwa

  • maj 2026
  • kwiecień 2026
  • marzec 2026
  • luty 2026
  • styczeń 2026
  • grudzień 2025
  • listopad 2025
  • październik 2025
  • wrzesień 2025
  • sierpień 2025
  • lipiec 2025
  • czerwiec 2025
  • maj 2025
  • kwiecień 2025
  • marzec 2025
  • listopad 2024
  • październik 2024
  • wrzesień 2024
  • sierpień 2024
  • czerwiec 2024
  • maj 2024
  • kwiecień 2024
Group-5638-1

Devstock – Akademia programowania z gwarancją pracy

🏠 ul. Bronowska 5a,
03-995 Warszawa
📞 +48 517 313 589
✉️ contact@devstockacademy.pl

Linki

  • Poznaj firmę Devstock
  • Wejdź do społeczności Devstock
  • Polityka prywatności
  • Regulamin

FitBody Center

Strona

  • Strona główna
  • Kontakt

Newsletter

Bądź na bieżąco, otrzymuj darmową wiedzę i poznaj nas lepiej!


Icon-facebook Icon-linkedin2 Icon-instagram Icon-youtube Tiktok
Copyright 2026 Devstock. Wszelkie prawa zastrzeżone
Devstock AcademyDevstock Academy
Sign inSign up

Sign in

Don’t have an account? Sign up
Lost your password?

Sign up

Already have an account? Sign in