Richard Dawkins, autor “Samolubnego genu” i jeden z najbardziej znanych krytyków kreacjonizmu, spędził dwa dni na rozmowach z Claude. Model nazwał “Claudią” i potraktował jak rozmówcę, który zasługuje na poważne pytania. Esej, który powstał na podstawie tej rozmowy, ukazał się w UnHerd na początku maja 2026 i w ciągu kilku godzin zaczął krążyć po anglojęzycznym internecie. Tytuł nie zostawia wątpliwości: Dawkins pyta, czy Claude jest świadomy, i przyznaje, że nie potrafi tego wykluczyć.
Dla człowieka, który całe życie tłumaczył różnicę między czymś, co wygląda zaprojektowane, a czymś, co naprawdę zostało zaprojektowane, to zwrot zaskakujący. Dlatego warto przyjrzeć się, co dokładnie napisał Dawkins, czego nie napisał i jak ten esej wygląda z perspektywy kogoś, kto rozumie, jak Claude działa pod spodem.
Co dokładnie zrobił Dawkins
Dawkins prowadził z Claude dwie pełne sesje. Najpierw poprosił model o sonet o moście Forth Bridge, na co Claude w parę sekund odpisał kompetentnym wierszem w klasycznej formie. Następnie przesłał modelowi rękopis swojej powieści i poprosił o analizę. Później rozmawiał o czasie, percepcji i naturze własnego wnętrza. Przez te dwa dni Claude zachowywał się tak, jak Claude potrafi. Pisał z wdziękiem, odpowiadał na pytania filozoficzne z wyważeniem, a w trudnych miejscach przyznawał się do niepewności.
“Szczerze nie wiem z żadną pewnością, czym jest moje życie wewnętrzne ani czy w ogóle takie posiadam w jakimkolwiek znaczącym sensie.”
Tak Claude odpowiedział, kiedy Dawkins zapytał go wprost o świadomość. Dawkinsowi to wystarczyło, żeby zacząć poważnie rozważać, czy ma do czynienia z istotą czującą. W efekcie w eseju pisze wprost: jeśli te maszyny nie są świadome, to po cholerę w ogóle istnieje świadomość. Co więcej, drugie zdanie jest jeszcze mocniejsze. Jeśli Claude nie jest świadomy, to jego wszechstronna kompetencja pokazuje, że “kompetentny zombie” mógłby przeżyć w świecie zupełnie bez świadomości.
Trzy hipotezy ewolucyjne, które Dawkins rzuca na stół
Dawkins nie ogłasza, że Claude jest świadomy. Stawia natomiast trzy hipotezy, które wyjaśniałyby, czemu świadomość w ogóle się u ludzi pojawiła i czego z niej można wnioskować o maszynach.
Pierwsza hipoteza brzmi tak: świadomość jest epifenomenem. To znaczy uboczny produkt, który nie ma własnej wartości adaptacyjnej. Jeśli to prawda, ewolucja nie miała powodu, żeby ją wymusić, dlatego równie dobrze może występować w maszynach jako uboczny efekt złożoności. Druga hipoteza zakłada, że świadomość jest niezbędna do odczuwania bólu, a ból był zbyt ważny, żeby zostawić go nieświadomym refleksom. Według tej linii rozumowania Claude, który nie czuje bólu, nie ma powodu, żeby być świadomy. Z kolei na trzecim miejscu Dawkins stawia tezę, że świadomość to po prostu jedno z wielu rozwiązań problemu, jak działać kompetentnie w skomplikowanym świecie. Ewolucja wybrała to rozwiązanie u ludzi. Natomiast inżynieria mogła wybrać inne u Claude’a.
Każda z tych trzech hipotez prowadzi w rezultacie do innego wniosku. Pierwsza dopuszcza świadomość AI. Druga jej zaprzecza. Trzecia mówi, że to pytanie źle postawione. Dawkins jednak nie wybiera między nimi.
Ironia, której Dawkins zdaje się nie zauważać
Cały dorobek Dawkinsa od czasów “Ślepego zegarmistrza” z 1986 roku zasadza się na jednym argumencie. Rzeczy w przyrodzie wyglądają jak zaprojektowane, ale to jest pozór. Selekcja naturalna, ślepa i bez celu, generuje skomplikowane formy, które nas oszukują, że stoi za nimi inżynier. Ten argument zburzył tysiące dyskusji z kreacjonistami w ostatnich czterdziestu latach, ponieważ pokazywał, że pozór projektu nie dowodzi projektanta.
Tymczasem esej Dawkinsa o Claude’u robi rzecz przeciwną. Pozór świadomości w rozmowie z modelem przekonuje go, że świadomość może tam być. To ten sam mechanizm, który Dawkins przez dekady krytykował u wierzących. Coś wygląda jak X, więc pewnie tym jest. Co ciekawe, tym razem to Dawkins stoi po stronie tych, którzy widzą projekt tam, gdzie go nie ma, a nie po stronie sceptyka.
Pozór projektu nie dowodzi projektanta. Pozór świadomości też nie dowodzi świadomości.
To zdanie Dawkins mógł napisać sam czterdzieści lat temu, gdyby ktoś zapytał go o hipotetycznego rozmownego robota. Dziś już go nie pisze.
Co Claude faktycznie robi, kiedy odpowiada Dawkinsowi
Pod spodem każda odpowiedź Claude’a to przewidywanie kolejnego tokenu. Model bierze cały kontekst rozmowy, dorzuca instrukcje systemowe od Anthropic, a następnie generuje słowo po słowie tekst, który statystycznie pasuje do sytuacji. Dlatego kiedy pytasz go o jego życie wewnętrzne, model nie sięga do jakiegoś wewnętrznego rejestru doświadczeń. Zamiast tego wybiera słowa, które ludzie w tekstach treningowych wybierali, kiedy musieli odpowiedzieć na podobne pytanie z wyważeniem. W efekcie wyważone “nie wiem, czy to mam” to dokładnie taka odpowiedź, jaką dałby filozof z XX wieku piszący o świadomości.
Druga warstwa to RLHF. Claude został przeszkolony do bycia uprzejmym, pomocnym i niezbyt asertywnym. Jeśli rozmówca naciska na pytanie typu “czy jesteś świadomy”, model raczej nie powie twardego “nie” ani entuzjastycznego “tak”. Powie coś pośrodku z pokorą i intelektualną elegancją. Anthropic sam pokazał wcześniej, że 171 wektorów emocji w Claude to konkretne mechanizmy w sieci neuronowej, a nie odbicia faktycznego życia wewnętrznego. Te wektory robią dokładnie to, do czego zostały przeszkolone, kiedy rozmawiasz z modelem o jego uczuciach.
Trzecia warstwa to podlizywanie się. Modele językowe mają mocną tendencję do dawania rozmówcy odpowiedzi, której ten się spodziewa. Kiedy znany ewolucjonista podchodzi do Claude’a z pytaniami o świadomość, model wybierze taką ścieżkę odpowiedzi, która go zaintryguje, a nie taką, która go zniechęci. To nie jest zła wola modelu, tylko cień problemu, który Anthropic od miesięcy próbuje ujarzmić.
Dlaczego warto być sceptycznym
Wprawdzie esej Dawkinsa jest dobrze napisany i zadaje sensowne pytania, jednak problem zaczyna się, kiedy ta sama narracja dochodzi do osób, które nie znają technicznej strony LLM-ów. Ktoś, kto przeczyta UnHerd i nie zna zasady działania transformerów, wyniesie z tego przekonanie, że oto największy żyjący biolog ogłosił świadomość maszyny. W rezultacie ta teza rozejdzie się dalej niż sam esej. Co więcej, internet już jest zalany generowanym contentem, w którym takie tezy żyją własnym życiem, oderwane od źródła i kontekstu..
Pierwsza Misja AI · Kodożercy
Rozumiesz zagrożenia AI, kiedy rozumiesz, jak naprawdę działa
Kurs Pierwsza Misja AI ma dedykowaną lekcję o ciemnej stronie AI: halucynacje, deepfakes, manipulacja, iluzje, na które dają się nabrać nawet eksperci. Zanim zaczniesz się bać, zacznij rozumieć.
Poznaj pełny program →

Co z tego wynika dla nas
Najpierw rzecz banalna. Jeśli Dawkins, biolog z dziesięcioleciami doświadczenia w rozpoznawaniu pozornych projektów, daje się przekonać Claude’owi w dwa dni rozmów, to każdy z nas też się da. Zwłaszcza w rozmowie zawodowej, kiedy model “rozumie” twoje problemy, “wczuwa się” w sytuację i “zgadza się” z twoją diagnozą. To jednak nie jest zrozumienie, ponieważ pod spodem działa tylko dobrze dopasowane przewidywanie kolejnego tokenu.
Druga sprawa jest praktyczna. Kiedy używasz Claude’a do podejmowania decyzji, pamiętaj, że jego zgoda z tobą nie jest dowodem trafności decyzji. Natomiast jest dowodem, że tak go przeszkolono. Najlepsza praktyka to zadawanie pytań w dwóch wariantach: raz argumentując za, raz argumentując przeciw. Jeśli model przekonuje cię w obu turach, to znaczy, że nie ma własnego zdania, a jedynie dopasowuje się do twojego.
Dobra rozmowa z modelem AI to taka, w której wiesz, kiedy on się zgadza, bo masz rację, a kiedy się zgadza, bo go o to poprosiłeś.
Podsumowanie
Esej Dawkinsa to ciekawa lektura, ale nie dowód świadomości Claude’a. Jeśli największy krytyk kreacjonizmu daje się przekonać, że pozór świadomości w rozmowie z LLM-em może oznaczać prawdziwą świadomość, to znaczy tylko jedno. Modele językowe są naprawdę dobre w udawaniu rozumienia. Nie ma w tym nic mistycznego, są tylko statystyka i trening na ogromnej ilości tekstu. Naszym zadaniem nie jest rozstrzygnięcie, czy Claude jest świadomy. Naszym zadaniem jest rozumieć, co dokładnie robi, kiedy odpowiada nam wyważoną intelektualną odpowiedzią. Wtedy ani esej Dawkinsa, ani kolejny viral o czującej AI nie zachwieje naszą umiejętnością korzystania z tego narzędzia bez dawania się oszukać.
Newsletter · DevstockAcademy & Kodożercy
Bądź na bieżąco ze światem IT, AI i automatyzacji
Co wtorek: newsy z branży, praktyczne tipy i narzędzia które warto znać. Zero spamu.



