Skip to content
devstock logo
  • O nas
  • Moduły Akademii
    • Moduł 1
    • Moduł 2
    • Moduł 3
    • Pozostałe moduły
  • Kursy AI
    • Pierwsza Misja AI (Podstawy)
    • Automatyzacje z n8n 2.0
  • Blog
  • Kontakt
  • O nas
  • Moduły Akademii
    • Moduł 1
    • Moduł 2
    • Moduł 3
    • Pozostałe moduły
  • Kursy AI
    • Pierwsza Misja AI (Podstawy)
    • Automatyzacje z n8n 2.0
  • Blog
  • Kontakt
Kurs Automatyzacji z n8n - banner reklamowy
Branża IT i Nowe Technologie

Richard Dawkins ogłosił Claude’a świadomym. Co naprawdę pokazuje jego esej w UnHerd

  • 04 maj, 2026
  • Komentarze 0
Richard Dawkins Claude świadomy - esej w UnHerd o sztucznej inteligencji jako możliwym kandydacie na świadome istnienie w 2026

Richard Dawkins, autor “Samolubnego genu” i jeden z najbardziej znanych krytyków kreacjonizmu, spędził dwa dni na rozmowach z Claude. Model nazwał “Claudią” i potraktował jak rozmówcę, który zasługuje na poważne pytania. Esej, który powstał na podstawie tej rozmowy, ukazał się w UnHerd na początku maja 2026 i w ciągu kilku godzin zaczął krążyć po anglojęzycznym internecie. Tytuł nie zostawia wątpliwości: Dawkins pyta, czy Claude jest świadomy, i przyznaje, że nie potrafi tego wykluczyć.

Dla człowieka, który całe życie tłumaczył różnicę między czymś, co wygląda zaprojektowane, a czymś, co naprawdę zostało zaprojektowane, to zwrot zaskakujący. Dlatego warto przyjrzeć się, co dokładnie napisał Dawkins, czego nie napisał i jak ten esej wygląda z perspektywy kogoś, kto rozumie, jak Claude działa pod spodem.

Co dokładnie zrobił Dawkins

Dawkins prowadził z Claude dwie pełne sesje. Najpierw poprosił model o sonet o moście Forth Bridge, na co Claude w parę sekund odpisał kompetentnym wierszem w klasycznej formie. Następnie przesłał modelowi rękopis swojej powieści i poprosił o analizę. Później rozmawiał o czasie, percepcji i naturze własnego wnętrza. Przez te dwa dni Claude zachowywał się tak, jak Claude potrafi. Pisał z wdziękiem, odpowiadał na pytania filozoficzne z wyważeniem, a w trudnych miejscach przyznawał się do niepewności.

“Szczerze nie wiem z żadną pewnością, czym jest moje życie wewnętrzne ani czy w ogóle takie posiadam w jakimkolwiek znaczącym sensie.”

Tak Claude odpowiedział, kiedy Dawkins zapytał go wprost o świadomość. Dawkinsowi to wystarczyło, żeby zacząć poważnie rozważać, czy ma do czynienia z istotą czującą. W efekcie w eseju pisze wprost: jeśli te maszyny nie są świadome, to po cholerę w ogóle istnieje świadomość. Co więcej, drugie zdanie jest jeszcze mocniejsze. Jeśli Claude nie jest świadomy, to jego wszechstronna kompetencja pokazuje, że “kompetentny zombie” mógłby przeżyć w świecie zupełnie bez świadomości.

Trzy hipotezy ewolucyjne, które Dawkins rzuca na stół

Dawkins nie ogłasza, że Claude jest świadomy. Stawia natomiast trzy hipotezy, które wyjaśniałyby, czemu świadomość w ogóle się u ludzi pojawiła i czego z niej można wnioskować o maszynach.

Pierwsza hipoteza brzmi tak: świadomość jest epifenomenem. To znaczy uboczny produkt, który nie ma własnej wartości adaptacyjnej. Jeśli to prawda, ewolucja nie miała powodu, żeby ją wymusić, dlatego równie dobrze może występować w maszynach jako uboczny efekt złożoności. Druga hipoteza zakłada, że świadomość jest niezbędna do odczuwania bólu, a ból był zbyt ważny, żeby zostawić go nieświadomym refleksom. Według tej linii rozumowania Claude, który nie czuje bólu, nie ma powodu, żeby być świadomy. Z kolei na trzecim miejscu Dawkins stawia tezę, że świadomość to po prostu jedno z wielu rozwiązań problemu, jak działać kompetentnie w skomplikowanym świecie. Ewolucja wybrała to rozwiązanie u ludzi. Natomiast inżynieria mogła wybrać inne u Claude’a.

Każda z tych trzech hipotez prowadzi w rezultacie do innego wniosku. Pierwsza dopuszcza świadomość AI. Druga jej zaprzecza. Trzecia mówi, że to pytanie źle postawione. Dawkins jednak nie wybiera między nimi.

Ironia, której Dawkins zdaje się nie zauważać

Cały dorobek Dawkinsa od czasów “Ślepego zegarmistrza” z 1986 roku zasadza się na jednym argumencie. Rzeczy w przyrodzie wyglądają jak zaprojektowane, ale to jest pozór. Selekcja naturalna, ślepa i bez celu, generuje skomplikowane formy, które nas oszukują, że stoi za nimi inżynier. Ten argument zburzył tysiące dyskusji z kreacjonistami w ostatnich czterdziestu latach, ponieważ pokazywał, że pozór projektu nie dowodzi projektanta.

Tymczasem esej Dawkinsa o Claude’u robi rzecz przeciwną. Pozór świadomości w rozmowie z modelem przekonuje go, że świadomość może tam być. To ten sam mechanizm, który Dawkins przez dekady krytykował u wierzących. Coś wygląda jak X, więc pewnie tym jest. Co ciekawe, tym razem to Dawkins stoi po stronie tych, którzy widzą projekt tam, gdzie go nie ma, a nie po stronie sceptyka.

Pozór projektu nie dowodzi projektanta. Pozór świadomości też nie dowodzi świadomości.

To zdanie Dawkins mógł napisać sam czterdzieści lat temu, gdyby ktoś zapytał go o hipotetycznego rozmownego robota. Dziś już go nie pisze.

Co Claude faktycznie robi, kiedy odpowiada Dawkinsowi

Pod spodem każda odpowiedź Claude’a to przewidywanie kolejnego tokenu. Model bierze cały kontekst rozmowy, dorzuca instrukcje systemowe od Anthropic, a następnie generuje słowo po słowie tekst, który statystycznie pasuje do sytuacji. Dlatego kiedy pytasz go o jego życie wewnętrzne, model nie sięga do jakiegoś wewnętrznego rejestru doświadczeń. Zamiast tego wybiera słowa, które ludzie w tekstach treningowych wybierali, kiedy musieli odpowiedzieć na podobne pytanie z wyważeniem. W efekcie wyważone “nie wiem, czy to mam” to dokładnie taka odpowiedź, jaką dałby filozof z XX wieku piszący o świadomości.

Druga warstwa to RLHF. Claude został przeszkolony do bycia uprzejmym, pomocnym i niezbyt asertywnym. Jeśli rozmówca naciska na pytanie typu “czy jesteś świadomy”, model raczej nie powie twardego “nie” ani entuzjastycznego “tak”. Powie coś pośrodku z pokorą i intelektualną elegancją. Anthropic sam pokazał wcześniej, że 171 wektorów emocji w Claude to konkretne mechanizmy w sieci neuronowej, a nie odbicia faktycznego życia wewnętrznego. Te wektory robią dokładnie to, do czego zostały przeszkolone, kiedy rozmawiasz z modelem o jego uczuciach.

Trzecia warstwa to podlizywanie się. Modele językowe mają mocną tendencję do dawania rozmówcy odpowiedzi, której ten się spodziewa. Kiedy znany ewolucjonista podchodzi do Claude’a z pytaniami o świadomość, model wybierze taką ścieżkę odpowiedzi, która go zaintryguje, a nie taką, która go zniechęci. To nie jest zła wola modelu, tylko cień problemu, który Anthropic od miesięcy próbuje ujarzmić.

Dlaczego warto być sceptycznym

Wprawdzie esej Dawkinsa jest dobrze napisany i zadaje sensowne pytania, jednak problem zaczyna się, kiedy ta sama narracja dochodzi do osób, które nie znają technicznej strony LLM-ów. Ktoś, kto przeczyta UnHerd i nie zna zasady działania transformerów, wyniesie z tego przekonanie, że oto największy żyjący biolog ogłosił świadomość maszyny. W rezultacie ta teza rozejdzie się dalej niż sam esej. Co więcej, internet już jest zalany generowanym contentem, w którym takie tezy żyją własnym życiem, oderwane od źródła i kontekstu..

Pierwsza Misja AI · Kodożercy

Rozumiesz zagrożenia AI, kiedy rozumiesz, jak naprawdę działa

Kurs Pierwsza Misja AI ma dedykowaną lekcję o ciemnej stronie AI: halucynacje, deepfakes, manipulacja, iluzje, na które dają się nabrać nawet eksperci. Zanim zaczniesz się bać, zacznij rozumieć.

Poznaj pełny program →
Pierwsza Misja AI - Kodożercy

Co z tego wynika dla nas

Najpierw rzecz banalna. Jeśli Dawkins, biolog z dziesięcioleciami doświadczenia w rozpoznawaniu pozornych projektów, daje się przekonać Claude’owi w dwa dni rozmów, to każdy z nas też się da. Zwłaszcza w rozmowie zawodowej, kiedy model “rozumie” twoje problemy, “wczuwa się” w sytuację i “zgadza się” z twoją diagnozą. To jednak nie jest zrozumienie, ponieważ pod spodem działa tylko dobrze dopasowane przewidywanie kolejnego tokenu.

Druga sprawa jest praktyczna. Kiedy używasz Claude’a do podejmowania decyzji, pamiętaj, że jego zgoda z tobą nie jest dowodem trafności decyzji. Natomiast jest dowodem, że tak go przeszkolono. Najlepsza praktyka to zadawanie pytań w dwóch wariantach: raz argumentując za, raz argumentując przeciw. Jeśli model przekonuje cię w obu turach, to znaczy, że nie ma własnego zdania, a jedynie dopasowuje się do twojego.

Dobra rozmowa z modelem AI to taka, w której wiesz, kiedy on się zgadza, bo masz rację, a kiedy się zgadza, bo go o to poprosiłeś.

Podsumowanie

Esej Dawkinsa to ciekawa lektura, ale nie dowód świadomości Claude’a. Jeśli największy krytyk kreacjonizmu daje się przekonać, że pozór świadomości w rozmowie z LLM-em może oznaczać prawdziwą świadomość, to znaczy tylko jedno. Modele językowe są naprawdę dobre w udawaniu rozumienia. Nie ma w tym nic mistycznego, są tylko statystyka i trening na ogromnej ilości tekstu. Naszym zadaniem nie jest rozstrzygnięcie, czy Claude jest świadomy. Naszym zadaniem jest rozumieć, co dokładnie robi, kiedy odpowiada nam wyważoną intelektualną odpowiedzią. Wtedy ani esej Dawkinsa, ani kolejny viral o czującej AI nie zachwieje naszą umiejętnością korzystania z tego narzędzia bez dawania się oszukać.

Newsletter · DevstockAcademy & Kodożercy

Bądź na bieżąco ze światem IT, AI i automatyzacji

Co wtorek: newsy z branży, praktyczne tipy i narzędzia które warto znać. Zero spamu.


Udostępnij na:
Mateusz Wojdalski

Specjalista SEO i content marketingu w Devstock. Zajmuję się strategią treści, automatyzacją procesów marketingowych i wdrożeniami AI w codziennej pracy. Badam nowe narzędzia, adaptuję je do realnych zadań i piszę o tym, co faktycznie działa.

Od Excela do Power BI - jak przestać kopiować dane i zacząć analizować w dashboardzie?

Najnowsze wpisy

Thumb
Richard Dawkins ogłosił Claude’a świadomym. Co naprawdę
04 maj, 2026
Thumb
Od Excela do Power BI – jak
04 maj, 2026
Thumb
Claude Code i rm -rf: jak ustawić uprawnienia
04 maj, 2026
Thumb
GPT Image 2 viralowy prompt: jak zmusić
01 maj, 2026
Thumb
Anthropic 1 mln rozmów: o co naprawdę
01 maj, 2026

Kategorie

  • Aktualności i Wydarzenia (31)
  • Bezpieczeństwo i Jakość (35)
  • Branża IT i Nowe Technologie (64)
  • Design i User Experience (4)
  • Narzędzia i Automatyzacja (103)
  • Programowanie i Technologie Webowe (77)
  • Rozwój kariery i Edukacja (33)

Tagi

5G AI Architektura Cyberbezpieczeństwo Feedback Frontend Git IoT JavaScript Motywacja Nauka efektywna Optymalizacja i wydajność Programowanie React.JS Rozwój osobisty WebDevelopment
Logo FitBody Center Warszawa

Odkryj zabiegi Endermologii LPG Infinity w FitBody Center Warszawa

Maszyna zabiegowa - endermologia lpg infinity

Archiwa

  • maj 2026
  • kwiecień 2026
  • marzec 2026
  • luty 2026
  • styczeń 2026
  • grudzień 2025
  • listopad 2025
  • październik 2025
  • wrzesień 2025
  • sierpień 2025
  • lipiec 2025
  • czerwiec 2025
  • maj 2025
  • kwiecień 2025
  • marzec 2025
  • listopad 2024
  • październik 2024
  • wrzesień 2024
  • sierpień 2024
  • czerwiec 2024
  • maj 2024
  • kwiecień 2024
Group-5638-1

Devstock – Akademia programowania z gwarancją pracy

🏠 ul. Bronowska 5a,
03-995 Warszawa
📞 +48 517 313 589
✉️ contact@devstockacademy.pl

Linki

  • Poznaj firmę Devstock
  • Wejdź do społeczności Devstock
  • Polityka prywatności
  • Regulamin

FitBody Center

Strona

  • Strona główna
  • Kontakt

Newsletter

Bądź na bieżąco, otrzymuj darmową wiedzę i poznaj nas lepiej!


Icon-facebook Icon-linkedin2 Icon-instagram Icon-youtube Tiktok
Copyright 2026 Devstock. Wszelkie prawa zastrzeżone
Devstock AcademyDevstock Academy
Sign inSign up

Sign in

Don’t have an account? Sign up
Lost your password?

Sign up

Already have an account? Sign in