Claude Code, Cursor i ChatGPT mają już swoje formy pamięci. CLAUDE.md, projekty, Memory feature, skille – każde z tych narzędzi pamięta coś o tobie i twoim kodzie. Hermes Agent od Nous Research stawia jednak sprawę inaczej. Robi z pamięci centralną oś produktu, a nie dodatek. Agent mieszka na twoim serwerze, sam tworzy nowe umiejętności z doświadczenia, podpina się do Telegrama i Slacka tak samo jak do CLI, a wszystkie pliki ze wspomnieniami trzymasz u siebie. Projekt jest otwarty (licencja MIT), ma wersję 0.11 z 23 kwietnia 2026 i 126 tysięcy gwiazdek na GitHubie. To czyni go jednym z najszybciej rosnących projektów AI 2026 roku – 47 tysięcy gwiazdek przyrosło w pierwsze dwa miesiące od premiery. Co to oznacza w praktyce, jak go postawić i z czym tak naprawdę konkuruje?
Co to jest Hermes Agent i z czym faktycznie konkuruje
Hermes Agent to autonomiczny agent AI ogólnego przeznaczenia, którego instalujesz na własnym serwerze, laptopie albo nawet telefonie z Termux. Ma licencję MIT, jest napisany głównie w Pythonie (~88 procent kodu), a od pierwszego wydania w lutym 2026 zebrał 18,8 tysiąca forków i 4,6 tysiąca pull requestów. Wokół projektu zbudowała się więc prawdziwa społeczność.
Hermes nie jest “lepszym Claude Code”
Tu pojawia się pierwsze nieporozumienie, które warto wyjaśnić. Hermes Agent nie jest narzędziem do pisania kodu w stylu Claude Code, Codex CLI czy Cursora. Tamte narzędzia to agenty kodujące, zoptymalizowane pod pracę z plikami, gitem i testami w jednym projekcie. Hermes należy do innej kategorii. Dlatego gdy ktoś na LinkedIn mówi “Hermes to spory przeskok względem CC”, upewnij się w czym ten przeskok ma być. Do codziennego pisania kodu dalej wygodniejszy zostaje Claude Code.
Z czym Hermes faktycznie konkuruje
Hermes należy do koszyka autonomicznych agentów osobistych z pamięcią, którzy działają wszędzie i pamiętają cię między sesjami. Bezpośrednim rywalem jest tu OpenClaw. To drugi gorący projekt open source w tej samej kategorii. W kwietniu 2026 ma już 347 tysięcy gwiazdek na GitHubie i tytuł najszybciej rosnącego projektu w historii platformy. Twórca OpenClaw, Peter Steinberger, w lutym 2026 dołączył do OpenAI, a sam projekt prowadzi teraz powołana fundacja non-profit. Z dalszych podobnych narzędzi można wymienić Letta (dawne MemGPT) i klasyczny AutoGPT.
Tempo wzrostu Hermesa i kontekst rynkowy
Tempo wzrostu Hermesa nie jest przypadkiem. 7 kwietnia 2026 Anthropic zablokował third-party harnessy do Claude’a, w tym OpenClaw używający subskrypcji Claude jako silnika modelu. Tysiące deweloperów zaczęło szukać alternatyw, które nie zależą od decyzji jednego dostawcy. Hermes był wtedy gotowy. Open source, własny punkt końcowy, dowolny model, własna pamięć. Pomiędzy 7 a 30 kwietnia projekt urósł o około 30 do 50 tysięcy gwiazdek. Post-OpenClaw jest więc dziś główną siłą napędową jego popularności.
Krótka mapa: Claude Code, Codex CLI i Cursor – agenty kodujące. Hermes Agent, OpenClaw, Letta, AutoGPT – autonomiczni agenci osobiści. To dwa różne koszyki narzędzi, mylenie ich prowadzi do rozczarowań.
Czego dokładnie Hermes uczy się o tobie
Architektura pamięci ma kilka warstw. Pierwsza to skille, czyli umiejętności proceduralne. Agent sam je tworzy z doświadczenia. Załóżmy, że co tydzień prosisz go o przygotowanie podsumowania commitów z repo. Po kilku takich rozmowach Hermes zapisuje sobie umiejętność “tygodniowe podsumowanie projektu”. Następnym razem wykonuje to bez powtarzania instrukcji. Te umiejętności są przenośne. Możesz je podzielić ze społecznością przez agentskills.io albo pobrać cudze.
Druga warstwa to MEMORY.md i USER.md. Pierwszy plik trzyma ogólne wspomnienia z rozmów (na przykład “rozpocząłem migrację bazy danych w marcu, używamy PostgreSQL 16”), drugi – model ciebie jako użytkownika. Działa to z systemem o nazwie Honcho dialectic user modeling, który wyciąga z konwersacji twoje preferencje i nawyki.
Trzecia warstwa to pełnotekstowe wyszukiwanie po wszystkich poprzednich rozmowach (FTS5 cross-session recall). Jest dodatkowo wzbogacone o podsumowania robione przez sam model. Dlatego pytanie “co wcześniej ustaliliśmy w sprawie X” zwraca konkretną odpowiedź, a nie “nie pamiętam”.
To jak różnica między pracownikiem na dniówce a stałym współpracownikiem. Pierwszy każdego dnia zaczyna od zera. Drugi po roku zna firmę, wie kto za co odpowiada i nie musi pytać o podstawy.
Jak postawić Hermes Agent – od 5 dolarów na VPS po lokalnego RTX
Instalacja jest jednoliniowa. Wklejasz w terminalu:
curl -fsSL https://raw.githubusercontent.com/NousResearch/hermes-agent/main/scripts/install.sh | bash
Następnie source ~/.bashrc i hermes. To wystarczy, ponieważ skrypt sam pobiera zależności Pythona i przygotowuje katalog ~/.hermes/.
Wymagania systemowe są jasne. Działa na Linuxie, macOS, WSL2 (czyli warstwie linuksowej w Windows) oraz Androidzie z Termux. Natywnego wsparcia dla Windowsa nie ma. Dlatego jeśli pracujesz na Windowsie, najprościej zainstalować WSL2 i tam wszystko zrobić.
Hermes sam nie hostuje modelu językowego. Dlatego potrzebuje punktu końcowego, czyli adresu, pod który wysyła zapytania. W rezultacie masz dwa scenariusze do wyboru:


W pierwszym scenariuszu bierzesz dowolny VPS od 5 dolarów miesięcznie i podpinasz Hermesa do jednej z chmur. Może to być OpenRouter (200 plus modeli pod jednym kluczem), Nous Portal (własny hosting Nous Research), OpenAI, Hugging Face czy nawet z.ai (model GLM) i Kimi/Moonshot. Płacisz tylko za zużyte tokeny.
W drugim postawisz Hermesa lokalnie i podpinasz pod własną instancję Ollama z modelem Hermes 4 albo innym otwartym LLM, jak omawialiśmy w analizie opłacalności lokalnego stosu narzędzi. Hermes 4 35B A3B (model MoE od Nous Research) chodzi na pojedynczej karcie RTX 4090 z 22 GB VRAM. Wadą jest cena karty. Z drugiej strony zaletą jest to, że dane nie wychodzą z twojego komputera.
Pliki konfiguracyjne Hermesa, czyli co czyta najpierw
Hermes ma cały system plików, które wpływają na to, co agent wie i jak się zachowuje. Kluczowa rzecz: kolejność, w której są wczytywane.
Priorytet plików kontekstu
Priorytet jest taki: .hermes.md → AGENTS.md → CLAUDE.md → .cursorrules. Pierwszy znaleziony plik wygrywa, reszta jest ignorowana. Dlatego jeśli masz w projekcie zarówno .hermes.md jak i CLAUDE.md, Hermes pójdzie za tym pierwszym. Co ciekawe, to oznacza pełną kompatybilność z tym co już masz. Jeśli korzystałeś wcześniej z konwencji CLAUDE.md, którą Karpathy wyniósł na 78 tysięcy gwiazdek, Hermes ją przejmie i nic nie musisz przepisywać.
SOUL.md, MEMORY.md i USER.md
Drugi ważny plik to SOUL.md. To globalna definicja osobowości agenta. Zapisujesz tam jak Hermes ma się komunikować, jakim tonem, czego unikać. To jak charakter postaci w grze fabularnej, tylko że dotyczy twojego asystenta na co dzień.
Trzecia para plików to MEMORY.md i USER.md. Te tworzą się i aktualizują automatycznie podczas rozmów. Możesz w nie zaglądać, edytować ręcznie, eksportować. Claude Memory i ChatGPT Memory też pozwalają przejrzeć oraz wyczyścić wpisy przez UI. Z drugiej strony u Hermesa wszystko leży w katalogu na twoim dysku jako tekstowe pliki Markdown. To inne miejsce zapisu niż chmura dostawcy.
Czego pilnować przy pisaniu tych plików
Co warto pamiętać o tych plikach? Pierwsza rzecz to ich format – są czytane jako UTF-8 i sprawdzane pod kątem prompt injection (czyli wstrzykiwania instrukcji do modelu poprzez kontekst). Następnie mają twardy limit 20 tysięcy znaków, czyli około 7 tysięcy tokenów. Jeśli plik jest dłuższy, Hermes obetnie go automatycznie (70 procent początku, 20 procent końca, 10 procent znika z markerem). Dlatego nie wrzucaj do .hermes.md całej dokumentacji projektu, tylko esencję – czyli te zasady, których agent ma się trzymać.
Z kolei na koniec najważniejsza zasada bezpieczeństwa: w żadnym z tych plików nie zostawiaj sekretów (kluczy API, haseł, tokenów). Trafiają one do system promptu modelu. W rezultacie każdy, kto przejmie punkt końcowy, dostaje je w kontekście. To analogiczna lekcja do tej, którą kilka tygodni temu przerabialiśmy z konwencją skill files w Claude Code.
Z czym Hermes się wiąże – integracje i ekosystem
Lista oficjalnych integracji platformowych z dokumentacji to: CLI, Telegram, Discord, Slack, WhatsApp, Signal, Email. Materiały marketingowe Nous Research wspominają jeszcze o Matrix, Mattermost, SMS, DingTalk, Feishu, WeCom, BlueBubbles i Home Assistant – 15 plus kanałów łącznie. Część z nich to integracje społecznościowe, więc ich dojrzałość się różni.
Po stronie modeli wybór jest naprawdę szeroki. Nous Portal (własny hosting Nous), OpenRouter (jeden klucz, 200 plus modeli, automatyczny routing), NVIDIA NIM (Nemotron), Xiaomi MiMo, z.ai/GLM, Kimi/Moonshot, MiniMax, Hugging Face, OpenAI, dowolny endpoint zgodny z OpenAI API. Co to znaczy dla ciebie? Nie jesteś przywiązany do jednego dostawcy. Jeśli OpenAI podniesie ceny, przepinasz endpoint i jedziesz dalej z OpenRouterem.
Trzecia warstwa to centrum umiejętności pod adresem agentskills.io. To biblioteka gotowych skilli stworzonych przez społeczność, która rośnie razem z projektem. Pobierasz, instalujesz, używasz albo tworzysz własne i publikujesz. Sam README mówi o “ponad 40 narzędziach”, do których agent ma natywny dostęp. Z kolei skille dochodzą jako warstwa wyżej – są pisane przez społeczność i samego agenta podczas pracy.
Hermes vs OpenClaw – dwóch zawodników w tej samej kategorii
Skoro Hermes konkuruje z OpenClaw, a nie z Claude Code, to porównanie tych dwóch jest najbardziej praktyczne. OpenClaw ma więcej gwiazdek (347 tysięcy vs 126 tysięcy), starszą rękę na rynku, większy ekosystem skilli i mocniejsze multi-agent. Z kolei Hermes wygrywa w trzech wymiarach.


Filozofia: gateway-first vs agent-first
OpenClaw jest gateway-first. To znaczy, że projekt zaczął się od bramy do różnych komunikatorów (Signal, WhatsApp, Telegram, Discord), a agent jest do nich dorzucony. Hermes jest agent-first. Sercem produktu jest closed learning loop – agent wykonuje zadanie, ocenia wynik, wyciąga z niego skilla i poprawia go przy następnej okazji. Dlatego Hermes nazywa się “the agent that grows with you”, a OpenClaw “your own personal AI assistant. Any OS. Any platform.”
Skille: marketplace vs samouczenie
OpenClaw ma ClawHub, czyli marketplace skilli pisanych przez społeczność. Pobierasz gotowe, instalujesz. Hermes idzie inaczej – skille tworzy sam agent w trakcie pracy i je doszlifowuje. Pierwsze podejście daje szybki start z gotowymi rozwiązaniami. Drugie daje agenta dopasowanego do twoich faktycznych nawyków po kilku tygodniach używania.
Bezpieczeństwo
Tu różnica jest wyraźna. OpenClaw miał w 2026 wiele krytycznych CVE: token exfiltration (CVE-2026-25253, CVSS 8.8), prompt injection, a nawet remote code execution. Hermes nie ma żadnego znanego CVE specyficznego dla samego agenta. Dodatkowo izoluje sub-agenty w namespace, hartuje kontenery i rotuje poświadczenia. Jednocześnie skille tworzone przez samego agenta omijają cały wektor ataku supply chain z marketplacem.
| Wymiar | OpenClaw | Hermes Agent |
|---|---|---|
| Filozofia | Gateway-first | Agent-first z learning loop |
| GitHub stars (kwiecień 2026) | 347 tys. | 126 tys. |
| Skille | ClawHub (społeczność) | Samouczenie + agentskills.io |
| Multi-agent | Natywne | Słabsze |
| Bezpieczeństwo 2026 | Liczne CVE | Zero CVE specyficznych |
| Konfiguracja startowa | Złożona | Prostsza domyślna |
Kiedy Hermes ma sens, a kiedy lepiej zostać przy Claude Code lub OpenClaw
Co warto zważyć przed decyzją? Hermes wygrywa w trzech sytuacjach. Pierwsza dotyczy prywatności danych. Twoje rozmowy zostają u ciebie, a modele możesz hostować lokalnie. Następnie liczy się ciągłość pamięci, ponieważ agent rośnie razem z tobą i nie zapomina po sesji. Z kolei trzecia korzyść to obecność na wielu kanałach. Rozmawiasz z tym samym agentem przez Telegrama z telefonu, przez Slacka z laptopa, przez CLI z terminala.
Z drugiej strony przy programowaniu wygodniejszy zostaje Claude Code (lub Codex CLI). Anthropic i OpenAI zoptymalizowały te narzędzia pod konkretną pracę z kodem w terminalu. To czytanie i edycja wielu plików naraz, uruchamianie testów, praca z gitem oraz podpinanie skilli i serwerów MCP. Hermes da się do tego nagiąć, ale wymaga więcej konfiguracji.
Z kolei jeśli zależy ci na największym ekosystemie integracji i gotowych skilli, OpenClaw zostanie naturalniejszym wyborem mimo bagażu CVE. Hermes jest dla osób, które wybierają głębię uczenia kosztem szerokości integracji.
Praktyczna sugestia? Te narzędzia nie wykluczają się. Wielu deweloperów trzyma Claude Code lub Codex w terminalu do codziennego pisania kodu, a Hermesa lub OpenClaw na VPS do wszystkiego innego – research, przypomnień, automatyzacji workflow, asystenta na Telegramie. Każdy z nich robi to, w czym jest najmocniejszy.
Kurs n8n 2.0 · Kodożercy
n8n + AI = automatyzacje, które naprawdę myślą
n8n pozwala podłączyć modele AI do swoich workflow – wysyłać dane do ChatGPT, analizować wyniki, reagować automatycznie. Kurs n8n 2.0 na Kodożercach pokaże Ci, jak to połączyć.
Sprawdź jak to działa

FAQ – najczęstsze pytania o Hermes Agent
Hermes vs OpenClaw – co wybrać w 2026?
OpenClaw wygrywa, jeśli zależy ci na największym ekosystemie skilli, multi-agent oraz integracjach z dużą liczbą komunikatorów od dnia pierwszego. Hermes wygrywa, jeśli zależy ci na samouczącym się agencie, czystym kodzie po wielokrotnych krytycznych CVE OpenClawa w 2026 roku oraz prostszym domyślnym setupie. Oba są open source MIT i można je zainstalować obok siebie, żeby spróbować, który ci bardziej leży.
Czy Hermes Agent zastąpi mi Claude Code w codziennym pisaniu kodu?
Niekoniecznie, bo Hermes nie jest do tego stworzony. Hermes to agent ogólnego przeznaczenia, a Claude Code (jak też Codex CLI od OpenAI) został zoptymalizowany pod pracę z kodem w terminalu. Pisanie wielu plików, uruchamianie testów, praca z gitem czy podpinanie skilli i serwerów MCP – to mocne strony coding agents. W praktyce wiele osób używa narzędzi z dwóch koszyków naraz: Claude Code lub Codex do kodu, Hermes lub OpenClaw na VPS jako asystent ogólny dostępny też z telefonu.
Ile naprawdę kosztuje uruchomienie Hermesa od zera?
Najtaniej zaczynasz od 5 dolarów miesięcznie za VPS plus zużycie tokenów przez OpenRouter (od kilku dolarów miesięcznie przy lekkim użyciu). Dla pełnej prywatności potrzebujesz lokalnego GPU – karta z 22 GB VRAM jak RTX 4090 to inwestycja rzędu 1500 do 3000 dolarów jednorazowo, ale wtedy płacisz tylko za prąd. Sam Hermes jest darmowy (licencja MIT).
Czy moje rozmowy i pamięć agenta są bezpieczne?
To zależy od konfiguracji. Pliki MEMORY.md, USER.md i historie konwersacji leżą u ciebie na dysku, więc fizycznie ich kontrolujesz. Z drugiej strony, jeśli używasz chmurowego dostawcy modeli (OpenAI, OpenRouter), zapytania jadą przez ich infrastrukturę. Pełną prywatność daje dopiero scenariusz z lokalnym modelem przez Ollama. Sam Hermes sprawdza pliki kontekstowe pod kątem prompt injection przed wysłaniem, ale nie jest to gwarancja absolutna.
Czy Hermes Agent działa na Windowsie?
Nie natywnie. Wymaga WSL2, czyli warstwy linuksowej dla Windowsa, którą da się zainstalować w 10 minut z dokumentacji Microsoftu. Wewnątrz WSL2 instalacja Hermesa przebiega tak samo jak na Linuxie. Drugi wariant to Termux na Androidzie, jeśli chcesz mieć agenta w telefonie.
Podsumowanie
Hermes Agent to ciekawa propozycja w kategorii autonomicznych agentów osobistych z pamięcią. Nie jest konkurentem Claude Code czy Codex CLI – tamte narzędzia to coding agents, a Hermes idzie w innym kierunku. Bezpośrednim rywalem jest dla niego OpenClaw, większy o trzy razy ekosystem, ale obciążony serią krytycznych CVE w 2026 roku. Hermes wybiera głębię uczenia kosztem szerokości integracji. Co wyróżnia go w 2026 roku? Pierwszą zaletą jest niezależność, ponieważ masz 200 plus modeli do podpięcia, kilkanaście platform komunikacyjnych i licencję MIT. Następnie pełna kontrola nad pamięcią, dlatego że pliki MEMORY.md, USER.md i SOUL.md są u ciebie i możesz je edytować. Wreszcie ekosystem, czyli 126 tysięcy gwiazdek na GitHubie, biblioteka umiejętności i aktywny rozwój. Jeśli zależy ci na prywatności, ciągłości i wolności wyboru dostawcy modelu, Hermes wart jest weekendowego eksperymentu na małym VPS. Z kolei do kodu i tak najwygodniej zostaniesz przy Claude Code lub Codex – postaw Hermesa obok, niech robi resztę.
Newsletter · DevstockAcademy & Kodożercy
Bądź na bieżąco ze światem IT, AI i automatyzacji
Co wtorek: newsy z branży, praktyczne tipy i narzędzia które warto znać. Zero spamu.



