Milla Jovovich, aktorka znana z “Piątego Elementu” i serii “Resident Evil”, wydała 6 kwietnia 2026 r. open-source projekt MemPalace – system pamięci semantycznej dla modeli językowych ChatGPT i Claude. Repozytorium na GitHub zebrało około 7000 gwiazdek w pierwsze 24 godziny i dotarło do ponad 1.5 miliona osób. Projekt powstał wspólnie z developerem Benem Sigmanem, a Milla otwarcie przyznała, że większość kodu wygenerowała Claude Code. To kolejny dowód na to, że granica między “tym, kto może budować software” a “tym, kto nie może” zaciera się szybciej, niż branża zdąży zareagować. W artykule pokazujemy, co dokładnie robi MemPalace, jak działa technicznie i dlaczego głośne benchmarki wymagają osobnego komentarza.
Co to jest MemPalace i jaki problem rozwiązuje?
MemPalace to open-source pamięć semantyczna dla modeli językowych, która przechowuje pełne rozmowy z ChatGPT i Claude w lokalnej bazie wektorowej i pozwala modelowi sięgać do nich w trakcie nowych sesji. Cały projekt jest na licencji MIT i dostępny za darmo na GitHub.
Punktem wyjścia był problem, który zna każdy intensywny użytkownik LLM. Modele takie jak Claude czy ChatGPT nie pamiętają wczorajszych rozmów. Przy każdej nowej sesji model startuje od zera, a Ty znów musisz tłumaczyć kontekst, wklejać kod, opisywać projekt. Jeśli masz tysiące rozmów rozsianych po historii, sięgnięcie do konkretnej myśli sprzed miesiąca jest praktycznie niemożliwe.
Milla Jovovich opisała w swojej historii, że zaczęła używać AI codziennie do decyzji biznesowych, kreatywnych pomysłów i debugowania. Po kilku miesiącach zorientowała się, że ma tysiące ważnych rozmów, ale jej AI nadal “ma amnezję” przy każdym restarcie. To była iskra, która doprowadziła do MemPalace.
Tradycyjne podejście do pamięci LLM (np. wbudowane rozwiązania w ChatGPT) używają summaryzacji: model decyduje, co warto zapamiętać, i przechowuje skrót. MemPalace robi coś odwrotnego. Przechowuje całe wymiany w bazie wektorowej ChromaDB bez kompresji ani ekstrakcji. Decyzję, co jest istotne, zostawia mechanizmowi semantycznego wyszukiwania uruchamianemu na żądanie.
Jak MemPalace działa pod maską?
Architektura projektu jest celowo prosta. Każda rozmowa, którą przeprowadzasz z modelem, trafia do lokalnej instancji ChromaDB. Tekst jest wcześniej zamieniany na embedding (wektor liczbowy) i indeksowany. Gdy zaczynasz nową rozmowę, MemPalace robi semantic search po Twojej historii, znajduje kilka najbardziej trafnych fragmentów i wstrzykuje je do kontekstu modelu jako “dodatkową wiedzę”.
Trzy rzeczy odróżniają to podejście od konkurencji.
Po pierwsze, brak utraty informacji. Ponieważ MemPalace nie summaryzuje, nie tracisz niuansów ani konkretnych liczb z wcześniejszych rozmów. Wyszukiwanie semantyczne znajduje całe fragmenty, nie skróty.
Po drugie, brak dodatkowych wywołań LLM przy zapisie. Standardowe systemy pamięci uruchamiają drugiego LLM-a do oceny, “co jest warte zapamiętania”. To kosztuje tokeny i czas. MemPalace zapisuje wszystko bez decydowania, co skraca proces i obniża koszt.
Po trzecie, lokalność. Cała baza wektorowa działa u Ciebie. Nie wysyłasz historii rozmów do żadnej zewnętrznej usługi, co rozwiązuje problem prywatności w scenariuszach biznesowych i prawnych.
Jeśli interesuje Cię, jak podobne mechanizmy pamięci działają w nowych modelach Anthropica, przeczytaj nasz artykuł o emocjach i wektorach w Claude.
Pierwsza Misja AI · Kodożercy
Używasz AI codziennie. Czy robisz to dobrze?
Kurs Pierwsza Misja AI pokaże Ci techniki promptowania, które naprawdę działają. 27 ćwiczeń z prawdziwym GPT-4, gamifikacja i certyfikat. Wszystko w 8 godzin.
Sprawdź program kursu →

Czy benchmarki MemPalace są wiarygodne?
Tu zaczyna się część, której nie widzisz w viralowych nagłówkach. Autorzy MemPalace ogłosili, że ich system osiąga 100% w benchmarku LongMemEval przy użyciu rerankera Claude Haiku, oraz 96.6% bez żadnego dodatkowego API call. To są wyniki, które rzeczywiście biją większość komercyjnych systemów pamięci dostępnych dziś na rynku.
X Community Note dodana do oryginalnego posta Bena Sigmana zwraca jednak uwagę na ważny niuans. Cytat: deklarowany wynik 100% na LongMemEval używa “targeted fixes” dla 3 błędnie odpowiedzianych pytań i LLM reranking. Wynik na tzw. held-out (czyli części benchmarku, której autorzy nie widzieli podczas tunowania) wynosi 98.4%, nie 100%.
To wciąż jest znakomity rezultat. Ale jest różnica między “98.4% na nieznanej części” a “100% absolutnie wszędzie”, która ma znaczenie, jeśli planujesz wdrażać to w produkcji. Klasyczny problem benchmarkowy: optymalizujesz pod konkretny test, dostajesz wysokie liczby, a generalizacja na nieznane dane jest niższa.
Wniosek dla praktyka: MemPalace prawdopodobnie jest dziś jednym z najlepszych otwartych systemów pamięci semantycznej. Ale jeśli ktoś Ci mówi “100%, lepsze od wszystkich płatnych”, traktuj to jak marketing, nie jak fakt techniczny.
Druga rzecz, o której warto pamiętać: LongMemEval to syntetyczny benchmark. Twoje rzeczywiste rozmowy z ChatGPT i Claude wyglądają inaczej niż syntetyczne testy. Realna jakość pamięci u Ciebie może być wyższa albo niższa, dopóki sam tego nie zmierzysz na własnych danych.
Co MemPalace zmienia w rynku narzędzi AI?
Najważniejsza zmiana nie jest techniczna. MemPalace zbudowała aktorka, która sama o sobie mówi, że nie jest programistką, wspólnie z jednym developerem, używając Claude Code do wygenerowania większości kodu. Czas od pomysłu do działającego, otwartego, dobrze przyjętego projektu wyniósł kilka miesięcy.
To jest nowa rzeczywistość, w której narzędzia AI obniżają próg wejścia do tworzenia oprogramowania na tyle, że osoba spoza branży może zbudować coś, co konkuruje z komercyjnymi rozwiązaniami od zespołów engineerskich. MemPalace nie jest pierwszym takim przypadkiem – jest jednak pierwszym, który zebrał tak dużą uwagę i pokazał ten mechanizm szerokiej publiczności.
Trzy implikacje, które warto sobie zapisać:
Coraz więcej projektów open-source będzie powstawać poza klasycznym mainstreamem deweloperskim. Twoja konkurencja jutro może przyjść od osoby, której nie ma w żadnym indeksie GitHub ranking.
Jakość kodu wygenerowanego przez Claude Code pod kierunkiem niedeweloperów jest na tyle wysoka, że projekty publiczne mogą dostawać 7000 gwiazdek w 24 godziny. To nie jest ani przykład “wszystko AI”, ani “wszystko człowiek” – to symbioza, która działa.
Walidacja zewnętrzna nadal ma znaczenie. Community Note na X była potrzebna, żeby uściślić benchmarki MemPalace. Otwarty kod oznacza, że ktoś może to sprawdzić, i sprawdza. Bez tej weryfikacji deklarowane 100% przeszłoby bez kontroli. To dobra wiadomość dla całego ekosystemu open-source.
FAQ – Najczęstsze pytania o MemPalace
Czy MemPalace działa z każdym modelem językowym?
Tak, w teorii. MemPalace nie jest przywiązany do konkretnego LLM-a. Możesz go używać z ChatGPT, Claude, Gemini, lokalnym modelem przez Ollama lub API dowolnego dostawcy. Logika polega na tym, że MemPalace wstrzykuje fragmenty pamięci do prompta, więc działa wszędzie tam, gdzie możesz wpłynąć na kontekst rozmowy.
Jakie są wymagania, żeby uruchomić MemPalace lokalnie?
Python, ChromaDB i wystarczająco dysku, żeby trzymać embedding całej swojej historii rozmów. Dla typowego użytkownika to są setki MB do paru GB. Model embeddingów może być lokalny (np. sentence-transformers) albo zdalny (OpenAI API). Wersja w pełni lokalna nie wymaga żadnego płatnego API.
Czy to bezpieczne dla danych firmowych?
Architekturalnie tak, bo cała baza działa u Ciebie. Ale jak każdy projekt open-source, MemPalace należy zaudytować pod kątem swojej organizacji przed wdrożeniem na danych chronionych. Sprawdź, czy embedding model nie wysyła zapytań na zewnątrz, i ustaw odpowiednio kontrolę dostępu do plików ChromaDB.
Czy mogę użyć MemPalace w n8n lub innym narzędziu automatyzacji?
Tak, ale pośrednio – przez prosty wrapper HTTP.
Pośrednio – tak. MemPalace nie ma jeszcze dedykowanego węzła n8n, ale ponieważ wystawia funkcje Pythona, możesz go owinąć w prosty serwis HTTP (FastAPI) i wywoływać z węzła HTTP Request w n8n. Dla zespołów, które już budują zaawansowane workflow’y AI w n8n, to dwa-trzy godziny pracy.
Newsletter · DevstockAcademy & Kodożercy
Bądź na bieżąco ze światem IT, AI i automatyzacji
Co wtorek: newsy z branży, praktyczne tipy i narzędzia które warto znać. Zero spamu.
Podsumowanie
MemPalace to open-source pamięć semantyczna dla modeli językowych, którą Milla Jovovich zbudowała wspólnie z developerem Benem Sigmanem przy pomocy Claude Code. Projekt zebrał 7000 gwiazdek na GitHub w pierwsze 24 godziny i osiągnął 98.4% na held-out części benchmarku LongMemEval, co czyni go dziś jednym z najsilniejszych otwartych systemów pamięci dostępnych za darmo. Architektura jest prosta: ChromaDB plus semantic search bez summaryzacji, bez dodatkowych wywołań LLM przy zapisie, w pełni lokalnie. Najważniejsze jest jednak to, co MemPalace symbolizuje. Aktorka spoza branży tech, jeden developer i AI-asystent zbudowali w kilka miesięcy projekt, który konkuruje z komercyjnymi rozwiązaniami. Dla każdego, kto myśli “nie znam się na kodowaniu, nie mogę nic zbudować”, to jest dowód, że ta linia rozumowania właśnie się skończyła.



