21 kwietnia 2026 roku Reuters ujawnił wewnętrzną notatkę Meta. Wynika z niej, że firma instaluje na komputerach swoich amerykańskich pracowników nowe narzędzie o nazwie Model Capability Initiative. Ma nagrywać ruchy myszy, kliknięcia, keystroki i okazjonalne zrzuty ekranu. Cel jest jasno opisany w notatce. Dane służą trenowaniu AI agentów, którzy w przyszłości mają samodzielnie wykonywać zadania biurowe.
Meta tłumaczy, że narzędzie działa tylko w zatwierdzonym zestawie aplikacji roboczych takich jak Gmail, wewnętrzny chat firmowy i asystent AI. Firma zapewnia też, że zebrane dane nie są używane do oceny pracowników. Pracownicy mimo wszystko reagują ostro. W mediach pojawiają się wypowiedzi typu “bardzo dystopijne” i zarzuty, że nie ma opcji rezygnacji z programu. To wszystko dzieje się w tym samym czasie, w którym Meta planuje kolejne zwolnienia. Dla wielu osób w firmie wygląda to tak, że ich ruch myszy uczy modeli, które potem je zastąpią. Poniżej rozkładamy co dokładnie wchodzi, dlaczego teraz i jakie są konsekwencje dla polskiej firmy, która rozważa podobne rozwiązanie u siebie.
Co dokładnie robi Model Capability Initiative w Meta
Model Capability Initiative, w skrócie MCI, to oprogramowanie instalowane na firmowych komputerach pracowników Meta w Stanach Zjednoczonych. Zbiera trzy rodzaje danych. Pierwszy to keystroki, czyli co pracownik wpisuje na klawiaturze. Drugi to ruchy myszy i kliknięcia. Trzeci to okazjonalne zrzuty ekranu z aplikacji, które znajdują się na zatwierdzonej liście. W wewnętrznej notatce Meta wyjaśnia, że chodzi o obszary, w których obecne modele AI jeszcze się potykają. Wybieranie opcji z rozwijanych menu, używanie skrótów klawiszowych, nawigacja po wielostopniowych interfejsach firmowych.
Lista aplikacji objętych monitoringiem obejmuje Gmail, firmowy chat GChat oraz wewnętrznego asystenta AI Meta. Notatka, którą wysłali zespoły z działu SuperIntelligence Labs, podkreśla, że narzędzie nie będzie zbierać danych z aplikacji prywatnych ani z przeglądania stron poza pracą. Meta zastrzega też, że zebrane dane nie są wykorzystywane do oceny wydajności ani do dyscyplinowania pracowników. Rzecznik firmy Andy Stone oświadczył, że są wprowadzone zabezpieczenia chroniące treści wrażliwe.
Meta nagrywa to, jak jej pracownicy wybierają opcje z rozwijanych menu. Po to, żeby AI mógł to robić zamiast nich.
Dlaczego właśnie teraz gigant idzie po dane z pracy
Żeby zrozumieć tempo tej decyzji, warto zobaczyć szerszy kontekst branżowy. Duże modele językowe od dwóch lat trafiają na barierę jakości danych do trenowania. Cały publiczny internet już został przerobiony. Większość książek, transkrypcji, dokumentów i forum internetowych jest już w zbiorach treningowych. Następnym naturalnym źródłem są dane z rzeczywistej pracy. Nie to, jak ludzie piszą na Twitterze, tylko jak obsługują panele klientów, budują arkusze kalkulacyjne albo reagują na zgłoszenia.
OpenAI otwarcie pyta kontraktorów o przesyłanie przykładów z wcześniejszych prac. Microsoft i Google inwestują w programy partnerskie z firmami, które zgadzają się udostępniać anonimowe procesy pracy. Meta poszła o krok dalej i postanowiła wziąć te dane z własnych pracowników, którzy nie muszą wyrażać zgody, bo komputer jest firmowy, a regulamin pracy daje szerokie pole do monitoringu. To jest ten sam mechanizm, który od lat pozwala pracodawcy sprawdzać czy używasz komputera zgodnie z polityką firmy. Różnica polega na celu. Kiedyś monitoring służył bezpieczeństwu i zapobieganiu wyciekom. Teraz służy szkoleniu modeli, które mają wykonywać twoją pracę.
Pracownicy protestują – brak opcji rezygnacji
Reakcja pracowników Meta była szybka i raczej jednoznaczna. W anonimowych komentarzach dla Reutersa, TechCruncha i The Register pojawiają się określenia “intruzywne”, “bardzo dystopijne” i “mieszanie monitorowania z treningiem zastępców”. Kluczowym problemem nie jest sama instalacja narzędzia. Jest nim brak opcji rezygnacji. Pracownicy nie mogą powiedzieć nie i zostać w firmie. Narzędzie jest częścią pakietu roboczego na równi z firmowym VPN albo systemem SSO.
Drugi warstwa krytyki dotyczy timingu. Meta ogłosiła w pierwszym kwartale 2026 kolejne rundy zwolnień, tym razem w kontekście “przekierowywania zasobów do SuperIntelligence Labs”. Pracownicy zauważają, że ich ruchy myszy i keystroki lądują w zbiorach treningowych modeli, których zadaniem ma być właśnie wykonywanie pracy za człowieka. To nie jest filozoficzna dyskusja. To jest bardzo konkretne pytanie, czy pracownik trenuje własnego następcę. Ten sam niepokój widać w szerszych badaniach o postawach wobec AI w pracy, o których pisaliśmy przy okazji raportu o 80 procent pracowników odrzucających AI.
Ten sam ruch myszy, który wykonujesz dzisiaj, może jutro zostać odtworzony przez agenta AI. Który nie prosi o pensję.
Co na to RODO i polski kodeks pracy
Polska firma, która chciałaby zrobić dokładnie to samo, ma do pokonania kilka istotnych barier prawnych. Zacznijmy od RODO. Artykuł 5 wymaga, żeby dane osobowe były zbierane w konkretnym, jawnym i uzasadnionym celu. Trenowanie AI modeli na keystrokach i zrzutach ekranów to jeden konkretny cel, ale trzeba go jasno wskazać pracownikowi przed rozpoczęciem zbierania. Artykuł 6 ogranicza legalne podstawy przetwarzania. Sama zgoda w relacji pracownik-pracodawca jest z góry uznawana przez sądy za wątpliwą, bo pracownik nie ma równej pozycji negocjacyjnej. Zostają inne podstawy, ale każda wymaga testu proporcjonalności.
Polski kodeks pracy w artykule 22 paragraf 2 mówi o tym wprost. Monitoring pracowników musi mieć uzasadniony cel związany z pracą. Musi być proporcjonalny. Musi być ogłoszony pracownikom na co najmniej dwa tygodnie przed wprowadzeniem. Dodatkowo istnieje obowiązek informowania związku zawodowego, jeśli taki w firmie działa. Zbieranie keystrokes i zrzutów ekranu, w celu trenowania modeli AI, które potem mają zastąpić pracownika, prawdopodobnie nie przejdzie testu proporcjonalności. To nie jest monitoring dla ochrony danych firmy. To jest zbieranie zasobów treningowych dla produktu komercyjnego.
UODO, czyli Urząd Ochrony Danych Osobowych, w ostatnich latach wydał kilka kar za zbyt rozlewający się monitoring pracowniczy. Najwyższa z nich, dotycząca firmy przewozowej, wyniosła ponad milion złotych. Dla polskiej firmy wprowadzenie odpowiednika Model Capability Initiative oznaczałoby realną ekspozycję prawną, nie tylko teoretyczną.
Pierwsza Misja AI · Kodożercy
AI zmienia rynek pracy. Zacznij rozumieć o co chodzi.
916 kursantów, 4.94 gwiazdki, 14-dniowy zwrot bez pytań. Kurs Pierwsza Misja AI to najkrótszy kurs, po którym rozumiesz AI i możesz to pokazać certyfikatem.
Dołącz do 916 kursantów →

Co to znaczy dla zwykłej firmy i zwykłego pracownika
Przypadek Meta jest skrajny, ale trend jest szerszy. Dla polskiej firmy, która używa narzędzi SaaS klasy amerykańskiej, istotne są dwa praktyczne wnioski. Pierwszy to regulaminy usług chmurowych. Wiele z nich od 2025 roku zawiera zapisy dopuszczające użycie danych klienta do ulepszania modeli, chyba że klient wyraźnie wyłączy tę opcję. Warto przejrzeć obecne kontrakty z Microsoft 365, Google Workspace, Slack, Zoom, Notion. Każde z tych narzędzi może legalnie używać części danych do treningu, jeśli firma nie sprawdziła ustawień.
Drugi to poziom świadomości wśród pracowników. Jeśli podpisali kiedyś standardowy regulamin monitoringu, to zgodzili się na monitoring dla bezpieczeństwa i wydajności. Nie zgodzili się na zbieranie danych do trenowania modeli AI. Każda firma, która chce rozszerzyć zakres monitoringu w tym kierunku, musi podjąć nowe formalne kroki. Aktualizacja regulaminu pracy, informacja dla pracowników z dwutygodniowym wyprzedzeniem, konsultacja ze związkami zawodowymi, aktualizacja polityki prywatności zgodnie z RODO. Bez tego każde wdrożenie oznacza bardzo realne ryzyko prawne. Warto też pamiętać o ryzykach związanych z danymi firmowymi wrzucanymi do ChatGPT bez kontroli, co jest lustrzanym problemem na poziomie indywidualnym.
FAQ – najczęstsze pytania o Meta i monitoring AI
Czy to dotyczy tylko pracowników Meta w USA?
Na razie tak. Wewnętrzna notatka wskazuje na wdrożenie ograniczone do pracowników w Stanach Zjednoczonych. W Europie, w tym w Polsce, wprowadzenie podobnego programu wymagałoby spełnienia znacznie surowszych wymogów, w tym zgodności z RODO i dyrektywami o ochronie pracy. Meta nie ogłosiła planów ekspansji programu poza USA.
Czy dane są anonimizowane zanim trafią do modelu?
Według komunikacji Meta, tak. Firma twierdzi, że ma zabezpieczenia chroniące treści wrażliwe i że dane nie są przypisywane do konkretnego pracownika w zbiorach treningowych. Niezależni eksperci zwracają jednak uwagę, że pełna anonimizacja keystrokes i wzorców zachowań jest trudna, bo sposób pisania jest sam w sobie cechą biometryczną.
Czy mogę wyłączyć monitoring AI w narzędziach SaaS u siebie w firmie?
Zwykle tak, ale musisz wejść w panel administratora konkretnego narzędzia i odznaczyć opcję “use my data to improve the model” albo podobną. W Microsoft 365 to jest ustawienie Admin Center w sekcji Copilot. W Google Workspace znajdziesz to w Admin Console w zakładce AI i Gemini. Każde narzędzie wymaga osobnej kontroli.
Czy polska firma może legalnie zrobić coś takiego?
Teoretycznie tak, ale praktycznie jest to trudne. Musiałaby mieć bardzo precyzyjny cel przetwarzania, uzasadnienie proporcjonalności monitoringu, formalną aktualizację regulaminu pracy z dwutygodniowym wyprzedzeniem i konsultację ze związkami zawodowymi. Najprawdopodobniej nie przejdzie testu proporcjonalności, jeśli cel to trenowanie komercyjnego modelu AI. UODO w ostatnich latach surowo traktuje rozlewający się monitoring pracowniczy.
Podsumowanie
Meta rusza z programem nagrywania klawiatury i ruchów myszy pracowników w USA, z jasnym celem trenowania modeli AI. Model Capability Initiative dotyczy tylko zatwierdzonych aplikacji biznesowych, ale nie daje pracownikom opcji rezygnacji. Reakcja w firmie jest ostra, bo nowy tryb zbierania danych zbiega się w czasie z kolejnymi zwolnieniami. W Polsce podobny program w obecnej formie jest prawdopodobnie nielegalny z uwagi na RODO i artykuł 22 paragraf 2 kodeksu pracy. Niezależnie od legalności, branżowy trend jest wyraźny. Dane z realnej pracy stają się najcenniejszym zasobem dla dostawców modeli AI. Warto sprawdzić ustawienia obecnych narzędzi SaaS w firmie i przejrzeć, co regulaminy dopuszczają. Kiedyś monitoring służył bezpieczeństwu. Teraz coraz częściej służy szkoleniu narzędzia, które może robić to samo co pracownik.
Newsletter · DevstockAcademy & Kodożercy
Bądź na bieżąco ze światem IT, AI i automatyzacji
Co wtorek: newsy z branży, praktyczne tipy i narzędzia które warto znać. Zero spamu.



