Angela Lipps nigdy nie była w Północnej Dakocie. Mimo to spędziła 108 dni w areszcie. Oskarżono ją o serię oszustw bankowych w Fargo, które popełniła zupełnie inna osoba. Winowajca: system rozpoznawania twarzy Clearview AI. Sprawa wróciła na pierwsze strony pod koniec marca 2026, gdy policja w Fargo ogłosiła zmianę procedur. Ale zmiany polityki nie cofną czterech miesięcy życia pięćdziesięcioletniej kobiety z Tennessee.
Co się stało? Historia Angeli Lipps krok po kroku
W lipcu 2025 roku policja w Fargo wszczęła dochodzenie w sprawie wielokrotnych oszustw bankowych. Nieznana kobieta używała fałszywego wojskowego dowodu tożsamości, żeby wypłacać duże sumy gotówki. Kamery monitoringu zarejestrowały sprawczynię. Detektywi wprowadzili zdjęcia do systemu Clearview AI: platformy rozpoznawania twarzy, która przeszukuje bazę miliardów fotografii zebranych z mediów społecznościowych i innych publicznych źródeł.
System zwrócił trafienie: Angela Lipps z Tennessee. Policja uzyskała nakaz aresztowania i 14 lipca 2025 roku Lipps trafiła za kraty. Przez prawie cztery miesiące nikt nie przeprowadził z nią przesłuchania. Policja nie sprawdziła zapisów bankowych, które jednoznacznie pokazywały, że w czasie przestępstw przebywała ponad 1900 kilometrów od Fargo.
Pierwszy wywiad z podejrzaną odbył się dopiero 19 grudnia 2025. Pięć dni później, w Wigilię, zarzuty zostały oddalone. Po 108 dniach Angela Lipps wyszła na wolność.
Sprawa Lipps pokazuje fundamentalną lukę w procedurach: algorytm wytypował podejrzaną, a śledczy potraktowali to wskazanie jako dowód, nie jako punkt wyjścia do dalszego dochodzenia.
Dlaczego Clearview AI się myli i komu myli się najczęściej?
Clearview AI to kontrowersyjna firma, która zbudowała bazę ponad 50 miliardów zdjęć zebranych bez zgody użytkowników z Facebooka, Instagrama, LinkedIn i dziesiątek innych platform. Policja w wielu krajach używa jej systemu do identyfikacji podejrzanych.
Problem polega na tym, że algorytmy rozpoznawania twarzy nie są jednakowe dla wszystkich. NIST (Narodowy Instytut Standardów i Technologii USA) udokumentował w 2019 roku, że różnice w dokładności między grupami demograficznymi sięgają od 10 do 100 razy w zależności od algorytmu. Co ważne: wiedza o tym problemie istniała na długo przed aresztem Angeli Lipps. Mimo to w 2025 roku system Clearview AI wytypował białą kobietę z Tennessee jako sprawczynię przestępstw popełnionych przez inną osobę. Dokładność algorytmu rosła przez lata — odpowiedzialność za weryfikację wyników nie nadążyła za technologią.


Sprawa Lipps nie jest odosobnionym przypadkiem
Historia Angeli Lipps jest wstrząsająca, ale nie wyjątkowa. Wcześniejsze udokumentowane przypadki błędnych aresztowań na podstawie rozpoznawania twarzy dotyczą niemal wyłącznie ciemnoskórych Amerykanów.
Nijeer Parks, New Jersey, 2019. Aresztowany na podstawie rozmazanego zdjęcia z fałszywego dowodu tożsamości. Spędził 10 dni w areszcie. Sprawa umorzona po 8 miesiącach. Miasto Woodbridge zapłaciło 300 tysięcy dolarów odszkodowania.
Robert Williams, Detroit, 2020. Pierwsza udokumentowana sprawa błędnego aresztowania przez AI rozpoznawania twarzy w USA. Oskarżony o kradzież zegarków Shinola na podstawie ziarnistego nagrania monitoringu. Miasto Detroit zapłaciło 300 tysięcy dolarów.
Wzorzec jest wyraźny: każda znana sprawa błędnego aresztowania przez AI rozpoznawania twarzy w USA dotyczyła osoby należącej do grupy mniejszościowej lub kobiety. System nie tylko się myli. Myli się selektywnie, a jego błędy uderzają w najsłabiej chronione grupy.
Co to oznacza dla branży AI i automatyzacji?
Sprawa Lipps powinna być lekcją dla każdego, kto wdraża systemy AI w kontekście decyzji mających konsekwencje dla ludzkiego życia. Warto wyciągnąć z niej kilka konkretnych wniosków.
Po pierwsze, wynik algorytmu to hipoteza, nie dowód. Clearview AI zwróciło dopasowanie. To wystarczyło do aresztu. Przez 108 dni nikt nie zweryfikował alibi. Podstawowa procedura detektywistyczna (sprawdzenie zapisów bankowych, lokalizacji telefonu) ujawniłaby błąd w ciągu godzin.
Po drugie, transparentność algorytmów ma znaczenie praktyczne. Policja w Fargo nie ujawniła sędziemu wystawiającemu nakaz, że identyfikacja pochodzi z systemu AI z udokumentowanymi błędami. Nakaz nigdy by nie powstał, gdyby sędzia znał statystyki Clearview AI.
Po trzecie, odpowiedzialność nie kończy się na dostawcy systemu. Clearview AI dostarczyło narzędzie, ale to policja podjęła decyzję o areszcie bez weryfikacji. Łańcuch odpowiedzialności jest długi i każde ogniwo ma rolę do odegrania.
Fargo Police Department ogłosiło pod koniec marca 2026 zmianę procedur dotyczących rozpoznawania twarzy. To krok we właściwą stronę, spóźniony o 108 dni.
Kurs n8n 2.0 · Kodożercy
Automatyzacja to dziś jedna z najbardziej poszukiwanych umiejętności
Firmy szukają ludzi którzy łączą procesy z narzędziami AI. Kurs n8n 2.0 na Kodożercach da Ci praktyczne umiejętności: od webhooków po agenty AI, które możesz pokazać już jutro.
Zobacz program kursu →

FAQ: Najczęstsze pytania o AI rozpoznawanie twarzy i błędne areszty
Czy AI rozpoznawanie twarzy jest legalne w Polsce?
W Polsce nie ma odrębnej ustawy regulującej rozpoznawanie twarzy, jednak stosowanie go przez organy ścigania podlega RODO oraz unijnemu AI Act, który klasyfikuje takie systemy jako “wysokiego ryzyka” wymagające szczególnych zabezpieczeń. Od sierpnia 2026 przepisy AI Act obejmą pełne wymagania dotyczące przejrzystości i nadzoru ludzkiego nad tego typu systemami.
Dlaczego Clearview AI myli się częściej w przypadku kobiet i osób ciemnoskórych?
Modele AI uczą się na danych treningowych. Jeśli baza zdjęć zawiera nieproporcjonalnie dużo zdjęć białych mężczyzn (historyczny fakt w branży tech), system jest po prostu gorzej wytrenowany do rozpoznawania innych grup. To nie jest teoretyczny problem. NIST zmierzył różnice wynoszące od 10 do 100 razy między grupami demograficznymi.
Czy można pozwać policję za błędny areszt oparty na AI?
Tak. Sprawy Robertsa Williamsa i Nijeera Parksa zakończyły się ugodami po 300 tysięcy dolarów. Sprawa Angeli Lipps jest świeża, ale jej adwokaci już odpowiedzieli na oświadczenia policji. Prawo w USA i UE coraz wyraźniej wskazuje, że odpowiedzialność za błędne decyzje AI spoczywa na instytucji, która ją wdrożyła.
Co to jest Clearview AI i skąd ma moje zdjęcia?
Clearview AI zbudowało bazę ponad 50 miliardów zdjęć zebranych bez zgody użytkowników z Facebooka, Instagrama, LinkedIn i innych platform publicznych. Firma kilkakrotnie przegrała sprawy sądowe w UE i Kanadzie za naruszenie prawa do prywatności i musiała zaprzestać działalności komercyjnej w niektórych krajach.
Podsumowanie
Angela Lipps spędziła 108 dni w areszcie za przestępstwo, którego nie popełniła, w stanie, w którym nigdy nie była. Algorytm Clearview AI wskazał ją jako podejrzaną, a policja przez cztery miesiące nie wykonała podstawowych czynności weryfikacyjnych. Sprawa wpisuje się w udokumentowany wzorzec: AI rozpoznawania twarzy myli się selektywnie, najczęściej w przypadku kobiet i osób ciemnoskórych. Dla branży budującej systemy automatyzacji to przypomnienie, że każdy algorytm podejmujący decyzje o ludziach wymaga nadzoru, weryfikacji i jasnego łańcucha odpowiedzialności.



