Pod koniec marca 2026 roku amerykański startup Mercor - platforma rekrutacyjna oparta na sztucznej inteligencji, wyceniana na 2 miliardy dolarów - padł ofiarą cyberataku. Hakerzy wykorzystali lukę w popularnym narzędziu open source LiteLLM, które Mercor stosował w swojej infrastrukturze. W wyniku ataku wyciekły dane osobowe kandydatów, w tym numery PESEL (a raczej ich amerykański odpowiednik - SSN), adresy e-mail i CV. Firma, która współpracuje z gigantami takimi jak Google czy Intel, musiała publicznie przyznać się do naruszenia bezpieczeństwa.
Dlaczego piszę o tym na blogu skierowanym do polskich przedsiębiorców? Bo ta historia dotyka problemu, który ignoruje zdecydowana większość małych i średnich firm w Polsce. Korzystasz z ChatGPT, z narzędzi do automatyzacji, z bibliotek open source do obsługi modeli językowych? Każde z tych narzędzi to potencjalny wektor ataku. Mercor to startup z budżetem na bezpieczeństwo, zespołem inżynierów i milionami dolarów na koncie. Jeśli oni nie uchronili się przed atakiem, to co dopiero firma zatrudniająca 15 osób z Łodzi czy Wrocławia?
Nie chcę straszyć. Chcę pokazać konkretne ryzyka i - co ważniejsze - konkretne sposoby, żeby się przed nimi zabezpieczyć. Bez wydawania fortuny na konsultantów od cyberbezpieczeństwa.
Co dokładnie się stało w Mercor i dlaczego to dotyczy też Ciebie?
Mercor korzystał z LiteLLM - otwartoźródłowego narzędzia, które służy jako warstwa pośrednia (proxy) między aplikacją a różnymi modelami AI. Dzięki niemu można łatwo przełączać się między modelami od OpenAI, Anthropic, Google'a czy Mistral bez przepisywania kodu. To popularne rozwiązanie - na GitHubie ma ponad 20 tysięcy gwiazdek i korzystają z niego tysiące firm na całym świecie.
Problem polegał na tym, że atakujący znaleźli sposób na skompromitowanie tego narzędzia. Szczegóły techniczne nie zostały w pełni ujawnione, ale wiemy, że hakerzy uzyskali dostęp do kluczy API i danych przesyłanych przez LiteLLM. W praktyce oznacza to, że mogli przechwycić zapytania wysyłane do modeli AI - a w przypadku platformy rekrutacyjnej te zapytania zawierały dane osobowe kandydatów.
Teraz przełóżmy to na polskie realia. Według raportu CERT Polska za 2024 rok, liczba incydentów bezpieczeństwa w polskich firmach wzrosła o 34% rok do roku. Jednocześnie badanie Eurostat z 2024 roku wskazuje, że tylko 28% polskich MŚP ma jakąkolwiek formalną politykę cyberbezpieczeństwa. To przepaść między rosnącym zagrożeniem a poziomem przygotowania.
Jeśli Twoja firma korzysta z narzędzi AI - a coraz więcej polskich firm korzysta - to prawdopodobnie używasz komponentów open source. Może nie bezpośrednio LiteLLM, ale jakiejś biblioteki Pythona, wtyczki do automatyzacji, integracji przez Zapiera czy Make'a. Każdy taki element to potencjalne słabe ogniwo w łańcuchu bezpieczeństwa.
Trzy największe zagrożenia dla polskich firm korzystających z AI
1. Wyciek danych przez narzędzia pośredniczące
To dokładnie scenariusz z Mercor. Używasz narzędzia AI do analizy dokumentów klientów, generowania ofert, przetwarzania zamówień. Dane przechodzą przez kilka warstw - Twoja aplikacja, warstwa pośrednia (proxy), API dostawcy modelu. Na każdym etapie mogą zostać przechwycone. Polska firma e-commerce, która używa AI do personalizacji ofert, przesyła przez te systemy historię zakupów, adresy, czasem dane płatnicze. Wyciek takich danych to nie tylko problem wizerunkowy - to kara do 20 milionów euro lub 4% rocznego obrotu na mocy RODO.
2. Zatrucie łańcucha dostaw oprogramowania
Atak na LiteLLM to klasyczny przykład tzw. supply chain attack. Nie atakujesz bezpośrednio firmy - atakujesz narzędzie, z którego firma korzysta. W ekosystemie Pythona (a w nim działa większość narzędzi AI) pakiety instaluje się jedną komendą: pip install. Badanie firmy Snyk z 2025 roku wykazało, że 41% pakietów Pythona związanych z AI ma co najmniej jedną znaną podatność. Polska firma produkcyjna, która wdrożyła AI do kontroli jakości, może nawet nie wiedzieć, jakie dokładnie zależności zainstalował jej programista.
3. Kradzież kluczy API i nieautoryzowane koszty
Klucze API to cyfrowe hasła do usług AI. Jeśli ktoś je przechwyci, może korzystać z modeli AI na Twój rachunek. Brzmi banalnie? Firma Supabase opisała przypadek, w którym skradziony klucz API do OpenAI wygenerował rachunek na 120 tysięcy dolarów w ciągu jednego weekendu. Dla polskiego MŚP z budżetem IT na poziomie kilkudziesięciu tysięcy złotych rocznie taka kwota może oznaczać poważne kłopoty finansowe.
Jak się bronić - praktyczny przewodnik dla MŚP
Nie musisz zatrudniać zespołu specjalistów od bezpieczeństwa. Ale musisz wdrożyć kilka podstawowych praktyk. Oto lista uporządkowana od najprostszych do bardziej zaawansowanych:
- Inwentaryzacja narzędzi AI - zrób listę wszystkich narzędzi i usług AI, z których korzysta Twoja firma. Uwzględnij nie tylko te oczywiste (ChatGPT, Midjourney), ale też wtyczki, integracje i biblioteki. Nie możesz chronić czegoś, o czym nie wiesz.
- Rotacja kluczy API - zmieniaj klucze API co 30-90 dni. Większość dostawców (OpenAI, Anthropic, Google) pozwala to robić z poziomu panelu administracyjnego w kilka minut. Ustaw sobie przypomnienie w kalendarzu.
- Limity wydatków - każdy poważny dostawca API pozwala ustawić miesięczny limit wydatków. W panelu OpenAI znajdziesz to w zakładce "Billing". Ustaw limit na 150-200% normalnego zużycia. Jeśli ktoś ukradnie Twój klucz, straty będą ograniczone.
- Nie przesyłaj danych wrażliwych do modeli AI - zanim wyślesz dane klienta do ChatGPT czy Claude'a, zastanów się, czy to konieczne. Anonimizuj dane osobowe. Zamiast "Jan Kowalski, ul. Kwiatowa 15, Poznań" wyślij "Klient A, lokalizacja B". To prosta zasada, a drastycznie zmniejsza ryzyko.
- Aktualizuj zależności - jeśli Twój zespół programistyczny korzysta z bibliotek open source, upewnij się, że są regularnie aktualizowane. Narzędzia takie jak Dependabot (wbudowany w GitHuba) czy Snyk (darmowy dla małych zespołów) automatycznie informują o znanych podatnościach.
- Dwuskładnikowe uwierzytelnianie (2FA) - włącz je wszędzie, gdzie to możliwe. Na koncie OpenAI, w panelu administracyjnym, na GitHubie. To pięć minut konfiguracji, które mogą uratować firmę przed poważnym incydentem.
Muszę tu uczciwie przyznać: żadne zabezpieczenia nie dają stuprocentowej gwarancji. Mercor miał zespół bezpieczeństwa i budżet, a mimo to padł ofiarą ataku. Chodzi o to, żeby nie być najłatwiejszym celem. Hakerzy - tak jak włamywacze w fizycznym świecie - wybierają drzwi, które najłatwiej otworzyć.
RODO i polskie regulacje - dodatkowa warstwa ryzyka
Jest jeszcze jeden aspekt, o którym polskie firmy często zapominają. W kontekście RODO (i nadchodzącego AI Act, który zacznie obowiązywać w pełni od sierpnia 2026) odpowiedzialność za dane osobowe spoczywa na administratorze danych, czyli na Twojej firmie. Nie na dostawcy narzędzia AI. Nie na twórcach biblioteki open source.
Jeśli dane Twoich klientów wyciekną przez lukę w narzędziu AI, to Ty odpowiadasz przed UODO (Urzędem Ochrony Danych Osobowych). W 2024 roku UODO nałożył kary o łącznej wartości ponad 8 milionów złotych na polskie firmy za naruszenia ochrony danych. I trend jest rosnący.
Co to oznacza w praktyce? Przed wdrożeniem jakiegokolwiek narzędzia AI, które przetwarza dane osobowe, powinieneś:
- Przeprowadzić ocenę skutków dla ochrony danych (DPIA) - brzmi formalnie, ale dla prostych wdrożeń to dokument na 2-3 strony
- Sprawdzić, gdzie fizycznie przechowywane są dane - czy serwery są w UE, czy dane lecą do USA
- Podpisać umowę powierzenia przetwarzania danych z dostawcą narzędzia AI
- Udokumentować, jakie dane przesyłasz i dlaczego - zasada minimalizacji danych z RODO obowiązuje też w kontekście AI
Wiem, że to brzmi jak biurokracja. Ale porównaj koszt przygotowania tych dokumentów (kilka godzin pracy) z potencjalną karą finansową i utratą zaufania klientów. Kalkulacja jest prosta.
Co zrobiłbym na Twoim miejscu - plan na najbliższy tydzień
Jeśli prowadzisz polską firmę i korzystasz z narzędzi AI (a statystycznie jest coraz większa szansa, że tak), proponuję plan działania na najbliższe siedem dni:
Dzień 1-2: Zrób inwentaryzację. Wypisz wszystkie narzędzia AI, z których korzysta firma. Zapytaj pracowników - często okazuje się, że ktoś na własną rękę używa ChatGPT do pisania maili do klientów i wkleja tam dane kontaktowe.
Dzień 3-4: Sprawdź klucze API. Gdzie są przechowywane? Kto ma do nich dostęp? Czy są ustawione limity wydatków? Zmień klucze, które nie były rotowane od ponad 90 dni.
Dzień 5: Włącz 2FA na wszystkich kontach związanych z AI i infrastrukturą IT. To dosłownie godzina pracy.
Dzień 6-7: Przygotuj prostą politykę korzystania z AI w firmie. Nie musi to być 50-stronicowy dokument. Wystarczy jedna strona A4 z jasnymi zasadami: jakie dane można przesyłać do narzędzi AI, jakie nie, kto odpowiada za bezpieczeństwo kluczy API.
Przypadek Mercor to sygnał ostrzegawczy. Nie pierwszy i nie ostatni. W miarę jak narzędzia AI stają się powszechne w polskich firmach - od biur rachunkowych po zakłady produkcyjne - rośnie też powierzchnia ataku. Nie chodzi o to, żeby przestać korzystać z AI. Chodzi o to, żeby robić to świadomie i z odpowiednimi zabezpieczeniami. Bo następny atak może dotknąć narzędzia, z którego korzystasz Ty.
Źródło: TechCrunch - Mercor says it was hit by cyberattack tied to compromise of open-source LiteLLM project