Pod koniec marca 2026 roku społeczność open source żyła jedną wiadomością: LiteLLM, jeden z najpopularniejszych gatewayów do modeli AI, oficjalnie zakończył współpracę z firmą Delve. Powodem był poważny incydent bezpieczeństwa - atak hakerski, który ujawnił luki w infrastrukturze Delve i postawił pod znakiem zapytania bezpieczeństwo danych tysięcy firm korzystających z tego rozwiązania.
Dla wielu polskich firm, szczególnie tych małych i średnich, ta wiadomość mogła przejść niezauważona. A szkoda, bo dotyczy czegoś fundamentalnego - sposobu, w jaki firmy łączą się z modelami AI takimi jak GPT-4, Claude czy Gemini. LiteLLM pełni rolę pośrednika, który upraszcza komunikację z różnymi dostawcami AI. Jeśli Twoja firma korzysta z narzędzi AI przez API, ta historia powinna Cię zainteresować.
Przyjrzyjmy się, co dokładnie się wydarzyło, jakie wnioski z tego płyną i co konkretnie mogą zrobić polskie małe i średnie firmy, żeby nie wpaść w podobną pułapkę.
Co się właściwie stało między LiteLLM a Delve?
LiteLLM to narzędzie open source, które pozwala programistom i firmom korzystać z wielu modeli AI przez jeden, ujednolicony interfejs. Zamiast pisać osobny kod do OpenAI, Anthropica i Google'a, wystarczy jedno połączenie przez LiteLLM. Projekt ma ponad 18 000 gwiazdek na GitHubie i jest wykorzystywany przez tysiące firm na całym świecie - w tym przez polskie software house'y i startupy.
Delve z kolei dostarczał infrastrukturę do zarządzania kluczami API i monitorowania kosztów. W uproszczeniu - pomagał firmom kontrolować, ile wydają na modele AI i kto ma do nich dostęp. Brzmi jak przydatna usługa, prawda?
Problem pojawił się, gdy Delve padł ofiarą ataku hakerskiego. Szczegóły incydentu ujawniły poważne braki w zabezpieczeniach - od niewystarczającego szyfrowania danych po brak odpowiednich procedur reagowania na incydenty. Dla LiteLLM, którego użytkownicy przekazywali przez Delve swoje klucze API (czyli de facto dostęp do kosztownych usług AI), to był sygnał alarmowy. Zespół LiteLLM podjął decyzję o natychmiastowym zakończeniu integracji.
To nie była łatwa decyzja. Delve był wygodnym rozwiązaniem, z którego korzystało wielu użytkowników LiteLLM. Ale bezpieczeństwo kluczy API to nie jest kwestia, w której można iść na kompromisy. Jeden wyciekły klucz do GPT-4 potrafi wygenerować rachunek na dziesiątki tysięcy złotych w ciągu kilku godzin - i to nie jest teoria, a realna sytuacja, którą widziałem u polskich klientów.
Dlaczego polskie MŚP powinny zwrócić na to uwagę?
Mogłoby się wydawać, że to sprawa dużych firm technologicznych. Nic bardziej mylnego. Polskie małe i średnie firmy coraz intensywniej wdrażają rozwiązania oparte na AI. Według raportu PARP z 2025 roku, już 34% polskich MŚP korzysta z jakiejś formy sztucznej inteligencji - od chatbotów obsługi klienta po automatyzację procesów księgowych.
Problem polega na tym, że wiele z tych firm nie ma dedykowanych zespołów bezpieczeństwa IT. Właściciel małej firmy e-commerce z Krakowa, który zintegrował ChatGPT z obsługą zamówień, prawdopodobnie nie sprawdza, przez ile pośredników przechodzą jego klucze API. A każdy taki pośrednik to potencjalny punkt awarii - i potencjalne miejsce wycieku danych.
Weźmy konkretny przykład. Firma produkująca meble na zamówienie z okolic Poznania korzysta z LiteLLM, żeby automatycznie generować opisy produktów w trzech językach. Używa do tego modeli Claude'a i GPT-4o. Jej klucze API - gdyby wyciekły - dałyby atakującemu nie tylko dostęp do generowania treści na koszt firmy, ale potencjalnie także do danych klientów, które są przekazywane w promptach (wymiary pomieszczeń, adresy dostawy, preferencje).
Sytuacja z Delve pokazuje, że nawet sprawdzone narzędzia w ekosystemie AI mogą okazać się słabym ogniwem. I to nie jest kwestia złej woli - Delve nie był złośliwym oprogramowaniem. Po prostu ich zabezpieczenia okazały się niewystarczające. A w łańcuchu bezpieczeństwa liczy się najsłabsze ogniwo.
Jak wybrać godne zaufania narzędzia AI - praktyczna lista kontrolna
Po incydencie z Delve warto przemyśleć, jak Twoja firma dobiera narzędzia w swoim stosie technologicznym AI. Oto konkretne kryteria, które stosuję w pracy z polskimi klientami:
- Sprawdź, gdzie przechowywane są Twoje klucze API. Czy narzędzie trzyma je na swoich serwerach? Czy są szyfrowane w spoczynku i w transmisji? Dobre rozwiązania pozwalają na przechowywanie kluczy lokalnie, bez wysyłania ich do chmury zewnętrznego dostawcy.
- Zweryfikuj historię bezpieczeństwa dostawcy. Czy firma przeszła niezależny audyt bezpieczeństwa? Czy ma program bug bounty? Czy transparentnie komunikuje incydenty? LiteLLM zyskał zaufanie właśnie dlatego, że szybko i otwarcie zareagował na problem z Delve.
- Oceń model biznesowy. Darmowe narzędzie, które nie ma jasnego źródła przychodów, powinno budzić pytania. Kto płaci za serwery? Czy Twoje dane nie są produktem? To nie jest paranoja - to zdrowy rozsądek biznesowy.
- Upewnij się, że narzędzie jest zgodne z RODO. Dla polskich firm to nie opcja, a obowiązek. Sprawdź, czy dostawca oferuje przetwarzanie danych na terenie UE lub czy ma odpowiednie klauzule umowne. LiteLLM jako narzędzie open source daje tutaj przewagę - możesz hostować je na własnych serwerach w Polsce.
- Testuj rotację kluczy. Dobra praktyka to regularna zmiana kluczy API - co 30-90 dni. Jeśli narzędzie utrudnia ten proces, to czerwona flaga. Po incydencie z Delve wiele firm musiało w pośpiechu rotować wszystkie klucze, co przy braku automatyzacji zajmowało całe dni.
Warto też wspomnieć o alternatywach. Po odcięciu Delve, społeczność LiteLLM szybko wskazała inne rozwiązania do zarządzania kosztami i kluczami API: Helicone, Portkey czy wbudowane funkcje monitoringu w samym LiteLLM. Każde z nich ma swoje mocne strony, ale żadne nie jest idealne - i to jest uczciwa ocena sytuacji. Nie istnieje narzędzie, które rozwiąże wszystkie problemy bezpieczeństwa za Ciebie.
Trzy konkretne kroki na poniedziałek rano
Teoria to jedno, ale polskie firmy potrzebują działań, które można wdrożyć od razu. Oto co rekomenduję:
Krok 1: Zrób inwentaryzację swoich kluczy API. Brzmi banalnie, ale większość firm, z którymi pracuję, nie ma pełnej listy aktywnych kluczy API do usług AI. Otwórz panele OpenAI, Anthropica, Google Cloud - sprawdź, ile kluczy jest aktywnych, kiedy były ostatnio używane i kto ma do nich dostęp. Dezaktywuj te, które nie są potrzebne. W firmie zatrudniającej 15 osób znalazłem kiedyś 23 aktywne klucze API do OpenAI - większość utworzonych przez byłych pracowników.
Krok 2: Ustaw limity wydatków. OpenAI, Anthropic i Google pozwalają na ustawienie miesięcznych limitów wydatków na klucze API. Jeśli Twoja firma wydaje na AI 2000 zł miesięcznie, ustaw limit na 3000 zł. Dzięki temu nawet w przypadku wycieku klucza straty będą ograniczone. To 5 minut konfiguracji, które może zaoszczędzić dziesiątki tysięcy złotych.
Krok 3: Rozważ samodzielne hostowanie LiteLLM. Jeśli Twoja firma korzysta z wielu modeli AI, LiteLLM hostowany na własnym serwerze (lub w polskim centrum danych, np. w OVH czy nazwa.pl) daje pełną kontrolę nad danymi. Koszt utrzymania to około 100-200 zł miesięcznie za prosty serwer VPS - niewiele w porównaniu z potencjalnymi stratami z wycieku danych. Instalacja wymaga podstawowej znajomości Dockera, ale większość polskich software house'ów poradzi sobie z tym w kilka godzin.
Dodatkowa rada, która wynika z mojego doświadczenia: dokumentuj każdą integrację z narzędziami AI. Zapisuj, jakie dane przekazujesz, przez jakie pośredniki przechodzą i kto w firmie jest odpowiedzialny za daną integrację. Kiedy pojawia się incydent taki jak ten z Delve, firma z dobrą dokumentacją reaguje w godziny. Firma bez dokumentacji - w tygodnie.
Szerszy kontekst - bezpieczeństwo w ekosystemie AI dojrzewa
Incydent LiteLLM-Delve nie jest odosobniony. W 2025 roku mieliśmy wyciek tokenów z Hugging Face, problemy z bezpieczeństwem w kilku popularnych frameworkach do budowania agentów AI, a także serię ataków na firmy korzystające z niezabezpieczonych endpointów API. Rynek AI rośnie szybciej niż standardy bezpieczeństwa, które go otaczają.
Dla polskich firm to jednocześnie ryzyko i szansa. Ryzyko - bo wiele narzędzi AI jest tworzonych w kulturze "szybko wypuść, potem napraw", co nie sprzyja bezpieczeństwu. Szansa - bo firmy, które od początku poważnie traktują bezpieczeństwo AI, budują przewagę konkurencyjną. Klient, który wie, że jego dane są bezpieczne, jest skłonny zapłacić więcej.
Reakcja LiteLLM zasługuje na uznanie. Zamiast zamiatać problem pod dywan, zespół otwarcie komunikował powody decyzji i zaproponował alternatywne rozwiązania. To model, który polskie firmy technologiczne powinny naśladować - transparentność w kwestiach bezpieczeństwa buduje zaufanie, nawet jeśli krótkoterminowo jest niewygodna.
Patrząc na trendy, spodziewam się, że w 2026 roku pojawi się więcej narzędzi do audytu bezpieczeństwa integracji AI. Już teraz rozwiązania takie jak Prompt Armor czy Lakera oferują ochronę przed atakami na modele językowe. Ale podstawy - zarządzanie kluczami, kontrola dostępu, monitorowanie kosztów - pozostają w gestii każdej firmy.
Historia z Delve to dobry moment, żeby zatrzymać się i zadać sobie pytanie: czy wiem, kto ma dostęp do moich narzędzi AI i co się stanie, jeśli jeden z dostawców w moim łańcuchu technologicznym zostanie zaatakowany? Jeśli odpowiedź brzmi "nie wiem" - to najlepszy moment, żeby to zmienić. Nie jutro. Dziś.
Źródło: TechCrunch - Popular AI gateway startup LiteLLM ditches controversial startup Delve