Zaufanie do dostawców narzędzi AI bywa złudne. Pokazuje to sprawa startupu Delve, który oferował klientom certyfikacje bezpieczeństwa i pomoc w zgodności z regulacjami, a jednocześnie jeden z jego klientów padł ofiarą poważnego incydentu bezpieczeństwa. Historia jest o tyle ciekawa, że dotyczy firmy, która sama sprzedaje usługi compliance. Innymi słowy: szewc bez butów chodzi.
Dla polskich małych i średnich firm to sygnał ostrzegawczy. Rynek narzędzi AI rośnie lawinowo, a każdy drugi startup obiecuje certyfikat SOC 2, zgodność z RODO i militarne szyfrowanie. Problem w tym, że papier przyjmie wszystko, a rzeczywista architektura bezpieczeństwa to zupełnie inna bajka. W tym artykule pokazuję, na co zwracać uwagę przy wyborze dostawcy AI, żeby nie obudzić się z wyciekiem danych klientów i karą od UODO.
Piszę to z perspektywy konsultanta, który przez ostatnie miesiące pomagał kilku firmom z sektora MŚP wdrażać narzędzia AI. Widziałem umowy, w których klauzule DPA były skopiowane z szablonu sprzed pięciu lat, i konfiguracje, w których dane księgowe leciały do modelu hostowanego w USA, choć w panelu dostawca pisał "EU region". Ryzyko jest realne i najczęściej bierze się z pośpiechu.
Co się stało w Delve i dlaczego to ma znaczenie
Delve to startup, który buduje swoją pozycję na sprzedaży compliance w pigułce. Firma obiecuje klientom szybkie przejście przez audyty SOC 2, ISO 27001 i HIPAA, w dużej mierze dzięki automatyzacji opartej o AI. Według doniesień TechCrunch, jeden z jej klientów doświadczył dużego incydentu bezpieczeństwa, a nie był to pierwszy tego typu przypadek powiązany z tym dostawcą.
Najważniejsza lekcja nie dotyczy samego Delve, tylko mechanizmu zaufania. Polskie firmy często zakładają, że skoro startup ma certyfikat SOC 2 Type II, to ich dane są bezpieczne. SOC 2 to audyt kontroli, a nie gwarancja, że nic złego się nie wydarzy. Potwierdza, że w momencie badania dostawca miał wdrożone procedury, które audytor uznał za wystarczające. Między audytem a dniem, w którym Twoje dane trafiają do systemu, może minąć dwanaście miesięcy, a w tym czasie startup pivotuje, zwalnia CTO i przenosi bazy do nowego dostawcy chmury.
Dla firmy z Wrocławia czy Poznania wniosek jest prosty: certyfikat to warunek wstępny rozmowy, a nie jej zakończenie. Pytaj o datę ostatniego audytu, o zakres (Type I czy Type II), o to, kto go przeprowadzał i czy raport jest dostępny pod NDA do wglądu. Jeśli dostawca odmawia lub wysyła jednostronicowy certyfikat bez raportu, to sygnał ostrzegawczy.
Gdzie naprawdę lądują Twoje dane
Najczęstszy błąd, jaki widzę u polskich klientów, to brak weryfikacji rzeczywistej lokalizacji danych. Narzędzie AI pokazuje w ustawieniach "EU hosting", a w rzeczywistości prompt z danymi pacjenta, klienta lub pracownika leci do modelu bazowego w USA, bo dostawca korzysta z API OpenAI czy Anthropic. To nie jest teoretyczny problem, to codzienność.
Po wyroku Trybunału Sprawiedliwości UE w sprawie Schrems II i wprowadzeniu Data Privacy Framework sytuacja jest bardziej stabilna, ale nadal wymaga dokumentacji. Jeśli przetwarzasz dane osobowe klientów, musisz wiedzieć, gdzie one są, kto ma do nich dostęp i na jakiej podstawie prawnej odbywa się transfer. Standardowe klauzule umowne (SCC) to minimum, ale same z siebie nie chronią przed wyciekiem.
Konkretna lista rzeczy do sprawdzenia przed podpisaniem umowy z dostawcą AI:
- Umowa powierzenia przetwarzania (DPA) - dostawca musi ją mieć i podpisać z Tobą, nie odwrotnie. Jeśli mówi "nasza umowa usługowa wystarczy", to nie wystarczy.
- Subprocesorzy - pełna lista z nazwami, lokalizacjami i rolą. Typowy startup AI ma ich od pięciu do piętnastu (hosting, monitoring, analityka, modele bazowe, backup).
- Retencja danych - ile czasu przechowywane są prompty, odpowiedzi i logi. Czy są wykorzystywane do trenowania modeli (musi być opcja opt-out, a najlepiej domyślne wyłączenie).
- Procedura incydentu - ile godzin dostawca ma na powiadomienie Cię o naruszeniu. RODO daje Ci 72 godziny na zgłoszenie do UODO, więc dostawca musi powiadomić Cię szybciej, najlepiej w ciągu 24 godzin.
- Audyt i prawo kontroli - czy możesz przeprowadzić własny audyt bezpieczeństwa, nawet jeśli w praktyce tego nie zrobisz.
Praktyczny filtr dla polskiego MŚP
Zamiast polegać na marketingowych deklaracjach, warto wprowadzić prosty, trzystopniowy filtr wyboru narzędzi AI. Stosuję go u klientów i działa niezależnie od branży.
Poziom pierwszy - dane niewrażliwe. Generowanie treści marketingowych, burze mózgów, poprawa gramatyki. Tutaj ryzyko jest niskie, bo nie przetwarzasz danych osobowych ani tajemnicy przedsiębiorstwa. ChatGPT, Claude, Gemini w wersji standardowej są akceptowalne. Jedyna zasada: nie wklejaj danych klientów, nawet w formie "anonimowej". Ludzie są okropni w anonimizacji.
Poziom drugi - dane biznesowe wewnętrzne. Analiza sprzedaży, dokumenty wewnętrzne, raporty finansowe. Tu potrzebujesz wersji enterprise z podpisanym DPA, opcją "zero data retention" i hostingiem w UE. ChatGPT Enterprise, Claude for Work, Microsoft Copilot w Azure - wszystkie spełniają minimum. Koszt to 20-30 euro na użytkownika miesięcznie, ale to cena spokoju.
Poziom trzeci - dane osobowe klientów lub pracowników. Tu zaczyna się prawdziwe RODO. Potrzebujesz DPIA (oceny skutków dla ochrony danych), aktualnego rejestru czynności przetwarzania, jasnej podstawy prawnej i transparentnej komunikacji z osobami, których dane dotyczą. Narzędzia typu startup-bez-historii odpadają. Wybieraj dostawców z dłuższą obecnością na rynku, raportami audytowymi i realnymi referencjami z polskich firm.
Co zrobić, jeśli już korzystasz z ryzykownego narzędzia
Załóżmy, że Twoja firma od pół roku używa narzędzia AI, o którym teraz masz wątpliwości. Nie panikuj, ale też nie ignoruj. Zrób trzy rzeczy w kolejności.
Po pierwsze, zinwentaryzuj, jakie dane tam faktycznie trafiły. Nie co miało trafić zgodnie z polityką, tylko co realnie wyszło przez API albo przez wklejenie w prompt. W praktyce oznacza to rozmowę z użytkownikami, bo polityki są piękne, a rzeczywistość brutalna.
Po drugie, zweryfikuj aktualny status dostawcy. Wejdź na jego stronę, sprawdź czy certyfikaty są aktualne, poszukaj informacji o incydentach w serwisach takich jak TechCrunch, Bleeping Computer czy Krebs on Security. Jeśli dostawca miał wyciek w ostatnich dwunastu miesiącach, rozważ migrację.
Po trzecie, przygotuj plan wyjścia. Nie musisz go wdrażać od razu, ale powinieneś wiedzieć, jak w ciągu 30 dni przełączysz się na alternatywne rozwiązanie. To ćwiczenie samo w sobie ujawnia, jak głęboko wpiąłeś się w jednego dostawcę i gdzie są twoje punkty bólu.
Podsumowanie
Sprawa Delve pokazuje, że nawet firmy sprzedające compliance mogą być źródłem problemów bezpieczeństwa. Dla polskich MŚP to przypomnienie, że certyfikat SOC 2 to początek rozmowy, a nie jej koniec. Sprawdzaj DPA, weryfikuj lokalizację danych, pytaj o subprocesorów i miej plan wyjścia. Koszt staranności jest dużo niższy niż koszt wycieku - zarówno finansowo (kary UODO sięgają 4% globalnego obrotu), jak i reputacyjnie.
Ostatnia rzecz, której nauczyłem się u klientów: nie kupuj narzędzi AI pod presją czasu. Handlowcy startupów są świetni w tworzeniu poczucia pilności ("oferta ważna do piątku", "ostatnie miejsca w programie pilotażowym"). Żadna realna decyzja o przetwarzaniu danych nie powinna być podejmowana pod taką presją. Jeśli dostawca nie daje Ci dwóch tygodni na analizę prawną i techniczną, to znaczy, że nie chce, żebyś tę analizę zrobił.
Źródło: Another customer of troubled startup Delve suffered a big security incident (TechCrunch)