BlogArtykułyNarzędziaWdrożeniaPraca w AINauka AIGiełda AICennikKontakt

Bezpieczeństwo AI tools: ryzyko startup'ów, które musisz znać

Zaufanie do dostawców narzędzi AI bywa złudne. Pokazuje to sprawa startupu Delve, który oferował klientom certyfikacje bezpieczeństwa i pomoc w zgodności z regulacjami, a jednocześnie jeden z jego klientów padł ofiarą poważnego incydentu bezpieczeństwa. Historia jest o tyle ciekawa, że dotyczy firmy, która sama sprzedaje usługi compliance. Innymi słowy: szewc bez butów chodzi.

Dla polskich małych i średnich firm to sygnał ostrzegawczy. Rynek narzędzi AI rośnie lawinowo, a każdy drugi startup obiecuje certyfikat SOC 2, zgodność z RODO i militarne szyfrowanie. Problem w tym, że papier przyjmie wszystko, a rzeczywista architektura bezpieczeństwa to zupełnie inna bajka. W tym artykule pokazuję, na co zwracać uwagę przy wyborze dostawcy AI, żeby nie obudzić się z wyciekiem danych klientów i karą od UODO.

Piszę to z perspektywy konsultanta, który przez ostatnie miesiące pomagał kilku firmom z sektora MŚP wdrażać narzędzia AI. Widziałem umowy, w których klauzule DPA były skopiowane z szablonu sprzed pięciu lat, i konfiguracje, w których dane księgowe leciały do modelu hostowanego w USA, choć w panelu dostawca pisał "EU region". Ryzyko jest realne i najczęściej bierze się z pośpiechu.

Co się stało w Delve i dlaczego to ma znaczenie

Delve to startup, który buduje swoją pozycję na sprzedaży compliance w pigułce. Firma obiecuje klientom szybkie przejście przez audyty SOC 2, ISO 27001 i HIPAA, w dużej mierze dzięki automatyzacji opartej o AI. Według doniesień TechCrunch, jeden z jej klientów doświadczył dużego incydentu bezpieczeństwa, a nie był to pierwszy tego typu przypadek powiązany z tym dostawcą.

Najważniejsza lekcja nie dotyczy samego Delve, tylko mechanizmu zaufania. Polskie firmy często zakładają, że skoro startup ma certyfikat SOC 2 Type II, to ich dane są bezpieczne. SOC 2 to audyt kontroli, a nie gwarancja, że nic złego się nie wydarzy. Potwierdza, że w momencie badania dostawca miał wdrożone procedury, które audytor uznał za wystarczające. Między audytem a dniem, w którym Twoje dane trafiają do systemu, może minąć dwanaście miesięcy, a w tym czasie startup pivotuje, zwalnia CTO i przenosi bazy do nowego dostawcy chmury.

Dla firmy z Wrocławia czy Poznania wniosek jest prosty: certyfikat to warunek wstępny rozmowy, a nie jej zakończenie. Pytaj o datę ostatniego audytu, o zakres (Type I czy Type II), o to, kto go przeprowadzał i czy raport jest dostępny pod NDA do wglądu. Jeśli dostawca odmawia lub wysyła jednostronicowy certyfikat bez raportu, to sygnał ostrzegawczy.

Gdzie naprawdę lądują Twoje dane

Najczęstszy błąd, jaki widzę u polskich klientów, to brak weryfikacji rzeczywistej lokalizacji danych. Narzędzie AI pokazuje w ustawieniach "EU hosting", a w rzeczywistości prompt z danymi pacjenta, klienta lub pracownika leci do modelu bazowego w USA, bo dostawca korzysta z API OpenAI czy Anthropic. To nie jest teoretyczny problem, to codzienność.

Po wyroku Trybunału Sprawiedliwości UE w sprawie Schrems II i wprowadzeniu Data Privacy Framework sytuacja jest bardziej stabilna, ale nadal wymaga dokumentacji. Jeśli przetwarzasz dane osobowe klientów, musisz wiedzieć, gdzie one są, kto ma do nich dostęp i na jakiej podstawie prawnej odbywa się transfer. Standardowe klauzule umowne (SCC) to minimum, ale same z siebie nie chronią przed wyciekiem.

Konkretna lista rzeczy do sprawdzenia przed podpisaniem umowy z dostawcą AI:

  • Umowa powierzenia przetwarzania (DPA) - dostawca musi ją mieć i podpisać z Tobą, nie odwrotnie. Jeśli mówi "nasza umowa usługowa wystarczy", to nie wystarczy.
  • Subprocesorzy - pełna lista z nazwami, lokalizacjami i rolą. Typowy startup AI ma ich od pięciu do piętnastu (hosting, monitoring, analityka, modele bazowe, backup).
  • Retencja danych - ile czasu przechowywane są prompty, odpowiedzi i logi. Czy są wykorzystywane do trenowania modeli (musi być opcja opt-out, a najlepiej domyślne wyłączenie).
  • Procedura incydentu - ile godzin dostawca ma na powiadomienie Cię o naruszeniu. RODO daje Ci 72 godziny na zgłoszenie do UODO, więc dostawca musi powiadomić Cię szybciej, najlepiej w ciągu 24 godzin.
  • Audyt i prawo kontroli - czy możesz przeprowadzić własny audyt bezpieczeństwa, nawet jeśli w praktyce tego nie zrobisz.

Praktyczny filtr dla polskiego MŚP

Zamiast polegać na marketingowych deklaracjach, warto wprowadzić prosty, trzystopniowy filtr wyboru narzędzi AI. Stosuję go u klientów i działa niezależnie od branży.

Poziom pierwszy - dane niewrażliwe. Generowanie treści marketingowych, burze mózgów, poprawa gramatyki. Tutaj ryzyko jest niskie, bo nie przetwarzasz danych osobowych ani tajemnicy przedsiębiorstwa. ChatGPT, Claude, Gemini w wersji standardowej są akceptowalne. Jedyna zasada: nie wklejaj danych klientów, nawet w formie "anonimowej". Ludzie są okropni w anonimizacji.

Poziom drugi - dane biznesowe wewnętrzne. Analiza sprzedaży, dokumenty wewnętrzne, raporty finansowe. Tu potrzebujesz wersji enterprise z podpisanym DPA, opcją "zero data retention" i hostingiem w UE. ChatGPT Enterprise, Claude for Work, Microsoft Copilot w Azure - wszystkie spełniają minimum. Koszt to 20-30 euro na użytkownika miesięcznie, ale to cena spokoju.

Poziom trzeci - dane osobowe klientów lub pracowników. Tu zaczyna się prawdziwe RODO. Potrzebujesz DPIA (oceny skutków dla ochrony danych), aktualnego rejestru czynności przetwarzania, jasnej podstawy prawnej i transparentnej komunikacji z osobami, których dane dotyczą. Narzędzia typu startup-bez-historii odpadają. Wybieraj dostawców z dłuższą obecnością na rynku, raportami audytowymi i realnymi referencjami z polskich firm.

Co zrobić, jeśli już korzystasz z ryzykownego narzędzia

Załóżmy, że Twoja firma od pół roku używa narzędzia AI, o którym teraz masz wątpliwości. Nie panikuj, ale też nie ignoruj. Zrób trzy rzeczy w kolejności.

Po pierwsze, zinwentaryzuj, jakie dane tam faktycznie trafiły. Nie co miało trafić zgodnie z polityką, tylko co realnie wyszło przez API albo przez wklejenie w prompt. W praktyce oznacza to rozmowę z użytkownikami, bo polityki są piękne, a rzeczywistość brutalna.

Po drugie, zweryfikuj aktualny status dostawcy. Wejdź na jego stronę, sprawdź czy certyfikaty są aktualne, poszukaj informacji o incydentach w serwisach takich jak TechCrunch, Bleeping Computer czy Krebs on Security. Jeśli dostawca miał wyciek w ostatnich dwunastu miesiącach, rozważ migrację.

Po trzecie, przygotuj plan wyjścia. Nie musisz go wdrażać od razu, ale powinieneś wiedzieć, jak w ciągu 30 dni przełączysz się na alternatywne rozwiązanie. To ćwiczenie samo w sobie ujawnia, jak głęboko wpiąłeś się w jednego dostawcę i gdzie są twoje punkty bólu.

Podsumowanie

Sprawa Delve pokazuje, że nawet firmy sprzedające compliance mogą być źródłem problemów bezpieczeństwa. Dla polskich MŚP to przypomnienie, że certyfikat SOC 2 to początek rozmowy, a nie jej koniec. Sprawdzaj DPA, weryfikuj lokalizację danych, pytaj o subprocesorów i miej plan wyjścia. Koszt staranności jest dużo niższy niż koszt wycieku - zarówno finansowo (kary UODO sięgają 4% globalnego obrotu), jak i reputacyjnie.

Ostatnia rzecz, której nauczyłem się u klientów: nie kupuj narzędzi AI pod presją czasu. Handlowcy startupów są świetni w tworzeniu poczucia pilności ("oferta ważna do piątku", "ostatnie miejsca w programie pilotażowym"). Żadna realna decyzja o przetwarzaniu danych nie powinna być podejmowana pod taką presją. Jeśli dostawca nie daje Ci dwóch tygodni na analizę prawną i techniczną, to znaczy, że nie chce, żebyś tę analizę zrobił.

Źródło: Another customer of troubled startup Delve suffered a big security incident (TechCrunch)

Najczęściej zadawane pytania

Czy wolno nam używać AI tools od startup'ów?

Tak, ale z warunkami. Sprawdź: gdzie przechowują dane (UE/poza UE), czy mają security certifications (SOC 2, ISO 27001), jak długo przechowują dane, czy przetwarzają dane w celach szkolenia modelu. Wiele startup'ów ma słabszą infrastrukturę niż duże korporacje — to zwiększa ryzyko.

Co to jest SOC 2 i czy moje narzędzie AI powinno je mieć?

SOC 2 to certyfikacja bezpieczeństwa wydawana przez niezależne firmy audytowe. Pokazuje, że startup przeszedł poważny security audit. Jeśli tool zbiera/przechowuje dane klientów — sprawdź czy ma SOC 2 lub ISO 27001. Brak certyfikacji = wyższe ryzyko.

Ile czasu przechowują dane nasze prompty w AI tools?

Zależy od narzędzia. Claude/ChatGPT: dane nie są przechowywane poza sesją (o ile masz płatny dostęp). Mniejsze startup'i: mogą przechowywać dane dla szkolenia modelu — zawsze czytaj Terms of Service. Dane polskich klientów = compliance ze RODO, zawsze zadbaj o umowę przetwarzania danych (DPA).

Wdrożenie AI w Twojej firmie?

Audyt procesów, dobór narzędzi, automatyzacja — od strategii po wdrożenie.

Pakiet Starter od 1 499 zł
Umów konsultację →

Nie przegap nastepnego artykulu

Dołacz do newslettera — AI dla firm, bez buzzwordow.