AI dla bezpieczeństwa: co polskie firmy powinny wiedzieć

OpenAI podpisała umowę z Departamentem Obrony. Dowiedz się, jak to wpływa na polskie firmy i bezpieczeństwo danych. Praktyczne wskazówki.

OpenAI podpisała kontrakt z amerykańskim Departamentem Obrony na wykorzystanie swoich modeli w zastosowaniach wojskowych. Dla wielu firm w Polsce ta wiadomość brzmi jak news ze świata, który ich nie dotyczy. Nic bardziej mylnego - decyzje gigantów AI wpływają bezpośrednio na to, jak polskie przedsiębiorstwa mogą (i powinny) korzystać z narzędzi sztucznej inteligencji.

Pytanie nie brzmi już "czy AI jest bezpieczne", ale "jak korzystać z AI, żeby nie narazić swojej firmy". W tym artykule pokażę konkretne kroki, które każda polska firma - od jednoosobowej działalności po średnie przedsiębiorstwo - powinna podjąć w 2025 roku.

Zacznijmy od tego, co właściwie się wydarzyło i dlaczego ma to znaczenie dla firmy produkującej meble w Poznaniu czy biura rachunkowego w Krakowie.

Co oznacza kontrakt OpenAI z Pentagonem dla polskich firm

OpenAI przez lata utrzymywała politykę zabraniającą wykorzystywania swoich modeli w celach wojskowych. W styczniu 2024 roku cicho zmieniła regulamin, a kilka miesięcy później podpisała pierwszą umowę z Departamentem Obrony USA. Modele GPT mają wspierać operacje cyberbezpieczeństwa i przetwarzanie danych wywiadowczych.

Co to zmienia dla polskiej firmy korzystającej z ChatGPT? Kilka rzeczy:

  • Dane trafiają do amerykańskiej firmy współpracującej z wojskiem - jeśli wpisujesz dane klientów do ChatGPT, trafiają one do organizacji, która jednocześnie obsługuje Pentagon. Nie oznacza to, że ktoś je czyta, ale profil ryzyka się zmienił.
  • Regulacje mogą się zaostrzać - Unia Europejska przyspiesza prace nad AI Act właśnie dlatego, że widzi rosnące powiązania AI z sektorem obronnym. Dla polskich firm oznacza to nowe obowiązki compliance od 2025 roku.
  • Alternatywy zyskują na znaczeniu - europejskie modele AI (Mistral, Aleph Alpha) budują przewagę konkurencyjną hasłem "twoje dane zostają w Europie".

Według raportu KPMG z 2024 roku, 67% polskich MŚP korzysta z narzędzi AI bez żadnej polityki bezpieczeństwa danych. To tak, jakby wysyłać poufne dokumenty firmy pocztą bez koperty.

Trzy realne zagrożenia, które dotyczą Twojej firmy już teraz

Zapomnijmy o scenariuszach rodem z filmów science fiction. Oto trzy sytuacje, które widzę regularnie u moich klientów:

1. Pracownik wkleja dane klientów do ChatGPT. Handlowiec chce szybko napisać ofertę i wrzuca do ChatGPT listę klientów z adresami email, kwotami zamówień i notatkami z rozmów. Te dane trafiają na serwery OpenAI w USA. Jeśli firma przetwarza dane osobowe obywateli UE - a każda polska firma to robi - jest to potencjalne naruszenie RODO. Kara? Do 4% rocznego obrotu.

2. Firma używa AI do analizy dokumentów finansowych. Biuro rachunkowe ładuje faktury i umowy do narzędzia AI, żeby przyspieszyć księgowanie. Problem polega na tym, że większość darmowych narzędzi AI wykorzystuje wprowadzone dane do dalszego treningu modeli. Twoje faktury mogą "wyciec" w odpowiedziach dla innych użytkowników - nie dosłownie, ale fragmenty wzorców i danych mogą się pojawić.

3. Brak kontroli nad tym, kto w firmie używa jakich narzędzi AI. W firmie zatrudniającej 20 osób każdy pracownik może korzystać z innego narzędzia AI. Jeden używa ChatGPT, drugi Claude'a, trzeci Gemini. Żadne z tych narzędzi nie jest skonfigurowane pod kątem firmowych polityk bezpieczeństwa. To jest dziki zachód i większość polskich firm tak właśnie funkcjonuje.

Praktyczna checklista: 7 kroków do bezpiecznego AI w firmie

Wdrożenie bezpiecznego korzystania z AI nie wymaga budżetu na poziomie korporacji. Oto konkretne kroki, które możesz zrobić w tym tygodniu:

  • Spisz, jakie narzędzia AI są używane w firmie. Zapytaj każdego pracownika. Wynik Cię zaskoczy - zwykle jest 3-5 razy więcej narzędzi niż myśli szef.
  • Wybierz jedno oficjalne narzędzie AI i wykup plan biznesowy. ChatGPT Team (25 USD/miesiąc za osobę) lub Claude Team (30 USD/miesiąc) gwarantują, że dane nie są wykorzystywane do treningu modeli. To fundamentalna różnica wobec darmowych wersji.
  • Napisz prostą politykę AI na jedną stronę A4. Co wolno wklejać (publiczne informacje, własne teksty), czego nie wolno (dane klientów, umowy, dane finansowe). Nie musi być idealna - musi istnieć.
  • Włącz historię czatów w trybie firmowym. Żebyś wiedział, jakie dane przepływają przez AI. Nie chodzi o inwigilację pracowników, ale o audyt w razie incydentu.
  • Rozważ lokalne modele AI do wrażliwych zadań. Ollama pozwala uruchomić model AI na własnym komputerze - zero danych wysyłanych na zewnątrz. Dla zadań typu analiza umów czy poufnych dokumentów to najlepsza opcja. Wymaga komputera z 16 GB RAM i karty graficznej, ale wiele firmowych laptopów to spełnia.
  • Przeszkol zespół - 30 minut wystarczy. Pokaż, co się dzieje z danymi po wklejeniu do AI. Większość ludzi nie ma pojęcia, że ich prompty są przetwarzane na serwerach za oceanem.
  • Sprawdź zgodność z RODO. Jeśli korzystasz z AI do przetwarzania danych osobowych, musisz mieć to uwzględnione w rejestrze czynności przetwarzania. Twój IOD (Inspektor Ochrony Danych) powinien o tym wiedzieć.

AI Act - co zmieni się dla polskich firm od 2025

Unijna ustawa o sztucznej inteligencji (AI Act) wchodzi w życie etapami. Pierwsze obowiązki zaczęły obowiązywać w lutym 2025, kolejne wejdą w sierpniu. Co to oznacza w praktyce?

Jeśli Twoja firma tylko korzysta z narzędzi AI (ChatGPT, Copilot, Claude) - obowiązki są minimalne. Musisz informować klientów, że używasz AI w komunikacji z nimi, i prowadzić podstawową dokumentację.

Jeśli Twoja firma buduje rozwiązania AI dla klientów - obowiązki rosną znacząco. Dotyczy to firm IT, software house'ów i startupów, które integrują modele AI w swoich produktach. Klasyfikacja ryzyka, dokumentacja techniczna, testy zgodności - to realne koszty rzędu kilkudziesięciu tysięcy złotych.

Dobra wiadomość: Polska Agencja Rozwoju Przedsiębiorczości (PARP) uruchomiła programy dofinansowania cyfryzacji MŚP, które obejmują wdrożenie polityk bezpieczeństwa AI. Warto sprawdzić aktualne nabory na stronie PARP.

Co robić dalej

Bezpieczeństwo AI w firmie to nie projekt z datą zakończenia - to ciągły proces. Technologia zmienia się co miesiąc, regulacje co kwartał, a zagrożenia codziennie. Ale nie musisz być ekspertem od cyberbezpieczeństwa, żeby chronić swoją firmę.

Zacznij od dwóch rzeczy: dowiedz się, jakie narzędzia AI są używane w Twojej firmie, i wykup plan biznesowy dla jednego z nich. Te dwa kroki eliminują 80% ryzyka, jakie widzę u polskich MŚP.

Kontrakt OpenAI z Pentagonem jest sygnałem, nie zagrożeniem. Sygnałem, że AI przestaje być zabawką i wchodzi w obszary, gdzie bezpieczeństwo danych ma realne konsekwencje. Polskie firmy, które zrozumieją to wcześniej, będą miały przewagę - nie technologiczną, ale operacyjną. Bo będą wiedziały, jak korzystać z AI bez narażania swoich klientów i swojego biznesu.

Źródło: OpenAI and the U.S. Department of Defense

Chcesz wdrożyć AI w swojej firmie?

Umów bezpłatną konsultację (30 min). Pokażę Ci 3 procesy, które możesz zautomatyzować od zaraz.

Bez zobowiązań Konkretne rekomendacje Wycena w 24h
Umów konsultację →

Chcesz więcej takich artykułów?

Dostajesz codziennie przegląd nowości AI. Zero spamu.

Umów konsultację