35 milionów euro kary. I nikt nie mówi o tym głośno.
Większość polskich przedsiębiorców słyszała o AI Act. Mało kto wie, co konkretnie z niego wynika. Jeszcze mniej zrobiło cokolwiek, żeby się przygotować. To jest ten artykuł, który tłumaczy sprawę bez prawniczego żargonu — z perspektywy kogoś, kto sam wdraża AI w swoich firmach i musi rozumieć, co można, czego nie można, i gdzie leży granica.
Nie jestem prawnikiem. Jestem przedsiębiorcą, który od trzech lat wdraża systemy AI w branży budowlanej i gastronomicznej. I właśnie dlatego ten tekst jest inny niż większość analiz AI Act — mówię Ci, co to znaczy w praktyce, nie w teorii.
Zacznijmy od podstaw, bo bez nich reszta nie ma sensu.
Czym jest AI Act i dlaczego luty 2026 to moment zwrotny
AI Act — oficjalnie Rozporządzenie Parlamentu Europejskiego i Rady (UE) 2024/1689 — to pierwsza na świecie kompleksowa regulacja prawna dotycząca systemów sztucznej inteligencji. Weszła w życie 1 sierpnia 2024 roku. Ale regulacje nie działają od razu — mają okresy przejściowe.
I tu zaczyna się ważna część. Od 2 lutego 2026 roku obowiązują przepisy dotyczące systemów AI wysokiego ryzyka wdrażanych w sektorach wymienionych w Załączniku III do rozporządzenia. Jeśli Twoja firma używa AI do rekrutacji, oceny kredytowej pracowników, zarządzania infrastrukturą krytyczną lub podejmowania decyzji wpływających na dostęp do usług publicznych — jesteś już w grze.
Luty 2026 to moment, gdy AI Act zaczyna dotyczyć szerokiego biznesu — firm produkcyjnych, handlowych, usługowych, które używają AI do procesów HR, sprzedaży i obsługi klienta.
Dlaczego Polska? Bo jesteśmy w UE. AI Act działa jak RODO — jest bezpośrednio stosowany we wszystkich państwach członkowskich. Nie potrzeba implementacji przez Sejm.
Klasyfikacja ryzyka — co to oznacza dla Twojej firmy
AI Act dzieli systemy AI na cztery kategorie według poziomu ryzyka. To kluczowe, bo od kategorii zależy, jakie masz obowiązki.
Niedopuszczalne ryzyko — całkowity zakaz
Systemy oceniania obywateli przez rządy (social scoring), manipulacja podświadoma, identyfikacja biometryczna w czasie rzeczywistym w miejscach publicznych — to zakazane od 2 sierpnia 2025 roku.
Wysokie ryzyko — tutaj dzieje się akcja
Systemy wysokiego ryzyka to m.in.:
- Systemy AI używane w rekrutacji i selekcji pracowników
- Systemy oceny wydajności pracowników
- Systemy do oceny zdolności kredytowej
- Systemy AI w edukacji i ochronie zdrowia
- Systemy biometrycznej identyfikacji
- Systemy zarządzania infrastrukturą krytyczną
Jeśli Twoja firma korzysta z systemów AI do rekrutacji, jesteś w tej kategorii.
Ograniczone ryzyko — przejrzystość
Chatboty, generatory treści — musisz poinformować użytkownika, że rozmawia z AI.
Minimalne ryzyko — rób co chcesz
Filtry spamowe, systemy rekomendacji, gry — AI Act praktycznie nie ingeruje.
Obowiązki dla polskich firm w 2026 — konkretna checklist
Dostawca (provider) to ten, kto tworzy system AI. Deployer to ten, kto go używa. Polskie firmy najczęściej są deployerami.
Dokumentacja i rejestr systemów AI
- Stwórz rejestr wszystkich systemów AI w firmie
- Dla każdego systemu określ kategorię ryzyka
- Zachowuj dokumentację techniczną od dostawców
- Dokumentuj decyzje podjęte na podstawie rekomendacji AI
Przejrzystość i informowanie użytkowników
- Zaktualizuj regulaminy i polityki prywatności o informacje o AI
- Informuj kandydatów i pracowników, gdy AI wspiera decyzje HR
- Zapewnij możliwość odwołania się do człowieka
Human oversight — ludzki nadzór
Systemy wysokiego ryzyka muszą mieć mechanizm ludzkiego nadzoru — AI nie może samodzielnie podejmować wiążących decyzji bez możliwości interwencji człowieka.
Umowy z dostawcami AI
Dostawcy systemów wysokiego ryzyka mają obowiązek dostarczyć Ci instrukcje użytkowania, informacje o ograniczeniach systemu i dane do oceny ryzyka.
Najważniejsza praktyczna zasada: nie musisz być ekspertem od prawa AI. Musisz wiedzieć, co używasz, kto za to odpowiada i mieć dokumentację, że stosowałeś rozsądny nadzór.
Kary i enforcement — ile ryzykujesz
Skala kar finansowych
- Do 35 milionów euro lub 7% globalnego obrotu — za naruszenie zakazów niedopuszczalnych zastosowań AI
- Do 15 milionów euro lub 3% obrotu — za naruszenie obowiązków systemów wysokiego ryzyka
- Do 7,5 miliona euro lub 1,5% obrotu — za błędne informacje organom nadzoru
Dla małej polskiej firmy z obrotem 10 mln zł — 3% to 300 000 zł. Organy biorą pod uwagę wielkość firmy i dobrą wolę przy ustalaniu kar.
Co zrobić teraz? 5 konkretnych kroków
Krok 1: Zrób inwentaryzację AI w firmie
2 godziny spotkania. Lista narzędzi AI w każdym dziale.
Krok 2: Oceń ryzyko każdego systemu
Pytanie: czy narzędzie pomaga podejmować decyzje wpływające na prawa, zatrudnienie, zdrowie osób?
Krok 3: Zweryfikuj umowy z dostawcami AI
Pisemne zapytanie o dokumentację AI Act compliance.
Krok 4: Zaktualizuj polityki wewnętrzne
Dodaj informacje o AI do regulaminów, polityk prywatności, umów.
Krok 5: Wyznacz osobę odpowiedzialną za AI governance
Jeden właściciel tematu. 2-3 godziny miesięcznie.
Podsumowanie: działaj spokojnie, ale działaj
AI Act nie ma Cię zniszczyć. Ma sprawić, że AI w biznesie będzie stosowane z głową. Zacznij od inwentaryzacji. Oceń ryzyko. Zrób 5 kroków w ciągu miesiąca.
AI to narzędzie, które wymaga odpowiedzialności. AI Act po prostu to formalizuje.