BlogArtykułyNarzędziaWdrożeniaPraca w AINauka AIGiełda AICennikKontakt

AI Act 2026: Konkretne obowiązki polskich firm (i co grozi za ignorowanie)

Od lutego 2026 roku unijne regulacje AI Act zaczęły nabierać realnych zębów — pierwsze obowiązki dotyczą już teraz dziesiątek tysięcy polskich firm. Jeśli używasz AI do rekrutacji, scoringu kredytowego, monitorowania pracowników lub obsługi klienta, ten artykuł dotyczy bezpośrednio Ciebie.

35 milionów euro kary. I nikt nie mówi o tym głośno.

Większość polskich przedsiębiorców słyszała o AI Act. Mało kto wie, co konkretnie z niego wynika. Jeszcze mniej zrobiło cokolwiek, żeby się przygotować. To jest ten artykuł, który tłumaczy sprawę bez prawniczego żargonu — z perspektywy kogoś, kto sam wdraża AI w swoich firmach i musi rozumieć, co można, czego nie można, i gdzie leży granica.

Nie jestem prawnikiem. Jestem przedsiębiorcą, który od trzech lat wdraża systemy AI w branży budowlanej i gastronomicznej. I właśnie dlatego ten tekst jest inny niż większość analiz AI Act — mówię Ci, co to znaczy w praktyce, nie w teorii.

Zacznijmy od podstaw, bo bez nich reszta nie ma sensu.

Czym jest AI Act i dlaczego luty 2026 to moment zwrotny

AI Act — oficjalnie Rozporządzenie Parlamentu Europejskiego i Rady (UE) 2024/1689 — to pierwsza na świecie kompleksowa regulacja prawna dotycząca systemów sztucznej inteligencji. Weszła w życie 1 sierpnia 2024 roku. Ale regulacje nie działają od razu — mają okresy przejściowe.

I tu zaczyna się ważna część. Od 2 lutego 2026 roku obowiązują przepisy dotyczące systemów AI wysokiego ryzyka wdrażanych w sektorach wymienionych w Załączniku III do rozporządzenia. Jeśli Twoja firma używa AI do rekrutacji, oceny kredytowej pracowników, zarządzania infrastrukturą krytyczną lub podejmowania decyzji wpływających na dostęp do usług publicznych — jesteś już w grze.

Luty 2026 to moment, gdy AI Act zaczyna dotyczyć szerokiego biznesu — firm produkcyjnych, handlowych, usługowych, które używają AI do procesów HR, sprzedaży i obsługi klienta.

Dlaczego Polska? Bo jesteśmy w UE. AI Act działa jak RODO — jest bezpośrednio stosowany we wszystkich państwach członkowskich. Nie potrzeba implementacji przez Sejm.

Klasyfikacja ryzyka — co to oznacza dla Twojej firmy

AI Act dzieli systemy AI na cztery kategorie według poziomu ryzyka. To kluczowe, bo od kategorii zależy, jakie masz obowiązki.

Niedopuszczalne ryzyko — całkowity zakaz

Systemy oceniania obywateli przez rządy (social scoring), manipulacja podświadoma, identyfikacja biometryczna w czasie rzeczywistym w miejscach publicznych — to zakazane od 2 sierpnia 2025 roku.

Wysokie ryzyko — tutaj dzieje się akcja

Systemy wysokiego ryzyka to m.in.:

  • Systemy AI używane w rekrutacji i selekcji pracowników
  • Systemy oceny wydajności pracowników
  • Systemy do oceny zdolności kredytowej
  • Systemy AI w edukacji i ochronie zdrowia
  • Systemy biometrycznej identyfikacji
  • Systemy zarządzania infrastrukturą krytyczną

Jeśli Twoja firma korzysta z systemów AI do rekrutacji, jesteś w tej kategorii.

Ograniczone ryzyko — przejrzystość

Chatboty, generatory treści — musisz poinformować użytkownika, że rozmawia z AI.

Minimalne ryzyko — rób co chcesz

Filtry spamowe, systemy rekomendacji, gry — AI Act praktycznie nie ingeruje.

Obowiązki dla polskich firm w 2026 — konkretna checklist

Dostawca (provider) to ten, kto tworzy system AI. Deployer to ten, kto go używa. Polskie firmy najczęściej są deployerami.

Dokumentacja i rejestr systemów AI

  • Stwórz rejestr wszystkich systemów AI w firmie
  • Dla każdego systemu określ kategorię ryzyka
  • Zachowuj dokumentację techniczną od dostawców
  • Dokumentuj decyzje podjęte na podstawie rekomendacji AI

Przejrzystość i informowanie użytkowników

  • Zaktualizuj regulaminy i polityki prywatności o informacje o AI
  • Informuj kandydatów i pracowników, gdy AI wspiera decyzje HR
  • Zapewnij możliwość odwołania się do człowieka

Human oversight — ludzki nadzór

Systemy wysokiego ryzyka muszą mieć mechanizm ludzkiego nadzoru — AI nie może samodzielnie podejmować wiążących decyzji bez możliwości interwencji człowieka.

Umowy z dostawcami AI

Dostawcy systemów wysokiego ryzyka mają obowiązek dostarczyć Ci instrukcje użytkowania, informacje o ograniczeniach systemu i dane do oceny ryzyka.

Najważniejsza praktyczna zasada: nie musisz być ekspertem od prawa AI. Musisz wiedzieć, co używasz, kto za to odpowiada i mieć dokumentację, że stosowałeś rozsądny nadzór.

Kary i enforcement — ile ryzykujesz

Skala kar finansowych

  • Do 35 milionów euro lub 7% globalnego obrotu — za naruszenie zakazów niedopuszczalnych zastosowań AI
  • Do 15 milionów euro lub 3% obrotu — za naruszenie obowiązków systemów wysokiego ryzyka
  • Do 7,5 miliona euro lub 1,5% obrotu — za błędne informacje organom nadzoru

Dla małej polskiej firmy z obrotem 10 mln zł — 3% to 300 000 zł. Organy biorą pod uwagę wielkość firmy i dobrą wolę przy ustalaniu kar.

Co zrobić teraz? 5 konkretnych kroków

Krok 1: Zrób inwentaryzację AI w firmie

2 godziny spotkania. Lista narzędzi AI w każdym dziale.

Krok 2: Oceń ryzyko każdego systemu

Pytanie: czy narzędzie pomaga podejmować decyzje wpływające na prawa, zatrudnienie, zdrowie osób?

Krok 3: Zweryfikuj umowy z dostawcami AI

Pisemne zapytanie o dokumentację AI Act compliance.

Krok 4: Zaktualizuj polityki wewnętrzne

Dodaj informacje o AI do regulaminów, polityk prywatności, umów.

Krok 5: Wyznacz osobę odpowiedzialną za AI governance

Jeden właściciel tematu. 2-3 godziny miesięcznie.

Podsumowanie: działaj spokojnie, ale działaj

AI Act nie ma Cię zniszczyć. Ma sprawić, że AI w biznesie będzie stosowane z głową. Zacznij od inwentaryzacji. Oceń ryzyko. Zrób 5 kroków w ciągu miesiąca.

AI to narzędzie, które wymaga odpowiedzialności. AI Act po prostu to formalizuje.

Najczesciej zadawane pytania

Od kiedy AI Act obowiązuje polskie firmy?

AI Act wchodzi w życie etapami. Zakazy najbardziej ryzykownych zastosowań obowiązują od 2 sierpnia 2025. Przepisy dotyczące systemów wysokiego ryzyka (rekrutacja, scoring) od 2 lutego 2026. Systemy AI ogólnego przeznaczenia od 2 sierpnia 2025.

Czy małe firmy też muszą stosować AI Act?

Tak, AI Act stosuje się do firm każdej wielkości działających na rynku UE. Jednak przy ustalaniu kar organy biorą pod uwagę wielkość firmy — dla MŚP kary są proporcjonalnie niższe. Ważna jest dobra wiara i rozsądne kroki compliance.

Co to znaczy, że jestem deployerem, a nie dostawcą AI?

Dostawca tworzy system AI. Deployer kupuje go i używa w swojej firmie. Większość polskich firm to deployerzy. Masz obowiązki przejrzystości i nadzoru, ale część dokumentacji spoczywa na dostawcy.

Jak AI Act ma się do RODO?

AI Act i RODO regulują inne aspekty. RODO dotyczy ochrony danych osobowych. AI Act dotyczy bezpieczeństwa i transparentności systemów AI. W praktyce systemy AI wysokiego ryzyka muszą być zgodne z oboma regulacjami.

Co zrobić jeśli dostawca nie zapewnia dokumentacji AI Act?

Złóż pisemne zapytanie. Jeśli dostawca nie reaguje — szukaj alternatywy lub samodzielnie oceń ryzyko. Zachowaj korespondencję jako dowód dobrej wiary wobec organów nadzoru.

PR

Paweł Reutt

Przedsiębiorca i praktyk AI. Prowadzi 4 firmy zarządzane z pomocą systemów AI. Autor innowacje.ai — bloga o sztucznej inteligencji dla polskich firm.

Wdrożenie AI w Twojej firmie?

Audyt procesów, dobór narzędzi, automatyzacja — od strategii po wdrożenie.

Pakiet Starter od 1 499 zł
Umów konsultację →

Nie przegap nastepnego artykulu

Dołacz do newslettera — AI dla firm, bez buzzwordow.