Grammarly, jedno z najpopularniejszych narzędzi do korekty tekstu na świecie, znalazło się w centrum kontrowersji. Serwis The Verge ujawnił, że firma wykorzystywała wypowiedzi ekspertów w swoich funkcjach AI bez ich wiedzy i zgody. Eksperci, których opinie były cytowane jako "rekomendacje", nie wiedzieli, że ich nazwiska i słowa trafiają do produktu komercyjnego.
Dla polskich przedsiębiorców to nie jest odległy problem z Doliny Krzemowej. Grammarly ma ponad 30 milionów aktywnych użytkowników dziennie, a w Polsce korzystają z niego tysiące firm - od copywriterów i agencji marketingowych po działy HR sprawdzające maile po angielsku. Jeśli narzędzie, któremu ufasz, ma problem z prawami autorskimi u źródła, to ryzyko spływa w dół - do Ciebie.
Sprawa Grammarly otwiera szerszą dyskusję: skąd narzędzia AI biorą dane, na których bazują ich "inteligentne" sugestie? I co to oznacza dla firm, które te sugestie wdrażają w swojej komunikacji?
Co dokładnie zrobił Grammarly
Według ustaleń The Verge, Grammarly stworzył funkcję AI, która oferowała użytkownikom sugestie stylistyczne oparte na opiniach ekspertów - lingwistów, redaktorów, specjalistów od komunikacji. Problem polega na tym, że ci eksperci nie wyrazili zgody na komercyjne wykorzystanie swoich wypowiedzi w produkcie AI. Ich słowa zostały użyte do budowania autorytetu narzędzia, a sami o tym nie wiedzieli.
To nie jest pierwszy taki przypadek w branży. OpenAI, Stability AI i Meta już wcześniej mierzyły się z zarzutami o trenowanie modeli na danych bez zgody autorów. Ale sprawa Grammarly jest inna - tutaj nie chodzi o anonimowe dane treningowe, lecz o konkretne osoby z imienia i nazwiska, których ekspertyza została "zaprzęgnięta" do produktu komercyjnego.
Grammarly po ujawnieniu sprawy usunął sporne treści, ale szkoda wizerunkowa już się dokonała. Firma, która zbudowała markę na zaufaniu (korekta Twoich tekstów wymaga dostępu do nich), okazała się nieostrożna w kwestii cudzych praw.
Jakie ryzyko niesie to dla polskiej firmy
Jeśli prowadzisz firmę w Polsce i korzystasz z narzędzi AI do tworzenia treści, problem ma trzy wymiary:
- Ryzyko prawne z AI Act i RODO - od lutego 2025 roku w UE obowiązują pierwsze przepisy AI Act. Dostawcy narzędzi AI muszą informować, na jakich danych trenowali modele. Jeśli korzystasz z narzędzia, które łamie prawa autorskie, a Twoja firma publikuje wygenerowane nim treści - odpowiedzialność może spaść też na Ciebie. Polskie sądy dopiero budują orzecznictwo w tym zakresie, ale kierunek jest jasny.
- Ryzyko reputacyjne - wyobraź sobie, że Twoja agencja marketingowa używa narzędzia AI do pisania treści dla klientów. Klient dowiaduje się, że narzędzie ma problemy z prawami autorskimi. Nawet jeśli prawnie jesteś czysty, zaufanie spada.
- Ryzyko operacyjne - Grammarly usunął funkcję po skandalu. Co jeśli narzędzie, na którym opierasz swój proces tworzenia treści, nagle wyłączy kluczową funkcjonalność? Firmy, które nie mają planu B, zostają z niczym.
Według raportu PARP z 2025 roku, 34% polskich MŚP korzysta z przynajmniej jednego narzędzia AI w codziennej pracy. Większość z nich nie sprawdza warunków licencyjnych tych narzędzi. To jak podpisywanie umów bez czytania drobnego druku - działa, dopóki nie przestanie.
Jak sprawdzić, czy Twoje narzędzie AI jest bezpieczne
Nie musisz być prawnikiem, żeby zminimalizować ryzyko. Oto praktyczna checklista dla właściciela firmy:
- Przeczytaj Terms of Service - szczególnie sekcje o prawach do danych treningowych i odpowiedzialności. Szukaj fraz typu "training data", "third-party content", "indemnification". Jeśli dostawca nie mówi wprost, skąd bierze dane - to czerwona flaga.
- Sprawdź, kto jest dostawcą modelu - Grammarly korzysta z własnych modeli, ale też z modeli OpenAI. Wiele "polskich" narzędzi AI to nakładki na ChatGPT. Ryzyko kumuluje się - Twoje narzędzie dziedziczy problemy swojego dostawcy.
- Wybieraj narzędzia z transparentną polityką danych - Anthropic (Claude) publikuje karty modeli z opisem danych treningowych. OpenAI ma Data Partnership Program. Grammarly do tej pory nie ujawniał szczegółów - i teraz wiemy dlaczego.
- Dokumentuj swój obieg pracy - zapisuj, jakie narzędzia AI używasz, do czego i kiedy. Jeśli kiedykolwiek będziesz musiał wykazać due diligence, taka dokumentacja jest na wagę złota.
Polskie firmy, które obsługują klientów z UE lub Niemiec (a takich w sektorze MŚP jest sporo), powinny być szczególnie uważne. Niemieccy partnerzy biznesowi coraz częściej pytają o compliance AI w łańcuchu dostawców.
Alternatywy i strategia na przyszłość
Sprawa Grammarly nie oznacza, że trzeba porzucić narzędzia AI. Oznacza, że trzeba je wybierać świadomie. Kilka praktycznych kroków:
Dywersyfikuj narzędzia. Nie opieraj całego procesu na jednym dostawcy. Jeśli korzystasz z Grammarly do korekty, miej pod ręką alternatywę - LanguageTool (open source, serwery w UE), ProWritingAid, albo wbudowaną korektę w Microsoft 365 Copilot. Dla polskiego języka LanguageTool ma zaskakująco dobre wsparcie.
Rozdziel korektę od generowania. Narzędzie do poprawiania literówek to co innego niż narzędzie generujące treści od zera. Ryzyko prawnoautorskie jest znacznie wyższe przy generowaniu. Przy korekcie istniejącego tekstu - niższe, bo bazą jest Twoja oryginalna praca.
Buduj wewnętrzne kompetencje. Polskie firmy, które zainwestowały w szkolenia z obsługi narzędzi AI (prompt engineering, weryfikacja wyników, znajomość ograniczeń), są mniej podatne na tego typu ryzyka. Pracownik, który rozumie jak działa AI, nie przyjmie bezkrytycznie każdej sugestii.
Śledź regulacje. AI Act wchodzi etapami do 2027 roku. Polskie Centrum Kompetencji AI (NASK) publikuje materiały edukacyjne. Warto je śledzić - nie dlatego, że regulacje są fascynujące, ale dlatego, że kary za nieprzestrzeganie mogą sięgać 3% rocznego obrotu.
Co z tego wynika
Sprawa Grammarly to sygnał ostrzegawczy, nie powód do paniki. Narzędzia AI są zbyt użyteczne, żeby z nich rezygnować - ale zbyt nowe, żeby im ślepo ufać. Dla polskiego przedsiębiorcy kluczowe jest jedno: wiedz, czego używasz, na jakich warunkach i co zrobisz, gdy coś pójdzie nie tak.
Firmy, które dziś poświęcą godzinę na przegląd swoich narzędzi AI i ich warunków użytkowania, zaoszczędzą sobie potencjalnie tygodni problemów w przyszłości. To nie jest kwestia "czy" branża AI będzie miała więcej takich skandali - to kwestia "kiedy".