Grammarly właśnie wyłączył funkcję, która generowała porady pisarskie przy użyciu sztucznej inteligencji, ale podpisywała je nazwiskami prawdziwych redaktorów. To nie był drobny błąd interfejsu - to był systemowy problem z przejrzystością. I dotyczy każdej firmy, która korzysta z narzędzi AI do tworzenia treści.
Funkcja "Authorship" w Grammarly działała tak: użytkownik dostawał sugestię stylistyczną lub merytoryczną, a obok niej widniało imię i nazwisko konkretnego eksperta. Problem w tym, że ci eksperci nie pisali tych porad. Robiła to sztuczna inteligencja, a ludzie byli tylko "twarzą" wygenerowanego tekstu. Gdy sprawa wyszła na jaw, Grammarly zareagował szybko i wyłączył narzędzie.
Dla polskich małych i średnich firm to nie jest odległa amerykańska ciekawostka. To sygnał ostrzegawczy, który warto potraktować poważnie - szczególnie teraz, gdy coraz więcej firm wdraża AI do codziennej pracy z tekstem.
Co dokładnie zrobił Grammarly i dlaczego to problem
Grammarly oferuje swoje usługi ponad 40 milionom użytkowników na całym świecie. W ramach rozszerzenia oferty firma wprowadziła funkcję, w której sugestie dotyczące pisania - od stylu po strukturę zdań - były prezentowane jako opinie konkretnych, istniejących redaktorów i autorów.
W praktyce wyglądało to tak: widzisz podpowiedź "Zmień ten akapit na bardziej bezpośredni ton" i obok nią imię np. "Sarah Mitchell, redaktorka". Naturalnie zakładasz, że Sarah przeczytała Twój tekst i dała Ci personalną wskazówkę. Tymczasem Sarah mogła nawet nie wiedzieć, że jej nazwisko jest używane w tym kontekście, a porady generował algorytm.
To nie jest kwestia techniczna. To kwestia zaufania. Gdy narzędzie udaje człowieka, łamie podstawową umowę z użytkownikiem. Firma Engadget, która ujawniła sprawę, wskazała, że Grammarly nie informował jasno, iż porady pochodzą z modelu AI - nie od ludzi, których nazwiska były wyświetlane.
Polskie firmy i AI w copywritingu - gdzie jesteśmy
Według raportu PwC z 2025 roku, 34% polskich MŚP korzysta z narzędzi AI do tworzenia treści marketingowych. Grammarly, ChatGPT, Jasper, Copy.ai - te nazwy pojawiają się coraz częściej w budżetach marketingowych małych firm. Miesięczny koszt to zwykle 80-200 zł, co przy cenach copywriterów (300-800 zł za artykuł) wygląda atrakcyjnie.
Problem nie leży w samym korzystaniu z AI. Problem zaczyna się tam, gdzie firma traci kontrolę nad tym, co jest prawdziwe, a co wygenerowane. Oto trzy scenariusze, które widzę u swoich klientów:
- Opisy produktów w sklepie internetowym - firma generuje 200 opisów przez AI, publikuje je bez weryfikacji, a potem dostaje reklamacje, bo specyfikacje nie zgadzają się ze stanem faktycznym.
- Posty na LinkedIn z "eksperckimi" cytatami - AI generuje wypowiedź i przypisuje ją "naszemu specjaliście", który nigdy takiego zdania nie powiedział.
- Oferty handlowe z danymi "case study" - narzędzie AI wymyśla liczby i przykłady wdrożeń, które nigdy nie miały miejsca.
Każdy z tych przypadków to wariant tego samego problemu, który miał Grammarly: AI podaje się za coś, czym nie jest.
Jak bezpiecznie korzystać z AI do treści - konkretna checklista
Nie namawiam do rezygnacji z narzędzi AI. Sam z nich korzystam codziennie - Claude, ChatGPT, Perplexity. Ale po sprawie Grammarly warto wprowadzić w firmie kilka zasad, zanim regulacje prawne (AI Act wchodzi w pełni w życie w 2026) wymuszą to odgórnie.
1. Oznaczaj, co pochodzi z AI. Nie musisz pisać "ten tekst napisał robot" pod każdym postem. Ale wewnętrznie powinno być jasne, które treści przeszły przez AI, a które napisał człowiek. Prosty tag w systemie CMS wystarczy. Koszt wdrożenia: zero złotych, 15 minut konfiguracji.
2. Weryfikuj fakty przed publikacją. AI halucynuje - to nie wada, to cecha obecnych modeli językowych. GPT-4o ma wskaźnik halucynacji na poziomie 2-3% według benchmarku SimpleQA. Brzmi niewiele, ale przy 100 tekstach miesięcznie to 2-3 artykuły z fałszywymi danymi. Jeden taki artykuł wysłany do klienta może kosztować Cię kontrakt.
3. Nie przypisuj AI-owych treści konkretnym ludziom. To dokładnie ten błąd, który popełnił Grammarly. Jeśli Twój handlowiec "podpisuje" maila, którego w całości napisał ChatGPT - to nie personalizacja, to wprowadzanie w błąd. Lepiej napisać krócej, ale szczerze.
4. Testuj narzędzia na małej próbce. Zanim wdrożysz nowe narzędzie AI w całej firmie, przetestuj je na 10-20 treściach. Sprawdź, czy nie dodaje zmyślonych źródeł, czy nie "wymyśla" danych, czy styl pasuje do Twojej marki. Tydzień testów oszczędzi miesiące naprawiania reputacji.
AI Act i polskie prawo - co się zmienia
Europejski AI Act, który od sierpnia 2025 roku nakłada pierwsze obowiązki na firmy, wymaga przejrzystości w jednym konkretnym przypadku: gdy użytkownik wchodzi w interakcję z systemem AI, musi o tym wiedzieć. Grammarly działał w szarej strefie - technicznie informował o AI w regulaminie, ale w interfejsie użytkownika sugerował, że porady pochodzą od ludzi.
Dla polskiej firmy zatrudniającej 5-50 osób oznacza to jedno: lepiej wyprzedzić regulacje niż gonić za nimi. Firmy, które teraz wprowadzą wewnętrzną politykę korzystania z AI (nawet jednostronicowy dokument), będą miały spokojną głowę, gdy UOKiK zacznie sprawdzać zgodność z AI Act.
Praktyczny krok: wyznacz jedną osobę w firmie odpowiedzialną za "higienę AI". Nie potrzebujesz do tego osobnego etatu - wystarczy, że ktoś z zespołu marketingu lub IT poświęci 2 godziny miesięcznie na przegląd tego, jak firma korzysta z narzędzi generatywnych.
Co z tego wynika dla Twojego biznesu
Sprawa Grammarly nie jest skandalem - to korekta kursu. Firma szybko zareagowała, wyłączyła funkcję i przyznała się do problemu. To dobry znak dla całej branży, bo pokazuje, że presja użytkowników działa.
Dla polskiej firmy lekcja jest prosta: AI to narzędzie, nie autor. Korzystaj z niego do przyspieszenia pracy, generowania szkiców, tłumaczeń, analiz. Ale nie pozwól, żeby AI udawało kogoś, kim nie jest - ani eksperta, ani Twojego pracownika, ani Ciebie samego.
Firmy, które dziś wprowadzą przejrzyste zasady korzystania z AI, zyskają coś cenniejszego niż zgodność z regulacjami. Zyskają zaufanie klientów, którzy coraz lepiej rozpoznają treści generowane przez maszyny i coraz bardziej cenią autentyczność.
Źródło: Engadget - Grammarly has disabled its tool offering generative AI feedback credited to real writers