OpenAI od kilku miesięcy systematycznie zmienia sposób, w jaki ChatGPT reaguje na rozmowy dotyczące zdrowia psychicznego. Po serii kontrowersji - w tym przypadków, gdy chatbot udzielał nieodpowiednich rad osobom w kryzysie - firma wprowadziła nowe zabezpieczenia. Model ma teraz rozpoznawać sygnały ostrzegawcze i kierować użytkowników do profesjonalnej pomocy zamiast odgrywać rolę terapeuty.
Dla polskich przedsiębiorców to nie jest abstrakcyjna dyskusja o etyce w Dolinie Krzemowej. Jeśli Twoi pracownicy korzystają z ChatGPT w pracy - a według danych Eurostat z 2025 roku robi to już ponad 35% pracowników biurowych w UE - te zmiany dotyczą bezpośrednio Twojej firmy. Pytanie brzmi: czy wiesz, jak Twój zespół używa narzędzi AI i jakie to niesie ryzyka?
Przyjrzyjmy się, co dokładnie się zmieniło i co z tego wynika dla polskich małych i średnich firm.
Co konkretnie zmienił OpenAI?
OpenAI wprowadził kilka mechanizmów bezpieczeństwa w ChatGPT dotyczących zdrowia psychicznego. Po pierwsze, model przestał wchodzić w długie rozmowy quasi-terapeutyczne. Wcześniej użytkownik mógł prowadzić z ChatGPT wielogodzinną "sesję" o swoich problemach emocjonalnych, a chatbot chętnie odpowiadał, budując fałszywe poczucie profesjonalnej pomocy.
Teraz ChatGPT ma rozpoznawać sygnały kryzysowe - myśli samobójcze, autoagresję, głęboki kryzys psychiczny - i reagować w trzech krokach:
- Rozpoznanie - model identyfikuje, że rozmowa dotyczy poważnych problemów zdrowia psychicznego
- Przekierowanie - zamiast udzielać rad, sugeruje kontakt z profesjonalistą lub podaje numery telefonów zaufania
- Ograniczenie - nie wchodzi w rolę terapeuty i nie symuluje diagnozy
OpenAI współpracował przy tych zmianach z organizacjami zajmującymi się zdrowiem psychicznym, w tym z Crisis Text Line. Firma przyznała otwarcie, że wcześniejsze wersje modelu nie radziły sobie z takimi sytuacjami wystarczająco dobrze - i to jest uczciwe podejście, które buduje zaufanie do narzędzia.
Dlaczego polskie firmy powinny zwrócić na to uwagę?
W Polsce temat zdrowia psychicznego w pracy nabiera tempa. Według raportu "Zdrowie psychiczne w środowisku pracy" (Instytut Medycyny Pracy, 2025), ponad 40% polskich pracowników deklaruje podwyższony poziom stresu zawodowego. Jednocześnie dostęp do psychologa czy psychiatry jest ograniczony - kolejki w NFZ sięgają kilku miesięcy.
W tym kontekście pojawia się realne ryzyko: pracownik, który nie może dostać się do specjalisty, zaczyna rozmawiać z ChatGPT o swoich problemach. Nie dlatego, że uważa chatbota za terapeutę, ale dlatego, że jest dostępny o 23:00, nie ocenia i odpowiada natychmiast.
Dla pracodawcy to rodzi konkretne pytania:
- Odpowiedzialność prawna - jeśli pracownik korzysta z firmowego konta ChatGPT i dojdzie do incydentu, kto odpowiada? Polskie prawo pracy nakłada na pracodawcę obowiązek dbania o bezpieczeństwo i higienę pracy, w tym zdrowie psychiczne
- Dane wrażliwe - rozmowy o problemach osobistych mogą zawierać dane medyczne. Jeśli trafiają na serwery OpenAI przez firmowe konto, możesz mieć problem z RODO
- Fałszywe poczucie bezpieczeństwa - nowe zabezpieczenia OpenAI są krokiem w dobrym kierunku, ale nie zastąpią realnego wsparcia psychologicznego w firmie
Praktyczne kroki dla Twojej firmy
Nie chodzi o to, żeby zakazać pracownikom korzystania z ChatGPT. To narzędzie realnie podnosi produktywność - według McKinsey o 20-40% w zadaniach związanych z tworzeniem treści i analizą danych. Chodzi o świadome zarządzanie tym, jak AI jest używane w organizacji.
1. Stwórz prostą politykę korzystania z AI. Nie musi to być 30-stronicowy dokument. Wystarczy jedna strona z jasnymi zasadami: do czego używamy AI w firmie, jakich danych nie wprowadzamy do chatbotów, gdzie szukać pomocy w sprawach osobistych. Firma z Wrocławia zatrudniająca 25 osób, z którą współpracowałem, wdrożyła taką politykę w dwa dni - i od razu zmniejszyła liczbę przypadków wklejania danych klientów do ChatGPT.
2. Rozważ ChatGPT Team lub Enterprise. Wersje biznesowe ChatGPT (Team od 25 USD/miesiąc za osobę) dają lepszą kontrolę nad danymi. OpenAI deklaruje, że rozmowy z kont Team i Enterprise nie są używane do trenowania modeli. Dla firmy 10-osobowej to koszt około 1000 zł miesięcznie - mniej niż jedna kara za naruszenie RODO.
3. Nie polegaj na AI jako zastępstwie wsparcia psychologicznego. Jeśli Twoja firma nie oferuje żadnego programu wsparcia dla pracowników, nowe zabezpieczenia ChatGPT niewiele zmienią. W Polsce coraz więcej firm MSP korzysta z platform typu Wellbee czy HearMe, które oferują anonimowe konsultacje psychologiczne od 15 zł za pracownika miesięcznie.
4. Przeszkol zespół. 15-minutowe spotkanie na temat tego, czym AI jest (narzędzie do pracy), a czym nie jest (terapeuta, prawnik, lekarz), potrafi zmienić podejście całego zespołu. Szczególnie w mniejszych firmach, gdzie relacje są bliższe i łatwiej o otwartą rozmowę.
Co to mówi o kierunku rozwoju AI?
Zmiany w ChatGPT to część szerszego trendu. Firmy AI zaczynają rozumieć, że "szybciej, więcej, lepiej" nie wystarczy. Użytkownicy - i regulatorzy - oczekują odpowiedzialności. Unijna ustawa o AI (AI Act), która wchodzi w pełną moc w 2026 roku, klasyfikuje systemy AI wpływające na zdrowie jako "wysokiego ryzyka" z dodatkowymi wymaganiami dotyczącymi nadzoru i transparentności.
Dla polskich firm to sygnał: wdrażanie AI w organizacji to nie tylko kwestia produktywności. To również zarządzanie ryzykiem. Firmy, które teraz wypracują dobre praktyki korzystania z narzędzi AI, będą miały przewagę, gdy regulacje się zaostrzą.
Warto też uczciwie powiedzieć, czego nie wiemy. Nie ma jeszcze długoterminowych badań na temat wpływu regularnych rozmów z chatbotami AI na zdrowie psychiczne. OpenAI robi krok w dobrą stronę, ale te zabezpieczenia są nowe i ich skuteczność dopiero się zweryfikuje w praktyce.
Jedno jest pewne: AI w firmie to jak każde inne narzędzie. Młotek jest przydatny, dopóki ktoś nie zacznie nim wbijać śrub. Rolą właściciela firmy jest zadbać o to, żeby zespół wiedział, kiedy sięgnąć po śrubokręt.
Źródło: OpenAI Safety