Spór sądowy między Elonem Muskiem a OpenAI ciągnie się od ponad roku i właśnie wszedł w kolejną gorącą fazę. Musk twierdzi, że firma odeszła od pierwotnej misji - rozwijania AI dla dobra ludzkości - i przekształciła się w komercyjnego giganta wartego setki miliardów dolarów. Sam Altman odpowiada, że to Musk pierwszy chciał komercjalizacji, gdy próbował przejąć kontrolę nad firmą w 2018 roku.
Z perspektywy polskiego przedsiębiorcy ta batalia może wydawać się odległym dramatem z Doliny Krzemowej. Ale w praktyce dotyczy każdej firmy, która używa ChatGPT do obsługi klienta, generowania treści czy analizy danych. Wynik sporu wpłynie na to, jak długo będziesz mógł polegać na konkretnej wersji modelu, ile zapłacisz za API w przyszłym roku i czy twoja automatyzacja oparta na GPT-4 nie przestanie działać z dnia na dzień.
Nie chodzi tu o to, czy ChatGPT zniknie - tego scenariusza praktycznie nie ma. Chodzi o coś bardziej praktycznego: o ryzyko uzależnienia całego biznesu od jednego dostawcy, którego strategia, ceny i dostępność modeli mogą się zmienić w wyniku decyzji sądu lub zmiany struktury własnościowej.
O co naprawdę toczy się ten spór
OpenAI powstało w 2015 roku jako organizacja non-profit. Miało rozwijać sztuczną inteligencję otwarcie, z myślą o ludzkości, a nie o akcjonariuszach. W 2019 roku firma utworzyła ramię komercyjne, żeby przyciągnąć kapitał potrzebny do trenowania coraz większych modeli. Microsoft zainwestował 13 miliardów dolarów. Dziś OpenAI jest wyceniane na ponad 150 miliardów dolarów i planuje kolejną restrukturyzację, która jeszcze bardziej oddali firmę od pierwotnej misji.
Musk - który był współzałożycielem i odszedł w 2018 - twierdzi, że to złamanie pierwotnej umowy. Domaga się zwrotu inwestycji lub zablokowania konwersji na pełnoprawną spółkę komercyjną. Altman z kolei pokazał e-maile z 2017 roku, w których sam Musk pisał, że bez komercjalizacji firma nie ma szans w wyścigu z Google.
Z punktu widzenia polskiego biznesu kluczowe są trzy scenariusze. Pierwszy: sąd nakazuje OpenAI zachować strukturę non-profit, co spowalnia tempo rozwoju nowych modeli i podnosi ceny (mniej kapitału = wyższe marże na istniejących produktach). Drugi: Musk wygrywa rekompensatę finansową, ale firma działa dalej - wtedy nic się nie zmienia dla użytkowników. Trzeci: rośnie presja regulacyjna w USA i UE, co może wpłynąć na to, jakie funkcje będą dostępne na rynku europejskim.
Praktyczne ryzyka dla polskich firm
Pracując z polskimi firmami z sektora MŚP widzę regularnie ten sam wzorzec: ktoś zbudował obieg pracy oparty wyłącznie na ChatGPT - obsługa klienta, generowanie ofert, podsumowania spotkań - i nie ma planu B. Gdy OpenAI wycofało model GPT-4 base w lipcu 2024, część klientów odkryła, że ich automatyzacje przestały działać poprawnie. Nowe modele dawały inne odpowiedzi, czasem gorsze dla konkretnych zastosowań po polsku.
Drugie ryzyko to ceny. W ostatnich 18 miesiącach OpenAI obniżyło ceny API kilkukrotnie, ale wprowadziło też nowe, droższe poziomy (GPT-4 Turbo, o1, o3). Firma walcząca o przetrwanie misji non-profit może być zmuszona do innych decyzji niż firma walcząca o udziały w rynku. Restrukturyzacja własnościowa zwykle prowadzi do presji na monetyzację - inwestorzy chcą zwrotu z 150 miliardów wyceny.
Trzecie ryzyko: dostępność funkcji w UE. RODO i AI Act już teraz powodują, że niektóre funkcje (np. zaawansowany Voice Mode) wchodzą do Europy z opóźnieniem. Jeśli OpenAI będzie pod większą presją prawną w USA, może zracjonalizować swoją obecność na rynkach o niższej rentowności - a Polska jest takim rynkiem.
Dywersyfikacja jako standard, nie luksus
Pracuję dziś z firmami, które używają jednocześnie trzech-czterech modeli AI w zależności od zadania. Claude od Anthropic do długich analiz dokumentów i pisania po polsku (radzi sobie świetnie z polską gramatyką i stylistyką). GPT-4 lub o1 do zadań, gdzie liczy się szybkość i ekosystem narzędzi (Custom GPTs, integracje). Gemini do pracy z Google Workspace. Mistral lub Llama lokalnie tam, gdzie dane nie mogą wychodzić poza firmę.
To nie jest fanaberia. To zarządzanie ryzykiem. Konkretne przykłady z mojej praktyki:
- Kancelaria prawna - Claude do analizy umów (lepiej radzi sobie z długim kontekstem 200 tys. tokenów), GPT-4 do generowania pism procesowych z konkretnych szablonów. Koszt rozdzielenia: 0 zł, oba narzędzia i tak były potrzebne.
- Firma e-commerce - Gemini do analizy arkuszy z Google Sheets, ChatGPT do obsługi reklamacji, lokalny model open source do klasyfikacji danych klientów (nie wychodzą do chmury).
- Agencja marketingowa - testuje równolegle dwa modele do generowania treści, mierzy CTR i konwersje, wybiera nie ten "lepszy", tylko ten, który daje wyższy wynik biznesowy.
Drugi element dywersyfikacji to abstrakcja. Zamiast pisać kod, który wywołuje bezpośrednio API OpenAI, używaj warstwy pośredniej - na przykład OpenRouter, LiteLLM albo własny prosty wrapper. Kosztuje to dwa dni pracy programisty na początku projektu, a oszczędza tygodnie, gdy musisz przemigrować z jednego modelu na drugi.
Co zrobić w najbliższym kwartale
Niezależnie od tego, jak skończy się sprawa Musk vs. OpenAI, polskie firmy powinny potraktować ją jako sygnał alarmowy. Nie do paniki, ale do zrobienia trzech konkretnych rzeczy.
Po pierwsze, zinwentaryzuj zależności. Wypisz wszystkie miejsca, gdzie firma używa ChatGPT lub API OpenAI. Zapytaj zespół, co przestałoby działać, gdyby konto zostało zablokowane lub model zmieniony na nowszą wersję bez zapowiedzi. U większości firm okazuje się, że jest tego więcej, niż wszyscy zakładali.
Po drugie, przetestuj alternatywę dla najważniejszego zastosowania. Jeśli ChatGPT obsługuje twoich klientów, spędź jeden dzień na sprawdzeniu, czy Claude albo Gemini robi to równie dobrze (czasem lepiej, czasem gorzej, ale zawsze warto wiedzieć). Nie chodzi o natychmiastową migrację, tylko o znajomość terenu na wypadek, gdyby trzeba było działać szybko.
Po trzecie, ucz zespół myślenia w kategoriach "narzędzie AI", a nie "ChatGPT". Różnica wydaje się drobna, ale jest fundamentalna. Pracownik, który zna tylko jedno narzędzie, jest zakładnikiem jego dostawcy. Pracownik, który rozumie, jak działają duże modele językowe, potrafi przełożyć swoją pracę na każdy z nich w godzinę.
Spór Muska z Altmanem prawdopodobnie skończy się ugodą lub rekompensatą finansową, a ChatGPT będzie działał dalej. Ale logika ryzyka biznesowego pozostaje. Firma, która opiera krytyczne procesy na pojedynczym dostawcy oprogramowania - jakimkolwiek - jest w słabszej pozycji niż firma, która ma kontrolę nad swoimi narzędziami. To prawda od dziesięcioleci, AI niczego tu nie zmienia. Zmienia tylko skalę i tempo, w jakim koszt braku planu B może zaboleć.