W marcu 2026 roku media technologiczne obiegła informacja, która powinna zainteresować każdego właściciela firmy korzystającego z narzędzi AI. Pentagon - największy pojedynczy klient wielu firm technologicznych - zaczął aktywnie szukać alternatyw dla modeli Anthropica, twórcy Claude'a. Powód? Anthropic wprowadził ograniczenia dotyczące wykorzystania swoich modeli w zastosowaniach wojskowych, co postawiło Departament Obrony USA w niewygodnej sytuacji uzależnienia od dostawcy, który może w każdej chwili zmienić warunki współpracy.
Dla polskich małych i średnich firm ta historia może wydawać się odległa - w końcu to spór między amerykańskim rządem a kalifornijską firmą technologiczną. Ale mechanizm, który tu widzimy, dotyczy nas bezpośrednio. Jeśli Pentagon z budżetem przekraczającym 800 miliardów dolarów rocznie może zostać zaskoczony zmianą polityki dostawcy AI, to co dopiero polska firma produkcyjna z Radomia albo agencja marketingowa z Wrocławia?
Ta sytuacja to nie abstrakcyjna lekcja z podręcznika zarządzania ryzykiem. To konkretny sygnał ostrzegawczy, który warto przeanalizować pod kątem własnego biznesu.
Co dokładnie się wydarzyło i dlaczego to ważne
Anthropic, firma stojąca za modelem Claude, od początku swojego istnienia komunikowała silne przywiązanie do kwestii bezpieczeństwa AI. W praktyce oznaczało to między innymi ograniczenia w wykorzystaniu modeli do celów, które firma uznaje za potencjalnie szkodliwe - w tym zastosowań wojskowych. Pentagon, który zaczął integrować Claude'a w swoich procesach analitycznych i logistycznych, nagle stanął przed perspektywą utraty dostępu do narzędzia, na którym zbudował część swojej infrastruktury.
Reakcja była natychmiastowa: Departament Obrony zaczął rozwijać alternatywne rozwiązania i nawiązywać współpracę z innymi dostawcami modeli językowych. Według doniesień TechCrunch, prace obejmują zarówno wdrażanie konkurencyjnych modeli komercyjnych, jak i rozwój własnych, wewnętrznych rozwiązań.
Tu pojawia się uniwersalna lekcja. Nie chodzi o to, czy Anthropic miał prawo wprowadzić ograniczenia - to ich produkt i ich decyzja. Chodzi o to, że każdy dostawca technologii AI może w dowolnym momencie zmienić regulamin, podnieść ceny, ograniczyć funkcjonalność lub po prostu zniknąć z rynku. I to dotyczy wszystkich: OpenAI, Google'a, Anthropica, Mistral i każdego innego gracza.
Uzależnienie od jednego narzędzia AI - realne ryzyko dla polskich firm
Pracując z polskimi firmami jako konsultant, widzę powtarzający się schemat. Firma odkrywa ChatGPT lub Claude'a, zaczyna go intensywnie wykorzystywać, buduje wokół niego procesy - i po kilku miesiącach jest w sytuacji, gdzie jedno narzędzie staje się krytyczne dla codziennego funkcjonowania. Nie ma planu B, nie ma dokumentacji procesów, nie ma alternatywnych obiegów pracy.
Zobaczmy, jak to wygląda w praktyce. Agencja copywriterska z Krakowa, z którą rozmawiałem w zeszłym roku, zbudowała cały swój obieg produkcji treści wokół Claude'a - od briefów klientów, przez pierwsze szkice, po edycję finalną. Gdy w listopadzie 2025 Anthropic miał kilkugodzinną awarię, agencja dosłownie stanęła. Pięciu copywriterów siedziało bez możliwości pracy, bo nikt nie zadbał o to, żeby te same prompty i procesy działały również z innym modelem.
Podobne ryzyko dotyczy firm korzystających z API. Jeśli zbudowałeś automatyzację obsługi klienta na API jednego dostawcy, a ten dostawca podniesie cenę o 300% (co się zdarzało - wystarczy przypomnieć sobie historię zmian cennikowych API w branży technologicznej), to masz problem. Nie dlatego, że nie stać cię na nową cenę, ale dlatego, że migracja na inny model wymaga czasu, testów i pieniędzy.
Według danych Polskiego Instytutu Ekonomicznego z 2025 roku, już ponad 34% polskich MŚP deklarowało regularne korzystanie z narzędzi generatywnej AI w codziennej pracy. To oznacza, że problem uzależnienia od jednego dostawcy dotyczy setek tysięcy firm w Polsce.
Jak budować odporność - praktyczny plan dla MŚP
Nie trzeba mieć budżetu Pentagonu, żeby zabezpieczyć się przed ryzykiem utraty dostępu do narzędzia AI. Wystarczy systematyczne podejście i kilka konkretnych kroków.
Po pierwsze: dokumentuj swoje prompty i procesy. Każdy prompt, który działa dobrze w Claude'u, powinien być zapisany i przetestowany również w ChatGPT i Gemini. To nie podwaja pracy - to jednorazowy wysiłek, który daje ci wolność wyboru. W praktyce oznacza to stworzenie prostego arkusza, gdzie zapisujesz: zadanie, prompt, model, jakość wyniku. Gdy testujesz ten sam prompt w trzech modelach, po dwóch tygodniach masz pełną mapę swoich możliwości.
Po drugie: nie buduj automatyzacji na sztywno pod jedno API. Jeśli korzystasz z narzędzi typu Make (dawny Integromat) czy n8n do automatyzacji, projektuj swoje obiegi pracy z warstwą abstrakcji. W praktyce oznacza to, że moduł odpowiedzialny za komunikację z modelem AI powinien być łatwy do wymiany, bez przebudowy całego procesu. Narzędzia takie jak LiteLLM pozwalają przełączać się między dostawcami modeli bez zmiany kodu - wystarczy zmiana jednego parametru konfiguracyjnego.
Po trzecie: rozważ modele lokalne jako plan awaryjny. Modele open source, takie jak Llama 3 od Mety czy Mistral, można uruchomić na własnym serwerze lub na polskim hostingu. Nie będą tak dobre jak najnowszy Claude czy GPT-5 w każdym zadaniu, ale dla wielu zastosowań biznesowych - klasyfikacja maili, generowanie prostych tekstów, analiza dokumentów - są wystarczające. Firma z branży logistycznej, z którą współpracowałem, uruchomiła Mistral 7B na serwerze w OVH za około 200 złotych miesięcznie. Model obsługuje klasyfikację zapytań od klientów z dokładnością 89% - nie idealnie, ale wystarczająco jako rozwiązanie awaryjne.
Po czwarte: negocjuj warunki umów. Jeśli płacisz za plan biznesowy u dostawcy AI, masz prawo pytać o gwarancje ciągłości usługi, warunki wypowiedzenia i politykę zmian cenowych. Większość polskich firm tego nie robi, traktując subskrypcję AI jak abonament na Netflixa. Tymczasem jeśli narzędzie AI jest krytyczne dla twojego biznesu, powinno być traktowane jak każdy inny dostawca strategiczny - z umową SLA i planem ciągłości działania.
Geopolityka AI - wymiar, który polskie firmy ignorują
Konflikt Pentagon-Anthropic ma jeszcze jeden wymiar, o którym rzadko się mówi w kontekście polskich MŚP: geopolitykę technologiczną. Wszystkie wiodące modele AI powstają w USA lub Europie Zachodniej (z rosnącą konkurencją ze strony Chin, głównie DeepSeek). Polskie firmy są więc podwójnie zależne - od dostawcy technologii i od stabilności relacji geopolitycznych.
To nie jest scenariusz science fiction. W 2022 roku widzieliśmy, jak sankcje technologiczne mogą z dnia na dzień odciąć całe kraje od usług cyfrowych. Rosyjskie firmy straciły dostęp do wielu narzędzi chmurowych praktycznie z dnia na dzień. Oczywiście Polska jest w zupełnie innej sytuacji geopolitycznej, ale sam mechanizm - nagłe ograniczenie dostępu do technologii z przyczyn politycznych - jest realny i warto go brać pod uwagę.
Unia Europejska pracuje nad własnymi inicjatywami w zakresie suwerenności AI, ale postęp jest powolny. Projekt EuroHPC rozwija infrastrukturę obliczeniową, a inicjatywy takie jak francuski Mistral czy niemiecki Aleph Alpha budują europejskie alternatywy. Dla polskich firm to potencjalna szansa na dywersyfikację w kierunku europejskich dostawców, którzy podlegają tym samym regulacjom RODO i AI Act.
Warto też zwrócić uwagę na rosnący ekosystem polskich firm AI. Firmy takie jak SentiOne czy Voicelab rozwijają wyspecjalizowane modele językowe z dobrą obsługą języka polskiego. Nie zastąpią one ogólnych modeli typu Claude czy GPT w każdym zadaniu, ale w specyficznych zastosowaniach - analiza sentymentu polskich tekstów, transkrypcja polskiej mowy, obsługa klienta po polsku - mogą być lepszym i bezpieczniejszym wyborem.
Czego nie zrobi za ciebie żadne narzędzie
Trzeba uczciwie powiedzieć, że pełna niezależność od zewnętrznych dostawców AI jest dla większości polskich MŚP nieosiągalna i niepotrzebna. Trenowanie własnych dużych modeli językowych to koszt liczony w milionach dolarów. Utrzymanie infrastruktury GPU na własność to wydatek, który ma sens tylko dla największych organizacji.
Celem nie jest więc całkowita niezależność, ale świadome zarządzanie zależnością. Różnica jest ogromna. Firma, która wie, że jest zależna od Claude'a, ma przetestowane alternatywy i udokumentowane procesy, jest w zupełnie innej sytuacji niż firma, która nawet nie zdaje sobie sprawy z ryzyka.
Praktyczna lista kontrolna na start wygląda tak:
- Zrób inwentaryzację: gdzie w firmie używasz AI i które z tych zastosowań są krytyczne?
- Dla każdego krytycznego zastosowania przetestuj przynajmniej jedną alternatywę
- Zapisz swoje najważniejsze prompty i procesy w jednym miejscu (nie tylko w historii czatów)
- Sprawdź, czy twoje automatyzacje oparte na API mają możliwość szybkiego przełączenia dostawcy
- Ustal budżet na testowanie nowych narzędzi - nawet 200-300 złotych miesięcznie na subskrypcje alternatywnych modeli to sensowna inwestycja
- Raz na kwartał rób przegląd: czy twoi dostawcy AI zmienili warunki, cennik, politykę dostępu?
Historia Pentagonu i Anthropica to nie anegdota z odległego świata. To zapowiedź tego, jak będzie wyglądał rynek AI w najbliższych latach - dynamiczny, nieprzewidywalny, z częstymi zmianami reguł gry. Polskie firmy, które zbudują odporność na te zmiany już teraz, będą miały przewagę nad tymi, które zareagują dopiero wtedy, gdy ich ulubione narzędzie przestanie działać.
Bo pytanie nie brzmi "czy" twój dostawca AI zmieni warunki współpracy. Pytanie brzmi "kiedy" - i czy będziesz na to gotowy.
Źródło: TechCrunch - The Pentagon is developing alternatives to Anthropic, report says