43 000 dolarów w 2019. Dwadzieścia dolarów w 2024. Co się stało?
Zacznę od liczby, która powinna Cię zatrzymać na dłużej.
W 2019 roku OpenAI wydało około 43 000 dolarów na wytrenowanie modelu GPT-2 — 32 chipy TPU v3 pracowały przez 168 godzin. Model, który wtedy był uznawany za tak niebezpieczny, że firma bała się go opublikować.
W czerwcu 2024 roku Andrej Karpathy — były szef AI w Tesli, jeden z twórców OpenAI — odtworzył ten sam model w 90 minut za 20 dolarów. Na jednym węźle 8xH100, używając zoptymalizowanego kodu w C.
To nie jest spadek o 10%. Nie o 50%. To spadek o ponad 2000x w sześć lat.
I to nie jest anomalia. To jest prawidłowość. Ma swoją nazwę, swoje równanie matematyczne i ponad 90 lat historii. Nazywa się Prawo Wrighta.
Każde skumulowane podwojenie produkcji obniża koszt jednostkowy o stały procent — zwykle 20-30%. To nie teoria. To obserwacja potwierdzona w lotnictwie, motoryzacji, energetyce słonecznej. A teraz — w AI.
Mam wrażenie, że większość polskich przedsiębiorców nie zdaje sobie sprawy z tego, co te liczby oznaczają dla ich firm. Nie za pięć lat. Teraz.
Prawo Wrighta — 90 lat i ani jednego wyjątku
Theodore Wright był inżynierem lotniczym. W 1936 roku opublikował pracę, w której opisał coś prostego: im więcej samolotów budowała fabryka, tym tańszy był każdy następny. Nie dlatego, że materiały taniały. Dlatego, że ludzie uczyli się produkować lepiej.
Każde podwojenie skumulowanej liczby wyprodukowanych sztuk obniżało koszt o około 20%. To prawo działało z żelazną konsekwencją — niezależnie od tego, czy chodziło o bombowce B-17 czy myśliwce P-51 Mustang.
Ale Wright nie widział jeszcze tego, co miało nadejść.
Ford Model T — pierwsza wielka demonstracja
Henry Ford w 1908 roku wycenił Model T na 850 dolarów. Do 1914 roku cena spadła do 490 dolarów. Do 1924 roku — do 260 dolarów. Spadek o 69% w 16 lat. ARK Invest przeanalizowało dane i potwierdziło: Model T od 1909 do 1923 roku podążał za Prawem Wrighta z niemal idealną dokładnością.
Co ciekawe — Ford nie obniżał ceny, bo chciał być miły dla klientów. Obniżał ją, bo mógł. Taśma montażowa skróciła czas składania samochodu z 12,5 godziny do 93 minut. Każdy kolejny samochód uczył fabrykę, jak budować następny szybciej.
Panele słoneczne — 99,6% taniej
To jest analogia, którą warto zapamiętać, bo jest najbliższa temu, co dzieje się teraz z AI.
Cena paneli fotowoltaicznych spadła z 106 dolarów za wat do 0,38 dolara za wat. Spadek o 99,6%. Za każdym razem, gdy skumulowana produkcja paneli się podwajała, cena spadała o około 20% — dokładnie jak przewidywał Wright. To zjawisko jest tak dobrze udokumentowane, że w energetyce ma własną nazwę: prawo Swansona.
W 2000 roku eksperci mówili, że fotowoltaika nigdy nie będzie konkurencyjna cenowo z węglem. W 2024 roku jest najtańszym źródłem energii w historii ludzkości. Eksperci się mylili nie dlatego, że byli głupi — mylili się, bo nie rozumieli siły skumulowanego uczenia się.
AI podąża tą samą ścieżką. Ale szybciej.
1000x taniej w 3 lata — dane, nie prognozy
Przejdźmy do konkretnych liczb, bo o to chodzi w biznesie.
Od czasu publicznego udostępnienia GPT-3 koszt inference — czyli koszt „uruchomienia" modelu AI, koszt każdego zapytania — spadł 1000-krotnie w ciągu 3 lat. Według danych a16z (Andreessen Horowitz) koszty inference dla modeli o porównywalnej wydajności spadają 10x rocznie. Szybciej niż compute w erze PC. Szybciej niż bandwidth w erze dot-comów.
Porównaj to z konkretnymi cenami API:
- Koniec 2022: wydajność na poziomie GPT-3.5 kosztowała ~20 dolarów za milion tokenów
- 2023: OpenAI obniża cenę GPT-3.5 Turbo o połowę
- 2024: GPT-4o mini wchodzi na rynek w cenie 0,15 dolara za milion tokenów wejściowych
- 2025: wydajność na poziomie GPT-4 dostępna za 0,40 dolara za milion tokenów
- DeepSeek R1: porównywalna jakość za 0,55 dolara — 90% taniej niż konkurencja z USA
Stanford AI Index Report potwierdza: koszt systemu o wydajności GPT-3.5 spadł 280-krotnie między listopadem 2022 a październikiem 2024. A to dane sprzed kolejnej fali optymalizacji.
Bartek Pucek — polski przedsiębiorca i inwestor, który analizuje te trendy w swoim newsletterze — opisuje to tak: kiedy coś tanieje 1000x, przypadki użycia, które „nie miały sensu ekonomicznego", nagle stają się opłacalne. Obsługa klienta, review kodu, analiza dokumentów prawnych, podsumowywanie notatek medycznych — te zastosowania nie czekały na lepsze modele. Czekały na tańsze inference.
To jest kluczowe rozróżnienie. Większość dyskusji o AI skupia się na tym, który model jest „najmądrzejszy". Tymczasem prawdziwa zmiana dzieje się w kosztach. Mądry model, którego nie stać Cię używać, jest bezwartościowy. Przeciętny model za ułamek ceny — zmienia Twój biznes.
Dlaczego AI tanieje szybciej niż cokolwiek wcześniej?
Prawo Wrighta działa w AI, ale tempo jest bezprecedensowe. Panele słoneczne potrzebowały 40 lat, żeby stanieć 100x. AI zrobiło 1000x w 3 lata. Czemu?
Bo w AI trzy krzywe uczenia się nakładają się na siebie jednocześnie:
1. Sprzęt — chipy są coraz szybsze i tańsze
NVIDIA H100 jest wielokrotnie wydajniejsza od A100. A już następna generacja (Blackwell) obiecuje kolejny skok. Jednocześnie ceny chmurowych GPU spadają — H100 na rynku spot kosztuje dziś 1,49-3,90 dolara za godzinę, w porównaniu z 7-8 dolarów na premierze. Ale to nie tylko NVIDIA — Google ma swoje TPU, Amazon buduje Trainium, a chińskie firmy produkują własne chipy. Więcej producentów = więcej konkurencji = niższe ceny.
2. Algorytmy — uczymy się trenować efektywniej
To jest ta część, która zaskakuje nawet inżynierów. Karpathy nie odtworzył GPT-2 za 20 dolarów dzięki lepszemu sprzętowi. Zrobił to dzięki lepszemu kodowi. Nowe techniki trenowania (FlashAttention, mixed precision, lepsze tokenizatory, efektywniejsze architektury) pozwalają osiągnąć ten sam wynik przy ułamku mocy obliczeniowej. Każdy miesiąc przynosi nowe optymalizacje. Model, który rok temu potrzebował 1000 GPU-godzin, dziś potrzebuje 100.
3. Konkurencja — wyścig w dół cenowy
W 2022 roku rynek inference to był duopol: OpenAI i Google. Dziś masz OpenAI, Anthropic, Google, Meta (open source), Mistral, DeepSeek, MiniMax, Cohere, i dziesiątki mniejszych graczy. Kiedy DeepSeek wchodzi z ceną 90% niższą niż OpenAI, OpenAI odpowiada obniżką. Kiedy Meta udostępnia Llama za darmo, wszyscy muszą dostosować cenniki. Ta presja cenowa jest strukturalna — nie zniknie.
Te trzy siły razem tworzą tempo spadku kosztów, jakiego nie widzieliśmy w żadnej wcześniejszej technologii. Panele słoneczne miały tylko krzywą sprzętową. AI ma sprzęt, algorytmy i konkurencję — jednocześnie.
Co to konkretnie oznacza dla polskiej firmy?
Dobrze, dość teorii. Prowadzę firmę budowlaną i restaurację. Wdrażam AI w obu. Powiem Ci dokładnie, co te spadki cen zmieniają na poziomie polskiego MŚP.
Chatbot obsługi klienta — z 500 zł/mies. do 30 zł/mies.
W 2023 roku uruchomienie chatbota AI dla firmy usługowej kosztowało 300-500 złotych miesięcznie w samych kosztach API (nie licząc developmentu). Dzisiaj — dzięki tańszym modelom i spadkowi cen inference — ten sam chatbot obsługuje te same zapytania za 20-50 złotych miesięcznie. Przy dalszym spadku 10x rocznie, za rok to będą złotówki.
Co to oznacza w praktyce? Jednoosobowa firma doradcza może mieć asystenta AI, który odpowiada na maile o 3 w nocy. Mały sklep internetowy może mieć obsługę klienta 24/7 w trzech językach. Biuro rachunkowe może oferować klientom chatbota do szybkich pytań podatkowych.
Analiza dokumentów — tysiące stron za grosze
Mam w firmie budowlanej dokumentację projektową, faktury, umowy, specyfikacje techniczne. Przetwarzanie 1000 stron przez model AI w 2023 roku kosztowało dziesiątki dolarów. Dziś — poniżej dolara. Za rok — poniżej 10 centów. To zmienia rachunek ekonomiczny kompletnie.
Kancelaria prawna, która boi się kosztów AI, powinna policzyć jeszcze raz. Biuro projektowe, które ręcznie przeszukuje setki dokumentów, marnuje pieniądze. Każda firma, która przetwarza tekst — a to jest de facto każda firma — może to zautomatyzować taniej niż kiedykolwiek.
Generowanie treści — 10 artykułów za cenę kawy
Agencja marketingowa, która płaci copywriterowi 200 zł za artykuł, może teraz używać AI jako asystenta do draftu, research'u i optymalizacji SEO za ułamek tej kwoty. Nie chodzi o zastępowanie ludzi — chodzi o mnożenie ich produktywności. Copywriter z AI pisze 5 artykułów dziennie zamiast jednego. I robi to za koszt API, który zmieści się w budżecie na kawę.
Automatyzacja procesów — to, co wcześniej „nie miało sensu"
To jest kluczowy punkt z analizy Pucka. Mnóstwo procesów w polskich firmach NIE BYŁO automatyzowanych nie dlatego, że technologia nie istniała. Dlatego że ekonomia się nie spinała. Kiedy analiza jednej faktury przez AI kosztowała 50 groszy, automatyzacja 10 000 faktur rocznie to 5000 złotych — drogo jak na MŚP. Dziś ta sama analiza kosztuje ułamek grosza. 10 000 faktur to 50 złotych rocznie. Ekonomia zaczyna się spinać.
- Automatyczne kategoryzowanie maili — koszt: kilka złotych miesięcznie
- Podsumowywanie spotkań z transkrypcji — koszt: grosze za spotkanie
- Odpowiadanie na powtarzalne zapytania klientów — koszt: złotówki miesięcznie
- Tłumaczenie dokumentów handlowych — koszt: ułamek ceny biura tłumaczeń
- Analiza sentymentu opinii klientów — koszt: minimalny nawet przy tysiącach recenzji
Każdy z tych procesów rok temu wymagał budżetu, który odstraszał małe firmy. Dziś koszt API to często mniej niż koszt prądu zużytego na ręczne wykonanie tej samej pracy.
Pułapka czekania — dlaczego „poczekam, aż będzie taniej" to zły plan
Słyszę to regularnie od polskich przedsiębiorców: „Poczekam jeszcze, AI jest jeszcze drogie / niedojrzałe / za skomplikowane."
Rozumiem ten instynkt. Ale jest błędny. I Prawo Wrighta wyjaśnia dlaczego.
Tak — AI będzie tańsze za rok. Tak jak samochód w 1924 był tańszy niż w 1914. Ale firmy, które kupiły Model T w 1914, miały 10 lat przewagi konkurencyjnej nad tymi, które czekały. Farmerzy z fordami dowozili produkty na rynek szybciej. Handlowcy z fordami objeżdżali więcej klientów. Firmy z fordami rosły, a te bez — zostawały w tyle.
W AI działa ten sam mechanizm, ale tempo jest wielokrotnie szybsze. Rok w AI to jak dekada w motoryzacji z lat 20. Firma, która wdroży AI dziś, za rok będzie miała:
- Zoptymalizowane procesy — bo miała 12 miesięcy na iterowanie i ulepszanie
- Wytrenowany zespół — bo ludzie nauczyli się współpracować z AI
- Dane do dalszej optymalizacji — bo zbierała informacje o tym, co działa
- Niższe koszty operacyjne — bo spadek cen działa na jej korzyść automatycznie
Firma, która „poczeka", za rok będzie zaczynać od zera. Jej konkurent, który zaczął dziś, będzie o rok doświadczenia dalej. Przy tempie zmian w AI — to przepaść.
Prawo Wrighta mówi jeszcze jedno: koszty spadają dzięki skumulowanemu doświadczeniu. Ale to doświadczenie musisz ZDOBYĆ. Czekając — nie zdobywasz nic.
Paradoks kosztów inference
Jest jeszcze jeden fenomen, który warto zrozumieć. Mimo że cena za token spadła 1000x, globalne wydatki na AI wzrosły o 320% w 2025 roku. Jak to możliwe? Bo kiedy coś tanieje dramatycznie, ludzie zaczynają tego używać dramatycznie więcej. OpenAI, Anthropic i Google raportują, że wolumen inference rośnie szybciej niż spadają ceny. Pula przychodów się rozszerza, nie kurczy.
To samo zjawisko widzieliśmy z danymi mobilnymi. Kiedy 1 GB kosztował 50 złotych, używaliśmy 100 MB miesięcznie. Kiedy 1 GB zaczął kosztować 50 groszy, zaczęliśmy streamować 4K wideo na telefonie. Spadek ceny nie zmniejszył rynku — stworzył zupełnie nowy, wielokrotnie większy.
AI jest na początku tej samej ścieżki. Przypadki użycia, które za rok staną się opłacalne, jeszcze dziś nie istnieją. Firmy, które budują kompetencje teraz, będą gotowe, żeby je wykorzystać natychmiast.
Trzy rzeczy do zrobienia w tym tygodniu
Nie kończę artykułów abstrakcjami. Oto co możesz zrobić konkretnie:
1. Policz swoje „tokeny"
Weź jeden proces w firmie, który jest powtarzalny i oparty na tekście. Obsługa maili, generowanie raportów, odpowiadanie na zapytania ofertowe — cokolwiek. Policz, ile tekstu przechodzi przez ten proces miesięcznie. Sprawdź aktualny cennik API dowolnego dostawcy (OpenAI, Anthropic, Google). Zobaczysz, że koszt automatyzacji jest niższy, niż myślisz. Znacznie niższy.
2. Zaplanuj pilota za 100 złotych
Nie potrzebujesz budżetu na „transformację cyfrową". Potrzebujesz 100 złotych i jednego weekendu. Postaw prostego chatbota na bazie API, podłącz go do swoich danych (FAQ, cennik, regulamin), i przetestuj przez tydzień. Jeśli zaoszczędzi Ci choć godzinę tygodniowo — już się zwrócił. Przy dalszym spadku kosztów 10x rocznie, ta sama automatyzacja za rok będzie kosztować Cię 10 złotych.
3. Załóż się z Prawem Wrighta, nie przeciw niemu
Każda decyzja technologiczna, którą podejmujesz dziś, powinna zakładać, że AI będzie 10x tańsze za 18 miesięcy. To nie optymizm — to ekstrapolacja danych. Projekty, które dziś się „nie spinają" cenowo, policz jeszcze raz z kosztami obniżonymi 10x. Nagle okaże się, że automaty do analizy dokumentów, inteligentna obsługa klienta czy personalizowany marketing — są w zasięgu nawet 5-osobowej firmy.
Prawo Wrighta zjada koszty AI. I nie zamierza się zatrzymać. Pytanie brzmi: czy Twoja firma będzie na tym jeździć, czy pod tym leżeć?