Do niedawna praca z agentami AI wyglądała jak rozmowa z bardzo grzecznym, ale trochę zagubionym pracownikiem. Dawałeś mu zadanie, on wykonywał je dokładnie tak, jak prosiłeś, po czym przynosił wynik, który w 40% przypadków wymagał poprawek. Dlaczego? Bo nie dopytał, nie zweryfikował, nie zgłosił wątpliwości. Po prostu zrobił to, co usłyszał.
W 2026 roku ten model się zmienia. Nowa generacja agentów AI, w tym Claude, zaczyna zadawać pytania zanim ruszy do pracy. Zamiast biernie czekać na instrukcje, aktywnie wyciąga z ciebie kontekst - pyta o cel, preferencje, ograniczenia, grupę docelową. Brzmi jak drobiazg, ale dla polskich małych i średnich firm oznacza to fundamentalną zmianę w tym, jak wykorzystujemy AI w codziennej pracy.
W tym artykule pokażę, dlaczego "agenci, którzy pytają" to nie gadżet, tylko odpowiedź na realny problem automatyzacji - i jak polska firma może to wykorzystać już teraz.
Dlaczego stare agenty AI zawodziły w polskich firmach
Przez ostatnie dwa lata pracowałem z kilkudziesięcioma polskimi firmami wdrażającymi automatyzacje na bazie ChatGPT, Claude'a czy narzędzi typu Make i n8n. Najczęstszy problem? Nie brak technologii, tylko brak kontekstu.
Typowy scenariusz: właściciel firmy budowlanej prosi agenta o "napisanie oferty dla klienta z Niemiec". Agent pisze ofertę - poprawną gramatycznie, profesjonalną, po niemiecku. Tylko że klient oczekiwał oferty po angielsku (bo pracuje z międzynarodowym zespołem), w formacie dostosowanym do norm VCA, z konkretną strukturą cenową, której agent nie znał. Efekt? Oferta do wyrzucenia, 30 minut pracy zmarnowane, klient zniecierpliwiony.
Problem nie tkwił w modelu językowym. Tkwił w tym, że agent nie zapytał. Nie zapytał, do kogo dokładnie piszemy. Nie zapytał, w jakim formacie potrzebujemy wyniku. Nie zapytał, jakie są wymagania branżowe. Po prostu założył, że wie.
Według badań Anthropic z 2025 roku, około 60% błędów w automatyzacjach opartych na LLM wynika z niedopasowania do kontekstu biznesowego, a nie z błędów samego modelu. Inaczej mówiąc: AI potrafi napisać świetny tekst, ale bez właściwego briefu napisze świetny tekst na niewłaściwy temat.
Nowy model: agent, który przeprowadza wywiad
Ben's Bites opisał niedawno zjawisko, które w branży nazywa się "agent interviewing" - agenci AI, którzy przed wykonaniem zadania prowadzą krótki wywiad z użytkownikiem. Claude w najnowszych wersjach robi to domyślnie przy złożonych zadaniach. GPT-5 wprowadził podobny mechanizm przy planowaniu projektów. Narzędzia typu Cursor czy Windsurf pytają programistów o architekturę, zanim napiszą kod.
Jak to wygląda w praktyce? Zamiast od razu zabierać się do roboty, agent zadaje 3-5 konkretnych pytań:
- Jaki jest główny cel tego zadania i kto będzie odbiorcą?
- Czy są jakieś ograniczenia, o których powinienem wiedzieć (budżet, czas, format)?
- Czy masz przykłady podobnych rzeczy, które ci się podobały?
- Co by oznaczało, że to zadanie jest wykonane dobrze?
- Czy są tematy lub podejścia, których mam unikać?
Po otrzymaniu odpowiedzi agent podsumowuje, co zrozumiał, i dopiero wtedy działa. Ta prosta zmiana zmniejsza liczbę poprawek o 50-70% według moich obserwacji z projektów konsultingowych.
Co to daje polskim firmom w praktyce
Przełożę to na konkretne przykłady z firm, z którymi pracowałem w ostatnich miesiącach.
Przykład 1: Firma cateringowa z Krakowa. Właścicielka używała ChatGPT do pisania opisów menu dla nowych klientów. Problem: każdy opis brzmiał tak samo, bo model nie znał specyfiki klienta (wesele vs konferencja vs impreza firmowa). Po przejściu na Claude'a z mechanizmem pytań, agent najpierw dopytuje o typ wydarzenia, liczbę gości, preferencje dietetyczne, ton (formalny/luźny). Rezultat: opisy trafione w punkt, skrócenie czasu przygotowania oferty z 45 do 15 minut.
Przykład 2: Biuro księgowe z Warszawy. Agent AI wspiera obsługę zapytań od klientów. Wcześniej odpowiadał na każde pytanie natychmiast, często dając odpowiedź ogólną zamiast precyzyjnej. Teraz przed odpowiedzią pyta: "Czy chodzi o firmę na ryczałcie czy zasadach ogólnych? Jaki rok podatkowy? Czy mamy do czynienia z JDG czy spółką?". Wynik: liczba telefonów wyjaśniających spadła o około 40%.
Przykład 3: Firma e-commerce z Poznania. Agent generuje opisy produktów dla sklepu internetowego. Kiedyś trzeba było mu dawać szczegółowe brief. Teraz sam pyta o grupę docelową, styl komunikacji marki, kluczowe argumenty sprzedażowe, słowa kluczowe SEO. Opisy są gotowe do publikacji w 80% przypadków, a nie w 30% jak wcześniej.
Jak wykorzystać ten mechanizm w swojej firmie
Dobra wiadomość: nie musisz czekać, aż każdy agent AI zacznie pytać domyślnie. Możesz wymusić ten mechanizm już teraz, trzema prostymi sposobami.
Po pierwsze, zmień prompt systemowy. Jeśli używasz Claude'a, ChatGPT'a albo własnych agentów w n8n czy Make, dodaj do promptu instrukcję: "Przed wykonaniem zadania zadaj mi 3-5 pytań doprecyzowujących. Nie zaczynaj pracy, dopóki nie otrzymasz odpowiedzi." To dziesięć sekund zmiany, które oszczędza godziny poprawek.
Po drugie, zbuduj szablony briefu. Dla powtarzalnych zadań (oferty, maile, opisy produktów) przygotuj szablon z pytaniami, które agent zawsze musi zadać. W n8n zrobisz to przez węzeł "Form Trigger" zbierający dane, zanim LLM wejdzie do akcji.
Po trzecie, testuj "disagreement". Najlepsi agenci nie tylko pytają, ale też mówią "nie zgadzam się" albo "widzę problem z twoim podejściem". W Claude'em możesz to włączyć przez instrukcję: "Jeśli widzisz, że moje podejście ma wady, powiedz o tym przed wykonaniem zadania." To trochę niewygodne, bo agent czasem kwestionuje twoje pomysły, ale ratuje przed kosztownymi błędami.
Ograniczenia i ryzyka, o których musisz wiedzieć
Nie jest to rozwiązanie idealne. Widzę trzy realne problemy, z którymi zderzają się polskie firmy.
Pierwsze: agenci, którzy pytają za dużo, irytują. Jeśli chcesz, żeby AI napisało jedno zdanie do maila, a ono zadaje ci siedem pytań, to marnujesz czas. Mechanizm pytań powinien skalować się z wielkością zadania - proste rzeczy bez pytań, złożone z wywiadem.
Drugie: pytania nie zastępują wiedzy branżowej. Agent może zapytać o wszystko, ale jeśli nie rozumie specyfiki branży (np. budowlanej, medycznej, prawniczej), jego pytania będą powierzchowne. Rozwiązanie: dostarcz mu kontekst branżowy w prompcie systemowym albo przez narzędzia typu Claude Projects czy Custom GPT.
Trzecie: niektórzy pracownicy nie lubią, kiedy AI ich "przesłuchuje". Odbierają to jako marnowanie czasu. W praktyce po 2-3 tygodniach przyzwyczajają się i zaczynają doceniać, że AI przestało zgadywać. Warto tę zmianę wprowadzać stopniowo i pokazywać konkretne wyniki.
Podsumowanie: AI, które pyta, to AI, które działa
Ewolucja od biernych asystentów do aktywnych partnerów to jedna z najważniejszych zmian w AI biznesowym w 2026 roku. Dla polskich małych i średnich firm oznacza to konkretną rzecz: mniej poprawek, szybsze decyzje, lepsze wyniki automatyzacji.
Nie musisz czekać na kolejną wersję modelu ani na wielką transformację cyfrową. Wystarczy, że zmienisz sposób, w jaki rozmawiasz ze swoimi agentami AI - każesz im pytać, zanim zaczną działać. To najtańsza, najprostsza i najbardziej niedoceniana optymalizacja AI, jaką możesz wdrożyć w tym tygodniu.
Firma, która traktuje AI jak wykonawcę poleceń, dostanie wyniki na poziomie 60%. Firma, która traktuje AI jak partnera w rozmowie, dostanie wyniki na poziomie 90%. Różnica? Kilka pytań przed startem.