Siedmiu z dziesięciu Polaków korzysta z AI regularnie. Brzmi imponująco? Problem w tym, że większość robi to bez jakiegokolwiek przeszkolenia, a często nawet bez wiedzy pracodawcy. Sztuczna inteligencja zagościła w naszej codziennej pracy. Tak wynika z najnowszych badań KPMG, które powinny być sygnałem ostrzegawczym dla każdej organizacji.
W moim poprzednim artykule pisałem o tym, jak powszechne stało się używanie narzędzi AI w codziennej pracy – od ChatGPT przez Claude po dziesiątki innych asystentów. Dziś chcę skupić się na czymś równie ważnym: jak używać tych narzędzi, żeby nie zaszkodzić sobie, swojej firmie i jakości swojej pracy.

Bo używanie ChatGPT do brainstormingu czy Claude’a do pisania maili to nie to samo co googl’owanie. To narzędzia, które wydają się inteligentne, przyjazne i pomocne, ale działają na zasadach, których większość użytkowników kompletnie nie rozumie. Te zasady mają bezpośredni wpływ na to, czy dostaniesz cenną pomoc, czy pięknie sformułowane bzdury.
Jeśli regularnie korzystasz z AI w pracy, ale nikt nigdy nie wytłumaczył Ci, czym naprawdę są duże modele językowe, jak działają i dlaczego czasami „halucynują” – ten artykuł jest dla Ciebie. Jeśli myślisz, że wystarczy wkleić pytanie i zaufać odpowiedzi… tak nie jest
Nie będzie tu akademickiego żargonu ani zaawansowanej technologii – będzie konkretna wiedza o tym, jak świadomie i bezpiecznie korzystać z narzędzi, które już teraz zmieniają sposób, w jaki pracujemy.
Bardzo ważne: będę używał dużych uproszczeń w tym artykule, tak żeby był przystępny dla dla szerszego grona odbiorców. Z góry przepraszam każdego inżyniera AI, który poczuje się przez takie uproszczenie urażony.
Zaczęło się od uczenia – czyli zapamiętywania. Tak zostały stworzone LLM (czyli duże modele językowe które potrafią odpowiadać).
Choć (nie rozumieją – przewidują) to duże uproszczenie, bo mamy opcje modeli już zaczynających rozumować, to znaczy bazować na doświadczeniach. Doświadczeniem modeli jest przeczytany tekst (skupiamy się tylko na modelach językowych – więc nie wspominam o “zobaczonych obrazach”).
Modele przewidują to co ma się pojawić jako odpowiedź która Cię zadowoli, albo to co ma się pojawić jako odpowiedź bardzo prawdopodobna.

Dla przykładu taki sam prompt różniący się jednym słowem może zmienić nasze podejście do niezbadanego tematu…
Dlaczego warto chodzić na siłownię?
Regularne treningi siłowe poprawiają kondycję fizyczną, zdrowie metaboliczne, samopoczucie psychiczne i pomagają budować silniejsze, bardziej odporne ciało.
Dlaczego nie warto chodzić na siłownię?
Może być to czasochłonne i kosztowne, zwłaszcza jeśli można osiągnąć podobne efekty treningowe w domu z minimalistycznym sprzętem.
Duże modele językowe przechodzą specjalny trening zwany RLHF – “Reinforcement Learning from Human Feedback”, czyli uczenie przez wzmacnianie na podstawie ludzkich opinii. W praktyce oznacza to, że tysiące ludzi oceniało odpowiedzi AI: „ta jest pomocna”, „ta brzmi naturalnie”, „ta zadowala użytkownika”. Model uczył się wtedy generować odpowiedzi, które dostają najwyższe oceny – te, które ludzie lubią czytać. Nie te, które są koniecznie prawdziwe czy najbardziej precyzyjne, ale te, które sprawiają, że użytkownik kiwa głową z zadowoleniem.
To prowadzi do ciekawego zjawiska: LLM został zaprogramowany, by Cię uszczęśliwić. Jeśli zadasz pytanie w sposób sugerujący, jakiej odpowiedzi oczekujesz – dostaniesz właśnie tę odpowiedź. Zapytaj „Czy marketing w social media jest najważniejszy dla małych firm?” a model dostrzeże Twoje nastawienie i z radością je potwierdzi. Przeformułuj to samo pytanie na „Czy marketing w social media jest przereklamowany dla małych firm?” – i nagle otrzymasz argumenty, że faktycznie, może lepiej zainwestować gdzie indziej.
AI nie ma własnego zdania. Ma za to wbudowaną skłonność do mówienia Ci tego, co chcesz usłyszeć, bo takie odpowiedzi były najczęściej nagradzane podczas treningu.
Brzmi znajomo? Powinno. To dokładnie ten sam mechanizm, który napędza TikToka, YouTube’a czy Instagrama. Algorytmy social media uczą się, co Ci się podoba i serwują coraz więcej podobnych treści – nie po to, by poszerzyć Twoje horyzonty, ale by utrzymać Cię na platformie jak najdłużej. LLM działa trochę podobnie: dostarcza odpowiedzi, które pasują do Twoich oczekiwań i sprawiają, że czujesz się dobrze. Różnica jest taka, że w przypadku TikToka dostajesz kolejne zabawne filmiki. W przypadku ChatGPT dostajesz pozornie ekspercką opinię.
Halucynacje AI to moment, kiedy model generuje informacje, które brzmią przekonująco i są perfekcyjnie wplecione w odpowiedź – ale są kompletnie zmyślone. To nie błąd w kodzie ani usterka. Sztuczna inteligencja w codziennej pracy może nas zwodzić.

To naturalna konsekwencja tego, jak działają LLM. Przypomnij sobie: model przewiduje, jakie słowa powinny się pojawić dalej.
Dlaczego to się dzieje? Bo AI nie wie kiedy kłamie, a kiedy mówi prawdę…
Zła wiadomość: halucynacje są podawane z taką samą pewnością siebie jak prawdziwe informacje. Nie ma w tekście ostrzeżenia „uwaga, to mogę wymyślać” 😉
Dobra wiadomość: są sposoby, by się przed nimi bronić.
W dalszej części artykułu postaram się przedstawić jak się bronić przed halucynacjami AI.
Mózg ludzki ma wbudowaną skłonność do szukania i zapamiętywania informacji, które potwierdzają nasze przekonania – i ignorowania tych, które im przeczą. To zjawisko nazywa się błędem potwierdzenia (confirmation bias) i jest jednym z najbardziej uniwersalnych i upartych błędów poznawczych. Psychologowie od dziesięcioleci dokumentują, jak bardzo jesteśmy podatni na ten mechanizm: badania pokazują, że informacje zgodne z naszymi przekonaniami są przetwarzane szybciej, zapamiętywane lepiej i oceniane jako bardziej wiarygodne – nawet gdy obiektywnie są równie wiarygodne jak informacje im przeczące.
To nie puałpka AI tylko człowieka… (https://pl.wikipedia.org/wiki/Zachowanie_impulsywne). nie jestem psychologiem, coachem, nie chcę się rozpisywać. W skrócie łatwiej jest przyjąć to co daje szybką ulgę (nawet w rozumowaniu) niż to co w perspektywie przynosi realne korzyści.
Łatwiej jest nam przyjąć to, że udało nam się wygenerować dobry plan, czy dokument, niż drążyć temat z każdej strony…
Ok teraz teraz zacznie się trochę bardziej technicznie (ale tylko trochę ☺️).
prompt – to instrukcja lub polecenie, które wpisujemy do programu komputerowego (np. sztucznej inteligencji), żeby dostać od niego konkretną odpowiedź lub wykonać określone zadanie.
Poniżej pokażę przykład mało konkretnego zapytania i bardziej konkretnego.
Zły prompt:
"Jak poprawić marketing?"
Dobry prompt:
"Jestem właścicielem sklepu z ekologiczną kosmetyką w Warszawie, sprzedaję głównie przez Instagram. Mam budżet 3000 zł miesięcznie. Jak mogę zwiększyć konwersję z obserwujących na kupujących w ciągu najbliższych 3 miesięcy?"
Widzisz różnicę? AI może Ci napisać esej o marketingu w ogóle, który brzmi mądrze, ale nie pomoże Ci w Twojej konkretnej sytuacji. Drugi prompt daje modelowi kontekst: branża, kanał, budżet, cel itd.. Odpowiedź będzie o wiele bardziej użyteczna.

Ogólne prompty generują ogólne odpowiedzi. To nie jest wina AI – to konsekwencja tego, jak działa. Model próbuje dopasować się do Twojego poziomu szczegółowości. Jeśli dajesz mało, dostaniesz mało. Jeśli pytasz szeroko, odpowiedź będzie szeroka – szerokie odpowiedzi to zwykle zbiór truizmów, które znalazłbyś w pierwszym lepszym artykule.
Konkretność nie oznacza długości. Oznacza precyzję: kto, co, gdzie, dlaczego, ile, kiedy. Im więcej z tych elementów podasz, tym bardziej targetowana będzie odpowiedź.
AI nie ma dostępu do Twojej głowy. Nie wie, w jakiej jesteś sytuacji, jakie masz ograniczenia, co już próbowałeś, co się nie udało. Jeśli tego nie napiszesz – dostaniesz odpowiedź dla kogoś abstrakcyjnego.
Zły prompt:
"Napisz mi strategię content marketingową."
Dobry prompt:
"Napisz mi strategię content marketingową dla firmy B2B z 5-osobowym zespołem, bez dedykowanego grafika. Nasza grupa docelowa to CTOsi w fintechu. Nie możemy publikować częściej niż raz w tygodniu. Chcemy pozycjonować się jako eksperci w cyberbezpieczeństwie, ale unikać tematów związanych z konkretną polityką czy regulacjami."
Zobacz, ile informacji dodaliśmy:
Każdy z tych elementów sprawia, że AI może odfiltrować nierealistyczne sugestie. Bez tego dostaniesz plan, który brzmi świetnie, ale wymaga 10-osobowego teamu, grafika na pełen etat i publikowania codziennie.
Źle:
"Pomóż mi wymyślić pomysły na kampanię."
Dobrze:
"Potrzebuję 5 pomysłów na kampanię rekrutacyjną dla firmy IT (150 osób), targetowaną na mid-level developers w Warszawie i Krakowie. Nasz employer branding jest słaby, odejścia sięgają 25% rocznie. Budżet: 40k zł. Chcę uniknąć standardowych 'świetna atmosfera' komunikatów - szukam autentycznego, wyróżniającego się podejścia."
Co się zmieniło: Dodaliśmy cel (rekrutacja), target (mid developers, lokalizacja), problem do rozwiązania (słaby EB, wysokie odejścia), budżet i anty-wzorzec (czego unikać). AI wie teraz, od czego się odbić.
Źle:
"Dlaczego moja strona nie sprzedaje?"
Dobrze:
"Moja strona e-commerce (produkty dla sportowców amatorów) ma 3000 wizyt miesięcznie, ale konwersja wynosi 0.8%. Bounce rate 65%, średni czas na stronie 40 sekund. Strona ładuje się w 2.5s, mamy SSL, płatności sprawdzone. Ceny są konkurencyjne (sprawdzałem z 3 konkurentami). Co może blokować konwersję? Przeanalizuj możliwe przyczyny od najprawdopodobniejszej."
Co się zmieniło: Podaliśmy dane (ruch, konwersja, bounce rate, czas ładowania), wykluczyliśmy oczywiste problemy (szybkość, bezpieczeństwo, ceny), zawęziliśmy pytanie do konkretnego wskaźnika. AI nie będzie tracił czasu na sugerowanie „sprawdź szybkość strony”.
Przykładów można podać o wiele więcej, ale znudzi się czytanie, a ja dostanę bana na publikacje na blogu. Chcesz o tym porozmawiać przy kawie – daj znać, pogadamy ☺️
Złota zasada: Im więcej kontekstu dasz na początku, tym mniej iteracji będziesz potrzebował później. Słaby prompt to 5-10 wymian wiadomości, dopytywanie AI, poprawianie, aż w końcu dostaniesz coś użytecznego. Dobry prompt to jedna wymiana – pytanie i konkretna, użyteczna odpowiedź.
I zapamiętaj: AI nie zgadnie, czego potrzebujesz. Musisz mu to powiedzieć. Im dokładniej to zrobisz, tym bliżej będzie odpowiedź do tego, czego faktycznie szukasz.
Samsung odkrył to w bolesny sposób w 2023 roku. Inżynierowie firmy wklejali do ChatGPT fragmenty kodu źródłowego, poufne dane z meetingów i wewnętrzne dokumenty techniczne – „żeby AI pomógł je zoptymalizować”. W ciągu trzech tygodni do OpenAI trafiły tajemnice handlowe warte miliony dolarów. Samsung musiał całkowicie zabronić używania ChatGPT w firmie i uruchomić własne, wewnętrzne rozwiązanie.

To nie jest jednorazowy incydent. To systemowy problem, który dzieje się w tysiącach firm każdego dnia – tylko większość jeszcze o tym nie wie.
Pamiętajmy, że sztuczna inteligencja w codziennej pracy staje się standardem, zatem… Wyobraź sobie scenariusze, które prawdopodobnie dzieją się właśnie teraz w Twojej organizacji:
Manager HR:
"Oto lista kandydatów z CV i wynikami testów psychologicznych. Pomóż mi wybrać najlepszego na stanowisko senior developer."
Dział finansowy:
"Przeanalizuj ten arkusz z przewidywanymi przychodami na Q4 i porównaj z konkurencją."
Zespół produktowy:
"Oto feedback od klientów korporacyjnych (z nazwami firm) o naszej nowej funkcji. Jak to wykorzystać w roadmapie?"
Problem? Wszystko, co wpiszesz do ChatGPT, Claude, czy innego publicznego narzędzia AI, może być użyte do dalszego trenowania modelu. Nawet jeśli firma obiecuje, że „nie wykorzysta Twoich danych” – już samo przesłanie ich na zewnętrzne serwery jest naruszeniem RODO i większości polityk bezpieczeństwa informacji.
A najgorsze? Większość pracowników nie ma pojęcia, że coś złego robi. Dla nich to tak, jakby wyszukiwać coś w Google. Nikt nie tłumaczył im różnicy między wyszukiwaniem publicznej informacji a uploadowaniem poufnych danych firmowych do obcego systemu. Sztuczna inteligencja w codziennej pracy niesie ze sobą kilka innych zagrożeń.
On / Ona (bo to sztuczna inteligencja), odpowie Ci – zawsze, a gdy nie ma danych – zmyśli je. No coż tak wygląda prawda. Jeśli spróbujesz znaleźć uzasadnienie swoich decyzji w AI – znajdziesz je. Jednak mogą one odbiegać od rzeczywistości…
Obiecuję, że opiszę w drugiej części artykułu. To temat złożony, chciałbym najpierw napisać o ogółach.
To jest zasada numer jeden, tzw. złota reguła. I mimo to jest najczęściej łamana. Jeśli informacja nie powinna trafić na zewnątrz – nie wpisuj / wklejaj ich do AI.
Co konkretnie to oznacza w praktyce?
NIE wklejaj:
„Ale ja używam tylko do znalezienia pomysłu, nie zapisuję tego nigdzie!„ – nie ma znaczenia. Dane już są poza firmą.
„Ale w ustawieniach ChatGPT wyłączyłem zapisywanie historii!„ – nadal przesyłasz dane na serwery OpenAI, choćby na chwilę przetwarzania. Większość modeli trzyma je na 30 dni i nie da się tego wyłączyć w oknie czatu przeglądarkowego. Można to obejść na inne sposoby…
„Ale przecież to tylko fragment, nie pełne dane!„ – wystarczające fragmenty pozwalają zrekonstruować całość. A nawet jeśli nie – naruszasz politykę bezpieczeństwa.

Kilka zasad, które pomogą Ci uniknąć kłopotów:
Anonimizuj i uogólniaj:
Używaj zamienników wrażliwych danych:
Pytaj o metodologię, nie o konkretne rozwiązanie:
Ta zasada brzmi oczywista. A jednak 90% ludzi jej nie stosuje, bo AI brzmi zbyt przekonująco, żeby go kwestionować. Sztuczna inteligencja w codziennej pracy traktowana jest jako nieomylna.
Prosta zasada: każda konkretna informacja z AI musi być zweryfikowana, zanim zostanie użyta w decyzji biznesowej, prezentacji, raporcie czy komunikacji z klientem.
Co wymaga weryfikacji?
Sztuczna inteligencja w codziennej pracy dała nam również wsparcie dla procesu potocznie zwanego burzą mózgów. Brainstorming to jedna z kilku dziedzin, gdzie AI naprawdę błyszczy – ale tylko jeśli wiesz, kiedy i jak go używać.
Poniżej podstawowe techniki:
Technika 1: Świadomie szukaj przeciwnych perspektyw
Nie pytaj tylko: „Jakie pomysły na kampanię produktu X?”
Zapytaj w osobnych promptach:
Technika 2: Poproś AI o krytykę własnych pomysłów
Po pierwszej rundzie brainstormingu, w nowej konwersacji (ważne!), wklej pomysły i zapytaj:
„Oto lista pomysłów na kampanię. Znajdź w każdym słabe punkty, założenia, które mogą nie być prawdziwe, i potencjalne problemy w wykonaniu.”
To zmusi AI do przejścia w tryb krytyczny zamiast afirmatywnego.
Technika 3: Używaj AI jako jednego z wielu źródeł
Nigdy nie rób brainstormingu TYLKO z AI. Proces powinien wyglądać tak:
AI jest jednym z głosów w dyskusji, nie jedynym głosem.
Technika 4: Testuj spójność przez różne narzędzia
Zadaj to samo pytanie w ChatGPT, Claude i Gemini. Porównaj odpowiedzi. Pomysły, które pojawiają się we wszystkich trzech, to prawdopodobnie „oczywiste” rozwiązania z wzorców. Pomysły unikalne dla jednego modelu mogą być ciekawsze — albo całkowicie chybione. Ale przynajmniej zobaczysz różnicę.
„Adwokat diabła” to klasyczna technika brainstormingowa – ktoś w zespole celowo kwestionuje pomysły, by przetestować ich solidność. Z AI możesz to zrobić systematycznie.
Podstawowy prompt adwokata diabła:
"Chcę, żebyś zagrał rolę adwokata diabła. Twoim zadaniem jest kwestionowanie każdego założenia, wskazywanie słabych punktów i szukanie dziur w logice. Nie bądź uprzejmy - bądź bezwzględny w krytyce.
Oto mój plan: …
Powiedz mi wszystko, co w tym nie gra."
Zamiast pytać „Jak zrobić X?”, zapytaj „Jak zapewnić, że X się nie uda?”
Przykład:
AI wygeneruje listę anty-wzorców. Potem odwracasz je: to, czego NIE robić, pokazuje Ci, co robić.
„Wyobraź sobie, że jesteśmy rok do przodu. Projekt, o którym rozmawiamy, zakończył się totalną klęską. Straciliśmy pieniądze, klientów i reputację.
Jako zespół post-mortem, Twoim zadaniem jest zrekonstruować, CO POSZŁO NIE TAK. Napisz raport wyjaśniający, które z naszych decyzji i założeń doprowadziły do katastrofy.
Oto plan projektu: …”
Ta technika zmusza AI (i Ciebie) do konkretnego myślenia o ryzykach – nie abstrakcyjnego „może coś pójdzie nie tak”, ale „dokładnie TA rzecz się zepsuła i dlatego wszystko runęło”.
Najlepsze pomysły rodzą się na przecięciu AI i człowieka. AI daje Ci surowiec, którego sam byś nie wymyślił. Ty dajesz kontekst, osąd i realizm, którego AI nie ma. Osobno – każde z was jest ograniczone.
Statystyki KPMG są brutalne: 70% Polaków używa AI bez żadnego przeszkolenia. To tak, jakby dać komuś samochód i powiedzieć „jedź”, nie ucząc go prowadzenia. Firmy, które to ignorują, ryzykują nie tylko bezpieczeństwem danych, ale też konkurencyjnością.

Sztuczna inteligencja w codziennej pracy ale też w naszym życiu codziennym wniesie tutaj duże zmiany. Za 3-5 lat w CV nie będzie się pisało „znam ChatGPT” – bo to będzie jak pisać dziś „umiem googlować”. Różnica będzie w tym, jak dobrze potrafisz go używać.
Kompetencje, które będą odróżniać przeciętnego od świetnego pracownika:
Prompt engineering – umiejętność wyciągnięcia z AI maksimum wartości minimalnym kosztem (czasu, ryzyka)
Critical AI literacy – rozumienie, kiedy ufać AI, a kiedy mu nie ufać; umiejętność weryfikacji
Ethical AI judgment – świadomość, co jest OK, a co nie…
AI-human collaboration – nie „AI zamiast ludzi”, ale „AI + ludzie = więcej niż suma części „Adaptive learning – gotowość do ciągłego uczenia się, bo za rok będziesz używać narzędzi, które dziś nie istnieją
Przeszliśmy długą drogę. Od zrozumienia, jak AI faktycznie działa (przewiduje słowa, nie myśli), przez pułapki (halucynacje, confirmation bias, pętla dopaminowa), po praktyczne umiejętności (dobre promptowanie, bezpieczeństwo, brainstorming).
Trzy wnioski które warto wyciągnąć z tego artykułu:
1. AI nie jest inteligentny – jest elokwentny
Największy błąd, jaki możesz popełnić, to mylenie płynności językowej z wiedzą. ChatGPT czy Claude potrafią pisać jak ekspert, ale nie są ekspertami. Są bardzo zaawansowanymi automatami do dokańczania tekstu. Rozumienie tej różnicy to fundament wszystkiego innego.
2. AI jest zaprogramowany, żeby Ci dogadzać
Model został nauczony dawać odpowiedzi, które ludzie lubią – nie te, które są koniecznie prawdziwe czy najtrafniejsze. To oznacza, że jeśli w pytaniu sugerujesz, jakiej odpowiedzi szukasz, AI Ci ją da. Confirmation bias + AI = eksplozywna mieszanka dla złych decyzji biznesowych.
3. Halucynacje są nieuniknione – weryfikacja obowiązkowa
Nie jest kwestią „czy” AI zahallucynuje, tylko „kiedy”. Model nie rozróżnia prawdy od fikcji – dla niego liczy się tylko, czy sekwencja słów wygląda prawdopodobnie. Każda konkretna informacja (statystyka, cytat, źródło, data) wymaga weryfikacji. Bez wyjątków.
Kiedy marka z ponad 100-letnią historią decyduje się na pełną transformację cyfrową, projektowanie nie jest już tylko kwestią estetyki czy użyteczności. Staje się sposobem na uporządkowanie złożonych procesów, integrację danych i zbudowanie jednego doświadczenia w miejscu, gdzie wcześniej działały odrębne systemy. Tak właśnie było w przypadku Rawlplug, globalnego producenta systemów zamocowań i elektronarzędzi, który powierzył The Humans zaprojektowanie spójnego ekosystemu cyfrowego: Punkt wyjścia: trzy światy, jeden ekosystem […]
Wyobraź sobie znajomego, który od lat nosi tę samą fryzurę i ubrania. Sympatyczny, ale coś w nim nie pasuje do tego, wygląd odbiega od tego kim się stał. Z markami jest podobnie. Rebranding i zmiana logo to moment, w którym firma postanawia odświeżyć swój wizerunek, żeby lepiej opowiadać o tym kim jest dzisiaj i kogo chce do siebie przyciągnąć. Chcę Ci pokazać, dlaczego marki decydują się na taką zmianę, co zyskują (lub tracą) i jak zrobić to dobrze. […]
Poproszę wycenę na
Dziękujemy za Twoją wiadomość :)
Już niebawem otrzymasz od nas ofertę na wybrane usługi.







Wyrażam zgodę na przetwarzanie przez The Humans Sp. z o.o. moich danych osobowych w postaci imienia i nazwiska oraz adresu poczty elektronicznej w celu przesyłania mi informacji marketingowych dotyczących produktów i usług oferowanych przez The Humans Sp. z o.o. za pomocą środków komunikacji elektronicznej, stosownie do treści przepisu art. 10 ust. 1 i 2 ustawy o świadczeniu usług drogą elektroniczną.
Wyrażam zgodę na przetwarzanie moich danych osobowych w postaci podanego przeze mnie numeru telefonu przez The Humans Sp. z o.o. w celu prowadzenia działań marketingowych przy użyciu telekomunikacyjnych urządzeń końcowych w rozumieniu ustawy Prawo telekomunikacyjne.