Nowoczesne modele AI, takie jak ChatGPT, potrafią zaskoczyć swoją zdolnością do generowania spójnych i przekonujących tekstów. Wielu z nas, korzystając z nich, odnosi wrażenie, że mamy do czynienia z bytem, który „rozumie” i „myśli”. Ale czy to prawda? I co to oznacza dla Twojej firmy, która rozważa lub już wdraża sztuczną inteligencję? Tłumaczy dr Paweł Szczęsny.
AI nie myśli, ona przewiduje
Dr Paweł Szczęsny, współzałożyciel Neurofusion Lab i ekspert z 25-letnim doświadczeniem na styku biologii, psychologii i IT, rozwiewa złudzenia: „Prawda jest jednak taka, że modele językowe nie mają „pojęcia” o znaczeniu tekstu, który generują. Nie da się im „wytłumaczyć”, że jeśli nie znają odpowiedzi, powinny to zakomunikować”.
Ich zadaniem nie jest rozumienie sensu wypowiedzi ani odwoływanie się do faktów, lecz statystyczne przewidywanie kolejnych słów w sekwencji.
Oznacza to, że modele językowe „halucynują” właściwie cały czas. W większości przypadków ich statystycznie najbardziej prawdopodobna kontynuacja tekstu po prostu pokrywa się z prawdą. Problemy pojawiają się, gdy model natrafia na tematy słabiej reprezentowane w danych treningowych. Nie da się mu „wytłumaczyć”, żeby zakomunikował brak wiedzy – on zawsze spróbuje „odpowiedzieć”, nawet jeśli będzie to kompletna fikcja.
Halucynacje – nieuniknione ryzyko
„Halucynacje są jednak nieuniknione – sama architektura modelu, oparta na prawdopodobieństwie, nie gwarantuje poprawności odpowiedzi” – podkreśla dr Szczęsny.
Choć popularne systemy, takie jak RAG (Retrieval-Augmented Generation), mają na celu minimalizowanie tego problemu, badania pokazują, że nie eliminują one halucynacji całkowicie. Wręcz przeciwnie, często generują nieistotne lub sprzeczne informacje, prowadząc do „załamywania się logiki działania agenta”.
I teraz: co to oznacza dla Twojej firmy?
Wyobraź sobie, że Twój system AI, na podstawie zmyślonych danych, podejmuje decyzje finansowe, generuje raporty strategiczne, czy nawet oferuje porady klientom. Ryzyko jest ogromne. Dlatego musisz pamiętać o:
- weryfikacji danych. Zawsze weryfikuj informacje generowane przez AI, zwłaszcza w obszarach krytycznych dla biznesu.
- ograniczonym zaufaniu. Traktuj AI jako wsparcie, a nie wyrocznię. Niezbędny jest nadzór człowieka.
- wyborze odpowiednich narzędzi. Rozważ rozwiązania, które pozwalają na lepsze zarządzanie pamięcią i kontekstem, minimalizując ryzyko halucynacji.
AI a kształtowanie „mainstreamu”
Modele językowe uczą się na danych, które z natury nie są neutralne. Odzwierciedlają one dominujące narracje, a czasem nawet ukryte ideologie. Dr Szczęsny przytacza przykład teorii stylów uczenia się – popularnego, choć naukowo obalonego pomysłu, że uczymy się najlepiej w określonym stylu – wizualnym, słuchowym, kinestetycznym. Modele językowe, nauczone na obszernych tekstach, często powielają tę błędną narrację.
„Modele językowe, odzwierciedlając dominujące treści w danych treningowych, będą systematycznie – choć niekoniecznie szybko – eliminowały z publicznego obiegu mniej oczywiste idee lub podejścia niezgodne z tzw. mainstreamem” – mówi dr Szczęsny.
To prowadzi do fundamentalnego pytania: kto będzie decydował o tym, czym jest „mainstream” w danej tematyce? I co ważniejsze, kto będzie decydował o tym, które idee zostaną „odesłane na emeryturę”?
Konsekwencje dla biznesu są więc takie:
- AI może nieświadomie powielać nieprawdziwe informacje lub szkodliwe narracje, wpływając na decyzje biznesowe i wizerunek firmy (ryzyko dezinformacji),
- jeśli AI promuje tylko dominujące poglądy, może to tłumić myślenie „out-of-the-box” i ograniczać innowacyjność w firmie (ograniczenie innowacyjności).
- firmy muszą być świadome ryzyka i aktywnie zarządzać danymi, na których trenowane są ich modele AI, a także edukować swoich pracowników (potrzeba świadomego podejścia).
Jak wydobyć „ukrytą wiedzę” z modeli?
Modele językowe posiadają ogromny potencjał ekspertyzy. Dr Szczęsny opowiada o swoich badaniach, w których udało mu się osiągnąć imponujący wynik 90% w benchmarku GPQA (sprawdzającym wiedzę na poziomie doktoratu w naukach przyrodniczych) na stosunkowo starym modelu Gemini Flash 1.5. Sekret tkwił w zastosowaniu „wytrychów kognitywnych”.
Wytrychy kognitywne – klucz do precyzji
„Persony, czy też ’wytrychy kognitywne’, to specjalne instrukcje dodawane do zapytania (promptu). Nie zawierają one żadnej treści merytorycznej związanej z tematem pytania, a jedynie wskazówki dotyczące rodzaju procesu myślowego, jaki model powinien zastosować. Np. 'podejdź do tego, jak sceptyczny badacz’, 'skup się na niespójnościach’, 'rozważ alternatywne hipotezy’” – wyjaśnia dr Szczęsny.
Działają one podobnie do „dźwigni psychologicznych”, naprowadzając model na właściwe tory myślenia. Można wykorzystać nazwiska ekspertów, nazwy konkretnych protokołów (np. „przeprowadź analizę ryzyka zgodnie z ramami PESTEL” zamiast ogólnikowego „zrób mi analizę ryzyka przedsiębiorstwa”). To podejście, określane jako „prompt augmentation”, wymaga głębokiego zrozumienia psychologii poznawczej i eksperymentalnego podejścia.
Dla przedsiębiorców i managerów, którzy chcą zgłębić te techniki i optymalizować wykorzystanie AI w swoich organizacjach, Business Programme AI 2025 oferuje unikalną wiedzę i praktyczne warsztaty. Rozumiemy, że efektywne wdrażanie AI to nie tylko technologia, ale przede wszystkim umiejętność zadawania odpowiednich pytań.
Agenci AI. Ludzkie cechy – ale które?
Projektowanie agentów AI, czyli inteligentnych asystentów wspierających pracowników, jest fascynującym obszarem. Ale które ludzkie cechy powinniśmy im zaimplementować, a które świadomie wyeliminować? Odpowiedź, jak zauważa dr Szczęsny, „nie jest oczywista”.
Cechy, które wydają się niepożądane, takie jak niska ugodowość, mogą w niektórych przypadkach podnosić jakość odpowiedzi modelu, prowadząc do bardziej logicznych wniosków.
Z drugiej strony, intensywne trenowanie modeli na syntetycznych danych w celu wyeliminowania „niechcianych” zachowań może nieświadomie usunąć również inne, cenne zdolności, np. w zakresie rozpoznawania emocji czy kreatywnego pisania.
Elastyczność modeli trenowanych na autentycznych tekstach jest ich ogromną siłą – potrafią one wcielać się w tysiące różnych ról. Jednak usuwanie pewnych kompetencji w imię „bezpieczeństwa” może osłabić ogólne możliwości AI.
AI to transformacja, nie kolejny Excel
Wiele firm popełnia błędy podczas wdrażania AI, które prowadzą do niepowodzeń. Dr Szczęsny wymienia kilka najważniejszych:
- „Grzech nierozmawiania”, czyli brak rzetelnej komunikacji i niewystarczająca analiza realnych potrzeb biznesowych.
- Nierealistyczne oczekiwania, tzn. traktowanie AI jako „magicznego rozwiązania” zamiast potężnego narzędzia do optymalizacji procesów.
- Koncentracja na oszczędnościach, tzn. myślenie o AI wyłącznie przez pryzmat redukcji kosztów, ignorując potencjał tworzenia nowych wartości, produktów i usług.
- Poszukiwanie jednego rewolucyjnego rozwiązania. Zamiast systematycznego wdrażania wielu mniejszych, praktycznych zastosowań AI.
- Brak ram bezpieczeństwa i wewnętrznej polityki AI, czyli wdrażanie AI bez jasno sprecyzowanych zasad postępowania z danymi i oceny ryzyka.
- Niewystarczające zaangażowanie pracowników, czyli pomijanie ich roli w procesie identyfikacji zastosowań AI i brak odpowiednich szkoleń.
- Brak adaptacji procesów pracy, tzn. próba „wciśnięcia” AI w istniejące, często przestarzałe procesy, zamiast ich świadomego przeprojektowania.
- Traktowanie AI jako projektu czysto technologicznego. Zamiast postrzegania go jako głębokiej zmiany organizacyjnej, wymagającej zaangażowania całej firmy.
- Pochopne zatrudnianie drogich specjalistów AI bez wcześniejszego przygotowania organizacji i zdefiniowania konkretnych problemów.
„Wdrożenie AI to transformacja firmy. Kropka. Wdrożenie tej technologii tak jakby to był Excel, nieuchronnie się kończy tym, że i tak większość pracowników wciąż korzysta z liczydeł” – podsumowuje dr Szczęsny.
Chcesz dowiedzieć się więcej o praktycznych zastosowaniach AI w biznesie i uniknąć typowych błędów?
Sprawdź więcej materiałów Business Programme AI i dołącz do naszej społeczności, aby być na bieżąco. Zaobserwuj @profiloai na Instagramie, aby nie przegapić cennych wskazówek i informacji!
Więcej o tym, jak mądrze stosować AI w biznesie, znajdziesz w zasobach Business Programme AI – m.in. w bibliotece wiedzy BPAI i programie edukacyjnym.


