AI w biznesie AI w marketingu Artykuły Narzędzia AI Tekstowe

Jak „zmusić” model językowy do mądrych odpowiedzi?

Business Programme AI. Niebiesko różowe tło ze zdjęciem mężczyzny

Modele językowe AI zaskakują coraz większą „inteligencją”. Ale wystarczy zadać im nieprecyzyjne pytanie, by zaczęły… koloryzować. Jak to możliwe? Czy możemy wydobyć z nich prawdziwą ekspercką wiedzę? Dr Paweł Szczęsny pokazuje, że tak. Pod warunkiem że wiemy, jak to zrobić.

Dlaczego AI halucynuje? I czy da się to zmienić?

„Modele językowe nie mają pojęcia o znaczeniu tekstu, który generują” – mówi dr Paweł Szczęsny, współzałożyciel Neurofusion Lab, dodając: „Ich podstawowym zadaniem jest statystyczne przewidywanie kolejnych słów w sekwencji, a nie odwoływanie się do bazy faktów czy rozumienie sensu wypowiedzi”.

Dlatego nawet jeśli odpowiedź brzmi sensownie, może być całkowicie zmyślona. To tzw. halucynacje. Co gorsza, są nieuniknione. „W pewnym sensie ‘halucynują’ cały czas, tylko w większości przypadków ta halucynacja wygodnie pokrywa się z prawdą” – zaznacza Szczęsny.

Zjawisko to jest szczególnie niebezpieczne tam, gdzie LLM-y powtarzają popularne, ale błędne treści. „Modele językowe będą utwierdzać nauczycieli w błędnym przekonaniu; będą podpowiadać błędy merytoryczne wykładowcom i sugerować pomysły na biznes oparte na tej błędnej idei. A wszystkie trzy sytuacje widziałem na własne oczy.” – wspomina nasz rozmówca.

Problem jest systemowy. Jak ostrzega dr Szczęsny: „LLM-y stają się jedną z broni w wojnie kognitywnej, która już trwa”.

Modele nie są neutralne – uczą się na danych, które mogą odzwierciedlać dominujące narracje, ideologie, a nawet dezinformację. A kto decyduje, co stanie się „mainstreamem”? Nie zawsze ich twórcy.

„Wytrychy kognitywne”, czyli jak wydobyć z modelu ukrytą ekspertyzę?

Nie wszystko jednak stracone. Jak pokazują eksperymenty dra Szczęsnego, modele mogą działać na poziomie eksperta – o ile odpowiednio je „pobudzimy”.

W benchmarku GPQA (sprawdzającym wiedzę doktorską z nauk przyrodniczych), stary model Gemini Flash 1.5 osiągnął 90% skuteczności. Dla porównania: GPT-4o – 57%. Jak to możliwe?

„Udało mi się to dzięki 13 różnym ‘personom’ – czyli instrukcjom naprowadzającym model na właściwą odpowiedź. Nie zawierały one treści merytorycznej, a jedynie wskazówki typu ‘podejdź do tego jak sceptyczny badacz’ albo ‘rozważ alternatywne hipotezy’” – wyjaśnia.

Takie podejście nazywane jest prompt augmentation, czyli wzbogacaniem promptu o elementy psychologiczne. Zamiast kazać modelowi „wiedzieć”, sugerujemy mu sposób myślenia.

To radykalnie zmienia jakość odpowiedzi, zwłaszcza w przypadku trudnych tematów. Jak dodaje dr Szczęsny, nazwiska ekspertów czy znane metodologie również mogą pełnić rolę wytrychów: „Zamiast pisać ‘zrób analizę ryzyka’, lepiej napisać: ‘zastosuj zasady zarządzania ryzykiem według normy ISO 31000’”.

Co z tego wynika dla Ciebie? Więcej, niż myślisz

AI to nie tylko czatbot do FAQ. Dobrze zaprojektowane prompty i persony mogą realnie wspierać pracę działów strategii, finansów, compliance, R&D czy HR.

Przykłady wykorzystania „wytrychów kognitywnych” w biznesie?

  • W analizie strategicznej: Zamiast prosić model o SWOT, poproś: „Zachowuj się jak ekspert McKinsey, przeanalizuj ryzyka według PESTEL”.
  • W testowaniu argumentów sprzedażowych: „Przeanalizuj mój pitch z perspektywy sceptycznego klienta. Na czym może się wyłożyć?”
  • W ocenie modeli AI: „Zastosuj perspektywę audytora. Czy prompt przestrzega zasad transparentności i braku halucynacji?”

Dobrze zaprojektowane prompty to różnica między AI, które tylko „gada”, a AI, które naprawdę doradza.

Czy agenci AI mogą być… mniej mili, ale mądrzejsi?

Jeszcze ciekawszy wniosek pojawia się w kontekście projektowania agentów AI. „W jednym z eksperymentów stworzyliśmy personę o niskiej ugodowości. Model stawał się bardziej sceptyczny, mniej konformistyczny, a jednocześnie trafniej analizował niuanse sytuacji” – mówi dr Szczęsny.

Okazuje się, że czasem AI z cechami, których nie lubimy u ludzi, lepiej spełnia swoją funkcję. „Niska ugodowość może prowadzić do bardziej logicznych wniosków” – stwierdza nasz rozmówca.

Z drugiej strony, zbyt mocne „przycinanie” modeli, np. poprzez usuwanie niepożądanych zachowań w treningu, może obniżać ich kreatywność, zdolność rozumienia emocji czy niuansów. Przykład? GPT-4o radzi sobie z tym lepiej niż nowszy model o1.

Co firmy robią źle we wdrażaniu AI?

Na koniec, ostrzeżenie. Dr Paweł Szczęsny wymienia kilka najczęstszych błędów firm przy wdrażaniu AI. Wśród nich:

  1. „Grzech nierozmawiania”, czyli brak diagnozy potrzeb i dialogu z pracownikami.
  2. Oczekiwanie „magii”, to znaczy traktowanie AI jako rewolucji bez wysiłku.
  3. Fiksacja na kosztach zamiast szukać innowacji i nowych produktów.
  4. Brak szkoleń i zaangażowania zespołów.
  5. Brak przemyślanej polityki bezpieczeństwa AI.
  6. Wciskanie AI w stare procesy zamiast projektować je od nowa
  7. Traktowanie AI jako projektu IT – a nie transformacji całej firmy

„Wdrożenie AI to transformacja firmy. Kropka. Wdrożenie tej technologii tak jakby to był Excel, nieuchronnie się kończy tym, że i tak większość pracowników wciąż korzysta z liczydeł” – mówi Szczęsny.

Co dalej?

Jeśli chcesz wiedzieć:
 – jak pisać prompty, które wydobywają z AI ekspercką wiedzę,
 – jak projektować agentów, którzy wspierają, a nie mylą,
 – jak wdrożyć AI bez halucynacji i rozczarowań

Przeczytaj również: Czy Twoja firma naprawdę potrzebuje AI?

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *