Artykuł McKinsey z grudnia 2023 roku rzuca światło na dynamicznie rozwijającą się dziedzinę sztucznej inteligencji generatywnej (genAI) i jej potencjalne zastosowania w sektorze publicznym.
Generatywna AI, której wartość ekonomiczna szacowana jest już na biliony dolarów rocznie, oferuje rządom unikalne możliwości wpływu na rozwój gospodarczy narodów. Jednak agencje rządowe stają przed wyzwaniami związanymi z zarządzaniem ryzykiem, brakiem przejrzystości i potencjalnymi błędami generowanymi przez AI.
Jak agencje rządowe mogą adresować potencjalne ryzyka genAI?
Agencje rządowe muszą zmierzyć się z ryzykami, które niesie ze sobą genAI, takimi jak nieprzewidywalność, niedokładność i uprzedzenia. Są to zagrożenia odmienne od tych, z jakimi boryka się sektor prywatny, w tym możliwość wykorzystania AI do rozpowszechniania propagandy politycznej czy naruszania bezpieczeństwa narodowego. Rządy różnych krajów, w tym USA, Australia i Chiny, podejmują inicjatywy mające na celu stworzenie ram regulacyjnych i polityk dotyczących AI, w tym genAI.
Jak sektor publiczny może zacząć transformować swoją dostawę usług?
Agencje rządowe, jako kluczowi dostawcy usług publicznych, mogą wykorzystać genAI do usprawnienia swoich działań. Do tego celu McKinsey proponuje model „4C”:
Content summarization and synthesis, Coding and software, Customer engagement, Content generation obejmujące cztery kategorie: streszczanie i syntezowanie treści, kodowanie i oprogramowanie, angażowanie klientów oraz generowanie treści. Przykłady zastosowań obejmują rozwój aplikacji do podsumowywania tekstu, wykorzystanie AI do pisania kodu, chatboty obsługujące klientów oraz generowanie różnorodnych treści, takich jak e-maile czy posty w mediach społecznościowych.
Czy rządy powinny rozwijać narodowe modele podstawowe genAI?
Chociaż niektóre rządy mogą dążyć do rozwoju własnych modeli genAI, jest to przedsięwzięcie wymagające znaczących inwestycji czasu i zasobów. Bariery obejmują dostępność talentów, moc obliczeniową oraz doświadczenie w zarządzaniu ryzykiem. Obecnie większość prac nad modelami genAI prowadzą duże prywatne firmy technologiczne i inicjatywy open-source, co sprawia, że organizacje rządowe często wolą współpracować z globalnymi dostawcami modeli językowych i dostosować je do swoich potrzeb. Przykładem takiego działania jest współpraca rządów Islandii i Finlandii z globalnymi dostawcami dużych modeli językowych (LLM), które dostosowują modele do swoich unikalnych wymagań, dodając własne dane.
Plan działania dla agencji publicznych:
Dla agencji publicznych, które dopiero zaczynają przygodę z genAI, McKinsey proponuje ośmiostopniowy plan działania.
Obejmuje on następujące kroki:
- Określenie postawy wobec ryzyka: Agencje powinny zidentyfikować swoje granice tolerancji ryzyka i opracować plany na ich ograniczenie, łącznie z wewnętrznymi politykami, wytycznymi i sesjami świadomościowymi.
- Identyfikacja i priorytetyzacja przypadków użycia: Nie wszystkie zadania wymagają technologii genAI. Należy rozwinąć listę potencjalnych zastosowań, a następnie ustalić ich priorytety według potencjalnego wpływu i wykonalności.
- Wybór odpowiedniego modelu i uaktualnienie infrastruktury technicznej: Większość agencji rozpoczyna od modelu LLM dostępnego na rynku, dostosowując go do swoich danych i systemów.
- Zapewnienie odpowiednich umiejętności i ról: Wymagane są nowe role zawodowe, takie jak „Szef AI”, inżynierowie AI, etycy AI czy inżynierowie promptów.
- Wspólny rozwój aplikacji z użytkownikami końcowymi: Wczesne zaangażowanie użytkowników końcowych jest kluczowe dla edukacji o prywatności, bezpieczeństwie oraz dla zbierania opinii mających na celu poprawę dokładności i wydajności odpowiedzi LLM.
- Utrzymanie człowieka w pętli: Do czasu dojrzewania technologii genAI i ustanowienia egzekwowalnych regulacji zaleca się, aby to ludzie nadzorowali AI.
- Zaprojektowanie kompleksowego planu komunikacji: Ważne jest, aby w wszelkich działaniach komunikacyjnych umieszczać stosowne zastrzeżenia, wyjaśniające ograniczenia przypadków użycia genAI.
- Rozpoczęcie od małych projektów i ich skalowanie: Badania pokazują, że zarządzanie danymi stanowi jedno z głównych przeszkód w skalowaniu przypadków użycia AI. W artykule McKinsey zidentyfikowano siedem działań, które liderzy danych powinni rozważyć, przechodząc od eksperymentów do skalowania.
Ten plan ma na celu pomoc agencjom publicznym w nawigacji przez skomplikowany krajobraz genAI, minimalizując ryzyko i maksymalizując potencjalne korzyści.