Wraz ze wzrostem zainteresowania generatywnymi systemami sztucznej inteligencji (AI) na całym świecie, naukowcy z Uniwersytetu Surrey w Wielkiej Brytanii stworzyli oprogramowanie, które jest w stanie zweryfikować, ile informacji AI pozyskało z cyfrowej bazy danych badanej organizacji.
Oprogramowanie do weryfikacji AI
Oprogramowanie do weryfikacji z Surrey może być używane jako część protokołu bezpieczeństwa online firm, pomagając organizacjom zrozumieć, czy AI nauczyło się zbyt wiele, czy nawet uzyskało dostęp do wrażliwych danych.
Oprogramowanie jest również zdolne do identyfikowania, czy AI rozpoznało i jest w stanie wykorzystać wady w kodzie oprogramowania. Na przykład, w kontekście gier online, mogłoby zidentyfikować, czy AI nauczyło się zawsze wygrywać w pokera online, wykorzystując błąd w oprogramowaniu.
Zastosowania oprogramowania do weryfikacji AI w bezpieczeństwie online
Dr Fortunat Rajaona który jest badaczem stypendystą w zakresie formalnej weryfikacji prywatności na Uniwersytecie w Surrey i głównym autorem publikacji, powiedział:
W wielu zastosowaniach, systemy AI współdziałają ze sobą lub z ludźmi, takimi jak samochody samosterujące na autostradzie czy roboty szpitalne. Wypracowanie, co inteligentny system danych AI wie, to problem, którego rozwiązanie zajęło nam lata, aby znaleźć w końcu działające rozwiązanie.
Fortunat Rajaona
Nasze oprogramowanie do weryfikacji może wywnioskować, ile AI może się nauczyć z ich interakcji, czy ma wystarczającą wiedzę, która umożliwia skuteczną współpracę, oraz czy ma zbyt dużo wiedzy, która narusza prywatność. Dzięki zdolności do weryfikacji tego, czego AI się nauczyło, możemy dać organizacjom pewność, że mogą bezpiecznie uwolnić moc AI w bezpiecznych środowiskach.
Fortunat Rajaona
Studium na temat oprogramowania z Surrey zdobyło nagrodę za najlepszy artykuł na 25 Międzynarodowym Sympozjum Metod Formalnych.
Znaczenie weryfikacji AI dla ochrony prywatności i integralności danych
Profesor Adrian Hilton, dyrektor Instytutu AI Skoncentrowanego na Ludziach na Uniwersytecie w Surrey, powiedział:
„W ciągu ostatnich miesięcy nastąpił ogromny wzrost zainteresowania publicznego i branżowego generatywnymi modelami AI, napędzany postępami w dużych modelach językowych, takich jak ChatGPT. Tworzenie narzędzi, które mogą weryfikować wydajność generatywnej AI, jest niezbędne do zapewnienia ich bezpiecznego i odpowiedzialnego wdrożenia. To badanie jest ważnym krokiem w kierunku utrzymania prywatności i integralności zbiorów danych wykorzystywanych w procesie uczenia się.”
Adrian Hilton
Źródło publikacji: https://openresearch.surrey.ac.uk/esploro/outputs/99723165702346