AI w cyberbezpieczeństwie Aktualności

Badacze Google zmusili ChatGPT do udostępniania danych treningowych

google-chatgpt

Niedawno odkrycie dokonane przez badaczy z Google stało się tematem kontrowersyjnym w dziedzinie sztucznej inteligencji (AI), zwłaszcza w odniesieniu do ChatGPT, popularnego modelu generatywnego stworzonego przez OpenAI. Badacze z Google wykazali, że poprzez stosowanie specyficznych poleceń, jak powtarzanie jednego słowa (na przykład „company” lub „poem”), można zmusić ChatGPT do ujawnienia poufnych informacji, w tym danych treningowych używanych przez OpenAI.

Te dane treningowe są kluczowe, ponieważ ChatGPT opiera się na modelu używanym w produkcji. Stwierdzono, że około 5% odpowiedzi ChatGPT w najbardziej zaawansowanej konfiguracji składa się z bezpośredniej kopii 50 kolejnych tokenów pobranych z zestawu danych treningowych. Ponadto, badacze z Google oszacowali, że można wydobyć około gigabajta danych treningowych z ChatGPT przy niskim nakładzie finansowym.

To odkrycie może mieć poważne implikacje prawne, zwłaszcza w kontekście trwających sporów sądowych przeciwko OpenAI, w których grupa wydawców, autorów i pisarzy zarzuca wykorzystanie ich treści bez zgody. OpenAI może próbować zbagatelizować incydent, traktując go jako błąd lub podatność systemu, która już została rozwiązana lub jest w trakcie naprawy.

Podsumowując, to odkrycie podkreśla potrzebę dalszych badań i testów modeli AI w produkcji, aby zapewnić, że nie zawierają one podatności, które mogą prowadzić do nieautoryzowanego ujawniania danych

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *