AI i prawo Aktualności

UK i USA – pakt w sprawie rozwoju testów bezpieczeństwa AI

Symboliczny obraz ilustrujący współprace pomiędzy uk i usa w dziedzinie bezpieczeństwa AI

W historycznym kroku mającym na celu zapewnienie bezpiecznego wdrażania zaawansowanych systemów sztucznej inteligencji (AI), Wielka Brytania i Stany Zjednoczone podpisały umowę o współpracy w zakresie opracowywania rygorystycznych testów dla tych systemów.

Podpisanie historycznego memorandum

Memorandum o Współpracy, podpisane 2 kwietnia przez sekretarza technologii Wielkiej Brytanii, Michelle Donelan, oraz sekretarza handlu USA, Ginę Raimondo, zakłada partnerstwo mające na celu zharmonizowanie podejść naukowych obu krajów w szybkim opracowywaniu solidnych metod oceny dla najnowocześniejszych modeli, systemów i agentów AI.

Wymiana wiedzy eksperckiej

Na mocy porozumienia, nowo powstały Instytut Bezpieczeństwa AI w Wielkiej Brytanii oraz planowana organizacja w USA będą wymieniać się wiedzą ekspercką, mając na celu minimalizację ryzyk związanych z AI, w tym sposobami niezależnej oceny prywatnych modeli AI od firm takich jak OpenAI. Partnerstwo to jest wzorowane na współpracy w dziedzinie bezpieczeństwa między GCHQ a National Security Agency.

Wspólne działania na rzecz bezpieczeństwa AI

Instytuty planują zbudować wspólne podejście do testowania bezpieczeństwa AI i dzielić się zdolnościami w celu skutecznego zwalczania ryzyka. Zamierzają przeprowadzić co najmniej jedno wspólne publiczne ćwiczenie testowe na otwarcie dostępnym modelu AI i rozważyć wymianę personelu.

Znaczenie współpracy

Oba rządy zdają sobie sprawę z szybkiego rozwoju AI i pilnej potrzeby wspólnego globalnego podejścia do bezpieczeństwa, które może nadążyć za pojawiającymi się ryzykami. Partnerstwo wchodzi w życie natychmiast, umożliwiając bezproblemową współpracę między organizacjami.

Wymiana informacji i wspólne badania

Dodatkowo, Wielka Brytania i Stany Zjednoczone będą wymieniać kluczowe informacje na temat możliwości modeli AI, ryzyk i podstawowych badań technicznych. Ma to na celu stworzenie wspólnej podstawy naukowej dla testowania bezpieczeństwa AI, która może zostać przyjęta przez naukowców na całym świecie.

Perspektywa branży w sprawie bezpieczeństwa AI

Eksperci branżowi przyjęli tę współpracę z zadowoleniem jako kluczową dla promowania zaufania i bezpieczeństwa w rozwoju i adopcji AI w różnych sektorach, takich jak marketing, finanse i obsługa klienta. „Zapewnienie, że rozwój i użytkowanie AI są rządzone przez zaufanie i bezpieczeństwo, jest najważniejsze,” stwierdził Ramprakash Ramamoorthy z Zoho. Dr Henry Balani z Encompass dodał, że współpraca ta jest kluczowym krokiem w kierunku łagodzenia ryzyk związanych z AI, wspierania współpracy i innowacji w tej kluczowej i rozwijającej się dziedzinie technologii.

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *