„The New York Times” (NYT) wniósł pozew przeciwko OpenAI i ich inwestorowi, Microsoft, za rzekome naruszenie praw autorskich. Według doniesień, miliony artykułów Timesa zostały użyte do szkolenia modeli AI bez zgody wydawcy, w tym ChatGPT i Copilot.
NYT podkreśla w swojej skardze, że niemożność ochrony ich niezależnego dziennikarstwa może mieć poważne konsekwencje dla społeczeństwa. Ta sytuacja rzuca światło na rosnące obawy dotyczące wpływu AI na prasę i jej niezależność.
OpenAI wyraziło zdziwienie decyzją NYT, deklarując chęć współpracy z twórcami treści. Jednocześnie podkreślają, że dotychczasowe rozmowy z NYT były produktywne.
Pochodzenie danych do nauki modeli AI
Istotą sporu jest fakt, że modele generatywne AI „uczą się” z przykładów zgromadzonych z internetu, które mogą być objęte prawami autorskimi. To rodzi pytania o granice „fair use” i odpowiedzialność za wykorzystanie treści chronionych prawem.
NYT nie jest jedynym podmiotem walczącym z firmami AI. Wcześniej zarówno celebryci, jak i programiści wnieśli podobne pozwy, oskarżając firmy o wykorzystanie ich treści bez zgody.
NYT twierdzi, że działania OpenAI i Microsoft prowadzą do tworzenia konkurencyjnych wydawnictw informacyjnych, co szkodzi ich biznesowi. Zwracają uwagę na problem „hallucynacji”, czyli generowania przez modele AI treści, które są nieprawdziwe lub mylące. Eksperci prawni wskazują, że choć wydawcy mają pewne argumenty, wynik sprawy w sądzie jest niepewny. Wiele zależy od interpretacji praw autorskich w kontekście AI. Niektóre media, jak Associated Press, zdecydowały się na współpracę z firmami AI, podpisując umowy licencyjne, co może być alternatywą dla konfliktów sądowych.
Ten pozew może mieć fundamentalne znaczenie dla przyszłości stosunków między branżą medialną a sektorem technologicznym, zwłaszcza w kontekście etycznych i prawnych aspektów wykorzystywania danych.
Pod koniec roku „The New York Times” (NYT) podjął istotną decyzję dotyczącą swojej polityki prywatności, zakazując korzystania z ich treści do szkolenia modeli sztucznej inteligencji.