Niedawna ugoda na kwotę 1,5 miliarda dolarów zawarta przez Anthropic, wschodzącego lidera w dziedzinie sztucznej inteligencji, stanowi przełomowy moment dla sektora technologicznego i prawa własności intelektualnej. To przełomowe porozumienie, rozstrzygające zarzuty, że firma bezprawnie wykorzystała książki chronione prawem autorskim do szkolenia swojego chatbota Claude AI, ustanawia największą w historii odnotowaną wypłatę odszkodowania za naruszenie praw autorskich bezpośrednio związaną ze sztuczną inteligencją i stanowi istotny precedens dla sposobu, w jaki twórcy AI muszą podchodzić do pozyskiwania i wykorzystywania danych.
Proponowana ugoda w ramach pozwu zbiorowego, obecnie oczekująca na zatwierdzenie przez sędziego Williama Alsupa w San Francisco, ma na celu zrekompensowanie setkom tysięcy autorów, których dzieła rzekomo wykorzystano bez zezwolenia. Sedno sporu dotyczyło wykorzystania przez Anthropic około 500 000 pirackich książek, pozyskanych z internetowych „bibliotek cieni”, takich jak Library Genesis, Pirate Library Mirror i zbioru danych Books3. Te repozytoria, od dawna krytykowane przez twórców i grupy rzecznictwa za podważanie praw autorskich, służyły jako nieautoryzowane źródła danych do szkolenia AI. Zgodnie z warunkami, każdy poszkodowany pisarz ma otrzymać około 3000 dolarów, z możliwością zwiększenia tej kwoty, jeśli zostaną zidentyfikowane kolejne pirackie dzieła.
Wyzwanie prawne wobec Anthropic rozpoczęło się w 2024 roku, kiedy autorzy Andrea Bartz, Charles Graeber i Kirk Wallace Johnson złożyli pozew, zarzucając nieautoryzowane wykorzystanie ich materiałów. Szybko przekształciło się to w szerszy pozew zbiorowy. Pomimo znacznego wsparcia finansowego Anthropic od inwestorów takich jak Amazon i Alphabet, firmę oskarżono o zaniedbanie legalnego licencjonowania danych do szkolenia. Kluczowe czerwcowe orzeczenie sędziego Alsupa rozróżniło potencjalne „dozwolone użycie” materiałów chronionych prawem autorskim do transformacyjnego szkolenia AI od wyraźnego naruszenia praw autorskich wynikającego z pobierania i przechowywania milionów pirackich książek. To rozróżnienie naraziło Anthropic na znaczne zobowiązania finansowe, potencjalnie setki miliardów dolarów, gdyby sprawa trafiła do sądu.
Zawierając ugodę, Anthropic unika niepewności i kosztów długotrwałej batalii prawnej, która mogłaby trafić do Sądu Najwyższego USA i znacząco zmienić krajowe interpretacje dozwolonego użytku w kontekście AI. Choć firma oświadczyła, że ugoda nie stanowi przyznania się do odpowiedzialności, podkreśliła chęć skupienia się na rozwijaniu narzędzi AI, które są „bezpieczne, godne zaufania i wspierające postęp ludzkości”. Kluczowy wymóg ugody nakłada na Anthropic obowiązek zniszczenia wszystkich kopii pirackich książek, aby zapobiec dalszemu czerpaniu korzyści z nieautoryzowanych materiałów. Jednak eksperci prawni zauważają, że porozumienie to nie chroni firmy całkowicie przed przyszłymi sporami sądowymi, zwłaszcza jeśli okaże się, że wyniki generowane przez Claude’a powielają lub naruszają chronione prawem autorskim fragmenty.
Szersze implikacje dla branży AI
Ugoda Anthropic wysyła wyraźny sygnał w całym rozwijającym się krajobrazie AI. Inni czołowi twórcy AI, w tym OpenAI, Microsoft i Meta, obecnie zmagają się z podobnymi pozwami o naruszenie praw autorskich, co podkreśla systemowe wyzwanie związane z poleganiem branży na ogromnych zbiorach danych. Niedawne orzeczenie sądu w San Francisco, zezwalające na kontynuowanie pozwu przeciwko Meta, wzmacnia pogląd prawny, że wykorzystywanie materiałów chronionych prawem autorskim bez zezwolenia jest niezgodne z prawem „w wielu okolicznościach”. Ta zbiorowa kontrola prawna podkreśla pilną potrzebę, aby firmy AI ustanowiły solidne, etycznie uzasadnione i zgodne z prawem ramy dla pozyskiwania danych, równoważąc innowacje z ochroną praw własności intelektualnej, aby zapewnić zrównoważony rozwój i zaufanie publiczne.
newsblog.pl
Maciej – redaktor, pasjonat technologii i samozwańczy pogromca błędów w systemie Windows. Zna Linuxa lepiej niż własną lodówkę, a kawa to jego główne źródło zasilania. Pisze, testuje, naprawia – i czasem nawet wyłącza i włącza ponownie. W wolnych chwilach udaje, że odpoczywa, ale i tak kończy z laptopem na kolanach.