Un judecător federal din San Francisco a decis luni, 24 iunie, că Anthropic a avut dreptul legal să folosească cărți protejate de drepturi de autor pentru a-și antrena AI-ul Claude, invocând doctrina „fair use”, relatează Reuters. Totuși, compania va trebui să răspundă în instanță pentru că a stocat peste 7 milioane de cărți piratate, ceea ce nu mai intră în aceeași categorie de utilizare echitabilă.
Decizia care schimbă regulile jocului
Judecătorul William Alsup de la Curtea Districtală din San Francisco a stabilit că Anthropic a respectat legea americană privind drepturile de autor când și-a antrenat sistemul de inteligență artificială pe cărți protejate. Decizia vine după ce scriitorii Andrea Bartz, Charles Graeber și Kirk Wallace Johnson au dat în judecată compania, susținând că le-au fost folosite operele fără permisiune sau compensare.
Judecătorul a comparat procesul de învățare al AI-ului cu cel al unui cititor care aspiră să devină scriitor. „Ca orice cititor care aspiră să devină scriitor, modelele Anthropic s-au antrenat pe opere nu pentru a le replica sau înlocui, ci pentru a crea ceva diferit”, și-a explicat Alsup decizia.
Pe scurt, antrenarea AI-ului pe cărți a fost legală. Dar partea problematică apare la modul în care Anthropic a obținut și stocat conținutul, adică peste 7 milioane de cărți digitale, multe dintre ele descărcate de pe site-uri de piraterie. Aici, Alsup a fost categoric: nu e fair use să creezi o „bibliotecă centrală a tuturor cărților din lume” cu fișiere piratate.
Ce urmează pentru Anthropic?
Deși decizia privind antrenarea AI este favorabilă industriei tech, Anthropic nu scapă complet. În decembrie va avea loc un proces care va stabili dacă va plăti despăgubiri și în ce cuantum pentru stocarea ilegală a cărților. Decizia vine ca o gură de aer proaspăt pentru giganții tehnologici precum OpenAI, Google și Meta, care se confruntă cu procese similare din partea autorilor pentru antrenarea modelelor lor de AI pe conținut protejat. Potrivit legislației americane, despăgubirile pot ajunge până la 150.000 de dolari pentru fiecare lucrare, dacă se dovedește că încălcarea a fost intenționată.
Un purtător de cuvânt al Anthropic a declarat că firma este „mulțumită că instanța a recunoscut caracterul transformator” al muncii sale și că aceasta promovează creativitatea și progresul științific. Cu toate acestea, decizia ridică un semnal de alarmă pentru toate companiile AI care s-au bazat pe surse obscure pentru training.

