ȘtiriTech&IT

OpenAI ar fi șters „accidental” datele folosite de ChatGPT și urmărite ca dovezi în procese vizând încălcarea drepturilor de autor

Site-urile de știri și creatorii de conținut care și-au văzut munca „rechiziționată” pentru antrenarea modelelor de inteligență artificială dezvoltate de OpenAI, precum ChatGPT, ar putea avea o mică problemă cu dispariția dovezilor, compania aflată în parteneriat cu Microsoft reușind să „piardă” mare parte dintre datele incriminate.

Acționând după principiul „hoțul neprins e negustor cinstit”, OpenAI ar fi făcut pierdute imensele baze de date compilate pentru antrenarea ChatGPT:

La începutul acestei toamne, OpenAI a fost de acord să furnizeze două mașini virtuale, astfel încât consilierii The Times și Daily News să poată efectua căutări pentru conținutul lor protejat prin drepturi de autor în seturile de instruire AI… Într-o scrisoare, avocații editorilor spun că ei și experții pe care i-au angajat au petrecut peste 150 de ore, de la 1 noiembrie și până în prezent, căutând datele de antrenare folosite de OpenAI.

Dar pe 14 noiembrie, inginerii OpenAI au șters toate datele de căutare ale editorilor stocate pe una dintre mașinile virtuale, conform scrisorii menționate mai sus, care a fost depusă miercuri seara la Tribunalul Districtual SUA pentru Districtul de Sud din New York.

Altfel spus, după ce avocații de la NY Times au petrecut mult timp cernând prin imensa colecție de date folosite la instruirea ChatGPT, cercetarea lor a fost ștearsă de OpenAI. Ulterior, OpenAI ar fi reușit să recupereze o mare parte din datele, dar într-o formă care le face practic inutilizabile în procedurile judiciare. Astfel, cazul împotriva OpenAI rămâne de facto fără obiect, iar efortul considerabil depus de partea lezată trebuie să repornească practic de la zero, fără garanția că va reuși să strângă suficiente dovezi dintr-o a doua încercare.

Cât despre lecțiile ce rezultă din experiența celor de la NY Times, datele de antrenament utilizate de diverse companii AI sunt complet în posesia respectivelor companii, orice investigații prealabil anunțate doar invitând la… accidente nefericite. Sigur, există un preț în materie de imagine pentru OpenAI și alte companii de genul, dar până la urmă totul se „traduce” printr-un calcul de raport cost-beneficiu: dacă amenda/consecințele legale sunt suficient de mari, atunci se merge după principiul „scopul scuză mijloacele”, dovezile dispărând după cum este cazul, parțial sau total.

În ultimă instanță, părțile lezate de acțiunile OpenAI și ale altor giganți tehnologici nu ar avea resursele necesare pentru a depune la infinit acțiuni în justiție împotriva acestora, rămânând de văzut dacă autoritățile în măsură să reacționeze la astfel de potențiale-abuzuri își fac sau nu datoria.

Aurelian Mihai

Îmi place să fiu la curent cu ultimele inovații și gadgeturi high-tech. Când nu scriu articole pentru Zona IT, îmi ocup timpul cu seriale SF, documentare sau periind internetul după tot felul de știri sau informații care-mi captează atenția. În week-end mă găsești cu bicicleta în parc sau colindând prin țară cu familia.

Articole asemanatoare

Lasă un răspuns

Adresa ta de email nu va fi publicată. Câmpurile obligatorii sunt marcate cu *

Acest site folosește Akismet pentru a reduce spamul. Află cum sunt procesate datele comentariilor tale.

Back to top button