← înapoi · · linkedin

În 2026, am putea avea un alt verdict major, în SUA, unul care să redefinească lumea de…

În 2026, am putea avea un alt verdict major, în SUA, unul care să redefinească lumea de azi și lumea de mâine. Verdictul recent ce a penalizat Meta și Google pentru dependența de rețele sociale ar putea aduce ploaia și în spațiul procesului de antrenament al modelelor AI (în care se folosesc opere protejate).

La rând, vine un alt verdict așteptat, unul care ar putea produce un taifun și mai mare decât cel din social media. În decembrie 2023, publicația americană The New York Times a dat în judecată OpenAI și Microsoft pentru utilizarea nepermisă a articolelor sale pentru a antrena modelul GPT.

Cazul deschis atunci, nefinalizat încă, ar putea avea un impact semnificativ asupra relației dintre inteligența artificială generativă și legea drepturilor de autor din SUA, în special în ceea ce privește ”utilizarea legală” a datelor incluse în antrenament. Când spun ”utilizare legală” mă refer la acele cazuri în care utilizarea ar putea fi considerată o excepție în care dreptul de autor nu se aplică.

Există, însă, câteva deosebiri importante între cele două tipuri de cazuri:

1. Dovezi de „comportament intenționat”
Verdictul împotriva Meta a fost posibil deoarece s-a demonstrat că Meta a proiectat în mod conștient funcționalități care dau dependență. În cazul The New York Times vs. OpenAI, publicația încearcă să arate că OpenAI a folosit conținut protejat de drepturi de autor cunoscând riscul de afectare a pieței, deci conștient.

Știrea că Meta a utilizat date cărți descărcate de pe torente (LibGen) pentru antrenarea modelelor sale AI (Llama) va fi folosită pentru a susține ideea unui tipar de comportament în industrie.

2. Neglijență vs. utilizare legală
Cazul Meta a fost analizat din perspectiva designului de produs și a neglijenței, nu ca protecție a libertății de exprimare. În schimb, OpenAI invocă o excepție de la protecția dreptului de autor, ca apărare.

De altfel, într-o decizie din 2025 (Kadrey v. Meta), s-a stabilit că antrenarea AI pe cărți transformă opera originală suficient de mult încât să nu fie acoperită de protecția dreptului de autor. Judecătorul a subliniat, însă, lipsa dovezilor privind prejudiciul de piață.

Dacă NYT demonstrează clar că ChatGPT reproduce articolele sale și îi afectează veniturile, apărarea bazată pe invocarea acestei excepții ar putea să nu mai fie suficientă.

3. Analogia cu designul neglijent
Construcția neglijentă a interfețelor și funcționalităților social media este generatorul de dependență, nu conținutul postat.

Un argument similar ar putea apărea și în zona AI, unde modelele sunt construite (in mod neglijent) astfel încât să colecteze și să reproducă conținut protejat, nu doar să îl transforme, ceea ce afectează piața originală.

Ce mai e de spus e că legislația privind dreptul de autor din SUA e foarte diferită de ce avem în Europa și de cea românească. Deci analogiile trebuie făcute cu grijă.

Vom vedea. Schimbarea lumii pare că accelerează.

Am atașat harta proceselor ce implică antrenamentul AI.

Postat inițial pe linkedin . Acolo sunt și sursele din care am luat informațiile, plus context util pentru cine vrea să citească mai mult despre subiect.