JuridicConformitate24 aprilie, 2025

Dreptul UE și revoluția IA

Observatorul Dreptului Inteligenței Artificiale (ODIA) – Aprilie 2025
IA – iniţiative europene: Proiectul „EuroStack” care vizează o strategie clară în domeniul digital în Europa, dobândeşte amploare, după raportul Draghi privind competitivitatea (9 septembrie 2024). Acesta vizează o aliniere a politicii digitale asupra strategiei europene mai largi în materie de securitate și apărare; crearea unui fond unional-european pentru tehnologii suverane; implementarea de servicii digitale, pe calea unui concurs, la nivel european; preferința acordată infrastructurilor digitale construite în Europa pe piețele publice; dezvoltarea unei IA suverane și de spații de date federate.
Prof. univ. dr. Mircea DUȚU
Adoptarea unei a „treia căi”, posibile, fezabile și demnă de urmat de dezvoltare a noilor tehnologii în general, și a celei a IA în special, afirmată în mod consecvent în ultimul an, poartă o puternică componentă europeană și e urmată de o coaliție semnificativă de țări așa încât să constituie un alt pol major în materie, cu tendințe de extrapolare. Potrivit Raportului Draghi privind competitivitatea (9 septembrie 2024), peste 80% din tehnologiile digitale cheie ale Uniunii Europene provin din exterior, în special din S.U.A. și China. Această dependență a fost pusă în evidență și de o anchetă germană întreprinsă la începutul anului 2025 care releva faptul că 92% din întreprinderi și-ar înceta activitatea, în numai doi ani, dacă importurile digitale s-ar opri. Din această perspectivă, liderii europeni au subliniat, în cadrul AI Action Summit de la Paris, din februarie 2025, necesitatea ca UE să joace un rol de prim plan în domeniul inteligenței artificiale, sprijinindu-se pe investiții țintite în infrastructuri, formarea talentelor și pe polii de excelență. Președinta Comisiei Europene s-a pronunțat, în același context, în favoarea unui cadru reglementar fondat pe valori, încrederea și securitatea europene. Ideea unui „EuroStack” a dobândit amploare, după emiterea sa la o conferință a Parlamentului European din 2024, și e reluată și dezvoltată un an mai târziu într-un raport al Fundației Bertelsmann, coordonat de profesoara Francesca Bria. El formulează chiar o „foaie de parcurs” concretă, ce vizează a asigura autonomia strategică a Europei în materie de infrastructură digitală. Această abordare descrie și rezumă, totodată, interdependențele dintre toate straturile tehnologice, semiconductorii în spațiile de date, trecând prin IA. Diversitatea culturală, lingvistică și industrială a Europei reprezintă un atu inestimabil, dar sub-utilizat; ea alimentează, în mod direct, inovația digitală și tehnologică, continentul nostru dispunând astfel de un avantaj unic în dezvoltarea IA, cu condiția de a surmonta fragmentarea sa actuală în materie de infrastructuri. Pentru a mobiliza acest potențial sunt esențiale investițiile substanțiale în acest domeniu, în structuri deschise și interoperabile. Aceasta ar permite o utilizare responsabilă a vastelor resurse de date ale UE, cu un acces exclusiv pentru cei care rămân fideli valorilor sale fundamentale. Inițiativa „EuroStack” a definit o strategie clară în acest sens: o aliniere a politicii digitale asupra strategiei europene mai largi în materie de securitate și apărare; crearea unui fond unional-european pentru tehnologii suverane; implementarea de servicii digitale, pe calea unui concurs, la nivel european; preferința acordată infrastructurilor digitale construite în Europa pe piețele publice; dezvoltarea unei IA suverane și de spații de date federate. Acordurile existente (precum tratatul de la Aix-la Chapelle din 2019 dintre Franța și Germania) oferă deja un cadru european pentru cooperarea transfrontalieră în domeniul de gestiune securizată a datelor. Desigur, o atare cooperare se impune a fi extinsă la nivel european, spre a răspunde pe deplin nevoilor strategice ale continentului. Nu e vorba de protecționism, ci de a îndrăzni a propune o viziune nealiniată a evoluției digitale. Stabilirea acestor elemente de guvernanță și tehnologie vor avea o rezonanță corespunzătoare în privința poziționărilor alianțelor de profil, la nivel mondial și reglementărilor juridice de adoptat. Planul de a face din UE „continentul inteligenței artificiale”, prezentat de Comisia Europeană la 9 aprilie 2025, vorbește de dezvoltarea unei „IA suverane, à l’européenne” și anunță prezentarea, în septembrie a.c., a unei strategii pentru realizarea „uniunii datelor”, elaborarea, până la începutul anului 2026, a unei propuneri legislative pentru sporirea capacității de cloud în cadrul Uniunii, având ca obiect triplarea acesteia în următorii cinci ani. Nu în ultimul rând, precum în toate sectoarele, executivul unional-european caută să ușureze sarcinile administrative ce apasă asupra întreprinderilor europene din domeniul tech, evocându-se posibilitatea „raționalizării” legislației sale în materie de date, în scopul de a-i „reduce complexitatea”. Este vizat, în acest context, și Regulamentul (UE) nr. 2024/1689 privind IA, aflat deja în proces de punere în aplicare. Cu precizarea că în privința sa se consideră că nu „va fi prejudiciabilă pentru nimeni reducerea anumitor obligații de declarație” și că „A simplifica nu înseamnă a spune în mod necesar că vom schimba legea. Vom vedea mai târziu” a ținut să precizeze comisarul UE responsabil în domeniu. Poziționarea agresivă, venită de peste ocean, în favoarea unei totale dereglementări a activității economico-sociale, inclusiv în domeniul digitalizării și IA, implică regândirea legăturii dintre dereglementare (deregulare) și reglementare (regulare). În concepția și practica europene, dereglementarea (deregularea), prefigurată de tratatele europene, nu reprezintă contrariul său, adică absența reglementării; dacă ea presupune suprimarea tuturor regulilor și normelor care impun obstacole concurenței, nu exclude, însă, recursul paralel la reglementări care să o protejeze de orice distorsiune, garantându-se funcționarea ei, echilibrată și echitabilă, și, în consecință, menținerea sa[1]. Din această perspectivă, în spirit Keynes-ist, UE și marea sa piață se sprijină pe o strategie de dereglementare strâns legată de cea de reglementare. Este de domeniul evidenței că o liberalizare excesivă a schimburilor, care este obiectivul urmărit în prezent de Administrația S.U.A., cu o dereglementare la toate azimuturile și fără cel mai restrâns cadru reglementar, conduce, în mod inevitabil, la o concurență care nu mai e decât una în care legea celui mai puternic, se substituie celei a echilibrului forțelor în prezență. În statele cu o economie centralizată, precum China, liberalizarea ori dereglementare schimburilor rămâne marginală, în fața unei puteri autoritare de reglementare care se impune la toate nivelurile. Între aceste două extreme, Uniunea Europeană încearcă să caute un echilibru; în aceste rețele de interdependență multiple pe care le generează mondializarea, UE acționează spre a fi un spațiu geografic mai restrâns, pentru un mai bun control sau reglementare. Dar prezența a 27 de sisteme de reglementări juridice ar favoriza o fragmentare inadmisibilă și ar făcea dificilă găsirea unui echilibru între dereglementarea legată de marea piață interioară și o reglementare indispensabilă obținerii armonizărilor necesare urmării procesului de integrare comunitară. De altfel, noul multilateralism menit să relanseze colaborarea globală pentru rezolvarea durabilă și echitabilă a crizelor planetare, inclusiv a celei a afirmării noilor tehnologii digitale, va trebui să păstreze printre fundamentele sale, adaptate noilor realități, bazele ferme ale dreptului internațional, reperele unei coalizări a țărilor lumii conștiente de riscurile majore ale epocii și determinate să acționeze în mod colectiv și dacă se poate și solidar. Dacă nu se va face nimic consistent și relevant pentru a guverna și reglementa la timp și adecvat avântul digitalului global și amplificarea puterii de oligopol a Big Tech, criza financiară, cea a locurilor de muncă și a vidului etic și, poate, înainte de toate, impactul imprevizibil asupra drepturilor umane, democrației și a statului de drept vor cunoaște dimensiuni inacceptabile, un curs ireversibil și consecințe dezastruoase pentru civilizația umană. [1]A. Buzelay, Entre volonté de dérégulation et régulation - Un faux débat pour l'Europe,„Revue de l’Union européenne” no. 687, mars2025, p. 221.
CJUE: Consacrarea unui drept la explicabilitatea scoring-ului bancar

Explicabilitatea unei decizii automatizate:Curtea de la Luxemburg sesizată cu o trimitere preliminară formulată privind o cauză care opunea un editor de soft de scoring bancar și un potenţial client pentru care scoring-ul indica o solvabilitate financiară insuficientă, a nuanţat principiul justului echilibrul al informării asupra funcționării unui sistem de inteligență artificială (SIA): operatorul este ținut să comunice aceste informații pretins protejate autorității de control ori jurisdicției competente, în scopul de a determina întinderea dreptului de acces al persoanei.

În prezența unei decizii individuale automatizate, informațiile utile privind logica subadiacentă tratamentului se înțeleg ca un drept la explicarea procedurii și a principiilor aplicate, în mod concret, privind datele personale ale persoanei vizate, în scopul de a obține un rezultat determinat. Aceste explicații trebuie să fie suficient de inteligibile pentru a permite persoanei respective să-și exercite drepturile sale, în special a celui de a contesta decizia.(CJ-UE, decizia din 27 februarie 2025, cauza Dun&Bradstreet Austria, aff. C-203/22).

1. Informarea asupra funcționării unui sistem de inteligență artificială (SIA), și în general a oricărui tratament automatizat, ridică probleme relative la gradul său de precizie. Din punctul de vedere al intereselor responsabilului tratamentului, protecția garantată de secretul afacerilor – singura alternativă satisfăcătoare de protecție – riscă să fie subminată în caz de divulgare integrală. Din cel al persoanei care face obiectul unei decizii automatizate, o atare divulgare ar respecta pe deplin principiul transparenței, fără totuși să garanteze o înțelegere a procesului decizional. Această balanță de interese se observă în prezența unei decizii fondate exclusiv pe un tratament automatizat, inclusiv un profilaj, care produce efecte juridice asupra unei persoane vizate, care dispune de un regim special în cadrul Regulamentului general privind protecția datelor (UE) nr. 2016/679 din 27 aprilie 2016 (RGPD). La puțin timp după importanta decizie Schufa (CJUE, hotărârea din 7 decembrie 2023, aff. C-634/21) care preciza, în special, câmpul său de aplicare, Curtea de Justiție a Uniunii Europene se pronunță din nou, precizând gradul de informare cuvenit persoanei vizate, atunci când își exercită dreptul său de acces. 2. În speța de față, Curtea de la Luxemburg a fost sesizată cu o trimitere preliminară (chestiune prejudicială) formulată în cadrul unei cauze care opunea un editor de soft de evaluare a creditului (scoring bancar) și o persoană care fusese refuzată cu încheierea unui contract de telefonie mobilă, pe motivul că rezultatul scoring-ului prezenta o solvabilitate financiară insuficientă. Tribunalul administrativ obligase editorul să furnizeze persoanei respective informații suplimentare asupra scorului său, în termenul art. 15 §1, h) din RGPD, relativ la dreptul de acces la informații utile privind softul subadiacent luării deciziei automatizate. Totuși, cererea de executare silită a hotărârii a fost respinsă, pe motivul că editorul acestuia își îndeplinise obligațiile sale, chiar în absența furnizării de informații suplimentare. Sesizată cu un recurs împotriva acestei din urmă hotărâri, jurisdicția de trimitere a estimat, pe de o parte, că numai un expert era în măsură să evalueze aceste informații, incluzând datele tratate, formula matematică, valoarea atribuită fiecărui factor, precum și scara de interval. Pe de alta, editorul softului ar trebui, de asemenea, să furnizeze o listă de scoruri de persoane care să fi făcut obiectul unei evaluări cu 6 luni mai înainte și după persoana vizată. În cazul concret, se părea că scorul atesta o bună solvabilitate a persoanei, contrar a ceea ce pretindea editorul softului și operatorul de telefonie mobilă. În acest fel, jurisdicția de trimitere întreba, în special, dacă art. 15 §1 h) din RGPD includea dreptul de a putea verifica exactitatea informațiilor comunicate de responsabilul tratamentului și dacă acesta putea să apere secretul comercial la o cerere de exercitare a dreptului de acces. Interpretând noțiunea de „informații utile vizând logica subadiacentă”, CJUE consideră că responsabilul tratamentului trebuie să explice „prin intermediul informațiilor pertinente și într-un mod precis, transparent, comprehensibil și destul de accesibil, procedura și principiile aplicate concret pentru a exploata, pe cale automatizată, datele cu caracter personal relative la această persoană, în scopul de a obține un rezultat determinat, precum un profil de solvabilitate”. Dacă această comunicare include o informare protejată de secretul afacerilor „acest responsabil e ținut să comunice aceste informații pretins protejate autorității de control ori jurisdicției competente, cărora le incumbă a pondera drepturile și interesele în cauză, în scopul de a determina întinderea dreptului de acces al persoanei”. Surprinderea contribuțiilor în materie aferentă noii jurisprudențe, permite relevarea următoarelor aspecte. 2.1. Scoring-ul bancar e un profil. Decizia Curții înlătură, în mod definitiv, îndoiala asupra aplicării regimului de luare a deciziei automatizate la scoring-ul bancar; chestiune deja tratată anterior în cadrul hotărârii din cauza Schufa, care a purtat asupra stabilirii unei note de solvabilitate în funcție de o estimare comportamentală fondată pe informații comerciale. Cu această ocazie s-a statuat că scoring-ul era o decizie în sensul prevederilor art. 2 §1 din RGPD; s-a analizat noțiunea de decizie „fondată exclusiv pe un tratament automatizat, inclusiv profilajul”, care s-a referit numai la noțiunea de profil, rămânând în suspensie interpretarea restului definiției. 2.2. Consacrarea dreptului la explicabilitatea unei decizii automatizate. Punctul central al deciziei e reprezentat de interpretarea dreptului special de informare în prezența unei decizii automatizate. Responsabilul tratamentului e ținut astfel să furnizeze persoanei vizate „informații utile privind logica subsecventă, precum și importanța și consecințele prevăzute de acest tratament pentru persoana vizată” în caz de exercitare a dreptului de acces al acesteia [RGPD, art. 15 §1, h)]. Potrivit instanței, aceste obligații implică faptul ca responsabilul tratamentului „să explice, prin intermediul informațiilor pertinente și într-un mod concis, transparent, compulsiv și ușor accesibil, procedura și principiile aplicate concret pentru a exploata, pe cale automatizată, datele cu caracter personal relative la această persoană, în scopul obținerii unui rezultat determinat, astfel un profil de solvabilitate” (pct. 66). Raționamentul Curții urmează trei timpi: un exercițiu de legistică (punctele 40 la 43); o apreciere contextuală (punctele 44 la 50) și o luare în calcul a obiectivelor RGPD (punctele 51-65). În primul rând, în vederea înțelegerii substanței noțiunii de „informații utile privind logica subînțeleasă”, instanța unional-europeană analizează diferitele traduceri ale RGPD, constatând „diversitatea accepțiunilor reținute”, care trebuie deci înțeleasă ca „o complementaritate de semnificații” (pct. 41). Rezultă deci că „utilitatea” e sinonimă „pertinenței” și că logica subadiacentă „vizează orice informație pertinentă relativă la procedură și la principiile de exploatare, pe cale automatizată, datele cu caracter personal în scopul de a obține un rezultat determinat” (pct. 43). În al doilea rând, interpretarea art. 15 §1, h) trebuie să țină seama de alte informații obținute cu titlul dreptului de acces (RGPD, art. 15 §1) din faptul că formează un ansamblu cu obligațiile speciale de informare și din aceea că responsabilul tratamentului trebuie, de asemenea, să formuleze o copie a datelor tratate în timpul exercitării dreptului de acces (RGPD, art. 15 §3). În al treilea rând, amintindu-se că RGPD are ca finalitate întărirea drepturilor persoanelor vizate, Curtea arată că obiectivul dreptului de acces e acela de a permite persoanei, pe de o parte, să verifice principiile de liceitate și de exactitudine a datelor (pct. 53) și, pe de alta, să-și exercite drepturile sale, inclusiv dreptul de a contesta decizia automatizată (pct. 51 și 55). Dacă, continuă instanța, persoana nu e în măsură să înțeleagă informațiile relative la logica subadiacentă a tratamentului, ar fi imposibil să se satisfacă obiectivele precitate (pct. 56). În consecință, articolul 15 §1 h) din RGPD „oferă persoanei vizate un veritabil drept la explicație privind funcționarea mecanismului, care subînțelege o luare de decizie automatizată căreia această persoană i-a făcut obiectul și asupra rezultatului la care această decizie a ajuns” (pct. 57). Exercitarea dreptului de acces la informațiile privind logica subadiacentă a sistemului implică, în mod evident, eliberarea unei informații. Astfel, responsabilul tratamentului trebuie să satisfacă exigențele art. 12 §1 din RGPD, care impune eliberarea unei informații „concise, transparente, comprehensibile și ușor accesibile, în termeni clari și simpli”. În lumina acestei dispoziții și a Liniilor directoare relative la luarea deciziilor individuale automatizate și la profil, Curtea arată că „nu ar satisface aceste exigențe nici simpla comunicare a unei formule matematice complexe, precum un algoritm, nici descrierea detaliată a tuturor etapelor unei luări de decizii automatizate, în măsura în care nici una din aceste modalități nu ar constitui o explicație suficient de concisă și comprehensibilă” (pct. 59). Această precizare are importanța sa, în special atunci când decizia se bazează pe un sistem de inteligență artificială în sensul Regulamentului (UE) nr. 2024/1689 din 13 iunie 2024. În consecință, ar fi permis responsabilului tratamentului să furnizeze o notă de informare complexă a sistemului său în scopul de a-și satisface obligația, fără ca persoana vizată să fie în măsură să conteste decizia automatizată a respectivului sistem. Grație precizărilor aduse de Curte, de acum înainte îi este imposibil responsabilului tratamentului de a se sustrage indirect de la obligațiile sale, punând în mișcare opacitatea sistemului său de inteligență artificială. S-a precizat, de asemenea, că informațiile utile privind logica subadiacentă trebuie „să descrie procedura și principiile aplicate în mod concret, în așa fel încât persoana vizată să poată înțelege care din datele sale cu caracter personal au fost în ce fel în cadrul luării deciziei automatizate în cauză, fără ca complexitatea operațiunilor de realizat în cadrul luării de decizii automatizate să poată exonera responsabilul tratamentului de îndatorirea sa de explicație (pct. 61). Această interpretare urmează evoluția juridică care e aferentă sistemelor de inteligență artificială și, în general, sistemelor automatizate: informația nu mai e de acum înainte sinonimă transparenței, ci explicației. Față de complexificarea sistemelor, devine evident că destinatarul informației nu are parte de tratarea ei integrală și precisă – care implică uneori miliarde de parametri – în mod contrar incidenței datelor asupra deciziei. Această logică se regăsește și în regulamentul privind inteligența artificială în cazul sistemelor care prezintă un grad ridicat de risc, unde concepția și dezvoltarea lor trebuie să fie gândite în așa fel ca funcționarea să fie „suficient de transparentă pentru a permite implementatorilor să interpreteze ieșirile... și de a le utiliza în mod corespunzător” (RGPD, art. 13 §1). Mai mult decât atât, un paralelism cu RGPD se observă prin menționarea unor informații „concise, complete, exacte în clar, care să fie pertinente, accesibile și comprehensibile pentru implementator” (RGPD, art. 13 §2). Totodată, această basculare antrenează o veritabilă schimbare de paradigmă. Dacă inițial dreptul la explicare era rezervat persoanelor aflate pe o poziție slabă – consumator ori persoană vizată –, extinderea sa la utilizatori, în mod obișnuit guvernată de contract, îi privează de o autonomie, ceea ce le poate fi prejudiciabil. Aprecierea gradului de protecție, prin informare, se deplasează astfel de la persoană la obiectul contractului. În materie de decizie automatizată, această evoluție trebuie să fie salutată în măsura în care persoana care controlează sistemul beneficiază nu numai de un avantaj informațional ci și, mai ales, de o poziție favorabilă pentru a se sustrage de la orice responsabilitate. Ei îi va fi ușor a pretinde că rezultatul unei decizii nu îi va fi imputabilă și că funcționarea procesului decizional îi este necunoscută. Pot rezulta astfel toate formele de atitudini neloiale; în primul rând faptul de a afirma că sistemul a ales soluția care îi e favorabilă, în timp ce ea ar fi revenit în realitate persoanei vizate. Este, de altfel, conținutul faptelor în speță: contractul de telefonie a fost refuzat persoanei vizate sub pretextul unui scor negativ, în timp ce apărea că datele persoanei ar fi generat unul pozitiv. Față de aceasta, Curtea arată că exercitarea dreptului la informații utile privind logica subadiacentă ar permite să se determine dacă refuzul provine de la decizia operatorului de telefonie mobilă ori din rezultatul furnizat de editorul softului de scoring (pct. 64). Se precizează, de asemenea, că această contradicție poate să fie rezolvată prin combinarea acestui drept la informare cu verificarea exactității datelor (pct. 63). În fine, se sugerează jurisdicției de trimitere să dispună responsabilului de tratament „să informeze persoana vizată în măsura în care o variație a nivelului de date cu caracter personal luată în calcul ar conduce la un rezultat diferit” (pct. 62). 2.3. Încadrarea secretului afacerilor. Dacă modul cel mai bun de a se proteja secretele sistemului său rămâne încă acela de a nu-i divulga funcționarea, soluția adusă de jurisprudență comportă obligații foarte defavorabile pentru responsabilul tratamentului. O balanță a intereselor trebuie să fie astfel mobilizată, în scopul de a prezerva interesele în prezență. Așadar, amintește instanța, dreptul la protecția datelor „nu e un drept absolut și trebuie pus în balanță cu alte drepturi fundamentale” (pct. 68), inclusiv secretul afacerilor (pct. 69). Astfel, pe de o parte, o limitare a dreptului de acces e posibilă (pct. 70) și, pe de alta, statele membre nu pot să consacre o dispoziție care să limiteze în mod sistematic acest drept în prezența unui secret de afaceri (pct. 75). Rămâne, desigur, problema spinoasă a aprecierii acestei balanțe de interese. Față de principiul de accountability, revine, în principiu, responsabilului tratamentului de a proceda la acest exercițiu. Totuși e evident că anumiți actori ar ceda tentației de a favoriza secretul afacerilor fără o reală justificare. Or, în pofida creșterii semnificative a numărului plângerilor după intrarea în vigoare a RGPD, procedura rămâne susceptibilă să descurajeze persoanele vizate și să lase astfel responsabilul tratamentului să acționeze în deplină impunitate. Valorificând jurisprudența anterioară, Curtea a mai precizat că informațiile pretins protejate prin secretul afacerilor „trebuie să fie comunicate autorității de control ori jurisdicției competente, cărora le incumbă să pondereze drepturile și interesele în cauză, în scopul de a determina întinderea dreptului de acces al persoanei vizate la datele cu caracter personal care le privesc” (pct. 74). Chiar dacă această conformare jurisprudențială dovedește un recul al principiului de accountability în profitul, în mod special al autorităților de control, soluția rămâne echilibrată. Curtea optează pentru prevenție, privilegiind interesele persoanelor vizate fără, totuși, a le acorda un drept absolut. 
Utilizarea datelor protejate prin drepturi de autor pentru antrenarea sistemelor AI: cauza Thomson Reuters v. Ross Intelligence

IA şi proprietate datelor de antrenare:Thomson Reuters obţine câştig de cauză în procesul din SUA, prin hotărârea din 11 februarie 2025, pentru încălcarea drepturilor de autor de către Ross Intelligence, care a cumpărat de la o terţă parte baza de date Westlaw conţinând comentarii practice proprietatea Thomson Reuters pentru a îşi antrena modelul AI. Deşi decizia nu e la adăpost de critici şi e limitată la IA non-generativă raționamentul instanţei este relevant pentru deciziile viitoare.

La 11 februarie 2025, în Statele Unite a fost pronunțată o primă decizie privind antrenarea unui sistem AI cu date protejate prin drepturi de autor. Judecătorul Bibas s-a pronunțat în mare parte în favoarea Thomson Reuters, considerând, printre altele, că utilizarea conținutului nu se încadrează în regulile utilizării loiale (fair use), în special având în vedere impactul asupra pieței și natura netransformatoare a tranzacției (Tribunalul Districtual Delaware, 2 februarie 2025, Thomson Reuters Enterprise Centre c. Ross Intelligence Inc., nr. 1:20-cv-613-SB).

1. Situația de fapt
Speța de față are drept părți companiile Thomson Reuters, proprietarul platformei Westlaw, și Ross Intelligence, dezvoltatorul unui instrument de cercetare juridică ce utilizează un sistem de inteligență artificială (IA). Pentru a-și dezvolta acest instrument, compania Ross a încercat să obțină o licență pentru a utiliza conținutul Westlaw al Thomson Reuters în scopul antrenării modelului IA, dar Thomson Reuters a refuzat. Prin urmare, Ross a apelat la o terță parte, compania LegalEase, pentru a cumpăra baze de date cu comentarii juridice (denumite Bulk Memos – „memorandumuri în vrac”). Acestea constau în compilații de întrebări practice formulate de avocați, pentru care sunt propuse răspunsuri corecte și greșite. LegalEase le-a oferit avocaților un ghid de utilizare a comentariilor disponibile în programul Westlaw, solicitându-le expres să nu le reproducă ad litteram în soluțiile propuse. Astfel, Ross a folosit 25.000 de bulk memos pentru a-și antrena sistemul IA. Descoperind situația, Thomson Reuters a decis să intenteze o acțiune împotriva companiei Ross pentru încălcarea drepturilor de autor, susținând utilizarea neautorizată a comentariilor aparținând Westlaw și a sistemului de numere-cheie, folosit abuziv pentru antrenarea sistemului AI. În 2023, judecătorul Bibas a emis o hotărâre inițială, refuzând să acorde o summary judgement (hotărâre sumară) părților, concluzionând că este necesară intervenția unui juriu pentru a determina dacă teoria utilizării loiale (fair use) se poate aplica în acest caz (Districtul Delaware, 25 septembrie 2023, Thomson Reuters Enterprise Centre GmbH și West Publishing Corp. v. Ross Intelligence Inc., nr. 1:20-cv-613-SB). În SUA, o hotărâre sumară este o decizie a instanței prin care se poate soluționa un litigiu fără proces cu juriu, dacă nu există dispute asupra faptelor, ci doar asupra aplicării legii. Totuși, la 11 februarie 2025, același judecător Bibas a revenit asupra deciziei, apreciind că multe aspecte pot fi soluționate fără juriu și a dat câștig de cauză societății Thomson Reuters.

2. Soluția în speță Din rațiuni de claritate, concluziile pot fi analizate în două părți:

2.1. Originalitatea și copierea substanțială a conținutului utilizat Judecătorul a analizat originalitatea comentariilor și a concluzionat că atât selecția, cât și aranjarea acestora sunt originale, fiecare dintre ele având suficientă originalitate pentru a beneficia de protecția drepturilor de autor. Pentru a ilustra, a comparat munca autorului comentariilor cu cea a unui sculptor, care adaugă valoare prin selecție și intenție creatoare. Chiar dacă unele comentarii reproduc opinii judiciare, selecția și formularea acestora poartă o „scânteie creatoare” individualizatoare. De asemenea, și sistemul de numere-cheie a fost considerat original. Instanța a constatat că 2.243 de memorandumuri vrac analizate au fost copiate din comentariile Thomson Reuters și nu din avizele instanței, ceea ce reprezintă o similitudine substanțială. Alte seturi de comentarii, mai puțin clare, au fost trimise juriului.

2.2. Apărarea utilizării loiale Analiza celor patru factori ai utilizării loiale (conform secțiunii 107 din Legea drepturilor de autor din 1976) s-a concentrat pe:
Primul factor: scopul și natura utilizării. S-a concluzionat că utilizarea de către Ross este comercială și nu transformatoare, deoarece nu adaugă un scop diferit sau o valoare nouă. Sistemul Ross concura direct cu Westlaw, folosind datele sale ca fundament. Ross a susținut că datele au fost folosite într-o etapă intermediară, citând spețe precum Sega v. Accolade, dar instanța a respins aceste analogii, întrucât vizau coduri informatice, nu comentarii juridice.
Al patrulea factor: efectul asupra pieței. Instanța a apreciat că utilizarea poate afecta o piață emergentă pentru licențierea datelor de antrenament, chiar dacă Thomson Reuters nu exploatase încă această piață.
Al doilea și al treilea factor: natura operei și cantitatea copiată. Deși produsul era original, nu era foarte creativ, iar Ross nu a publicat comentariile copiate. Totuși, acești factori nu au contrabalansat ceilalți doi. În concluzie, balanța a înclinat în favoarea Thomson Reuters, iar doctrina utilizării loiale nu a fost considerată aplicabilă.

3. Comentarii Această soluție este semnificativă, deși se limitează la utilizarea unor sisteme IA non-generative. Relevant este faptul că sistemul IA a fost antrenat pentru a reproduce funcționalitățile Westlaw, ceea ce poate justifica un rezultat diferit față de cazuri ce implică IA generativă cu scopuri multiple. Decizia ridică și întrebări privind definirea pieței potențiale. Ea poate constitui precedent pentru a susține că există un impact asupra unei piețe emergente de licențiere a datelor pentru antrenarea IA, chiar dacă această piață nu era activ exploatată de titularii drepturilor de autor la momentul faptelor. Unii critici (ex. Authors Alliance) susțin că instanța a comis o eroare de raționament circular: a presupus existența unei piețe afectate fără a demonstra că aceasta ar fi existat în mod natural, independent de utilizarea de către Ross. În concluzie, rămâne de văzut cum va influența această decizie cazurile viitoare, în special în contextul IA generativă.
Vezi și Observatorul Dreptului Inteligenței Artificiale (ODIA) – Martie 2025
Meta urmărită judiciar în Franța pentru nerespectarea drepturilor de autor
Președinte al Universității Ecologice București, fiind specializat în dreptul mediulului, amenajării teritoriale și urbanismului.
Back To Top