Portrait of happy young woman looking up, top view
JuridicConformitate14 ianuarie, 2025

Jurisprudență Inteligență Artificială

Observatorul Dreptului Inteligenței Artificiale (ODIA) – Ianuarie 2025

Jurisprudență Inteligența Artificială

 

Jurisprudenţa IA: 1. New York Times vs. OpenIA și Microsoft, utilizarea articolelor de presă, protejate de copyright în scopul de a antrena modelele IA (22 noiembrie 2024); 2. WhatsApp vs. NSO Group exploatarea unui defect de securitate al aplicației mesageriei pentru instalarea Pegasus, un soft spion foarte puternic, capabil să aspire, fără știrea utilizatorilor, toate datele unui telefon,(20 decembrie 2024).

 

1. Cauza New York Times c/ OpenIA și Microsoft Corporation – o jurisprudență majoră în domeniul IA

 

În numărul din decembrie 2024 al ODIA prezentam, pe scurt, decizia din 22 noiembrie 2024 (US District Court Southern district of New York. The New York Times Company v. Microsoft Corp., OpenAI Inc., 27 decembrie 2023) prin care cererea de producere a anumitor elemente de probă formulată de pârâte era respinsă. Dacă acestea din urmă susțineau că respectivele documente erau importante pentru apărarea lor, argumentele avansate nu au fost în măsură să convingă instanța. Jurisprudența are o importanță deosebită pentru problematica ridicată, respectiv implicațiile IA în privința drepturilor de proprietate literară și artistică și în contextul în care justiția de peste ocean se confruntă cu tot mai multe procese având ca obiect atari chestiuni. Din asemenea rațiuni de precedent judiciar, cu implicațiile aferente, dezvoltăm mai jos, în sinteză, respectiva hotărâre judecătorească americană și provocările sale.

În fapt, la 27 decembrie 2023 ziarul New York Times a introdus o „cerere” de acțiune colectivă contra OpenIA și Microsoft în fața District Court Southern District of New York, inaugurând astfel seria de demersuri judiciare în materie de inteligență artificială și care avea repede să fie urmată și însoțită de numeroase alte procese cu obiecte de această natură. Așa se face că în 2024 s-au înregistrat numai în S.U.A. circa treizeci și cinci de cauze de acest gen.

În acțiunea depusă de cotidianul newyorkez se formulau mai multe capete de cerere, cu diferite temeiuri de drept, în frunte cu denunțarea unei contrafaceri primare ori directe (17 USC, § 106). Jurnalul reproșa societăților OpenIA și Microsoft de a fi utilizat în mod masiv articolele sale de presă, protejate de copyright în scopul de a antrena modelele celor două firme, realizând astfel acte de contrafacere, stocând, tratând și reproducând conținut protejat, fără autorizare și nici compensare pentru titularii drepturilor. Se susținea, de asemenea, și o contrafacere a conținuturilor în reproducerea lor în conținutul generat de Chat GPT și BingChat. Totodată, și ceea ce marchează singularitatea cererii în cauză e atenția specială acordată explicării detaliate a modului de funcționare a tehnologiei implementate de OpenIA și Microsoft, precum și tentativa de a aduce probe ale actelor supuse, în principiu, autorizării din partea titularilor drepturilor respective. În consecință, plângerea introductivă a fost însoțită de extrase aferente ieșirilor (output) generate prin utilizarea ChatGPT și BingChat, reproducând în mod verbatim articole publicate de New York Times, ceea ce apărea ca o probă actelor atingere a dreptului de reproducere.

În apărarea lor, cele două pârâte au invocat excepția de faire use (utilizarea loială sau echitabilă), care permite folosirea de lucrări protejate fără autorizarea titularilor de drepturi, cu condiția îndeplinirii anumitor condiții. Dacă acestea, neexclusive, sunt întrunite, atunci utilizarea conținutului protejat va fi considerată ca echitabilă și uzajul nu va mai fi contrafăcut.

În justificarea sa, decizia judecătorească amintește factorii prevăzuți în Copyright Act pentru a caracteriza o utilizare loială a unei opere protejate, respectiv: scopul și natura utilizării, inclusiv chestiunea de a ști dacă aceasta e de natură comercială ori dacă ea e făcută cu finalitățile educative, fără scop lucrativ; natura operei protejate de dreptul de autor; cantitatea și caracterul substanțial al părții utilizate în raport cu ansamblul operei protejate juridic și efectul utilizării pe piață potențială ori valoarea operei protejate.

Atunci când e examinat primul factor, se ia în considerare și dacă utilizarea operei e una „transformativă”. În acest sens, pârâții au argumentat că folosirea dată conținutului din New York Times are această calitate. În plus, o axă a apărării a fost construită pe susținerea că reproducerile articolelor din jurnal aparțineau tehnicilor de prompt hacking (adică manipularea modelului prin felul în care a fost postat). S-a explicat că reproducerile furnizate rezultă dintr-o manipulare a modelului pentru a genera atari rezultate, care nu sunt în mod normal posibile cu o utilizare normală.

În acest context argumentativ, pârâții au formulat o cerere de „constatare” în scopul de a obține unele elemente de probă pentru a stabili și susține apărarea de faire use.

Regulile de procedură civilă federală americană permit constatarea/descoperirea (discovery) oricărei informații neconfidențiale pertinente pentru cererea ori apărarea unei părți, atâta timp cât aceasta e proporțională cu nevoile cauzei [Federal Rule of Civil Procedure 26 (b) (1)]. E posibil, de asemenea, să se solicite producerea anumitor probe de către o parte sub rezerva de a dovedi că aceasta e pertinentă și proporțională cu necesitățile cauzei judiciare. În această perspectivă, societățile OpenIA și Microsoft au solicitat producerea anumitor documente pentru a se  stabili:

            – utilizarea de către „New York Times” de instrumente de inteligență artificială generativă ale terților;

            – crearea și utilizarea de către publicație de proprii produse de IA generativă;

            – poziția ziarului privind inteligența artificială generativă, cea exprimată în afara litigiului, cunoașterea sa  a antrenamentului de sisteme de IA generativă terțe utilizând conținutul protejat de New York Times.

            Pârâții au estimat că acestea sunt elemente pertinente pentru stabilirea apărării lor în faire use.

            Printr-o decizie din 22 noiembrie 2024 a Tribunalului districtului Sud din New York cererea de prezentare a documentelor a fost respinsă. Pentru aceasta s-a arătat mai întâi că se impune aprecierea factorilor de luat în considerare pentru a se prevala de excepția de fair use. Aceștia nu cer, de exemplu, analizarea declarațiilor făcute de un titular de drept asupra unei industrii generale ori chiar utilizarea de către el a altor sisteme de IA. Pârâții susțineau că documentele solicitate erau pertinente în raport cu afirmația reprezentanților publicației potrivit căreia „simpla existenţă a acestei tehnologii constituie o amenințare pentru modelul său economic și activitatea jurnalistică”. Totuși această alegație nu era un argument avansat de New York Times, ci pur și simplu unul din titlurile plângerii modificate intitulate „Produsele GenAI amenință jurnalismul de calitate”; secțiunea în chestiune vizează în realitate, între altele, protecția prin copyright a conținutului jurnalistic.

            În plus, tribunalul a arătat că jurisprudența citată în susținerea cererii spre a demonstra apărarea pe cale de excepție ori pentru titlul plângerii modificate este prost interpretată de către reclamanți. De exemplu, hotărârea Google c/ Oracle (Supreme Court, Google LLC v. Oracle America Inc., 5 aprilie 2021), citată, nu susține o modificare a celui de al patrulea factor al fair use pentru a considera că descoperirea opiniilor ori a declarațiilor reclamantului privind „avantajele publice” ale IA generativă pentru jurnalism sunt pertinente. În consecință, în decizia sa, Curtea Supremă sugerase, mai degrabă, o viziune mai nuanțată a analizei efectelor pe piață, unul din factorii fair use, care cere luarea în considerare a importanței avantajelor publice pe care copia e susceptibilă să le producă pentru „interesul dreptului de autor pentru producția creativă a noilor expresii” și a pune în balanță pierderea potențială pentru titularul dreptului de autor „ținând seama de natura sursei pierderii”.

Decizia subliniază că aici, în speță se pune problema de a determina dacă pârâții au antrenat modelele lor de IA asupra conținutului protejat. Nu e vorba de un „referendum” privind potențialele avantaje ale IA generative, nici de o cauză purtând asupra practicilor comerciale ale reclamantului și nici nu e vorba de a ști dacă se utilizează instrumente similare în cadrul profesional. Documentele solicitate sunt, deci, considerate ca nepertinente spre a permite pârâților să stabilească întrunirea cerințelor operării excepției de fair use.

Această jurisprudență ne oferă însă o nouă provocare în cadrul unei cauze judiciare deja marcate de numeroase discuții și al cărei deznodământ final e așteptat cu deosebit interes.

 

 

2. NSO Group, recunoscută vinovată de pirataj de către justiția americană

După cinci ani de proceduri judiciare, un judecător american al districtului Oakland (California) a pronunțat, la 20 decembrie 2024, o hotărâre în favoarea mesageriei WhatsApp, proprietatea gigantului american Meta, în cadrul unui proces împotriva societății NSO Group; întreprinderea israeliană a fost considerată vinovată de a fi exploatat un defect de securitate în aplicația mesageriei pentru instalarea Pegasus, un soft spion foarte puternic, capabil să aspire, fără știrea utilizatorilor, toate datele unui telefon. Decizia judiciară e considerată a avea enorme implicații pentru industria softurilor spioni „ansamblul sectorului ascunzându-se în spatele afirmației potrivit căreia ceea ce fac clienții cu instrumentele lor de pirataj nu cade decât în răspunderea lor”. Ea stabilește în mod clar că NSO Group este, în fapt, responsabilă de nerespectarea legislației pertinente.

În 2019 WhatsApp a acționat în justiție societatea israeliană, acuzând-o de a fi contribuit la piratarea, în scopuri de spionaj, a o sută de utilizatori ai acestei aplicații, fără autorizație. Potrivit reclamantei, această intruziune a permis supravegherea a 1400 de persoane, printre care jurnaliști, militanți pentru protecția drepturilor omului și disidenți. În apărarea sa, pârâta a susținut că softul Pegasus ajută forțele de ordine și agențiile de informații să aresteze teroriști, pedofili și criminali. De mai multe ori în cadrul procedurii judiciare întreprinderea a trebuit totuși să recunoască responsabilitatea sa, până la o decizie din 2023 a Curții Supreme. Cauza trebuie de acum înainte să fie judecată, într-o altă etapă judiciară, în privința daunelor pe care NSO Group va trebui să le achite reclamantei.


IA: bilanț 2024, perspective 2025


2024 – An reprezentativ pentru evoluţia IA: adoptarea a două acte normative fondatoare ale modelului juridic european privind IA: încheierea Convenției-cadru a Consiliului Europei privind inteligența artificială și drepturile omului, democrația și statul de drept (17 mai) și, respectiv, Regulamentul (UE) din 13 iunie 2024 de stabilire a unor norme armonizate privind inteligența artificială (Legea privind IA). Indiciile privind evoluţia IA în 2025 încep deja să se contureze (Africa, S.U.A., U.E.).

 

 

Fără îndoială, 2024 va rămâne printre anii reprezentativi pentru realizările deopotrivă juridice și tehnologice în domeniul inteligenței artificiale. Progresul științific principal privește anunțul unui model denumit „03” și capabil de a lua timp de reflecție contra lui însuși, ceea ce lasă a se întrevedea acel moment, încă ipotetic și denumit „inteligență artificială generală (generalizată)” (IAG), la care mașina depășește omul în cvasitotalitatea funcțiilor sale cognitive. În planul dreptului aferent, ultimele 12 luni au fost marcate de adoptarea a două acte normative fondatoare ale modelului juridic european privind IA, cu vocație de model mondial: încheierea Convenției-cadru a Consiliului Europei privind inteligența artificială și drepturile omului, democrația și statul de drept (17 mai) și, respectiv, Regulamentul (UE) din 13 iunie 2024 de stabilire a unor norme armonizate privind inteligența artificială (Legea privind IA).

 

1. Progrese științifico-tehnologice relevante. Dintre avansurile semnificative de această natură înregistrate în 2024 se remarcă:

            – conceperea accelerată de medicamente și materiale; softul AlphaFold dezvoltat de DeepMind înseamnă un progres notabil în biochimie permițând predicția rapidă a structurii tridimensionale a proteinelor, ceea ce accelerează cercetarea privind noile medicamente și de materiale inedite;

            – predicția catastrofelor naturale; sistemele și modelele adecvate de analiză a datelor climatice în timp real favorizează evocările anticipate de populație și stabilirea de măsuri preventive salvându-se vieți și reducându-se daunele materiale;

            – crearea de video realiste – dezvoltarea de softuri care permit, pe bază de abonament plătit, producerea de video realiste în câteva minute, ceea ce ar putea afecta producția de filme și crearea de publicitate;

            – optimizarea agriculturii: integrarea tot mai accentuată a IA în sistemele agricole ca, de exemplu, în cazul dronelor de supraveghere a creșterii culturilor, identificarea nevoii de apă și de îngrășăminte și detectarea bolilor la un stadiu precoce;

            – inteligențe artificiale care își iau timp de gândire reprezintă tendința anunțată de noul model denumit „03” prezentat de OpenIA. Accesibil în mod general începând din ianuarie noul instrument de inteligență artificială ia măsura de a „gândi față de sine însuși” înainte de a da rezultatul. Utilizatorul ar putea, în special, să aleagă între trei niveluri de reflecție: slab, mediu și ridicat. Cu cât acestea sunt mai înalte cu atât modelul poate să-și ia timp spre a formula răspunsul (de câteva secunde!). Potrivit lui „New Scientist”, „03” a obținut și un scor record de 75,7% la „Abstraction and Reasoning Corpus”, un text de gândire recunoscut de IA, dar nu a satisfăcut încă exigențele lui „Grand Prix” care cere o precizie de 85%. Și în acest condiții însă, dincolo de exigențele de cost ale calculului impus de test, modelul atinge un nou record de 87,5%, în timp ce noi, oamenii, obținem, în medie, un scor de 84%.


2. Noi amenințări ale unor evoluții necontrolate.
Această accelerare a progreselor IA e însoțită, ca de obicei, de noi amenințări, inclusiv din punct de vedere juridic, pentru cele mai relevante pentru 2025, fiind reținute:

            – nerespectarea drepturilor de proprietate intelectuală. IA generative, precum modelele de deepfake, vor continua să exploateze opere protejate fără consimțământul autorilor. De exemplu, noutățile în domeniu privesc sporirea video manipulatoare vizând personalitățile publice, care pot aduce atingere imaginii acestora și să ridice probleme juridice privind protecția drepturilor de autor. Vor spori și procesele aferente contra marilor actori ai sectorului în continuarea experiențelor anterioare de acest gen;

            – amplificarea dezinformării de amploare. Atingerea unui nivel de realism fără precedent de către deepfakes stimulează extinderea utilizării acestora;

            – amenințarea unor pierderi de locuri de muncă și de afectare a dreptului la muncă prin automatizare. IA automatizează sarcinile în diverse sectoare, antrenând suprimarea locurilor de muncă. Printre domeniile afectate semnificativ în 2024 s-au numărat cele ale conducătorilor de taxiuri, de camioane, lucrătorilor din industria dublajului, traducerilor ș.a.;

            – exploatarea IA în scopuri de supraveghere. Este puternică tentația pentru autorități, în frunte cu regimurile autoritare, de a recurge la tehnicile de IA pentru o supraveghere mai intensă, în scopuri diverse, inclusiv represive. În 2024 China a continuat să dezvolte tehnici capabile să prevadă, plecând de la imensele baze de date, comportamentele cetățenilor și de notare a acestora;

            – apariția de noi actori în cursa pentru utilizarea IA. Nevoia de putere de calcul sporită stimulează concentrarea capacităților marilor întreprinderi tehnologice, cu limitarea accesului la inovare a micilor actori. În 2025 surpriza ar putea să vină din Africa, cu inițiative de genul Lelapa ori din zona europeană (prin proiecte franceze și engleze). Disputele juridico-financiare deja manifestate se vor amplifica cu siguranță. E. Musk, campion autoproclamat al „libertății de expresie absolută”, acuză ChatGPT, Gemini ori Meta AI de a fi prea „woke” și „politically correct” întrucât serviciile respective au stabilit sisteme de moderare a contribuțiilor considerate problematice: rasiste, sexiste, defăimătorii, prea partizane... În S.U.A., membrii administrației D. Trump, printre care și E. Musk doresc să lupte contra „cenzurii” IA, dar în UE activitățile de xAI ar putea să cadă în câmpul reglementării privind concurența ori responsabilitatea platformelor sau a fabricanților de SIA, ceea ce poate să constituie un subiect generator de tensiuni transatlantice suplimentare.

Vezi și Observatorul Dreptului Inteligenței Artificiale (ODIA) – Decembrie 2024
Nevoia unei reglementări de protejare a creatorilor față de impactul IA
Președinte al Universității Ecologice București, fiind specializat în dreptul mediulului, amenajării teritoriale și urbanismului.
Back To Top