JuridicConformitate17 martie, 2025

Meta urmărită judiciar în Franța pentru nerespectarea drepturilor de autor

Observatorul Dreptului Inteligenței Artificiale (ODIA) – Martie 2025
IA şi dreptul proprietăţiii intelectuale: În Franţa s-a declanşat urmărirea judiciară a Meta, care, pentru îmbunătățirea modelului său de limbaj LLama, a apelat, până în 2023 la o bază de date conținând textele a aproape 200.000 de cărți, Books3, constituită în pofida dreptului de autor. Este de aşteptat ca noul proces să testeze limitele principiului fair use.
Prof. univ. dr. Mircea DUȚU

Organizațiile reprezentative ale editorilor și autorilor din Franța au anunțat, miercuri 12 martie a.c., acționarea în justiție a societății americane Meta pentru nerespectarea drepturilor de autor, după recurgerea la cărțile lor pentru conceperea aplicațiilor de inteligență artificială generativă. Ele au denunțat într-un comunicat „o utilizare masivă a operelor protejate, fără autorizarea autorilor lor și a editorului”. E vorba de Sindicatul național al editorilor (SVE), Societatea oamenilor de litere (SGDL) și Sindicatul național al autorilor și compozitorilor (SNAC), care au sesizat astfel Tribunalul judiciar din Paris. „Am constatat prezența a numeroase opere editate de membrii SVE în corpusul de date utilizate de Meta”, a declarat președintele sindicatului, citat în document. Pentru îmbunătățirea modelului său de limbaj LLama, casa mamă a Facebook, Instagram și WhatsApp a apelat, până în 2023 la o bază de date conținând textele a aproape 200.000 de cărți – din care unele în franceză –, Books3, constituită în pofida dreptului de autor. Meta recunoscuse, în ianuarie 2024, în cadrul unei proceduri judiciare intentate, în S.U.A. de autori ai căror cărți figurau în această bază de date, o atare practică. În cadrul cauzei respective, grupul se apărase invocând uzajul rezonabil (fair use) al cărților respective. Nici o estimare a prejudiciului nu a fost divulgată la acest stadiu procesual. „Acțiunea pe care o antamăm trebuie să facă să se nască o voință serioasă a IA de a ține seama de creație, cu respectarea cadrului juridic, și, eventual, de a găsi contrapartidă pentru utilizările de opere prin care aceasta se alimentează”, au explicat reclamanții. SNAC a mai precizat că se dorește să se protejeze autorii „de pericolele IA care jefuiesc operele lor și patrimoniul cultural pentru a se antrena”. Inteligențele artificiale generative, a mai adăugat sindicatul, pot redacta apoi în câteva ore cărți întregi „care intră în concurență cu adevăratele cărți de autori”. 

Principiul neregresiunii în materie de IA

Tendinţe în reglementarea IA: Cristalizarea în legislația pertinentă a unui principiu al neregresiunii, în sensul interzicerii revenirii asupra măsurilor juridico-instituționale adoptate în vederea încadrării activităților privind IA ar fi binevenit, ar favoriza progresul și ar asigura siguranța într-un domeniu în care riscurile aferente sunt în creștere.

Dezvoltate cu precădere în ultimul deceniu, preocupările privind adoptarea unor măsuri de garantare a unei utilizări sigure și respectuoase cu drepturile umane a aplicațiilor inteligenței artificiale și reglementările etico-juridice în materie cunosc deja evoluții sinuoase, de progres și regres, de adaptare și revenire în raport de balansările politice și repoziționările de interese economice a giganților tech, ceea ce afectează securitatea juridică, consecvența și eficiența acțiunii de guvernanță adecvată a problemei. Evitarea ori, cel puțin limitarea unui atare fenomen și asigurarea progresivității în acțiunea de control uman asupra aplicațiilor noilor tehnologii și de utilizare a lor în interese general într-un cadru de guvernanță sigur și stabil, devin o prioritate. Sub impulsul atitudinilor în materie ale noii administrații a S.U.A. (care, printre altele, la 20 ianuarie 2025 a revocat Executive Order no. 1410 din 30 octombrie 2023 privind securitatea și încrederea în dezvoltarea și utilizarea IA) și ale alianței sale cu giganții tech, întreprinderile din domeniu au trecut la măsuri de revenire asupra unor principii etice și măsuri stabilite anterior, printre care cele referitoare la combaterea dezinformării și prohibirea utilizării tehnologiilor de IA în scopuri militare și de supraveghere. Așa, de exemplu, încă de la 7 ianuarie 2025, M. Zuckerberg anunța „revirimentul simbolic” al Facebook și Instragram în numele „libertății de expresie”, constând în reevaluarea politică de moderare prin „renunțare la fact-checkers” și înlocuirea lor cu „note comunitare similare rețelei X”. La rândul său, la 4 februarie 2025, Google a actualizat principiile sale privind guvernanța IA, suprimând din angajamentele asumate secțiunea „aplicații ale IA pe care Google nu înțelege să le dezvolte”, vizând mai multe domenii printre care armele ori alte tehnologii „al căror obiectiv principal este a răni persoane (...) tehnologiile care culeg ori utilizează informații în scopuri de supraveghere cu nerespectarea normelor acceptate internațional”, precum și „tehnologiile al căror scop contravine principiilor larg acceptate ale dreptului internațional și ale drepturilor omului”. Rămâne astfel numai intenția declarată de a „se alinia pe obiectivele utilizatorilor, responsabilitatea socială și principiile larg acceptate ale dreptului internațional și drepturilor omului”. Dar exemplul cel mai evident de regres provine chiar din partea Comisiei Europene care, în contextul măsurilor, zise de simplificare și revizuire reglementară inițiate sub influența raportului Draghi (9 septembrie 2024) privind competitivitatea în UE, a revenit sau a renunțat la inițiative importante reglementar-instituționale. Printre acestea și retragerea propunerii de directivă privind responsabilitatea în materie de inteligență artificială, publicată la 28 septembrie 2022, și având ca obiectiv completarea și modernizarea cadrului UE în domeniul răspunderii civile, prin introducerea, pentru prima dată, de reguli specifice privind daunele cauzate prin sistemele de IA CE va evalua dacă o altă propunere de directivă cu un atare obiect va trebui depusă. Văzută ca o completare a Regulamentului (UE) 2024/1689 directiva urma să confere eficiență sporită dispozitivului juridico-instituțional astfel instituit și consolida specificul dreptului UE privind inteligența artificială. Este, mai ales, rezultatul presiunilor lobby-ului puternicilor actori ai bigtech-ului. La 29 ianuarie 2025, o coaliție industrială compusă din asociații reprezentând întreprinderi de toate mărimile care dezvoltă și utilizează tehnologii de IA în diferite sectoare, precum Google, Amazon și META, a cerut retragerea propunerii de directivă privind responsabilitatea în materie de inteligență artificială (AILD). Potrivit respectivilor actori economici preconizatul act legislativ ar fi antrenat o complexitate juridică excesivă într-un cadru deja dens în materie de reglementare. În concret, AILD viza stabilirea unui regim specific de răspundere pentru daunele cauzate de sistemele de IA. Se urmărea introducerea a două garanții principale: o prezumție de cauzalitate, care reducea sarcina probei pentru victime în caz de nerespectare a unei obligații pertinente și un acces facilitat la probe, permițând victimelor să obțină informații privind sistemele de IA cu grad ridicat de risc, protejându-se totodată secretele comerciale. Potrivit semnatarilor cererii, directiva nu ar fi adus nici o valoare adăugată în raport cu legislațiile naționale existente în materie de răspundere și de protecție a consumatorilor. În plus, adoptarea sa putea să sporească incertitudinea juridică și să frâneze inovația, îngreunând sarcina reglementară și costurile pentru întreprinderi, ceea ce ar mina competitivitatea UE în sectorul IA. Desigur, respectiva solicitare era prezentată în cadrul unui obiectiv de simplificare a dreptului și de raționalizare a dereglementării. Coaliția se întemeia, între altele, pe obiectivele de competitivitate ale UE, în special tehnologii și inovație, precum și pe întârzierea în raport cu S.U.A. și China, valorificate de Raportul Draghi din 9 septembrie 2024. În plus, din punctul de vedere al Coaliției, directiva atacată apărea ca redundantă față de cadrul legislativ deja existent, constituit din reglementări majore precum AI Act, RGPD, actul legislativ privind serviciile digitale și cel privind reglementarea cibernetică, ori directiva privind responsabilitatea pentru produse (PDL) adoptate la 8 decembrie 2024, la care se adaugă reglementările sectoriale. Așa se face că introducerea unei noi directive referitoare la responsabilitatea în materie de IA ar fi riscat să creeze contradicții normative și ar fi îngreunat în mod suplimentar obligațiile ce revin întreprinderilor vizate. Nu în ultimul rând, semnatarii subliniază faptul că directiva AILD ar fi putut să perturbe practicile contractuale stabilite în materie de repartiție a responsabilităților în cadrul lanțurilor de aprovizionare complexe. Interacțiunile între întreprinderi, actorii economici merită o anumită flexibilitate pentru a adapta angajamentele lor contractuale la specificitățile sistemelor de IA. Potrivit analiștilor, introducerea de reguli rigide în materie de răspundere ar limita această libertate contractuală, ceea ce ar putea restrânge inovația și eficiența economică. Asemenea involuții evidente și agresivitatea crescândă față de exigențe și reglementări, în numele unui libertanianism economico-tehnologic și al unei libertăți de expresie absolute, dăunează grav statutului IA și afectează progresul pe termen lung al inovației în materie. Cristalizarea în legislația pertinentă a unui principiu al neregresiunii, în sensul interzicerii revenirii asupra măsurilor juridico-instituționale adoptate în vederea încadrării activităților privind IA ar fi binevenit, ar favoriza progresul și ar asigura siguranța într-un domeniu în care riscurile aferente sunt în creștere. Desigur, având în vedere experiențele în promovarea unui atare principiu în domeniul protecției mediului, inițiativele ar trebui să fie promovate deopotrivă la nivelul dreptului național (vizând Constituția, apoi legislația specială și terminând cu standardele tehnice), celui al UE și dreptul internațional pertinent. 
Franța: Evaluări oficiale privind impactul IA asupra profesiilor juridice

IA şi profesiile juridice: Un Raport înaintat Comisiei legislative a Senatului din Franţa realizează o sinteză a modului în care IA este utilizat în activitatea juridică. 33% dintre profesioniştii dreptului utilizează lunar un instrument de IA generativă.

Preocupările legate de consecințele noilor tehnologii, în frunte cu aplicațiile inteligenței artificiale asupra profesiilor juridice au fost deja oficializate în multe țări ale lumii, așa cum o demonstrează și situația din Hexagon. Pe lângă studii, articole și chiar monografii consacrate subiectului, în decembrie 2024 a fost depus în Comisia legislativă a Senatului un raport special, realizat de o echipă de parlamentari asupra impactului inteligenței artificiale generative asupra profesiilor dreptului. Pentru aceasta, comisia în cauză a realizat 26 de audieri, s-a întâlnit cu 98 de persoane și a primit și analizat 52 de contribuții scrise. Concluziile sunt deosebit de relevante pentru situația profesioniștilor juriști, în contextul complicat și evolutiv al revoluției IA. Într-adevăr, dacă aceasta a transformat numeroase sectoare, IA și-a făcut simțită prezența și în domeniul juridic. Numeroase sarcini efectuate de către juriști pot, „în pofida unei calități încă inegale, să fie învățate de aceste modele”. În special cercetarea juridică, sinteza documentară ori redactarea de documente standardizate. În multe state, open data hotărârilor judecătorești reprezintă o reușită semnificativă în acest demers. În Franța, aproape un milion de decizii civile sunt difuzate anual și „Judilibre” a contabilizat circa 6.500.000 de consultații în ultimele 12 luni. Totuși, calendarul de implementare a deciziilor penale a fost reportat și difuzarea hotărârilor anterioare anului 2021 nu e preconizată. Raportul sugerează, de altfel, modificarea legii în materie pentru a securiza reutilizarea deciziilor situate în afara open data. Se preia, de asemenea, și o revendicare a anumitor profesioniști ai domeniului de anonimizare a numelor magistraților care au pronunțat hotărârile respective, cum era practica îndelungată de până azi. 1. Aproprierea noilor tehnologii de profesioniști juriști e rapidă. Potrivit „European legal tech association” 33% dintre aceștia utilizează lunar un instrument de IA generativă. O atenție deosebită se acordă acestora de către studenți; notele obținute în ultimii doi ani nu lasă nicio îndoială asupra influenței pozitive a utilizării avansurilor tehnice în învățarea dreptului. De remarcat că ei utilizează, cel mai adesea, instrumente generaliste gratuite, mai puțin performante decât cele aferente marilor profesioniști. Raportul nu eludează nici limitele IA generative, precum necesitatea de a fi alimentate cu date actualizate, prejudecățile ori chestiunea confidențialității datelor. La rândul lor și profesioniștii dreptului sunt conștienți de insuficiențele tehnologiei. Raportorii nu recomandă modificarea legii, la fel ca și juriștii care și-au exprimat dorința unei stabilități normative în materie. S-a propus, mai degrabă, ca fiecare profesie să-și elaboreze și să-și adopte, pentru completări și amendări, carte etice sau ghiduri de utilizare. Teama de „autojuridicație” ar putea fi înlăturată din cauza limitelor inerente ale acestor modele și plusvaloarea pe care o prezintă analiza și expertiza umane ale profesioniștilor dreptului. În acest sens, documentul pledează pentru înscrierea unei definiții a noțiunii de consultație juridică în lege, în scopul de a se feri de riscul de concurență cu profesiile reglementate. E una din mizele legii privind legal privilege al juriștilor de întreprindere. 2. Autorii raportului s-au preocupat și de amenințările posibile asupra locurilor de muncă. Prima concluzie: IA generativă le va permite „să se concentreze asupra sarcinilor de înaltă valoare adăugată”. În cadrul audierii sale, un fost secretar de stat al departamentului pentru digital a estimat că notarii ar putea câștiga până la o oră și jumătate de timp în tratarea dosarelor mai complicate. Două efecte negative au fost în special semnalate. Mai întâi faptul că IA generativă amenință cabinetele de avocați generaliști care ar putea să întâmpine mai multe dificultăți în menținerea unui nivel suficient de expertiză. De altfel, funcțiile de asistență sunt în general mai vulnerabile, fără ca totuși aceasta să devină o fatalitate. Institutul Național de Formare Notarială anticipează astfel o reducere substanțială a numărului colaboratorilor notarilor și nașterea unor noi meserii legate de instrumentele digitale. Această reducere de posturi de asistenți amenință inserția tinerilor profesioniști. Analiștii problemei au reținut, în această privință, naivitatea manifestată de o mare parte din reprezentanții profesiilor juridice tradiționale, în special a avocaților care susțineau că nu va urma o reducere a angajării stagiarilor, asistenților juridici și a tinerilor colaboratori în cabinetele de avocați. 3. Recurgerea la IA și aplicațiile sale e mai redusă în cadrul jurisdicțiilor. Curtea de Casație a lansat o misiune de reflecție în materie, care își desfășoară lucrările acum. Totuși, trei principale tipuri de utilizări se disting: ameliorarea exploatării considerentelor, analiza bazelor documentare și asistența la redactarea și formalizarea lucrărilor preparatorii. Desigur, atari instrumente sunt deja utilizate. Curtea de Casație o face pentru anonimizarea deciziilor; 25 de agenți adnotatori îndeplinesc munca ce ar necesita pe cea a 300 de persoane. Un algoritm dezvoltat de această instanță procedează la o triere a motivărilor în fapt și în drept cu care a fost sesizată. În curs de dezvoltare, „Natinfo” va aduce date în privința calificărilor penale. Un alt proiect „Epopée” va permite exploatarea datelor inserate în documentele PDF. Tribunalul judiciar din Paris experimentează „Traune”, un instrument de traducere automată. Se evocă, în fine, și un proiect al Direcției de informare legală și administrativă care va permite să se pună o chestiune în limbajul natural privind Legifrance. Așadar, zona jurisdicțiilor s-ar afla într-o anumită întârziere în revoluția IA. 4. Pentru profesiile juridice, IA „va avea un impact considerabil. Procesele muncii se vor schimba radical și, în unele cazuri, domenii notabile de sarcini vor fi complet transferate” se remarca într-un document din septembrie trecut al Uniunii Europene a auxiliarilor justiției. Această asociație a întreprins o serie de analize asupra impactului instrumentelor de inteligență artificială în privința procedurilor judiciare și a riscurilor sociale în special, în ceea ce privește locurile de muncă. Atari aplicații pot ajuta conducătorii jurisdicțiilor în îndeplinirea sarcinilor lor administrative, în materie jurisdicțională, alte aplicații ținând de asistență, dar în niciun caz un instrument nu poate înlocui procesul decizional al judecătorului. În același timp, analiștii problemei (precum G. Thierry în Outils basés sur l’IA: comment le ministère de la Justice veut avancer sur ce sujet en 2025, „Dalloz Actualité”, 17 fevrier 2025) reclamă nevoia ca ministerul justiției să fie mai activ în domeniu, căutând soluții și promovând inițiative fezabile. Recursul la inteligența artificială comportă riscuri: atingeri ale drepturilor fundamentale, în particular dreptul la respectarea vieții private, riscul pierderii de sens, al pierderii de autonomie de către judecător, de reproducere a prejudecăților statistice care pot conduce la a crea ori a perpetua discriminări. Acest gen de instrument trebuie pus în aplicare cu prudență, cu linii directoare clare și un cadru etic pentru utilizare, facultativ, de către magistrați. Organizațiile profesionale reclamă un drept de observație al judecătorilor asupra sistemelor aplicate în jurisdicția lor și de a cere verificarea exactitudinii oricărei informații furnizate unui magistrat prin intermediul unui instrument de IA, înainte de utilizarea sa de către un tribunal. Ca răspuns la asemenea dileme, ministerul justiției a precizat că privilegiază soluțiile elaborate în Hexagon. În afară de lucrările vizând încadramentul juridic al respectivelor instrumente, ministerul de resort se concentrează asupra întocmirii și promovării unei carte de utilizare. Destinat agenților săi, documentul va preconiza regulile minimale de prudență și de atenție, certificarea și controlul sistematic al rezultatelor furnizate, observarea riscurilor de prejudecăți, protecția informațiilor confidențiale și sensibile, excluderea datelor cu caracter personal sau sobrietatea digitală.
IA și protecția mediului

Un IA pentru Mediu şi Climă:Dezvoltarea unui IA care integrează conceptele cheie ale protecţiei mediului este un imperativ ce va permite inteligenţei artificiale să ajute la gestionarea resurselor şi prevenirea riscurilor de mediu. Raportul de informare din Senatul Franţei subliniază faptul că amprenta ecologică a IA prezintă un paradox: chiar dacă ea contribuie la optimizarea politicilor de mediu, funcționarea tehnologiilor pertinente se întemeiază pe infrastructuri deosebit de energofage.

La 20 februarie 2025, în cadrul Senatului Franței a fost prezentat și adoptat un raport de informare tematic intitulat „IA și mediul”, privind rolul inteligenței artificiale în accelerarea tranziției ecologice aferentă sectoarelor publice. IA s-a impus în mod progresiv ca un instrument-cheie în acțiunea publică, cu precădere în domeniul mediului. Acest raport tematic pune în lumină potențialul său pentru tranziția ecologică: optimizarea gestiunii resurselor naturale, urmărirea evoluțiilor climatice sau ameliorarea dispozitivelor de prevenire a riscurilor de mediu. În același timp, recurgerea la aplicațiile inteligenței artificiale în materie ridică, de asemenea, mize majore, în special în privința guvernanței datelor, accesului la resurse și definirii unui model economic adaptat. Raportorii amintesc, totodată, importanța de a păstra un echilibru între inovare și protecția drepturilor fundamentale în scopul favorizării încrederii cetățenilor, fără a frâna implementarea soluțiilor de IA în serviciul interesului general al protecției și conservării mediului și climei. Documentul subliniază faptul că amprenta ecologică a IA prezintă un paradox: chiar dacă ea contribuie la optimizarea politicilor de mediu, funcționarea tehnologiilor pertinente se întemeiază pe infrastructuri deosebit de energofage. Antrenamentul modelelor de IA generează un consum masiv de energie electrică și de apă, accentuând emisiile de CO2 și ridicând astfel problema sustenabilității ecologice. Față de o atare constatare, raportul recomandă favorizarea abordărilor mai „frugale” de IA, prin dezvoltare de algoritmi optimizați și integrarea surselor de energie decarbonate. Documentul se concentrează, totodată, în mare parte pe problematica legată de open data și de partajare a datelor de mediu. Dacă datele publice sunt în mod larg deschise, cele deținute de către actorii privați rămân supuse restricțiilor, în pofida interesului lor pentru cercetarea și acțiunea publică, Legea franceză pentru o Republică digitală din 2016 pusese bazele unei deschideri a „datelor de interes general”, dar accesul la informații private rămâne limitat. Raportul propune incitații și mecanisme de experimentare reglementară (sandbox) în scopul încurajării întreprinderilor să partajeze anumite date cruciale garantând un cadru juridic securizat. În fine, se insistă asupra necesității de a identifica un model economic pertinent. Gratuitatea datelor publice și complexitatea aplicării tehnologiilor de IA fragilizează finanțarea operatorilor publici. Industrializarea inovațiilor în IA cu o strategie de acompaniament adaptată, mergând de la susținerea cercetării, până la stimularea creării unui ecosistem competitiv în Europa se impune ca o prioritate. Fără o politică clară în materie de valorificare a tehnologiilor dezvoltate, orice țară riscă să-și vadă talentele și inovațiile captate de actori internaționali ai domeniului, în detrimentul securității sale digitale și ecologice. Să mai menționăm, în același context francez, că printr-un aviz din septembrie 2024 al Comisiei de mediu a Consiliului Economic, Social și de Mediu al Franței s-au prefigurat elementele unei așa-zise IA „frugale și cu finalitate ecologică (de mediu)”. Intitulată „Impacturi ale inteligenței artificiale: riscuri și oportunități pentru mediu”, evaluarea respectivă a urmărit obiective multiple: – precizarea amprentei de mediu a IA; – prefigurarea mizelor necesare de eficiență și sobrietate; – schițarea unui cadru de reflecție pentru o utilizare responsabilă și apropriată a acestor tehnologii față de provocările ecologice, sociale și de interes general. În concepția autorilor raportului, o IA frugală și deci responsabilă cu mediul și clima implică a se ține seama de următoarele recomandări: – asigurarea faptului că actorii formării inițiale și continue integrează în programele lor de pregătire privind sistemele de IA exigențele de eco-concepție și de uz frugal pentru dezvoltările și algoritmii de inteligență artificială; – concentrarea finanțărilor publice de cercetare și inovare privind IA pe finalități în mod direct de mediu și IA frugale. Miza e, în acest sens, aceea de a favoriza finanțarea algoritmilor de optimizare benefică a mediului; – evaluarea sistematică a amprentei de mediu a IA, cerându-se întreprinderilor vizate transparență asupra consumului de resurse și instituirea unui referențial de evaluare. O evaluare a amprentei de mediu specifică SIA nu există încă, dar instituirea ei ar contribui la responsabilizarea întreprinderilor și a consumatorilor în utilizarea noilor tehnologii; – integrarea în mod sistematic a demersurilor de eco-concepție a echipamentelor, în special a celor terminale. Reînnoirea lor e accelerată de dezvoltarea IA și au un impact de mediu important, deopotrivă în construcție și funcționare; – respectarea obiectului de zero artificializare netă pentru proiectele de implementare a centrelor de date și integrarea pentru fiecare dintre ele a principiului recuperării căldurii finale.
Vezi și Observatorul Dreptului Inteligenței Artificiale (ODIA) – Februarie 2025
Amendă de 15 milioane de euro pentru neconformitate cu prevederile GDPR a ChatGPT
Președinte al Universității Ecologice București, fiind specializat în dreptul mediulului, amenajării teritoriale și urbanismului.
Back To Top