ODIA - Cazul clonării vocii actorilor & Pactul UE privind IA
Apărarea drepturilor de proprietate intelectuală în fața utilizării abuzive a IA
Cazul clonării vocii actorilor
Printre recentele rezonanțe juridice și judiciare ale implicațiilor produse și amenințărilor generate de utilizarea tehnologiilor de IA se numără și cele aferente lumii artistice a actorilor care dublează vocile în cadrul traducerii filmelor în limbi străine. Acesta din urmă e o practică larg uzitată în marile țări, din preocuparea de a promova limba națională, pe când în alte state, precum România, se folosește în cazul filmelor, de exemplu, subtitrarea, din interesul deschiderii spre limbile străine. Într-adevăr, tehnicile de clonare a vocii, din ce în ce mai sofisticate și performante, pun în pericol existența acestei profesii respectabile. Astăzi este suficient un eșantion audio de câteva secunde spre a reda vocea unei persoane, cu intonațiile și accentul acesteia și spre a genera textul vorbit în mai multe limbi, sincronizând mișcarea buzelor cu traducerea. Rezultatul: meseria de actor dubleur (de filme, seriale tv., jocuri video, reclame, desene animate) respectiv de 15.000 de locuri de muncă în Franța, de exemplu, ar putea să dispară la un moment dat. Dincolo de asta, cazul e emblematic pentru numeroase profesii și preocupări de azi, referitor la ceea ce le așteaptă în viitorul apropiat, sub impactul evoluțiilor noilor tehnologii.
Rămânând la cazul concret, desigur, cel puțin în prezent, în afara formatelor scurte, nici o inteligență artificială nu egalizează (însă!) umanul în alegerea intonației cuvenite de-a lungul unui serial ori a unui film. Dar, într-o altă perspectivă, cu nuanțe geostrategice, nimic nu împiedică, reclamă francezii, dorința „americanilor de a controla totul, și aceasta va avea consecințe asupra tuturor meseriilor legate de dublaj: studiourile, directorii artistici, inginerii de sunet, adaptatorii, actorii și, bineînțeles, meseriile legate direct de producție ca atare” (Laurence Neuer, Clonage des voix des comédiens doubleurs: que dit le droit?, „Le Point”, 03.09.2024). Acapararea totală de către tehnică a vocii umane e un non-sens, căci în spatele dublării se află o intenție de joc, fiecare replică e jucată în mod diferit. Este în natura lucrurilor ca actorii de carieră și de sânge să fie dublați de interpretări de același gen, fără a înșela publicul și spre a putea transmite cu autenticitate mesajul artistico-emoțional.
1.Calea petițiilor. Primul demers protestatar față de situația astfel creată a constat în greve și petiții prin care se denunță reproducerile sălbatice ale acestor voci și exploatarea lor fără autorizare și remunerație. La finele lui iulie a.c. sindicatul american „Screen Actors Guild-American Federation of Television and Radio Artists”, care reprezintă circa 160.000 de profesioniști media din lumea întreagă, a lansat o grevă în vederea obținerii unei mai bune protejări a drepturilor și intereselor membrilor săi ce lucrează în domeniul jocurilor video.
În Franța, „Sindicatul artiștilor interpreți” (SFA) și asociația „Les Voix.fr” au lansat, în ianuarie 2024, o petiție privind un video (#TouchePasMaVF), care a obținut peste 155.000 de semnături de susținere, Obiectivul urmărit era și este acela de a atrage atenția guvernului asupra necesității de a proteja drepturile artiștilor față de utilizarea neautorizată a vocii lor. Potrivit documentului, aceste tehnologii generează secvențe ori filme întregi cu actori sintetici pentru a înlocui ființele umane. Personajele fabricate de calculatoare sunt mai flexibile, mai manevrabile și, la un moment dat, mai ieftine, ceea ce le poate asigura „succesul” pe piață. Dar atari demersuri nu au fost considerate suficiente, fapt pentru care au fost urmate și completate cu altele de ordin judiciar.
2. Prima class action în justiție. Vocea, o dată biometrică.În atari condiții, spre a se corecta derivele generate de utilizarea abuzivă a tehnologiilor de inteligență artificială artiștii au sesizat justiția spre a denunța ceea ce consideră precum un furt ori o deturnare a vocilor lor în scopul de a alimenta o industrie înfloritoare. Primul din ceea ce se anunță o serie este procesul intentat în mai 2024 în fața tribunalului federal din Manhattan de Paul Lehrman și Linnea Sage, sub forma unei class action și care ar putea să reprezinte un precedent major pentru protecția vocilor actorilor. Reclamanții, care împrumută vocile lor pentru publicitate și jocuri video, acuză platforma californiană Lovo de a le fi copiat și exploatat, în special în videouri pe Youtube privind echipamentul militar rus și într-un podcast asupra pericolelor tehnologiilor de IA. În cadrul cererii se arată că „Lovo vinde un serviciu de abonament de sinteză vocală” care permite „să se genereze o voce off de calitate profesională... Întreprinderea abonată nu a plătit actorului ședința de studio, dincolo de costul de abonament lunar”. Or, pe de altă parte, „Lovo declară clienților săi că a încheiat acorduri cu actorii, care îi permit să se le utilizeze vocile”, ceea ce e fals. Compania nu avea autorizația de a utiliza vocile reclamanților pentru a forma generatorul de IA, spre a promova serviciul său ori pentru a comercializa voci bazate pe cele ale reclamanților. Și, în orice caz, aceasta nu i-a indemnizat niciodată pentru aceste utilizări neautorizate. Pentru o atare folosire abuzivă a vocilor actorilor și prejudiciile astfel provocate acestora se cer mai multe milioane de dolari cu titlu de daune interese, invocându-se violarea drepturilor lor civile, atingerea reputației, fraudă, practici înșelătoare și publicitate mincinoasă. În acest context, Jeffrey Y. Bennett, avocatul general al Screen Actors Guild-American Federation of Television and Radio Artists, care pledează pentru crearea unui drept federal de proprietate intelectuală privind vocea și asemănarea declara: „Acest proces va arăta întreprinderilor tehnologice că există drepturi asupra vocilor și că persoanele care își asigură traiul din utilizarea ei trebuie să se bucure de protecția lor.”
Desigur, dreptul civil nu e lipsit de reglementări față de atari autori. Indiferent de țară și mai ales în cele de drept continental el consideră vocea precum un „atribut al personalității” autorului său. Astfel, un montaj realizat cu vocea unei persoane fără consimțământul acesteia deschide dreptul la o acțiune în despăgubire/reparare, chiar dacă nu apare în mod evident că ar fi vorba de o atare operațiune. Acest instrument juridic este destul de disuasiv întrucât „atingerea vieții private e cvasiautomată”. Totuși specialiștii domeniului nuanțează răspunsul juridic în sensul că nu se poate promova procedura ordonanței președințiale, deoarece va trebui să se recurgă la expertize pentru a se dovedi/probeze că este vorba de gama vocală a artistului respectiv. Exploatarea și modificarea vocii de către un sistem IA cade, de asemenea, sub incidența legii penale dacă montajul e realizat fără consimțământul artistului și dacă publicul nu e avertizat că e vorba de un sistem realizat în mod algoritmic. De exemplu, în dreptul francez un atare delict e pedepsit cu până la doi ani de închisoare dacă conținutul e exploatat pe o platformă on-line. Tot în cadrul legislației privind proprietatea intelectuală a Hexagonului numai interpretarea realizată cu ocazia unui dublaj ori, dacă e cazul, textele create de un atare artist sunt protejate, dar nu în mod special vocea sa.
Pe de altă parte, aceasta e considerată de RGPD o dată biometrică, altfel spus una legată de caracteristicile unice ale ființei umane, cum sunt, la fel, și amprentele digitale. RGPD cere un consimțământ liber și clar din partea actorului. Aceasta înseamnă că el trebuie să fie informat integral despre ceea ce se va face cu vocea sa, finalitatea înregistrării, durata pentru care se vor putea utiliza și modul în care va fi conservată. Așa cum remarcau avocații cauzei, e vorba de o importantă armă de disuasiune întrucât întreprinderea respectivă se expune unei sancțiuni financiare ce poate merge până la 4% din cifra de afaceri.
3. Dreptul la opoziție.Exigența unei autorizări prealabile rezultă din directiva (UE) 2019/790 a Parlamentului European și a Consiliului din 17 aprilie 2019 privind dreptul de autor și drepturile conexe pe piața unică digitală, transpusă în drepturile interne ale statelor membre, inclusiv cel român. Acesta oferă artistului un drept de opoziție la înregistrarea vocii sale pentru a fi folosită în sistemele de inteligență artificială. Se apreciază, pe drept cuvânt, că acest dispozitiv oferă o perspectivă asupra investigației autorizate. De exemplu, asociația „Les Voix.fr” a acordat membrilor săi posibilitatea de a-i reprezenta în expresia lor de opt-out. Totuși va trebui să se stabilească procese de supraveghere pe lângă societățile de gestiune colectivă ori societățile mandatate de artiști pentru a notifica opt-out în scopul de a controla respectarea întocmai a respectivului drept de opoziție. Din această perspectivă tehnologiile de clonare a vocii ar putea să cadă, de asemenea, sub incidența Artificial Intelligence Act (AIA) – Regulamentul (UE) 2024/1689 al Parlamentului European și al Consiliului din 13 iunie 2024 de stabilire a unor norme armonizate privind inteligența artificială, care vizează să protejeze artiștii împotriva mecanismelor de hipertrucaj și de deepfakes. Într-adevăr, potrivit art. 50 (4) din acest act legislativ european („Obligații de transparență pentru furnizorii și implementatorii anumitor sisteme de IA”) implementatorii unui sistem de IA care generează sau manipulează conținuturi audio sau video ce constituie deepfake-uri trebuie să dezvăluie faptul că respectivul conținut a fost generat sau manipulat artificial. Lipsa acestei obligații de informare este sancționată. Conform aceluiași text legal, în cazul în care conținutul face parte dintr-o operă sau dintr-un program de o vădită natură artistică, creativă, satirică, fictivă sau analogă obligațiile de transparență se limitează la divulgarea existenței unui astfel de conținut generat sau manipulat într-un mod adecvat, care să nu împiedice afișarea sau receptarea operei. Dispozițiile respective urmează a se aplica de la 2 august 2026.
Cu toate acestea, în cele din urmă, se pare că totuși contractul constituie pavăza cea mai sigură pentru a împiedica aproprierea sălbatică a vocilor artiștilor. Se recomandă, în acest sens, inserarea în convențiile de înregistrare a unei clauze prin care producătorul se angajează să nu reutilizeze vocea în scopuri de apretinsaj al unei IA; nici chiar alte elemente personale precum intenția de joc, accent, intonație și aceasta, în afara absenței acordului expres al artistului. De asemenea, acordurile colective ar putea să cuprindă dispoziții referitoare la remunerarea artiștilor interpreți care acceptă să împrumute punctual vocea lor în cadrul unui sistem de IA generativă. Potrivit avocatului Alain Bensoussan, specializat în drept digital, se tinde spre crearea unei forme de „licență” ce ar permite punerea vocii la dispoziție, în mod temporar, într-un context precis. Aceasta ar însemna practic consolidarea „dreptului la voce”, cu implicațiile juridice, inclusiv practice aferente. Ar rămâne totuși, de exemplu, în Franța, de apărat activitatea actorilor de dublaj respectivi în fața tendinței actorilor americani de a împrumuta vocile lor la IA generative contra unei remunerații în scopul de a genera voci în alte limbi. Adevărata ruptură va interveni atunci când aceștia își vor da acordul (via un contract de licență) pentru a fi dublați de către un agent artificial, cum s-a întâmplat deja în S.U.A. Așadar, atunci va fi o inteligență artificială care va dubla vocea actorului, cu buzele sale, într-o altă limbă; dubleurii nu vor putea ieși din această situație decât prin talentul lor de interpretare.
4. O amenințare pentru viața privată.Desigur, conchid comentatorii francezi ai problemei, nu e chiar o fatalitate, și în atare situație publicul va rămâne încă foarte atașat de dublajul efectuat de actori în limba lui Voltaire, mai ales că în Hexagon se militează pentru valorificarea „excepționalității culturale franceze” și în această materie. Important devine însă faptul de a se menține mijloacele de a constrânge distribuitori străini de a dubla filmele lor prin actori naționali.
Potrivit unui decret din 1961, obținerea vizei de exploatare a unui film dublat în franceză este supusă condiției de a realiza dublajul „în studiouri situate pe teritoriu francez”; mâine, remarcă avocații parizieni, nu va mai conta cine va fi vizat, dincolo de simpla industrie cinematografică. Dar, în ultimă instanță, se pare că va fi amenințată chiar viața privată și aceasta la fel cum o copie a unei cărți de identitate ar fi liber accesibilă pe internet.
După cum se poate observa, problemele juridice ale aplicațiilor tehnologiilor de IA devin din ce în ce mai frecvente și mai complicate. Rezolvarea lor presupune, deopotrivă, intervenția reglementară și răspunsul jurisprudențial adecvat. Lumea globală, generalizarea și uniformizarea pe care o impun noile tehnologii, progresul rapid și adecvat pe care îl implică reclamă rezonanțe juridice corespunzătoare. Din încrucișarea limbajului juridic și a celui tehnic, întâlnirea și influența reciproce ale noțiunilor progresului tehnologic și cele aferente celui juridic se naște treptat, dar sigur dreptul inteligenței artificiale.
Pactul UE privind IA (AI Pact)
Regulamentul (UE) nr. 2024/1689 al Parlamentului European și al Consiliului din 13 iunie 2024 de stabilire a unor norme armonizate privind inteligența artificială și de modificare a anumitor acte legislative unional-europene (regulamente și directive) pertinente a intrat în vigoare la 1 august 2024, așa încât multe din dispozițiile sale sunt deja aplicabile. Totuși unele dintre ele, precum exigențele relative la sistemele de IA de înalt risc nu vor deveni operabile decât la sfârșitul unei perioade tranzitorii. În acest context, spre pregătirea implementării depline a AI Act, Comisia Europeană a promovat Pactul privind IA (AI Pact) solicitând angajamentul voluntar al sectorului în anticiparea aplicării legislației și a începe să pună în operă cerințele acesteia chiar înainte de termenul legal.
Primul apel de manifestare a interesului în acest sens a fost lansat încă din noiembrie 2023 și s-au obținut până acum răspunsuri din partea a peste 550 de organizații de diferite mărimi, sectoare și țări. Apoi Biroul unional-european specializat a lansat elaborarea Pactului pentru IA care se articulează în jurul a doi piloni. Primul (colectarea și schimbul cu rețeaua pactului) servește ca pasarelă pentru angajarea rețelei vizate (structurile care și-au manifestat interesul lor pentru acest proiect), încurajarea schimbului de bune practici și furnizarea de informații practice asupra procesului de aplicare a legislației privind IA. Pilonul II încurajează furnizorii și desfășurătorii de sisteme de IA să se pregătească rapid și să adopte măsuri spre conformarea la exigențele și obligațiile enunțate în legislația pertinentă. Obiectivul definitoriu în această a doua privință este acela de a se prefigura un cadru pentru a favoriza punerea rapidă în aplicare a anumitor măsuri vizând reglementările legale adoptate. Inițiativa încurajează organizațiile să divulge în mod proactiv procesele și practicile pe care le preconizează și aplică pentru a anticipa conformitatea. Mai precis, întreprinderile care oferă și realizează sisteme de IA pot să demonstreze și să împărtășească angajamentele lor voluntare în favoarea transparenței și exigențelor de risc înalt și a se pregăti pentru începerea aplicării lor. Angajamentele iau forma unor declarații în acest sens și conțin acțiuni concrete (prevăzute ori în curs) spre a răspunde la exigențe distincte ale legislației privind IA și cuprind un calendar pentru adoptarea lor. Ele pot lua și forma angajamentelor progresive.
Organizațiile care se angajează în acțiuni preparatorii vor fi invitate să raporteze regulat modul de îndeplinire a angajamentelor asumate. Acestea sunt colectate și publicate de Biroul IA în scopul de a le asigura vizibilitatea, spori responsabilitatea și credibilitatea și pentru a întări încrederea în tehnologiile dezvoltate de către structurile care s-au angajat să-și respecte responsabilitățile în cauză.
Comisia colaborează cu și susține participanții în demersurile ajungerii la o înțelegere comună a obiectivelor legislației privind IA, luării de măsuri concrete pentru clarificarea, adoptarea și pregătirea aplicării viitoare a reglementărilor în domeniu (de exemplu, stabilirea proceselor interne, pregătirea personalului și autoevaluarea sistemelor de IA), împărtășirea cunoștințelor și sporirea vizibilității și credibilității garanțiilor instituite spre a demonstra o IA demnă de încredere, întărirea încrederii în noile tehnologii. În orice caz, Pactul permite „pionerilor” și participanților interesați să testeze și a-și împărtăși soluțiile lor cu comunitatea interesată. În septembrie a.c. a fost organizat un atelier în care s-au discutat angajamentele și furnizat informații privind un nou proiect dotat cu un câmp de angajamente mai larg.
Suntem în prezența unei metode folosite de Executivul unional-european pentru pregătirea punerii în aplicare a actelor legislative complexe, care necesită spre o aplicare pe etape, deplină și eficientă, o informare adecvată, preparare instituțională și acceptabilitate, inclusiv socială particulare. Ea implică, din punct de vedere tehnic, mai multe sesiuni de informare succesive și etape graduale de realizare.