Business people using technology in meeting. Digital Life. OneWebGetty2021
Juridic16 decembrie, 2024

ODIA - Nevoia unei reglementări de protejare a creatorilor față de impactul IA

Observatorul Dreptului Inteligenței Artificiale (ODIA) – Decembrie 2024
O creștere exponențială, trecând în viitorii 5 ani de la 3 miliarde de euro la 64 miliarde de euro în 2028
CISAC

Summitul IA: Paris, 10–11 februarie 2025

 

Franţa 2025: Sunt așteptați să participe 100 de șefi de stat și de guvern din întreaga lume. Summitului pentru acțiune privind inteligența artificială (IA).  Președintele S.U.A., Donald Trump, alături de lideri chinezi şi ai Uniunii Europene (UE) vor discuta viitorul IA cu personalităţi din domeniu la Grand Palais, în cadrul Summitului pentru acțiune privind inteligența artificială (IA). Sunt așteptați să participe 100 de șefi de stat și de guvern din întreaga lume.

 

 

Recent, oficialitățile franceze au anunțat organizarea la Paris, între 10 și 11 februarie 2025, la Grand Palais a Summitului pentru acțiune privind inteligența artificială (IA). Sunt așteptați să participe 100 de șefi de stat și de guvern din întreaga lume, printre care președintele S.U.A., Donald Trump, lideri chinezi, europeni și ai Uniunii Europene (UE). În total vor fi invitate în acest cadru peste 700 de personalități, printre care și Elon Musk ori cadre ale societăților americane OpenAI, Google ori Meta, franceze precum Mistral sau LightOn, dar și cercetători științifici ai  domeniului și reprezentanți ai societății civile.Summitului pentru acțiune privind inteligența artificială (IA).Recent, oficialitățile franceze au anunțat organizarea la Paris, între 10 și 11 februarie 2025, la Grand Palais a

(locul în care echipa lui A. Turing a descifrat codurile germane în timpul celui de-al Doilea Război Mondial), constituită într-un angajament de principiu pentru ca omul să fie plasat în centrul intereselor în domeniu.Declarația de la Bletchley Park Conform aprecierilor ziarului „Le Monde”, din dorința de a se afișa precum una din capitalele mondiale ale IA și a se remarca de summiturile de profil precedente, Parisul își asumă o poziție mai degrabă pozitivă și optimistă asupra situației și a utilizărilor noilor tehnologii. „Dorim să punem în evidență nu atât riscurile IA, deja bine evocate în conferințele (mondiale) de la Londra (din noiembrie 2023) și Seul (mai 2024), cât mai ales să relevăm oportunitățile și beneficiile acestor tehnologii” se precizează în comunicatul Palatului Elysée, punându-se accentul pe binefacerile potențiale ale inteligenței artificiale în domenii precum sănătatea, clima ori productivitatea. Într-adevăr, exprimând dorința țării organizatoare de a juca un rol important în materie, summiturile anterioare privind IA au abordat perspective diferite. Astfel, primul dintre ele, desfășurat între 1 și 2 noiembrie 2023 în capitala Marii Britanii, a urmărit prioritar riscurile prezentate de inteligența artificială, având ca obiectiv definirea unei abordări globale pentru reglementarea noilor tehnologii. Cu această ocazie 28 de state și UE au semnat

insistă asupra necesității cooperării internaționale pentru a gera efectele transformatoare și potențial periculoase ale IA. Dintr-o atare perspectivă de abordare și cu asemenea scopuri declarate de organizare summitul preconizat pentru februarie 2025 a fost caracterizat precum unul al „acțiunii” în materie.Declarația de la SeulS-a lansat, de asemenea, ideea organizării anuale a unei reuniuni internaționale la vârf în materie, a instituirii unei structuri care să cristalizeze un consens științific și să întocmească și publice un raport privind starea IA. Următoarea conferință la vârf de acest gen s-a desfășurat în perioada 21-22 mai 2024 la Seul, în Coreea de Sud, și a ajuns la un consens privind crearea unei rețele de institute pentru securitatea IA și s-a obținut angajamentul marilor întreprinderi ale sectorului în privința elaborării de norme voluntare de securitatea în domeniu.

partizan al dereglementării IA și promotor al apărării leadership-ului american. Se pare că va fi promovată ideea de „little tech” adică start-up-urile și PME în fața giganților „big tech”-ului. Una din temele reuniunii la vârf e consacrată temei „IA în serviciul interesului genera” și provede promovarea, prin intermediul unei fundații, inițiativei creării de „communs” și de tehnologii „open source” accesibile în mod liber. Scopul este acela de a contracara sistemele de IA „închise” ale marilor firme private sau de a favoriza o IA multilingvă. Pentru a se evita a apărea a avea o concepție prea idealistă a unei tehnologii controversate, Palatul Elysée se pronunță, de asemenea, pentru promovarea unei „IA responsabile”. Organizatorii speră a amorsa la summit o „coaliție” vizând „să standardizeze” măsurile de consum energetic în materie.a priori ale Inițiativei Campionilor IA Europeni, un grup de lideri de întreprinderi și de reprezentanți de instituții responsabile cu crearea de giganți locali în domeniul noilor tehnologii. De menționat, în acest context, că la 13 martie 2024 Comisia specială privind inteligența artificială a remis Președintelui Franței un raport conținând 25 de recomandări menite să facă din Hexagon un actor major al celei de-a 4-a revoluții științifico-tehnice; dintre acestea, 7 sunt considerate prioritare dacă Parisul vrea să inducă în Europa o dinamică de apropriere colectivă și desfășurare a potențialului existent. Printre acestea, structurarea unei inițiative diplomatice coerente și concrete vizând fondarea unei guvernanțe mondiale a IA bazată pe reglementare. Franța caută, de asemenea, a se distinge și printr-o abordare diplomatică „incluzivă” a problematicii IA, arătându-se, cel puțin în anunțul de intenție, că „Voim să arătăm că la Paris putem face reuniuni multilaterale și să avem o conversație asupra inteligenței artificiale precum a oricărui alt subiect”, de amploare mondială, citând, totodată, riscul de a vedea lumea digitală că „se fragmentează” Obiectivul este astfel în special acela de a clarifica guvernanța mondială a IA, discutată în cadrul ONU, OCDE, reuniunilor G7 etc. Se așteaptă în acest context cu mare interes reacțiile și poziționările (noului) președinte al S.U.A., Donald Trump, recomandăriO atare subliniere se înscrie pe linia poziției franceze la nivel înalt promovate în ultimii ani în cadrul dezbaterilor pertinente, în special cele aferente adoptării regulamentului UE AIAct (2024), perceput, în anumite privințe, și denunțat ca o frână în calea afirmării nestăvilite a inovației tehnologice. Totodată, orientarea aferentă preconizatei reuniuni la nivel înalt de amintește de raportul Comisiei privind IA prezidată de Anne Bouverot, devenită acum trimis special al Președintelui Franței pentru organizarea summitului din februarie 2025. Acesta din urmă trebuie să reprezinte ocazia publicării de


            În domeniul culturii, vor fi arătate creații ale artiștilor cu IA și vor fi organizate dezbateri privind „chestiuni uneori dificile” pentru viitorul creației. În privința problemelor sensibile ale dreptului de autor și ale remunerării conținuturilor utilizate pentru a antrena inteligențele artificiale, se preconizează sprijinirea demersurilor pe concluziile misiunilor încredințate de ministerul culturii, grupului de cercetări coordonat de jurista Alexandra Bensamoun. În fine, summitul prevede și evocarea chestiunii dezinformării și a problemei locurilor de muncă. Referitor la aceasta, ideea este aceea de a căuta să se creeze un „consens” al economiștilor privind previziunile de productivitate și de pierderi ori de câștiguri în locuri de muncă și să se insiste pe formarea profesională adecvată și pertinentă.

 

 

Impactul IA în domeniul penal (I)

 

 

IA între phishing, cyberatacuri, deepfakes şi instrument de combatere a infracțiunilor: scurte reflecțiile asupra implicațiilor IA în domeniul penal privind utilizările la care recurg infractorii în realizarea demersului lor ilicit și, pe de altă parte, folosirea tehnicilor inovante pentru a acționa împotriva criminalității.

 

Sedusă, ca orice alt domeniu juridic, de noile cuceriri științifice și ineditele aplicații tehnologice, materia penală se confruntă în mod specific și înainte de toate cu preocupările legate de protejarea, în acest nou context, a libertăților individuale. Reflecțiile aferente implicațiilor IA și asupra utilizărilor sale în domeniu privesc, cu precădere, cel puțin la acest moment, pe de o parte, utilizările la care recurg infractorii în realizarea demersului lor ilicit și, pe de altă parte, folosirea tehnicilor inovante pentru a acționa împotriva criminalității.deep-learning.. Ea a devenit astăzi utilizată în scopuri ilicite de cyberdelincvenți, iar recurgerea la instrumentele inedite oferite de cea de-a patra revoluție științifico-tehnică de către profesioniștii justiției – anchetatori, magistrați și avocați – devine tot mai frecventă și mai amplă în practica lor profesională, în timp ce principii fundamentale de procedură sunt nevoite să-și nuanțeze semnificațiile și particularizeze implicațiile în noul context astfel generat. Desigur, o analiză fie ea și sumară a impactului introducerii și dezvoltării aplicațiilor IA în lumea juridică a penalului presupune o serie de precauții și impune precise delimitări. Mai întâi, e cunoscut faptul că inteligența artificială ca atare nu este un obiect unic și omogen și ridică o serie de dificultăți în privința înțelegerii reglementării sale. Și aceasta cu atât mai mult cu cât, în mod oarecum înșelător, termenul trimite atât la simple unelte algoritmice, fără o mare autonomie în procesul decizional, cât și la tehnici mai controversate în [1]Se afirmă, pe bună dreptate, că inteligența artificială, prin aplicațiile sale și-a făcut deja intrarea și în materia penală în general și în cea a procedurii penale în special

 

1. IA ca instrument de săvârșire de infracțiuni. pentru detectarea țintelor vulnerabile la cyberatacuri. În prelungirea unor atari practici, ele permit, de asemenea, optimizarea metodelor de inginerie socială axate pe manipularea psihologică a victimelor în scopuri ilicite.open sourceAșadar, într-o primă ipostază, rapid și pe larg adoptate de către cyberinfractori spre a le crește eficiența modurilor lor de operare, aplicațiile IA sunt utilizate tot mai mult pentru realizarea elementului material al infracțiunii. Cu titlu de exemplu e dată folosirea uneltelor de inteligență artificială în căutarea de informații

Așadar, într-o atare situație inteligența artificială se instalează în amonte, în susținerea unei tehnici de fraudă utilizată spre a obține informații personale în scopul de a săvârși apoi o uzurpare de identitate și o escrocherie.phishing.Instrumentele IA generative au fost dezvoltate în mod special în scopuri ofensive pentru a efectua masiv apeluri telefonice spre a convinge destinatarii de a divulga o informație necesară pentru comiterea ulterioară a unei infracțiuni. De asemenea, IA face posibilă, de acum înainte, generarea de texte, pentru a atrage viitoare victime în înșelătoria de

care, plecând de la imagini deja  furnizate, constă în a confrunta doi algoritmi de învățare, unul zis „generator” și altul „discriminator”; în scopul de a forța optimizarea nivelului de realism al imaginilor secundul nu mai ajunge, în cele din urmă, să detecteze datele generate în mod artificial de primul.machine learning tehnică de manipulare audiovizuală ce se întemeiază pe inteligența artificială și care permite părăsirea clipurilor, simularea vocilor și postări în video deja existente. Frecvent utilizate în practicile de cyberhărțuire pentru a produce video cu caracter pornografic, acest trucaj digital bazat în mod concret pe o tehnică de deepfakes,Recursul la asemenea instrumente devine, deci, adeseori central în elementele constitutive ale infracțiunii, așa cum o arată, de exemplu,

cu caracter sexual (art. 226-8-1 din codul penal francez).deepfakes În plus, a fost creat un nou delict în scopul de a sancționa publicarea de on-line.-urile și să le sancționeze ca atare. În același registru al tratamentului penal aplicat, în art. 226-8 al codului penal al Hexagonului s-a introdus o agravantă a pedepsei intervenită atunci când publicarea montajului ori a conținutului generat de un tratament algoritmic a fost realizat prin utilizarea unui serviciu de comunicare a publicului, deepfakesCu titlul de exemplu de drept comparat se menționează reacția dreptului penal francez care a perceput și incriminat o faptă de acest gen. Astfel, legea nr. 2024-449 din 21 mai 2024, vizând securizarea și reglementarea spațiului digital, cuprinde dispoziții destinate să perceapă în mod specific

Concluzia ce se poate desprinde aproape de la sine e aceea că aplicațiile inteligenței artificiale sunt utilizate și e posibil din ce în ce mai mult în scopuri infracționale, ceea ce presupune reacții adecvate în planul dreptului penal, deopotrivă în privința incriminărilor sancțiunilor aplicabile și procedurilor de instrumentalizare.

 

2. IA în serviciul prevenirii și combaterii infracțiunii.. În Franța aplicarea de instrumente predictive în câmpul securității readuce chestiunea eficacității serviciilor polițienești și a preocupațiilor manageriale ce traversează această profesie. Riscul de prejudecăți indus de aceste instrumente invită la prudență, precauție și diligență.[3]. Plecând de la analiza informațiilor reieșite din arhivele poliției, acest sistem furnizează o cartografie predictivă a zonelor de risc de criminalitate în vederea orientării patrulării în aceste zone sensibile și de a preveni criminalitatea. După modelul analizei replicilor cutremurelor de pământ, ideea avansată a fost aceea că spargerile se repetau în împrejurările primei efracții. În afara eficienței sale ipotetice, s-a demonstrat că un atare instrument ar prezenta înclinări discriminatorii, contribuind la stigmatizarea locurilor și a infractorilor. În special decupajul orașelor nu rămâne neutru din punct de vedere socio-economic atâta timp și cu atât mai bine cu cât supravegherea sistematică a zonelor poate conduce la a discrimina în mod indirect anumite grupuri de populație. Acest tip de înclinații a fost pus în evidență și în cadrul IA experimentate pentru a evalua recidiva. Un studiu publicat în 2015 a arătat că algoritmul Compas utilizat în S.U.A. supraevalua riscurile de recidivă la afro-americani[2]De cealaltă parte a perspectivei impactului IA în materie penală, este de domeniul evidenței și că anchetatorii pot să recurgă la algoritmi în acțiunea lor de prevenire, instrumentare procedurală și combatere eficientă a infracțiunilor. Din acest punct de vedere ne apare mai întâi ipostaza folosirii noilor tehnologii spre a anticipa/prevedea comiterea de atari fapte incriminate de lege. Denumită „poliție predictivă”, aceasta constă în utilizarea datelor trecutului în scopul unei mai bune înțelegeri a prezentului și spre a anticipa săvârșirea de infracțiuni. Așadar, noile instrumente oferite de IA pot exprima un rezultat în termeni de probabilități. Unul dintre primele a fost folosit în S.U.A., încă din 2012, de firma PredPol

și de reducere a riscurilor legate de  spălarea banilor și de finanțare a terorismului. Alerta ar fi generată în acest caz în vederea probabilității de a se ajunge la o declarație de suspiciune.(Know Your Customer) în scopul întreprinderii de procese de verificare KYC complianceÎn literatura juridică pertinentă se subliniază interesul pentru două tipuri de instrumente ce permit în mod diferit detectarea comportamentelor de risc. În Italia o aplicație de acest gen e capabilă să detecteze întreprinderile suspectate de legături cu mafia. Alimentat cu date din numeroasele hotărâri judecătorești pronunțate în procesele antimafia din ultimii zece ani, algoritmul permite a releva incoerențele din bilanțurile financiare a mii de întreprinderi și a propune astfel o estimare a amenințărilor de infiltrare criminală. Tot așa, o legătură ar putea fi făcută cu instrumentele de alertă utilizate în procedurile de

Se poate concluziona deci că, pentru a asigura respectarea unei reglementări exigente, aportul unor atari aplicații ale inteligenței artificiale depășeşte de departe ceea ce omul îndeplinea în atât de scurte perioade.

În siajul aceluiași obiectiv de anticipare a infracțiunii se poate releva și rolul IA în detectarea unui pericol, grație analizei imaginilor. Este, prin excelență, cazul utilizării videosupravegherii algoritmice. Camerele în seriviciul acestei tehnici nu se limitează la a filma; ele detectează în timp real și în mod automatizat comportamente ori situații definite ca fiind „de risc”. Dacă o atare tehnică a fost mobilizată, în Franța în special, pentru a ajuta la supravegherea jocurilor olimpice (iulie-august 2024), utilizarea sa a fost restrânsă (în condițiile legii nr. 2023-380, din 19 mai 2023, relativă la jocurile olimpice și paralimpice din 2024 și cuprinzând diverse alte dispoziții) la opt cazuri precise, printre care detectarea unei arme, a unei persoane aflate la pământ ori la declanșarea unui incendiu sau obiectele abandonate. Și în Marea Britanie, potrivit datelor oficiale, peste 500 de persoane au fost interpelate de forțele de ordine în cursul anului 2024 prin intermediul tehnologiei controversate a recunoașterii faciale în timp real. Per total, 540 de persoane suspicionate de viol, agresiuni violente conjugale, hărțuire ori furt și, ca urmare, au fost reținute și 406 dintre ele după aceea au fost inculpate ori au obținut un avertisment al justiției. Poliția din Londra afirmă a fi fost „pionier în utilizarea acestei tehnologii” care îi „permite să adopte o abordare mai precisă și fondată pe informație pentru a lupta contra criminalității”. Ea utilizează în anumite cartiere ale capitalei britanice, precum Croydon (sud), un sistem realizat cu camere. Acesta capturează imagini în timp real ale trecătorilor, ale căror fețe sunt comparate cu cele ale suspecților plasați pe o listă de supraveghere. Dacă una dintre ele trece în proximitate, sistemul declanșează un semnal de alertă ce permite polițiștilor să o interpeleze, după verificări. „Este vorba de un instrument puternic care ajută agenții să identifice și să se concentreze asupra persoanelor care reprezintă riscul cel mai ridicat care, altfel nu ar fi putut fi detectate”. Desfășurarea crescândă a acestei tehnologii de recunoaștere facială în direct a ridicat suspiciuni și a antrenat acuzații de derive, din partea societății civile, constând într-o supraveghere periculos de autoritară, care constituie o amenințare pentru viața privată și libertățile noastre” și creează un „periculos precedent la nivel mondial”. Poliția consideră însă că au fost instituite garanții robuste pentru a se evita abuzurile. S-a subliniat că dacă o persoană trece prin fața unei camere și nu figurează pe o listă de supraveghere a poliției, datele sale biometrice sunt imediat și definitiv suprimate. Totuși recunoașterea facială automatizată, care permite identificarea unei persoane precise rămâne exclusă în multe state. Pentru ca o atare tehnică să fie eficientă ar trebui să se dispună de o imagine digitală de calitate a feței, de o bază de date de imagini digitale ale indivizilor deja identificate și un soft de recunoaștere facială capabil de a stabili o corespondență puternică. Este vorba, cu siguranță, de una din utilizările polițienești ale IA cele mai discutabile în prezent și deja folosită în unele țări pentru fluidizarea controlului pasagerilor în aeroporturi.

În fine, în acest registru o altă utilizare a automatizării recunoașterii faciale, la rându-i deosebit de contestată, rămâne recunoașterea emoțiilor. Grație tehnicilor de învățare profundă, unele IA ajung să decodeze expresiile faciale și ale emoțiilor cu o rată de precizie până în jur de 100% după un antrenament asupra unor imagini optimale. Dimpotrivă, în situații reale, pertinența rezultatelor se diminuează în mod considerabil.

prescris de Regulamentul (UE) nr. 2024/1869 din 13 iunie 2024 de stabilire de norme armonizate privind inteligența artificială atunci când e utilizată la locul de muncă și în locurile de învățământ din cauza lipsei de precizie a acestor analize și a potențialului de manipulare. Totuși această prohibiție de principiu cedează în realitate în fața excepțiilor, prevăzute în textul IA Act în favoarea unei utilizări de serviciile represive (în condițiile art. 6 § 2, care trimite la anexa III pct. 6 –Sisteme de IA de înalt risc). În asemenea circumstanțe, acest tip de instrumente nu vor mai fi interzise ci, mai degrabă, clasificate ca fiind de risc înalt și tratate ca atare. Această clasare supune, în principiu, dezvoltatorii și furnizorii unor obligații de informare a persoanelor fizice care sunt expuse. În același timp, textul legal prevede că această garanție nu va fi impusă sistemelor de IA autorizate de lege pentru a detecta, preveni ori ancheta infracțiuni (penale) (art. 50 § 3 – Obligații de transparență pentru furnizorii și dezvoltatorii de anumite sisteme de IA). În concluzie, se poate aprecia că din perspectiva reglementării unional-europene o ușă rămâne întredeschisă spre o fază de test în materie penală, care ar putea să se releve ca periculoasă ținând seama de principalele defecte ale acestor noi tehnologii puse în evidență, printre altele, în situațiile de aplicare a legislației privind gestiunea frontierelor.a prioriDin atari considerente, acest tip de IA e


[1]S. Sontag Koening, La rôle de l’IA dans la matière pénale,în „Dalloz IP/IT” no. 10 – Octobre2024, p. 510.

[2]B. Benbouzid, Quand prédire, c’est gérer. La police prédictive aux États-Unis, Réseauxno. 211, 2018/5, p. 221.

[3]V. Beaudoin et W. Maxwell, La prédiction du risque en justice pénale aux États-Unis: l’affaire Propublica – Compas. L’éthique de l’IA en action,„Réseaux” no. 240, 2023/4, p. 71.

 

 

Utilizarea neautorizată de articole din New YorkTimes pentru formarea de mari modele de limbaj GPT. Decizia Tribunalului din New York

 

New York Times a contestat utilizarea masivă a articolelor sale de presă protejate de dreptul de autor în timp ce OpenAI și Microsoft s-au apărat invocând excepția „utilizării loiale” (fair use).

Districtual Sud din New York Tribunalul respinge cererea societăților OpenAI și Microsoft Corporation.

(Decizia Tribunalului Districtual Sud din New York, din 22 noiembrie 2024, cauza 1-23-CV-11195-SHS-OTW)

 

 

Prin cererea introdusă, New York Times contestă utilizarea masivă a articolelor sale de presă protejate de dreptul de autor, care ar fi fost făcute în scopul de a realiza modele de limbaj (LLM) de Open AI, cum ar fi ChatGPT și aceasta fără autorizație sau compensație. La rândul lor, OpenAI și Microsoft au invocat excepția „utilizării loiale” (fair use) care permite utilizarea operelor protejate fără permisiunea autorului lor în anumite cazuri și în special atunci când folosirea lucrării în cauză e „transformativă”, adică în situația când tinde să adauge un element la opera originală și nu se substituie utilizării acesteia din urmă. În consecință, pârâții au considerat că utilizarea materialelor publicate în New York Times pentru a genera modelele de inteligență artificială generativă a servit un obiectiv „transformativ”. În plus, aceștia au cerut ca ziarul să fie obligat să prezinte: a) utilizarea de New York Times de instrumente de inteligență artificială generativă ale terților; b) crearea și utilizarea de acesta de proprii produse de IA generativă; c) poziția publicației privind inteligența artificială generativă.

În consecință, Tribunalul a respins cererea de producție formulată de societățile Open AI și Microsoft și a admis, în consecință, contestația reclamantei.fair use.Decizia instanței reține faptul că respectiva cauză privește chestiunea de a ști dacă pârâții și-au format modelele lor de IA utilizând material protejat de dreptul de autor al New York Times și dacă această utilizare constituie o violare a respectivului drept. Cu toate acestea, producția de documente precum cele cerute de pârâți nu este în nici un caz pertinentă în cadrul apărării lor fondată pe excepția

 

 

Nevoia unei reglementări de protejare a creatorilor față de impactul IA

 

Inteligența artificială generativă amenință viitorul creatorilor: piața conținuturilor, atât muzicale cât și audiovizuale, generate de IA va cunoaște „o creștere exponențială, trecând în viitorii 5 ani de la 3 miliarde de euro la 64 miliarde de euro în 2028”.

În lipsa unei reglementări, produsele generate de IA vor veni „să concureze operele lor în mod cu totul neloial”.

 

 

Primul studiu mondial privind impactul inteligenței artificiale asupra locurilor de muncă, comandat de Confederația internațională a societăților de autori și compozitori (CISAC) – care reprezintă 6 milioane de creatori în lume –, publicat la 4 decembrie 2024, afirmă că „inteligența artificială generativă amenință viitorul creatorilor”, punând în pericol „veniturile lor în cursul viitorilor cinci ani”. Mai precis, potrivit evaluării, creatorii din sectorul muzical ar trebui să piardă până în 2028, 24% din veniturile lor și 21% în sectorul audiovizual, ceea ce reprezintă o pierdere cumulată de 22 miliarde de euro în cinci ani. Dimpotrivă, piața conținuturilor, atât muzicale cât și audiovizuale, generate de IA va cunoaște „o creștere exponențială, trecând în viitorii 5 ani de la 3 miliarde de euro la 64 miliarde de euro în 2028”, un avans care nu va profita cu nimic creatorilor, din cauza efectului de substituție al IA asupra operelor lor”, se apreciază în studiul citat.

Așadar, în mod evident furnizorii de IA generative vor profita din plin de aceste evoluții tehnologice și vor beneficia de o creștere susținută; în 2028 s-ar putea ajunge la venituri anuale de 4 miliarde de euro pentru muzică (contra 0,1 miliarde în 2023) și 5 miliarde în audiovizual (contra 0,2 miliarde în 2023). Un beneficiu „direct derivat din reproducerea neautorizată a operelor creatorilor” și care reprezintă „un transfer de valoare economică de la creatori către întreprinderile tehnologice”, constată autorii analizei. De altfel, în domeniul muzical piețele de streaming și bibliotecile muzicale vor fi „puternic impactate de IA”. Aceasta din urmă ar trebui să reprezinte o cincime din veniturile platformelor de streaming muzical la orizontul 2028 și aproape de 60% din cifra de afaceri a bibliotecilor muzicale.

Realizatorii studiului se arată deosebit de alarmați în privința soartei anumitor profesii, precum cea de traducători și adaptatori care lucrează în dublaj și subtitrare. Aceștia riscă să piardă 58% din venitul lor. În aceeași perspectivă, scenariștii și realizatorii și-ar putea vedea amputate comenzile lor cu de la 15% la 20%.

Concluzia studiului este deosebit de relevantă: în absența unei schimbări a cadrului reglementar, creatorii vor fi perdanți în toate privințele din cauza avansului necontrolat al tehnologiilor de IA. Ei vor suporta „o pierdere de venituri determinată de utilizarea neautorizată a operelor lor de către modelele de inteligență artificială generativă fără nici o formă de remunerare”. În plus, înlocuirea surselor lor tradiționale de venit ca efect al substituirii produselor generate de IA „va veni să concureze operele lor în mod cu totul neloial”. Aprecierile și recomandările sunt considerate ca repere importante pentru decidenții politici în dezbaterile privind elaborarea și adoptarea legislației pertinente, absolut necesară și stringentă.

Vezi și Observatorul Dreptului Inteligenței Artificiale (ODIA) – Noiembrie 2024
O IA acuzată de determinarea suicidului
Președinte al Universității Ecologice București, fiind specializat în dreptul mediulului, amenajării teritoriale și urbanismului.
Back To Top