Odpowiedzi na pytania udzielił dr Damian Flisak, podczas webinaru ,,Sztuczna inteligencja: zrozumieć, opanować, zastosować. Prawne aspekty funkcjonowania'', który odbył się 5 lutego 2024 r.

  • Jak wygląda regulacja praw autorskich w przypadku tekstów tworzonych przez czat GPT?

    Nie ma (jeszcze) przepisów, które w szczególny sposób traktowałyby tekstowe narzędzia generatywnej sztucznej inteligencji w rodzaju Chata GPT. Zastosowanie znajdują tutaj ogólne reguły prawa autorskiego.

    Należy rozumieć, że w pytaniu nie chodzi o fazę trenowania tego rodzaju narzędzi (tzw. faza input), lecz o ryzyka prawne związane z generowaniem przez nie tekstu (faza output). Ujmując rzecz najogólniej, ryzyko naruszenia praw autorskich wskutek wykorzystania wygenerowanego tekstu wzrasta wraz z zakresem, objętością tego tekstu. A zatem, jeśli zdarzy się, że narzędzie odtworzy na żądanie użytkownika kilka stron powieści współczesnego autora, uzasadniony będzie zarzut naruszenia prawa autorskiego.

    Inną rzeczą jest ta, że dostawcy systemów generatywnej AI zapewniają, że przypadki zwielokrotnienia fragmentów lub całości utworów służących do uczenia, są marginalne.

  • Czy w ogóle jest możliwe tworzenie baz danych do nauki AI bez naruszania praw autorskich?

    Rozumiem, że w pytaniu chodzi o możliwość legalnego tworzenia baz danych zawierających olbrzymią ilość przedmiotów chronionych prawem autorskim. Tworzenie baz danych poprzez odkładanie w nich utworów stanowi akt zwielokrotnienia utworów. Jeżeli nie ma podstawy prawnej dla takiego działania, tj. zwielokrotnienia - czy to w postaci przepisu prawa (np. dozwolonego użytku) czy umowy - wówczas zwielokrotnienie utworu w ramach bazy danych narusza prawa autorskie.

  • W jaki sposób prawo autorskie reguluje temat wykorzystania AI w chwili obecnej? Czy nie byłoby zasadne dokonanie zmian, w szczególności, gdy człowiek ma wkład twórczy w wygenerowanie końcowego produktu?

    Upraszczając, korzystanie z narzędzi genetycznej sztucznej inteligencji może prowadzić do trzech sytuacji. Pierwszą jest ta, w której narzędzie wykorzystywane jest w pomocniczej roli niczym popularny program Word, ewentualnie program adjustujący tekst. Drugą sytuacją jest ta, w której treści zostaje wygenerowana przez maszynę, nawet jeśli akt wygenerowania nastąpił wskutek interakcji z człowiekiem (prompt). W takich sytuacjach prawnoautorska ocena jest dosyć prosta. W pierwszym przypadku prawa do dzieła powstaną po naszej stronie, ponieważ jest ono wynikiem sprawności ludzkiego umysłu. Rola komputera miała w tutaj znaczenie oczywiście podrzędne (niekiedy mówi się w takich przypadkach o machine-assisted/enhanced-works). Z kolei w drugiej sytuacji powstaje machine-generated-work. W takich przypadkach nie widać ingerencji ludzkiego umysłu w ukształtowanie danego wytworu, ewentualnie ta ludzka ingerencja ogranicza się do sfery pomysłu, idei na wytwór („narysuj mi alegorię regulacji sztucznej inteligencji”).

    Najczęściej jest jednak tak, że dochodzi do wielopoziomowej współpracy pomiędzy człowiekiem a maszyną, gdzie algorytmy w istotnym stopniu „rozstrzygają” o ostatecznym kształcie dzieła, wskutek czego ludzki i maszynowy komponent splatają się w jedno (niczym poszczególne wkłady twórcze w utworach audiowizualnych czy grach komputerowych). Mowa np. o brainstormowaniu kampanii reklamowej z systemem generatywnej AI, która podpowiada, koryguje, zmienia poszczególne elementy wizualne czy tekstowe takiej kampanii. Z czysto teoretycznego, prawnoautorskiego punktu widzenia sprawa jest dość prosta: twórca jest autorsko uprawniony do utworu współwytwarzanego z maszyną w takim zakresie, w jakim ten ostateczny wytwór odzwierciedla dokonywane przez niego twórcze wybory. W praktyce wykazanie przed sądem takiej ludzkiej ingerencji (pamiętajmy, że ciężar dowodzenia „twórczości” spoczywa na stronie dochodzącej takiej ochrony) może nie być proste, przynajmniej do momentu ukształtowania się orzecznictwa sądów w tym zakresie.

  • Czy AI Act reguluje prawa autorskie?

    Prawnoautorskie zagadnienia zostały uregulowane w AI Act jedynie peryferyjnie. Przepisy tego rozporządzenia zobowiązują dostawców modeli generatywnej AI do publicznego udostępniania zestawienia materiałów, które posłużyły jako substrat treningowy dla generatywnych modeli. Pytaniem, które ma zasadnicze znaczenie w tym kontekście, jest to, jak detaliczne powinno być owo zestawienie? Zakładam, że dostawcy systemów AI będą optowali za jak najmniej detalicznym („zgranulowanym”) spisem, podczas gdy przemysłowi kreatywnemu, który jest jednym z podstawowych „dostawców” danych służących do uczenia maszyn, będzie zależało na jak największej dokładności. To ostatnie choćby dla możliwości wyliczenia rekompensat należnych za korzystanie z ich danych w toku uczenia maszyn (tzw. eksploracja tekstów i danych, text-data-mining, TDM).

    AI Act zobowiązuje również producentów systemów AI do przestrzegania przepisów prawa autorskiego (tworzenia copyright policies), zwłaszcza respektowania zakazów pozyskiwania cudzych utworów w celu wytrenowania na nich swoich modeli.

    Istotne jest wreszcie to, że nie będzie można korzystać w ramach UE z pozaunijnych systemów AI, jeśli przy tworzeniu tych ostatnich nie respektowano należycie wysokiego poziomu ochrony twórców w ramach UE. Ten eksterytorialny aspekt AI Actu ma swoje znaczenie także dla zachowania resztek równowagi konkurencyjnej pomiędzy europejskim a pozaeuropejskim rynkiem cyfrowym.

  • Jak twórca może dochodzić swoich praw za udostępnienie swoich utworów do ćwiczenia AI?

    W praktyce może to być bardzo trudne zadanie. Pierwszym pytaniem jest to, czy naruszenia praw dopatrzyliśmy się na etapie trenowania (input) na naszym utworze, czy też został on wykorzystany w efektach funkcjonowania systemu AI (output).

    W tej pierwszej sytuacji (input) podstawowym problemem będzie, iż ocena legalności trenowania powinna przebiegać wedle prawa kraju, w którym dochodzi do takiego trenowania. Wedle dostępnych informacji, następuje to poza krajami UE. Nawet gdyby jednak udało się pokonać tę przeszkodę, pozostaje trudność z wykazaniem szkody powstałej wskutek nieautoryzowanego korzystania. Niezależnie od metody jej liczenia, już choćby z uwagi na olbrzymi rozmiar baz danych służących do uczenia algorytmów, zakładałbym jednak, że ostateczna kwota takiego odszkodowania lokowałaby się istotnie poniżej oczekiwań potencjalnego powoda.

    W drugiej sytuacji (output) wprawdzie nie mamy już problemu z wykorzystaniem rodzimego prawa do oceny sytuacji, ale prócz typowych dla prawnoautorskich procesów wątków problematyczne pozostanie wciąż wyliczenie szkody na jakkolwiek satysfakcjonującym poziomie.

Damian Flisak

Ekspert w zakresie regulacji prawa najnowszych technologii, własności intelektualnej oraz profesjonalnego doradztwa regulacyjnego, doktor nauk prawnych, radca prawny z kilkunastoletnim praktycznym doświadczeniem prowadzenia sporów sądowych, opiniodawca krajowych i unijnych projektów legislacyjnych.

Odpowiedzi na pytania udzieliła Pani Katarzyna Szczudlik, podczas webinaru "Zastosowanie sztucznej inteligencji w branży finansowej – co zmienia AI Act i jakie wyzwania stwarza dla instytucji finansowych?", który odbył się 4 lutego 2025 r.

  • Czy wdrażając Microsoft Copilota do celów wewnętrznych (usprawnień organizacyjnych) jesteśmy podmiotem stosującym w rozumieniu art. 3 pkt 4) i ciąży na nas obowiązek AI Literacy przewidziany w art. 4?

    Do odpowiedzi na to pytanie konieczne jest przed wszystkim przywołanie definicji systemu AI, który zgodnie z art. 3 pkt 1) Aktu w sprawie sztucznej inteligencji oznacza system maszynowy, który został zaprojektowany do działania z różnym poziomem autonomii po jego wdrożeniu oraz który może wykazywać zdolność adaptacji po jego wdrożeniu, a także który – na potrzeby wyraźnych lub dorozumianych celów – wnioskuje, jak generować na podstawie otrzymanych danych wejściowych wyniki, takie jak predykcje, treści, zalecenia lub decyzje, które mogą wpływać na środowisko fizyczne lub wirtualne.

    Co istotne, przywołana definicja nie wprowadza rozróżnienia na system AI wykorzystywany do celów zewnętrznych i wewnętrznych – ta okoliczność jest irrelewantna z punktu widzenia obowiązków nakładanych na podmiot stosujący.

    Skoro Microsoft Copilot spełnia kryteria uznania go za system AI, to w konsekwencji podmiot stosujących powinien zapewnić kompetencje w zakresie AI zgodnie z obowiązkiem nałożonym przez art. 4 Aktu w sprawie sztucznej inteligencji.

  • Czy akt AI w biometrii/KYC/AML nie jest wyłączona, jeżeli służy tylko potwierdzeniu tożsamości?

    Biometria może stanowić system wysokiego ryzyka, natomiast jeżeli jest używana tylko do potwierdzania, że określona osoba fizyczna jest osobą, za którą się podaje, to taki system nie stanowi systemu SI wysokiego ryzyka.

    Należy tu jednak zauważyć, że takie systemy nie będą systemami wysokiego ryzyka w kontekście AML, jeżeli będą służyły tylko weryfikacji tożsamości w rozumieniu art. 34 ust. 1 pkt 1) Ustawy z dnia 1 marca 2018 r. o przeciwdziałaniu praniu pieniędzy i finansowaniu terroryzmu. Należy przy tym zadbać o przestrzeganie zasady minimalizacji danych i niestosowanie biometrii np. do kategoryzowania takich klientów.

Katarzyna Szczudlik

Adwokatka, partner w kancelarii Schoenherr od 2024 roku. Jej główne obszary praktyki to ochrona danych, własność intelektualna, IT i technologia oraz regulacje finansowe. Jest regularnie klasyfikowana przez Chambers & Partners w czołówce najlepszych polskich prawników specjalizujących się w branży FinTech, a przez Legal 500 w czołówce prawników specjalizujących się w ochronie danych i TMT.

Zaufaj wiedzy ekspertów — działaj pewnie w świecie regulacji AI!
Zacznij korzystać z LEX Prawo Sztucznej Inteligencji już dziś!
Back To Top