Poniższa treść zawiera transkrypcję z powyższego materiału video.
Odpowiedź na pytanie, czy jest możliwe wygenerowanie atrakcyjnych treści z wykorzystaniem narzędzi generatywnej sztucznej inteligencji jest prosta. Tak, oczywiście, że tak. Wszyscy to robimy, co najmniej od kilkunastu miesięcy.
Odpowiedź, czy takie wykorzystanie jest bezpieczne z punktu widzenia prawa autorskiego, brzmi - to zależy. Cały problem polega na tym, że narzędzia generatywnej sztucznej inteligencji trenowane są na olbrzymich zasobach danych. Jeżeli więc w wynikach działania takiego narzędzia pojawi się część lub całość pewnego obrazka, pewnej treści, która stanowiła substrat treningowy danego narzędzia, to dojdzie do zwielokrotnienia.
Jeżeli nie było zgody na takie zwielokrotnienie, udzielonej przez podmiot uprawniony do tego, to wraz z rozpowszechnieniem takiego obrazka, tekstu czy treści audiowizualnej, dojdzie do naruszenia majątkowych praw autorskich. Dlatego wiele podmiotów z pewną wstrzemięźliwością odnosi się do możliwości korzystania z narzędzi generatywnej sztucznej inteligencji, mając na uwadze to właśnie ryzyko.
Ryzyko naruszenia praw autorskich istotnie zmniejsza się wtedy, kiedy te modele, ujmując rzecz najprościej, trenowane są w zamkniętym, kontrolowanym środowisku, a więc w takim środowisku, gdzie prawa do wszystkich danych zostały nabyte. W ten sposób, wynik działania narzędzia sztucznej inteligencji, bazujący właśnie na tych danych, które legalnie zostały pozyskane, również będzie legalny i nie będzie naruszał praw podmiotów uprawnionych do danych wejściowych. Podstawowym sposobem ograniczenia ryzyk związanych z korzystaniem z tych treści jest więc budowanie pewnych zamkniętych systemów , które zawierają dane, wobec których mamy pewność, że ich wykorzystanie będzie legalne.
Kolejnym sposobem na ograniczanie ryzyk, bo pewnie trudno mówić o całkowitym wyeliminowaniu, jest stworzenie przejrzystych dla pracowników i współpracowników regulaminów korzystania z narzędzi sztucznej inteligencji, a więc uwrażliwienie ich na to, żeby nie przekazywać do obiegu publicznego treści, które pozyskało się wskutek pracy z powszechnie dostępnymi, otwartymi narzędziami sztucznej inteligencji. Może to skutkować odpowiedzialnością pracodawcy, odpowiedzialnością podmiotu który będzie czerpał korzyści z wyniku pracy, który narusza prawa autorskie.
Nie wątpię, że jesteśmy już dosyć blisko albo, że rysuje się perspektywa, kiedy my wszyscy będziemy dysponowali pewnymi narzędziami, które pomogą wykryć, czy treść wygenerowana przez narzędzia sztucznej inteligencji naruszają prawa, czy nie. Czyli takie sensu largo systemy antyplagiatowe. Zdaję sobie sprawę, że obecnie już istnieją pewne strony internetowe czy aplikacje, które mogą nam zdiagnozować z tego punktu widzenia legalność uzyskanej treści, ale one wciąż są zawodne i nie dają nam pewności odnośnie legalności.
Ten moment nastąpi, ale obecnie właściwie nie mamy takiej gwarancji, a więc podstawową gwarancją legalności treści z tzw. outputu, jest korzystanie z narzędzi, które pracują w kontrolowanym środowisku, na zestawie danych wobec których mamy pełnię praw.