Generatywna sztuczna inteligencja przestała być ciekawostką technologiczną, a stała się narzędziem codziennej produkcji treści: od tekstów marketingowych, przez grafiki, po muzykę i wideo. Z perspektywy prawa autorskiego rodzi to pytanie fundamentalne: czy (i kiedy) rezultat pracy systemu AI może być „utworem” chronionym prawem autorskim, kto jest autorem, a także jak twórcy i firmy mają zarządzać ryzykiem prawnym oraz komercjalizacją takiej twórczości.
W najnowszym opracowaniu „Copyright of AI-generated works: Approaches in the EU and beyond” autorstwa Sofii Karttunen z European Parliamentary Research Service (EPRS) problem ujęto wprost jako globalne wyzwanie: brak spójności podejść między jurysdykcjami podnosi poziom niepewności prawa, utrudnia licencjonowanie transgraniczne i może wpływać na bodźce do innowacji oraz na pozycję ekonomiczną twórców.
Poniżej przedstawiam kluczowe wnioski z dokumentu, najpierw syntetyczne omówienie podejścia UE i wybranych państw trzecich, a w drugiej części praktyczne rekomendacje („best practices”) dla osób tworzących z użyciem AI oraz dla organizacji wdrażających takie narzędzia.
1) Dlaczego prawo autorskie „zatrzymuje się” na człowieku
W centrum sporu jest pojęcie autorstwa oraz wymóg ludzkiej kreatywności. Dla twórców prawo autorskie ma znaczenie nie tylko symboliczne, lecz przede wszystkim rynkowe: daje kontrolę nad eksploatacją i umożliwia monetyzację. Jednocześnie rośnie praktyczna potrzeba ochrony dzieł, które powstają „z AI”, ale niekoniecznie „przez AI” – czyli w modelu wspierającym (AI-assisted), gdy człowiek nadaje kierunek, dokonuje wyborów i finalnie kształtuje rezultat.
Autorka trafnie pokazuje napięcie między dwiema obawami: z jednej strony twórcy sprzeciwiają się pełnemu uznaniu ochrony dla treści „czysto” generowanych bez istotnego udziału człowieka (ryzyko deprecjacji ludzkiej pracy, wzmocnienie pozycji platform technologicznych), z drugiej – rośnie oczekiwanie, by prawo potrafiło objąć ochroną rezultat pracy profesjonalistów, którzy wykorzystują generatywne narzędzia jako element warsztatu, podobnie jak kiedyś narzędzia cyfrowe czy oprogramowanie graficzne.
2) Podejście UE: brak przepisów szczególnych, ale silny „kręgosłup” doktrynalny
Brak unijnych reguł „wprost” o prawie autorskim do outputów AI
Na poziomie UE nie ma dziś jednolitych przepisów przesądzających o: (1) dopuszczalności uznania AI za autora, ani (2) progu i rodzaju udziału człowieka, które pozwalają traktować rezultat jako utwór. Co istotne, AI Act nie rozstrzyga kwestii copyrightowalności outputów; w tym kontekście dokument zwraca uwagę, że akt ten koncentruje się na innych zagadnieniach, a w obszarze prawa autorskiego nakłada na dostawców modeli ogólnego przeznaczenia obowiązek posiadania polityki zgodności z unijnym prawem autorskim i prawami pokrewnymi.
„Oryginalność” i „własna twórczość intelektualna autora” jako filtr
Choć brak regulacji dedykowanej AI-outputom, unijne prawo autorskie opiera się na koncepcji autorstwa zakorzenionej w ludzkiej kreatywności. Opracowanie Sofii Karttunen przywołuje utrwaloną linię orzeczniczą TSUE: utwór musi być oryginalny w tym sensie, że stanowi „własną twórczość intelektualną autora”, wynikającą z wolnych i twórczych wyborów, a w kolejnych rozstrzygnięciach podkreślano także element „osobistego piętna” i odzwierciedlenia „osobowości autora”.
W praktyce prowadzi to do dość stabilnego wniosku: „czysto” generowane rezultaty, powstające bez (lub z minimalnym) twórczym wkładem człowieka, najprawdopodobniej nie spełnią wymogu oryginalności rozumianej w europejskim standardzie. Otwarte pozostaje natomiast pytanie o prace współtworzone z użyciem narzędzi AI, w których człowiek realnie projektuje koncepcję, wybiera, selekcjonuje i przekształca rezultat w finalną formę ekspresji. To właśnie tu autorka lokuje największą niepewność: jaki jest „wystarczający” poziom i charakter udziału człowieka w końcowej ekspresji.
3) Państwa członkowskie i Parlament Europejski: zarys konsensusu oraz pierwsze punkty odniesienia
Kierunek państw członkowskich: „znaczący” wkład człowieka
Z perspektywy państw członkowskich przebija się wspólny mianownik: ochrona prawa autorskiego wymaga „znaczącego” ludzkiego wkładu w proces twórczy. EPRS wskazuje na wyniki kwestionariusza z 2024 r., w którym dominowało przekonanie o konieczności istotnego udziału człowieka.
Włochy: ustawowe doprecyzowanie (2025)
Jako ważny sygnał regulacyjny dokument odnotowuje wejście w życie we Włoszech (październik 2025 r.) przepisu, który wprost wskazuje, że prawo autorskie obejmuje dzieła ludzkiego geniuszu tworzone przy pomocy narzędzi AI, o ile są rezultatem intelektualnej pracy autora.
Czechy: prompt jako zasada niewystarczający (orzeczenie 2023)
Za istotny „case study” na poziomie UE uznano orzeczenie sądu miejskiego w Czechach z 2023 r., gdzie sąd stwierdził, że samo wpisanie promptu generującego obraz co do zasady nie stanowi autorstwa; konieczne byłoby wykazanie, że rezultat jest unikalnym wynikiem twórczej aktywności osoby fizycznej.
Parlament Europejski: human-centric i presja na dalsze doprecyzowanie
Parlament Europejski konsekwentnie promuje podejście skoncentrowane na człowieku: w rezolucjach z 2020 i 2021 r. podkreślano związek oryginalności z osobą fizyczną oraz rozróżnienie między twórczością „AI-assisted” a treściami „purely AI-generated”. Jednocześnie Parlament wzywał do dalszej analizy zasad stosowania praw własności intelektualnej do treści tworzonych z użyciem AI.
Autorka zwraca też uwagę na projekt raportu z czerwca 2025 r. (sprawozdawca: Axel Voss), w którym wskazano, że treści AI-generated powinny pozostać niekwalifikowane do ochrony prawnoautorskiej, a dodatkowym ryzykiem jest rozjeżdżanie się standardów międzynarodowych. Równolegle badanie zamówione przez komisję JURI rekomenduje stworzenie kryteriów oceny ludzkiego autorstwa w twórczości AI-assisted oraz monitoring międzynarodowej dywergencji.
4) Poza UE: mozaika podejść i rosnąca presja na koordynację
USA: silny standard human authorship, „prompts alone” zwykle niewystarczające
EPRS opisuje Stany Zjednoczone jako jurysdykcję o tradycyjnie silnym podejściu human-centric. Podkreślono, że w praktyce amerykańskiej prompts – same w sobie – nie dają użytkownikowi wystarczającej kontroli twórczej, by uznać go za autora outputu. Jednocześnie możliwa jest ochrona elementów ludzkich, np. tekstu stworzonego przez człowieka lub twórczej selekcji i aranżacji materiału wygenerowanego (przykładem jest sprawa „Zarya of the Dawn”: odmowa ochrony dla pojedynczych obrazów AI, przy jednoczesnym uznaniu ochrony dla tekstu i układu).
Wybrane państwa common law: „computer-generated works” i autor „od aranżacji”
W Wielkiej Brytanii, Nowej Zelandii, Hongkongu (oraz w Irlandii) istnieją przepisy rozpoznające „computer-generated works”, tam gdzie „nie ma ludzkiego autora”, ale jednocześnie autorstwo przypisuje się osobie, która poczyniła ustalenia konieczne do stworzenia dzieła. EPRS zaznacza, że praktyczne zastosowanie tych regulacji do generatywnej AI nie zostało jeszcze przetestowane w sądach, a w Wielkiej Brytanii trwa przegląd zasad po konsultacjach z 2025 r.
Chiny: aktywność sądów i niejednolity próg wkładu człowieka
Chińskie sądy należą do pionierów rozstrzygania sporów dotyczących AI-outputów, ale poziom wymaganego wkładu człowieka jest różnie oceniany. Z jednej strony uznawano ochronę tam, gdzie użytkownik wykazał istotny wysiłek intelektualny (m.in. selekcja wielu promptów i edycja), z drugiej – zdarzają się rozstrzygnięcia podnoszące poprzeczkę: konieczność wykazania weryfikowalnego procesu twórczego, obejmującego dobór, modyfikacje, parametryzację i „substantial intellectual input” w elementy ekspresji wizualnej.
„Suryast” jako test globalnej niespójności
Przykład „Suryast” – pracy stworzonej z pomocą AI – pokazuje, że nawet w obrębie porównywalnych tradycji prawnych mogą pojawiać się rozbieżności. W Indiach doszło do uznania AI jako współautora (z późniejszymi wątpliwościami proceduralno-materialnymi), w Kanadzie również przyznano rejestrację z AI jako współautorem (przy automatyzmie systemu i toczącym się sporze), natomiast w USA odmówiono rejestracji z powodu niewystarczającej ludzkiej kreatywności.
Ukraina: „sui generis” dla obrazów AI-generated
Ciekawą – i na tle europejskim nietypową – ścieżką jest Ukraina, która wprowadziła odrębne (sui generis) prawo dla obrazów generowanych przez AI, pozostawiając klasyczne prawo autorskie dla elementów stworzonych przez człowieka. EPRS podaje, że uprawnienie to może przysługiwać m.in. autorom programu lub podmiotom, na które przeniesiono prawa, a konstrukcja ma potencjał objęcia szerokiego wachlarza technologii. Jednocześnie w dokumencie zaznaczono, że większość państw członkowskich odrzuca koncepcję sui generis, a analizy na poziomie PE wskazują ryzyko zaburzenia konkurencji i wzmocnienia rynkowej pozycji automatycznych systemów kosztem widoczności oraz wartości twórczości ludzkiej.
5) Rosnące ryzyko „copyfraud” i presja na przejrzystość procesu twórczego
EPRS wskazuje na ryzyka systemowe: zróżnicowane interpretacje prawa autorskiego mogą komplikować egzekwowanie praw, licencjonowanie transgraniczne oraz ocenę naruszeń. WIPO ostrzega przed niepewnością prawną, a w samej UE temat ma wracać w ramach kolejnych prac strategicznych i przeglądów regulacji.
Szczególnie interesujący jest wątek „copyfraud” czyli sytuacji, w której podmiot ukrywa użycie AI, a następnie dochodzi ochrony prawnoautorskiej, wykorzystując trudność techniczną wykrycia poziomu udziału AI w procesie. Dokument sugeruje, że presja na transparentność i dokumentowanie etapów procesu twórczego może wzrosnąć, a w przyszłości dyskutowane mogą być nawet rozwiązania typu oznaczanie (marking requirements) albo modyfikacje domniemania autorstwa w reżimie egzekwowania praw.
Best practices: praktyczne podsumowanie dla twórców i organizacji korzystających z AI
Poniższe rekomendacje wynikają bezpośrednio z głównego problemu zidentyfikowanego w dokumencie: w większości analizowanych jurysdykcji warunkiem ochrony jest wykazanie znaczącego wkładu człowieka w finalną ekspresję, a nie samo „uruchomienie” narzędzia. Oznacza to, że kluczowe stają się: (1) sposób pracy, (2) dowody procesu twórczego oraz (3) porządek kontraktowy.
A) Jak pracować, aby maksymalizować szanse na ochronę elementów ludzkich
Najbezpieczniejsza konstrukcja dla twórców i firm to model „AI-assisted”, gdzie AI jest narzędziem, a nie autonomicznym „autorem”. W praktyce oznacza to konsekwentne budowanie śladów twórczej decyzyjności człowieka:
Po pierwsze, projektuj koncepcję i kryteria wyboru jeszcze przed generowaniem. Jeśli potrafisz opisać zamysł, stylistykę, przekaz, ograniczenia i to, co ma stanowić o „osobistym piętnie” – łatwiej później wykazać wolne i twórcze wybory, które w standardzie unijnym są rdzeniem oryginalności.
Po drugie, traktuj generowanie jako etap roboczy, a nie finalny. Generuj warianty, porównuj je, odrzucaj, łącz, edytuj. W wielu opisanych podejściach właśnie selekcja i aranżacja w sposób twórczy zwiększa szanse, że przynajmniej część dzieła będzie kwalifikowana jako rezultat pracy człowieka (co wybrzmiewa szczególnie w omówieniu praktyki USA i wybranych orzeczeń chińskich).
Po trzecie, dodawaj elementy autorskie „poza AI”: autorski tekst, scenariusz, narrację, kompozycję, warstwę merytoryczną, strukturę, montaż, korektę, finalny layout. W sporach o autorstwo najłatwiej broni się to, co jest jednoznacznie ludzkie i możliwe do pokazania jako rezultat kompetencji oraz decyzji twórczych.
B) Dokumentuj proces twórczy tak, jakbyś miał go kiedyś wyjaśnić w sądzie
Autorka pokazuje, że prompt „sam w sobie” bywa uznawany za niewystarczający, a istotne są kolejne kroki: dobór, modyfikacje, parametry, edycja oraz weryfikowalność procesu. Dlatego warto wdrożyć prostą praktykę „dziennika twórczego” (indywidualnie lub w zespole):
- Zachowuj historię promptów i iteracji (nie tylko finalny prompt). Notuj, dlaczego dana iteracja została odrzucona lub wybrana.
- Archiwizuj wersje pośrednie oraz warstwę edycyjną: pliki źródłowe, warstwy, timeline montażu, komentarze redakcyjne, różnice między wersjami.
- Opisuj decyzje człowieka: „co było celem”, „co zmieniłem i dlaczego”, „jakie kryteria zastosowałem”, „co stanowiło o finalnej ekspresji”.
- W środowiskach organizacyjnych (marketing, design, produkt) ustandaryzuj to w postaci krótkiej procedury, bo w przypadku sporu liczy się powtarzalność i możliwość odtworzenia procesu.
To nie jest biurokracja dla samej biurokracji. W realiach, gdzie trudniej wykryć poziom udziału AI i rośnie ryzyko „copyfraud”, dobrze prowadzona dokumentacja może być najtańszą polisą dowodową.
C) Uporządkuj kontrakty: kto ma prawa do czego, i jak rozumiecie „wkład twórczy”
W praktyce rynkowej największy konflikt nie zaczyna się od pytania „czy to utwór”, tylko od pytania „kto może to sprzedawać i na jakich zasadach”. Dlatego:
W umowach z klientami i podwykonawcami doprecyzuj, czy dopuszczalne jest użycie generatywnej AI, w jakim zakresie i na jakich narzędziach. To ogranicza ryzyko, że klient uzna rezultat za „niezgodny z zamówieniem” albo będzie kwestionował możliwość przeniesienia praw.
Ustal zasady oznaczania i ujawniania użycia AI (wewnętrznie, a czasem także wobec klientów). Dokument EPRS pokazuje, że dyskusja o przejrzystości będzie narastać, więc warto mieć własny standard wcześniej.
Zadbaj o klauzule dotyczące odpowiedzialności za naruszenia praw osób trzecich (w tym w zakresie materiałów wejściowych, danych referencyjnych, bibliotek, stocków oraz stylów). Sam dokument koncentruje się na autorstwie outputów, ale w praktyce spór często „przechodzi bokiem” na klasyczne ryzyka naruszeniowe.
D) Zarządzaj oczekiwaniami biznesu: „prawa autorskie” to nie jedyny instrument
Jeżeli rezultat jest w dużej mierze AI-generated i trudno wykazać istotny wkład człowieka, firma nadal może chronić wartość biznesową innymi narzędziami:
- tajemnica przedsiębiorstwa (procedury poufności, ograniczenia dostępu, kontrola dystrybucji),
- znaki towarowe i identyfikacja marki (ochrona „opakowania” i odróżnialności),
- umowy licencyjne i regulaminy korzystania (kontrakt jako warstwa zabezpieczająca),
- ochrona baz danych lub know-how w organizacji.
Warto to komunikować interesariuszom: brak pewności co do prawa autorskiego nie oznacza automatycznej „bezbronności” biznesowej, ale wymaga świadomego doboru instrumentów.
E) Przeglądaj warunki narzędzi AI i polityki dostawców
Dokument odnotowuje, że duzi dostawcy narzędzi (w tym popularne modele) w warunkach użycia dystansują się od roszczeń do własności outputów. To jednak nie zastępuje analizy ryzyk: liczy się, co dokładnie wynika z regulaminu (np. licencje, uprawnienia do wykorzystania treści, zasady użycia danych, ograniczenia branżowe, obowiązki informacyjne). W organizacji warto ująć to w polityce korzystania z AI: dopuszczone narzędzia, zakazane kategorie danych, sposób archiwizacji i zatwierdzania rezultatów.
Co warto zapamiętać
Z perspektywy UE i wielu państw trzecich kierunek jest czytelny: prawo autorskie pozostaje w znacznej mierze „zaprojektowane” pod człowieka, a kluczowym kryterium będzie wykazanie realnych, twórczych decyzji osoby fizycznej w finalnej ekspresji. Jednocześnie międzynarodowa niespójność podejść narasta, co zwiększa znaczenie dobrego zarządzania procesem twórczym, dowodami i kontraktami – zwłaszcza przy projektach dystrybuowanych transgranicznie.
Link do dokumentu:


