Click Scanner

Nie płać za sztuczne fraud kliki

eSprzedawca AI

Sprzedawaj więcej z chatem AI

Prawa autorskie do obrazów generowanych przez AI – stan na rok 2025

Zespół TrafficWatchdog

16.07.2025

źródło: opracowanie własne

W ostatnich latach sztuczna inteligencja generatywna przebojem wkroczyła do świata sztuki i designu – narzędzia takie jak DALL-E, Midjourney czy Stable Diffusion pozwalają w kilka chwil stworzyć obraz na podstawie opisu tekstowego. Kto jednak posiada prawa autorskie do tak wygenerowanego dzieła? To pytanie nurtowało wielu już w 2022 roku, a dziś – w 2025 roku – nabrało jeszcze większej wagi w obliczu rosnącej popularności AI. Debata prawna i etyczna trwa na całym świecie, a ustawodawcy oraz sądy zaczynają kształtować pierwsze odpowiedzi. W niniejszym artykule przyglądamy się aktualnej sytuacji: czy obrazy stworzone przez AI podlegają ochronie prawnoautorskiej, kto ewentualnie może rościć sobie do nich prawa, jak wyglądają regulacje w Polsce, Unii Europejskiej i innych krajach, oraz jakie nowe orzeczenia i kontrowersje pojawiły się w ostatnich latach.

Czy obrazy generowane przez AI są chronione prawem autorskim?

Zarówno polskie, jak i unijne prawo autorskie opiera się na założeniu, że twórcą utworu może być wyłącznie istota ludzka. Definicja „utworu” w polskiej ustawie wymaga, by był to rezultat działalności twórczej o indywidualnym charakterze – co doktryna i orzecznictwo interpretują jako dzieło stworzone przez człowieka. W konsekwencji, treści wygenerowane w pełni samodzielnie przez algorytm AI nie spełniają warunku bycia przejawem działalności człowieka, a zatem nie są objęte ochroną prawnoautorską. Mówiąc prościej: jeśli obraz został stworzony wyłącznie przez sztuczną inteligencję (bez twórczego wkładu człowieka), to nie powstają do niego prawa autorskie – taki „utwór” nie ma prawnie uznanego autora. Tego rodzaju wytwory traktowane są de facto jak materiały z domeny publicznej, które każdy może kopiować czy przerabiać bez zgody „twórcy” (bo formalnie twórcy brak).

Prawo amerykańskie obecnie podchodzi do kwestii podobnie. Urząd ds. praw autorskich USA (US Copyright Office) w licznych decyzjach i wytycznych podkreśla, że ochronie podlega tylko oryginalna twórczość człowieka – utwór musi odzwierciedlać osobisty wkład intelektualny człowieka, nawet jeśli w procesie korzystano z narzędzi AI. Przykładowo w głośnej sprawie komiksu „Zarya of the Dawn” z początku 2023 r. urząd odmówił rejestracji praw autorskich do obrazów wygenerowanych przez Midjourney, mimo że autorka użyła ponad 600 szczegółowych promptów (poleceń tekstowych dotyczących postaci, stylu, kolorów itp.) – uznano, że nawet tak duża liczba wskazówek nie czyni z człowieka autora grafiki, skoro sama finalna wizja pochodzi od algorytmu. Urząd stwierdził zarazem, że jeśli w procesie powstawania dzieła wystąpi znaczny wkład twórczy człowieka – na przykład autor później gruntownie przerobi grafikę albo połączy ją z własną twórczością – wówczas możliwe będzie uznanie takiego utworu za chroniony. Podobny pogląd znajdziemy w innych krajach. Przełomowe orzeczenie zapadło w Czechach: w 2024 r. Miejski Sąd w Pradze oddalił pozew fotografa, który zarzucał lokalnej kancelarii skopiowanie obrazu wygenerowanego przez niego za pomocą DALL-E. Sąd orzekł, że grafika stworzona przez AI nie jest utworem w rozumieniu prawa, gdy brak wystarczającego twórczego wkładu człowieka, a sam tekstowy prompt to jedynie niechroniona prawem idea. Był to pierwszy taki wyrok w Europie i prawdopodobnie zarysowuje kierunek wykładni – dzieła w pełni wygenerowane przez algorytmy nie kwalifikują się jako chronione utwory.

W rezultacie obecny stan prawny (zarówno w Polsce i UE, jak i np. w USA) można podsumować następująco: obrazy stworzone całkowicie przez AI nie są objęte prawem autorskim. Brak jest uznanego autora, brak monopolu praw majątkowych – każdy może je wykorzystywać dowolnie. Co ważne, nie oznacza to jednak zupełnej anarchii: jeśli AI wygeneruje bardzo podobny obraz do już istniejącego dzieła chronionego, to wykorzystanie takiego outputu może naruszać prawa autorskie twórcy oryginału (bo byłoby to de facto nieautoryzowane rozpowszechnianie lub opracowanie cudzego utworu). Tyle że w takiej sytuacji naruszenie dotyczy tego pierwotnego utworu znajdującego się w danych treningowych, a nie „praw do outputu” jako takiego (tych ostatnich po prostu nie ma). Cała kwestia jest złożona i wciąż brak jednoznacznych ram prawnych – jak zauważył amerykański urząd, świat wciąż nie wypracował jasnych przepisów regulujących prawa autorskie do efektów działania sztucznej inteligencji. Możemy jednak prześledzić, kto i na jakiej podstawie mógłby rościć sobie prawa do generowanych obrazów oraz jak ustawodawcy próbują łatać istniejącą lukę.

Kto może rościć prawa do dzieł generowanych przez AI?

Skoro tradycyjne prawo autorskie wymaga człowieka jako twórcy, to nasuwa się pytanie: co z użytkownikiem, który zadał AI pomysł? Co z twórcą samego modelu AI? Albo z autorami obrazów, na których AI się „nauczyła” malować? Rozważmy po kolei potencjalnych kandydatów do praw:

  • Użytkownik (autor promptu) – w wielu przypadkach to właśnie człowiek wpisujący prompt (opis polecenia dla AI) jest najbliższy roli twórcy. Jednak jeśli jego wkład ograniczył się do wpisania krótkiej komendy, a całą kompozycję i detale „wymyśliła” sieć neuronowa, to – jak wskazano wyżej – taki człowiek nie zostanie uznany za autora utworu. W świetle obecnego prawa nie stworzył on osobiście oryginalnego dobra intelektualnego, a jedynie uruchomił algorytm. Zatem ani Ty, użytkowniku, ani sama aplikacja AI, nie jesteście uznawani za autorów wygenerowanej grafiki. Wyjątek może dotyczyć sytuacji, gdy rola użytkownika była bardziej rozbudowana: np. przygotował on bardzo szczegółowe instrukcje, następnie wybrał z wielu wygenerowanych wersji jedną i własnoręcznie ją dopracował, nadając jej ostateczny charakter. Jeżeli da się wykazać, że ostateczny rezultat odzwierciedla kreatywne decyzje człowieka (a AI była tylko narzędziem pomocniczym), wówczas istnieją argumenty za uznaniem użytkownika za twórcę takiego utworu zależnego wspomaganego AI. Jest to jednak obszar szarości – każdy przypadek oceniany będzie indywidualnie pod kątem tego, czy ludzki wkład był wystarczająco twórczy. Na chwilę obecną polska i europejska praktyka jest raczej rygorystyczna i bliższa amerykańskiej – trudno będzie udowodnić autorstwo utworu powstałego z pomocą narzędzia AI, o ile udział człowieka nie był naprawdę istotny. Dla kontrastu, w Chinach już dwa sądy uznały w ostatnim czasie, że obrazy wygenerowane przez AI mogą być chronione, jeśli człowiek miał istotny wpływ twórczy na ich powstanie. W głośnej sprawie z listopada 2023 r. Pekiński Sąd ds. Internetu orzekł, iż twórca, który za pomocą AI wygenerował obraz pt. „Wiosenny wiatr przynosi czułość”, posiada do niego prawa – ponieważ to on nadał kierunek dziełu i dokonał twórczych wyborów (a pozwany, publikując ten obraz bez zgody i usuwając znak wodny autora, naruszył jego prawa).

  • Twórca modelu AI (programiści, firma udostępniająca narzędzie) – intuicyjnie mogłoby się wydawać, że skoro to firma stworzyła i „nauczyła” algorytm generować obrazy, to może powinna mieć jakieś prawa do efektów jego działania. Jednak na gruncie prawa autorskiego taka zależność nie powstaje. Autorami mogą być tylko osoby fizyczne, a wytworzenie narzędzia nie czyni z jego twórców automatycznie współautorów każdej wygenerowanej przez użytkowników grafiki. Firma udostępniająca generator (np. OpenAI, Stability AI) posiada prawa do samego oprogramowania i modelu (chronionego np. prawem autorskim jako kod komputerowy czy know-how/trade secret), ale nie do każdego obrazu wygenerowanego przez klientów. W praktyce wiele firm wręcz przenosi (lub przyznaje) prawa do outputu na użytkowników w swoich regulaminach. Przykładowo OpenAI w warunkach korzystania wprost stwierdza, że to użytkownik jest właścicielem wszystkich wygenerowanych przez niego treści – a także że to na użytkowniku spoczywa odpowiedzialność, by wygenerowane materiały nie naruszały prawa. Podobnie platforma Midjourney pozwala płacącym użytkownikom traktować wygenerowane grafiki jako własne i dowolnie z nich korzystać. Takie zapisy mają głównie uspokoić korzystających z AI (dając im pewność co do możliwości wykorzystania obrazów komercyjnie) oraz zdjąć z dostawcy narzędzia ryzyko prawne, przerzucając je na użytkownika. Należy jednak podkreślić: jeśli obraz nie kwalifikuje się w ogóle jako utwór, to w sensie ścisłym brak jest jakichkolwiek praw autorskich, którymi firma mogłaby dysponować lub które mogłaby przekazać. Wówczas mamy do czynienia raczej z udzieleniem licencji/zgody kontraktowej na korzystanie z wygenerowanych treści na zasadach określonych w umowie (regulaminie). Firma może np. zastrzec sobie pewne ograniczenia (jak zakaz generowania treści naruszających cudze prawa, pornografii, itp.) i egzekwować je na podstawie regulaminu – ale nie na podstawie praw autorskich do samego obrazka, bo takich nie posiada.

  • Autorzy materiałów treningowych (twórcy „dzieł wejściowych”) – generatywne modele AI są trenowane na olbrzymich zbiorach danych: zdjęć, grafik, obrazów malarskich, ilustracji, często pobranych z Internetu bez pytania twórców o zgodę. Rodzi to naturalny sprzeciw wielu artystów – czy AI nie „kradnie” ich prac, by tworzyć nowe obrazy? Z punktu widzenia prawa autorskiego, dopóki wygenerowany obraz tylko czerpie inspirację z stylistyki czy motywów obecnych w danych treningowych, ale nie kopiuje wprost chronionych elementów konkretnego dzieła, dopóty nie narusza praw autorskich żadnego z pierwotnych twórców. Autorzy obrazów użytych do trenowania modeli nie stają się automatycznie współautorami nowych grafik – bo nowe grafiki nie są uznawane za opracowania ich konkretnych utworów (są utworami albo niczyimi, albo nowymi – o ile powstały z istotnym udziałem innego człowieka). Oczywiście, jeżeli output AI okazałby się niemal identyczną kopią jednej ilustracji z bazy treningowej (co może się zdarzyć np. przy przeuczeniu modelu), to twórca oryginału mógłby dochodzić swoich praw autorskich – ale to znów dotyczy ochrony konkretnego istniejącego utworu, nie „praw do stylu czy inspiracji”. Styl artystyczny jako taki nie podlega ochronie prawnoautorskiej (prawo chroni wyłącznie konkretną formę wyrażenia, nie zaś idee czy konwencje). Dlatego np. grafiki generowane „w stylu Van Gogha” nie naruszają praw do obrazów Van Gogha – choć budzą etyczne wątpliwości, jeśli kopiują niepowtarzalną manierę artysty. Obecnie więc autorzy dzieł wykorzystanych do trenowania AI nie mają podstaw, by rościć sobie prawa do każdego nowego obrazu wygenerowanego przez AI, chyba że wykażą bezpośrednie skopiowanie elementów ich konkretnej pracy. Mimo to, jak omówimy później, wielu twórców domaga się nowych regulacji, które dałyby im większą kontrolę lub udział w zyskach przy wykorzystaniu ich twórczości w treningu algorytmów.

  • Sama sztuczna inteligencja – na koniec warto odnotować pomysł z pogranicza futurologii: czy AI mogłaby być uznana za autora na równi z człowiekiem? Na razie żadne prawo na świecie nie przyznaje podmiotowości prawnej systemom AI w kontekście praw autorskich. W głośnej sprawie Thaler vs. Perlmutter w USA sąd federalny w 2023 r. jasno orzekł, że „prawo autorskie chroni wyłącznie twórczość ludzką”, podtrzymując odmowę rejestracji obrazu, którego jako twórcę wskazano wyłącznie algorytm (bez udziału człowieka). W UE również dominuje koncepcja human-centric, co znalazło wyraz m.in. w rezolucji Parlamentu Europejskiego z 2020 r., w której podkreślono, że zasada oryginalności dzieła jest powiązana z osobą ludzką i nie ma planów przyznania AI odrębnej osobowości prawnej w zakresie własności intelektualnej. Pomysły, by tworzyć dla AI „elektronicznych osób” zdolnych do bycia autorami, zostały jak dotąd odrzucone – uznano, że mogłoby to podważyć system ochrony prawnej opartej na ludzkiej twórczości i odpowiedzialności.

Reasumując, jeśli obraz jest w całości dziełem algorytmu, to żaden podmiot (ani użytkownik, ani twórca algorytmu, ani tym bardziej sama AI) nie uzyskuje statusu właściciela praw autorskich takiego wytworu. Treści te można zatem wykorzystywać względnie swobodnie. Jednak w praktyce nie oznacza to pełnej dowolności – zastosowanie znajdują inne przepisy (np. regulaminy narzędzi, prawo cywilne, klauzule o zwalczaniu nieuczciwej konkurencji). Przykładowo, regulaminy popularnych generatorów AI często określają, co wolno zrobić z wygenerowaną grafiką. Są one wiążące jak umowa – więc nawet jeśli formalnie obraz nie jest chroniony, to złamanie zasad licencyjnych może skutkować odpowiedzialnością kontraktową (a konto użytkownika może zostać zablokowane za nieprzestrzeganie regulaminu). Co więcej, brak praw autorskich = brak ochrony – inni również mogą swobodnie skopiować taką grafikę i użytkownik nie może temu skutecznie się sprzeciwić na gruncie prawa autorskiego. To rodzi kolejne wyzwania dla osób korzystających z AI w twórczości, o czym dalej.

Sytuacja prawna w Polsce i UE (2025)

W Polsce nie wprowadzono dotąd żadnej specjalnej ustawy dotyczącej „sztucznej inteligencji a prawo autorskie”. Obowiązują ogólne przepisy ustawy o prawie autorskim, które – jak wspomniano – wymagają, by utwór był wytworem człowieka. Potwierdza to zgodnie polska doktryna i dotychczasowe orzecznictwo. Nie odnotowano jeszcze (stan na 2025 r.) żadnego wyroku polskiego sądu bezpośrednio rozstrzygającego o prawach autorskich do dzieła stworzonego za pomocą AI. Można jednak przypuszczać, że gdyby doszło do takiego sporu, polski sąd poszedłby śladem np. orzeczenia czeskiego – uznając brak ochrony dla samodzielnego wytworu AI. W praktyce polscy prawnicy zalecają ostrożność: jeżeli ktoś chce zabezpieczyć rezultat wspomagany przez AI, powinien zadbać o jak największy własny wkład twórczy, aby móc argumentować, że to „utwór z elementami AI”, a nie czysta kreacja algorytmu. W przeciwnym razie dochodzenie roszczeń może okazać się niemożliwe – jak zauważa Natalia Basałaj, „trudno będzie udowodnić posiadanie praw autorskich do treści stworzonych z pomocą narzędzi AI”.

Na szczeblu unijnym również nie przyjęto dotąd odrębnej kategorii prawnej dla utworów AI. Obowiązuje linia orzecznicza Trybunału Sprawiedliwości UE, wywodząca od sprawy Infopaq (2009), zgodnie z którą utwór jest chroniony, jeśli jest „własną intelektualną twórczością autora”, odzwierciedlającą jego „osobisty wkład” – co zakłada działanie człowieka. Komisja Europejska w raporcie z 2020 r. również stwierdziła, że dzieło AI może być uznane za utwór tylko wtedy, gdy wynika z aktywności intelektualnej człowieka i odzwierciedla jego twórcze wybory. Stan prawny więc się nie zmienił: utwory generowane w pełni przez AI nie są chronione (pozostają poza systemem prawa autorskiego), natomiast utwory współtworzone przez człowieka z użyciem AI mogą być chronione na obecnych zasadach, jeśli spełniają kryterium oryginalności. Warto podkreślić, że Unia świadomie nie poszła drogą np. Wielkiej Brytanii – gdzie od lat w prawie istniał przepis przyznający prawa autorskie do „utworów generowanych komputerowo” osobie, która poczyniła ku temu niezbędne działania (choć ochrona ta jest krótsza, 50-letnia). UE nie zdecydowała się na takie rozwiązanie w żadnym z państw członkowskich, uznając że może ono wręcz osłabić pozycję ludzkich twórców.

To nie znaczy jednak, że w UE nic się nie dzieje w temacie AI. Przeciwnie – w latach 2019–2024 przyjęto kilka ważnych aktów prawnych, które pośrednio wpływają na kwestie AI i praw własności intelektualnej:

  • Dyrektywa DSM 2019/790 wprowadziła wyjątki text and data mining (TDM), czyli eksploracji tekstów i danych. Pozwalają one instytucjom badawczym, a w pewnym zakresie także podmiotom komercyjnym, na kopiowanie cudzych utworów w celu uczenia algorytmów, bez konieczności uzyskiwania zgody każdego posiadacza praw, o ile dane te zostały legalnie udostępnione publicznie. Warunkiem jest jednak wykorzystywanie tych kopii wyłącznie do celów analizy danych (nie do publikacji) oraz – w przypadku zastosowań innych niż badawcze – brak zastrzeżenia praw przez właściciela. W praktyce oznacza to, że w UE trening modeli AI na publicznie dostępnych obrazach jest legalny, chyba że twórca wyraźnie zastrzegł „zakaz trenowania” na swoim utworze (tzw. opt-out). Takie zastrzeżenie może mieć formę np. informacji w metadanych lub w regulaminie strony. Organizacje twórców zachęcają do tego – np. polski ZAiKS ogłosił, że zastrzega dla reprezentowanych utworów prawo do eksploracji danych (opt-out) i rekomenduje autorom umieszczanie na swoich stronach odpowiednich klauzul wyłączających możliwość trenowania na opublikowanych treściach. Co więcej, ZAiKS udostępnił nawet gotowy plik do wstawienia na serwer, który ma blokować roboty AI przed dostępem do określonych folderów z utworami. To pokazuje, że autorzy próbują chronić swoje prace przed „pożarciem” przez AI w granicach istniejącego prawa – choć skuteczność takich zabiegów bywa ograniczona.

  • AI Act 2024 – ogromnie istotnym wydarzeniem było uchwalenie w czerwcu 2024 roku unijnego Aktu w sprawie Sztucznej Inteligencji. Jest to rozporządzenie kompleksowo regulujące wiele aspektów rozwoju i użycia systemów AI (skupiające się na ocenie ryzyka, certyfikacji, nadzorze itp.). Choć AI Act nie jest ustawą o prawie autorskim, zawiera przepisy dotykające kwestii własności intelektualnej w kontekście AI. Po pierwsze, wprowadza zasadę transparentności generatywnej AI – twórcy systemów AI generujących multimedia będą zobowiązani do wyraźnego oznaczania treści wygenerowanych lub zmanipulowanych przez AI. Innymi słowy, jeśli np. obraz lub nagranie zostało stworzone (albo przerobione) przez algorytm, powinno to być ujawnione odbiorcom. Ma to zapobiegać wprowadzaniu w błąd i ułatwić rozpoznawanie tzw. deepfake’ów, ale przy okazji służy też pośrednio kwestii praw autorskich – łatwiej będzie ustalić, czy mamy do czynienia z twórczością człowieka, czy maszyn. Po drugie, AI Act nakłada na dostawców dużych modeli (foundation models) obowiązek dokumentowania wykorzystanych do trenowania danych oraz zapewnienia, że dane te zostały pozyskane zgodnie z prawem, w tym z poszanowaniem praw autorskich. Co prawda szczegóły tych wymogów wciąż się precyzuje, ale idea jest jasna: firmy tworzące np. generatory obrazów mają ujawniać źródła swoich danych treningowych i starać się wykluczać z nich materiały naruszające prawo. Ta regulacja może w przyszłości ułatwić twórcom wykrywanie, czy ich prace były użyte bez zezwolenia do trenowania czyjegoś modelu – a także dochodzenie roszczeń. Po trzecie wreszcie, trwają prace nad kodeksem postępowania (AI Code) w UE, który ma uzupełniać AI Act. Mają tam się znaleźć m.in. mechanizmy licencjonowania i korzystania z utworów w kontekście AI, co doprecyzuje relacje między dostawcami technologii AI a posiadaczami treści. Wszystko to pokazuje, że UE zmierza w stronę wyważenia interesów – z jednej strony nie zamierza przyznawać AI praw autorskich, ale z drugiej chce chronić twórców przed nadużyciami i wymusić większą transparentność oraz ewentualne wynagradzanie wykorzystania cudzej twórczości do trenowania modeli.

  • Krajowe wytyczne i inicjatywy – choć brak odrębnych ustaw, temat generatywnej AI pojawia się w działaniach różnych instytucji. Wspomniany ZAiKS reaguje na poziomie branżowym. Europejskie urzędy patentowe i ds. własności intelektualnej (np. EUIPO) prowadzą analizy i raporty, choć jeszcze bez wiążących efektów. W Wielkiej Brytanii – która co prawda opuściła UE, ale jej stanowisko bywa obserwowane – rząd przeprowadził konsultacje dotyczące reformy prawa autorskiego w kontekście AI. Początkowo Brytyjczycy rozważali liberalizację przepisów (m.in. wprowadzenie szerokiego wyjątku pozwalającego AI na trenowanie na dowolnych danych bez zgody, co wzbudziło protesty tamtejszych twórców). Wycofano się jednak z najbardziej kontrowersyjnych pomysłów i obecnie UK proponuje model zbliżony do unijnego: prawo do opt-out dla twórców plus umożliwienie trenowania na niewyłączonych treściach, a także zwiększenie transparentności po stronie firm AI (obowiązek ujawniania, na jakich utworach system został wytrenowany). Jednocześnie trwa tam dyskusja, czy utrzymać wspomniany przepis o „dziełach generowanych komputerowo” – bo choć formalnie daje on pewną ochronę (50 lat) utworom stworzonym bez autora, to w praktyce jest rzadko stosowany i może zostać zniesiony jako relikt analogowej epoki. Podobne rozmowy toczą się też w innych krajach.

Podsumowując sytuację w Polsce i UE: obrazy tworzone przez AI na razie nie doczekały się specjalnej ochrony prawnej – obowiązują istniejące przepisy, które w praktyce wykluczają ochronę utworów bez ludzkiego twórcy. Ochrony takiej można ewentualnie szukać w innych dziedzinach prawa (np. jeśli ktoś wykorzystuje nasz wygenerowany obraz w sposób wprowadzający w błąd co do jego pochodzenia, można teoretycznie próbować roszczeń z ustawy o zwalczaniu nieuczciwej konkurencji, choć to trudne i niepewne). Trend regulacyjny idzie natomiast w kierunku zapewnienia transparentności i poszanowania praw twórców przy trenowaniu AI, ale nie w kierunku nadania AI zdolności bycia twórcą. Unia Europejska i kraje członkowskie starają się raczej wzmocnić kontrolę twórców nad wykorzystaniem ich dzieł w procesie uczenia maszynowego (poprzez opcje opt-out, obowiązki informacyjne dla firm AI), niż tworzyć nowe prawa wyłączone dla wytworów AI. Możliwe, że w przyszłości pojawią się koncepcje wprowadzenia np. sui generis (swoistych) praw dla treści generowanych przez AI – taki eksperyment przeprowadziła choćby Ukraina, która w nowej ustawie o prawie autorskim z 2022 r. wprowadziła osobny reżim ochrony utworów wygenerowanych przez programy komputerowe bez udziału człowieka. Te ukraińskie przepisy uznają, że takie „nieoryginalne” wytwory nie są klasycznymi utworami (brak twórczości), ale przyznają im pewną ograniczoną ochronę podobną do praw pokrewnych. Na razie jednak w Polsce i UE nic takiego nie obowiązuje – stoimy na straży tradycyjnej zasady twórczości człowieka.

Nowe orzeczenia i głośne przypadki (2022–2025)

Choć przepisy dopiero raczkują, ostatnie lata przyniosły kilka ważnych orzeczeń sądowych i decyzji urzędów, które zaczynają tworzyć ramy prawne w obszarze AI i praw autorskich. Poniżej zestawienie najciekawszych przypadków z różnych jurysdykcji:

  • Stany Zjednoczone – odmowa rejestracji AI-obrazu i „bedrock requirement”: Wspomniana sprawa Thalera (dotycząca obrazu wygenerowanego przez tzw. Creativity Machine) zakończyła się w sierpniu 2023 r. wyrokiem sędzi Beryl Howell, która potwierdziła decyzję Urzędu ds. Praw Autorskich odmawiającą rejestracji. Sędzia w uzasadnieniu nazwała ludzkie autorstwo „fundamentalnym wymogiem prawa autorskiego” – jasno wskazując, że dzieło stworzone w całości przez AI nie podlega ochronie. W innej głośnej sprawie, Kris Kashtanova vs USCO, autorka komiksu wygenerowanego w Midjourney uzyskała rejestrację praw autorskich do tekstu i układu kadr, ale nie do samych obrazów – te uznano za niechronione, ponieważ powstały dzięki AI. Urząd zalecił Kashtanovej ujawnianie przy rejestracji, jaka część dzieła jest wygenerowana przez AI, co stało się zapowiedzią nowych wytycznych. US Copyright Office rzeczywiście w marcu 2023 r. opublikował oficjalne „Wskazówki dot. prac zawierających materiały generowane przez AI”, gdzie stwierdzono, że twórcy korzystający z AI mogą rościć prawa tylko do części własnego wkładu, a w zgłoszeniu powinni wskazać, które elementy dzieła pochodzą od człowieka. Ostatecznie w końcówce stycznia 2025 r. USCO poszedł jeszcze dalej, publikując raport podsumowujący dotychczasowe stanowisko: „obrazy w całości generowane przez sztuczną inteligencję nadal nie kwalifikują się do ochrony praw autorskich” – natomiast dzieła współtworzone przez człowieka (np. gdy AI służyła jako narzędzie edycyjne) mogą być chronione w zakresie elementów pochodzących od człowieka. Urząd podkreślił przy tym, jak ważne jest odróżnienie użycia AI jako narzędzia wspomagającego twórczość od użycia AI jako substytutu ludzkiej kreatywności. Ta ostatnia sytuacja (czyli AI zastępująca twórcę) nie daje ochrony, bo to maszyna jest faktycznym autorem dzieła, a nie człowiek.

  • Europa – pierwsze wyroki krajowe: W Unii Europejskiej dopiero zaczynamy obserwować orzecznictwo dotykające bezpośrednio utworów AI. Omówiony wyżej wyrok sądu w Pradze (2024)pierwszy tego typu w Europie – jasno stwierdził brak ochrony obrazu z DALL-E z uwagi na brak ludzkiego autora. To orzeczenie może stanowić precedens pomocniczy dla sądów innych krajów UE. W Polsce jak dotąd nie było podobnej sprawy, ale warto odnotować, że np. francuski urząd IPO w 2023 r. odmówił zarejestrowania jako wzoru przemysłowego grafiki wygenerowanej przez AI (uzasadniając to brakiem osobistego wkładu twórczego projektanta). W Wielkiej Brytanii nie doszło jeszcze do głośnego procesu o obraz AI, lecz tamtejsze prawo – jak wspomniano – wciąż dopuszcza ochronę utworów komputerowych. Natomiast interesujący przypadek zdarzył się w Hiszpanii, gdzie pewien fotograf zgłosił do konkursu prasowego zdjęcie wygenerowane w Midjourney (nie informując o tym) i zdobył nagrodę. Gdy wyszło na jaw, że to dzieło AI, wywołało to dyskusję o etyce i ochronie takich „fałszywych” fotografii – aczkolwiek formalnie sprawa nie trafiła na drogę sądową. Można się spodziewać, że prędzej czy później również Trybunał Sprawiedliwości UE będzie musiał wypowiedzieć się w jakiejś sprawie dotyczącej utworów AI, co ustanowi jednolitą wykładnię dla całej Unii.

  • Chiny – uznanie praw i pierwsze spory: Chiny prezentują podejście odmienne od zachodniego, co wynika zarówno z innych przepisów, jak i polityki wspierania nowych technologii. Wspomniany wyrok Pekińskiego Sądu ds. Internetu (listopad 2023) w sprawie obrazu „Wiosenny wiatr przynosi czułość” był ważnym sygnałem – sąd przyznał ochronę prawnoautorską obrazowi AI i zasądził rację twórcy promptu, którego praca została bezprawnie wykorzystana. W uzasadnieniu podkreślono, że człowiek wniosł istotny wkład w finalne dzieło, a AI była jedynie narzędziem. Rok później, w marcu 2025 r., inny chiński sąd (w Changshu) po raz kolejny uznał, że obrazy wygenerowane przez AI mogą być chronione, jeśli spełniają przesłanki oryginalności – tym samym Chiny zdają się akceptować koncepcję „współtwórczości” AI z człowiekiem. Co ciekawe, były też przeciwne przypadki: w 2022 r. jedno z orzeczeń chińskiego sądu odmówiło ochrony utworowi AI, gdy nie dopatrzono się wystarczającej ingerencji człowieka, co pokazuje, że nawet tam kluczowy jest ludzki element. Niemniej Chiny wyraźnie zmierzają do ochrony utworów AI jako dzieł zależnych człowieka. Jednocześnie starają się kontrolować sam rynek generatywnej AI – w 2023 r. wprowadzono tam regulacje wymagające licencjonowania modelów AI i blokowania treści nielegalnych (w tym pirackich). Już w lutym 2024 r. Sąd Internetowy w Kantonie (Guangzhou) rozstrzygnął pierwszą sprawę dotyczącą naruszenia praw przez dostawcę usługi GenAI: uznał operatora generatora obrazów za winnego naruszenia praw autorskich i nieuczciwej konkurencji, ponieważ jego model umożliwiał użytkownikom wygenerowanie nieautoryzowanych obrazków słynnej japońskiej postaci Ultraman. Operator nie zapobiegł temu, choć korzystał z cudzej własności intelektualnej, przez co został pociągnięty do odpowiedzialności. Ten wyrok to prawdopodobnie pierwszy przypadek, gdzie twórca modelu AI odpowiada za wygenerowane przez użytkowników treści naruszające czyjeś prawa autorskie. Może on mieć reperkusje globalnie – stawiając pytanie, na ile dostawcy tacy jak OpenAI czy Stability AI powinni być odpowiedzialni za to, co użytkownicy robią z ich narzędziami.

  • Pierwszy wyrok ws. trenowania na cudzych danych – Thomson Reuters vs ROSS (USA): Na początku 2025 roku zapadła również przełomowa decyzja dotycząca samego procesu trenowania AI na chronionych materiałach. Sąd federalny w Delaware (USA) w sprawie Thomson Reuters v. ROSS Intelligence orzekł 11 lutego 2025 r., że wykorzystanie przez firmę ROSS nieautoryzowanych kopii opisów orzeczeń (tzw. headnotes) z bazy Westlaw do trenowania własnej prawniczej AI nie mieści się w dozwolonym użytku (fair use). Sędzia uznał, że ROSS stworzył konkurencyjny produkt (wyszukiwarkę prawniczą opartą o AI) korzystając z chronionych materiałów Thomson Reuters, co godziło w rynek pierwotny i nie było transformacyjne – bo AI ROSS w gruncie rzeczy wykorzystywała fragmenty treści Westlaw w podobny sposób, jak sama Westlaw. W efekcie sąd przyznał Thomson Reuters rację, uznając naruszenie praw autorskich przez trening AI na tych danych i odrzucając obronę fair use. Choć sprawa dotyczyła specyficznej sytuacji (baza tekstów prawniczych i AI niegeneratywna, lecz zwracająca istniejące odpowiedzi), to jest to pierwsze tak wyraźne stanowisko sądu, że trenowanie AI na cudzych utworach może stanowić naruszenie praw autorskich. Decyzja ta zapewne zostanie wykorzystana w innych toczących się procesach (już widać, że pozywający twórcy powołują się na nią w sprawach dot. trenowania modeli muzycznych czy tekstowych). Otwiera to nowy rozdział w dyskusji – dotychczas wiele firm AI w USA argumentowało, że masowe kopiowanie danych do treningu to fair use, ale sąd sygnalizował tu granice tego wyjątku.

  • Pozwy zbiorowe artystów i sprawa Getty Images: Również w 2023 r. wystartowały głośne postępowania sądowe przeciw firmom stojącym za AI generatywną. W USA grupa artystów (m.in. Sarah Andersen, Kelly McKernan, Karla Ortiz, a także znany polski ilustrator Grzegorz Rutkowski, którego styl masowo powielano w Stable Diffusion) złożyła pozew zbiorowy przeciwko Stability AI, Midjourney oraz platformie DeviantArt, zarzucając im naruszanie praw autorskich i praw do wizerunku poprzez trenowanie modeli na milionach obrazów pobranych z Internetu bez zgody. Pozew twierdzi, że Stable Diffusion de facto przechowuje skompresowane kopie obrazów i potrafi je odtworzyć, a generując „obrazy w stylu” danego artysty tworzy nieautoryzowane utwory zależne. Sprawa ta jest w toku – firmy wniosły o oddalenie zarzutów, argumentując m.in., że trening mieści się w dozwolonym użytku, a styl nie jest chroniony. Równolegle Getty Images (agencja stockowa) pozwała Stability AI w Wielkiej Brytanii, a później także w USA, wskazując, że w zbiorze treningowym Stable Diffusion znalazło się ponad 12 milionów zdjęć Getty chronionych prawem autorskim, w dodatku niektóre wygenerowane obrazy nawet zawierały artefakty w postaci „znaku wodnego” Getty – co Getty uznaje za dowód, iż doszło do niedozwolonego kopiowania ich treści. Ten proces również się toczy. Jego rezultat może być przełomowy: jeśli sąd stwierdzi naruszenie, wymusi to prawdopodobnie powszechną zmianę sposobu trenowania modeli AI (np. konieczność uzyskiwania licencji lub wypłacania odszkodowań twórcom, których prace wykorzystano). Jeżeli zaś sąd uzna trening za dozwolony – umocni to pozycję firm technologicznych, choć zapewne twórcy zwrócą się wtedy o interwencję do ustawodawcy.

Jak widać, rok 2023 i początek 2025 obfitowały w precedensowe rozstrzygnięcia. Można powiedzieć, że kształtuje się globalnie konsensus co do braku praw autorskich dla czysto AI-owych dzieł, natomiast narasta spór o to, czy trenowanie AI na cudzych utworach to legalna inspiracja czy bezprawna eksploatacja. Wiele z przytoczonych spraw wciąż czeka na prawomocne zakończenie – warto więc śledzić ich dalszy ciąg, bo z pewnością wpłyną one na praktykę zarówno w USA, jak i pośrednio w Europie.

„Kradzież” obrazów przez AI – kontrowersje i prawna interpretacja

Zagadnienie, które rozpala emocje wśród twórców, to właśnie wykorzystanie cudzych dzieł w procesie trenowania i generowania obrazów przez AI. Wielu artystów oskarża modele AI o „kradzież stylów” i masowe wykorzystywanie ich prac bez pozwolenia. Z punktu widzenia prawa pytanie brzmi: czy trening AI na publicznie dostępnych obrazach narusza prawa autorskie twórców tych obrazów? Odpowiedź nie jest jednoznaczna i różni się w zależności od jurysdykcji.

W Unii Europejskiej sytuacja jest częściowo unormowana przez wspomniane wyjątki text and data mining. Co do zasady, jeżeli twórca nie zastrzegł swoich praw (np. nie umieścił na stronie informacji o zakazie eksploracji danych), a dane były legalnie dostępne (np. publicznie w sieci), to skopiowanie ich w celu analizowania wzorców przez AI jest dozwolone. Unia wprowadziła ten wyjątek celowo, by umożliwić rozwój sztucznej inteligencji bez paraliżowania jej licencjonowaniem każdego utworu z osobna. Oczywiście twórcy mogą się temu sprzeciwić – dlatego powstała opcja opt-out. W praktyce jednak w okresie boomu na trenowanie modeli (2021–2022) mało kto zdawał sobie sprawę z potrzeby zgłaszania takiego zastrzeżenia. Ogromne bazy obrazów (jak LAION-5B, na której trenuje Stable Diffusion) zostały zbudowane ze zrzutów internetu, w większości bez wiedzy autorów. Działo się to jednak w szarej strefie prawnej, korzystając z przyzwolenia na eksplorację danych. Teraz, gdy twórcy nabrali świadomości, zaczynają korzystać z prawa do opt-out (jak ZAiKS, który hurtowo zastrzegł wszystkie utwory swoich członków przed TDM). Można przypuszczać, że kolejne generacje modeli będą musiały respektować te zastrzeżenia – np. Stability AI ogłosiło, że w przyszłości honorować będzie znaczniki „noAI” czy listy utworów wykluczonych z treningu (co nie zmienia faktu, że pierwsze modele już wyuczyły się na niezastrzeżonych danych). W UE dochodzi jeszcze kwestia praw pokrewnych do baz danych – duże zbiory zdjęć np. stockowych są chronione jako bazy danych i ich masowe pozyskanie może naruszać prawa producenta bazy, nawet jeśli pojedyncze zdjęcia byłyby w domenie publicznej. To dodatkowy poziom komplikacji, którym na razie sądy się nie zajmowały w kontekście AI.

W Stanach Zjednoczonych nie ma odpowiednika unijnych wyjątków TDM, więc ocena legalności scrapingu opiera się głównie na doktrynie fair use. Firmy tworzące AI argumentują, że uczenie maszynowe jest transformacyjnym wykorzystaniem utworów – porównują proces treningu do tego, jak człowiek uczy się malować podpatrując dzieła mistrzów. Obraz wejściowy nie jest nigdzie publikowany ani udostępniany, a jedynie wpływa na parametry sieci neuronowej – wedle tej argumentacji nie stanowi to konkurencyjnego zastąpienia oryginału, lecz jakościowo nowy, naukowy użytek. Do niedawna wielu obserwatorów skłaniało się ku uznaniu takiego podejścia. Jednak wspomniany wyrok w sprawie Thomson Reuters vs ROSS pokazuje, że nie zawsze uda się przekonać sąd o transformacyjności – szczególnie jeśli efekt pracy AI jest bliski oryginalnym treściom (tam AI de facto odtwarzała fragmenty opisów wyroków). W przypadku modeli generatywnych pokroju Stable Diffusion obrona fair use może być łatwiejsza, bo output nie jest prostą kopią żadnego obrazu z treningu, tylko nową kombinacją cech. Niemniej i tu można znaleźć potencjalne problemy: jeśli model generuje coś bardzo podobnego do utworu z treningu (np. odtwarza specyficzne ujęcie fotograficzne), sąd może uznać, że to utwór zależny wymagający zgody autora oryginału. W pozwach zbiorowych przeciwko Stability AI i innym, prawnicy podnoszą właśnie argument, że model przechowuje matryce obrazów i potrafi je replikować – co, jeśli dowiedzione, oznaczałoby istnienie kopii utworów w pamięci AI, wykraczającej poza abstrakcyjne „nauczenie się stylu”. Spory te są precedensowe i rozstrzygną, gdzie leży granica między dozwoloną inspiracją a naruszeniem. Wynik będzie miał wpływ na cały ekosystem AI: ewentualne uznanie naruszeń może wymusić stworzenie wielkich systemów licencjonowania treści do trenowania AI, być może przez organizacje zbiorowego zarządzania (coś na kształt opłat za korzystanie z muzyki w radio – tyle że za korzystanie z tysięcy obrazów w uczeniu algorytmu). Już teraz pojawiają się propozycje takich rozwiązań.

W dyskusji o „kradzieży” obrazów często pada też pytanie: czy generowanie obrazu „w stylu” danego artysty narusza jego prawa? Jak wspomniano, styl artystyczny nie jest chroniony – zatem od strony czysto prawnej twórca nie może zakazać nikomu tworzenia podobnych obrazów, czy to ręcznie, czy za pomocą AI. Może natomiast chronić np. konkretne postacie czy uniwersum, które stworzył (jeśli ktoś generowałby kolejne przygody bohaterów z komiksu bez zgody autora, to narusza jego prawa do utworu fabularnego). Dlatego artyści tacy jak Greg Rutkowski, których styl stał się zbyt rozpoznawalny w AI, są w trudnej sytuacji – ich styl jest „pożyczany” bez łamania prawa, ale jednak czują się wykorzystani i pominięci. W odpowiedzi niektóre platformy artystyczne wprowadziły zakazy publikacji prac generowanych AI (np. serwis ArtStation początkowo próbował banować takie prace po fali protestów twórców). Z kolei Adobe Stock czy Shutterstock poszły w inną stronę: dopuszczają sprzedaż obrazów AI, ale pod warunkiem, że zaznaczone jest ich pochodzenie i że nie naruszają cudzych praw (a nawet Adobe chwali się, że jego własny generator Firefly trenowany jest wyłącznie na licencjonowanych lub domenowych obrazach, by uniknąć zarzutów kradzieży). Widać więc, że rynek próbuje samodzielnie wypracować standardy zanim zrobi to prawo.

Pod względem prawnym warto jeszcze zwrócić uwagę na kwestię odpowiedzialności za naruszenia przy korzystaniu z AI. Skoro wygenerowany obraz nie ma właściciela praw, to kto odpowiada, gdy jednak dojdzie do naruszenia (np. AI skopiuje czyjś utwór)? Obecnie obciążony jest głównie użytkownik. To on wprowadził dane czy prompt i to on używa wyniku w swojej działalności, więc jeśli wynik narusza prawo (np. jest nielegalnym opracowaniem cudzego dzieła), to użytkownik ponosi konsekwencje. Operatorzy AI – póki co – skutecznie odżegnują się od odpowiedzialności w swoich regulaminach. Jak zaznacza Natalia Basałaj, udowodnienie winy po stronie twórcy modelu na drodze sądowej byłoby dziś bardzo trudne, choćby dlatego, że brak narzędzi by ustalić, które konkretnie dane treningowe doprowadziły do danego outputu i kto je tam umieścił. Jednak trend światowy (patrz sprawa w Kantonie w Chinach) może iść ku większej odpowiedzialności platform – zwłaszcza jeśli celowo umożliwiają naruszanie cudzych praw. Niewykluczone, że przyszłe regulacje (np. unijny AI Act z systemem kar administracyjnych) zmotywują firmy AI do wdrażania mocniejszych filtrów i mechanizmów zapobiegających generowaniu treści naruszających prawo. Już teraz AI typu DALL-E czy Midjourney starają się blokować oczywiste frazy prowadzące do piractwa (np. wygenerowanie postaci Myszki Miki – odmówią, bo to zastrzeżony znak). Ale im dalej, tym subtelniejsze przypadki mogą być wychwytywane.

Podsumowując, zarzuty o „kradzież” obrazów przez AI są w pewnym sensie uzasadnione moralnie, lecz prawnie – na razie częściowo dopuszczalne w ramach istniejących wyjątków lub luk. Twórcy czują się poszkodowani, bo ich prace budują cudze modele, często komercyjne, a oni nie mają z tego nic. Z drugiej strony, twórcy AI wskazują, że trenowanie to nie to samo co publikacja – to proces analizy, do którego prawo powinno zachęcać (jak biblioteki cyfrowe czy wyszukiwarki). Ten konflikt interesów będzie jednym z głównych motorów zmian legislacyjnych w najbliższym czasie. Prawdopodobnie zobaczymy próby wprowadzenia systemów licencyjnych, buy-outów danych do trenowania, a może nawet funduszy rekompensacyjnych dla twórców (podobnie jak np. opłaty reprograficzne od czystych nośników).

Podsumowanie

Czy w 2025 roku znamy już odpowiedź, komu przysługują prawa do obrazu wygenerowanego przez AI? Najuczciwiej byłoby powiedzieć: to zależy – głównie od tego, ile człowieka jest w takim dziele. Jeżeli obraz powstał prawie w całości autonomicznie dzięki algorytmowi, to według obecnego prawa nie stanowi chronionego utworu. Taki wynik plasuje się poza systemem praw autorskich – nikt nie jest jego autorem ani właścicielem praw majątkowych. To z jednej strony daje swobodę korzystania (brak ograniczeń monopolu), z drugiej – pozbawia twórcę promptu możliwości ochrony swojego „dzieła” przed kopiowaniem przez innych. Jeśli jednak człowiek wniósł zauważalny wkład twórczy – AI była tylko narzędziem w rękach artysty, jak pędzel czy program graficzny – wtedy prawa autorskie przysługują temu artyście, tak jak do każdego innego utworu. Granica między tymi sytuacjami bywa cienka i będzie zapewne doprecyzowywana w kolejnych latach przez orzecznictwo.

Polska i Europa opowiadają się wyraźnie za utrzymaniem prymatu twórczości ludzkiej – co oznacza brak uznania AI za autora oraz próby regulacji wykorzystania cudzych utworów w trenowaniu AI (poprzez transparentność i opcje opt-out). USA zasadniczo podzielają pogląd o konieczności human authorship (co potwierdzono sądownie), lecz tam rozgrywa się walka o granice fair use w trenowaniu modeli. Wielka Brytania stoi na rozdrożu między starym a nowym podejściem, będąc jednym z niewielu krajów z przepisem chroniącym automatycznie „utwory komputerowe” – choć praktyka tego nie wykorzystuje, a nowe regulacje prawdopodobnie upodobnią się do unijnych. Chiny idą swoją ścieżką, na razie bardziej przychylną uznaniu utworów AI (przynajmniej tych z ludzkim udziałem) i jednocześnie restrykcyjną wobec generowania naruszeń. Inne kraje azjatyckie jak Japonia czy Korea również analizują problem – Japonia np. przyjęła bardzo szerokie wyjątki na potrzeby analizy danych, legalizując de facto trenowanie AI na wszelkich dostępnych informacjach, co ułatwia rozwój technologii, ale budzi obawy tamtejszych przemysłów kreatywnych.

Na horyzoncie majaczą potencjalne zmiany legislacyjne. Być może doczekamy się w UE uściślenia statusu prawnego generowanych treści (np. w postaci zaleceń Komisji lub nowych definicji w prawie autorskim). Już teraz tworzone są kodeksy dobrych praktyk dla AI, a urzędy patentowe i copyrightowe na świecie publikują wytyczne dla twórców korzystających z AI – np. jak zgłaszać takie utwory do rejestracji, by nie naruszyć prawa (w USA wymaga się ujawniania udziału AI). Możliwe, że wykształci się odrębna kategoria utworów „AI-assisted”, dla których ochrona będzie zależna od procentowego czy jakościowego wkładu człowieka.

Na ten moment jednak twórcy i firmy muszą działać w ramach istniejącego stanu prawnego. Użytkownicy AI powinni być świadomi, że treści wygenerowane w całości przez AI nie dają im wyłączności – konkurent może legalnie użyć podobnego obrazu. Warto zatem rozważyć, czy nie dodać własnej kreatywności (choćby poprzez późniejszą obróbkę), by uzyskać chroniony rezultat. Twórcy oryginalni z kolei powinni aktywnie korzystać z dostępnych narzędzi ochrony (zastrzeżenia opt-out, narzędzia blokujące scraping) i śledzić rozwój sytuacji – być może wkrótce pojawią się mechanizmy wynagradzania za wykorzystanie ich dzieł w AI. Firmy AI zaś powinny w trosce o własny interes wprowadzać środki zapobiegające oczywistym naruszeniom (filtry, transparentność co do danych) – by nie zniechęcić regulatorów do drastycznych kroków.

Rok 2025 przyniósł już istotne precedensy i pierwsze regulacje, ale wiele pytań pozostaje otwartych. Pewne jest jedno: sztuczna inteligencja wywróciła dotychczasowe rozumienie pojęcia „twórczość”, rzucając wyzwanie prawu autorskiemu stworzonemu w epoce analogowej. Prawodawcy stoją przed trudnym zadaniem wyważenia interesów – ochrony praw twórców, gwarancji zachęt do kreatywności i innowacji – z drugiej strony wsparcia rozwoju AI, który niesie obietnicę postępu. Będziemy świadkami dalszych debat, procesów i być może nowelizacji prawa. Historia praw autorskich do dzieł AI dopiero się pisze – a rok 2025 to dopiero kolejny rozdział tej opowieści, w którym klaruje się kierunek: człowiek nadal w centrum kreatywności, AI jako nowe potężne narzędzie, wymagające jednak nowych zasad i odpowiedzialności. Możemy spodziewać się, że nadchodzące lata przyniosą bardziej przejrzyste reguły gry – oby z korzyścią zarówno dla twórców, jak i innowatorów korzystających z AI.

Skontaktuj się z nami

w celu przedstawienia mi oferty produktów oraz w celach marketingowych. Spark DigitUP Sp. z o.o. jako Administrator przestrzegając przepisów o ochronie danych osobowych poinformował mnie o przysługującym mi prawie do wglądu i informacji, usunięcia, zapomnienia i przeniesienia oraz sprostowania, uzupełnienia i ograniczenia przetwarzania moich danych w trybie wynikającym z [Polityki Prywatności].

w rozumieniu art. 10 ust. 2 Ustawy z dnia 18 lipca 2002 r. o świadczeniu usług drogą elektroniczną (Dz.U. Nr 144, poz. 1204) na podany adres poczty elektronicznej oraz numer telefonu. Spark DigitUP Sp. z o.o. jako Administrator przestrzegając przepisów o ochronie danych osobowych poinformował mnie o przysługującym mi prawie do wglądu i informacji, usunięcia, zapomnienia i przeniesienia oraz sprostowania, uzupełnienia i ograniczenia przetwarzania moich danych w trybie wynikającym z [Polityki Prywatności].

w stosunku do podanego przeze mnie numeru telefonu oraz adresu email dla celów marketingu bezpośredniego przez Spark DigitUP Sp. z o.o., właściciela serwisu TrafficWatchdog.pl.