Deepfake a prawo – jak się bronić i jakie roszczenia przysługują?
Deepfake – ochrona wizerunku, roszczenia i odpowiedzialność karna
I. Twarz, która nie należy do nikogo
W lipcu 2024 roku jeden z dyrektorów Ferrari otrzymał wiadomości WhatsApp, a następnie odebrał telefon od osoby podającej się za prezesa, Benedetta Vigni. Głos miał charakterystyczny akcent Vigni z Basilicaty, jego intonację, jego tempo mówienia. Rozmówca wspomniał o poufnym przejęciu, poprosił o natychmiastowe przygotowanie transakcji walutowej. Wszystko brzmiało wiarygodnie — do momentu, w którym dyrektor zadał pytanie: „Jaki tytuł miała książka, którą pan mi ostatnio polecił?”. Po drugiej stronie zapadła cisza. Połączenie zostało przerwane. Głos Vigni był syntetyczny — sklonowany przez algorytm na podstawie publicznie dostępnych nagrań [Massachusetts Institute of Technology: How Ferrari Hit the Brakes on a Deepfake CEO].
Dyrektor Ferrari miał szczęście, że był podejrzliwy. Pracownik oddziału w Hong Kongu biura inżynieryjnego Arup — firmy, która projektowała Operę w Sydney — takiego szczęścia nie miał. W styczniu tego samego roku uczestniczył w wideokonferencji z dyrektorem finansowym i kilkoma kolegami z centrali. Rozpoznał ich twarze, usłyszał ich głosy. Wykonał piętnaście przelewów na łączną kwotę 25,6 miliona dolarów. Oszustwo wyszło na jaw tydzień później. Każda osoba na tamtym spotkaniu — każda twarz, każdy głos — była wygenerowana przez sztuczną inteligencję. Na ekranie nie było nikogo [CNN: British engineering giant Arup revealed as $25 million deepfake scam victim].
Te dwa przypadki — jeden udaremniony, drugi zakończony najdroższym deepfake’owym fraudem w historii — ilustrują technologię, która w ciągu kilku lat przeszła drogę od internetowej ciekawostki do narzędzia zdolnego podważyć fundamenty zaufania w relacjach biznesowych, politycznych i osobistych.
Czym jest deepfake?
Termin „deepfake” powstał w grudniu 2017 roku na platformie Reddit, gdzie anonimowy użytkownik o tym pseudonimie zaczął publikować filmy pornograficzne z twarzami znanych aktorek nałożonymi na ciała innych osób. Nazwa łączy deep learning (głębokie uczenie maszynowe) z fake (fałszerstwo) i od początku nosiła w sobie podwójne DNA: technologicznej innowacji i etycznego nadużycia.
W ujęciu technicznym deepfake to materiał audiowizualny — obraz, nagranie wideo lub audio — wygenerowany lub zmanipulowany przez algorytmy sztucznej inteligencji w sposób przedstawiający osobę w sytuacji, która nigdy nie miała miejsca. Definicję tę potwierdził unijny AI Act (Rozporządzenie 2024/1689), który w art. 3 pkt 60 definiuje deepfake jako „wygenerowane lub zmanipulowane przez AI obrazy, treści dźwiękowe lub wideo, które przypominają istniejące osoby, przedmioty, miejsca, podmioty lub zdarzenia, które odbiorca mógłby niesłusznie uznać za autentyczne lub prawdziwe”.
Działanie opiera się na architekturze generatywnych sieci adwersarialnych (GAN) lub — coraz częściej — modeli dyfuzyjnych. Generator tworzy fałszywy obraz, dyskryminator ocenia jego wiarygodność, generator poprawia się na podstawie tej oceny. Po tysiącach iteracji wynik jest nieodróżnialny od oryginału gołym okiem.
Rozpowszechnienie technologii deepfake
Przez pierwszy rok istnienia deepfake’i były zjawiskiem niszowym, ograniczonym do forów internetowych i generującym głównie pornografię. W kwietniu 2018 roku reżyser Jordan Peele we współpracy z BuzzFeed opublikował film, w którym Barack Obama wypowiadał słowa, których nigdy nie wypowiedział — w tym nazywał Donalda Trumpa wulgarnym epitetem. Film był ostrzeżeniem, nie atakiem: Peele użyczył swojego głosu, a materiał kończył się apelem o krytyczne podejście do treści w internecie. Stał się punktem przełomowym — pierwszym momentem, w którym szersza publiczność uświadomiła sobie, że wideo przestało być dowodem.
Następne lata przyniosły przyspieszenie, które trudno opisać inaczej niż jako wykładnicze. Ponad 98 procent deepfake’ów w internecie to materiały pornograficzne, których ofiarami w 99 procentach są kobiety. Ale pozostałe kategorie — oszustwa finansowe (31 procent udokumentowanych incydentów), dezinformacja polityczna (27 procent), sabotaż reputacyjny — rosną najszybciej i generują straty mierzone w dziesiątkach milionów dolarów na pojedynczy przypadek.
Sprawy deepfake, które zmieniły prawo
Pierwszym deepfake’owym oszustwem o udokumentowanych stratach finansowych był przypadek z marca 2019 roku: prezes brytyjskiej firmy energetycznej odebrał telefon od szefa niemieckiej spółki matki. Głos — sklonowany przez AI — miał właściwy akcent, ton, rytm mowy. Polecił przelew 243 tysięcy dolarów na konto węgierskiego dostawcy. Pieniądze przepłynęły przez Węgry do Meksyku i zniknęły. Ubezpieczyciel Euler Hermes pokrył straty, ale nigdy nie ujawnił nazw zaangażowanych firm.
W styczniu 2024 roku tysiące wyborców w New Hampshire odebrały automatyczne połączenia telefoniczne z głosem prezydenta Bidena, nakłaniającego ich do nieuczestniczenia w prawyborach. Deepfake został zlecony przez konsultanta politycznego Partii Demokratycznej, który twierdził, że chciał „zwrócić uwagę na zagrożenie”. FCC nałożyła na niego karę 6 milionów dolarów, a prokuratura stanowa postawiła zarzuty karne. Sprawa stała się katalizatorem debaty regulacyjnej w Stanach Zjednoczonych.
W tym samym roku na platformie X pojawiły się pornograficzne deepfake’i Taylor Swift — jedno ze zdjęć uzyskało 47 milionów wyświetleń, zanim konto zostało usunięte. Biały Dom określił materiały jako „alarmujące”. Fani Swift uruchomili kampanię #ProtectTaylorSwift, a X tymczasowo zablokował wyszukiwanie jej nazwiska. Microsoft zmienił zabezpieczenia swojego generatora obrazów.
Ale sprawa, która nadała deepfake’om najwyższy ciężar gatunkowy, rozegrała się we Włoszech. Premier Giorgia Meloni odkryła, że pornograficzne deepfake’i z jej twarzą — nałożoną na ciała aktorek porno — były oglądane miliony razy na amerykańskim serwisie. Policja wyśledziła autorów: czterdziestoletniego mężczyznę i jego siedemdziesięciotrzyletniego ojca. Meloni zażądała 100 tysięcy euro odszkodowania i zeznawała przez wideokonferencję w październiku 2024 roku, nazywając deepfake „formą przemocy wobec kobiet”. Zapowiedziała, że ewentualne odszkodowanie przekaże na fundusz wsparcia kobiet-ofiar przemocy. Sprawcom postawiono zarzuty karne zniesławienia.
W Polsce w 2024 roku Prezes Urzędu Ochrony Danych Osobowych wydał postanowienie nakazujące Meta Platforms wstrzymanie wyświetlania deepfake’owych reklam wykorzystujących wizerunki Rafała Brzoski i Omeny Mensah — mechanizmem był art. 66 RODO, pozwalający na interwencję w trybie pilnym. Rok później deepfake prezydenta Karola Nawrockiego — spreparowane nagranie sugerujące, że promuje on oszukańczą platformę inwestycyjną — potwierdził, że Polska jest pełnoprawnym uczestnikiem globalnego problemu, nie jego odległym obserwatorem.
Deepfake w reklamie konkurencji
Na tle wielomilionowych oszustw finansowych i skandali z udziałem polityków i celebrytów, deepfake wykorzystany w reklamie konkurencyjnego przedsiębiorcy może wydawać się problemem mniejszego kalibru. To wrażenie jest mylące.
Oszustwo deepfake’owe — jak sprawa Arup — wymaga jednorazowego aktu zwiedlenia konkretnej osoby. Gdy zostaje wykryte, kończy się. Deepfake reklamowy jest rozpowszechniany celowo, masowo i wielokrotnie. Jego celem nie jest jednorazowa kradzież pieniędzy, lecz trwałe przywłaszczenie cudzej renomy: zaufania, które przedsiębiorca budował latami, autorytetu branżowego, relacji z klientami. Wyobraźmy sobie rozpoznawalnego doradcę podatkowego, którego sztucznie wygenerowany wizerunek pojawia się w reklamie konkurencyjnej kancelarii — uśmiechnięty, wypowiadający słowa rekomendacji, których nigdy nie wypowiedział. Dla klientów, którzy widzą tę reklamę, przekaz jest jednoznaczny: „ten człowiek poleca tamtą firmę”. Dla pokrzywdzonego skutki rozciągają się od utraty klientów, przez podważenie wiarygodności, po psychologiczną krzywdę wynikającą z utraty kontroli nad własną tożsamością.
Badania z zakresu psychologii cyfrowej wskazują, że ten ostatni wymiar nie jest metaforą — ofiary deepfake’ów opisują swoje doświadczenie w kategoriach bliskich ofiarom przemocy seksualnej. Badanie z wykorzystaniem skali DASS-42 (120 uczestników) wykazało istotną korelację między wiktymizacją deepfake a objawami lęku, depresji i traumy. Analiza anonimowych wpisów ofiar ujawniła, że ponad połowa zawierała wyrażenia wskazujące na obwinianie się — podpisywały się jako „ta głupia dziewczyna” czy „ta przestraszona, głupia dziewczyna”. Respondenci innych badań określali deepfake jako „naruszenie mojego ciała” — formułując krzywdę w kategoriach integralności cielesnej, nie cyfrowej manipulacji.
Jest ku temu powód, i jest on głębszy niż zwykłe zniesławienie. Kłamliwy artykuł prasowy kłamie słowami o osobie — czytelnik wie, że to tekst, że ktoś go napisał, że można go zdementować. Deepfake kłamie osobą — wykorzystuje jej twarz, głos i gestykulację jako medium fałszu, tworząc materiał, który wygląda jak dowód na coś, co nigdy się nie wydarzyło. Ofiara widzi samą siebie w kontekście, w którym nigdy się nie znalazła. To doświadczenie nie ma odpowiednika w dotychczasowej kazuistyce naruszeń dóbr osobistych.
Prawna odpowiedź na deepfake — i dlaczego jedna podstawa nie wystarczy
Eksperyment neurokognitywny przeprowadzony na Uniwersytecie Humboldta w Berlinie wykazał, że sama świadomość istnienia deepfake’ów zmienia sposób przetwarzania sygnałów społecznych przez mózg: uśmiech postrzegany jako „potencjalnie sztuczny” wywołuje istotnie słabszą reakcję emocjonalną, natomiast sygnały zagrożenia zachowują pełną siłę oddziaływania. Deepfake nie tylko rani bezpośrednią ofiarę — eroduje zaufanie społeczne na poziomie neurobiologicznym.
Prawo polskie nie zawiera regulacji dedykowanej deepfake’om. Tymczasem na świecie uchwalono już ponad 200 aktów prawnych adresujących wprost technologię deepfake, a tempo regulacji między 2024 a 2026 rokiem przybrało charakter lawinowy. Przegląd najistotniejszych jurysdykcji odsłania pięć odrębnych modeli regulacyjnych.
Model kompleksowej regulacji AI realizuje Unia Europejska — AI Act (Rozporządzenie 2024/1689) nakłada w art. 50 ust. 4 obowiązek oznaczania deepfake’ów, z sankcjami sięgającymi 15 mln euro lub 3% globalnego obrotu za naruszenie wymogów transparencji, a nawet 35 mln euro lub 7% obrotu za najpoważniejsze naruszenia. Francja uzupełniła regulację unijną nowelizacją Kodeksu karnego kryminalizującą pornograficzne deepfake’i.
Model kontroli państwowej ucieleśniają Chiny, które w regulacji deep synthesis (w mocy od stycznia 2023 r.) nałożyły obowiązek oznaczania treści generowanych przez AI, ochrony danych biometrycznych i weryfikacji tożsamości użytkowników, a w 2025 roku wzmocniły wymogi obowiązkowym watermarkingiem obejmującym kody Morse’a audio, metadane kryptograficzne i etykiety w środowiskach VR. W lutym 2026 roku nowelizacja ustawy o cyberbezpieczeństwie po raz pierwszy włączyła przepisy dotyczące AI, deepfake’ów i algorytmów do nadrzędnego aktu prawnego.
Model surowych sankcji karnych przyjęła Korea Południowa (kara do 7 lat za deepfake seksualny, kryminalizacja samego posiadania i oglądania — do 3 lat lub grzywna 30 mln KRW), a w styczniu 2026 roku stała się pierwszym państwem z kompleksową ustawą o bezpieczeństwie AI, obejmującą m.in. deepfake’i i dezinformację generowaną przez AI.
Model ultraszybkiej reakcji platform wdrożyły Indie — IT Rules 2026, obowiązujące od 20 lutego 2026 r., skracają okno usuwania treści do trzech godzin (deepfake pornograficzny — dwie godziny), a platforma, która nie dopełni tego obowiązku, traci immunitet safe harbour.
Model fragmentaryczny cechuje Stany Zjednoczone, gdzie 46 stanów uchwaliło łącznie 169 ustaw dotyczących deepfake’ów, lecz na poziomie federalnym dopiero w maju 2025 roku podpisano TAKE IT DOWN Act — pierwszą ustawę federalną, ograniczoną jednak wyłącznie do pornografii (kara do 3 lat, obowiązek usunięcia treści przez platformę w ciągu 48 godzin). Oszustwa deepfake’owe w obrocie gospodarczym nadal ścigane są wyłącznie na podstawie ogólnych przepisów o fraudzie i kradzieży tożsamości. Na poziomie stanowym wyróżniają się Tennessee (ELVIS Act, od lipca 2024 r. — pierwsza ustawa chroniąca głos, w tym syntezowany przez AI, jako element prawa do wizerunku) oraz Nowy Jork (od czerwca 2026 r. — obowiązek ujawnienia wykorzystania syntetycznych performerów w reklamie).
Osobne rozwiązania wdrożyły: Wielka Brytania (od lutego 2026 r. kara za samo tworzenie deepfake’ów intymnych — potencjalnie nieograniczona grzywna — plus „pierwszy na świecie” framework detekcji deepfake’ów), Włochy (ustawa 132/2025, kara od 1 do 5 lat za rozpowszechnianie treści wygenerowanych przez AI), Australia (Criminal Code Amendment 2023, kara do 6 lat za tworzenie lub udostępnianie deepfake’ów intymnych), Singapur (POFMA — kary do 1 mln dolarów za deepfake’i zagrażające wyborom i bezpieczeństwu, plus nowelizacja Kodeksu karnego kryminalizująca syntetyczne obrazy intymne), Brazylia (regulacje wyborczego Trybunału obowiązujące od lutego 2024 r. — obowiązek oznaczania treści AI w kampaniach, zakaz deepfake’ów wyborczych, możliwość unieważnienia rejestracji kandydata) i Arabia Saudyjska (deepfake w fałszywej reklamie stanowi przestępstwo na gruncie Anti-Cybercrime Law; incydenty deepfake wzrosły o 600% na początku 2024 roku). Japonia i Kanada pozostają bez dedykowanej regulacji — co jest coraz głośniej krytykowane zarówno przez doktrynę, jak i organy ochrony prywatności.
W lutym 2026 roku regulatorzy ochrony prywatności z 61 państw wydali wspólne oświadczenie popierające egzekwowanie prawa wobec deepfake’ów, a ONZ ostrzegła przed eskalacją zagrożeń — od deepfake’ów po grooming z wykorzystaniem AI.
Polska dysponuje natomiast mozaiką przepisów — Kodeksu cywilnego, Kodeksu karnego, prawa autorskiego, ustawy o zwalczaniu nieuczciwej konkurencji i RODO — których synergiczne zastosowanie pozwala skonstruować ochronę kompletną. Kluczowa teza niniejszego opracowania jest następująca: żadna z tych podstaw, stosowana samodzielnie, nie zapewnia pełnej ochrony pokrzywdzonego — każda obsługuje inny fragment wielopłaszczyznowego naruszenia. Art. 81 pr. aut. chroni przed samym faktem rozpowszechnienia wizerunku bez zgody. Art. 24 k.c. umożliwia dochodzenie zadośćuczynienia za naruszenie godności i dobrego imienia. Art. 405 k.c. pozwala żądać wydania korzyści odpowiadającej wartości rynkowej przywłaszczonej persony. Art. 18 u.z.n.k. zapewnia ochronę dostosowaną do relacji konkurencyjnej.
Szczególną — i dotąd niedostatecznie eksponowaną — rolę pełni art. 190a § 2 k.k., penalizujący podszywanie się pod inną osobę z wykorzystaniem jej wizerunku lub innych danych osobowych. Jego znamiona odpowiadają istocie deepfake’a reklamowego z precyzją, jakiej trudno oczekiwać od przepisu uchwalonego w 2011 roku — ponad dekadę przed upowszechnieniem generatywnej AI. To temu przepisowi, w kontekście kumulacji z reżimami cywilnoprawnymi, poświęcona jest zasadnicza część niniejszego opracowania.
II. Deepfake jako rozpowszechnienie wizerunku bez zezwolenia (art. 81 ust. 1 pr. aut.)
1. Kwalifikacja deepfake’a jako wizerunku w rozumieniu prawa autorskiego
Punktem wyjścia jest ustalenie, czy materiał wygenerowany technologią deepfake stanowi „wizerunek” w rozumieniu art. 81 pr. aut. Pojęcie to nie zostało zdefiniowane normatywnie. W doktrynie dominuje ujęcie wizerunku jako skonkretyzowanego ustalenia obrazu fizycznego człowieka, zdatnego do zwielokrotniania i rozpowszechniania (T. Grzeszak, Reklama a ochrona dóbr osobistych, s. 10; A. Matlak, Cywilnoprawna ochrona wizerunku, s. 320). Sąd Najwyższy w wyroku z 15.10.2009 r. (I CSK 72/09) wskazał, że na czoło wybijają się „dostrzegalne, fizyczne cechy człowieka, tworzące jego wygląd i pozwalające na identyfikację osoby wśród ludzi jako obraz fizyczny, portret, rozpoznawalną podobiznę”.
Deepfake spełnia wszystkie elementy tak rozumianej definicji. Jest ustaleniem (utrwaleniem) obrazu fizycznego konkretnej osoby — jej rysów twarzy, mimiki, charakterystycznego sposobu mówienia — w formie zdatnej do zwielokrotniania i rozpowszechniania. Okoliczność, że obraz ten został wygenerowany algorytmicznie, a nie uchwycony aparatem fotograficznym czy kamerą, nie ma znaczenia normatywnego. Prawo autorskie nie uzależnia pojęcia wizerunku od techniki jego utrwalenia — Sąd Apelacyjny w Katowicach w wyroku z 28.5.2015 r. (I ACa 158/15) zdefiniował wizerunek jako „każdą podobiznę bez względu na technikę wykonania, a więc fotografię, rysunek, wycinankę sylwetki, film, przekaz telewizyjny bądź przekaz wideo”. Katalog ten jest otwarty i obejmuje techniki utrwalenia nieznane w momencie orzekania — w tym generowanie obrazu przez algorytmy sztucznej inteligencji. Już w dotychczasowym dorobku doktrynalnym zakresem pojęcia wizerunku objęto portrety malarskie, fotografie i karykatury (J. Barta, R. Markiewicz, w: Komentarz PrAut, 2001, s. 533), a orzecznictwo kwalifikowało fotomontaż zniekształcający wizerunek jako naruszenie dóbr osobistych (wyrok SA w Warszawie z 9.6.2017 r., VI ACa 323/16). Deepfake jest technologicznie zaawansowaną formą syntezy obrazu — różni się od dotychczasowych technik stopniem realizmu, nie naturą prawną.
Co więcej, w wyroku z 20.5.2004 r. (II CK 330/03) SN przyjął, że wizerunek „poza dostrzegalnymi dla otoczenia cechami fizycznymi (…) może obejmować dodatkowe utrwalone elementy związane z wykonywanym zawodem, jak charakteryzacja, ubiór, sposób poruszania się i kontaktowania z otoczeniem”. Deepfake reklamowy z natury rzeczy wykorzystuje właśnie te elementy — rozpoznawalność osoby, jej autorytet branżowy, sposób komunikacji — aby wytworzyć u odbiorcy wrażenie autentycznej rekomendacji.
2. Bezprawność rozpowszechnienia deepfake i brak kontratypów
Rozpowszechnienie wizerunku wymaga zezwolenia osoby na nim przedstawionej (art. 81 ust. 1 zd. 1 pr. aut.). Istnienia zgody nie domniemywa się, a ciężar dowodu jej uzyskania spoczywa na rozpowszechniającym (wyrok SA w Warszawie z 19.4.2000 r., I ACa 1455/99; wyrok SN z 20.5.2004 r., II CK 330/03). Zgoda musi być niewątpliwa, a osoba jej udzielająca musi mieć pełną świadomość formy przedstawienia wizerunku, miejsca i czasu publikacji, zestawienia z innymi wizerunkami oraz towarzyszącego komentarza (E. Ferenc-Szydełko, Komentarz do art. 81 pr. aut., Nb 1–4). W przypadku deepfake’a zgoda nie istnieje w żadnej formie — osoba pokrzywdzona nigdy nie pozowała, nigdy nie wyraziła woli udziału w materiale reklamowym konkurenta.
Żaden z kontratypów przewidzianych w art. 81 ust. 1 zd. 2 i ust. 2 pr. aut. nie znajduje zastosowania. Pokrzywdzony nie otrzymał zapłaty za pozowanie (ust. 1 zd. 2). Nawet jeśli jest osobą powszechnie znaną, deepfake nie został „wykonany w związku z pełnieniem funkcji publicznych” (ust. 2 pkt 1) — został wykonany w celu komercyjnym. Jak trafnie wskazuje J. Sadomski (Komentarz do art. 23 k.c., Nb 100–101), ograniczenie prawa do wizerunku osób publicznych dotyczy wyłącznie rozpowszechniania w celu informacyjnym, nie zaś reklamowym. Potwierdzenie tej tezy przynosi wyrok SA w Warszawie z 5.9.2003 r. (VI ACa 120/03). Pokrzywdzony nie stanowi też „szczegółu większej całości” (ust. 2 pkt 2) — przeciwnie, jest głównym i jedynym podmiotem sfabrykowanego materiału. Ochrona wizerunku przed wykorzystaniem komercyjnym jest zatem mocniejsza niż przy rozpowszechnieniu informacyjnym, nie słabsza.
3. Roszczenia z prawa autorskiego odnośnie deep fake
Na podstawie art. 78 ust. 1 w zw. z art. 83 pr. aut. pokrzywdzonemu przysługują: roszczenie o zaniechanie rozpowszechniania, roszczenie o dopełnienie czynności potrzebnych do usunięcia skutków naruszenia (w szczególności złożenie publicznego oświadczenia o odpowiedniej treści), roszczenie o zadośćuczynienie lub o zapłatę odpowiedniej sumy na wskazany cel społeczny. Ponadto, jeżeli naruszenie było zawinione, uprawniony może żądać naprawienia wyrządzonej szkody na zasadach ogólnych — w tym odszkodowania obejmującego utracone korzyści z tytułu nieuprawnionego komercyjnego wykorzystania wartości rynkowej wizerunku.
III. Deepfake jako naruszenie dóbr osobistych (art. 23 i 24 k.c.)
1. Wielość naruszonych dóbr osobistych
Deepfake reklamowy narusza jednocześnie kilka dóbr osobistych chronionych na gruncie art. 23 k.c., co implikuje konieczność ich precyzyjnej identyfikacji w pozwie — zgodnie z wymogiem konkretyzacji podkreślanym w orzecznictwie (wyrok SN z 13.12.2018 r., I CSK 690/17).
Wizerunek jako dobro osobiste z art. 23 k.c. stanowi samodzielną podstawę ochrony, niezależną od reżimu prawa autorskiego. Art. 24 § 3 k.c. wprost stanowi, że przepisy kodeksu cywilnego nie uchybiają uprawnieniom przewidzianym w innych przepisach. SN wielokrotnie potwierdzał dopuszczalność kumulatywnego stosowania obu reżimów (wyrok z 3.9.1998 r., I CKN 818/97; wyrok z 7.11.2003 r., V CK 391/02). Dwutorowość ochrony wizerunku — ogólne reguły k.c. i szczególna regulacja pr. aut. — stanowi w doktrynie zagadnienie ugruntowane (J. Sadomski, Komentarz do art. 23 k.c., Nb 95).
Godność osobista (cześć wewnętrzna). Deepfake uprzedmiotawia osobę pokrzywdzonego, sprowadzając ją do instrumentu cudzej kampanii reklamowej. J. Sadomski (Nb 101) precyzyjnie identyfikuje mechanizm krzywdy: „uprzedmiotowienie wizerunku danej osoby, sprowadzenie go do nośnika określonej reklamy, i tym samym ingerencja w sferę autonomii (godności) jednostki, a także przypisanie osobie niechcianego skojarzenia z określonymi znaczeniami związanymi z reklamą (reklamowaną marką, produktem, czy usługą), a także przypisanie jej samej intencji merkantylnego wykorzystania swojego wizerunku”. Deepfake dodaje do tego katalogu element szczególnie dotkliwy: sfałszowanie wypowiedzi — włożenie w usta pokrzywdzonego słów, których nigdy nie wypowiedział, oraz przypisanie mu gestów i zachowań, które nigdy nie miały miejsca. Jest to ingerencja w autonomię jednostki o intensywności niemającej odpowiednika w dotychczasowej kazuistyce naruszenia dóbr osobistych.
Dobre imię (cześć zewnętrzna). Sfabrykowana rekomendacja konkurenta przez rozpoznawalnego przedsiębiorcę branżowego stanowi formę pomówienia o określone postępowanie — sugeruje, że pokrzywdzony świadomie i dobrowolnie promuje podmiot konkurencyjny wobec własnych klientów. Zgodnie z utrwaloną linią orzeczniczą, naruszenie czci zewnętrznej zachodzi wówczas, gdy działanie sprawcy może „poniżyć pokrzywdzonego w opinii innych ludzi lub narazić na utratę zaufania potrzebnego dla danego stanowiska, zawodu lub rodzaju działalności. Ocena zniesławiającego charakteru dokonywana jest według kryterium obiektywnego — z perspektywy przeciętnego, rozsądnego odbiorcy, który widząc deepfake’a, z reguły nie dysponuje narzędziami do natychmiastowej weryfikacji jego autentyczności.
Prawo do prywatności i autonomia informacyjna. Deepfake narusza prawo jednostki do samodzielnego decydowania o ujawnianiu innym informacji dotyczących swojej osoby. Pokrzywdzony traci kontrolę nad tym, jakie treści są z nim publicznie kojarzone — a jest to kontrola, którą Sąd Najwyższy uznaje za rdzeń prawa do prywatności.
Persona i komercjalizacja tożsamości. Stan faktyczny wpisuje się w postulowaną w doktrynie konstrukcję „prawa na personie” — ochrony przed rozpowszechnianiem w celach reklamowych skojarzeń związanych z daną osobą, powstających na skutek wykorzystania jej wizerunku, nazwiska, pseudonimu czy głosu (. Jeśli deepfake wykorzystuje głos pokrzywdzonego — co jest technicznie nieskomplikowane i coraz powszechniejsze — naruszenie obejmuje dodatkowo „dźwięczny wizerunek” (J. Sadomski, Nb 102). Deepfake reklamowy jest ze swej natury aktem przywłaszczenia cudzej persony w wymiarze totalnym: twarzy, głosu, gestu, kontekstu profesjonalnego.
2. Roszczenia cywilnoprawne z tytułu deepfake
Na podstawie art. 24 § 1 k.c. pokrzywdzony może żądać zaniechania naruszenia oraz dopełnienia czynności potrzebnych do usunięcia jego skutków — w szczególności złożenia oświadczenia odpowiedniej treści i w odpowiedniej formie, np. publikacji w tych samych kanałach i z porównywalnym zasięgiem, w których rozpowszechniono deepfake’a.
Na podstawie art. 448 k.c. — zadośćuczynienia pieniężnego za krzywdę niemajątkową. Przy czym — jak trafnie przestrzega J. Sadomski (Nb 101) — należy odróżniać sytuację, w której pokrzywdzony doznaje rzeczywistej krzywdy niemajątkowej (uprzedmiotowienie, cierpienie psychiczne, naruszenie godności), od sytuacji, w której jego roszczenie ma w istocie charakter majątkowy (nie uzyskał wynagrodzenia, na jakie mógłby liczyć przy legalnym wykorzystaniu wizerunku). W tym drugim przypadku właściwą podstawą jest odszkodowanie na zasadach ogólnych (art. 415 k.c.) lub roszczenie z bezpodstawnego wzbogacenia (art. 405 k.c.).
Roszczenie z art. 405 k.c. zasługuje na szczególne wyeksponowanie. SN w wyroku z 16.12.2020 r. (I CSK 790/18) dopuścił tę podstawę przy komercyjnym wykorzystaniu cudzego wizerunku. Konkurent, który wygenerował deepfake’a przedsiębiorcy do własnej reklamy, wzbogacił się o wartość, jaką w normalnych warunkach rynkowych musiałby zapłacić za legalne pozyskanie rekomendacji osoby o porównywalnej rozpoznawalności i autorytecie branżowym. Wartość ta może być znaczna — stawki rynkowe za endorsement w specjalistycznych branżach sięgają wielokrotności przeciętnych wynagrodzeń.
IV. Art. 190a § 2 k.k. — penalizacja kradzieży tożsamości przez deepfake
1. Geneza i ratio legis przepisu
Art. 190a § 2 k.k., dodany ustawą z 25.2.2011 r. o zmianie ustawy — Kodeks karny, w brzmieniu nadanym nowelizacją z 7.7.2022 r. stanowi: „Tej samej karze podlega, kto, podszywając się pod inną osobę, wykorzystuje jej wizerunek, inne jej dane osobowe lub inne dane, za pomocą których jest ona publicznie identyfikowana, przez co wyrządza jej szkodę majątkową lub osobistą.” Odesłanie do „tej samej kary” oznacza zagrożenie pozbawienia wolności od 6 miesięcy do lat 8.
Przepis ten — usytuowany w rozdziale XXIII k.k. dotyczącym przestępstw przeciwko wolności — penalizuje tzw. kradzież tożsamości (identity theft). Jego ratio legis sięga dalej niż ochrona przed klasycznym stalkingiem (art. 190a § 1 k.k.), z którym dzieli jedynie jednostkę redakcyjną. Ustawodawca dostrzegł, że w erze cyfrowej szczególnie niebezpieczną formą naruszenia wolności jednostki jest przywłaszczenie jej tożsamości — posłużenie się cudzym wizerunkiem, nazwiskiem lub innymi danymi identyfikującymi w sposób stwarzający u osób trzecich wrażenie, że to sam pokrzywdzony podejmuje określone działania.
Przedmiotem ochrony art. 190a § 2 k.k. nie jest zatem wyłącznie prywatność czy wizerunek sensu stricto, lecz szerzej — tożsamość osoby jako dobro prawne, obejmujące prawo do wyłącznego dysponowania atrybutami własnej identyfikowalności. Deepfake reklamowy stanowi egzemplaryczną realizację tego wzorca przestępczego — jest aktem przywłaszczenia cudzej tożsamości przy użyciu technologii umożliwiającej perfekcyjne naśladowanie fizycznej obecności pokrzywdzonego.
2. Znamiona czynu zabronionego a deepfake reklamowy
a) „Podszywając się pod inną osobę”
Znamię to wymaga, aby sprawca występował wobec osób trzecich jako inna, konkretna osoba, stwarzając pozór, że to ta osoba działa, wypowiada się lub składa określone oświadczenia. W piśmiennictwie karnistycznym przyjmuje się, że „podszywanie się” obejmuje wszelkie formy prezentowania się jako ktoś inny — zarówno bezpośrednie (np. posługiwanie się cudzym dowodem tożsamości), jak i pośrednie (np. tworzenie fałszywego profilu w mediach społecznościowych z wykorzystaniem cudzych danych i wizerunku).
Deepfake reklamowy spełnia to znamię w sposób wręcz wzorcowy: odbiorca materiału audiowizualnego ma nabrać przekonania, że rozpoznawalna osoba osobiście, świadomie i dobrowolnie rekomenduje produkt lub usługę konkurenta. Istotą technologii deepfake jest właśnie wytworzenie u odbiorcy fałszywego przeświadczenia o tożsamości osoby prezentowanej w materiale. Nie jest to jedynie „wykorzystanie” wizerunku — jest to kreacja fałszywej aktywności przypisywanej konkretnej osobie.
b) „Wykorzystuje jej wizerunek, inne jej dane osobowe lub inne dane, za pomocą których jest ona publicznie identyfikowana”
Znamię to ma charakter alternatywny — wystarczy wykorzystanie choćby jednego z wymienionych oznaczeń identyfikujących. Deepfake z natury rzeczy wykorzystuje wizerunek pokrzywdzonego (rysy twarzy, mimikę, proporcje ciała). Jeśli materiał zawiera syntezowaną mowę — a technologia voice cloning umożliwia to z wysoką wiernością — wykorzystany zostaje również głos, który SN w wyroku z 3.10.2007 r. (II CSK 207/07) zakwalifikował jako element szerzej pojętego wizerunku. Nierzadko deepfake reklamowy wykorzystuje jednocześnie nazwisko, stanowisko, firmę pokrzywdzonego — a więc dane, za pomocą których jest publicznie identyfikowany w środowisku biznesowym.
Warto podkreślić, że ustawodawca posłużył się formułą otwartą — „inne dane, za pomocą których jest ona publicznie identyfikowana” — co pozwala objąć zakresem penalizacji również wykorzystanie manier, sposobu mówienia, charakterystycznych gestów czy kontekstu zawodowego, o ile umożliwiają one identyfikację pokrzywdzonego.
c) „Przez co wyrządza jej szkodę majątkową lub osobistą”
Nowelizacja z 7.7.2022 r. zastąpiła dotychczasowe znamię celowościowe (działanie „w celu wyrządzenia” szkody) konstrukcją kauzalną: szkoda majątkowa lub osobista jest skutkiem czynu, nie jego celem. Sprawca odpowiada, jeżeli jego zachowanie — podszywanie się pod inną osobę z wykorzystaniem jej wizerunku lub danych — faktycznie wyrządziło pokrzywdzonemu szkodę. Jest to zatem przestępstwo materialne (skutkowe), a nie formalne z zamiarem kierunkowym.
Zmiana ta ma daleko idące konsekwencje dla kwalifikacji deepfake’a reklamowego. W stanie prawnym sprzed nowelizacji należało wykazać, że konkurent działał „w celu” wyrządzenia szkody — co rodziło wątpliwości interpretacyjne, gdy bezpośrednim motywem było zwiększenie własnej sprzedaży, a szkoda pokrzywdzonego jawiła się jako skutek uboczny. Obecne brzmienie przepisu eliminuje ten problem.
W obecnym stanie prawnym subsumcja deepfake’a reklamowego pod art. 190a § 2 k.k. nie wymaga już wykazywania zamiaru kierunkowego. Wystarczy ustalić, że sprawca: (i) podszywał się pod inną osobę, (ii) wykorzystywał jej wizerunek lub dane identyfikujące, oraz (iii) wyrządził tym szkodę majątkową lub osobistą. Strona podmiotowa wymaga umyślności — zarówno w postaci zamiaru bezpośredniego, jak i ewentualnego — ale nie wymaga już celowości wyrządzenia szkody.
Wypełnienie znamion nie nastręcza wątpliwości. Szkoda jest strukturalnie wbudowana w sam charakter działania:
– Szkoda osobista jest immanentna — każde podszywanie się pod inną osobę narusza jej autonomię, godność i prawo do kontroli nad własną tożsamością. Skutek ten następuje z chwilą rozpowszechnienia materiału deepfake, niezależnie od dalszych intencji sprawcy.
– Szkoda majątkowa jest inherentna logice konkurencji — deepfake reklamowy przekierowuje klientów pokrzywdzonego do konkurenta, co z natury rzeczy powoduje uszczerbek w jego interesach majątkowych. Pojęcie szkody majątkowej obejmuje zarówno damnum emergens, jak i lucrum cessans.
Stronę podmiotową wyczerpuje zamiar ewentualny: profesjonalny uczestnik obrotu gospodarczego, który zleca lub akceptuje stworzenie deepfake’a z wizerunkiem konkurenta, co najmniej przewiduje, że jego działanie może wyrządzić szkodę, i godzi się na to. Zamiar bezpośredni będzie zaś zachodził wszędzie tam, gdzie sprawca świadomie dąży do przejęcia klientów lub podważenia reputacji pokrzywdzonego.
3. Zagrożenie karą i typ kwalifikowany
Przestępstwo z art. 190a § 2 k.k. w typie podstawowym zagrożone jest karą pozbawienia wolności od 6 miesięcy do lat 8. Jest to występek w rozumieniu art. 7 § 3 k.k. (nie zbrodnia, która wymaga dolnej granicy zagrożenia nie niższej od 3 lat), ale surowość sankcji — górna granica 8 lat pozbawienia wolności — odzwierciedla wagę, jaką ustawodawca przypisuje ochronie tożsamości osoby.
Art. 190a § 3 k.k. przewiduje typ kwalifikowany — jeżeli następstwem czynu jest targnięcie się pokrzywdzonego na własne życie, sprawca podlega karze pozbawienia wolności od lat 2 do 15 (w brzmieniu nadanym nowelizacją z 7.7.2022 r.). Choć w kontekście deepfake’a reklamowego ten typ kwalifikowany wydaje się odległy, nie można wykluczyć scenariuszy ekstremalnych — zwłaszcza gdy masowe rozpowszechnienie sfałszowanego materiału prowadzi do destrukcji reputacji zawodowej pokrzywdzonego na skalę uniemożliwiającą dalsze prowadzenie działalności.
4. Tryb ścigania i implikacje strategiczne
Przestępstwo z art. 190a § 2 k.k. ścigane jest na wniosek pokrzywdzonego (art. 190a § 4 k.k.). Ta konstrukcja procesowa ma daleko idące implikacje strategiczne.
Kontrola temporalna. Pokrzywdzony zachowuje pełną kontrolę nad momentem uruchomienia ścigania karnego. Może złożyć wniosek niezwłocznie po wykryciu deepfake’a — uzyskując natychmiastowy dostęp do instrumentów procesowych prawa karnego — lub wstrzymać się, kalkulując optymalny moment w kontekście równoległego sporu cywilnego.
Efekt dyscyplinujący. Sama możliwość złożenia wniosku o ściganie stanowi istotny element presji negocjacyjnej. Groźba odpowiedzialności karnej — pozbawienia wolności do lat 8 — ma inny ciężar gatunkowy niż perspektywa zapłaty odszkodowania. W praktyce skutkuje to często skłonnością naruszyciela do szybszego i korzystniejszego dla pokrzywdzonego rozstrzygnięcia sprawy cywilnej.
Instrumenty dowodowe. Wszczęcie postępowania karnego aktywuje instrumenty procesowe niedostępne w postępowaniu cywilnym: możliwość zabezpieczenia dowodów elektronicznych w trybie przeszukania i zatrzymania rzeczy (art. 217–236 k.p.k.), żądanie wydania danych telekomunikacyjnych i informatycznych (art. 218 k.p.k.), przesłuchanie świadków z możliwością stosowania środków przymusu procesowego.
Prejudykat cywilny. Prawomocny wyrok skazujący wiąże sąd cywilny co do ustaleń dotyczących popełnienia przestępstwa (art. 11 k.p.c.). Eliminuje to w postępowaniu cywilnym konieczność ponownego wykazywania bezprawności naruszenia — jest ona przesądzona wyrokiem karnym.
5. Zbieg z art. 191a k.k.
Art. 191a § 1 k.k. penalizuje utrwalanie wizerunku nagiej osoby lub osoby w trakcie czynności seksualnej przy użyciu przemocy, groźby bezprawnej lub podstępu, jak również rozpowszechnianie tak utrwalonego wizerunku bez zgody tej osoby. Choć przepis ten — ze względu na ograniczenie do wizerunku nagiej osoby — nie znajdzie zastosowania w typowym deepfake’u reklamowym, nie można wykluczyć stanów faktycznych, w których technologia deepfake zostanie wykorzystana do wygenerowania kompromitującego materiału o charakterze seksualnym z wizerunkiem przedsiębiorcy-konkurenta. W takim przypadku kumulacja kwalifikacji z art. 190a § 2 k.k. i art. 191a § 1 k.k. byłaby w pełni uzasadniona.
W kontekście stricte reklamowym istotniejsza jest jednak relacja art. 190a § 2 k.k. do ewentualnego oszustwa z art. 286 § 1 k.k. — jeżeli deepfake prowadzi do wprowadzenia w błąd konsumentów co do źródła rekomendacji, a w konsekwencji do niekorzystnego rozporządzenia mieniem (zakupu produktu lub usługi w zaufaniu do sfałszowanej rekomendacji), możliwy jest zbieg art. 190a § 2 k.k. z art. 286 § 1 k.k. Stanowisko to nie jest jednak bezsporne — w części doktryny karnistycznej podnosi się, że motyw działania sprawcy przesądza o braku możliwości wystąpienia takiego zbiegu (por. M. Królikowski, A. Sakowicz, w: M. Królikowski, R. Zawłocki (red.), Kodeks karny. Komentarz, t. II, wyd. 5, 2023, art. 190a, Nb XII.4). Kwestia wymaga rozstrzygnięcia in concreto, z uwzględnieniem pełnej charakterystyki zamiaru sprawcy.
V. Czyn nieuczciwej konkurencji jako uzupełniająca podstawa roszczeń
1. Klauzula generalna — art. 3 ust. 1 u.z.n.k.
Wykorzystanie deepfake’a przedsiębiorcy w reklamie konkurenta spełnia przesłanki klauzuli generalnej z art. 3 ust. 1 u.z.n.k.: jest to działanie sprzeczne z prawem (naruszenie art. 81 pr. aut., art. 23–24 k.c., art. 190a § 2 k.k.) oraz sprzeczne z dobrymi obyczajami (przywłaszczenie cudzej tożsamości i renomy w obrocie gospodarczym), które zagraża lub narusza interes innego przedsiębiorcy.
2. Reklama niedozwolona — art. 16 ust. 1 u.z.n.k.
Deepfake reklamowy wypełnia znamiona co najmniej dwóch stypizowanych czynów nieuczciwej konkurencji w zakresie reklamy. Po pierwsze, jest to reklama wprowadzająca klienta w błąd i mogąca przez to wpłynąć na jego decyzję co do nabycia towaru lub usługi (art. 16 ust. 1 pkt 2 u.z.n.k.) — fałszywa rekomendacja znanego przedsiębiorcy branżowego ma z natury rzeczy potencjał wpływania na decyzje nabywcze odbiorców. Po drugie, jest to reklama sprzeczna z przepisami prawa i dobrymi obyczajami, uchybiająca godności człowieka (art. 16 ust. 1 pkt 1 u.z.n.k.) — instrumentalne wykorzystanie tożsamości innej osoby do celów reklamowych narusza fundamentalne standardy uczciwości w obrocie gospodarczym.
3. Roszczenia z u.z.n.k.
Art. 18 u.z.n.k. przyznaje pokrzywdzonemu przedsiębiorcy katalog roszczeń obejmujący żądanie zaniechania niedozwolonych działań, usunięcia skutków niedozwolonych działań, złożenia jednokrotnego lub wielokrotnego oświadczenia odpowiedniej treści i w odpowiedniej formie, naprawienia wyrządzonej szkody na zasadach ogólnych, wydania bezpodstawnie uzyskanych korzyści, a także zasądzenia odpowiedniej sumy pieniężnej na określony cel społeczny związany ze wspieraniem kultury polskiej lub ochroną dziedzictwa narodowego. Ten ostatni instrument — swoistny dla reżimu u.z.n.k. — może mieć szczególną wartość symboliczną i wizerunkową w postępowaniach dotyczących deepfake’ów.
VI. Ochrona na gruncie RODO
Wizerunek stanowi daną osobową w rozumieniu art. 4 ust. 1 RODO (E. Ferenc-Szydełko, Komentarz do art. 81 pr. aut., Nb 15), a w przypadku wykorzystania technologii deepfake mamy do czynienia z przetwarzaniem danych biometrycznych (art. 9 ust. 1 RODO) — algorytm musi bowiem przetworzyć biometryczny obraz twarzy pokrzywdzonego, aby wygenerować realistyczny materiał. Przetwarzanie danych biometrycznych podlega zaostrzonemu reżimowi ochrony jako przetwarzanie szczególnych kategorii danych osobowych.
Na podstawie art. 82 RODO pokrzywdzonemu przysługuje roszczenie o odszkodowanie za szkodę majątkową i zadośćuczynienie za szkodę niemajątkową wynikającą z naruszenia przepisów rozporządzenia. W zakresie nieuregulowanym przez RODO stosuje się przepisy kodeksu cywilnego (art. 92 ustawy o ochronie danych osobowych). Niezależnie od roszczeń odszkodowawczych, pokrzywdzony może złożyć skargę do Prezesa Urzędu Ochrony Danych Osobowych (art. 77 RODO), który dysponuje uprawnieniami do nałożenia na administratora danych administracyjnych kar pieniężnych sięgających 20 mln euro lub 4% całkowitego rocznego obrotu (art. 83 ust. 5 RODO).
VII. Kumulacja podstaw — architektura strategii procesowej
1. Dopuszczalność i uzasadnienie kumulacji
Kumulatywne dochodzenie roszczeń z art. 24 k.c., art. 78 ust. 1 w zw. z art. 83 pr. aut. oraz art. 18 u.z.n.k. jest dopuszczalne i ugruntowane w orzecznictwie. Art. 24 § 3 k.c. wprost stanowi, że przepisy kodeksu cywilnego nie uchybiają uprawnieniom przewidzianym w innych przepisach.
W odniesieniu do relacji k.c.–pr. aut. SN potwierdził, że „środki ochrony określone przepisami Prawa autorskiego i przepisami kodeksu cywilnego mogą być stosowane zarówno kumulatywnie, jak i alternatywnie, a decydujący w tej mierze powinien być wybór osoby zainteresowanej” (wyrok z 3.9.1998 r., I CKN 818/97, OSNC 1999, nr 1, poz. 21; powtórzony w wyroku z 7.11.2003 r., V CK 391/02). Kumulacja ta nie jest jednak bezwarunkowa: wymaga, by każda podstawa obsługiwała odrębny fragment naruszenia. Sam SN w sprawie V CK 391/02 odmówił zastosowania art. 23 i 24 k.c. tam, gdzie powódka nie wskazała naruszenia żadnego dobra osobistego odrębnego od autorskich praw osobistych z art. 16 PrAut.
W odniesieniu do relacji k.c.–u.z.n.k. dopuszczalność równoległego stosowania obu reżimów jest również przyjęta w judykaturze. SN wielokrotnie wskazał, że ochrona dóbr osobistych na podstawie art. 24 k.c. i ochrona przed czynami nieuczciwej konkurencji na podstawie u.z.n.k. stanowią autonomiczne, niepozostające w stosunku wyłączności reżimy prawne, a wybór podstawy należy do powoda (por. wyrok SN z 12.12.2002 r., V CKN 1537/00; wyrok SN z 7.3.2003 r., I CKN 89/01).
Kumulacja nie jest redundancją — jest koniecznością wynikającą z wielopłaszczyznowości naruszenia. W stanie faktycznym, w którym deepfake jednocześnie rozpowszechnia wizerunek bez zgody, fałszuje wyrażenie woli pokrzywdzonego i wykorzystuje jego reputację w celach konkurencyjnych, każda podstawa obsługuje inny fragment stanu faktycznego i generuje odmienne lub uzupełniające się instrumenty ochronne. Pominięcie którejkolwiek z nich pozostawia część naruszenia bez adekwatnej sankcji.
2. Funkcjonalny podział podstaw
Art. 81 w zw. z art. 78 ust. 1 i art. 83 pr. aut. — obsługuje sam fakt rozpowszechnienia wizerunku bez zezwolenia. Zapewnia ochronę o charakterze formalnym i obiektywnym: wystarczy wykazać rozpowszechnienie i brak zgody, bez konieczności dowodzenia winy czy szkody.
Art. 24 k.c. w zw. z art. 23 i art. 448 k.c. — obsługuje naruszenie poszczególnych dóbr osobistych i umożliwia dochodzenie zadośćuczynienia za krzywdę wykraczającą poza sam fakt rozpowszechnienia wizerunku: sfałszowanie wypowiedzi, przypisanie pokrzywdzonemu intencji merkantylnych, naruszenie godności i dobrego imienia.
Art. 405 k.c. — obsługuje wymiar majątkowy przywłaszczenia persony. Umożliwia żądanie wydania korzyści odpowiadającej rynkowej wartości wizerunku wykorzystanego w reklamie, niezależnie od wykazania szkody po stronie pokrzywdzonego.
Art. 18 u.z.n.k. — obsługuje wymiar konkurencyjny stanu faktycznego, z własnym katalogiem roszczeń dostosowanym do relacji między przedsiębiorcami.
Art. 82 RODO — obsługuje naruszenie przepisów o ochronie danych osobowych, z odrębnym reżimem odpowiedzialności i możliwością uruchomienia postępowania administracyjnego.
Art. 190a § 2 k.k. — pełni podwójną funkcję: samoistną (uruchomienie ścigania karnego z funkcją prewencyjną i represyjną) oraz instrumentalną wobec postępowania cywilnego (zabezpieczenie dowodów, wzmocnienie pozycji negocjacyjnej, prejudykat z art. 11 k.p.c.).
3. Rekomendowana sekwencja działań
Z perspektywy taktyki procesowej optymalna sekwencja działań obejmuje cztery fazy:
Faza I — Zabezpieczenie dowodów. Niezwłoczne notarialne poświadczenie treści materiału deepfake’a (protokół z oględzin strony internetowej lub materiału audiowizualnego), uzyskanie zrzutów ekranu z metadanymi, zabezpieczenie danych o zasięgu rozpowszechnienia (statystyki wyświetleń, udostępnień, komentarzy). Czas ma tu znaczenie krytyczne — materiał może zostać usunięty w każdej chwili.
Faza II — Wezwanie przedsądowe. Doręczenie konkurentowi wezwania do natychmiastowego zaprzestania naruszeń, usunięcia materiału ze wszystkich platform oraz złożenia oświadczenia o określonej treści. Wezwanie powinno precyzyjnie wskazywać wszystkie naruszone podstawy prawne — jego treść stanie się elementem materiału dowodowego w ewentualnym postępowaniu.
Faza III — Uruchomienie ścigania karnego. Złożenie wniosku o ściganie z art. 190a § 2 k.k. wraz z zawiadomieniem o podejrzeniu popełnienia przestępstwa. Celem jest aktywacja instrumentów procesowych prawa karnego — w szczególności zabezpieczenie dowodów elektronicznych, których pozyskanie w postępowaniu cywilnym byłoby niemożliwe lub znacząco utrudnione.
Faza IV — Postępowanie cywilne. Wniesienie powództwa z kumulacją podstaw (k.c., pr. aut., u.z.n.k., RODO), z jednoczesnym wnioskiem o zabezpieczenie roszczeń w trybie art. 730 i n. k.p.c. — w szczególności o nakazanie usunięcia spornego materiału na czas trwania postępowania.
VIII. Zagadnienia dowodowe
1. Identyfikacja materiału jako deepfake’a
Kluczowym wyzwaniem dowodowym jest wykazanie, że sporny materiał stanowi deepfake — a nie autentyczną rejestrację. W postępowaniu cywilnym ciężar dowodu spoczywa na powodzie (art. 6 k.c.). W praktyce konieczne będzie powołanie biegłego z zakresu informatyki śledczej i analizy materiałów audiowizualnych, dysponującego narzędziami do detekcji deepfake’ów: analizą artefaktów kompresji, niespójności oświetleniowych, anomalii w synchronizacji audio-wideo, śladów algorytmicznego przetwarzania charakterystycznych dla konkretnych modeli generatywnych.
Paradoksalnie, sam pokrzywdzony dysponuje dowodem trudnym do podważenia: własnym oświadczeniem, że nigdy nie uczestniczył w nagraniu, nie pozował i nie wyrażał zgody na wykorzystanie wizerunku. W połączeniu z opinią biegłego i faktem braku jakiegokolwiek dowodu udzielenia zgody po stronie pozwanego (na którym spoczywa ciężar dowodu istnienia zgody — wyrok SN z 20.5.2004 r., II CK 330/03) tworzy to układ dowodowy korzystny dla pokrzywdzonego.
2. Przypisanie sprawstwa
W środowisku cyfrowym materiały mogą być rozpowszechniane za pośrednictwem wielu pośredników, a ich faktyczny autor może pozostawać anonimowy. Postępowanie karne z art. 190a § 2 k.k. oferuje w tym zakresie istotną przewagę — organy ścigania dysponują uprawnieniami do pozyskiwania danych telekomunikacyjnych, zabezpieczania dowodów na serwerach i ustalania łańcucha dystrybucji spornego materiału. W postępowaniu cywilnym pokrzywdzony może natomiast skorzystać z konstrukcji odpowiedzialności za czyn nieuczciwej konkurencji, która nie wymaga bezpośredniego sprawstwa — wystarczy, że konkurent zlecił stworzenie materiału, zaakceptował jego wykorzystanie lub czerpał korzyści z jego rozpowszechniania.
3. Ustalenie rozmiaru szkody
Szkoda majątkowa wynikająca z deepfake’a reklamowego ma charakter złożony i obejmuje zarówno damnum emergens (np. koszty działań naprawczych — publikacji sprostowań, kampanii informacyjnej), jak i lucrum cessans (utracone korzyści — odpływ klientów do konkurenta, utrata kontraktów wynikająca z podważenia wiarygodności). Dodatkowym parametrem jest wartość bezpodstawnie uzyskanej korzyści po stronie naruszyciela — możliwa do ustalenia na podstawie rynkowych stawek za endorsement w danej branży.
IX. Regulacja unijna — AI Act i perspektywa harmonizacji
Rozporządzenie Parlamentu Europejskiego i Rady (UE) 2024/1689 z 13.6.2024 r. w sprawie ustanowienia zharmonizowanych przepisów dotyczących sztucznej inteligencji (AI Act) wprowadza w art. 50 ust. 4 obowiązek oznaczania treści wygenerowanych przez systemy AI — w tym deepfake’ów — jako sztucznie wygenerowanych lub zmanipulowanych. Przepisy dotyczące obowiązków transparencji stosowane są od 2.8.2026 r. Naruszenie tego obowiązku stanowi odrębną podstawę odpowiedzialności, niezależną od reżimów omówionych powyżej.
Sankcje za naruszenie AI Act mają charakter istotnie dolegliwy: za naruszenie wymogów transparencji z art. 50 grozi kara do 15 mln euro lub 3% globalnego rocznego obrotu, a za najpoważniejsze naruszenia (zakazy stosowania AI) — do 35 mln euro lub 7% obrotu. Dostawcy systemów AI mają obowiązek implementacji technicznych oznaczeń treści w formacie odczytywalnym maszynowo — metadanych, znaków wodnych i metod kryptograficznych — zapewniających przetrwanie oznaczenia przez edycję, pobieranie i ponowne udostępnianie. Wyjątki od obowiązku oznaczania dotyczą wyłącznie wykorzystania autoryzowanego prawem do wykrywania i ścigania przestępstw oraz treści o wyraźnie artystycznym, satyrycznym lub fikcyjnym charakterze (w tym przypadku obowiązek ogranicza się do ujawnienia niemającego wpływu na odbiór dzieła).
Komplementarnie wobec AI Act działa Akt o usługach cyfrowych (DSA), nakładający na bardzo duże platformy internetowe (VLOP) i wyszukiwarki (VLOSE) obowiązek analizy treści pod kątem ryzyk deepfake’owych, zapewnienia widocznych oznaczeń oraz proaktywnej ochrony użytkowników. Naruszenie DSA może wiązać się z karą do 6% światowego obrotu lub nawet blokadą platformy na terytorium UE. Trend regulacyjny zmierza jednoznacznie ku modelowi warunkowego immunitetu platform — zachowują one ochronę prawną jedynie pod warunkiem implementacji proaktywnych mechanizmów moderacji, oceny ryzyka i szybkiego reagowania na zgłoszenia.
17 grudnia 2025 r. Komisja Europejska opublikowała pierwszy projekt Kodeksu Praktyk w zakresie Transparentności Treści Wygenerowanych przez AI, dotyczący wyłącznie legalnych deepfake’ów — treści nielegalne podlegają niezwłocznemu usunięciu na zasadach ogólnych. Ostateczna wersja Kodeksu oczekiwana jest na czerwiec 2026 r.
AI Act nie zastępuje ochrony wynikającej z prawa krajowego — stanowi jej uzupełnienie o wymiar regulacyjny. W przypadku deepfake’a reklamowego, w którym celem jest właśnie wprowadzenie odbiorcy w błąd co do autentyczności materiału, naruszenie obowiązku z art. 50 ust. 4 AI Act jest inherentne — trudno wyobrazić sobie, aby autor deepfake’a reklamowego z wizerunkiem konkurenta dobrowolnie oznaczył go jako treść wygenerowaną przez AI. Warto przy tym odnotować, że problematyka skuteczności egzekwowania regulacji deepfake’owych ma wymiar globalny: jak wskazuje analiza luki regulacyjnej opublikowana w IEEE Computer, nawet jurysdykcje z zaawansowanymi regulacjami napotykają fundamentalne trudności w egzekwowaniu prawa wobec treści generowanych za granicą, rozpowszechnianych anonimowo i hostowanych na serwerach w państwach o odmiennym lub nieistniejącym reżimie prawnym.
X. Postulaty de lege ferenda
Obowiązujący stan prawny — choć pozwalający na skuteczną ochronę pokrzywdzonego poprzez kumulację istniejących podstaw — nie zawiera regulacji wprost adresującej zjawisko deepfake’ów. Na tle globalnego przeglądu regulacyjnego Polska plasuje się w grupie państw, które nie uchwaliły żadnej dedykowanej regulacji, polegając wyłącznie na mozaice przepisów ogólnych — podczas gdy 46 stanów USA uchwaliło łącznie 169 ustaw, a Korea Południowa i Indie wprowadziły regulacje o bezprecedensowej szczegółowości. Uzasadnione byłoby rozważenie następujących zmian legislacyjnych.
Po pierwsze, wprowadzenie do prawa autorskiego przepisu wprost regulującego ochronę wizerunku przed wykorzystaniem technologii deepfake, z domniemaniem bezprawności rozpowszechniania sztucznie wygenerowanego wizerunku — odwracającym ciężar dowodu na korzyść pokrzywdzonego. Model ten jest spójny z rozwiązaniami przyjętymi w australijskim Criminal Code Amendment (2023), gdzie domniemanie bezprawności ułatwia dochodzenie roszczeń.
Po drugie, rozważenie kwalifikowanego typu przestępstwa z art. 190a § 2 k.k. obejmującego wykorzystanie technologii sztucznej inteligencji do generowania fałszywych materiałów audiowizualnych — z podwyższonym zagrożeniem karą odzwierciedlającym szczególną szkodliwość społeczną deepfake’ów. Inspiracją może być włoska ustawa 132/2025, która ustanowiła odrębny typ czynu zabronionego za rozpowszechnianie treści wygenerowanych przez AI, z karą od 1 do 5 lat.
Po trzecie, ustanowienie obowiązku platform internetowych do niezwłocznego usuwania zgłoszonych deepfake’ów naruszających dobra osobiste — z precyzyjnie określonymi terminami. Na tym polu rozpiętość rozwiązań jest znaczna: od 48 godzin w amerykańskim TAKE IT DOWN Act przez 24 godziny w kanadyjskim projekcie Online Harms Act do bezprecedensowych trzech godzin w indyjskich IT Rules 2026 (dwie godziny w przypadku deepfake’ów pornograficznych). Wybór modelu wymaga wyważenia skuteczności ochrony z ryzykiem nadmiernego usuwania legalnych treści — co Brazylia boleśnie doświadczyła przy próbie odróżnienia satyry politycznej od zabronionych deepfake’ów wyborczych.
Po czwarte, wdrożenie obowiązku oznaczania treści generowanych przez AI — nie dopiero od wejścia w życie art. 50 AI Act, lecz na podstawie prawa krajowego. Chiny od 2025 roku wymagają obowiązkowych znaków wodnych przetrwających edycję i ponowne udostępnianie, a standardy techniczne opracowywane przez Coalition for Content Provenance and Authenticity (C2PA) mogłyby stanowić punkt odniesienia dla polskiego ustawodawcy.
Po piąte, ustanowienie mechanizmu współpracy transgranicznej w egzekwowaniu prawa wobec deepfake’ów. Jak wskazuje analiza opublikowana w IEEE Computer, fundamentalnym wyzwaniem jest jurisdiction hopping — sprawcy celowo lokują treści na serwerach w jurysdykcjach o najsłabszej regulacji. Oświadczenie regulatorów ochrony prywatności z 61 państw z lutego 2026 roku popierające egzekwowanie prawa wobec deepfake’ów sygnalizuje rosnącą gotowość do międzynarodowej koordynacji, lecz wymaga przełożenia na wiążące instrumenty prawne.
XI. Podsumowanie
Deepfake wykorzystany w reklamie konkurencji stanowi naruszenie o intensywności i złożoności niemającej precedensu w dotychczasowej kazuistyce prawa cywilnego i karnego. Aktywuje jednocześnie ochronę cywilnoprawną dóbr osobistych (art. 23 i 24 k.c.), szczególną ochronę wizerunku w prawie autorskim (art. 81 pr. aut.), ochronę przed czynami nieuczciwej konkurencji (art. 3 i 16 u.z.n.k.), ochronę danych osobowych (RODO) oraz odpowiedzialność karną z art. 190a § 2 k.k.
Żadna z tych podstaw, stosowana samodzielnie, nie zapewnia pełnej ochrony — każda obsługuje inny aspekt wielopłaszczyznowego naruszenia. Art. 81 pr. aut. chroni przed samym faktem rozpowszechnienia wizerunku bez zgody. Art. 24 k.c. umożliwia dochodzenie zadośćuczynienia za naruszenie godności, dobrego imienia i autonomii. Art. 405 k.c. pozwala żądać wydania korzyści odpowiadającej wartości rynkowej przywłaszczonej persony. Art. 18 u.z.n.k. zapewnia ochronę dostosowaną do relacji konkurencyjnej. Art. 82 RODO otwiera ścieżkę administracyjną z perspektywą dotkliwych kar finansowych.
Art. 190a § 2 k.k. pełni w tej konfiguracji rolę szczególną — i dotąd niedostatecznie docenianą. Jego znamiona odpowiadają istocie deepfake’a reklamowego z precyzją, jakiej trudno oczekiwać od przepisu uchwalonego ponad dekadę przed upowszechnieniem się technologii generatywnej AI. Uruchomienie ścigania karnego zapewnia pokrzywdzonemu dostęp do instrumentów procesowych niedostępnych na drodze cywilnej, a prawomocny wyrok skazujący — prejudykat wiążący sąd cywilny na podstawie art. 11 k.p.c.
Prawo polskie — mimo braku regulacji dedykowanej deepfake’om — dysponuje instrumentarium wystarczającym do skutecznej ochrony pokrzywdzonego przedsiębiorcy. Wymaga to jednak od pełnomocnika umiejętności syntetycznego operowania na przecięciu prawa cywilnego, autorskiego, konkurencji, ochrony danych osobowych i prawa karnego — oraz strategicznego myślenia o sekwencji działań procesowych jako o spójnej architekturze, nie zbiorze niezależnych roszczeń.

Założyciel i partner zarządzający kancelarii prawnej Skarbiec, uznanej przez Dziennik Gazeta Prawna za jedną z najlepszych firm doradztwa podatkowego w Polsce (2023, 2024). Doradca prawny z 19-letnim doświadczeniem, obsługujący przedsiębiorców z listy Forbesa oraz innowacyjne start-upy. Jeden z najczęściej cytowanych ekspertów w dziedzinie prawa handlowego i podatkowego w polskich mediach, regularnie publikujący w Rzeczpospolitej, Gazecie Wyborczej i Dzienniku Gazecie Prawnej. Autor publikacji „AI Decoding Satoshi Nakamoto. Sztuczna inteligencja na tropie twórcy Bitcoina” oraz współautor nagrodzonej książki „Bezpieczeństwo współczesnej firmy”. Profil na LinkedIn: 18.5 tys. obserwujących, 4 miliony wyświetleń rocznie. Nagrody: czterokrotny laureat Medalu Europejskiego, Złotej Statuetki Polskiego Lidera Biznesu, tytułu „Międzynarodowej Kancelarii Prawniczej Roku w Polsce w zakresie planowania podatkowego”. Specjalizuje się w strategicznym doradztwie prawnym, planowaniu podatkowym i zarządzaniu kryzysowym dla biznesu.