SzukajSzukaj
dołącz do nas Facebook Google Linkedin Twitter

Jak walczyć z deepfake'ami? „Nie ma specjalnego instrumentu w polskim prawie”

W polskim prawie nie ma konkretnych przepisów, które pozwalałyby karać za publikowanie tworzonych przez AI nieprawdziwych wizerunków ludzkich - deepfake'ów. -  Ale są różnego rodzaju ogólne instrumenty prawne, które można w celu zwalczania deepfake'ów wykorzystać - mówi dr Adam Pązik.

Nagranie deepfake z wizerunkiem Toma Cruise'a Nagranie deepfake z wizerunkiem Toma Cruise'a

„No i dzieje się to co przewidywaliśmy, wykorzystane wizerunku znanych osób (w technologii deep fake) w reklamach (tutaj ewidentne wykorzystanie porno). Obrzydliwa sprawa. Musimy zacząć rozmawiać o ochronie wizerunku w internecie (i nie tylko)” - stwierdził na Twitterze Wojtek Kardyś.

Deepfake to technologia tworzenia przez sztuczną inteligencję fałszywych wizerunków osób. Niegdyś dzięki tej technologii Bruce Willis zagrał w rosyjskiej reklamie, na planie której nawet nie musiał się stawić (potem nawet sprzedał prawa do swojego wizerunku firmie tworzącej deepfake'i). Dolph Lundgren pojawił się natomiast w reklamie Old Spice, ale w swojej wersji sprzed kilkudziesięciu lat. W deepfake'owym wideo „wystąpiła” też królowa Elżbieta II.

Nietrudno wyobrazić sobie także inne wykorzystanie deepfake'ów - choćby do prezentowania sfałszowanego przekazu polityków. To pole do popisu także na frontach cyberwojny. Ofiarą deepfake'a padł m.in. prezydent Warszawy Rafał Trzaskowski, który miał (podobnie jak włodarze czterech innych europejskich miast) spotkać się z merem Kijowa Witalijem Kłyczką (znanym w polskich mediach jako Kliczko).

Niedawno deepfake'ów zakazał serwis Twitch.https://www.wirtualnemedia.pl/tags/Twitch. To jednak tylko regulacje na poziomie konkretnych platform.

W USA nie ma federalnego prawa do zwalczania deepfake'owej pornografii. Część stanów, jak Kalifornia czy Wirginia, pozwala ofiarom dochodzić swoich praw, ale niewiele mogą zrobić, jeśli sprawca działa spoza stanu albo nawet zza granicy.

Takich przepisów na razie nie ma także w polskim prawie, jak zgodnie przyznają nasi rozmówcy.

Próby unijnej regulacji

- Deepfake to technologia, która może mieć szerokie zastosowanie. Można ją uznać za formę wypowiedzi, która w zależności od kontekstu, użycia czy intencji może niesie różne konsekwencje prawne - mówi Filip Konopczyński, prawnik, specjalista ds. regulacji sztucznej inteligencji i nowych technologii z Fundacji Panoptykon. - Dla przykładu, inna odpowiedzialność będzie za złożenie deepfake'a jako rzekomy dowód w sądzie czy urzędzie, inna za zrobienie deepfake'a o sąsiedzie bez zgody na wykorzystanie jego wizerunku, a jeszcze inną gdy użyjemy jej do masowej politycznej dezinformacji. Decyduje kontekst, intencja, użycie, a nie sam fakt, że coś zostało wygenerowane przez generator deepfake'ów – podkreśla.

- Nie mamy prawa, które byłoby przystosowane specjalnie pod tę technologię - nie powinno to dziwić, bo jest ona nowa - zaznacza Konopczyński. - Są natomiast próby regulowania tego na poziomie europejskim. To między innymi jeden z obszarów, którego dotyczy negocjowany obecnie w Parlamencie Europejskim Akt o sztucznej inteligencji i temat tak zwanego General Purpose AI, który pojawił się w wersji propozycji Rady Europejskiej, ale nie ma go jeszcze w projekcie Parlamentu Europejskiego w tym obszarze. W każdym z tych projektów są przepisy, które da się stosować do deepfake'ów,na przykład nakazując umieszczenie informacji o wykorzystaniu AI i tym, że dana treść nie reprezentuje prawdziwych zdarzeń, ale na razie to są tylko projekty – dodaje.

- Generalnie wydaje się to zmierzać w kierunku, by odpowiedzialnością za deepfake'i obciążać człowieka publikującego dane treści, a nie walczyć z samą technologią. Nawet w ciągu zapewne miesiąca będziemy wiedzieć, jakie kompromisy osiągnęły w tym obszarze główne frakcje w Parlamencie Europejskim – przyznaje Konopczyński. - Nowe regulacje mogą przynieść także akty, które mają uregulować kwestię reklam i kampanii politycznych w internecie (zarówno w AI Act jak i innych, dedykowanych temu obszarowi unijnych regulacjach). Wcześniej dowiemy się natomiast, jak z moderacją treści - w tym m.in. zwalczaniem deepfake'ów - radzą sobie platformy cyfrowe, które będą musiały to robić w oparciu o wchodzący w życie Akt o Usługach Cyfrowych. Według nowego prawa, duże platformy będą musiały oznaczać deepfake'i czy umożliwiać ich samodzielne oznaczanie przez autorów jako wskazane środki minimalizujące ryzyko – zaznacza.

- Jako Fundacja Panoptykon w ramach negocjacji AI Act walczymy między innymi o ważny zapis, mówiący o obowiązku informowania o użyciu sztucznej inteligencji do przygotowania danego materiału – podkreśla Konopczyński. - Jako obywatele i konsumenci mamy prawo wiedzieć, że rozmawiamy z chatbotem, bądź, że zdjęcie zostało stworzone przez AI. To pozwoli odróżnić uczciwych graczy od nieuczciwych, a nam jako społeczeństwom budować kompetencje krytycznego myślenia o technologiach cyfrowych – mówi prawnik.

Dozwolona satyra

- Nie ma w polskim prawie instrumentu stworzonego specjalnie do zwalczania deepfake'ów – przyznaje również dr Adam Pązik z Uniwersytetu Pedagogicznego, specjalizujący się m.in. w prawie cywilnym (w tym ochrony dóbr osobistych) i prawie własności intelektualnej. - Nie ma konkretnego przepisu, z którego wynikałoby, że „kto dopuszcza się deepfake'u, ten ponosi odpowiedzialność karną”. Ale są różnego rodzaju ogólne instrumenty prawne, które można w celu zwalczania deepfake'ów wykorzystać – dodaje.

Zdaniem Pązika, jedna droga to odpowiedzialność cywilno-prawna za naruszenia dóbr osobistych. - W wielu przypadkach wykorzystanie czyjegoś wizerunku czy głosu do stworzenia deepfake'a następuje w taki sposób, że naruszone są dobra osobiste osoby „wykorzystanej” - wyjaśnia prawnik. - Chodzi o wizerunek, dobre imię i jakąś formę godności osobistej. Najbardziej nasuwający się przykład to sytuacja, kiedy wizerunek osoby zostaje wykorzystany do stworzenia treści nieprzyzwoitej, na przykład w ramach filmu pornograficznego. To ewidentne naruszenie dóbr osobistych danej osoby – podkreśla.

- Większy problem jest z deepfake'iem o charakterze satyrycznym. Jeżeli wykorzysta się wizerunek polityka, by stworzyć deepfake'a polegającego na tym, że on wypowiada mniej czy bardziej dziwne sformułowania, co ma go ośmieszyć – mówi Pązik. - Problem polega na subtelnej różnicy, gdzie kończy się forma naruszenia dobrego imienia danej osoby, a gdzie zaczyna zjawisko prawnie dopuszczalne: satyry czy parodii – podkreśla.

Reasumując, zdaniem eksperta, istnieje możliwość walki z deepfake'ami na podstawie ogólnych przepisów Kodeksu cywilnego dotyczących ochrony dóbr osobistych. - Aczkolwiek to nie będzie działać w stosunku do każdego przypadku, bo może się on właśnie mieścić w granicy działalności parodystycznej – zaznacza Pązik.

Potrzeba orzecznictwa

- Nie jest mi znane żadne orzeczenie sądu polskiego, które by się tą tematyką do tej pory zajmowało - dodaje prawnik.

- Wiele zależy od tego, jak sformułowany jest konkretny system prawny. Są takie, które w kwestii regulacji nowych technologii są bardziej zaawansowane, inne mniej. Powiedziałby, że polski system jest mniej zaawansowany i nie posiadamy w związku z tym wyspecjalizowanych narzędzi. Musimy poczekać, aż w tym temacie pojawi się głośne orzeczenie, najlepiej Sądu Najwyższego, w którym rozstrzygnie on, czy deepfake jest dopuszczalny i w jakich granicach – uważa Pązik.

Również zdaniem tego eksperta, prawo nie nadąża za postępem technologicznym. I inwencją przestępców. - Gdy uregulowano by w odpowiedni sposób konkretny techniczny sposób opracowania deepfake'a, zaraz pojawiłaby się nowsza nieuregulowana jeszcze metoda i wrócilibyśmy do punktu wyjścia.

Pązik powtarza, że musimy czekać na orzecznictwo w tym temacie. - Sąd wskaże nam, że na przykład wykorzystanie deepfake'ów w zakresie osób publicznych i w celu parodii jest dopuszczalne, a w innych celach – na przykład komercyjnych – dopuszczalnie nie jest. To wiele by zmieniło, kolejne sądy spotykające się z tego typu problemem, miałyby określone wskazówki, jak postępować dalej. Sprawę można byłoby rozwiązać bez ingerencji ustawodawcy – twierdzi prawnik. Ale jak dodaje, taka precedensowa sprawa musiałaby dojść do Sądu Najwyższego. - Z jego orzeczeniem z reguły wiąże się taki autorytet, że wyznacza tryb myślenia kolejnych sądów – dodaje.

Ekspert zwraca też uwagę na jeszcze jeden problematyczny aspekt sprawy. - Znaleźć autora takiego deepfake'a. Jeśli to treść umieszczona w portalu streamingowym, gdzie sami użytkownicy mogą publikować treści, ustalenie autora jest skomplikowane. Są metody, jak VPN, pozwalające na zamaskowanie numeru IP. To szukanie wiatru w polu. Zanim nawiążemy merytoryczną dyskusję z deepfake'ami, musimy pokonać tę pierwszą barierę: ustalenia, kto w ogóle dany deepfake zamieścił - dodaje Pązik.

Dołącz do dyskusji: Jak walczyć z deepfake'ami? „Nie ma specjalnego instrumentu w polskim prawie”

1 komentarze
Publikowane komentarze są prywatnymi opiniami użytkowników portalu. Wirtualnemedia.pl nie ponosi odpowiedzialności za treść opinii. Jeżeli którykolwiek z postów na forum łamie dobre obyczaje, zawiadom nas o tym redakcja@wirtualnemedia.pl
User
miś społeczny
Będą o s z u s t w a "na amerykańskiego aktora", który obiecuje przyjazd do Polski i poślubienie swej ofiary, ale najpierw prosi o wsparcie finansowe...
0 0
odpowiedź