SzukajSzukaj
dołącz do nasFacebookGoogleLinkedinTwitter

Ostrzeżenie przed deepfake’ami: Każdy z nas może stać się ich negatywnym bohaterem

Pamiętajmy, że deepfake’m zagrożony jest każdy z nas, możemy być nim zarówno zmanipulowani, jak i stać się jego negatywnym bohaterem - ostrzega w rozmowie z portalem Wirtualnemedia.pl prof. Jacek Dąbała, medioznawca i audytor jakości mediów.

Jacek DąbałaJacek Dąbała

Coraz częściej słychać, że jednym z największych cyfrowych zagrożeń roku 2021 będzie deepfake. Z jednej strony ze względu na coraz większe możliwości tej technologii, która może być używana do manipulacji i dezinformacji. A z drugiej, że może zostać wykorzystywana do kradzieży tożsamości.

Głośnym echem w mediach odbił się eksperyment brytyjskiej Channel 4. Na koniec 2020 roku wyemitował życzenia od „Królowej Elżbiety II”, które zostały przygotowane w oparciu o technologię deepfake. W ten sposób telewizja chciała zwrócić uwagę na problem fałszowania rzeczywistości z użyciem tej technologii.

Stacja opublikowała film opatrując go komentarzem: „Czy zawsze to, co widzimy i słyszymy jest tym, czym wydaje się być?”.

Już rok temu Facebook oznajmił, że zaostrza swoją politykę dotyczącą zmanipulowanych treści typu deepfake. Takie materiały mają być szybko wykrywane i w niektórych przypadkach usuwane z platformy, w innych zaś oznaczane i ukrywane w serwisie.


Na materiały deepfake coraz łatwiej się nabrać. Amerykański „Forbes” pisał ostatnio, że takie treści trafią w tym roku nawet do mainstreamowego obiegu w Stanach Zjednoczonych. Ostrzegał, że najczęściej będą przedstawiać osobę publiczną wygłaszającą kontrowersyjne komentarze. Zastanawiał się pan czemu takie materiały w ogóle powstają? Co dają tym, którzy je tworzą?

Prof. Jacek Dąbała: Przede wszystkim chodzi tu o sprawcze poczucie władzy, ale też częściowo o leczenie własnych kompleksów. Mało znaczymy, ale czujemy silne emocje, a chcemy być podziwiani. Reagujemy frustracją na przekazy medialne, gdy widzimy sławnych polityków, gwiazdy mediów czy sportu. Możemy więc z nich zadrwić i „nimi rządzić”. Drugim powodem powstawania deepfake’ów jest rozrywka, możliwość bawienia siebie i innych video-fałszywkami głównie znanych ludzi. Technologia fałszowania obrazu i dźwięku daje też cudowne możliwości. Po „dobrej stronie mocy” są intencje i marzenia, aby doświadczać bajkowych przeżyć, produkować profesjonalne filmy w domu z użyciem każdej twarzy, sylwetki i głosu. Także naszych bliskich. Przykładowo: sztuczna inteligencja uruchamiająca ze zdjęcia naszego dziadka w rolach, jakie tylko wymyślimy. Deepfake jako technologia to moc demiurga, pewnie też szansa zarabiania. Niebezpieczeństwo to nie technologia, lecz jej wykorzystanie.

Pod koniec roku brytyjska stacja Channel 4 wyemitowała nagrane przy użyciu technologii deepfake życzenia królowej Elżbiety II. Stacja chciała w ten sposób zwrócić uwagę widzów na niebezpieczeństwo, jakie niesie ten rodzaj dezinformacji. Pan uważa, że to słuszny komunikacyjny zabieg? A może tylko jedynie promocja?

Edukowanie zawsze jest słuszne, ale w tym przypadku było chyba zbyt rozrywkowe. Dlatego może to być promocja „mimo woli”. Z jednej strony mamy sympatyczny filmik z królową, nawet żartobliwy, z drugiej przez tę sympatyczność właśnie niektórzy mogą uznać, że taka „zabawa” znanym wizerunkiem to nic strasznego. Nierzadko zdarza się, że sami profesjonaliści, np. dyrektorzy i dziennikarze rozmaitych stacji, czy chociażby reżyserzy czy aktorzy, nie rdzą sobie z myśleniem o mediach, nie rozumieją, jak one działają. Zajmują się po prostu swoją pracą w mediach, a nie ich głębszym diagnozowaniem. Dlatego tylko najlepsi w myśleniu, kompetentni i wrażliwi, są w stanie wyczuć w edukowaniu granicę między jego skutecznością a niewidzialnym zagrożeniem.

No właśnie. Polskie media dziś dają się podejść fałszywym tweetem. Jak mogą się bronić przed technologią deepfake?

Edukowaniem, informowaniem, wyjaśnieniem stale i bez granic wiekowych, czym jest czarna propaganda. W jej ramach pokazywać zjawisko deepfake’ów. To najbardziej naturalna droga. Obrona powinna też przyjść od strony sztucznej inteligencji na usługach portali. Mimo iż zawsze trochę spóźnione, ale jednak, powinny one przy pomocy programów antyfake’owych identyfikować fałszerstwa i eliminować je lub oznaczać. Poza tym prawo międzynarodowe i krajowe powinno wypracować narzędzia obrony. Tutaj nie da się działać sztywnymi paragrafami, bo chodzi o dynamiczny i bardzo zniuansowany świat mediów. Działania muszą być komplementarne, ale obrona - trzeba to wyraźnie powiedzieć - w demokratycznym świecie będzie zawsze bardzo skomplikowana. Szczególnie wtedy, co brzmi strasznie, gdy np. terroryści lub służby specjalne na poważnie zaczną tę technologię wykorzystywać.

W USA już mówi się o tym, że giganci technologiczni powinni być pociągani do odpowiedzialność, jeśli nie będą zapobiegać rozprzestrzenianiu się materiałów typu deepfake na swoich platformach. Są jeszcze inne możliwości?

Cóż, jeśli ktoś ma w rękach lejce, to musi się liczyć z tym, iż narowisty koń może spowodować wypadek. A więc potrzebny jest woźnica odpowiedzialny. Nikt chyba nie powinien mieć wątpliwości, że największe korporacje udostępniające treści muszą kontrolować przekaz wtedy, gdy zaczyna on w sposób skrajny dyskryminować, dezinformować czy dyskredytować kogoś. Nie jest to cenzura, lecz ochrona ludzi przed zbiorowymi dramatami, zagrożeniem życia. Zły deepfake żywi się nienawiścią i strachem. Można byłoby to prawnie ująć tak, aby ingerencja odbywała się wyłącznie w bardzo uzasadnionych przypadkach. Mówię to jako obrońca wolności na wszelkich możliwych poziomach życia osobistego, społecznego i politycznego. Inaczej dojdzie do katastrofy, konfliktów, bo internauci pokochają deepfake’owanie, a przecież nie wszyscy są szlachetnymi ludźmi.

Facebook czy Microsoft pracują nad rozwiązaniami, które pomogą w detekcji materiałów deepfake. Jakie działania mogą podjąć polskie instytucje, żeby nauczyć internautę nawyku weryfikowania informacji? Kto powinien za to odpowiadać?

Zjawisko deepfake’ów trzeba w mediach pokazywać i wyjaśniać ich potencjalne zagrożenie. Do znudzenia. To jest najlepsza forma kształcenia. Jeśli ktoś wie, że za upowszechnianie deepfake’ów z niebezpieczną „ciemną stroną mocy” zostanie ukarany i tak się stanie, to odstraszy wielu innych. Oczywiście ostatecznie muszą decydować sądy. Zjawisko jest zbyt wrażliwe na manipulacje, na – mówiąc lekko metaforycznie - polityczne gry o władzę, biznesowe kompromitacje i wpływy czy nawet dziennikarskie kariery i upadki, aby wykluczyć procesy sądowe. Szkoły i studia, włącznie z każdą formą kształcenia, powinny wprowadzać jak najwcześniej do programu stałe zajęcia z mediów i komunikowania. Tym bardziej, że codziennie coś się w nich zmienia. Pamiętajmy, że deepfake’m zagrożony jest każdy z nas, możemy być nim zarówno zmanipulowani, jak i stać się jego negatywnym bohaterem.


Jacek Dąbała - profesor zwyczajny, medioznawca, pisarz, scenarzysta i były dziennikarz radiowo-telewizyjny. Bada media, komunikowanie, film i literaturę. Kieruje Katedrą Warsztatu Medialnego i Aksjologii na Katolickim Uniwersytecie Lubelskim. Twórca Dabalamedia.com, pierwszej na świecie niezależnej platformy w języku angielskim i polskim, oceniającej jakość mediów pod kątem treści i warsztatu dziennikarskiego w interesie odbiorców i mediów. Jest współscenarzystą kultowego filmu „Młode wilki”. Członek, m.in. Polskiej Akademii Nauk i Polskiej Akademii Filmowej.

Dołącz do dyskusji: Ostrzeżenie przed deepfake’ami: Każdy z nas może stać się ich negatywnym bohaterem

13 komentarze
Publikowane komentarze są prywatnymi opiniami użytkowników portalu. Wirtualnemedia.pl nie ponosi odpowiedzialności za treść opinii. Jeżeli którykolwiekz postów na forum łamie dobre obyczaje, zawiadom nas o tym redakcja@wirtualnemedia.pl
User
Ya
Mój wykładowca z kulu. Znakomicie było na jego zajęciach jak wchodził w tworczą fazę. Zawsze będę go wspominal z sympatią
odpowiedź
User
Ala
Madioznawca teoretyk... dramat.... nic nie wie....
odpowiedź
User
Robert Lublin
Pracował chwilę jako prezenter TVP Lublin.... wywalili go szybko bo był mega słaby... poszedł w nauczycielstwo bo w mediach nic nie znaczył... do tego słabo pisze.
odpowiedź