Coraz częściej słychać, że jednym z największych cyfrowych zagrożeń roku 2021 będzie deepfake. Z jednej strony ze względu na coraz większe możliwości tej technologii, która może być używana do manipulacji i dezinformacji. A z drugiej, że może zostać wykorzystywana do kradzieży tożsamości.
Głośnym echem w mediach odbił się eksperyment brytyjskiej Channel 4. Na koniec 2020 roku wyemitował życzenia od „Królowej Elżbiety II”, które zostały przygotowane w oparciu o technologię deepfake. W ten sposób telewizja chciała zwrócić uwagę na problem fałszowania rzeczywistości z użyciem tej technologii.
Stacja opublikowała film opatrując go komentarzem: „Czy zawsze to, co widzimy i słyszymy jest tym, czym wydaje się być?”.
Już rok temu Facebook oznajmił, że zaostrza swoją politykę dotyczącą zmanipulowanych treści typu deepfake. Takie materiały mają być szybko wykrywane i w niektórych przypadkach usuwane z platformy, w innych zaś oznaczane i ukrywane w serwisie.
Na materiały deepfake coraz łatwiej się nabrać. Amerykański „Forbes” pisał ostatnio, że takie treści trafią w tym roku nawet do mainstreamowego obiegu w Stanach Zjednoczonych. Ostrzegał, że najczęściej będą przedstawiać osobę publiczną wygłaszającą kontrowersyjne komentarze. Zastanawiał się pan czemu takie materiały w ogóle powstają? Co dają tym, którzy je tworzą?
Prof. Jacek Dąbała: Przede wszystkim chodzi tu o sprawcze poczucie władzy, ale też częściowo o leczenie własnych kompleksów. Mało znaczymy, ale czujemy silne emocje, a chcemy być podziwiani. Reagujemy frustracją na przekazy medialne, gdy widzimy sławnych polityków, gwiazdy mediów czy sportu. Możemy więc z nich zadrwić i „nimi rządzić”. Drugim powodem powstawania deepfake’ów jest rozrywka, możliwość bawienia siebie i innych video-fałszywkami głównie znanych ludzi. Technologia fałszowania obrazu i dźwięku daje też cudowne możliwości. Po „dobrej stronie mocy” są intencje i marzenia, aby doświadczać bajkowych przeżyć, produkować profesjonalne filmy w domu z użyciem każdej twarzy, sylwetki i głosu. Także naszych bliskich. Przykładowo: sztuczna inteligencja uruchamiająca ze zdjęcia naszego dziadka w rolach, jakie tylko wymyślimy. Deepfake jako technologia to moc demiurga, pewnie też szansa zarabiania. Niebezpieczeństwo to nie technologia, lecz jej wykorzystanie.
Pod koniec roku brytyjska stacja Channel 4 wyemitowała nagrane przy użyciu technologii deepfake życzenia królowej Elżbiety II. Stacja chciała w ten sposób zwrócić uwagę widzów na niebezpieczeństwo, jakie niesie ten rodzaj dezinformacji. Pan uważa, że to słuszny komunikacyjny zabieg? A może tylko jedynie promocja?
Edukowanie zawsze jest słuszne, ale w tym przypadku było chyba zbyt rozrywkowe. Dlatego może to być promocja „mimo woli”. Z jednej strony mamy sympatyczny filmik z królową, nawet żartobliwy, z drugiej przez tę sympatyczność właśnie niektórzy mogą uznać, że taka „zabawa” znanym wizerunkiem to nic strasznego. Nierzadko zdarza się, że sami profesjonaliści, np. dyrektorzy i dziennikarze rozmaitych stacji, czy chociażby reżyserzy czy aktorzy, nie rdzą sobie z myśleniem o mediach, nie rozumieją, jak one działają. Zajmują się po prostu swoją pracą w mediach, a nie ich głębszym diagnozowaniem. Dlatego tylko najlepsi w myśleniu, kompetentni i wrażliwi, są w stanie wyczuć w edukowaniu granicę między jego skutecznością a niewidzialnym zagrożeniem.
No właśnie. Polskie media dziś dają się podejść fałszywym tweetem. Jak mogą się bronić przed technologią deepfake?
Edukowaniem, informowaniem, wyjaśnieniem stale i bez granic wiekowych, czym jest czarna propaganda. W jej ramach pokazywać zjawisko deepfake’ów. To najbardziej naturalna droga. Obrona powinna też przyjść od strony sztucznej inteligencji na usługach portali. Mimo iż zawsze trochę spóźnione, ale jednak, powinny one przy pomocy programów antyfake’owych identyfikować fałszerstwa i eliminować je lub oznaczać. Poza tym prawo międzynarodowe i krajowe powinno wypracować narzędzia obrony. Tutaj nie da się działać sztywnymi paragrafami, bo chodzi o dynamiczny i bardzo zniuansowany świat mediów. Działania muszą być komplementarne, ale obrona – trzeba to wyraźnie powiedzieć – w demokratycznym świecie będzie zawsze bardzo skomplikowana. Szczególnie wtedy, co brzmi strasznie, gdy np. terroryści lub służby specjalne na poważnie zaczną tę technologię wykorzystywać.
W USA już mówi się o tym, że giganci technologiczni powinni być pociągani do odpowiedzialność, jeśli nie będą zapobiegać rozprzestrzenianiu się materiałów typu deepfake na swoich platformach. Są jeszcze inne możliwości?
Cóż, jeśli ktoś ma w rękach lejce, to musi się liczyć z tym, iż narowisty koń może spowodować wypadek. A więc potrzebny jest woźnica odpowiedzialny. Nikt chyba nie powinien mieć wątpliwości, że największe korporacje udostępniające treści muszą kontrolować przekaz wtedy, gdy zaczyna on w sposób skrajny dyskryminować, dezinformować czy dyskredytować kogoś. Nie jest to cenzura, lecz ochrona ludzi przed zbiorowymi dramatami, zagrożeniem życia. Zły deepfake żywi się nienawiścią i strachem. Można byłoby to prawnie ująć tak, aby ingerencja odbywała się wyłącznie w bardzo uzasadnionych przypadkach. Mówię to jako obrońca wolności na wszelkich możliwych poziomach życia osobistego, społecznego i politycznego. Inaczej dojdzie do katastrofy, konfliktów, bo internauci pokochają deepfake’owanie, a przecież nie wszyscy są szlachetnymi ludźmi.
Facebook czy Microsoft pracują nad rozwiązaniami, które pomogą w detekcji materiałów deepfake. Jakie działania mogą podjąć polskie instytucje, żeby nauczyć internautę nawyku weryfikowania informacji? Kto powinien za to odpowiadać?
Jacek Dąbała – profesor zwyczajny, medioznawca, pisarz, scenarzysta i były dziennikarz radiowo-telewizyjny. Bada media, komunikowanie, film i literaturę. Kieruje Katedrą Warsztatu Medialnego i Aksjologii na Katolickim Uniwersytecie Lubelskim. Twórca Dabalamedia.com, pierwszej na świecie niezależnej platformy w języku angielskim i polskim, oceniającej jakość mediów pod kątem treści i warsztatu dziennikarskiego w interesie odbiorców i mediów. Jest współscenarzystą kultowego filmu „Młode wilki”. Członek, m.in. Polskiej Akademii Nauk i Polskiej Akademii Filmowej.