Home » Uncategorized » Raport: Deep fake, fake news i teorie spiskowe – utrata zaufania do internetowych treści. Co nas czeka, jak możemy zapobiegać

Raport: Deep fake, fake news i teorie spiskowe – utrata zaufania do internetowych treści. Co nas czeka, jak możemy zapobiegać

Spread the love

Zjawiska fake news oraz teorie spiskowe towarzyszą nam od zawsze, jednak rozwój technologiczny sprawił, że stanowią one coraz większe zagrożenie. Sytuacja na świecie jest niestabilna i dezinformacja jest używana jako broń coraz częściej, oraz coraz skuteczniej. Deepfake’i są wykorzystywane na każdym poziomie, od indywidualnych ataków po zmasowane akcje o poważnym politycznym wymiarze. Manipulacja nie jest jeszcze bezbłędna, ale jeśli nie przygotujemy się odpowiednio, rzetelne i obiektywne dziennikarstwo może stać się starą, odległą ideą z czasów przed erą postprawdy 

Dotychczas manipulacja danymi była możliwa głównie w formie tekstowej. Podrobienie czyjegoś podpisu lub pieczęci nie jest nowością. Jednak wraz z rozwojem sztucznej inteligencji, wachlarz możliwości stał się znacznie większy. Dostępne jest podrobienie głosu osoby i połączenie tego z odpowiednio zmanipulowanym jej nagraniem, tak aby jeszcze bardziej zmylić i uśpić czujność potencjalnych odbiorców. Sama nazwa powstała później niż techniki, pierwszy raz została zastosowana w 2017 roku przez użytkownika reddita, który wykorzystał technologie face swappingu do stworzenia filmów porno z zamienionymi twarzami oryginalnych aktorek na znane celebrytki. Nazwa ta odnosi się do procesu tworzenia, człon fake jest oczywisty, natomiast deep odnosi się do procesu głębokiego uczenia na sieciach neuronowych które zajmują się odpowiednim modyfikowaniem danych.  

Znajdowanie parametrów twarzy po trzech iteracjach i słabej pozycji startowej

Najwcześniejsze programy tego typu powstały dla branży filmowej. Już w 1997 powstał program mający automatycznie dopasowywać ruchy ust aktorów do nowych ścieżek dźwiękowych, co miało zastosowanie w dubbingu. Jednak od tamtych czasów technologia przeszła daleką drogę i możliwy jest nie tylko lip synching ale też zamiana całej twarzy, lub podłożenie mimiki innej osoby. Branża filmowa korzysta na rozwoju tych technologii, a w przyszłości może umożliwić jeszcze lepsze efekty. W niektórych filmach próbuje się odtworzyć uwielbianych przez fanów aktorów, którzy z powodu wieku nie mogą odtworzyć danej roli, lub wręcz odeszli już z tego świata. Używa się w tym celu CGI, jednak niektórzy przy użyciu technologii deepfake próbują ulepszyć filmowe kreacje, często z niezłym skutkiem. 

Oczywiście jak wskazuje sam tytuł technologie te są niestety wykorzystywane najczęściej w dużo mniej światłych celach. Dzięki deepfake’om dużo łatwiej jest zmanipulować odbiorcę i ukazać ofiarę w złym świetle. Już nie tylko słowne insynuacje, ale coś co dotychczas było traktowane jako najpewniejszy rodzaj dowodu, nagranie wideo, może popierać fałszywą narrację. Teorie spiskowe i fake newsy istnieją od początków cywilizacji, jednak ich skala i możliwości rozprzestrzeniania wzrosły w zastraszającym tempie, odkąd internet stał się powszechnie dostępny. Dzięki wideo które mogą potwierdzać oczerniające zarzuty, lub wspierać autorytetem niczego nie świadomych znanych osobistości nieprawdziwe i szkodliwe teorie, których oni sami nigdy by nie wsparli, te zjawiska będą jeszcze poważniejsze. W przypadku prób podważenia czyjejś wiarygodności lub zniesławienia go, takie działania są w dodatku szkodliwe nawet jeśli zostanie wykryte i publicznie ogłoszone, że dany materiał był fałszywy. Jak to się mówi, niesmak pozostał. Bardzo dużą częścią wykorzystania tych technologii jest też przemysł pornograficzny, przez który wizerunek wielu kobiet jest narażony na poważne naruszenia. Jednak mimo szybkiego rozwoju technik obróbki nagrań, na szczęście nadal nie są one idealne. Obecnie najtrudniejsze do wykrycia są przypadki, gdzie nagrywany jest aktor, którego głos i intonacja przypominają osobę “deepfake’owaną” a AI jedynie dopasowuje jego usta do docelowej twarzy i obrabia odpowiednio głos. 

W wielu przypadkach da się rozpoznać deepfake bez większych problemów. Jest to umiejętność dostępna nie tylko ludziom, ale też odpowiednio trenowanym sztucznym sieciom neuronowym. AI wyszkolone by zwalczać AI. Przykładem firmy zajmującej się cyberbezpieczeństwem która proponuje usługi deepfake detection jest DeepTrace. Dzięki programom opierającym się na sztucznej inteligencji może automatycznie wykrywać zmodyfikowane treści, jednak oczywiście skuteczność nie jest stuprocentowa. Niedawne badania wykazały że najlepsze modele wykrywające mają podobną sprawność jak uśrednione wyniki “tłumu” co oznacza wyniki osiągane przez wyciągnięcie średniej z dużej grupy zwyczajnych, niewyszkolonych do tego celu ludzi, którzy oceniają z jaką pewnością dany filmik jest deepfake’iem. Jednak oprogramowanie ma duże szanse na rozwój, i w przyszłości może bez problemu wyprzedzić ludzi. Na razie jednak najlepsze osiągi wykazuje współpraca człowieka z maszyną. Wyniki ludzi wspierających się technologią osiągają 80 procentową skuteczność. 

Niestety tak jak technologia wykrywająca będzie się rozwijać, tak samo będą rozwijać się technologie manipulowania, więc w świecie postprawdy coraz trudniej będzie zaufać źródłom w internecie i gdziekolwiek, gdzie nie mamy bezpośredniego dostępu do faktów. Kiedy produkowane wideo stanie się już nie do odróżnienia dla zwykłego człowieka, świat czeka radykalna zmiana. Znacznie ważniejsza stanie się możliwość weryfikacji czy dany materiał pochodzi bezpośrednio od osoby w nim ukazanej. Samo oznaczanie fałszywych doniesień będzie ważne, ale w ten sposób nie uniknie się szkód które deepfake’i mogą wyrządzić. Bardzo ważną częścią będzie odpowiednie przygotowanie społeczeństwa do niebezpieczeństw jakie niosą ze sobą zaawansowana dezinformacja i emocjonalne reagowanie na niesprawdzone materiały. Ponieważ wykrywanie będzie tak ciężkie, dostępność do sprawdzonych źródeł stanie się nieoceniona. Jedną z obecnie rozwijanych technologii które mogłyby okazać się przydatne do tego celu jest nft. Jako niepodrabialny token mógłby pomóc w weryfikowaniu oryginalności. Z obecną polaryzacją społeczeństw, media oferujące sprawdzone i niezmanipulowane materiały staną się niestety rzadkością a docieranie do prawdy będzie wymagało wysiłku. Będzie to tym bardziej poważny problem, ponieważ duża część ludzi już teraz nie jest skłonna sprawdzać informacji które otrzymują i jeśli media którym ufają zaczną wykorzystywać zmanipulowane przekazy, będą oni żyli w alternatywnej rzeczywistości. Zagrożenie płynące z fake news’ów wraz z rozwojem technologii będzie tylko coraz poważniejsze. Ludzie wierzą nawet w trzecioosobowe zapewnienia jeśli zgadzają się z ich światopoglądem, a co dopiero kiedy ujrzą czyjąś zmodyfikowaną wypowiedź na własne oczy. Bardzo ciężko będzie powstrzymać negatywne skutki takich manipulacji jeśli społeczeństwo nie zostanie odpowiednio wyedukowane i przygotowane, a niestety nie jest to w interesie wielu wpływowych osób, które wolą zachować nasz sposób podejmowania decyzji na poziomie emocji i nieprzemyślanych odruchów.  

Przyszłość nie musi jednak być tak mroczna. Wraz ze wzrostem zagrożenia, coraz więcej ludzi będzie chciało aktywnie walczyć z problemem. Być może dzięki temu trend odwróci się i mimo że techniki będą wyrafinowane i ciężkie do wykrycia, ludzkość wynajdzie dobry sposób na poradzenie sobie z nimi, i dostęp do sprawdzonych, rzetelnych informacji stanie się wręcz łatwiejszy niż obecnie. W końcu mimo tego co mogłoby się wydawać, patrząc na najłatwiej rozprzestrzeniające się przykłady skrajnej głupoty, ogólnoświatowy poziom wyedukowania społeczeństw nigdy nie był wyższy. Nigdy nie możemy być pewni przyszłości, ale jeśli stale będą podejmowane działania na rzecz walki z dezinformacją, wydaje mi się że nadal mamy szansę. 

 

Źródła:

Dąbrowska, I. (2020). Deepfake – nowy wymiar internetowej manipulacji. Zarządzanie Mediami, 2020(Tom 8, Numer 2), 89–101. https://doi.org/10.4467/23540214ZM.20.024.11803 

Deepfakes, explained. (n.d.). MIT Sloan. Retrieved 6 June 2022, from https://mitsloan.mit.edu/ideas-made-to-matter/deepfakes-explained 

Deepfakes may use new technology, but they’re based on an old idea. (2022, March 4). Popular Science. https://www.popsci.com/technology/deepfakes-history-museum-exhibit/ 

published, J. F. C. from B. T. (2022, April 13). 14 deepfake examples that terrified and amused the internet. Creative Bloq. https://www.creativebloq.com/features/deepfake-examples 

Song, D. (2019, September 25). A Short History of Deepfakes. Medium. https://medium.com/@songda/a-short-history-of-deepfakes-604ac7be6016 

Video Rewrite, Origins of Deepfakes: History of Information. (n.d.). Retrieved 6 June 2022, from https://www.historyofinformation.com/detail.php?id=4792 


Jeden komentarz

  1. Bardzo ciekawy post!
    Ja chciałabym podać przykład użycia DeeFakeów z troszkę bardziej pozytywnej strony. Natknęłam się ostatnio na stronę tworzącą deepfake’owe filmiki z życzeniami na urodziny (https://www.bestwishes.ai/) i wydawało mi się to bardzo ciekawe i poruszające, że ktoś może dostać takie życzenia. Zwłaszcza jak jest fanem jakiegoś celebryty. Wydaje się to dość niegroźne wykorzystanie tej technologii, ale oczywiście trzeba być świadomym, że nie tylko tak się jej używa. Mam nadzieje, że algorytmy rozpoznające deep fake będą coraz lepsze

Leave a comment

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *

Najnowsze komentarze