Czym jest deepfake i jakie zagrożenia niosą filmy stworzone przez sztuczną inteligencję?
Deepfake to filmy, które zostały sfałszowane przy użyciu sztucznej inteligencji i budzą coraz większe obawy rządów, organów ścigania i obywateli. Te fragmenty wideo mogą być bardzo przekonujące i pewnego dnia mogą sprawić, że przestaniemy ufać wszystkiemu, co widzimy. Czym dokładnie jest technologia deepfake i dlaczego jest tak niebezpieczna?
Spis treści
Co to jest deepfake?
Deepfake to technika tworzenia filmów oparta na sztucznej inteligencji (ang. AI – Artificial Intelligence). Technologia Deepfake może tworzyć przekonujące filmy przedstawiające ludzi, w tym polityków i celebrytów, którzy wydają się mówić i robić rzeczy, których tak naprawdę nigdy nie zrobili. Wykorzystuje ona algorytm uczenia maszynowego. Programy typu deepfake są stosunkowo łatwo dostępne i łatwe w użyciu, i mogą wkrótce odegrać ważną rolę w przemyśle filmowym.
Jakiś czas temu internet obiegła fala postów oraz artykułów na temat ostatniego odcinka „Świata według Kiepskich”. W odcinku pojawili się dwaj zmarli już aktorzy, a ich wizerunki zostały odtworzone właśnie przy pomocy technologii deepfake.
Historia deepfake’u
Techniki manipulacji obrazu znane były już w XIX w. Wtedy manualnie przerabiano zdjęcia, a w XX wieku zaczęto manipulować cyfrowymi nagraniami. Początkowo technologia deepfake była rozwijana przez naukowców, jednak później została przejęta przez amatorów w internetowej społeczności.
W 2017 roku użytkownik Reddita o nazwie „deepfake” udostępnił filmy dla dorosłych, w których podmienił twarze aktorów na wizerunki popularnych gwiazd kina i estrady. Wykorzystał on technologię open-source AI. Od tamtej pory zainteresowanie techniką deepfake diametralnie wzrosło, a samo zjawisko przejęło nazwę użytkownika.
Jak wspomnieliśmy wcześniej, deepfake jest oparty na algorytmach sztucznej inteligencji (AI), które wykorzystują proces zwany głębokim uczeniem (ang. deep learning) do przeglądania i odtwarzania multimediów. W niektórych przypadkach te systemy wykorzystują generatywne sieci przeciwstawne (GAN) – zasadniczo sieć sztucznej inteligencji jest podzielona na dwa rywalizujące komponenty, które konkurują ze sobą, aby uczyć się i ulepszać swoje wyniki.
Deepfake zwykle obejmuje nagranie wideo osoby, zwykle aktora. To tylko model, na którego później zostanie nałożona inna twarz. Następnie sztuczna inteligencja przegląda setki zdjęć różnych osób i realistycznie odtwarza ich cechy. Obraz nowej twarzy jest następnie nakładany na ruchy aktora, synchronizując mimikę i ruch ust.
Choć sztuczna inteligencja deepfake wciąż jest w fazie rozwoju, jest już na bardzo zaawansowanym etapie – może tworzyć realistycznie wyglądające filmy przy minimalnym udziale człowieka. Popularnymi aplikacjami opartymi na sztucznej inteligencji są np. Lensa AI, Reface, MyHeritage czy Deepfakes web.
Co mają na celu filmy deepfake?
Deepfake może mieć różne zastosowania – od odmładzania hollywoodzkich aktorów po prowadzenie niebezpiecznych, politycznych wojen propagandowych.
Technologia Deepfake może tworzyć przekonujące filmy przedstawiające ludzi, w tym polityków i celebrytów, którzy wydają się mówić i robić rzeczy, których tak naprawdę nigdy nie zrobili. Programy typu deepfake są stosunkowo łatwo dostępne i łatwe w użyciu i mogą wkrótce odegrać ważną rolę w przemyśle filmowym.
Systemy sztucznej inteligencji mogą również odtwarzać dźwięk określonych ludzkich głosów, a naprawdę zaawansowany deepfake staje się potężnym – i potencjalnie niebezpiecznym – narzędziem.
Kto może tworzyć filmy deepfake?
Każdy może tworzyć filmy i obrazy deepfake, korzystając z różnych bezpłatnych aplikacji, takich jak Wombo i FaceApp. Są to proste programy, które nie dają zbyt przekonujących rezultatów, ale to tylko wierzchołek góry lodowej.
Niektóre deepfake’i są niezwykle realistyczne, ale ich stworzenie zwykle wymaga eksperckiej wiedzy oraz sporych nakładów finansowych. Wraz z rozwojem technologii może to ulec zmianie.
Czy „deepfejki” są legalne?
Deepfake zyskał złą reputację przez sianie dezinformacji, fałszywych wiadomości i treści dla dorosłych. Sam w sobie nie jest jednak nielegalny.
Istnieje sporo zalet deepfake’u – jest niezwykle pomocny w tworzeniu efektów filmowych. Niestety, zagrożeniem, jakie niesie za sobą sztuczna inteligencja, może być tworzenie filmów i obrazów pornograficznych, wykorzystujących podobizny celebrytek i osób publicznych.
Choć RODO chroni nasze dane osobowe, nie zabrania tworzenia deepfake’ów do własnych celów.
Jak rozpoznać deepfake
Wykrycie deepfake’ów może być trudne. Choć niektóre z nich są ewidentnie podrobione, co widać po mimice twarzy dającej surrealistyczny efekt, to te bardziej zaawansowane mogą przyprawiać o dreszcze.
Kilka czynników może pomóc w rozpoznaniu sfałszowanego wideo. Jeśli film zawiera twarz, skup się na niej i poszukaj tych oznak:
Gładkie lub rozmyte kontury
Punkty łączenia, w których nakładka deepfake styka się z twarzą na nagraniu, mogą czasem wydawać się dziwnie gładkie i pozbawione tekstury. Nawet na bardziej zaawansowych filmach nagłe ruchy głowy lub zmiany oświetlenia mogą ujawnić rozmyte kontury twarzy.
Niedokładne rysy twarzy
Jeśli film przedstawia osobę publiczną, na przykład polityka, możesz poszukać jego prawdziwych zdjęć lub nagrań dla porównania. Poza głównymi rysami twarzy skup się na elementach, które mogły nie zostać zmienione: ręce, włosy, budowa ciała i inne szczegóły, które nie są zsynchronizowane między sfałszowanym filmem a starszymi, bardziej wiarygodnymi źródłami wizualnymi.
Nienaturalne ruchy
Przynajmniej na razie deepfake jest znacznie bardziej przekonujący, gdy obiekt nie wykonuje zbyt wielu ruchów. Jeśli ciało i głowa obiektu wydają się podejrzanie sztywne, może to oznaczać, że twórcy filmu próbują ułatwić głębokiemu uczeniu się sztucznej inteligencji odwzorowanie obrazu na twarzy osoby bez konieczności śledzenia zbyt wielu ruchów.
Nieprzekonujący głos
Technologia deepfake rozwija się w zastraszającym tempie, ale zdolność komputerów do tworzenia symulacji dźwiękowych osiąga znacznie gorsze wyniki niż tworzenie obrazów i filmów w technologii deepfake.
Twórca deepfake’ów musi wybrać jedną z dwóch opcji, jeśli chce, aby bohater filmu przemówił – użyć głosu wygenerowanego przez sztuczną inteligencję, albo skorzystać z usług lektora, który odtworzy materiał źródłowy. Możesz porównać głos z dźwiękiem przemawiającego celebryty lub polityka, a na pewno zauważysz pewne różnice.
Czy technologia deepfake może stanowić zagrożenie?
Technologia deepfake stwarza szereg bardzo realnych zagrożeń dla każdego z nas. Przekonujące fałszywe filmy mogą być niezwykle szkodliwe, jeśli są tworzone jako forma zemsty i udostępniane online, dlatego wiele krajów zaczyna wprowadzać przepisy regulujące tę działalność.
Deepfake stwarza też inne zagrożenia.
Fałszywe informacje i propaganda
Przekonujący film deepfake może zostać wykorzystany jako propaganda do oczerniania przeciwników politycznych i rywalizujących ze sobą rządów. W 2022 roku, krótko po rosyjskiej inwazji na Ukrainę, w sieci pojawiły się filmy deepfake pokazujące kapitulację ukraińskiego prezydenta.
Chociaż ten film został ujawniony jako fałszywy, łatwo sobie wyobrazić, jak szkodliwa może być ta technologia, kiedy stanie się naprawdę zaawansowana. Deepfake może zostać wykorzystany do oczernienia przeciwnika politycznego i wpłynięcia na wyborców.
Jeśli demaskowanie fałszywych filmów stanie się niemożliwe, skorumpowane media będą mogły szerzyć fałszywe wiadomości i podsycać nieufność w stosunku do mediów głównego nurtu.
Scam i socjotechniki
Technologia deepfake może być wykorzystywana do kradzieży danych osobowych czy nawet pieniędzy za pomocą ataków phishingowych. Oto prosty przykład jednoczesnego wykorzystania socjotechniki oraz deepfake’u:
Kiedy dostajesz wiadomość tekstową od znajomego na Facebooku, który twierdzi, że utknął za granicą i szybko potrzebuje przelewu, łatwo się domyślić, że coś jest nie tak. Możesz do niego zadzwonić lub wysłać SMS-a w innej aplikacji i sprawdzić, czy jego konto na Facebooku zostało zhakowane.
Teraz wyobraź sobie ten sam scenariusz, ale zamiast wiadomości dostajesz całkowicie przekonujące nagranie, przedstawiające bliską Ci osobę. Dźwięk i wideo wydają się autentyczne – masz teraz wizualny dowód na to, że naprawdę utknął na lotnisku bez pieniędzy na bilet powrotny. Wiele osób wysłałoby przelew od razu, nie czując potrzeby dalszych wyjaśnień – co jeśli to deepfake?
Przyszłość deepfake’ów
Wraz z rozwojem technologii wykrywanie deepfake’ów będzie coraz trudniejsze. Jeśli dojdziemy do punktu, w którym każdy, kto ma komputer i podstawową wiedzę na temat oprogramowania VFX, może nagrać film, na którym prezydent mówi coś oburzającego, to możemy mieć kłopoty.
Już teraz trudno wykryć deepfake’i, ale wkrótce wykrycie ich może stać się niemożliwe. Chociaż wykorzystanie tej technologii w najnowszych filmach i programach telewizyjnych pomaga zwiększyć publiczną świadomość, wiele osób nadal może zostać wprowadzonych w błąd przez przekonujące fałszywe wideo.
Prostą radą, którą możesz wykorzystać już dziś, aby przeciwdziałać zagrożeniom stwarzanym przez oszustów wykorzystujących deepfake, jest ograniczenie liczby zdjęć publikowanych online. Tworzenie przekonującego filmu generowanego przez sztuczną inteligencję opiera się na dostępie do zdjęć i nagrań przedstawiających obiekt, który próbuje odtworzyć. Sugerujemy zachowanie prywatności profili w mediach społecznościowych i unikanie regularnego publikowania zdjęć swojej twarzy.
Warto też wziąć pod uwagę bezpieczeństwo dzieci w sieci i uświadamiać je o rosnącym ryzyku dot. fałszywych informacji udostępnianych w mediach społecznościowych.