Fundacja Orange
Pomiń nawigację

Strefa wiedzy

Deepfake – realne zagrożenie naszych czasów

W ostatnich latach deepfaki zalewają media społecznościowe. Fałszywe nagrania stały się coraz bardziej zbliżone do oryginału i tym samym niemal niemożliwe do odróżnienia. Zdarza się, że osoba, którą widzimy w internecie, tak naprawdę nie istnieje, a wypowiedź kogoś znanego jest spreparowanym materiałem. Technologia deepfake stwarza nowe zagrożenie w sieci, które dorośli w niektórych przypadkach są w stanie rozpoznać. Ale dzieci, szczególnie rozpoczynające cyfrowe przygody, mogą mieć z tym problem. Warto uczyć je, jak sobie z tym radzić.

Czym jest deepfake?

Wraz z rozwojem sztucznej inteligencji coraz częściej spotkać można w sieci treści przygotowane w oparciu o technologię  deepfake. Są to spreparowane materiały wideo i audio, często wykorzystujące wizerunki i głosy osób publicznie znanych, nawet polityków i polityczek, i przedstawiające je w sytuacjach i wypowiedziach, które faktycznie nie miały miejsca. Manipulacja polega na modyfikacji ruchu twarzy, głosu, a nawet charakterystycznych cech czy gestów konkretnej osoby. Dzieje się to przy pomocy rozmaitych programów i systemów wykorzystujących AI.

Często deepfaki bazują na autentycznych nagraniach, które następnie są przerabiane. Niebezpieczeństwo polega na tym, że takie zmontowane, fałszywe materiały są niemal niemożliwe do odróżnienia od tych prawdziwych. Co więcej, udostępnione w mediach społecznościowych, rozprzestrzeniają się błyskawicznie. I póki co, możliwe jest to bez oznaczenia czy informacji, że jest to materiał spreparowany.

Jakie są rodzaje deepfake'ów

Wyróżnić można kilka rodzajów deepfake’ów. Jednym z nich jest odtwarzanie mimiki oraz ruchu ust i oczu osoby przedstawionej na zdjęciu. Tę technikę wykorzystuje się m.in. w branży reklamowej i filmowej. Inną metodą jest zmiana twarzy osób na zdjęciach lub nagraniach wideo. Podmieniana jest wyłącznie twarz, podczas gdy reszta ciała pozostaje taka, jak w oryginale. Taka metoda sprawdza się szczególnie w produkcji np. wtedy, gdy mamy do czynienia ze sceną odgrywaną przez dublera. Co więcej, powszechne staje się łączenie dwóch lub kilku twarzy w jedną. Ta metoda pozwala np. na „sprawdzenie” wyglądu potencjalnego dziecka dwóch osób. Innym rodzajem deepfake’ów jest modyfikacja atrybutów twarzy, takich jak kolor i kształt oczu, nosa, ust czy włosów. Takie manipulowanie wizerunkiem sprawdza się w filmach i reklamach, kiedy niezbędna jest drobna poprawka w wyglądzie aktora lub aktorki. Ponadto często możemy się spotkać ze zdjęciem osoby, która w rzeczywistości nie istnieje, a wizualizacja została stworzona w całości przez system sztucznej inteligencji.

Do tego dochodzi modulacja głosu. Przy pomocy różnych narzędzi AI można stworzyć nagranie z wykorzystaniem czyjegoś głosu, ale podkładając dowolną treść wypowiedzi. Wszystko to tworzy wrażenie, że ktoś faktycznie powiedział dane słowa.

Ofiary deepfake’ów

Deepfaki znajdują zastosowanie m.in. w branży filmowej, ale służą też niestety do szerzenia dezinformacji i fake newsów. Często mają na celu zdezorientowanie i nasilenie niepokojów społecznych, a także obniżenie zaufania do konkretnych osób. Przykładem jest sytuacja z 2022 roku, kiedy w sieci pojawiło się nagranie z wizerunkiem prezydenta Wołodymyra Zełenskiego wzywającego ukraińskich żołnierzy do złożenia broni i zakończenia walk. Był to oczywisty deepfake udostępniony w celu wywołania zamieszania.

Zdarza się, że deepfake służy sprawcom do przygotowania materiałów foto i wideo o charakterze pornograficznym. Na początku 2024 roku na jednym z portali społecznościowych pojawiły się spreparowane rozbierane zdjęcia znanej amerykańskiej piosenkarki Taylor Swift. Warto jednak pamiętać, że takie sytuacje mogą przydarzyć się każdemu. Do wygenerowania kompromitujących materiałów wystarczy bowiem jedynie zdjęcie danej osoby, a takie często łatwo pobrać z sieci. Ofiara bywa wybierana celowo, po to, aby ją skompromitować, zastraszyć lub zaszantażować.

W 2023 roku w mediach zawrzało na temat tego, jak zdjęcia 28 hiszpańskich nastolatek pobrane z mediów społecznościowych posłużyły do stworzenia ich roznegliżowanych deepfake’ów (tzw. deepnude). Fotografie przedstawiające twarze nastolatek z dorobionymi do nich obrazami nagich ciał trafiły do internetu bez ich wiedzy i zgody. Podobna sytuacja miała miejsce w 2024 w Bydgoszczy, co pokazuje, że na przykre, a nawet tragiczne konsekwencje narażone są też dzieci i młodzież, których wizerunki dostępne są w sieci. Jest to jedno z ryzyk publikowania treści z ich udziałem online, o których piszemy w poradniku ”Wizerunek dziecka w internecie. Publikować czy nie”.

Deepfaki – jak je rozpoznawać?

Mimo że deepfake jest dziś trudny do odróżnienia od oryginału, istnieje kilka szczegółów, dzięki którym można rozpoznać fałszywe zdjęcia i nagrania . Przede wszystkim warto zwróć uwagę na zachowanie przedstawionej osoby. Powinny nas zaniepokoić ruchy ust, które nie są dopasowane do wypowiadanych słów, podejrzanie wyglądająca mimika czy nietypowe ruchy postaci. Często ludzie na spreparowanych filmach nie mrugają, a wzrok mają utkwiony w jednym punkcie. Zdarza się, że sztuczna inteligencja dodaje lub odejmuje danej osobie palce czy zęby. O ile twarz jest odwzorowywana całkiem dobrze, to technologia AI miewa jeszcze problemy z resztą ciała. Pomija detale w wyglądzie lub dodaje coś, co wygląda nienaturalnie. Przy weryfikacji podejrzanego materiału dobrze jest przyjrzeć się cieniom, które często znajdują się pod niewłaściwym kątem lub nie ma ich wcale. Nie mniej, wiadomo, że technologia AI ciągle się doskonali i w wielu przypadkach materiały przygotowane w oparciu o nią już nie są możliwe do rozpoznania jako fałszywe.

Oprócz dokładnego przyglądania się materiałom foto i wideo, dobrą praktyką jest zatem weryfikacja źródeł. Jeśli nie wiadomo, kto udostępnił nagranie i kto jest jego autorem, lepiej traktować je z dużą rezerwą.

Warto uświadamiać dzieci

W pracy z dziećmi i młodzieżą warto poruszyć temat deepfaków. To właśnie oni są grupą, która nie zna świata bez internetu. Na pewno część z nich jest świadoma manipulacji tego typu, ale mimo tego dobrym pomysłem będzie przedyskutowanie tego tematu na lekcjach. Wspólnie możecie zastanowić się, jak rozpoznać deepfake, omówić korzyści i ryzyka rozpowszechniania się tego typu treści w internecie.  Możecie wspólnie przeanalizować kilka materiałów tego typu (oczywiście niezawierających treści szkodliwych, może to być coś zabawnego).

Ważnym elementem edukacji w tym zakresie jest poruszenie z uczniami i uczennicami szerszego kontekstu - problemu dezinformacji oraz tego, jak się przed nią chronić.

Wyczulanie dzieci na ten problem nie musi to być osobno zorganizowaną lekcją czy dużym projektem. Wystarczy nawet codzienna, zwykła rozmowa, w której podzielisz się z młodzieżą jakimś swoim doświadczeniem, opowiesz, jak trafiłeś(aś) na fake news czy deepfake, jak zweryfikowałeś(aś) źródło jego pochodzenia i odkryłeś(aś), czy to prawda. Ucz młodzież, że w żadnym wypadku nie należy powielać niesprawdzonych materiałów w sieci, w tym deepfake’ów, bo w ten sposób przyczynić się można szerzeniu dezinformacji i narazić kogoś na kłopoty, a nawet skalać swój własny wizerunek w sieci.

Krytyczne myślenie warto rozwijać już od najmłodszych lat. Już w klasach 1-3 na zajęciach w naszym programie MegaMisja dzieci uczą się, że w internecie obecne są i prawda i fałsz, wspólnie rozmyślają, czym różni się informacja od czyjejś opinii, informacja od reklamy i jak weryfikować źródła.  To baza i podstawa dalszych działań w tym zakresie. Warto też wspierać dziecięcą ciekawość, chęć odkrywania, doceniać zadawanie pytań, potrzebę dociekania informacji. To wszystko cechy, które odpowiednio pielęgnowane zaowocują, tworząc świadomych internautów, którzy nie nabiorą się na deepfake.