Fake news
Fake news to fałszywa, nieprawdziwa lub sztucznie stworzona informacja, której celem jest wywołanie dezinformacji lub dokonanie oszustwa.
Fake newsy rozpowszechniane są głównie przez serwisy informacyjne, media elektroniczne oraz media społecznościowe. Przy ich tworzeniu autorzy często stosują chwytliwe nagłówki, by zwrócić uwagę jak największej liczby odbiorców.
Określenie „fake news” odnosi się do faktów, danych – ale nie do opinii. Opinia, nawet jeśli oceniamy ją jako chybioną czy nieadekwatną, to autorska interpretacja faktów, do której autor ma prawo. Z fake newsem mamy do czynienia, gdy fakty lub dane są nieprawdziwe.
Fake newsy często pojawiają się na portalach informacyjnych, które podszywają się pod znane i wiarygodne media, lub na anonimowych portalach, na których nie ma żadnych informacji o tym, kto je tworzy, nie ma też nazwisk dziennikarzy ani adresu redakcji.
Fake newsem może być również nieprawdziwe zdjęcie – przerobione w programie graficznym lub wyjęte z kontekstu (semantycznego, czasowego) i opublikowane z nieprawdziwą informacją.
CASE: Radioaktywna chmura znad Czarnobyla
W 2020 roku w strefie wokół dawnej elektrowni jądrowej w Czarnobylu doszło do pożarów lasów. W mediach społecznościowych natychmiast pojawiła się informacja, że powstała w wyniku tych pożarów radioaktywna chmura przemieszcza się znad Ukrainy i Białorusi w kierunku Polski, i zagraża Polakom. Anonimowe konto opublikowano nawet w sieci krótki film, który miał pokazywać sposób przemieszczania się tej chmury. Wzbudziło to niepokój wielu Polaków, którzy rozpowszechniali wiadomość często doradzając innym, by natychmiast wypili tzw. płyn Lugola.
Jednak nagranie obrazowało jedynie symulację przemieszczania się chmury (a nie jej rzeczywisty ruch). Takie symulacje były badawczo przygotowywane przez ukraińskich naukowców, ale nie odnosiły się do żadnej konkretnej sytuacji ani do konkretnego zagrożenia. Film sugerujący, iż chodzi o istniejącą chmurę, która właśnie przesuwa się nad Polskę, był więc fake newsem. Realne zagrożenie nie wynikało z pożarów lasów wokół Czarnobyla, lecz z sugestii spożycia płynu Lugola – picie tego preparatu bez wskazań lekarskich może być groźne dla zdrowia.
Trolle internetowe
Choć narzędzi manipulacji w internecie jest wiele, jednym z najczęściej wykorzystywanych jest aktywność internetowych trolli. Troll internetowy to ktoś, kto publikuje wiadomości podburzające, obraźliwe, będące atakiem personalnym, często niezwiązane z głównym tematem dyskusji. Z reguły działa anonimowo, jego konto nie zawiera więc prawdziwego imienia i nazwiska, brakuje również zdjęcia profilowego, które umożliwia identyfikację.
Celem trolla jest najczęściej wywołanie negatywnych reakcji emocjonalnych lub zakłócenie dyskusji. Troll często zachowuje się agresywnie, ponieważ im większą kłótnię wywoła, im więcej osób w niej uczestniczy, tym większą satysfakcję odczuwa troll.
Część trolli to zwyczajni internauci, którzy w takim aspołecznym zachowaniu znajdują przyjemność. Ich celem jest skłócanie, obrażanie, dzielenie ludzi i wprowadzanie chaosu. Aby to osiągnąć, potrafią oszukiwać, manipulować i kłamać.
Trolle rosyjskie
Trolle internetowe często kojarzą się z polityczną aktywnością Rosji w sieci – rzeczywiście taka istnieje, choć nie każdy aspołecznie zachowujący się użytkownik internetu to prawdziwy rosyjski troll.
Trolle rosyjskich agencji, działających w ramach tzw. wojny informacyjnej, pracują dla pieniędzy. Rozpowszechnianie fałszywych informacji w sieci jest ich pracą.
Szczegółowy sposób działania najbardziej znanej rosyjskiej fabryki trolli Internet Research Agency (IRA) opisał kilka lat temu rosyjski magazyn RBC, któremu udało się porozmawiać z jej pracownikami.
Głównym zadaniem rosyjskich trolli było tworzenie fałszywych kont działających w mediach społecznościowych i na forach internetowych, zamieszczanie komentarzy, linkowanie propagandowych treści, rozpowszechnianie memów i grafik. Pracowali na zmiany, ich aktywność była skoordynowana ze strefami czasowymi konkretnych państw. Najbardziej interesowały ich strony i grupy dotyczące: imigracji, religii, ras, niektórych ruchów społecznych, czasem – określonych regionów geograficznych.
W Polsce rosyjskie trolle są aktywne, choć w inny sposób niż się powszechnie wydaje. Użytkownicy sieci chętnie dziś sięgają po frazę „ruski troll”, obdarzając nią każdego, kto ma odmienne poglądy czy popełnia proste błędy językowe. Tymczasem trolle zatrudniane przez prokremlowską propagandę są coraz bardziej profesjonalne i mają zazwyczaj niewiele problemów językowych.
Dziś rosyjskie trolle nastawiają się na promowanie istniejących narracji, które pasują do ich celów. Częściej angażują się w komentowanie istniejących postów, włączają się do dyskusji, a nie prezentują własną propagandę (co wcześniej było normą). Pracują nad budowaniem szerokich grup oraz biorą udział w dyskusji publicznej na najbardziej emocjonujące społeczeństwo tematy, by narzucić własną interpretację. Chodzi o takie wpływanie na Polaków, by narrację realizującą rosyjskie cele uznali oni za własną i zidentyfikowali się z nią.
Rosyjskie agencje trolli wykorzystują tematy już istniejące w danym społeczeństwie. Dostarczają argumentów, które pogłębiają istniejące podziały i generują chaos – lecz najczęściej nie wymyślają zupełnie nowego przekazu, tylko wykorzystują tematy i emocje, które przynajmniej tlą się w danej wspólnocie.
Głównym zadaniem rosyjskich trolli było tworzenie fałszywych kont działających w mediach społecznościowych i na forach internetowych, zamieszczanie komentarzy, linkowanie propagandowych treści, rozpowszechnianie memów i grafik. Pracowali na zmiany, ich aktywność była skoordynowana ze strefami czasowymi konkretnych państw. Najbardziej interesowały ich strony i grupy dotyczące: imigracji, religii, ras, niektórych ruchów społecznych, czasem – określonych regionów geograficznych.
W Polsce rosyjskie trolle są aktywne, choć w inny sposób niż się powszechnie wydaje. Użytkownicy sieci chętnie dziś sięgają po frazę „ruski troll”, obdarzając nią każdego, kto ma odmienne poglądy czy popełnia proste błędy językowe. Tymczasem trolle zatrudniane przez prokremlowską propagandę są coraz bardziej profesjonalne i mają zazwyczaj niewiele problemów językowych.
Dziś rosyjskie trolle nastawiają się na promowanie istniejących narracji, które pasują do ich celów. Częściej angażują się w komentowanie istniejących postów, włączają się do dyskusji, a nie prezentują własną propagandę (co wcześniej było normą). Pracują nad budowaniem szerokich grup oraz biorą udział w dyskusji publicznej na najbardziej emocjonujące społeczeństwo tematy, by narzucić własną interpretację. Chodzi o takie wpływanie na Polaków, by narrację realizującą rosyjskie cele uznali oni za własną i zidentyfikowali się z nią.
Rosyjskie agencje trolli wykorzystują tematy już istniejące w danym społeczeństwie. Dostarczają argumentów, które pogłębiają istniejące podziały i generują chaos – lecz najczęściej nie wymyślają zupełnie nowego przekazu, tylko wykorzystują tematy i emocje, które przynajmniej tlą się w danej wspólnocie.
Jak się bronić przed trollami:
Trudniej obronić się przed trollami stosującymi bardziej wyrafinowaną manipulację, których celem jest rozpowszechnienie treści tak, by została uznana za wiarygodną. Tutaj zadziałają zasady ochrony przed fake newsami:
Boty i cyborgi
Kolejnym narzędziem dezinformacji są tzw. boty – zautomatyzowane konta, naśladujące zachowania normalnych użytkowników mediów społecznościowych. Boty to także oprogramowanie automatyzujące określone czynności, używane na wielu stronach internetowych, m.in. do obsługi klienta online czy publikacji treści zgodnie z określoną procedurą. Jednak kiedy mówimy „boty” w odniesieniu do dezinformacji, mamy na myśli zautomatyzowane konta, które w mediach społecznościowych realizują zapisane w programie czynności, takie jak:
Boty, wykorzystujące manipulację do celów politycznych lub komercyjnych, są szkodliwe. Tworzą fałszywy obraz sieciowej rzeczywistości. Patrząc na wpis „podbity” przez boty, użytkownicy mają wrażenie, iż jest on ważny, prawdziwy, popularny – ponieważ jest pod nim wiele reakcji. Zwracają na niego uwagę, często podają go dalej, dając treści dodatkowy zasięg.
Reakcje botów fałszywie wpływają też na algorytmy platform społecznościowych, które reagują na wysokie (pod względem ilościowym) zainteresowanie wpisem i zaczynają wyświetlać go większej liczbie użytkowników. Mamy wtedy do czynienia ze zjawiskiem kuli śnieżnej – wpis staje się wiralem, ale wyłącznie dzięki manipulacji reakcjami.
Istnieją również konta hybrydowe, które łączą w sobie cechy bota i aktywność prawdziwego, „ludzkiego” użytkownika. Automatyzacja działa na nich tylko przez określony czas i jest uzupełniana normalną aktywnością człowieka, albo automatycznie realizowane są tylko niektóre czynności, np. podawanie dalej wpisów. Takie hybrydowe konta nazywane są CYBORGAMI.
UWAGA! Jeśli jakieś konto narusza regulamin platformy społecznościowej: rozsiewa nieprawdziwe informacje, obraża, nęka, jego wpisy są przemocowe lub rasistowskie – warto zgłosić je do administracji platformy społecznościowej, aby je sprawdziła. To proste, wymaga tylko kilku kliknięć.
Spróbuj samodzielnie zidentyfikować konto botowe w sieci.
Jego cechy charakterystyczne to:
UWAGA! Nie wszystkie te cechy muszą występować jednocześnie, boty bardziej zaawansowane mogą na przykład odpowiadać na pytania lub mieć świetnie przygotowany profil użytkownika. Ale kiedy znajdziecie konto, które ma większość wymienionych cech, możecie przynajmniej podejrzewać, że macie do czynienia z botem.
Twórcy botów często tworzą wiele kont z podobnymi nazwami użytkowników, aby po zablokowaniu automatycznego konta przez platformę społecznościową natychmiast przenieść aktywność na kolejne konto.
Deepfake
To nowe zagrożenie, które jeszcze nie jest powszechnie znane, ale niestety – prędzej czy później – zostanie rozpowszechnione i wtedy stanie się bardzo poważnym problemem.
Określenie „deepfake” pochodzi od dwóch angielskich zwrotów: „deep learning” (głębokie uczenie) oraz „fake” (fałsz). Deepfake to taka obróbka dźwięku i obrazu, najczęściej w materiałach video, która ma na celu stworzenie fałszywej ścieżki dźwiękowej i dopasowanego do niej obrazu, za pomocą sztucznej inteligencji. Pozwala tworzyć zmanipulowane filmy, które są dziś prawie niemożliwe do odróżnienia od tych, które zostały zrealizowane w tradycyjny sposób i są autentyczne.
Cechy deepfake`ów:
W efekcie dostajemy film, na którym na przykład znany polityk mówi coś, czego w rzeczywistości nigdy nie powiedział – jednak patrząc na nagranie widzimy tego właśnie polityka, który mówi takie słowa!
Przed erą deepfake`ów materiały video były jednymi z najbardziej wiarygodnych – trudno było je zmanipulować tak, by podłożyć komuś fałszywą wypowiedź, dopasowaną do mimiki twarzy. W deepfake`ach to możliwe: sztuczna inteligencja dopasowuje ruchy twarzy osoby do nowej ścieżki dźwiękowej.
Niestety, nie ma obecnie powszechnie dostępnych narzędzi, które umożliwiałyby wykrycie deepfake`a.
Tworzenie fałszywych person
Tworzenie fałszywych person, czyli nieistniejących postaci, które w sieci mają rozpowszechniać określone treści, to zjawisko częstsze niż można przypuszczać. Chodzi tu nie o anonimowe konta, lecz o personę, która ma sprawiać wrażenie autentycznego człowieka, uznawanego za wiarygodne źródło informacji.
W dezinformacji rosyjskiej ten sposób wykorzystywany jest często do tworzenia fałszywych dziennikarzy lub blogerów, czasami także ekspertów.
CASE: Niezależny Dziennik Polityczny
Przykładem tworzenia fałszywych person może być polskojęzyczny portal Niezależny Dziennik Polityczny. Według oficjalnych informacji na portalu, od początku jego funkcjonowania wśród osób tworzących zespół redakcyjny znajdują się: Adam Kamiński jako redaktor prowadzący oraz dziennikarz Wojciech Brozek. Mają swoje konta w mediach społecznościowych. Jednak po ich bliższym sprawdzeniu okazało się, że:
Mamy więc niby istniejących dziennikarzy, znanych z nazwiska, mamy ich zdjęcia – tyle że wszystko jest nieprawdziwe. Takie fałszywe persony służą do uwiarygodnienia portalu i przekazywanych przez niego treści.
Tworzenie teorii spiskowych
Teoria spiskowa to specyficzny rodzaj narracji, który ma służyć wyjaśnieniu jakiegoś zdarzenia, sytuacji czy zjawiska, w opozycji do powszechnie uznawanej, oficjalnej wersji. Opiera się na przekonaniu (nie zawsze wprost artykułowanym), że najważniejsze informacje dotyczące tematów publicznych są ukryte, za sprawą niejawnych działań osób lub grup, współpracujących ze sobą w celu osiągnięcia własnej korzyści, kosztem interesu zbiorowości. Szerzone w ten sposób przekonania są niepotwierdzone wiarygodnymi dowodami, choć przekazywać je mogą osoby uważane za autorytety.
W czasach kryzysowych (np. podczas pandemii czy w czasie wojny) rośnie popularność teorii spiskowych, ponieważ pozornie porządkują one świat według znanych odbiorcom zasad, a w efekcie niwelują poczucie niepewności, bardzo trudne do wytrzymania w dłuższym okresie. Choć bywają najbardziej nieprawdopodobne, przywracają (pozornie!) poczucie bezpieczeństwa – nawet wtedy, gdy dowodzą istnienia pedofilskiego spisku światowych przywódców przeciwko ludzkości czy przepowiadają wojnę z pozaziemską rasą reptilian.
Bezpieczeństwo odbiorcom przynosi świadomość, że zasady, rządzące opisywanym w ten sposób światem, są znane – dzięki temu łatwo określić, kto jest dobry, a kto zły, wróg jest widoczny i nazwany, a przyczyny kryzysu łatwo „zrozumieć” (przypisując je do znanych reguł). Teoria spiskowa zazwyczaj wydaje się logiczna, w rzeczywistości jednak ma wiele słabych punktów, które pozwalają wykazać jej nieprawdziwość. Wyznawcy takiej teorii pomijają jednak jej słabości i nie chcą angażować się w weryfikację podanych informacji.
Kupowanie sieciowych reakcji
Dziś każdy, kto chce manipulować odbiorcami za pomocą mediów społecznoścowych i może na ten cel przeznaczyć pieniądze, bez problemu zdobędzie łatwe w obsłudze narzędzia do manipulacji ilościowej. Dzięki nim wygra sondę w sieci, wygeneruje korzystne dla siebie komentarze pod postami czy zaskoczy konkurencję liczbą wyświetleń swego filmu – bo po prostu kupi sobie reakcje. Takie komercyjne reakcje są do kupienia na każdą platformę społecznościową, nawet na Spotify.
Manipulacja wynikami ilościowymi realizowana jest za pomocą kilku narzędzi:
Koszt wykupienia kilkunastu tysięcy lajków na Facebooku to zaledwie kilkaset złotych, podobnie wyglądają ceny innych reakcji. Choć kupowanie reakcji, a więc generowanie fałszywego ruchu w sieci, to działanie nieetyczne, obecnie nie jest nielegalne.
Dlaczego dezinformacja działa?
Mają na to wpływ przynajmniej dwa rodzaje czynników:
A. Czynniki psychologiczne
Odbiorcy częściej zwracają uwagę na wiadomości negatywne lub budzące podziw niż na pozytywne lub neutralne. Artykuły czy wpisy dementujące fake newsy rozchodzą się słabiej i budzą niższe zainteresowanie niż sam fake news – zazwyczaj są neutralne i nie wzbudzają tak silnych emocji.
Działają również zasady wpływu społecznego, a zwłaszcza:
Kiedy wierzymy w fałszywe informacje?
1. Kiedy działają silne emocje –– wówczas traci znaczenie prawda jako obiektywna wartość. Nowe, trudne, nieprzewidywalne sytuacje oraz silne emocje uruchamiają inne niż zazwyczaj potrzeby i inne mechanizmy reagowania ludzi, na przykład: destabilizacja i chaos wywołują potrzebę szybkiego uporządkowania rzeczywistości, strach, frustracja, niepewność wywołują potrzebę poczucia bezpieczeństwa i stabilności; powodują zamknięcie intelektualne, podejrzliwość, ale też rosnącą potrzebę przynależności do grupy.
W trudnych emocjonalnie sytuacjach okazuje się, że dezinformacja (w różnych formach) może mieć zdolność zaspokajania emocjonalnych potrzeb. Fake newsy i teorie spiskowe potrafią szybko niwelować niepewność, porządkując świat według rozpoznawalnego schematu – za ich pomocą da się bowiem „poukładać” emocje i nowe wiadomości zgodnie ze znanym wcześniej porządkiem. I odzyskać wewnętrzny spokój, który staje się wtedy wartością nadrzędną.
2.Niski poziom zaufania społecznego
Osoby z niskim poziomem zaufania społecznego częściej szukają informacji poza systemem, wierzą własnym autorytetom i własnym wynikom wyszukiwania w internetowych wyszukiwarkach , a nie zewnętrznym, uznanym przez system autorytetom czy instytucjom. Duże znaczenie ma też dla nich tzw. „marketing szeptany”, czyli informacje uzyskiwane od rodziny, przyjaciół, znajomych. Często ich opinie stają się ważniejsze niż dane prezentowane w oficjalnej debacie publicznej.
3.Silna polaryzacja społeczna
Polaryzacja to rozłam systemu wartości w ważnych dla danego społeczeństwa obszarach życia. Podstawowe wartości nie są podzielane przez większość społeczeństwa, konflikty są utrwalane. Silna polaryzacja niszczy instytucje demokratyczne, niszczy wspólnotę, tworząc zamiast niej dwie przeciwstawne grupy: „my” i „oni”. Na polaryzację często nakłada się radykalizacja poglądów. Polaryzacja w Polsce oscyluje na bardzo wysokim poziomie, co wskazuje na poważne różnice poglądowe, dotyczące wszystkich kluczowych kwestii politycznych.
Przy silnej polaryzacji społecznej często działają dwa znane błędy myślowe: efekt potwierdzenia i efekt grupy.
Efekt potwierdzenia to poszukiwanie informacji, które potwierdzają to, co już myślimy na dany temat. Każdą informację, która potwierdza nasze poglądy, uznajemy wówczas za prawdziwą. Odrzucamy natomiast te, które zmuszają do rewidowania poglądów. W takiej sytuacji oceniamy newsy nie pod kątem ich wiarygodności, lecz dopasowania do własnych opinii. |
Efekt grupy polega, w uproszczeniu, na faworyzowaniu własnej grupy i defaworyzowaniu grupy przeciwnej – grupy „innych”, „onych”. Wszystko, co robią „nasi”, jest dobre, kiedy nawet to samo zrobią „inni” – jest złe. „Inni” są też oskarżani o wszystkie negatywne działania, cechy etc. W takim układzie społecznym ludzie łatwo wierzą w dezinformację, która pozwala im zachować pozytywny obraz swojej grupy oraz defaworyzować grupę przeciwną. |
B. Algorytmy mediów społecznościowych
Algorytm to swego rodzaju przepis postępowania, który prowadzi do rozwiązania ustalonego problemu, przez wykonanie określonego ciągu czynności. Współcześnie algorytmy wykorzystywane są w różnych dziedzinach życia. W internecie najczęściej odpowiadają za porządkowanie czy ustalanie hierarchii informacji, pojawiających się w nieprzerwanym strumieniu wiadomości.
Algorytmy używane przez platformy społecznościowe (a obecnie coraz częściej także przez portale informacyjne), sprawiają, że każdy użytkownik mediów społecznościowych widzi na swoim timeline`e inne wpisy – są one tak dobrane, by odpowiadały jego dotychczasowym reakcjom i zainteresowaniom, a więc – spersonalizowane. Algorytmy odpowiadają także za personalizację wyników w wyszukiwarkach internetowych.
Personalizacja wyników wyszukiwania i widocznych w social mediach treści odbywa się za pomocą mierzenia wyników wcześniejszych wyszukań, polubionych treści, reakcji oraz wszelkich innych zgromadzonych danych, np. w trakcie użytkowania aplikacji, zainstalowanych na telefonie komórkowym użytkownika.
Algorytmy platform społecznościowych wyświetlają nam to, co lubimy, ale także to, co lubią inni. Czyli pokazują nam na timeline`ach wpisy popularne, budzące największe zainteresowanie. Nie wiadomo dokładnie, jak definiowana jest popularność (np. jaka liczba reakcji o niej świadczy), ponieważ żadna platforma społecznościowa nie ujawniła dotychczas swego algorytmu. Jednak im więcej reakcji wywoła dany wpis w krótkim czasie od publikacji, tym częściej jest wyświetlany innym użytkownikom.
A ponieważ najwięcej reakcji budzą treści skandalizujące, wywołujące silne, negatywne emocje lub podziw, powstaje prosty ciąg zależności: emocjonujący wpis wywołuje dużo reakcji, dlatego jest zauważany przez algorytmy, które wyświetlają go większej liczbie osób. To generuje kolejny wzrost reakcji i dalsze podbijanie treści przez algorytmy. Schemat ten powtarza się wielokrotnie. Rodzi się wiral – treść rozchodzi się „wirusowo”, udostępniana przez kolejnych, niezwiązanych ze sobą użytkowników. Właśnie ten mechanizm sprawia, że algorytmy mediów społecznościowych sprzyjają popularności fałszywych informacji w internecie.