Jakie są mechanizmy dezinformacyjne? - Fundacja Orange
Pomiń nawigację

Aktualności

Mechanizmy dezinformacyjne

Fake news

Fake news to fałszywa, nieprawdziwa lub sztucznie stworzona informacja, której celem jest wywołanie dezinformacji lub dokonanie oszustwa.

Fake newsy rozpowszechniane są głównie przez serwisy infor­macyjne, media elektroniczne oraz media społecznościowe. Przy ich tworzeniu autorzy często stosują chwytliwe nagłówki, by zwrócić uwagę jak największej liczby odbiorców.

Określenie „fake news” odnosi się do faktów, danych – ale nie do opinii. Opinia, nawet jeśli oceniamy ją jako chybioną czy nieade­kwatną, to autorska interpretacja faktów, do której autor ma prawo. Z fake newsem mamy do czynienia, gdy fakty lub dane są niepraw­dziwe.

Fake newsy często pojawiają się na portalach informacyjnych, które podszywają się pod znane i wiarygodne media, lub na anoni­mowych portalach, na których nie ma żadnych informacji o tym, kto je tworzy, nie ma też nazwisk dziennikarzy ani adresu redakcji.

Fake newsem może być również nieprawdziwe zdjęcie – prze­robione w programie graficznym lub wyjęte z kontekstu (semantycz­nego, czasowego) i opublikowane z nieprawdziwą informacją.

CASE: Radioaktywna chmura znad Czarnobyla

W 2020 roku w strefie wokół dawnej elektrowni jądrowej w Czarnobylu doszło do pożarów lasów. W mediach społeczno­ściowych natychmiast pojawiła się informacja, że powstała w wyni­ku tych pożarów radioaktywna chmura przemieszcza się znad Ukrainy i Białorusi w kierunku Polski, i zagraża Polakom. Anonimo­we konto opublikowano nawet w sieci krótki film, który miał poka­zywać sposób przemieszczania się tej chmury. Wzbudziło to nie­pokój wielu Polaków, którzy rozpowszechniali wiadomość często doradzając innym, by natychmiast wypili tzw. płyn Lugola.

Jednak nagranie obrazowało jedynie symulację przemiesz­czania się chmury (a nie jej rzeczywisty ruch). Takie symulacje były badawczo przygotowywane przez ukraińskich naukowców, ale nie odnosiły się do żadnej konkretnej sytuacji ani do konkretnego zagrożenia. Film sugerujący, iż chodzi o istniejącą chmurę, która właśnie przesuwa się nad Polskę, był więc fake newsem. Realne zagrożenie nie wynikało z pożarów lasów wokół Czarnobyla, lecz z sugestii spożycia płynu Lugola – picie tego preparatu bez wska­zań lekarskich może być groźne dla zdrowia.

Trolle internetowe

Choć narzędzi manipulacji w internecie jest wiele, jednym z naj­częściej wykorzystywanych jest aktywność internetowych trolli. Troll internetowy to ktoś, kto publikuje wiadomości podburzające, obraź­liwe, będące atakiem personalnym, często niezwiązane z głównym tematem dyskusji. Z reguły działa anonimowo, jego konto nie zawie­ra więc prawdziwego imienia i nazwiska, brakuje również zdjęcia profilowego, które umożliwia identyfikację.

Celem trolla jest najczęściej wywołanie negatywnych reakcji emocjonalnych lub zakłócenie dyskusji. Troll często zachowuje się agresywnie, ponieważ im większą kłótnię wywoła, im więcej osób w niej uczestniczy, tym większą satysfakcję odczuwa troll.

Część trolli to zwyczajni internauci, którzy w takim aspołecznym zachowaniu znajdują przyjemność. Ich celem jest skłócanie, obraża­nie, dzielenie ludzi i wprowadzanie chaosu. Aby to osiągnąć, potrafią oszukiwać, manipulować i kłamać.

Trolle rosyjskie

Trolle internetowe często kojarzą się z polityczną aktywnością Rosji w sieci – rzeczywiście taka istnieje, choć nie każdy aspołecznie zachowujący się użytkownik internetu to prawdziwy rosyjski troll.

Trolle rosyjskich agencji, działających w ramach tzw. wojny informacyjnej, pracują dla pieniędzy. Rozpowszechnianie fałszywych informacji w sieci jest ich pracą.

Szczegółowy sposób działania najbardziej znanej rosyj­skiej fabryki trolli Internet Research Agency (IRA) opisał kil­ka lat temu rosyjski magazyn RBC, któremu udało się poroz­mawiać z jej pracownikami.

Głównym zadaniem rosyjskich trolli było tworzenie fał­szywych kont działających w mediach społecznościowych i na forach internetowych, zamieszczanie komentarzy, linko­wanie propagandowych treści, rozpowszechnianie memów i grafik. Pracowali na zmiany, ich aktywność była skoordy­nowana ze strefami czasowymi konkretnych państw. Naj­bardziej interesowały ich strony i grupy dotyczące: imigracji, religii, ras, niektórych ruchów społecznych, czasem – okre­ślonych regionów geograficznych.

W Polsce rosyjskie trolle są aktywne, choć w inny sposób niż się powszechnie wydaje. Użytkownicy sieci chętnie dziś sięgają po frazę „ruski troll”, obdarzając nią każdego, kto ma odmienne poglądy czy popełnia proste błędy językowe. Tymczasem trolle zatrudniane przez prokremlowską propagandę są coraz bardziej profesjonalne i mają zazwyczaj niewiele problemów językowych.

Dziś rosyjskie trolle nastawiają się na promowanie istniejących narracji, które pasują do ich celów. Częściej angażują się w komen­towanie istniejących postów, włączają się do dyskusji, a nie pre­zentują własną propagandę (co wcześniej było normą). Pracują nad budowaniem szerokich grup oraz biorą udział w dyskusji publicznej na najbardziej emocjonujące społeczeństwo tematy, by narzucić własną interpretację. Chodzi o takie wpływanie na Polaków, by nar­rację realizującą rosyjskie cele uznali oni za własną i zidentyfikowali się z nią.

Rosyjskie agencje trolli wykorzystują tematy już istniejące w danym społeczeństwie. Dostarczają argumentów, które pogłębiają istniejące podziały i generują chaos – lecz najczęściej nie wymyślają zupełnie nowego przekazu, tylko wykorzystują tematy i emocje, które przynajmniej tlą się w danej wspólnocie.

Głównym zadaniem rosyjskich trolli było tworzenie fał­szywych kont działających w mediach społecznościowych i na forach internetowych, zamieszczanie komentarzy, linko­wanie propagandowych treści, rozpowszechnianie memów i grafik. Pracowali na zmiany, ich aktywność była skoordy­nowana ze strefami czasowymi konkretnych państw. Naj­bardziej interesowały ich strony i grupy dotyczące: imigracji, religii, ras, niektórych ruchów społecznych, czasem – okre­ślonych regionów geograficznych.

W Polsce rosyjskie trolle są aktywne, choć w inny sposób niż się powszechnie wydaje. Użytkownicy sieci chętnie dziś sięgają po frazę „ruski troll”, obdarzając nią każdego, kto ma odmienne poglądy czy popełnia proste błędy językowe. Tymczasem trolle zatrudniane przez prokremlowską propagandę są coraz bardziej profesjonalne i mają zazwyczaj niewiele problemów językowych.

Dziś rosyjskie trolle nastawiają się na promowanie istniejących narracji, które pasują do ich celów. Częściej angażują się w komen­towanie istniejących postów, włączają się do dyskusji, a nie pre­zentują własną propagandę (co wcześniej było normą). Pracują nad budowaniem szerokich grup oraz biorą udział w dyskusji publicznej na najbardziej emocjonujące społeczeństwo tematy, by narzucić własną interpretację. Chodzi o takie wpływanie na Polaków, by nar­rację realizującą rosyjskie cele uznali oni za własną i zidentyfikowali się z nią.

Rosyjskie agencje trolli wykorzystują tematy już istniejące w danym społeczeństwie. Dostarczają argumentów, które pogłębiają istniejące podziały i generują chaos – lecz najczęściej nie wymyślają zupełnie nowego przekazu, tylko wykorzystują tematy i emocje, które przynajmniej tlą się w danej wspólnocie.

Jak się bronić przed trollami:

    Trudniej obronić się przed trollami stosującymi bardziej wyrafinowaną manipulację, których celem jest rozpowszech­nienie treści tak, by została uznana za wiarygodną. Tutaj zadziałają zasady ochrony przed fake newsami:

      Boty i cyborgi

      Kolejnym narzędziem dezinformacji są tzw. boty – zautomaty­zowane konta, naśladujące zachowania normalnych użytkowników mediów społecznościowych. Boty to także oprogramowanie auto­matyzujące określone czynności, używane na wielu stronach interne­towych, m.in. do obsługi klienta online czy publikacji treści zgodnie z określoną procedurą. Jednak kiedy mówimy „boty” w odniesieniu do dezinformacji, mamy na myśli zautomatyzowane konta, które w mediach społecznościowych realizują zapisane w programie czyn­ności, takie jak:

        Boty, wykorzystujące manipulację do celów politycznych lub komercyjnych, są szkodliwe. Tworzą fałszywy obraz siecio­wej rzeczywistości. Patrząc na wpis „podbity” przez boty, użytkow­nicy mają wrażenie, iż jest on ważny, prawdziwy, popularny – ponie­waż jest pod nim wiele reakcji. Zwracają na niego uwagę, często podają go dalej, dając treści dodatkowy zasięg.

        Reakcje botów fałszywie wpływają też na algorytmy platform społecznościowych, które reagują na wysokie (pod względem ilo­ściowym) zainteresowanie wpisem i zaczynają wyświetlać go więk­szej liczbie użytkowników. Mamy wtedy do czynienia ze zjawiskiem kuli śnieżnej – wpis staje się wiralem, ale wyłącznie dzięki manipulacji reakcjami.

        Istnieją również konta hybrydowe, które łączą w sobie cechy bota i aktywność prawdziwego, „ludzkiego” użytkownika. Automaty­zacja działa na nich tylko przez określony czas i jest uzupełniana nor­malną aktywnością człowieka, albo automatycznie realizowane są tylko niektóre czynności, np. podawanie dalej wpisów. Takie hybry­dowe konta nazywane są CYBORGAMI.

        UWAGA! Jeśli jakieś konto narusza regulamin platformy spo­łecznościowej: rozsiewa nieprawdziwe informacje, obraża, nęka, jego wpisy są przemocowe lub rasistowskie – warto zgłosić je do administracji platformy społecznościowej, aby je sprawdziła. To pro­ste, wymaga tylko kilku kliknięć.

        Spróbuj samodzielnie zidentyfikować konto botowe w sieci.

        Jego cechy charakterystyczne to:

                  UWAGA! Nie wszystkie te cechy muszą występować jednocze­śnie, boty bardziej zaawansowane mogą na przykład odpowiadać na pytania lub mieć świetnie przygotowany profil użytkownika. Ale kiedy znajdziecie konto, które ma większość wymienionych cech, możecie przynajmniej podejrzewać, że macie do czynienia z botem.

                  Twórcy botów często tworzą wiele kont z podobnymi nazwa­mi użytkowników, aby po zablokowaniu automatycznego konta przez platformę społecznościową natychmiast przenieść aktywność na kolejne konto.

                  Deepfake

                  To nowe zagrożenie, które jeszcze nie jest powszechnie znane, ale niestety – prędzej czy później – zostanie rozpowszechnione i wte­dy stanie się bardzo poważnym problemem.

                  Określenie „deepfake” pochodzi od dwóch angielskich zwro­tów: „deep learning” (głębokie uczenie) oraz „fake” (fałsz). Deepfake to taka obróbka dźwięku i obrazu, najczęściej w materiałach video, która ma na celu stworzenie fałszywej ścieżki dźwiękowej i dopaso­wanego do niej obrazu, za pomocą sztucznej inteligencji. Pozwala tworzyć zmanipulowane filmy, które są dziś prawie niemożliwe do odróżnienia od tych, które zostały zrealizowane w tradycyjny sposób i są autentyczne.

                  Cechy deepfake`ów:

                  W efekcie dostajemy film, na którym na przykład znany poli­tyk mówi coś, czego w rzeczywistości nigdy nie powiedział – jednak patrząc na nagranie widzimy tego właśnie polityka, który mówi takie słowa!

                  Przed erą deepfake`ów materiały video były jednymi z najbar­dziej wiarygodnych – trudno było je zmanipulować tak, by podło­żyć komuś fałszywą wypowiedź, dopasowaną do mimiki twarzy. W deepfake`ach to możliwe: sztuczna inteligencja dopasowuje ruchy twarzy osoby do nowej ścieżki dźwiękowej.

                  Niestety, nie ma obecnie powszechnie dostępnych narzędzi, które umożliwiałyby wykrycie deepfake`a.

                  Tworzenie fałszywych person

                  Tworzenie fałszywych person, czyli nieistniejących postaci, któ­re w sieci mają rozpowszechniać określone treści, to zjawisko częst­sze niż można przypuszczać. Chodzi tu nie o anonimowe konta, lecz o personę, która ma sprawiać wrażenie autentycznego człowieka, uznawanego za wiarygodne źródło informacji.

                  W dezinformacji rosyjskiej ten sposób wykorzystywany jest często do tworzenia fałszywych dziennikarzy lub blogerów, czasami także ekspertów.

                  CASE: Niezależny Dziennik Polityczny

                  Przykładem tworzenia fałszywych person może być polskojęzyczny portal Niezależny Dziennik Politycz­ny. Według oficjalnych informacji na portalu, od począt­ku jego funkcjonowania wśród osób tworzących zespół redakcyjny znajdują się: Adam Kamiński jako redaktor prowadzący oraz dziennikarz Wojciech Brozek. Mają swoje konta w mediach społecznościowych. Jednak po ich bliższym sprawdzeniu okazało się, że:

                    Mamy więc niby istniejących dziennikarzy, zna­nych z nazwiska, mamy ich zdjęcia – tyle że wszystko jest nieprawdziwe. Takie fałszywe persony służą do uwiarygodnienia portalu i przekazywanych przez nie­go treści.

                    Tworzenie teorii spiskowych

                    Teoria spiskowa to specyficzny rodzaj narracji, który ma służyć wyjaśnieniu jakiegoś zdarzenia, sytuacji czy zjawiska, w opozycji do powszechnie uznawanej, oficjalnej wersji. Opiera się na przekona­niu (nie zawsze wprost artykułowanym), że najważniejsze informacje dotyczące tematów publicznych są ukryte, za sprawą niejawnych działań osób lub grup, współpracujących ze sobą w celu osiągnię­cia własnej korzyści, kosztem interesu zbiorowości. Szerzone w ten sposób przekonania są niepotwierdzone wiarygodnymi dowodami, choć przekazywać je mogą osoby uważane za autorytety.

                    W czasach kryzysowych (np. podczas pandemii czy w cza­sie wojny) rośnie popularność teorii spiskowych, ponieważ pozornie porządkują one świat według znanych odbiorcom zasad, a w efekcie niwelują poczucie niepewności, bardzo trudne do wytrzymania w dłuż­szym okresie. Choć bywają najbardziej nieprawdopodobne, przywra­cają (pozornie!) poczucie bezpieczeństwa – nawet wtedy, gdy dowo­dzą istnienia pedofilskiego spisku światowych przywódców przeciwko ludzkości czy przepowiadają wojnę z pozaziemską rasą reptilian.

                    Bezpieczeństwo odbiorcom przynosi świadomość, że zasa­dy, rządzące opisywanym w ten sposób światem, są znane – dzięki temu łatwo określić, kto jest dobry, a kto zły, wróg jest widoczny i nazwany, a przyczyny kryzysu łatwo „zrozumieć” (przypisując je do znanych reguł). Teoria spiskowa zazwyczaj wydaje się logiczna, w rzeczywistości jednak ma wiele słabych punktów, które pozwala­ją wykazać jej nieprawdziwość. Wyznawcy takiej teorii pomijają jed­nak jej słabości i nie chcą angażować się w weryfikację podanych informacji.

                    Kupowanie sieciowych reakcji

                    Dziś każdy, kto chce manipulować odbiorcami za pomocą mediów społecznoścowych i może na ten cel przeznaczyć pieniądze, bez problemu zdobędzie łatwe w obsłudze narzędzia do manipulacji ilościowej. Dzięki nim wygra sondę w sieci, wygeneruje korzystne dla siebie komentarze pod postami czy zaskoczy konkurencję licz­bą wyświetleń swego filmu – bo po prostu kupi sobie reakcje. Takie komercyjne reakcje są do kupienia na każdą platformę społeczno­ściową, nawet na Spotify.

                    Manipulacja wynikami ilościowymi realizowana jest za pomocą kilku narzędzi:

                        Koszt wykupienia kilkunastu tysięcy lajków na Facebooku to zaledwie kilkaset złotych, podobnie wyglądają ceny innych reak­cji. Choć kupowanie reakcji, a więc generowanie fałszywego ruchu w sieci, to działanie nieetyczne, obecnie nie jest nielegalne.

                        Dlaczego dezinformacja działa?

                        Mają na to wpływ przynajmniej dwa rodzaje czynników:

                          A. Czynniki psychologiczne

                          Odbiorcy częściej zwracają uwagę na wiadomości negatywne lub budzące podziw niż na pozytywne lub neutralne. Artykuły czy wpisy dementujące fake newsy rozchodzą się słabiej i budzą niż­sze zainteresowanie niż sam fake news – zazwyczaj są neutralne i nie wzbudzają tak silnych emocji.

                          Działają również zasady wpływu społecznego, a zwłaszcza:

                            Kiedy wierzymy w fałszywe informacje?

                            1. Kiedy działają silne emocje –– wówczas traci znaczenie prawda jako obiektywna wartość. Nowe, trudne, nieprzewidywalne sytu­acje oraz silne emocje uruchamiają inne niż zazwyczaj potrzeby i inne mechanizmy reagowania ludzi, na przykład: destabilizacja i chaos wywołują potrzebę szybkiego uporządkowania rzeczywistości, strach, frustracja, niepewność wywołują potrzebę poczucia bezpieczeństwa i stabilności; powodują zamknięcie intelektualne, podejrzliwość, ale też rosnącą potrzebę przynależności do grupy.
                            W trudnych emocjonalnie sytuacjach okazuje się, że dezinfor­macja (w różnych formach) może mieć zdolność zaspokajania emocjonalnych potrzeb. Fake newsy i teorie spiskowe potra­fią szybko niwelować niepewność, porządkując świat według rozpoznawalnego schematu – za ich pomocą da się bowiem „poukładać” emocje i nowe wiadomości zgodnie ze znanym wcześniej porządkiem. I odzyskać wewnętrzny spokój, który staje się wtedy wartością nadrzędną.

                            2.Niski poziom zaufania społecznego

                            Osoby z niskim poziomem zaufania społecznego częściej szu­kają informacji poza systemem, wierzą własnym autorytetom i własnym wynikom wyszukiwania w internetowych wyszuki­warkach , a nie zewnętrznym, uznanym przez system autory­tetom czy instytucjom. Duże znaczenie ma też dla nich tzw. „marketing szeptany”, czyli informacje uzyskiwane od rodziny, przyjaciół, znajomych. Często ich opinie stają się ważniejsze niż dane prezentowane w oficjalnej debacie publicznej.

                            3.Silna polaryzacja społeczna

                            Polaryzacja to rozłam systemu wartości w ważnych dla dane­go społeczeństwa obszarach życia. Podstawowe wartości nie są podzielane przez większość społeczeństwa, konflikty są utrwalane. Silna polaryzacja niszczy instytucje demokratyczne, niszczy wspólnotę, tworząc zamiast niej dwie przeciwstawne grupy: „my” i „oni”. Na polaryzację często nakłada się rady­kalizacja poglądów. Polaryzacja w Polsce oscyluje na bardzo wysokim poziomie, co wskazuje na poważne różnice poglą­dowe, dotyczące wszystkich kluczowych kwestii politycznych.

                            Przy silnej polaryzacji społecznej często działają dwa znane błędy myślowe: efekt potwierdzenia i efekt grupy.

                            Efekt potwierdzenia  to poszukiwanie informacji, które potwierdzają to, co już myślimy na dany temat. Każdą informację, która potwierdza nasze poglądy, uznajemy wówczas za praw­dziwą. Odrzucamy natomiast te, które zmuszają do rewi­dowania poglądów. W takiej sytuacji oceniamy newsy nie pod kątem ich wiarygodno­ści, lecz dopasowania do własnych opinii.
                            Efekt grupy polega, w uproszczeniu, na faworyzowaniu własnej grupy i defaworyzowaniu grupy prze­ciwnej – grupy „innych”, „onych”. Wszystko, co robią „nasi”, jest dobre, kiedy nawet to samo zro­bią „inni” – jest złe. „Inni” są też oskarżani o wszystkie negatywne działania, cechy etc. W takim układzie społecznym ludzie łatwo wierzą w dezinformację, która pozwala im zachować pozytywny obraz swojej grupy oraz defawo­ryzować grupę przeciwną.

                            B. Algorytmy mediów społecznościowych

                            Algorytm to swego rodzaju przepis postępowania, który prowadzi do rozwiązania ustalonego problemu, przez wykonanie określonego ciągu czynności. Współcześnie algorytmy wykorzystywane są w róż­nych dziedzinach życia. W internecie najczęściej odpowiadają za porządkowanie czy ustalanie hierarchii informacji, pojawiających się w nieprzerwanym strumieniu wiadomości.

                            Algorytmy używane przez platformy społecznościowe (a obec­nie coraz częściej także przez portale informacyjne), sprawiają, że każdy użytkownik mediów społecznościowych widzi na swoim time­line`e inne wpisy – są one tak dobrane, by odpowiadały jego dotych­czasowym reakcjom i zainteresowaniom, a więc – spersonalizowane. Algorytmy odpowiadają także za personalizację wyników w wyszuki­warkach internetowych.

                            Personalizacja wyników wyszukiwania i widocznych w social mediach treści odbywa się za pomocą mierzenia wyników wcześniejszych wyszukań, polubionych treści, reakcji oraz wszelkich innych zgromadzonych danych, np. w trakcie użytkowania aplikacji, zainstalowanych na telefo­nie komórkowym użytkownika.

                            Algorytmy platform społecznościowych wyświetlają nam to, co lubimy, ale także to, co lubią inni. Czyli pokazują nam na timeline`ach wpisy popularne, budzące największe zainteresowanie. Nie wia­domo dokładnie, jak definiowana jest popularność (np. jaka liczba reakcji o niej świadczy), ponieważ żadna platforma społecznościowa nie ujawniła dotychczas swego algorytmu. Jednak im więcej reakcji wywoła dany wpis w krótkim czasie od publikacji, tym częściej jest wyświetlany innym użytkownikom.

                            A ponieważ najwięcej reakcji budzą treści skandalizujące, wywołujące silne, negatywne emocje lub podziw, powstaje prosty ciąg zależności: emocjonujący wpis wywołuje dużo reakcji, dlatego jest zauważany przez algorytmy, które wyświetlają go większej licz­bie osób. To generuje kolejny wzrost reakcji i dalsze podbijanie treści przez algorytmy. Schemat ten powtarza się wielokrotnie. Rodzi się wiral – treść rozchodzi się „wirusowo”, udostępniana przez kolej­nych, niezwiązanych ze sobą użytkowników. Właśnie ten mechanizm sprawia, że algorytmy mediów społecznościowych sprzyjają popu­larności fałszywych informacji w internecie.