Eksperci Drog: Walka z dezinformacją według modelu Drog - Fundacja Orange
Pomiń nawigację

Strefa wiedzy

Eksperci Drog: Walka z dezinformacją według modelu Drog

[To czwarty, ostatni z serii tekstów o dezinformacji, których autorami są przedstawiciele organizacji Drog zajmującej się analizą zjawiska dezinformacji i napisali je dla holenderskiej platformy Frankwatching.]

To ostatni z serii czterech tekstów o dezinformacji. W poprzednich opisaliśmy, jak wygląda standardowa definicja i model dezinformacji oraz dlaczego nie są one wystarczające. W tym tekście przedstawimy naszą alternatywną propozycję.

Nasza definicja

Informacja jest dezinformacją, jeżeli jej rozpowszechnianie odbywa się masowo, jest skoordynowane i informacja ta przypomina dezinformację.

Wyjaśnienie

Trudno jest określić, kim są osoby lub organizacje, które tworzą, przedstawiają i rozpowszechniają dezinformację oraz jak działają i jaki jest ich cel - dlatego nasza definicja nie bierze ich pod uwagę. Uważamy, że dezinformacja może być rozpowszechniana zarówno przez sprzymierzeńców, jak i wrogów. Nieważne „kto”; ważne „co” i „jak”. W tym sensie uważamy, że dezinformacja jest podobna do spamu.

Chociaż standardowy model nie bierze tego pod uwagę, to według nas zasadnicze znaczenie ma sposób rozpowszechniania dezinformacji. Ze względu na wymóg skoordynowanego i masowego rozpowszechniania, jest oczywiste, że są to duże i prowadzone z premedytacją operacje. Dezinformacja nigdy nie jest przypadkowa. Osoba działająca samodzielnie, nawet jeżeli ma masowy zasięg, nie może szerzyć dezinformacji. Potrzebuje do tego wsparcia innych ludzi i narzędzi technologicznych takich jak boty - a zatem przestaje działać indywidualnie. Ze względu na wymóg skoordynowanego rozpowszechniania w dużych ilościach, wolność słowa w pozostałych przypadkach pozostaje nienaruszona w możliwie największym stopniu.

A teraz czas na pozornie niezręczna część definicji: wymaganie, że informacja przypominała dezinformację. Wymaganie te nakłada na osoby odpowiedzialne za informację obowiązek udowodnienia, że udostępniane przez nich treści nie są dezinformacją. Skoordynowane rozpowszechnianie na masową skalę podejrzanych informacji jest zatem dezinformacją do czasu aż ich autorzy udowodnią, że jest inaczej. Oczywiście najważniejsze pytanie brzmi – kiedy informacja jest „podejrzana”? Aby to ustalić stosujemy nasz model Drog.

Model Drog (Drog Intervention Model - DIM)

Kryteria dla podejrzanych informacji

Pierwszym kryterium podejrzanej informacji jest istnienie wielu jej wersji, jakby stosowano testy A/B w celu ustalenia, która z nich będzie miała największy wpływ na daną grupę docelową. Choć nie znamy ich skutków, powinniśmy zachować czujność na informacje, które wyglądają na spersonalizowane.

Drugim kryterium jest masowość i koordynacja rozpowszechniania. Odbywa się ono na kilku poziomach: przez nieznane nam osoby i/lub boty, na przykład farmy trolli oraz przez osoby publiczne i opiniotwórcze, takie jak politycy, influencerzy i publicyści, którzy zaczynają w tym samym czasie prezentować identyczny punkt widzenia na dany temat. Następnie masowy charakter informacji jest wzmacniany przez przypadkowych odbiorców i media maksymalizujące zysk, które czerpią korzyści z publikowania sensacyjnych i ekstremalnych wiadomości.

Trzecim kryterium, które pozwala wykryć dezinformację, jest to, że jej celem są słabe punkty naszej demokracji – istniejące linie podziału społecznego. Dezinformacja odwołuje się do przekonań ludzi, którzy sprzeciwiają się jakiemuś elementowi lub całości istniejącego porządku społecznego.

Korzyści wynikające z  podejścia Drog

Uznanie treści za dezinformację według proponowanych przez nas definicji i modelu może odbywać się w pełni automatycznie. Sztuczna inteligencja może zostać wyszkolona do wyszukiwania informacji, które są dystrybuowane masowo i w sposób skoordynowany, mają swoje spersonalizowane warianty i odnoszą się do istniejących linii podziałów społecznych.

Automatyczne oznaczanie dezinformacji oszczędza ogromną ilość pracy. Osoby sprawdzające fakty (fact-checkerzy) muszą poświęcić wiele czasu i zasobów[1], aby stwierdzić, czy informacja jest nieprawdziwa lub wprowadzająca w błąd. Obecnie jednak dezinformacja może zostać automatycznie wykryta w strumieniu informacji. Jest to tym bardziej istotne, że zgodnie z przewidywaniami, w najbliższej przyszłości większość informacji[2] będzie generowana sztucznie[3], tj. nie będzie wynikać wyłącznie ze zdarzeń mających miejsce w rzeczywistości.

Nałożenie odpowiedzialności za usunięcie etykiety „dezinformacja” na osoby, które stoją za publikacją informacji sprawia, że to do nich należy przedstawienie przekonujących dowodów. To oni muszą dowieść, że publikowane treści nie są dezinformacją. Dowodów tych nie należy szukać na poziomie faktów (czy to prawda?), lecz na poziomie metod – w wyniku jakich procesów i w oparciu o jakie źródła powstała informacja?

Oczywiście należy zweryfikować wyjaśnienia osób odpowiedzialnych za powstanie informacji. Zamiast sprawdzać fakty, należy teraz sprawdzić, czy metodologia stosowana przez osoby odpowiedzialne za pozyskiwanie informacji, jest prawidłowa. Przypomina to zastosowanie OSINT – open source intelligence[4] w sposób, w jaki wykorzystują go organizacje typu Bellingcat[5]: „niezależny międzynarodowy kolektyw badaczy, śledczych i dziennikarzy obywatelskich, wykorzystujących biały wywiad w mediach społecznościowych do sondowania różnych tematów – od meksykańskich baronów narkotykowych i zbrodni przeciwko ludzkości, do śledzenia użycia broni chemicznej i konfliktów na całym świecie”.

Brak emocji

Nasza propozycja zapewnia również, że dezinformacja nie będzie już polem do dyskusji grup obwiniających się wzajemnie o rozpowszechnianie kłamstw i złe zamiary. Poprzez automatyczne oznaczanie dezinformacji i żądanie dowodów na poziomie zastosowanej metodologii, dyskusje o dezinformacji stają się techniczne (tak jak w przypadku spamu) a nie emocjonalne lub napędzane lojalnością grupową, jak ma to miejsce obecnie.

Umiejętność korzystania z mediów

Przesunięcie uwagi z faktów na metodologię, lub – jak określili to badacze dezinformacji Philipp Schmid i Cornelia Betsch[6] – z „obalenia tematu na obalenie techniki” ma również konsekwencje dla umiejętności korzystania z mediów. Zamiast mówić młodym ludziom, które informacje są prawdziwe, a które nie i uczyć ich sposobów minimalnej ochrony przed dezinformacją, należy pokazać im, jak korzystać z OSINT. Dzięki temu stają się bardziej aktywnymi obywatelami, którzy sami mogą sprawdzać informacje pochodzące z dowolnych źródeł. Ponadto zapewnia się im wiedzę z zakresu nauk ścisłych, czego brakuje obecnie młodemu pokoleniu. Byłby to ogromny krok naprzód w stosunku do aktualnej sytuacji, w której młodzi ludzie dopiero uczą się być mniej podatni na manipulację i mniej szkodliwi dla innych, a niektóre źródła są bezkrytycznie rekomendowane im jako wiarygodne.

Rząd

Wadą naszego modelu jest to, że nie jest on oparty na zaufaniu, lecz na nieufności. Ludzie natkną się na wiele stwierdzeń opatrzonych etykietą „dezinformacja”, także dlatego, że osoby odpowiedzialne za informacje nie będą mogły lub chciały wykazać, że metodologia wykorzystana do ich uzyskania jest prawidłowa. Nieufność dotyczyć będzie oczywiście tylko informacji rozpowszechnianych masowo i w sposób skoordynowany, których dotyczy nasz model i definicja dezinformacji.

Uważamy, że dobrze jest reagować z podejrzliwością na takie informacje. Najwyraźniej ktoś podejmuje duży wysiłek, aby z nimi do nas dotrzeć. W takim przypadku warto zadać sobie pytanie, czy są one   prawdziwe. Nie chodzi tu o intencje czy cel osób odpowiedzialnych, ale o to, by mieć pewność, że podczas czerpania informacji ze źródła nie doszło do błędów lub oszustw. Oznacza to również, że powinniśmy z założenia traktować wszelkie masowe i skoordynowane rozpowszechnianie informacji przez nasz własny rząd jako dezinformację, do czasu aż  wykaże on, że metody użyte do ich uzyskania są prawidłowe. Zatem rząd nie może już dłużej ukrywać się za tajnymi procedurami czy niejasną sztuczną inteligencją, a dokładniej – może się za nimi nadal chować, ale wówczas do podawanych informacji przylgnie etykieta „dezinformacja”. Wydaje się to być właściwą reakcją na serię skandali wywołanych przez holenderski rząd.

Jak ustalać priorytety?

Pozostaje jedna kwestia. Nawet jeżeli oznaczanie dezinformacji odbywa się automatycznie, to ilość informacji do przeanalizowania jest ogromna. Potrzebne jest kryterium pozwalające na ustalenie priorytetów, które informacje należy ocenić w pierwszej kolejności. Naszym zdaniem są dwa główne kryteria: jeżeli istnieje zagrożenie naruszenia praw człowieka lub ryzyko wystąpienia poważnej szkody dla ludzi, środowiska lub demokracji, wówczas ocena takiej informacji ma pierwszeństwo.

Kontakt

To był nasz czwarty i ostatni artykuł z serii o dezinformacji. Jeżeli chcesz się z nami skontaktować, znajdź nas na Discord.

AUTORZY

  • Onno Hansen-Staszyński - specjalista ds. edukacji, rozwoju kompetencji cyfrowych, przeciwdziałania dezinformacji i kwestii tożsamości cyfrowej. Zainicjował wdrażanie praw dziecka w Unii Europejskiej i był członkiem grupy ekspertów Komisji ds. Cyfryzacji i Zwalczania dezinformacji w szkołach. Obecnie jest m.in. doradcą Drog i wraz z żoną Beatą Staszyńską-Hansen trenerem nauczycieli w Akademii Dynamicznej Tożsamość oraz nauczycielem w LO 4 w Gdańsku.
  • Bram Alkema - przedsiębiorca społeczny i specjalista w zakresie publicznych strategii komunikacji cyfrowej. Studiował ekonomię na Uniwersytecie w Groningen.
  • Ruurd Oosterwoud - założyciel i dyrektor DROG, firmy społecznej zajmującej się interwencjami przeciwko dezinformacji. Jest magistrem rusycystyki na Uniwersytecie w Leiden, podczas jego studiów na uniwersytecie zaczynała się jego obsesja na punkcie propagandy.