Konta, które zajmowały się skrajnymi narracjami, typu antyszczepionkowcy czy foliarze, nagle zamieniły się w konta propagandowe, prokremlowskie. Od początku tworzone były z myślą, by zebrać skrajną publiczność, która jest emocjonalnie zaangażowana i wierzy we wszystko, co tam jest podawane - wyjaśnia Michał Wroczyński, prezes i współtwórca Samurai Labs.
- - W przypadku dezinformacji mamy do czynienia z typowymi mechanizmami, schematami - wskazuje Michał Wroczyński i radzi - Jeżeli nie jesteśmy pewni źródła danej informacji, powinniśmy się wstrzymać z jej powielaniem.
- Social media stają się potężną bronią dezinformacyjną, a większość ich użytkowników nie ma odporności i nie umie się bronić. Zdaniem Wroczyńskiego potrzebne są mechanizmy, które wykrywają dezinformację. Internet, który znamy, wymaga jakościowej zmiany.
- O narastających cyberzagrożeniach, ale także o znaczeniu i metodach dezinformacji oraz strategiach obronnych będziemy dyskutować w ramach XIV Europejskiego Kongresu Gospodarczego. To ostatnie godziny, by zarejestrować swój udział w wydarzeniu.
Wojna w Ukrainie przyniosła także wielką liczbę dezinformacji. Jak ją rozpoznać? Na co powinniśmy być szczególnie wyczuleni?
Michał Wroczyński, prezes i współtwórca Samurai Labs: – Z punktu widzenia technicznego są to konta botowe. Istnieją różne technologie, aby wykryć, czy za kontem stoi człowiek, czy bot. Trzeba dojść do źródła informacji, to pozwoli nam zweryfikować jej prawdziwość. Dlatego, jeżeli nie jesteśmy pewni źródła danej informacji, powinniśmy się wstrzymać z jej powielaniem.
Jakie mamy narzędzia, by walczyć ze źródłami dezinformacji?
– Na pewno powinniśmy je zgłaszać administratorom danego portalu. W tym momencie na dużych platformach nie ma skutecznych narzędzi, które automatycznie wykryją dezinformacje. Duże portale nie mówią, czy to jest fake, czy nie. Informują, kto finansuje albo kto stoi za danym kontem. Mamy sporo organizacji fact-checkingowych, które wtórnie służą danymi na temat prawdziwości konkretnych informacji. Niektóre portale oznaczają wtedy wiadomość, że może być nieprawdziwa.
Wyobraźmy sobie, że social media to są tuby do przesyłania informacji – one nie wiedzą, co tam jest napisane.
W przypadku dezinformacji mamy do czynienia z typowymi mechanizmami, schematami.
– Zgadza się. Na przykład wiadomość jest podana od kogoś, kto jest dobrze poinformowany. Drugim elementem jest podanie chociaż ziarenka prawdy, z którą możemy się zgodzić, zanim poda się wielką nieprawdę.
Kolejną zasadą działania takich kont jest, że ich użytkownik nigdy nie przyzna się do kłamstwa, będzie w nie brnął, bo część widowni jest z tego zadowolona. W końcu w momencie, kiedy ktoś próbuje prowadzić kontrdialog, atakowany jest personalnie, najlepiej przez kilku trolli z kilku kont.
Czy Big Techy nie powinny wdrażać mechanizmów, które wykrywają fake newsy?
– Takie mechanizmy muszą zacząć istnieć. Social media, które miały służyć dzieleniu się informacjami, stają się potężną bronią. Społeczeństwa są kompletnie nieodporne na to, jak wykorzystuje się social media i wszelkie aplikacje.
W momencie, kiedy wiadomo, że dany tekst jest dezinformacją, z punktu widzenia platformy można go wyłączyć. Do tej pory platformy mówiły, że nie odpowiadają za treści, które u nich się znajdują, chociaż na tym zarabiają. Myślę, że te czasy przechodzą do lamusa.
Proszę pamiętać, że przez jakiś czas moderatorzy Facebooka pracowali w Rosji i obsługiwali m.in. Ukrainę. Wiele fake newsów było wówczas ignorowanych. To wszystko wymaga jakościowej zmiany internetu, który znamy.