W serwisie The Conversation mechanizm stojący za tym zjawiskiem przybliżyła czytelnikom Jeanna Matthews posiadaczka doktoratu z zakresu nauk komputerowych, zajmująca się społecznymi konsekwencjami niejawnych manipulacji mediami społecznościowymi. Opowiadała o tym także podczas słynnej ”hakerskiej” konferencji DEF CON, imprezy na której prezenterką była już czterokrotnie.

 

Tworzenie rzeczywistości

Choć w swoich początkach platformy ”social media” służyły przede wszystkim za narzędzia pozwalające łączyć ze sobą członków rodzin, przyjaciół oraz ludzi z tych samych kręgów zainteresowań, dziś głównie dzielą ludzi na obozy.

Wszyscy słyszeliśmy o tym jak hakerzy i obce rządy manipulują nami i atakują. Straszenie zgubnymi skutkami posiadania konta na tym czy innym serwisie to stały element wielu serwisów informacyjnych. Matthews przekonuje, że wie jak się w takiej rzeczywistości odnaleźć.

Platformy społecznościowe nie pokazują wszystkiego wszystkim. Za to, jak wyglądają nasze informacyjne korytka (zupełnie adekwatne określenie, którego analogię do podajnika paszy gubi się, naszym zdaniem, używając angielskiego ”feed” – red.) odpowiadają algorytmy.

Pomijając, że większość z nas nie czerpie przyjemności z obcowania z chaosem informacyjnym, właściciele korporacji za cel obrali kształtowanie naszych gustów. Cóż po tym, że dzięki ”lajkom” czy innym reakcjom pozostawianym w serwisie zarządzający Facebookiem poznają nasze upodobania, jeżeli nie będą one dopasowane do bieżącej oferty reklamodawców.

Podając nam do konsumpcji tylko określone treści, niczym kreatywny kurator w galerii sztuki, posłużą się wybranymi informacjami do uzyskania jakiegoś efektu. Może nas ucieszą, a może wkurzą. Grunt, żeby nas zaangażowały. Bo im więcej komentujemy, klikamy i generalnie pozostajemy aktywni na serwisie, tym łatwiej jest zainteresować reklamodawcę.

 

Po pierwsze: zaangażowanie

Problem polega na tym, że na algorytmy rządzące tym, co widzimy a co do nas nie trafia można wpływać poprzez fałszowanie zaangażowania. Do tego służą słynne farmy botów czy trolli. W pełni zautomatyzowane i zdolne w ciągu kilku godzin wykonać iście ”tytaniczną” pracę zmieniając np. wynik sondy popularności jakiegoś polityka

Gdy sonda była uczciwa, tylko wynik nie podobał się autorowi, zawsze można oskarżyć przeciwników o posłużenie się owymi botami. Polityka to nie jedyne spektrum działalności zmechanizowanych systemów kierujących setkami czy tysiącami fałszywych kont.

Naukowcy śledzący na Twitterze amerykańska debatę na temat COVID-19 zauważyli, że aż połowa z użytkowników domagających się ”otwarcia” kraju bez względu na sytuację epidemiologiczną to boty. Gdy Donald Trump pisze do swoich zwolenników, uaktywniają się tysiące hiperaktywnych kont, przesyłając jego głos dale i zawzięcie prezydenta komentując. Według analiz ośrodka badawczego Social Forensics tacy ”użytkownicy” piszą lub puszczają dalej wiadomości innych średnio co 14 minut, nawet 100 razy dziennie.

Badanie z 2018 roku pokazało, że część najbardziej aktywnych kont użytkowników po obu stronach amerykańskiego konfliktu (dającego się maksymalnie uprościć do ”czarnoskórzy vs. policja”) Black Lives Matter kontra Blue Lives Matter, było kontrolowanych przez farmy trolii.

Gdy wpis z jakąś treścią trafia przed oczy prawdziwych użytkowników, mogą oni zareagować lub nie. Odnieść się do treści w sposób pozytywny lub negatywny. A im więcej reakcji, tym więcej osób widzi dany wpis. Niestety, pisze Matthews, kłamstwa i ekstrema częściej wywołują reakcje, więc negatywne treści rozsiewają się szybciej. Dlatego automaty sterujące farmami botów pompują ten balonik negatywnych emocji.

 

Pacynki

Autorka wskazuje na jeszcze jeden przykład ”agenta wpływu” na nasze postrzeganie rzeczywistości. Mowa o aktywnych kontach użytkowników, za którymi stoją żywi ludzie, ale niczym pacynki ze starych skarpetek, przyciągają naszą uwagę skrywając sterującą nimi dłoń (a tym bardziej motywację kierującej tą dłonią reszty ciała).