Jak często zastanawialiście się, czy śledząc określone konta w mediach społecznościowych, uzyskacie treści, które są dla was wartościowe lub prawdziwe? Zainspirowani tym pytaniem, postanowiliśmy sprawdzić, w jakim stopniu wybór “przyjaciół” na platformie Twitter ma wpływ na jakość treści, które do nas docierają. Zbadaliśmy w jaki sposób ukryte algorytmy rekomendacji Twittera manipulują treściami, które otrzymujemy. Przeanalizowaliśmy również problemy etyczne związane z prowadzeniem badań naukowych w środowisku Twittera.

Wyniki naszej pracy przedstawiamy w  artykule: „Be Careful Who You Follow: the Impact of the Initial Set of Friends on COVID-19 Vaccine Tweets”.

BAŃKI INFORMACYJNE

W obecnych czasach, stajemy się  bardziej świadomi, jak ogromną część informacji w mediach społecznościowych stanowią fałszywe informacje (ang. fake news), teorie spiskowe czy manipulacja faktami.

Na co dzień żyjemy w bańkach informacyjnych. W świecie rzeczywistym bańki informacyjne tworzą się poprzez dobór ludzi, którymi się otaczamy, czy informacji, które chcemy usłyszeć lub których unikamy. Codziennie dokonujemy wyborów, które mogą ograniczać lub poszerzać nasz odbiór otaczającego świata.

pixabay5.png

W naszym badaniu sprawdziliśmy, w jaki sposób wstępny dobór znajomych na platformie Twitter (jednej z głównych platform w dużej mierze odpowiedzialnej za rozpowszechnianie dezinformacji) ma wpływ na to, co widzimy na osi czasu w przypadku angażowania się w sporne tematy dyskursu publicznego. Jako przykład przeanalizowaliśmy interakcje w mediach społecznościowych związane z pandemią COVID-19 oraz nastroje społeczne wobec szczepionek i programów szczepień. To, co zaobserwowaliśmy to silna asymetria między stroną antyszczepionkową i proszczepionkową. Ponadto, skupiliśmy się  na  kwestiach etycznych związanych z wykorzystaniem automatycznych botów do przeprowadzania eksperymentów w rzeczywistym środowisku sieci społecznościowej, której częścią są ludzie.

ETYCZNE ASPEKTY BADANIA

Ważną informacją w przypadku naszego eksperymentu jest to, że nasze boty nie zebrały żadnych osobistych czy wrażliwych danych związanych z osobami, które śledziły. Mimo to, działały one wśród ludzi , dlatego postanowiliśmy dokładnie ocenić ewentualne zagrożenia etyczne związane z takim sposobem prowadzenia badań.

Jednym z głównych problemów natury etycznej jest świadome stosowanie oszustwa, gdyż boty  udają zwykłych ludzi. Inni użytkownicy, zwłaszcza osoby śledzone przez nasze boty, mogły błędnie pomyśleć, że są to prawdziwe osoby korzystające z Twittera. Istnieje jednak w tym wypadku ważny powód, by nie ujawniać pełnej tożsamości naszego bota. Zakładamy, że w przypadku ujawnienia tożsamości bota, profil osoby śledzonej zostanie poinformowany, że ten bot testuje narażenie na dezinformację na temat szczepionek COVID-19. Istnieje wówczas bardzo wysokie ryzyko, że boty zostałyby zablokowane przez tych użytkowników Twittera, którzy sprzeciwiają się szczepieniom. Zrozumienie, w jaki sposób dezinformacje o szczepionkach COVID-19 rozprzestrzeniają się w jednej z najważniejszych sieci społecznościowych na świecie, ma ogromne znaczenie, dlatego podjęliśmy decyzję o przeprowadzeniu naszego badania. Byliśmy jednak uważni w kwestiach etycznych i staraliśmy się stosować do poniższych warunków:

OPIS BADANIA

Podczas trwania naszego badania, dzięki wykorzystaniu uczenia maszynowego (ang. machine learning) wytrenowaliśmy boty, które zbierały codziennie, przez kilka godzin tweety ze swoich osi czasu (przez okres 5 dni; od 18 maja, 11:00 do 22 maja, 17:00). Musimy w tym miejscu dodać, że zgodnie z dokumentacją API Twittera mamy świadomość, że to, co uzyskaliśmy, nie odzwierciedla wzorca, w jakim zwykli użytkownicy Twittera uzyskują dostęp do usługi. Postanowiliśmy jednak na potrzeby tego badania przyjąć upraszczające założenie, że oś czasu, do jakiej uzyskuje dostęp nasz bot, reprezentuje strumień tweetów, który zobaczyłby zwykły użytkownik. Należy jednak pamiętać, że mogą wystąpić znaczne różnice między widokiem udostępnianym przez Twitter API, a widokiem udostępnianym przez zwykły interfejs usługi.

Stworzyliśmy pięć botów, które znacznie różniły się początkowym zestawem obserwowanych kont, co obrazuje tabela poniżej:

Untitled

Podczas gdy boty zainicjowane jako wysoce proszczepionkowe (Alfred i Jessie) “widziały” głównie neutralne tweety, boty zainicjowane jako wysoce antyszczepionkowe (Anthony i Alice) otrzymały informacje zdecydowanie popierające ich postawy antyszczepionkowe. Prowadzi to do obserwacji, że osoby, które są przekonane o skuteczności i użyteczności szczepionek COVID-19, nie mają tendencji do forsowania tego stanowiska wśród innych użytkowników proszczepionkowych. Jednocześnie, antyszczepionkowcy zdają się stale wzmacniać swoje przesłanie i stanowisko wśród innych antyszczepionkowców.