Średnio 20% klików to fraudy

Nie płać za kliki generowane przez boty, konkurencję
lub niezainteresowanych wyklikiwaczy

BOTy w Social Mediach – po czym poznać czy dane konto jest prawdziwe? Czy BOTy mogą wywierać wpływ na opinie użytkowników? Jak administratorzy danych serwisów walczą ze zautomatyzowanym ruchem?

Zespół TrafficWatchdog

18.08.2020 r.

social media, bots, fake account, automated traffic

BOTy w Social Mediach – po czym poznać czy dane konto jest prawdziwe? Czy BOTy mogą wywierać wpływ na opinie użytkowników? Jak administratorzy danych serwisów walczą ze zautomatyzowanym ruchem?

źródło: opracowanie własne

BOTy w Social Mediach – po czym poznać czy dane konto jest prawdziwe? Czy BOTy mogą wywierać wpływ na opinie użytkowników? Jak administratorzy danych serwisów walczą ze zautomatyzowanym ruchem?

Istnienie BOTów w Social Mediach to fakt, nadchodzi jednak odpowiedni moment by zapytać jak duża jest skala tego zjawiska i opiniotwórcza władza tych zautomatyzowanych rozwiązań. Wyniki badania przeprowadzonego przez Carnegie Mellon University sugerują, że prawie połowa wszystkich Twitterowych kont aktywnie wypowiadających się na temat koronawirusa COVID-19 to prawdopodobnie BOTy. Jak wiadomo takie nagłówki szybko zyskują na popularności - informacja na ten temat została udostępniona nawet przez Hillary Clinton (a posiada ona prawie 28 milionów followersów). Czy jednak na pewno powinniśmy wierzyć w takie statystyki? A jeśli tak – to co robią z tym administratorzy popularnych serwisów?

Jakie kryteria pozwalają stwierdzić czy dane konto należy do człowieka, czy też jest prowadzone w sposób zautomatyzowany?

Nie ma jednego niezawodnego sposobu, aby sprawdzić czy dane konto w Social Mediach jest rzeczywiście prowadzone przez człowieka. Badacze tworzą więc algorytmy sprawdzające kombinacje klików kryteriów. Wśród najczęściej wymienianych oznak, że dane konto sterowane jest przez BOTa znajdziemy:

  1. Nazwy kont wyglądające na przypadkowe - na przykład zestawienie popularnego imienia z ciągiem cyfr.
  2. Konta wykorzystujące cudze zdjęcie jako profilowe, lub w ogóle nie posiadające takiego zdjęcia.
  3. Liczba i jakość obserwujących – jeśli wśród obserwujących dane konto znajduje się dużo podejrzanych kont, w tym zarządzanych przez BOTy, może to świadczyć o tym, że dane konto również nie jest prawdziwe. Podobnie w przypadku kont z bardzo niewielką ilością followersów.
  4. Analiza aktywności – a więc przede wszystkim częstotliwość „wypowiadania się”, jeśli jest ona podejrzanie duża może świadczyć o działaniu konta w sposób zautomatyzowany, podobnie jak używanie na masową skalę hashtagów lub wiadomości, które wydają się być skopiowane.
  5. Geolokalizacja – należy zwrócić też uwagę gdzie znajduję się właściciel konta – jeśli na przykład, co kilka godzin znajduje się w innym kraju, może to świadczyć o tym, że tak naprawdę jest to program komputerowy.
  6. Sieć wzmianek o danym koncie – warto też sprawdzić jak często dane konto było wymieniane przez innych użytkowników.

Oczywiście, nawet równoczesne wystąpienie kilku z wymienionych wyżej przesłanek nie daje 100% pewności, że konto jest fałszywe i należy do BOTa. Na przykład jeśli konto jest nowe – nie znajdziemy o nim dużej ilości wzmianek, nie będzie też posiadało wielu followersów. Podobnie jeśli ktoś jest aktywistą może wrzucać ogromne ilości postów z różnych miejsc na ziemi co może sprawić, że dane konto zostanie sztucznie zidentyfikowane jako BOT.

Czy BOTy mogą wywierać wpływ na opinie użytkowników?

Zespół badaczy z Carnegie Mellon University pod nadzorem Kathleen Carley, od stycznia 2020 zebrał ponad 200 milionów tweetów na temat koronawirusa. Jak wyniknęło z analizy zebranych danych około 45% z nich pochodziło z kont, które bardziej przypominają te zarządzane przez BOTy niż ludzi. Badacze przyjrzeli się też 50 najbardziej wpływowym retweetom związanych z tematem COVID-19. Ich zdaniem 82% z nich pochodzi od BOTów.

Podobna hipoteza pojawiła się na temat BOTów w innej dyskusji na Twitterze - dotyczącej protestów przeciwko zabiciu George’a Floyda. Do zdarzenia doszło w maju tego roku podczas aresztowania, kiedy to policjant przez 8 minut przyciskał kolanem kark Afroamerykanina do ziemi, w efekcie czego zatrzymany zginął. Zapoczątkowało to falę protestów oraz ogromne poruszenie w mediach społecznościowych. W jednym z artykułów w Digital Trends przytoczono badania sugerujące, że BOTy mogły być odpowiedzialne za rozpowszechnianie teorii spiskowych i fałszywych informacji na temat protestów i hashtagu Black Lives Matter (zdaniem badaczy 30 do 49 procent kont tweetujących o protestach stanowiły BOTy).

Choć wyniki takich badań wskazują na opiniotwórczą moc BOTów, musimy pamiętać, że w rzeczywistości są one tylko oprogramowaniem zaprojektowanym przez ludzi. Dodatkowo nie wszystkie badania są jednoznaczne. Sarah Jackson, profesor nadzwyczajna w Annenberg School for Communication na University of Pennsylvania oraz współautorka książki „#HashtagActivism, Network of Race and Gender Justice”, twierdzi, że ważniejsze jest skupienie się na tym, jakie miejsce BOTy zajmują w SM i z kim wchodzą w interakcje. Jak pokazują badania autorów wspomnianej przed chwilą książki aktywne w związku z #BlackLivesMatter BOTy wchodziły w interakcje z bardzo niewielką liczbą prawdziwych osób.

Jak administratorzy danych serwisów walczą ze zautomatyzowanym ruchem?

Oczywiście dyskusja na temat opiniotwórczej władzy BOTów nie pozostała niezauważona przez administratorów popularnych serwisów. Zdaniem Twittera rozpoznanie czy konto jest prowadzenie przez BOTa, czy też człowieka jest mniej istotne, niż podejmowane na danym koncie aktywności. Dlatego zamiast definiować kto jest właścicielem kont, określa jakie czyny są na nich zabronione:

  • złośliwe wykorzystanie automatyzacji w celu podważenia i zakłócenia publicznej rozmowy,
  • sztuczne wzmacnianie rozmów na Twitterze, w tym poprzez tworzenie wielu kont lub nakładających się kont,
  • generowanie, namawianie lub kupowanie fałszywych przejawów zaangażowania,
  • udział lub angażowanie się w masowych lub agresywnych tweetach,
  • używanie hashtagów w sposób spamerski, w tym używanie niepowiązanych hashtagów w tweecie.

Natomiast Instagram chce aby treści, które są na nim udostępniane, były autentyczne i pochodziły od prawdziwych ludzi, a nie BOTów i osób, które próbują wprowadzać innych w błąd. Zgodnie z nowymi rozporządzeniami administratorzy mogą poprosić o potwierdzenie, kto stoi za kontem jeśli pasuje ono do schematu nieautentycznego zachowania. Podczas oceny czy dane konto jest podejrzane czy nie Instagram weźmie pod uwagę szereg elementów, w tym:

  • czy większość obserwujących profil znajduje się w innym kraju niż lokalizacja konta,
  • czy istnieją wyraźne oznaki używania automatyzacji, takie jak posiadanie zautomatyzowanych kont wśród obserwujących,
  • czy konto jest zaangażowane w skoordynowane nieautentyczne zachowanie.

Skontaktuj się z nami

w celu przedstawienia mi oferty produktów oraz w celach marketingowych. Spark DigitUP Sp. z o.o. jako Administrator przestrzegając przepisów o ochronie danych osobowych poinformował mnie o przysługującym mi prawie do wglądu i informacji, usunięcia, zapomnienia i przeniesienia oraz sprostowania, uzupełnienia i ograniczenia przetwarzania moich danych w trybie wynikającym z [Polityki Prywatności].

w rozumieniu art. 10 ust. 2 Ustawy z dnia 18 lipca 2002 r. o świadczeniu usług drogą elektroniczną (Dz.U. Nr 144, poz. 1204) na podany adres poczty elektronicznej oraz numer telefonu. Spark DigitUP Sp. z o.o. jako Administrator przestrzegając przepisów o ochronie danych osobowych poinformował mnie o przysługującym mi prawie do wglądu i informacji, usunięcia, zapomnienia i przeniesienia oraz sprostowania, uzupełnienia i ograniczenia przetwarzania moich danych w trybie wynikającym z [Polityki Prywatności].

w stosunku do podanego przeze mnie numeru telefonu oraz adresu email dla celów marketingu bezpośredniego przez Spark DigitUP Sp. z o.o., właściciela serwisu TrafficWatchdog.pl.