Algorytmy sprzyjają skrajnie prawicowym partiom
Niemcy w niedzielę będą głosować w przyspieszonych wyborach parlamentarnych, które mogą okazać się przełomowe. Kluczowym graczem jest skrajnie prawicowa partia Alternatywa dla Niemiec (AfD). W ostatnich wyborach federalnych zdobyła 10,4 proc. głosów. Obecne sondaże wskazują, że poparcie dla AfD wynosi mniej więcej dwa razy tyle, co mogłoby uplasować ją na drugim miejscu za centroprawicową CDU/CSU i przybliżyć do realnej władzy bardziej niż kiedykolwiek wcześniej na szczeblu federalnym.

Liderzy i członkowie AfD wciąż są przyłapywani na nazistowskich zachowaniach: negowaniu Holocaustu, spiskowaniu w celu obalenia państwa, przywracaniu nazistowskich sloganów, planowaniu masowych deportacji niemieckich obywateli o „niewłaściwym” pochodzeniu, udostępnianiu w prywatnych grupach na Facebooku memów o Annie Frank „świeżo wyjętej zza pieca” i wzywaniu do powrotu nacjonalizmu. Nawet skrajnie prawicowa francuska partia Marine Le Pen, Zjednoczenie Narodowe, ogłosiła, że nie chce mieć nic wspólnego z AfD.
Algorytm a wynik wyborów w Niemczech
Jaki wpływ na wynik wyborów mają algorytmy mediów społecznościowych? Niezaangażowani politycznie użytkownicy mediów społecznościowych w Niemczech dwukrotnie częściej widzą treści skłaniające ich ku prawicy niż treści lewicowe w okresie poprzedzającym wybory federalne – ujawniło nowe śledztwo Global Witness. Badacze przeanalizowali, jakie treści algorytmy TikToka, X (dawniej Twittera) i Instagrama rekomendowały użytkownikom zainteresowanym polityką, ale bez wyraźnych preferencji partyjnych.
Gdy użytkownicy przeglądają swoje media społecznościowe, to, co widzą, jest mocno uzależnione od tego, co platforma o nich wie – kogo obserwują, co polubili, na czym zatrzymują się podczas przewijania. Jeśli ktoś śledzi wyłącznie zawodników FC Barcelona i lajkuje tylko posty związane z tą drużyną, nikogo nie zdziwi, jeśli algorytm zacznie podsuwać mu jeszcze więcej treści o FC Barcelona. To utrudnia określenie, na ile wynika to z naszych własnych działań, a na ile z działania samego algorytmu.
Wyniki badania Global Witness
Aby to obejść, Global Witness utworzyło zupełnie nowe konta na fabrycznie zresetowanych urządzeniach na wszystkich trzech platformach – bez wcześniejszej aktywności, którą algorytmy mogłyby analizować. Na każdym z nich obserwowano tylko osiem kont: oficjalne profile czterech największych niemieckich partii oraz ich liderów. Następnie przeglądano pięć najnowszych postów każdego z tych kont. To powinno wystarczyć, by platforma rozpoznała zainteresowanie polityką, ale bez wskazywania żadnych partyjnych preferencji.
Potem badacze zaczęli analizować treści pojawiające się w zakładce „Dla Ciebie”, klasyfikując je według ich orientacji politycznej – czy były prawicowe, lewicowe, wspierały konkretną partię i czy pochodziły z obserwowanych kont.
Na TikToku aż 74 proc. politycznych treści miało prawicowy charakter, a na Twitterze (X) – 72 proc. Największa część z nich informowała o działalności AfD. Na Instagramie również przeważały treści prawicowe, choć w mniejszym stopniu (59 proc.).
Co istotne, większość tych treści nie pochodziła z kont, które badacze śledzili. Na Instagramie 96 proc. wyświetlanych treści pochodziło od jednego z ośmiu obserwowanych kont. Na TikToku ten odsetek wynosił jedynie 8 proc., co oznacza, że algorytm mocno wpływał na dobór treści.
Wpływ algorytmów na polityczną bańkę
Każdy użytkownik ma kontrolę nad tym, kogo obserwuje. Można również wskazywać platformie, jakie treści chce się oglądać. Ale ostatecznie to algorytm decyduje, co faktycznie się pojawia. W badaniu treści polityczne podsuwały systemy rekomendacji TikToka i X, i to w sposób wyraźnie stronniczy.
Na TikToku aż 78 proc. partyjnych treści było zdominowanych przez AfD. Dla pozostałych trzech partii liczby wynosiły odpowiednio: 8 proc., 8 proc. i 6 proc. Na Twitterze 64 proc. sprzyjałało AfD, a dla pozostałych partii było to: 18 proc., 14 proc. i 6 proc.
Każdy, kto spędził trochę czasu na X Elona Muska, nie będzie zaskoczony takim wynikiem. Platformy społecznościowe od dawna są krytykowane za zamykanie użytkowników w tzw. bańkach informacyjnych, gdzie widzą głównie treści zgodne ze swoimi poglądami. Jednak w tym przypadku bańka nie jest tworzona przez użytkownika, lecz narzucana przez algorytm.
Czy to problem, który można rozwiązać?
W 2019 roku YouTube ogłosił zmiany w algorytmie, mające ograniczyć ten efekt – zmniejszając liczbę rekomendacji treści na granicy dezinformacji i radykalizacji. W ciągu kilku miesięcy firma podała, że w USA czas oglądania takich materiałów z rekomendacji dla niezalogowanych użytkowników spadł średnio o 70 proc. Filmy nadal były dostępne, ale YouTube znacznie ograniczył ich promowanie.
Późniejsze badania potwierdziły, że efekt „króliczej nory” na YouTube znacząco osłabł lub wręcz zanikł. Czy TikTok, który stara się zdobyć przychylność Donalda Trumpa, uzna taką stronniczość za coś wymagającego naprawy, czy wręcz przeciwnie – za atut? Co do X nie można mieć takich złudzeń.
Dołącz do dyskusji: Algorytmy sprzyjają skrajnie prawicowym partiom
To prawda! Elon Musk to agento-szpieg Putinizmu!
Przecież przedstawiciele tej partii otwarcie kwestionują m.in. granice z Polską.