Facebook ogłasza nowy eksperyment w celu zmniejszenia zasięgu kontrowersyjnych treści politycznych w kanałach użytkowników
Opublikowany: 2022-04-08Facebook ogłosił nowy eksperyment, w ramach którego będzie kładł nacisk na posty polityczne i aktualizacje dotyczące bieżących wydarzeń w kanałach użytkowników, w odpowiedzi na bieżące opinie użytkowników . Facebook ograniczy również ilość treści politycznych, które ludzie widzą w swoich kanałach informacyjnych, co może mieć przełomowy wpływ na szersze zaangażowanie – zarówno na samej platformie, jak i poza nią.
Jak donosi Axios:
„Idąc dalej, Facebook rozszerzy niektóre z obecnych testów kanału informacyjnego, które w swoim algorytmie rankingowym kładą mniejszy nacisk na pewne sygnały zaangażowania, takie jak prawdopodobieństwo, że użytkownik udostępni lub skomentuje post. Zamiast tego zacznie kłaść większy nacisk na inne rodzaje informacji zwrotnych od użytkowników, takie jak odpowiedzi na ankiety”.
Jak zauważa Axios, ruch ten jest rozszerzeniem eksperymentu, który Facebook uruchomił na początku tego roku, w ramach którego zmniejszył ilość treści politycznych w niektórych kanałach informacyjnych użytkowników.
Test ten został opracowany w odpowiedzi na obawy dotyczące wpływu dzielących debat politycznych na platformę, a Facebook przeprowadza eksperyment z „ niewielkim odsetkiem użytkowników ” w Stanach Zjednoczonych od 17 lutego.
Facebook twierdzi, że ma wystarczająco dużo danych, aby sugerować, że jest to potencjalnie realna ścieżka rozwoju.
„ Otrzymaliśmy pozytywne wyniki naszych testów w odpowiedzi na opinie, które otrzymaliśmy od ludzi, którzy chcieliby widzieć mniej treści politycznych w swoich kanałach informacyjnych. W rezultacie planujemy rozszerzyć te testy na Kostarykę, Szwecję, Hiszpanię i Irlandię”.
Facebook zauważa ponadto, że eksperyment wykazał, że „ niektóre sygnały zaangażowania mogą lepiej wskazywać, jakie posty ludzie uważają za bardziej wartościowe niż inne”.
„Na podstawie tych informacji zwrotnych stopniowo rozszerzamy niektóre testy, aby kłaść mniejszy nacisk na takie sygnały, jak prawdopodobieństwo, że ktoś będzie komentował lub udostępniał treści polityczne. Jednocześnie kładziemy większy nacisk na nowe sygnały, takie jak prawdopodobieństwo, że ludzie przekażą nam negatywne opinie na temat postów na tematy polityczne i bieżące wydarzenia, gdy oceniamy tego typu posty w ich kanale informacyjnym”.
Tak więc zaktualizowane podejście algorytmowe – które, co jeszcze raz warto zauważyć, jest wprowadzane dopiero w czterech krajach w początkowej fazie testów – zmniejszy nacisk na treści, które wywołują negatywne reakcje emocjonalne i komentarze. Co jest kluczową krytyką, która z czasem została skierowana na Facebooka, że jego algorytm zasadniczo zachęca do debaty prowadzącej do podziałów poprzez wzmacnianie postów, które z większym prawdopodobieństwem wywołają dyskusję w tę i z powrotem, często gniewną i dzielącą charakter, ponieważ nie każde „zaangażowanie” jest pozytywne w tym zakresie.
To może być pomocna aktualizacja – ponieważ to prawda, nie każde zaangażowanie jest korzystne, a jeśli Facebook używa „zaangażowania” jako ogólnego proxy dla interakcji, a tym samym stara się je napędzać w każdy możliwy sposób, ślepo podchodząc do tego, zaangażowanie może w rzeczywistości być, co oznacza, że Facebook często wzmacnia treści, które wywołują debatę, ponieważ system po prostu widzi, że ludzie komentują i stara się pokazać te treści jeszcze większej liczbie osób.
Ma to sens z punktu widzenia czystej interakcji i utrzymania aktywności ludzi w aplikacji. Ale problem, który wtedy stwarza, polega na tym, że zachęca twórców i wydawców do publikowania większej liczby „gorących ujęć” jako sposobu na wywołanie przypływu dopaminy z kolejnych odpowiedzi i alertów, a także większego zasięgu i kliknięć z punktu widzenia publikacji.
Ludzie chcą mieć poczucie, że są słyszani, a media społecznościowe zapewniają możliwość nawiązania kontaktu z szeroką publicznością. Ale jeśli nie mówisz czegoś, co przykuwa uwagę – na przykład kontrowersyjnego komentarza, zabawnej uwagi lub inspirującego cytatu – szanse na to, że naprawdę przyciągniesz uwagę i otrzymasz kolejne powiadomienia, są bardzo małe.

Dlatego każdy w mediach społecznościowych jest komikiem, trenerem życia lub ekspertem politycznym, bo to generuje reakcję, a ta reakcja, w sensie politycznym, często prowadzi do podziału, ponieważ algorytmy je wzmacniają, w oparciu o zaangażowanie i zachęcić więcej osób do opowiedzenia się po jednej ze stron w debacie.
Często są to debaty, w których wielu użytkowników nie chciało brać udziału, ale kiedy zaczniesz angażować się w określony temat, algorytm pokaże ci go więcej i ostatecznie Twój kanał na Facebooku stanie się zamianą zamieszania politycznego, co tak naprawdę jest tylko zbudowany na potrzebie uwagi ludzi i ekscytacji reakcji w aplikacji.
Ta aktualizacja może rozwiązać ten problem, zmniejszając nacisk na prawdopodobieństwo komentowania i biorąc pod uwagę rosnące bezpośrednie opinie, które Facebook otrzymuje, że ludzie chcą widzieć mniej postów politycznych w swoich kanałach.
O którym dyrektor generalny Facebooka, Mark Zuckerberg, zauważył w lutym:
„ Jedną z najważniejszych opinii, jakie słyszymy teraz od naszej społeczności, jest to, że ludzie nie chcą, aby polityka i walka przejęły ich doświadczenie w naszych usługach. Więc jednym z tematów na ten rok jest to, że zamierzamy nadal koncentrować się na pomaganiu milionom ludzi w udziale w zdrowych społecznościach, a my zamierzamy jeszcze bardziej skoncentrować się na byciu siłą zbliżającą ludzi do siebie”.
Ta nowa aktualizacja jest kolejnym etapem tej eksploracji i może mieć duży wpływ, ponieważ Facebook już widzi pozytywną reakcję, gdy zmniejszył zawartość polityczną w kanałach użytkowników po wyborach w USA. Ta zmiana doprowadziła do tego, co pracownicy Facebooka wewnętrznie nazwali „ładniejszym” kanałem informacyjnym, zmniejszając intensywność debaty i podziałów.
Czy ta aktualizacja może wprowadzić podobną zmianę na całym Facebooku?
Ogólnie rzecz biorąc, wydaje się to pozytywnym testem, ale tak jak w przypadku każdego eksperymentu na Facebooku, biorąc pod uwagę jego skalę, niektórzy również przegrają.
Facebook zauważa, że zmiany będą miały szerszy wpływ na treści dotyczące spraw publicznych, a wydawcy prawdopodobnie odczują wpływ na ich ruch.
„Wiedząc to, planujemy stopniowe i metodyczne wdrażanie tych testów, ale pozostajemy zachęcani i spodziewamy się ogłosić dalsze rozszerzenia w nadchodzących miesiącach”.
Innymi słowy, nie spodziewaj się w najbliższym czasie poważnych zmian w swoim kanale na Facebooku, ale jest to początek ważnego eksperymentu, który może mieć duży wpływ na sposób działania zaangażowania na Facebooku.
Czy wpłynie to również na szerszy zasięg strony? Wygląda na to, że na tym etapie będzie się koncentrować tylko na treściach politycznych, co w rezultacie może przynieść korzyści stronom w innych kategoriach, ponieważ może być więcej miejsca na wypełnienie kanałów jako zamiennika. Ale nie można tego wiedzieć, ponieważ sam Facebook dopiero rozpoczyna kolejną fazę testów, więc nie ma pewności, jaki będzie pełny wpływ w tym zakresie.
Ogólnie rzecz biorąc, wydaje się to pozytywnym impulsem ze strony The Social Network, reagującym na bieżące obawy i zmierzającym w bardziej wyważonym, pozytywnym kierunku.
Ponieważ chociaż Facebook starał się odeprzeć twierdzenia, że przyczynił się do wzbudzania negatywnych podziałów poprzez wzmacnianie treści – świadomie lub nie – przytłaczające dowody sugerują, że miał wpływ w tym zakresie i że jest to algorytm kanału informacyjnego, który ponownie , zachęca do tworzenia treści, które będą przedmiotem największej debaty i dyskusji, zmienił strukturę zachęt dla wydawców, skłaniając ich do nagłówków i raportów bardziej nasyconych emocjami.
Zwrócił uwagę w tym zakresie, a większość ludzi ma aktywne konto na Facebooku, co może mieć i prawdopodobnie miało wpływ transformacyjny na perspektywę społeczną, co zaostrzyło istniejące podziały.
W związku z tym może to być ogromny pozytywny krok, wykraczający poza samego Facebooka.