Znalezienie odpowiedzi na problemy zidentyfikowane w najnowszych wyciekach Facebooka będzie złożonym procesem
Opublikowany: 2022-04-08Czego więc nauczyliśmy się z ostatniego ujawnienia wewnętrznych dokumentów i badań Facebooka?
Cóż, naprawdę niewiele. Była inżynier Facebooka, Frances Haugen, opublikowała w zeszłym miesiącu wstępny zestaw wewnętrznych raportów z The Social Network, w których nakreślono różne obawy, w tym problemy z obsługą treści antyszczepionkowych, szkodliwy wpływ zmian w algorytmie oraz negatywne skutki Instagrama dla zdrowia psychicznego na nastolatkach.
Haugen opublikował w tym tygodniu kolejny zbiór raportów, dzięki skoordynowanym wysiłkom z różnymi głównymi publikacjami, które rozszerzają te początkowe twierdzenia i dodają więcej szczegółów na temat różnych aspektów. I to wszystko jest bez wątpienia interesujące, wszystko to rzuca światło na to, co Facebook wie o swoich systemach i jak mogą siać podziały i niepokój oraz ich szerszy wpływ na społeczeństwo. Ale rewelacje w dużej mierze podkreślają to, co już wiedzieliśmy lub podejrzewaliśmy. Że brak obsługi lokalnych języków przez Facebooka doprowadził do zwiększenia szkód w niektórych regionach, że jego sieć jest wykorzystywana do działalności przestępczej, w tym handlu ludźmi, oraz że Facebook może w niektórych procesach decyzyjnych przedkładać wzrost nad bezpieczeństwo.
Wszystko to było w dużej mierze wiadome, ale fakt, że Facebook również wie i że jego własne badania to potwierdzają, jest znaczący i doprowadzi do zupełnie nowej gamy działań podejmowanych przeciwko The Social Network, w różnej formie.
Ale są też inne cenne notatki, o których nie wiedzieliśmy, a które są ukryte wśród tysięcy stron wewnętrznych informacji badawczych.
Jeden z kluczowych elementów, podkreślony przez dziennikarza Alexa Kantrowitza, dotyczy w szczególności kontrowersyjnego algorytmu kanału informacyjnego i tego, w jaki sposób Facebook pracował nad zrównoważeniem obaw ze wzmacnianiem treści poprzez różne eksperymenty.
Głównym rozwiązaniem zaproponowanym przez Haugen w swoim wstępnym przemówieniu na kongresie dotyczącym wycieku plików Facebooka jest to , że sieci społecznościowe powinny zostać zmuszone do całkowitego zaprzestania korzystania z algorytmów opartych na zaangażowaniu, poprzez reformę przepisów sekcji 230, co, zdaniem Haugen, zmieniłoby zachęty do zaangażowania platform społecznościowych i zmniejszenia szkód powodowanych przez ich systemy.
Jak wyjaśnił Haugen :
„Gdybyśmy mieli odpowiedni nadzór lub gdybyśmy zreformowali [sekcja] 230, aby Facebook był odpowiedzialny za konsekwencje ich celowych decyzji dotyczących rankingu, myślę, że pozbyliby się rankingu opartego na zaangażowaniu”.
Ale czy to zadziała?
Jak donosi Kantrowitz, Facebook faktycznie przeprowadził eksperyment, aby dowiedzieć się:
„W lutym 2018 r. badacz Facebooka prawie wyłączył algorytm rankingu News Feed dla 0,05% użytkowników Facebooka. „Co się stanie, jeśli usuniemy rankingowy kanał informacyjny?” zapytali w wewnętrznym raporcie podsumowującym eksperyment. Ich odkrycia: bez algorytmu kanału informacyjnego zaangażowanie na Facebooku znacznie spada, ludzie ukrywają o 50% więcej postów, treści z grup na Facebooku wznoszą się na szczyt i – co zaskakujące – Facebook zarabia jeszcze więcej na użytkownikach przewijających kanał informacyjny.”
Eksperyment wykazał, że bez algorytmu oceniającego zawartość w oparciu o różne czynniki, użytkownicy spędzali więcej czasu na przewijaniu w celu znalezienia odpowiednich postów, narażając ich na więcej reklam, podczas gdy ostatecznie ukrywali znacznie więcej treści – co, gdy patrzysz na kanał chronologiczny, nie przynosi trwałej korzyści polegającej na zmniejszeniu prawdopodobieństwa, że zobaczysz więcej tego samego w przyszłości. Zawartość grup wzrosła, ponieważ użytkownicy są bardziej zaangażowani w grupy (tzn. za każdym razem, gdy ktoś publikuje aktualizację w grupie, której jesteś członkiem, możesz to zobaczyć w swoim kanale), podczas gdy znacznie więcej komentarzy i polubień znajomych prowadzi do postów na stronie pojawiających się w kanałach użytkowników.

Tak więc ogólnie negatywny, a nie rozwiązanie, które niektórzy reklamowali. Oczywiście, częściowo opiera się to również na nawykowym zachowaniu, ponieważ ostatecznie użytkownicy prawdopodobnie przestaliby obserwować niektóre strony i osoby, które dużo publikują, opuściliby pewne grupy, którymi nie są tak zainteresowani, i Nauczyć się nowych sposobów kontrolowania paszy. Ale to dużo ręcznej pracy ze strony użytkowników Facebooka, a zaangażowanie Facebooka by z tego powodu ucierpiało.
Możesz zobaczyć, dlaczego Facebook wahałby się przed podjęciem tej opcji, podczas gdy przedstawione tutaj dowody niekoniecznie wskazują na to, że w rezultacie kanał jest mniej dzielący. I to zanim weźmiesz pod uwagę, że oszuści i strony również nauczą się grać w ten system.
To interesujący wgląd w kluczowy element szerszej debaty na temat wpływu Facebooka, gdzie algorytm jest często identyfikowany jako rzecz, która ma najbardziej negatywny wpływ, skupiając się na treściach, które wywołują zaangażowanie (tj. kłótnię), aby utrzymać ludzi na platformie na dłużej.
Czy to prawda? Chodzi mi o to, że jest oczywiste, że systemy Facebooka optymalizują pod kątem treści, które mogą skłonić użytkowników do publikowania postów, a najlepszym sposobem na wywołanie reakcji jest reakcja emocjonalna, gdzie gniew i radość są najsilniejszymi motywatorami. Wydaje się zatem prawdopodobne, że algorytmy Facebooka, celowo lub nie, wzmacniają kłótliwe posty, co może zwiększyć podziały. Ale alternatywa może nie być dużo lepsza.
Więc jaka jest najlepsza droga naprzód?
To kluczowy element, na którym musimy się teraz skupić. Chociaż te wewnętrzne spostrzeżenia rzucają więcej światła na to, co Facebook wie, i jego szersze oddziaływanie, ważne jest, aby zastanowić się również, jakie mogą być następne kroki i jak możemy wdrożyć lepsze zabezpieczenia i procesy, aby poprawić zaangażowanie w mediach społecznościowych.
Co Facebook próbuje zrobić – jak zauważył dyrektor generalny Facebooka Mark Zuckerberg w odpowiedzi na pierwszy wyciek plików Facebooka.
„ Gdybyśmy chcieli zignorować badania, po co mielibyśmy tworzyć wiodący w branży program badawczy, aby przede wszystkim zrozumieć te ważne kwestie? Gdybyśmy nie dbali o walkę ze szkodliwymi treściami, to dlaczego mielibyśmy zatrudniać tylu oddanych tym osobom niż jakakolwiek inna firma w naszej przestrzeni – nawet większa od nas? ”
Facebook wyraźnie przygląda się tym elementom. Obawa sprowadza się zatem do tego, gdzie naprawdę leżą jego motywacje, ale także, zgodnie z tym eksperymentem, co można zrobić, aby to naprawić. Ponieważ całkowite usunięcie Facebooka nie nastąpi – więc jakie są sposoby, w jakie możemy wykorzystać te spostrzeżenia do zbudowania bezpieczniejszego, bardziej otwartego i mniej dzielącego forum publicznego?
To o wiele trudniejsze pytanie i bardziej refleksyjna troska niż wiele hiperbolicznych raportów o tym, że Facebook jest złym facetem.