Kiedy zmyślona historia o synu Joe Bidena zaczęła krążyć w sieci w poprzednim tygodniu, Facebook (FB  ) zrobił coś niezwykłego: postanowił ograniczyć jej rozprzestrzenianie się, podczas gdy badał jej prawdziwość. Oznaczało to pierwsze znaczące wdrożenie narzędzia, które firma testowała przez kilka miesięcy. Facebook nazywa to "viral content review system". Niezależnie od nazwy, narzędzie to ma ogromny potencjał, aby ograniczyć tsunami fałszywych lub wprowadzających w błąd wiadomości na tematy takie jak polityka i zdrowie.

Taktyka wyłączników jest zdroworozsądkowym sposobem na rozwiązanie problemu fałszywych wiadomości w sieci społecznościowej, ale może również być sprzeczna z interesem biznesowym Facebooka. Oznacza to, że jest zbyt wcześnie, aby powiedzieć, czy działania Facebook na post o synu Bidena będzie jednorazowym zdarzeniem lub nowym objęciem odpowiedzialności cywilnej przez firmę, która długo opierała się takiej roli. Nie każdy post na Facebooku jest traktowany jednakowo, jak większość ludzi jest tego świadoma. Zamiast tego, algorytm strony wzmacnia zasięg tych, którzy mają największe szanse na wywołanie reakcji. To dlatego zdjęcie nowego dziecka z długoletnim znajomym będzie na górze tablicy na Facebooku, nawet jeśli nie widziałeś żadnych innych postów tej osoby od lat. Podczas gdy algorytm nagradza zdjęcia noworodków i szczeniąt, jest on również skłonny do promowania wiadomości - w tym fałszywych - mogących prawdopodobnie wywołać reakcję.

To właśnie miało miejsce przed wyborami w 2016 roku, kiedy historie z witryn w Macedonii, przebrane za konserwatywne amerykańskie strony informacyjne, stały się wirusem na Facebooku. (Strony, o których mowa, były prowadzone przez nastolatków chcących zarobić na reklamach). Dziś problem fałszywych wiadomości krążących na Facebooku jest powszechny i bardziej niebezpieczny niż kiedykolwiek. W tym tygodniu New York Times wymienił cztery fałszywe historie wyborcze krążące szeroko na Facebooku, w tym wiadomość o zbliżającym się demokratycznym zamachu stanu, który był oglądany prawie 3 miliony razy. Inny przykład, to fałszywy raport o tajemniczej intrydze, która miałaby doprowadzić do blokady skrzynek pocztowych, aby zniechęcić do głosowania. A w zeszłym miesiącu użytkownicy Facebooka rozpowszechniali historie (również fałszywe) o tym, że radykalni lewicowcy wzniecali pożary na Zachodzie. Wynikająca z tego histeria doprowadziła do tego, że biura szeryfów i straży pożarnej marnowały krytyczny czas i środki na uciążliwe rozmowy.

Do tej pory Facebook reagował na tego rodzaju dezinformacje, wskazując na swój zespół kontrolerów faktów, których zatrudnia, co może doprowadzić do tego, że Facebook zdejmie kilka historii lub umieści na nich etykietę ostrzegawczą. Krytycy mówią jednak, że proces ten jest beznadziejny, ponieważ każda odpowiedź przychodzi zazwyczaj kilka dni później - co oznacza, że historie dotarły już do ogromnej publiczności. Ta sytuacja doprowadziła waszyngtoński think tank, Center for American Progress do uruchomienia filtrów jako pierwszej rekomendacji w przełomowym raporcie na temat tego, jak platformy mediów społecznościowych mogą zredukować dezinformację. Pomysł ten został również poparty przez GMFUS, kolejny polityczny think tank. Częściowe ukrycie wiadomości pozwala Facebookowi ograniczyć rozprzestrzenianie się błędnych informacji bez podejmowania drakońskiego kroku, jakim jest całkowite usunięcie postu.

I rzeczywiście, to właśnie zrobił Facebook, kiedy rzecznik Andy Stone oświadczył, że firma odpowiada na podejrzaną historię Huntera Bidena, "ograniczając jej dystrybucję", podczas gdy sprawdzający fakty badali jej prawdziwość. Zastosowano pewne ograniczenia. Wykorzystanie przez Facebooka blokady jest jednym z kilku kroków, które platforma podjęła w tym miesiącu w celu ograniczenia błędnych informacji, innym było wprowadzenie zakazu umieszczania wpisów zaprzeczających istnieniu lub zniekształcających prawdę o Holokauście. Ale są powody do sceptycyzmu.

Strategia firmy nigdy nie polegała na zarządzaniu problemem niebezpiecznych treści, ale raczej na zarządzaniu postrzeganiem problemu przez opinię publiczną. W przypadku bezpieczników, firma nie wiedziała, jak szeroko są one stosowane. W wywiadzie dla Fortune rzecznik prasowy Facebooka powiedział, że w większości przypadków niewielu użytkowników zauważy, kiedy firma będzie ich używać. Republikanie, odpowiadając na decyzję Facebooka o tymczasowym ograniczeniu historii dotyczącej Bidena, ostrzegli, że ułatwią ludziom pozwanie firmy o treści zamieszczane przez jej użytkowników. W takim klimacie, wszelkie kroki podejmowane przez Facebooka mogą pozostawić go otwartym na oskarżenia o stronniczość i polityczne odwety. Tymczasem Facebook ma kolejną zachętę, by nie używać wyłączników w sensowny sposób: oznaczałoby to mniej "zaangażowania" na jego platformie, a co za tym idzie, mniej pieniędzy na reklamę. W opinii jednego z krytyków cytowanych przez New Yorkera "priorytety moderowania treści" Facebooka nie zmienią się, dopóki jego algorytmy nie przestaną wzmacniać tego, co najbardziej porywające lub manipulujące emocjonalnie. To może wymagać nowego modelu biznesowego, może nawet mniej opłacalnego."