Jak Facebook zamyka nas w bańce informacyjnej?

Budzimy się rano. Sięgamy po smartfona. Wchodzimy na fejsa i nawiązujemy kontakt ze światem. To nasze podstawowe źródło informacji o rzeczywistości. Prawie-rzeczywistości, bo jednak przepuszczonej przez algorytmy…


…których zadaniem jest otaczanie nas treściami dopasowanymi do naszych preferencji.

Facebook zgromadził już 1,59 miliarda użytkowników. Każdy z nich – nas – ma unikalną kombinację sieci znajomości, preferencji i oczekiwań. Jeśli skonfrontuje się to z liczbą kilkudziesięciu miliardów komunikatów publikowanych dziennie na Facebooku, próbujących dotrzeć do uwagi 1/7 ludności świata… cóż, nie trzeba mieć pięknego umysłu, żeby dojść do wniosku, że przydałby się jakiś system filtrowania i segregowania takich ilości treści.

Tego rodzaju system, a ściślej algorytm, oczywiście istnieje, choć jego składowe są tylko częściowo jawne. Kontrowersje budzi przede wszystkim sposób, w jaki funkcjonuje. Niewidzialna selekcja tego, co widzimy i tego, czego nie widzimy, może mieć odczuwalny wpływ na nasz światopogląd – zamykając nas w specyficznej „bańce” informacyjnej, filter bubble.

  • W skali mikro filter bubble utrudnia nam dotarcie do informacji, z którymi możemy się nie zgadzać, które mogą wydać nam się niewygodne czy kontrowersyjne, ale które powinny dotrzeć do naszej świadomości. Choćby po to, aby poszerzyć wiedzę o świecie, otworzyć się na odmienne punkty widzenia.
  • W skali makro filter bubble może prowadzić do poważnego osłabienia dyskursu publicznego. Obracając się wyłącznie w gronie osób, które lubimy i konstruując wyobrażenie o świecie na podstawie informacji, z którymi się zgadzamy, obwarowujemy się wśród swoich przekonań. Stajemy się mniej skorzy do dyskusji. A tu już dotykamy podstaw zdrowej demokracji liberalnej i otwartych społeczeństw.

Brzmi groźnie? A może histerycznie? To nie wszystko. Mechanizm filtrowania treści Facebooka rodzi również pytania o etykę. Algorytmy to w praktyce maszyny, kierowane czysto obiektywnymi kryteriami ważności, operujące zupełnie poza wymiarem etyki. Nie kwestionują, nie rozważają, nie wahają się. Nie zadają sobie pytań rodzaju: a co jeśli? a może jednak? chyba, że…? Po prostu robią – efektywnie i w zgodzie z przyjętymi regułami. My, w swojej ludzkiej niedoskonałości, postępujemy zgoła inaczej. Czasem na szczęście, czasem na nasze nieszczęście.

Ale po kolei.

Newsfeed, EdgeRank & all that jazz

Pierwszą rzeczą, którą widzimy po wejściu na Facebooka, jest newsfeed, czyli tablica agregująca niedawną aktywność osób znajdujących się w gronie naszych znajomych (inaczej: tablica aktywności lub aktualności). Każda dokonana przez nich akcja, zdarzenie to tzw. edge. Może nim być udostępnienie, skomentowanie lub polubienie cudzego statusu, udostępnienie albo otagowanie zdjęcia itd. Mnożąc te działania przez kilkuset znajomych w naszym kręgu i dodając do tego wszystkie śledzone fanpages (w tym lajki, które rozdawaliśmy stronom w stanie nietrzeźwym), staje przed oczami obraz newsfeedu wypełnionego przytłaczającą masą informacji.

Zakłada się, że gdyby nie mechanizm filtrujący treści, przy każdej nowej wizycie użytkownika na FB czekałoby na niego średnio 1500 edgesWięcej>>

Aby uwolnić nas od tego rodzaju problemu Facebook stworzył algorytm filtrujący treści wyświetlanie w newsfeedzie. Jego jedyną rolą jest obliczanie i przewidywanie tego, jak interesujące wydadzą się nam wybrane aktualności. Jako, że funkcją algorytmu jest priorytetyzacja edges, system nazwano EdgeRank.

Zdarzenia wyświetlane w aktualnościach są dobierane na podstawie Twoich połączeń oraz aktywności na Facebooku. Dzięki temu możesz zobaczyć więcej zdarzeń o interesującej Cię tematyce lub pochodzących od znajomych, z którymi najczęściej się kontaktujesz. Liczba polubień i komentarzy do danego posta oraz typ zdarzenia (np. zdjęcie, film, zmiana statusu) również ma wpływ na to, czy zobaczysz to zdarzenie w swoich aktualnościach.

Centrum Pomocy Facebooka

Powyższe wyjaśnienie jest bardzo ogólne, nie dotykające w żaden sposób składowych algorytmu EdgeRank. A te dzielą się na trzy podstawowe koszyki, tj.:

  • stopień powiązania (Affinity Score), wyrażający intensywność relacji między użytkownikami i edges. Przykładowo: częste “lajkowanie”, komentowanie, udostępnianie czy tagowanie jakieś osoby wzmacnia stopień powiązania, a w efekcie – częstszym wyświetlaniem zdarzeń tej osoby na naszej tablicy aktywności.
  • wagę interakcji (Edge Weight), określającą wartość określonej akcji. “Lajk” jest mniej wartościowy od komentarza, a komentarz od udostępnienia jakiejś treści. Przykładowo: kiedy udostępniamy zdarzenie jakiegoś innego użytkownika, jego aktywność będzie częściej wyświetlać się w naszym newsfeedzie, niż gdybyśmy jedynie polubili to zdarzenie.
  • czas (Time Decay), czyli to, jak długo edge egzystuje na Facebooku. Zmienna ta premiuje nowsze zdarzenia, a deprecjonuje starsze. Najprościej ujmując: aktualności starsze wypierane są przez nowsze, a w newsfeedziepierwszeństwo mają te najświeższe.

EdgeRank stale ewoluuje, np. nie mierzy już wyłącznie poziomu indywidualnych interakcji między użytkownikami i edges, ale także bierze pod uwagę tzw. globalne interakcje. Niemniej sama idea mechanizmu pozostaje niezmienna. Algorytm ma dbać o to, aby nie przytłoczyć użytkownika nadmiarem informacji, jednak samemu arbitralnie decydując o treściach, które zostaną wyświetlone w serwisie do jego wiadomości, a które nie. Biorąc pod uwagę nasze nawyki w poszukiwaniu newsów, można pokusić się o rozumowanie: to nie ja znajduję newsa, tylko news znajduje mnie – ale o tym, czy dany news rzeczywiście mnie znajdzie, decyduje już algorytm.

You’re in my bubble!

Eli Pariser to amerykański aktywista internetowy, założyciel portalu Upworthy. Jako jeden z pierwszych zwrócił uwagę opinii publicznej na zagrożenia płynące z personalizacji informacji opartej na algorytmach obecnych w social media i wyszukiwarkach internetowych. Jego wystąpienie na konferencji TED w 2011 roku wprowadziło do dyskursu pojęcie filter bubble – cyfrowej bańki, będącej efektem internetowej personalizacji, filtrującej i blokującej dopływ części informacji. W słowach Parisera, filter bubble to „osobiste i niepowtarzalne uniwersum informacyjne, w którym każde z nas żyje online”.

Eli Pariser swoje wnioski skonstruował na podstawie dwóch eksperymentów. Najpierw aktywista poprosił parę swoich przyjaciół o wpisanie w Google frazy “BP” (British Petroleum). Pierwszej osobie wyniki wyszukiwania podsunęły informacje o ofercie inwestorskiej, drugiej – informacje o wycieku ropy naftowej. Inną parę przyjaciół Pariser poprosił o wpisanie w wyszukiwarkę frazy “Egipt”. I podobnie, jeden przyjaciel natrafił na ofertę biura podróży, zaś drugi na artykuł dotyczący przemocy władz egipskich na placu Tahrir w trakcie tzw. Arabskiej Wiosny.

Już to stanowiło podstawę do sformułowania wniosku o kompletnie różnych obrazach rzeczywistości, do jakich prowadzi algorytm filtrujący wyszukiwane treści w Google (PageRank). Jednak inna obserwacja Parisera dotyczyła już stricte algorytmu filtrowania treści na Facebooku. Autor zauważył, że korzystając z serwisu i klikając w linki udostępnianie przez część jego znajomych o liberalnym światopoglądzie, z jego newsfeedu stopniowo znikają treści publikowane przez znajomych o światopoglądzie konserwatywnym. Wszystko to bez jego zgody, ponieważ EdgeRank samoistnie ogranicza dostęp do treści, które Pariser mógłby – ale nie musiałby – uznać za polaryzujące.

Te same mechanizmy, które mają odciążyć naszą uwagę od nadmiaru treści spoza kręgu zainteresowań, zamykają nas równocześnie w szczelnej „bańce” informacyjnej. Filter bubble to w praktyce bycie otoczonym jedynie przez ludzi, których lubimy i przez treści, z którymi się zgadzamy. Kształt “bańki” uzależniony jest od tego kim jesteśmy i co robimy, jednak świadomie nie decydujemy, co przez nią do nas przeniknie ani co zostało na zewnątrz niej. W ten sposób nie jesteśmy w stanie nawet ocenić, czy to czego filter bubble do nas nie dopuściło rzeczywiście byłoby dla nas niegodne uwagi.

Ciekawą ilustrację może stanowić eksperyment przeprowadzony przez Matta Honana z magazynu “WIRED”, który postanowił “lajkować” każdą (dosłownie każdą) treść, wyświetlającą się w jego newsfeedzie. Rezultat?

  • Pierwszym skutkiem był niemal całkowity brak treści udostępnianych przez innych użytkowników, a jedynie śmieciowej jakości informacje od marek, które… wyświetlały się także znajomym autora, stanowiąc poniekąd formę SPAMu.
  • Drugim skutkiem, który ujawnił się w szczególności po polubieniu pro-izrealskiego artykułu dot. konfliktu w Strefie Gazy, było przesunięcie się znacznej części wyświetlanych aktualności silnie w prawo na osi poglądów politycznych.

Ten przykład dobrze obrazuje obawę Eliego Parisera – niewidzialne algorytmy, bezrefleksyjnie cenzurujące pewne treści pod pozorem naszego dobra, ograniczają dostęp do pewnych informacji i zawężają światopogląd.

Would you kindly burst my bubble?

Cyfrowe “bańki” informacyjne mogą stanowić zagrożenie dla społeczeństwa, zubażając dyskurs publiczny i czyniąc nas bardziej podatnymi na propagandę i manipulację. Tradycyjne media jeszcze do niedawna stanowiły rolę tzw. gatekeepers, czyli instancji decydującej o tym, jakie informacje powinny trafić do opinii publicznej i w jakiej formie. Rola gatekeepera była nierozerwalnie związana z etyką dziennikarską, która kładzie akcent nie tylko na obiektywność i rzetelność, ale także prezentowanie odmiennych punktów widzenia i informacji – często niewygodnych, niepożądanych, a jednak potrzebnych. W sytuacji, w której rolę medium informacyjnego przejmują przede wszystkim social media z Facebookiem na czele, rolę gatekeeperów przejmują algorytmy, czyli de facto maszyny. Ich największym ograniczeniem jest operowanie poza wymiarem etyki. Algorytmy sortują według sztywnych reguł ważności, jednak nie posiadają miękkiej umiejętności subiektywnego rozróżnienia tego, co rzeczywiście ważne, od tego, co nieistotne lub szkodliwe z perspektywy naszego szeroko rozumianego dobra ogółu.

Bartosz Filip Malinowski

Artykuł pochodzi ze strony wethecrowd.pl

O autorze:

Pasjonat cyfrowej ekonomii, nowych mediów i modeli biznesowych, szukający równowagi między teorią a praktyką. Współzałożyciel serwisu WE the CROWD, CEO agencji kreatywnej CROWDthinks. Doktorant Zarządzania na UŁ, próbujący przetrzeć naukowe szlaki dla crowdsourcingu i ekonomii współdzielonej.