Dagmara Sidyk

Enklawy w „Facebookistanie”. W jaki sposób cyfrowy gigant zamyka swoich użytkowników w bańkach filtrujących informacje?

Wobec coraz większego rozkwitu formatów i platform medialnych w wirtualnym świecie, rola mediów społecznościowych – używanych przez zdecydowaną większość internautów[1] – ulega ciągłej ewolucji. Te „(…) zanurzone w społeczeństwie”[2] instytucje medialne nieustannie (i niemal w czasie rzeczywistym) dopasowują się do swoich użytkowników – do ich potrzeb, preferencji, a nawet nawyków. Tym samym zrewolucjonizowały sposób tworzenia i rozpowszechniania treści, zwłaszcza o charakterze informacyjnym. Media społecznościowe nie poprzestają bowiem na prostym przekazywaniu i agregowaniu informacji, ale prowadzą wprost do przedefiniowania istniejących w społeczeństwie systemów wiedzy[3]. Analizując to zjawisko z uwzględnieniem Bourdieusowskiej kategorii przemocy symbolicznej[4], Magdalena Szpunar – opierając się na rozważaniach Lewisa Mumforda[5] i Jaya Davida Boltera[6] – stawia tezę mówiącą o tym, że Internet staje się medium autorytarnym i definiującym; przestrzenią koncentrującą w sobie wszelkie przejawy władzy i kontroli, która kształtuje schematy myślowe swoich użytkowników[7]. Te same cechy przypisać można również funkcjonującym w świecie online mediom społecznościowych.

Facebook – społecznościowy gigant

Facebook jest jedną z najpopularniejszych domen odwiedzanych w polskim Internecie[8]. Ten uruchomiony w 2004 roku w Stanach Zjednoczonych portal (pełniący współcześnie także funkcję samoistnego medium) wciąż pozostaje niekwestionowanym liderem wśród serwisów społecznościowych[9]. W raporcie BrandZ Facebook znalazł się również na 6. miejscu wśród 100 najcenniejszych marek na świecie[10]. Witryna od samego początku charakteryzuje się innowacyjnym podejściem do mediów społecznościowych – zamiast statycznej zawartości w formie wirtualnej wizytówki, Facebook wykorzystuje aktywną formułę powiadomień o nowych treściach udostępnionych w portalu. Zarejestrowani użytkownicy serwisu mogą więc nie tylko korzystać z jego typowych, społecznościowych funkcji (dodawać innych użytkowników do grona swoich przyjaciół, komunikować się czy aktualizować swoje statusy), lecz także posługiwać się nim do publikowania zdjęć czy udostępniania materiałów audiowizualnych.

Jakob Gottschau w swoim filmie pt. Facebookistan prześwietlił działalność i strukturę Facebooka[11]. Duński reżyser nie tylko obnażył liczne przejawy naruszania dóbr osobistych użytkowników tego portalu (m.in. prawa do prywatności) czy bezprawnego gromadzenia ich danych osobowych po usunięciu profili (i tym samym uniemożliwiania skorzystania z prawa do zapomnienia), ale również poruszył jeden z bardziej drażliwych tematów związanych z funkcjonowaniem tego społecznościowego potentata: kwestię cenzury i moderowania publikowanych materiałów. Naturalnym rozwinięciem tego problemu powinna więc być refleksja związana z pozycjonowaniem treści dostępnych na Facebooku, a więc zagadnienie, które bezpośrednio dotyczy wszystkich użytkowników tego portalu.

(Nie)jawny algorytm Facebooka

Każdy facebookowicz charakteryzuje się indywidualną siecią kombinacji znajomych, oczekiwań i preferencji – wobec ponad 2,4miliarda aktywnych użytkowników[12] system filtrowania i segregowania dostępnych treści jest więc koniecznością. Za jego zalążek można uznać wprowadzenie w 2006 roku innowacyjnego porządku sortowania strumienia informacji na podstawie popularności postu[13]. Kolejne lata pracy przyczyniły się do powstania nowych narzędzi sprzyjających personalizacji wyświetlanych treści. Pierwszym z zaawansowanych mechanizmów, który w przeszłości decydował o propagacji treści na Facebooku (zarówno prywatnych postów, jak i publikacji sponsorowanych) był Edge Rank. System ten składał się z trzech czynników (koligacji, wagi postu i odstępu czasowego)[14], a iloczyn przypisanych im wartości decydował o sposobie pozycjonowania wszystkich unikatowych jednostek treści (a więc profilu, wpisu, zdjęcia, wideo, a nawet komentarza) względem każdego użytkownika.

Obecnie Facebook korzysta ze znacznie bardziej zaawansowanego narzędzia –algorytmu opartego na uczeniu maszynowym, który dobierając posty i ich kolejność do każdego unikalnego użytkownika[15], bierze pod uwagę około 100 tys. czynników w celu zmaksymalizowania czasu spędzanego przez facebookowiczów na platformie[16]. Do trzech głównych kategorii sygnałów rankingowych (ang. ranking signals) stosowanych przez facebookowy algorytm należą obecnie: interakcje użytkownika, rodzaj zastosowanych mediów w poście oraz popularność postu[17].

Przeprowadzone w ostatnich latach działania związane z udoskonalaniem algorytmu Facebooka obejmowały kilka kluczowych modyfikacji. Jedną z wcześniejszych było prezentowanie w pierwszej kolejności postów od znajomych i rodziny użytkownika, a także treści „informacyjnych”, „rozrywkowych” i wideo (w czasie rzeczywistym). Kolejne metamorfozy obejmowały m.in. zwiększenie wagi treści, które otrzymały reakcje inne niż polubienia, a także priorytetowe traktowanie postów, które uzyskały wiele wysokojakościowych informacji zwrotnych, takich jak komentarze, reakcje czy udostępnienia[18]. Najnowsze zmiany mają na celu pomóc użytkownikom Facebooka w zrozumieniu stosowanego przez portal algorytmu. Przykładem takiego rozwiązania jest udostępnienie opcji „Dlaczego widzę ten post?” widocznej przy każdej treści wyświetlanej w strumieniu wiadomości. Funkcja ta daje również możliwość bezpośredniego zakomunikowania swoich preferencji związanych z prezentowanymi treściami (np. rezygnacji z wyświetlania postów konkretnej osoby lub strony). Chronologię wprowadzania kluczowych zmian w algorytmie stosowanym przez Facebooka przedstawia Rysunek nr 1.

Źródło: opracowanie własne na podstawie: P. Cooper, How the Facebook Algorithm Works in 2020 and How to Make it Work for You, https://blog.hootsuite.com/facebook-algorithm/ (dostęp: 27.02.2020 r.).

Personalizacja treści, czyli cyfrowe bańki filtrujące

Wśród użytkowników Facebooka kontrowersje wzbudza fakt wyłącznie częściowego ujawnienia poszczególnych komponentów stosowanego przez portal algorytmu[19]. Niewidzialna kwalifikacja prezentowanych treści może powodować zamknięcie w transparentnej bańce informacyjnej i tym samym wpływać na światopogląd facebookowiczów. Taka selekcja treści może budzić skojarzenia z jednym z modelów komunikowania społecznego – gatekeepingiem[20]. Rolę strażnika odpowiedzialnego za dobór publikacji docierających do odbiorców, w teorii tej pełniły media tradycyjne, które zobowiązane były do prowadzenia swojej działalności w oparciu o etykę dziennikarską – powinny więc prezentować odmienne punkty widzenia w możliwie obiektywny i rzetelny sposób. W przypadku nadawców medialnych określanych przez Paula Levinsona mianem „nowych nowych mediów”[21], rolę strażnika – a właściwie selekcjonera – treści przejmują specjalne programy komputerowe (których przykładem jest omawiany właśnie algorytm Facebooka), funkcjonujące poza wymiarem etyki. Stosowana priorytetyzacja udostępnianych treści powoduje, że liczba postów proponowanych każdemu użytkownikowi zmniejsza się średnio z 1500 do 300, z czym nie kryją się sami inżynierowie Facebooka[22]. Ponadto podkreślają oni, że dobór materiałów prezentowanych każdemu facebookowiczowi jest uzależniony od jego indywidualnego sposobu aktywności na tym portalu – jest więc dla niego bardzo korzystny.

Jedną z pierwszych osób, które zwróciły uwagę na niepokojące symptomy personalizacji algorytmów obecnych w przeglądarkach internetowych i portalach społecznościowych był Eli Pariser, amerykański aktywista internetowy. W swoim wystąpieniu na konferencji TED w 2011 roku zdefiniował pojęcie cyfrowej bańki filtrującej (ang. filter buble), która blokuje dopływ części informacji do użytkownika, gdyż stanowi „osobiste i niepowtarzalne uniwersum informacyjne, w którym każdy z nas żyje online[23]. Pariser poparł swoją tezę dwoma eksperymentami, które polegały na wpisywaniu tych samych fraz do wyszukiwarki Google przez różne osoby. Dla przykładu, po wpisaniu hasła ‘Egipt’ część osób trafiała na ofertę biura podróży, a część na treści dotyczące przemocy władz egipskich na placu Tahrir podczas Arabskiej Wiosny Ludów. Zdaniem Parisera, podobny mechanizm spersonalizowanego doboru treści można odnaleźć właśnie na portalach społecznościowych.

Obserwacje te potwierdziło badanie dziennikarza Mata Honana z magazynu „Wire”, który zdecydował się na polubienie (pot. lajkowanie) każdej treści wyświetlającej się w jego strumieniu Aktualności. Efekty tego trwającego 48 godzin eksperymentu były zatrważające[24]. Przede wszystkim dziennikarz odnotował niemal całkowity brak treści generowanych i udostępnianych przez innych użytkowników – ich miejsce zajęły komercyjne informacje od znanych firm i marek. Jednocześnie znajomi dziennikarza zauważyli zmiany w swoich strumieniach Aktualności, które zostały zapełnione postami polubionymi wcześniej przez Honana – jego aktywność stanowiła więc dla nich swoistą odmianę spamu (informacji niepożądanych). Ponadto dziennikarz dostrzegł zmianę w politycznym sprofilowaniu swojego strumienia Aktualności po polubieniu proizraelskiego artykułu dot. konfliktu w Strefie Gazy – od tego momentu zdecydowana większość wyselekcjonowanych dla niego treści miała wyraźną prawicową (a nawet silnie konserwatywną) orientację.

Przywołane eksperymenty wydają się potwierdzać przekonanie o tym, że współcześni internauci poruszają się nie w przestrzeni monolitycznego Internetu, a raczej różnorodnych internetów[25]. Dywersyfikacja treści, z którą mamy do czynienia w świecie online, nieuchronnie prowadzi bowiem do powstania swoistych cyfrowych baniek filtrujących, które nie tylko oddzielają nas od innych użytkowników, ale także wyróżniają się spersonalizowanym zestawem treści. Zjawiskiem pokrewnym bańkom filtrującym jest powstawanie wirtualnych kabin pogłosowych (ang. echo chamber), w których przekonania własne użytkowników są wzmacniane przez powtarzające się komunikaty w zamkniętym systemie przepływu treści, pozbawionym innych punktów widzenia[26].

Choć mechanizm działania obu zjawisk dotyczących narażenia użytkowników na brak kontaktu z różnorodnymi treściami jest podobny (izolujący, transparentny i mimowolny), warto zaznaczyć, że pojęć tych nie należy traktować zamiennie. Komora pogłosowa jest bowiem metaforą ogólnego zjawiska, w którym spotykamy się wyłącznie z informacjami od osób o przekonaniach zbliżonych do nas. Powstanie bańki filtrującej jest z kolei wynikiem działania algorytmów, które selekcjonują treść na podstawie naszych wcześniejszych zachowań online[27].

Zakończenie

Facebook broni swojego mechanizmu selekcji proponowanych treści argumentując, że ogromna liczba publikowanych materiałów może spowodować pominięcie postów pożądanych przez użytkowników[28]. Tym samym stara się przeciwdziałać FOMO – trendowi bazującemu na lęku przed pominięciem istotnych treści[29]. Ponadto, część środowiska naukowego wskazuje, że obserwowanie czy lubienie osób i witryn prezentujących przekonania zbieżne z własnymi jest wpisane w naturę człowieka, a tym samym uniezależnione od algorytmów doboru wyświetlanych treści[30].

Jednak z drugiej, strony cyfrowa bańka informacyjna utwierdza użytkowników portali społecznościowych w błędzie poznawczym – błędzie konformacji, który polega na preferowaniu informacji potwierdzających ich poglądy i oczekiwania, niezależnie od tego, czy informacje te są prawdziwe czy nie[31]. Tym samym algorytmy stosowane przez Facebooka sprzyjają umocnieniu, a więc radykalizacji i polaryzacji środowisk o przeciwnych poglądach. Tendencja ta jest także niebezpieczna w przypadku rozprzestrzeniania się fake newsów[32], powodując bezkrytyczne myślenie odbiorców takich treści. Facebookowa (i nie tylko!) cyfrowa bańka informacyjna stanowi więc ogromne zagrożenie dla społeczeństwa, gdyż bezpośrednio wpływa na zubożenie dyskursu publicznego. Co więcej, działalność mediów społecznościowych prowokuje powstawanie enklaw światopoglądowych – ze względu na swój fanowski charakter[33] Facebook przyczynia się do wzmocnienia przekonań swoich użytkowników[34]. Są oni dodatkowo utwierdzani w swoich poglądach przez psychologiczny mechanizm złudzenia końca historii (ang. end-of-historyillusion)[35], a przez to – jeszcze bardziej podatni na propagandę i manipulację.

Manuel Castells podkreślał szczególną rolę technologii informacyjnych w rozwoju społeczeństwa, zwłaszcza w sferze społeczno-politycznej. Jego zdaniem źródłem współczesnej władzy jest przede wszystkim „(…)możność tworzenia i rozpowszechniania kodów kulturowych oraz treści informacyjnych. Panowanie nad sieciami komunikacyjnymi staje się dźwignią, która umożliwia przenoszenie własnych celów i wartości na obowiązujące normy zachowania ludzkiego”[36]. Oznacza to, że dzisiaj nie tylko autorzy, ale i publikatory informacji kreują nastroje społeczne – do tych podmiotów z pewnością zaliczyć należy media społecznościowe wraz z ich nieograniczoną liczbą użytkowników-nadawców przekazów, która znacząco utrudnia weryfikację prawdziwości i rzetelności publikowanych treści.

Bibliografia

  1. 2019 BrandZ Top 100 Most Valuable Global Brands 2019, https://www.brandz.com/admin/uploads/files/BZ_Global_2019_WPP.pdf (dostęp: 27.02.2020 r.).
  2. 2019 Guide to Facebook Publishing, http://go.newswhip.com/rs/647-QQK-704/images/Facebook%20Publishing%202019_Final.pdf (dostęp: 27.02.2020 r).
  3. Backstorm L., News Feed FYI: A Window Into News Feed, https://www.facebook.com/business/news/News-Feed-FYI-A-Window-Into-News-Feed (dostęp: 27.02.2020 r.).
  4. Bakshy, Messing S., Adamic L. A., Exposure to ideologically diverse news and opinion on Facebook, „Science” 2015, vol. 348, issue 6239, pp. 1130–1132.
  5. Bańko R., Facebook jako zalgorytmizowany proces stanowienia relacji, dostarczania wiedzy i translacji wartości [w:] Oblicza i dylematy, red. J. Kreft, Wydawnictwo Uniwersytetu Jagiellońskiego, Kraków 2017
  6. Bolter J. D., Człowiek Turinga. Kultura Zachodu w wieku komputera, Państwowy Instytut Wydawniczy, Warszawa 1990.
  7. Bourdieu P., O telewizji. Panowanie dziennikarstwa, Wydawnictwo Naukowe PWN, Warszawa 2009.
  8. Castells M., Galaktyka Internetu: refleksje nad Internetem, biznesem i społeczeństwem, Rebis, Poznań 2003.
  9. Cooper P., How the Facebook Algorithm Works in 2020 and How to Make it Work for You, https://blog.hootsuite.com/facebook-algorithm/ (dostęp: 27.02.2020 r.).
  10. Del Vicario M. et al, The spreading of misinformation online, „Proceedings of the National Academy of Sciences”, vol. 113, no. 3, pp. 554-559.
  11. Difranzo D. J., Gloria-Garcia K., Filter bubbles and fake news, „Crossroads” 2017, vol. 23, issue 3, pp. 32-35.
  12. Facebook na czele przed Instagramem, Wykop przyciąga mocniej niż Twitter i Pinterest (TOP10 serwisów społecznościowych), https://www.wirtualnemedia.pl/artykul/spolecznosciowe-serwisy-i-aplikacje-w-polsce-facebook-przed-instagram-wykop-przyciaga-mocniej-niz-twitter-i-pinterest-top10 (dostęp: 27.02.2020 r.).
  13. Facebook Newsfeed Algorithm History, https://wallaroomedia.com/facebook-newsfeed-algorithm-history/ (dostęp: 27.02.2020 r.).
  14. Facebookistan [film], reż. Jakob Gottschau, Yleisradio (YLE) 2016.
  15. Garrett R. K., Echo chambers online? Politically moti-vated selective  exposure  among  Internet  news  users, „Journal of Computer-Mediated Communication” 2009, vol. 14, issue 2, pp. 265–285.
  16. Honan M., I Liked Everything I Saw on Facebook for Two Days. Here’s What It Did to Me, https://www.wired.com/2014/08/i-liked-everything-i-saw-on-facebook-for-two-days-heres-what-it-did-to-me/, (dostęp: 27.02.2020 r.).
  17. Innis H., Nachylenie komunikacyjne, [w:] Communicare, Almanach Antropologiczny. Oralność/Piśmienność, red. G. Godlewski et al., Wydawnictwa Uniwersytetu Warszawskiego, Warszawa 2007.
  18. Kahneman D., Slovic P., Tversky A., Judgment under uncertainty: heuristics and biases, Cambridge University Press, Cambridge 1985.
  19. Lacapria K., Does a New Facebook Algorithm Only Show You 26 Friends?, https://www.snopes.com/fact-check/new-facebook-algorithm-26-friends/ (dostęp: 27.02.2020 r.).
  20. Levin K., Forces behind food habits and methods of change, “Bulletin of the National Research Council” 1943, no. 108, s. 35–65, https://www.nap.edu/read/9566/chapter/8 (dostęp: 27.02.2020 r.).
  21. Levinson P., Nowe nowe media, Wydawnictwo WAM, Kraków 2010.
  22. Matuszewski P., Wykorzystanie mediów informacyjnych w dyskusjach politycznych na Facebooku, „Studia Medioznawcze” 2018, nr 1, s. 27-42.
  23. McGee M., EdgeRank Is Dead: Facebook’s News Feed Algorithm Now Has Close To 100K Weight Factors, https://marketingland.com/edgerank-is-dead-facebooks-news-feed-algorithm-now-has-close-to-100k-weight-factors-55908 (dostęp: 27.02.2020 r).
  24. Mumford L., Authoritarian and Democratic Technics, „Technology and Culture” 1964, vol. 5, no. 1, pp. 1–8.
  25. Pariser E., Uważaj na internetowe „bańki z filtrami” https://www.ted.com/talks/eli_pariser_beware_online_filter_bubbles?language=pl (dostęp: 27.02.2020 r.).
  26. Prószyński J., Tajemnice Edge Ranka – jak publikować na Facebooku?, http://pijarukoksu.pl/tajemnice-edge-ranka-publikowac-facebooku.html (dostęp: 07.06.2017 r.).
  27. Przybylski A. K. et al., Motivational, emotional and behavioral correlates of fear of missing out, “Computers in Human Behavior” 2013, vol. 29, issue 4, pp. 1841-1848.
  28. Quoidbach J., Gilbert D. T., Wilson T. D., The End of History Illusion, „Science” 2013, vol. 339, issue 6115, 96-98.
  29. Szpunar M., Koncepcja bańki filtrującej a hipernarcyzm nowych mediów, „Zeszyty Prasoznawcze” 2018, t. 61, nr 2.
  30. van Dijk J., Społeczne aspekty nowych mediów. Analiza społeczeństwa sieci, Wydawnictwo Naukowe PWN, Warszawa 2010.
  31. We are social in partnership with Hootsuite, Digital 2020 Global Overview Report, https://wearesocial.com/digital-2020 (dostęp: 27.02.2020 r.).
  32. Wyniki badania Gemius/PBI za styczeń 2020, https://www.gemius.pl/reklamodawcy-aktualnosci/wyniki-badania-gemiuspbi-za-styczen-2020.html (dostęp: 27.02.2020 r.).

[1] Według badania „Digital 2020” przeprowadzonego przez „We are social”, liczba internautów na całym świecie wynosi 4,54 miliarda, a liczba użytkowników mediów społecznościowych wynosi 3,80 miliarda. Zob. We are social in partnership with Hootsuite, Digital 2020 Global Overview Report, https://wearesocial.com/digital-2020 (dostęp: 27.02.2020 r.).

[2]J. van Dijk, Społeczne aspekty nowych mediów. Analiza społeczeństwa sieci, Wydawnictwo Naukowe PWN, Warszawa 2010, s. 62.

[3] H. Innis, Nachylenie komunikacyjne, [w:] Communicare, Almanach Antropologiczny. Oralność/Piśmienność, red. G. Godlewski et al., Wydawnictwa Uniwersytetu Warszawskiego, Warszawa 2007.

[4] P. Bourdieu, O telewizji. Panowanie dziennikarstwa, Wydawnictwo Naukowe PWN, Warszawa 2009.

[5] L. Mumford, Authoritarian and Democratic Technics, „Technology and Culture” 1964, vol. 5, no. 1, pp. 1–8.

[6] J. D. Bolter, Człowiek Turinga. Kultura Zachodu w wieku komputera, Państwowy Instytut Wydawniczy Warszawa 1990, s. 43.

[7] M. Szpunar, Koncepcja bańki filtrującej a hipernarcyzm nowych mediów, „Zeszyty Prasoznawcze” 2018, t. 61, nr 2, s. 192.

[8]Wyniki badania Gemius/PBI za styczeń 2020, https://www.gemius.pl/reklamodawcy-aktualnosci/wyniki-badania-gemiuspbi-za-styczen-2020.html (dostęp: 27.02.2020 r.).

[9]Facebook na czele przed Instagramem, Wykop przyciąga mocniej niż Twitter i Pinterest (TOP10 serwisów społecznościowych), https://www.wirtualnemedia.pl/artykul/spolecznosciowe-serwisy-i-aplikacje-w-polsce-facebook-przed-instagram-wykop-przyciaga-mocniej-niz-twitter-i-pinterest-top10 (dostęp: 27.02.2020 r.).

[10]2019 BrandZ Top 100 Most Valuable Global Brands 2019, https://www.brandz.com/admin/uploads/files/BZ_Global_2019_WPP.pdf (dostęp: 27.02.2020 r.).

[11]Facebookistan [film], reż. JakobGottschau, Yleisradio (YLE) 2016.

[12] J. Clement, Global social networks ranked by number of users 2020, https://www.statista.com/statistics/272014/global-social-networks-ranked-by-number-of-users/ (dostęp: 27.02.2020 r.).

[13]Facebook Newsfeed Algorithm History, https://wallaroomedia.com/facebook-newsfeed-algorithm-history/ (dostęp: 27.02.2020 r.).

[14] J. Prószyński, Tajemnice Edge Ranka – jak publikować na Facebooku?, http://pijarukoksu.pl/tajemnice-edge-ranka-publikowac-facebooku.html (dostęp: 07.06.2017 r.).

[15]Warto jednak odnotować, że część prezentowanych postów jest po prostu materiałem sponsorowanym, co sprowadza się do tego, że strona udostępniająca daną treść płaci Facebookowi za dotarcie do określonej liczby wyselekcjonowanych odbiorców.

[16] M. McGee, EdgeRank Is Dead: Facebook’s News Feed Algorithm Now Has Close To 100K Weight Factors, https://marketingland.com/edgerank-is-dead-facebooks-news-feed-algorithm-now-has-close-to-100k-weight-factors-55908 (dostęp: 27.02.2020 r).

[17]P. Cooper, How the Facebook Algorithm Works in 2020 and How to Make it Work for You, https://blog.hootsuite.com/facebook-algorithm/ (dostęp: 27.02.2020 r.).

[18] Badanie przeprowadzone przez NewsWhip wykazało, że zmiany wprowadzane w algorytmie Facebooka, które mają na celu zwiększenie zaangażowania użytkowników, jednocześnie zwiększają polaryzację społeczną.Zob. 2019 Guide to Facebook Publishing, http://go.newswhip.com/rs/647-QQK-704/images/Facebook%20Publishing%202019_Final.pdf (dostęp: 27.02.2020 r).

[19] Zmiany w algorytmie Facebooka stanowią również inspiracje dla licznych fałszywych informacji, rozpowszechnianych m.in. na łamach samego portalu. Zob. K. Lacapria, Does a New Facebook Algorithm Only Show You 26 Friends?, https://www.snopes.com/fact-check/new-facebook-algorithm-26-friends/(dostęp: 27.02.2020 r.).

[20]K. Levin, Forces behind food habits and methods of change, “Bulletin of the National Research Council” 1943, no. 108, s. 35–65,https://www.nap.edu/read/9566/chapter/8 (dostęp: 27.02.2020 r.).

[21] Zob. P. Levinson, Nowe nowe media, Wydawnictwo WAM, Kraków 2010.

[22] L. Backstorm, News Feed FYI: A Window Into News Feed, https://www.facebook.com/business/news/News-Feed-FYI-A-Window-Into-News-Feed (dostęp: 27.02.2020 r.).

[23] E. Pariser, Uważaj na internetowe „bańki z filtrami” https://www.ted.com/talks/eli_pariser_beware_online_filter_bubbles?language=pl (dostęp: 27.02.2020 r.).

[24] M. Honan, I Liked Everything I Saw on Facebook for Two Days. Here’s What It Did to Me, https://www.wired.com/2014/08/i-liked-everything-i-saw-on-facebook-for-two-days-heres-what-it-did-to-me/, (dostęp: 27.02.2020 r.).

[25] M. Szpunar, op. cit.

[26] R. K. Garrett, Echo chambers online? Politically moti-vated  selective  exposure  among  Internet  news  users, „Journal of Computer-Mediated Communication” 2009, vol. 14, issue 2, pp. 265–285.

[27] E. Bakshy, S. Messing, L. A. Adamic, Exposure to ideologically diverse news and opinion on Facebook, „Science” 2015, vol. 348, issue 6239, pp. 1130–1132.

[28] L. Backstorm, op. cit.

[29]Zob. A. K. Przybylski et al., Motivational, emotional and behavioral correlates of fear of missing out, “Computers in Human Behavior” 2013, vol. 29, issue 4, pp. 1841-1848.

[30] E. Bakshy, S. Messing, L. A. Adamic, op. cit.

[31]Zob. D. Kahneman, P. Slovic, A. Tversky, Judgment under uncertainty: heuristics and biases, Cambridge University Press, Cambridge 1985.

[32]Zob. M. Del Vicario et al, The spreading of misinformation online, „Proceedings of the National Academy of Sciences”, vol. 113, no. 3, pp. 554-559.

[33]P. Levinson, op. cit. R. Bańko, Facebook jako zalgorytmizowany proces stanowienia relacji, dostarczania wiedzy i translacji wartości [w:] Facebook. Oblicza i dylematy, red. J. Kreft, Wydawnictwo Uniwersytetu Jagiellońskiego,Kraków 2017. P. Matuszewski, Wykorzystanie mediów informacyjnych w dyskusjach politycznychna Facebooku, „Studia Medioznawcze” 2018, nr 1, s. 27-42.

[34] W ostatnich latach media społecznościowe były obwiniane za tworzenie baniek filtrujących uniemożliwiających użytkownikom zapoznanie się z alternatywnymi poglądami w kontekście politycznych wydarzeń z 2016 r.: referendum w Wielkiej Brytanii dotyczącego dalszego członkostwa w Unii Europejskiej oraz wyborów prezydenckich w USA. Zob. D. J. Difranzo, K. Gloria-Garcia, Filterbubbles and fake news, „Crossroads” 2017, vol. 23, issue 3, pp. 32-35.

[35] Przekonanie o doświadczeniu znacznego rozwoju osobistego do chwili obecnej – bez perspektyw dalszego wzrostu w przyszłości; uznanie, że jesteśmy już tacy, jacy powinniśmy być – w pełni ukształtowani (zob. J. Quoidbach, D. T. Gilbert, T. D. Wilson, The End of History Illusion, „Science” 2013, vol. 339, issue 6115,pp. 96-98).

[36]M. Castells, Galaktyka Internetu: refleksje nad Internetem, biznesem i społeczeństwem,wyd. Rebis, Poznań 2003. S. 186.

Streszczenie: Artykuł podejmuje zagadnienie baniek filtrujących informacje w świecie mediów cyfrowych. Poprzez liczne odwołania do wiodących teorii socjologiczno-medioznawczych w tekście omówiono zarys zjawiska dopasowywania treści do preferencji użytkowników, na przykładzie działań podejmowanych przez Facebooka, wiodący serwis społecznościowy.

Summary: This article addresses the issue of filter bubbles in the digital media ecosystem. By mentioning the leading theories from sociology and media studies, the text discusses the outline of adapting content to users’ preferences, on the example of actions taken by Facebook, the leading social network.

Słowa kluczowe: media społecznościowe, Facebook, bańka filtrująca, kabina pogłosowa

Keywords: social media, Facebook, filter bubble, echo chamber

O autorce: Doktorantka nauk o mediach oraz absolwentka prawa na Uniwersytecie Warszawskim, edukatorka medialna. Uczestniczka licznych projektów badawczych. Członkini zespołu redakcyjnego czasopisma naukowego Polskiego Towarzystwa Komunikacji Społecznej „Central European Journal of Communication”. Jej zainteresowania naukowo-badawcze obejmują m.in. prawo mediów, monitoring mediów oraz oddziaływanie mediów. W wolnych chwilach podróżuje oraz stara się nadrabiać serialowe zaległości.