Filterblase2test

Vorlage:Delete

Erstmals von Eli Pariser entwickeltes Konzept zur Beschreibung individualisierter digitaler Umgebungen, in die lediglich solche Informationen und solches Wissen gelangen, die dem maschinell erstellten Persönlichkeitsprofil des_r jeweiligen Nutzer_in und damit den vermeintlichen Vorlieben, Interessen und persönlichen Einstellungen entsprechen.
Perspektive: Medienwissenschaft Querverweise:
Icon medien kultur wissenschaft.png

Was bezeichnet der Begriff?

Als Filterblase oder Filter Bubble wird eine individualisierte und auf die Vorlieben der Internetnutzer_innen angepasste Umgebung bezeichnet, in die lediglich solche Informationen und solches Wissen gelangen, die dem maschinell erstellten Persönlichkeitsprofil des_r jeweiligen Nutzer_in entsprechen.

Filterblasen entstehen nach der Auffassung einiger Medienwissenschaftler_innen dadurch, dass den Internetnutzer_innen bei der Verwendung von Suchmaschinen und sozialen Netzwerken, die als sogenannte Information Retrieval Systeme verstanden werden können, nur eine sehr kleine Auswahl aller potenziell verfügbaren Informationen angezeigt wird. Insbesondere in sozialen Netzwerken wird diese Nachrichtenauswahl, die dann beispielsweise im News Feed oder in der Timeline der jeweiligen Person erscheint, "im großen Umfang personalisiert und vorsortiert"[1]. Durch Algorithmen werden also Inhalte priorisiert und verfügbar gemacht, die mit hoher Wahrscheinlichkeit den Interessen und Überzeugungen der nutzenden Person entsprechen.[2] Die hierfür notwendigen Kriterien beziehen die Algorithmen aus bisherigen Verhaltensweisen der Nutzer_innen, zum Beispiel welche Links geklickt oder welche Seiten favorisiert wurden.[3] Die Algorithmen fungieren demnach wie Informations- oder Nachrichtenfilter.

Mit der Metapher der Blase soll betont werden, dass jede_r Nutzer_in eine solche individualisierte Informationsphäre allein besetzt. Das heißt, dass niemals zwei oder mehrere Personen exakt dieselbe Auswahl an Informationen und Nachrichten erhalten. Darin besteht auch die politische Implikation des Begriffs der Filterblase: mit ihr soll die Sorge ausgedrückt werden, dass Individuen durch die Wirkprinzipien der Filterblase ein "verzerrtes Bild der Wirklichkeit"[4] erhalten könnten, was sich letztlich negativ auf demokratische Prozesse auswirke.

Ein in diesem Zusammenhang ebenfalls häufig genannter Begriff ist die sogenannte Echokammer (engl. Echo Chamber). Dieser setzt den Fokus weniger auf die maschinell herbeigeführte Limitation von Informationen durch beispielsweise Algorithmen. Vielmehr soll mit dem Bild der Echokammer die Tendenz von Internetnutzer_innen veranschaulicht werden, "sich hauptsächlich mit Personen und Institutionen auseinanderzusetzen, die die gleiche Meinung wie sie vertreten."[5]

Woher kommt der Begriff?

Der Begriff der Filterblase (engl. filter bubble) ist auf den US-amerikanischen Autoren Eli Pariser zurückzuführen, der in seinem Buch Filter bubble: wie wir im Internet entmündigt werden (2012) auf mögliche Risiken aufmerksam macht, die im Zusammenhang mit einer durch Algorithmen oder den von ihm sogenannten "Prognosemaschinen"[6] vorangetriebenen Personalisierung von Nachrichten und Informationen im Internet einhergehen können. Pariser beschreibt das von ihm postulierte Phänomen darin als ein "Informationsuniversum für jeden von uns"[7]. Anders als bei älteren Medien wie beispielsweise dem Fernsehen, bei dem gleichzeitig mehrere Zuschauer_innen denselben Kanal schauen und somit auf die gleichen Informationen zugreifen können, habe im Internet und insbesondere in den sozialen Medien jede_r Nutzer_in eine eigene Informationsblase. Die Folge sei, so Parisers These, dass die im Zeitalter des Internets lebenden Individuen informationell voneinander isoliert, fragmentiert und möglicherweise sogar auseinandergetrieben würden.[8] Die Funktionsweisen der betreffenden Plattformen und Suchmaschinen seien aber auch deshalb unethisch, weil für die Nutzer_innen kaum ersichtlich werde, auf Basis welcher Kriterien ebenjene Informationsauswahl getroffen wurde und ob die aus diesem Auswahlprozess gewonnenen Erkenntnisse über die eigene Person adäquat sind. Nicht zuletzt könne man sich außerdem nicht dafür- oder dagegenentscheiden, in eine Filterblase einzusteigen; sie sei vielmehr eine zentrale Bedingung sämtlicher Interaktionen im Internet.[9]

Wann ist das wichtig?

Seit der Veröffentlichung seines Buches erfuhr Parisers These zur Filterblase im öffentlichen Diskurs um den Einfluss von Social Media auf politische Debatten und demokratische Prozesse beachtliche Resonanz. Vor allem im journalistischen Feuilleton wurde der Begriff häufig aufgegriffen. Zuletzt ließ sogar das Oberlandesgericht in Karlsruhe den Begriff in sein Urteil zur Durchführung von Faktenchecks durch das Recherchezentrum CORRECTIV einfließen[10], was teilweise auf starke Kritik stieß.[11]

Denn ob die Filterblase ein adäquates Modell darstellt, um die in sozialen Medien und allgemein im Internet wirkenden Mechanismen zu beschreiben, ist fraglich und wird unter Kommunikations- und Medienwissenschaftler_innen bis heute kontrovers diskutiert. In Studien - beispielsweise anhand von Nutzer_innenbefragungen[12] oder der Analyse großer Datenmengen[13] - wurde zudem versucht, die These Parisers empirisch zu prüfen.[14] Von Interesse ist bei diesen Studien die Frage, wie vielfältig (zum Beispiel thematisch oder politisch) die Informationen tatsächlich sind, die einer Person beispielsweise in einem sozialen Netzwerk wie Facebook oder Twitter angezeigt werden.[15] Die Ergebnisse zeigen, dass die Rolle von Algorithmen und anderen Bestandteilen der technischen Umgebung bei der Informationsauswahl für die Nutzer_innen von sozialen Netzwerken deutlich kleiner ausfällt, als von Pariser angenommen. Die in diesem Zusammenhang besonders bekannte Studie von Bakshy et al. (2015) legt die Vermutung nahe, dass vielmehr die Nutzer_innen selbst diejenigen Inhalte für die Rezeption auswählen, die ihren eigenen ideologischen Vorlieben am ehesten entsprechen.[16] Informationsvielfalt ist gerade im Internet zwar durchaus gegeben, sie wird in der Regel jedoch wenig genutzt.

Es wird daher vermutet, dass im Internet ein ähnliches Prinzip wie in anderen, nicht virtuellen sozialen Netzwerken wirkt, in denen zwischenmenschliche Beziehungen durch Interaktionen hergestellt werden, nämlich das Prinzip der Homophilie.[17] Dieses Prinzip besagt, dass Kontakte zwischen solchen Individuen, die einander ähnlich sind, sehr viel wahrscheinlicher sind, als Kontakte zwischen eher unterschiedlichen Individuen.[18] Menschen suchen den sozialen Kontakt und die Nähe zu anderen Menschen, die ähnliche Charakteristika besitzen wie sie selbst. Dies betrifft soziale Bande wie die Freundschaft oder Ehe und lässt sich darüber hinaus auch auf komplexere Netzwerke wie die Arbeit, die Mitgliedschaft von Vereinen oder die Follower von öffentlichen Profilen in sozialen Medien anwenden.[19] Zentrale These der Homophilie ist sodann, dass sie einen enormen Einfluss auf die Struktur von sozialen Netzwerken hat und entscheidend dafür ist, wie der Informationsfluss innerhalb dieser Netzwerke beschaffen ist. Homophilie bestimmt also im Wesentlichen, "welche Informationen und Nachrichten Individuen erhalten, welche Haltungen sie diesen gegenüber entwickeln und welche Interaktionen sie erfahren."[20]

Als Reaktion auf Parisers Filterblasen-These und um ein ähnlich prägnantes Bild für das Prinzip der Homophilie in virtuellen Netzwerken wie Social Media bereitzustellen, wird häufig das Modell der Echokammer herangezogen.[21] Sie soll veranschaulichen, dass Homophilie für eine fortwährende Bestätigung der eigenen Meinungen und ideologischen Überzeugungen durch andere verantwortlich ist. In diesen sogenannten Echokammern zirkulieren nur bestimmte Informationen, ein genereller und übergreifender Austausch ideologisch konträrer Meinungen wird dadurch deutlich erschwert.

Die hier erläuterten Erklärungsmodelle stehen in einigem Widerspruch zu solchen Theorien, die dem Internet ein dezidiert demokratisierendes Potential zusprechen. Zu nennen wäre hier beispielsweise der Kommunikationswissenschaftler Peter Dahlgren, der das Internet als eine Sphäre der Öffentlichkeit beschreibt, die wie keine andere Sphäre eine relativ freie Zirkulation von Informationen, Meinungen und Debatten unter den Nutzer_innen erlaubt und so zu einem breiten öffentlichen Dialog beiträgt.[22] Entgegen der Annahme des Homophilieprinzips spricht sich Dahlgren für eine Lesart des Internets als Ort möglicher Heterogenisierung politischer Lager und Pluralisierung von Gesellschaft allgemein aus.[23]

Weiterführende Literatur

  • Boutyline, Andrei und Robb Willer. 2017. „The Social Structure of Political Echo Chambers: Variation in Ideological Homophily in Online Networks.” Political Psychology, Vol. 38 (3): 551-569. DOI: 10.1111/pops.12337.
  • Colleoni, Elanor; Alessandro Rozza und Adam Arvidsson. 2014. "Echo chamber or public sphere? Predicting political orientation and measuring political homophily in Twitter using big data." Journal of Communication, 64, 317–332. URL: https://doi.org/10.1111/jcom.12084.
  • Dahlgren, Peter. 2005. “The Internet, Public Spheres, and Political Communication: Dispersion and Deliberation.” Political Communication, 22 (2), 147-162. DOI: 10.1080/10584600590933160.
  • Mahrt, Merja. 2019. Beyond Filter Bubbles and Echo Chambers: The Integrative Potential of the Internet. Berlin: Digital Communication Research. DOI: https://doi.org/10.17174/dcr.v5.0.
  • McPherson, Miller; Lynn Smith-Lovin und James M. Cook. 2001. „Birds of a Feather: Homophily in Social Networks“. Annual Review of Sociology, 27: 415-444. DOI: 10.1146/annurev.soc.27.1.415.
  • Messingschlager, Tanja und Peter Holtz. „Filter Bubbles und Echo Chambers.“ In: Die Psychologie des Postfaktischen: Über Fake News, „Lügenpresse“, Clickbait & Co., herausgegeben von Markus Appel, 91-102. Berlin, Heidelberg: Springer.
  • Pariser, Eli. 2012. Filter bubble: wie wir im Internet entmündigt werden. München: Hanser.

Quellenverzeichnis

  1. Messingschlager, Tanja und Peter Holtz. „Filter Bubbles und Echo Chambers.“ In: Die Psychologie des Postfaktischen: Über Fake News, „Lügenpresse“, Clickbait & Co., herausgegeben von Markus Appel, 91-102. Berlin, Heidelberg: Springer, S. 92.
  2. Messingschlager, Tanja und Peter Holtz. „Filter Bubbles und Echo Chambers.“ In: Die Psychologie des Postfaktischen: Über Fake News, „Lügenpresse“, Clickbait & Co., herausgegeben von Markus Appel, 91-102. Berlin, Heidelberg: Springer, S. 92.
  3. Messingschlager, Tanja und Peter Holtz. „Filter Bubbles und Echo Chambers.“ In: Die Psychologie des Postfaktischen: Über Fake News, „Lügenpresse“, Clickbait & Co., herausgegeben von Markus Appel, 91-102. Berlin, Heidelberg: Springer, S. 93.
  4. Messingschlager, Tanja und Peter Holtz. „Filter Bubbles und Echo Chambers.“ In: Die Psychologie des Postfaktischen: Über Fake News, „Lügenpresse“, Clickbait & Co., herausgegeben von Markus Appel, 91-102. Berlin, Heidelberg: Springer, S. 93.
  5. Messingschlager, Tanja und Peter Holtz. „Filter Bubbles und Echo Chambers.“ In: Die Psychologie des Postfaktischen: Über Fake News, „Lügenpresse“, Clickbait & Co., herausgegeben von Markus Appel, 91-102. Berlin, Heidelberg: Springer, S. 94.
  6. Pariser, Eli. 2012. Filter bubble: wie wir im Internet entmündigt werden. München: Hanser, S. 17.
  7. Pariser, Eli. 2012. Filter bubble: wie wir im Internet entmündigt werden. München: Hanser, S. 17.
  8. Pariser, Eli. 2012. Filter bubble: wie wir im Internet entmündigt werden. München: Hanser, S. 17f.
  9. Pariser, Eli. 2012. Filter bubble: wie wir im Internet entmündigt werden. München: Hanser, S. 18.
  10. o.A. 2015. "In eigener Sache. Urteil: OLG Karlsruhe beanstandet nicht Faktencheck von CORRECTIV, sondern nennt einzelne Verknüpfung missverständlich." CORRECTIV. Recherchen für die Gesellschaft. (20.06). AUfgerufen am 05.10.2020. URL: https://correctiv.org/in-eigener-sache/2020/06/05/urteil-des-olg-karlsruhe.
  11. Der Soziologe Christoph Kucklick machte hieraufhin auf Twitter auf die Vielzahl von Studien aufmerksam, die der These der Filterblase widersprechen: https://twitter.com/chkucklick/status/1216446392207577089?lang=en. In dem Podcast "Breitband" über Medien und digitale Kultur identifiziert Kucklick den Diskurs um die Filterblase als ein typisches Symptom einer Medienpanik: https://www.deutschlandfunkkultur.de/breitband-sendungsueberblick-mythos-filterblase.1264.de.html?dram:article_id=468750.
  12. Vgl. Barnidge, Matthew. 2017. "Exposure to political disagreement in social media versus face-to-face and anonymous online settings." Political Communication, 34, 302–321. URL: https://doi.org/10.1080/10584609.2016.1235639.
  13. Vgl. u.a. Bakshy, Eytan; Solomon Messing und Lada A. Adamic. 2015. "Exposure to ideologically diverse news and opinion on Facebook." Science, 348, 1130–1132. URL: https://research.fb.com/wp-content/uploads/2015/05/exposure-to-ideologically-diverse.pdf.
  14. Eine Übersicht über relevante Studien findet sich bei Messingschlager, Tanja und Peter Holtz. „Filter Bubbles und Echo Chambers.“ In: Die Psychologie des Postfaktischen: Über Fake News, „Lügenpresse“, Clickbait & Co., herausgegeben von Markus Appel, 91-102. Berlin, Heidelberg: Springer, S. 96.
  15. Messingschlager, Tanja und Peter Holtz. „Filter Bubbles und Echo Chambers.“ In: Die Psychologie des Postfaktischen: Über Fake News, „Lügenpresse“, Clickbait & Co., herausgegeben von Markus Appel, 91-102. Berlin, Heidelberg: Springer, S. 98.
  16. Bakshy, Eytan; Solomon Messing und Lada A. Adamic. 2015. "Exposure to ideologically diverse news and opinion on Facebook." Science, 348, 1130–1132. URL: https://research.fb.com/wp-content/uploads/2015/05/exposure-to-ideologically-diverse.pdf, S. 1.
  17. McPherson, Miller; Lynn Smith-Lovin und James M. Cook. 2001. „Birds of a Feather: Homophily in Social Networks“. Annual Review of Sociology, 27: 415-444. Aufgerufen am 05.10.2020. DOI: 10.1146/annurev.soc.27.1.415, S. 1.
  18. McPherson, Miller; Lynn Smith-Lovin und James M. Cook. 2001. „Birds of a Feather: Homophily in Social Networks“. Annual Review of Sociology, 27: 415-444. Aufgerufen am 05.10.2020. DOI: 10.1146/annurev.soc.27.1.415, S. 2.
  19. McPherson, Miller; Lynn Smith-Lovin und James M. Cook. 2001. „Birds of a Feather: Homophily in Social Networks“. Annual Review of Sociology, 27: 415-444. Aufgerufen am 05.10.2020. DOI: 10.1146/annurev.soc.27.1.415, S. 2.
  20. McPherson, Miller; Lynn Smith-Lovin und James M. Cook. 2001. „Birds of a Feather: Homophily in Social Networks“. Annual Review of Sociology, 27: 415-444. Aufgerufen am 05.10.2020. DOI: 10.1146/annurev.soc.27.1.415, S. 1 (Übersetzung der Verfasserin).
  21. So zum Beispiel für das Medium Twitter bei Boutyline, Andrei und Robb Willer. 2017. „The Social Structure of Political Echo Chambers: Variation in Ideological Homophily in Online Networks.” Political Psychology, Vol. 38 (3): 551-569. DOI: 10.1111/pops.12337, S. 1.
  22. Colleoni, Elanor; Alessandro Rozza und Adam Arvidsson. 2014. "Echo chamber or public sphere? Predicting political orientation and measuring political homophily in Twitter using big data." Journal of Communication, 64, 317–332. Aufgerufen am 05.10.2020. URL: https://doi.org/10.1111/jcom.12084, 317f.
  23. Dahlgren, Peter. 2005. “The Internet, Public Spheres, and Political Communication: Dispersion and Deliberation.” Political Communication, 22 (2), 147-162. Aufgerufen am 05.10.2020. DOI: 10.1080/10584600590933160, S. 1.

Die erste Version dieses Beitrags wurde von Vesna Schierbaum im Rahmen des Projekts "Digitale Souveränität" am Institut für Medienrecht und Kommunikationsrecht und am Institut für Medienkultur und Theater der Universität zu Köln erstellt.