Data Justice (Medienwissenschaft)

Icon medien kultur wissenschaft.png

Data Justice bezeichnet den gerechten Umgang mit Daten. Grundlage für die stets strittige Beurteilung können Richtlinien für die Datenverarbeitung, mögliche Maßnahmen gegen einhergehende Diskriminierung sowie allgemeine Strategien sein, um Gerechtigkeit im Zusammenhang mit digitaler Datenverarbeitung zu fördern.

Dieser Artikel verweist auf folgende weitere Beiträge:
Algorithmisches Entscheiden (Rechtswissenschaft), Algorithmus (Medienwissenschaft), Big Data (Medienwissenschaft), Datafizierung (Medienwissenschaft), Daten (Medienwissenschaft), Datenschutz (Rechtswissenschaft), Digitale Resignation (Medienbildung), Digitalisierung (Medienwissenschaft), Kontrollverlust (Medienwissenschaft), Künstliche Intelligenz (Medienwissenschaft), Mediale Kontrolle (Medienwissenschaft), Online-Aktivismus (Medienwissenschaft), Personenbezogene Daten (Rechtswissenschaft), Transparenz (Rechtswissenschaft), Überwachung (Medienwissenschaft)

Was bezeichnet dieser Begriff?

Der Begriff Data Justice wird sehr unterschiedlich gefüllt. Das Data Justice Lab der Universität Cardiff definiert den Terminus „Data Justice“ durch seine Funktion:

„The term ‚data justice‘ is intended to advance a research agenda that examines the intricate relationship between datafication and social justice by foregrounding and highlighting the politics and impacts of data-driven processes and big data.“[1]

Transparenz im Umgang mit datenverarbeitenden Infrastrukturen, Vermeidung von Diskriminierung, Vermeidung von und Verantwortung für Fehler beim Umgang mit Daten anderer und Kontrollbefugnisse in Bezug auf die eigenen werden in diesem Zusammenhang immer wieder genannt. Wie die Definition jedoch deutlich macht, wird der Begriff eher als Appell zu einer umfassenden Diskussion und nicht als abschließend bestimmte Liste von zu erreichenden Zielen verwendet. Oft ist die Diskussion an Schnittstellen verschiedener Themenbereichen angesiedelt, die eine hohe Komplexität aufweisen und die im Zusammenhang mit gesellschaftlichen Transformationen begegnen, zu denen Datafizierung und Big Data-Verfahren gehören.

Zudem ist Data Justice als Gerechtigkeitsbegriff ein Ideal, das in dem Diskurs nicht unbedingt als erreichbar, sondern als Annäherungswert beschrieben wird. Der Grund dafür ist, dass Datenverarbeitung ein Themenfeld darstellt, das sich sehr schnell weiterentwickelt und ständig verändert.[2] Im Gegensatz dazu geschieht die ethische Beurteilung von Gerechtigkeit oft langsam, da das Feld nicht einheitlich, sondern komplex ist. Durch diese unterschiedlichen Tempi ergibt sich, dass die Diskussion um Data Justice noch nicht abgeschlossen ist. Die Cardiffer Medienwissenschaftlerin Lina Dencik führt dazu aus:

„[W]e cannot understand data justice as a predefined end goal, abstract ideal with universal application, or fixed practice, but as is often the case with understandings of justice, a notion that is always subject to struggle and negotiation. We are especially guided by an ambition to expand the engagement with data justice beyond a focus on a single development or specific harm, such as prevalent discussions on algorithmic bias, digital exclusion or right to redress. Instead, we understand data justice as part of a systemic critique that levies efforts at broader transformations in society and the role of technology within them.“[3]

Zu einer gerechten Datensammlung, -verwendung und -verteilung sollen unter anderem Gesetze beitragen, die etwa aus allgemeinen Vorschriften zum Schutz personenbezogener Daten bestehen. Auch die Datenschutz-Grundverordnung der Europäischen Union, die 2018 in Kraft getreten ist, setzt Regeln fest. Hierbei wird der Umgang sowie die Verarbeitung von personenbezogenen Daten natürlicher Personen durch Menschen, Unternehmen oder Organisationen in der EU geregelt.[4] Dazu führt Dencik aus, dass die Grundverordnung in gewisser Weise den Umgang mit datenzentrierter Technologie erleichtert habe, jedoch trotz des umfassenden Konzepts einige Fragen zu ihrem Anwendungsbereich und ihrer Durchsetzbarkeit offen blieben.[5]

Der Terminus Data Justice wird auch von Aktivist_innen verwendet, die den Umgang mit Daten kritisieren. Hier liegt der Fokus oft auf Daten, die durch eine Ausweitung der Überwachung ohne das Einverständnis oder Wissen der Beteiligten verarbeitet werden.[6] Die Aktivist_innen setzen sich für einen gerechten Umgang und Transparenz von Daten ein.

Ein dritter Ansatz versucht, Data Justice durch Designprinzipien zu unterstützen. Der Politikwissenschaftler Jeffrey Alan Johnson erörtert etwa, wie Datenbanken aufgebaut werden sollten, sodass Diskriminierung vermieden wird.[7]

Das Fehlen von Data Justice resultiert laut der Direktorin der Abteilung Technologie und Menschenrechte bei Human Rights Watch, Frederike Kaltheuner, darin, „dass die negativen Folgen und Risiken oft ungleich verteilt sind. Das Gewicht lastet vor allen auf denjenigen, die sowieso schon benachteiligt sind: sozial wie auch global.“[8]

Die Professorin für International Data Governance Linnet Taylor versucht, den gesamten Diskurs in einem Modell zusammenzufassen, das aus drei Säulen besteht. Die erste Säule „Sichtbarkeit“ impliziert, dass Nutzer_innen unter Data Justice ein Recht auf die eigene Privatsphäre und auf den Umgang ihrer Daten besitzen. Außerdem soll dieser Punkt aufzeigen, dass aufgrund von Daten Gruppen auch an Sichtbarkeit gewinnen können.[9] Dies kann vor allem für marginalisierte Personen ein Vorteil sein, da sie so sichtbar werden und damit für sie die Wahrscheinlichkeit steigt, miteinbezogen zu werden.

Die zweite Säule fokussiert den Umgang mit Technologien. Taylor formuliert, dass Data Justice bestehe, wenn die Freiheit existiert, kein Teil des Datenmarkts zu werden und bestimmte Technologien nicht nutzen zu müssen.[10] Oftmals ist es nämlich so, dass Programme den Zugriff auf die Daten der Nutzer_innen fordern, indem sie bei Verweigerung der Datensammlung die Nutzung des Systems oder Programms blockieren. Hierbei kann von einem strukturellen Ausschluss derjenigen gesprochen werden, die bestimmte Technologien nicht nutzen möchten. Ziel von Data Justice ist also, dass jede_r autonom entscheiden könne, inwiefern man die eigenen Daten preisgibt.

Die dritte Säule meint die Bekämpfung von datengetriebener Diskriminierung. Aufgrund des extremen Zuwachses von Datenverarbeitung kann oft nicht mehr nachvollzogen werden, auf welche Daten sich ein System bezieht und wie es diese darstellt.[11] Dadurch kann es passieren, dass Vorurteile oder strukturelle Diskriminierung verbreitet werden. 

Woher kommt der Begriff?

Der Begriff hat sich aus unterschiedlichen sozialen Bewegungen und interdisziplinären Forschungsbereichen entwickelt, weswegen sich eine genaue Verortung und Datierung der Begriffsentstehung als schwierig erweist. Grundfragen betreffen generelle Aspekte von Machtverhältnissen, Politik und Regierungsweisen sowie Ethik und Menschenrechte.[12] Data Justice stützt sich auf verschiedene Traditionen, die sich mit Fragen sozialer Gerechtigkeit und den Auswirkungen von Informations- und Kommunikationssystemen beschäftigen und von Aufklärung über politische Bewegungen bis zu Aktivismus reichen, wie Dencik ausführt.[13]

Der Data-Justice-Diskurs kann als Antwort auf die Auswirkungen der zunehmenden Nutzung von Daten und Technologien auf die Gesellschaft gesehen werden. Ebenso wird durch Globalisierungs- und Vernetzungsprozesse die Entwicklung einer globalen Perspektive für eine gerechte Datennutzung notwendig.[14] Sowohl in wissenschaftlichen Auseinandersetzungen als auch in der Anwendung und Weiterentwicklung ist der Begriff noch relativ jung; der Diskurs, in dem er stattfindet, hat allerdings eine langjährige und umfassendere Geschichte.[15]

Ein wichtiger Ausgangspunkt für Diskussionen über Data Justice ist die Erkenntnis, dass Daten und Technologien nicht neutral sind und tiefgreifende Auswirkungen auf unser Leben haben können. Die Bedeutung von Daten und die Auswirkungen von Datenfizierung werden vor allem in den Critical Data Studies untersucht, die bezweifeln, dass Daten neutrale Repräsentanten der Realität sind.[16] Bereits bestehende soziale Strukturen und Ungleichheiten in der Gesellschaft werden in datenbasierten Verarbeitungen repräsentiert und so verstärkt.

Die Nutzung von algorithmischen Systemen setzt des Weiteren eine längere Geschichte datengestützter Wissens- und Kontrollmethoden fort. Daten dienen dabei als ein Instrument, mit dem Menschen, Ereignisse und Territorien erfasst und reguliert werden sollen.[17] Durch die zunehmende Datenfizierung und durch die Verwendung von algorithmischen Systemen entstehen neue Formen des Regierens, die das Ziel verfolgen, Dienstleistungen und Produktivität zu steigern (beispielsweise durch prädiktive Analytik).[18] Durch diese neuen Formen können sowohl Menschen und Probleme umfassender durchdrungen werden, als auch neue Lebensbereiche zum Regieren erschlossen werden. Die Informations- und Medienwissenschaftlerin Joanna Redden zeigt auf, wie Diskriminierungen und Ideologien in die Erstellung von Datensystemen fließen und dass die Systeme auch gewaltsam eingesetzt werden können.[19]

Diskussionen zu Data Justice können ebenso als eine Erweiterung langjähriger Traditionen des Medien- und Online-Aktivismus betrachtet werden, da ein Teil des Engagements aus sozialen Bewegungen und Aktivist_innen hervorgegangen ist, die die Nutzung und Verwendung von Daten kritisch hinterfragen.[20] Um Gerechtigkeit auch in datenbasierten Gesellschaften zu fördern, spielen somit soziale Bewegungen und Aktivist_innen weiterhin eine entscheidende Rolle, so die Spezialistin für digitale Kommunikation und Gesellschaft Lina Dencik.[21]

In Bezug auf den inhärenten Gerechtigkeitsbegriff schließt Data Justice potenziell an den riesigen philosophischen Diskurs über verschiedene Gerechtigkeitskonzepte an.[22] Im Fokus der Diskussionen stehen dabei Fragen, wie eine gerechte Ordnung aussehen könnte und wer für die Umsetzung verantwortlich ist. Lina Dencik merkt an, dass traditionelle Gerechtigkeitstheorien dazu tendieren, die Rolle der Informations- und Kommunikationstechnologien zu vernachlässigen. Diese Perspektive sei allerdings für die Art und Weise, wie wir die soziale Welt verstehen und gestalten wollen von großer Bedeutung, denn Medien müssen als ein wesentlicher Bestandteil der sozialer Gerechtigkeit verstanden werden.[23] Durch die digital- und informationsbasierte Verarbeitung gesellschaftlicher Verhältnisse nehmen traditionelle Gerechtigkeitstheorien und -vorstellungen somit Einzug in die Diskussionen über Data Justice.[24] Wichtig für das Verständnis der neueren Debatten zu Data Justice sind zudem die Diskurse zu Mediengerechtigkeit, Informationsgerechtigkeit und Kommunikationsgerechtigkeit, auf die sich Data Justice stützt und sie zugleich erweitert.[25] Des Weiteren merkt Lina Dencik an, dass sich traditionelle Gerechtigkeitstheorien, wie beispielsweise jene der Philosophen John Rawls und Jürgen Habermas, oftmals mit abstrakten Prinzipien und Gerechtigkeitsidealen beschäftigen, die jedoch wenig über die tatsächlich bestehenden Ungerechtigkeiten aussagen.[26]

Aus diesem Grund beziehen sich Data-Justice-Diskussionen vermehrt auf Überlegungen wie die des Philosophen und Wirtschaftswissenschaftlers Amartya Sen. Vor allem sein Capability-Ansatz[27], der davon ausgeht, dass das Erreichen von Freiheit und Wohlbefinden davon abhänge, was Menschen tun und sein können und somit davon, welche Art von Leben tatsächlich geführt werden kann, findet in den Medien- und Kommunikationswissenschaften Anwendung.[28] Der Fokus wird bei diesem Ansatz von den Mitteln (die Ressourcen, Güter, über die jemand verfügt) auf die Zwecke (was mit den Ressourcen, Gütern gemacht werden kann) verschoben, mit der Begründung, dass zwei Menschen mit ähnlichen Ressourcen und Gütern je nach Rahmenbedingungen und Umständen dennoch unterschiedliche Ziele erreichen können.[29] Gerechtigkeit soll durch diese Schwerpunktverlagerung nicht als theoretischer Grundsatz, sondern vielmehr als Praxis verstanden werden. Soziale Strukturen und Dynamiken sollen dadurch mehr Berücksichtigung finden.[30] Als ergänzendes Konzept wurde sich in den letzten Jahren verstärkt mit Ansätzen der Daten- und Künstlichen Intelligenz-Ethik beschäftigt.[31]

In der Forschungsliteratur entstanden vor allem ab 2014 verschiedene Ansätze von Data Justice, die sich jeweils auf soziale, politische und praktische Auswirkungen von Datenfizierung in unterschiedlichen Kontexten beziehen und das Verständnis von Data Justice maßgeblich geprägt haben.[32] Zu nennen sind hierbei insbesondere die Ansätze von Jeffrey Alan Johnson (Politikwissenschaftler) aus dem Jahr 2014, von Richard Heeks (Professor für digitale Entwicklung) und Jaco Renken (Dozent für Informationssysteme) aus dem Jahr 2016 sowie von Lina Dencik (Expertin für digitale Kommunikation und Gesellschaft), Arne Hintz (Medien- und Kommunikationswissenschaftler und Leiter des Masterstudiengangs Journalismus, Medien und Kommunikation an der Cardiff Universität) und Jonathan Cable (Dozent für Public Relation, Medien und Kommunikation) ebenfalls aus dem Jahr 2016. Die Professorin für International Data Governance Linnet Taylor baut auf diesen Ansätzen auf und plädiert für eine Zusammenführung der verschiedenen Forschungsstränge.[33] Ab 2020 werden vermehrt globale und nicht-westliche Perspektiven in die Diskussion miteingeschlossen und es findet sich zunehmend Literatur, die global und interkulturell ausgerichtet ist.[34]

Wonach muss ich fragen?

  • In welchen Bereichen besteht Ungerechtigkeit in Datensammlung und -verarbeitung?
  • Wie kann Verantwortung und Rechenschaftspflicht im digitalen Raum sichergestellt werden?
  • Wie können Datensammler_innen und Datenverarbeiter_innen gegen die Reproduktion von Diskriminierung und Vorurteilen in Daten vorgehen?
  • Welche Machtverhältnisse unterstützt die Datenverarbeitung?[35]
  • Inwiefern können Daten als Werkzeug zur Macht(re)produktion genutzt werden? (von Regierungen, Unternehmen, Institutionen)
  • Was bedeutet es für Bürger_innen, wenn Überwachungstechniken im öffentlichen Raum zunehmen?
  • Wie viel Sichtbarkeit schulden Bürger_innen dem Staat?[36]
  • Wie lässt sich bei Bürger_innen ein Gleichgewicht zwischen dem Bedürfnis nach Repräsentation und dem Bedürfnis nach Autonomie und Integrität herstellen?[37]
  • Wie sieht die Datenlage aus, die für einen Algorithmus genutzt wird? Spiegelt sie eine ungerechte Welt wider? Wer wird (nicht) repräsentiert?
  • Kann Datenüberwachung („Dataveillance“) zu demokratischer Repräsentation führen? Kann Datensammlung und -verarbeitung marginalisierten Gruppen zu einer Stimme verhelfen?
  • Wie sehen Regeln für die Nutzung von Daten aus, die nicht diskriminierend sind?
  • Welche Werte können Wissenschaftler_innen und Programmierer_innen helfen, Datensammlung und -verarbeitung gerechter zu gestalten?
  • Welche Möglichkeiten gibt es, um als Aktivist_in das hegemoniale Verhältnis von Überwachenden und Überwachten auszugleichen?
  • Welches Potenzial liegt in Strategien wie „counter-surveillance“, um Regierungen, die Exekutive oder die Wirtschaft bei Fehlverhalten zur Rechenschaft ziehen zu können?[38]

Wann ist das wichtig?

Unter dem Begriff Data Justice wird diskutiert, wie die Datenfizierung gesellschaftliche Probleme erschafft, reproduziert und was Handlungsmöglichkeiten sind, um Datensammlung und Datenverwendung gerechter zu gestalten. Der Diskurs um Data Justice ist beispielorientiert, weshalb auch in diesem Beitrag von Beispielen ausgegangen wird. So befasst sich etwa das Data Justice Lab unter anderem mit den Auswirkungen der Datenfizierung in Kapitalismus, Staatsführung, Kolonialismus, Politik und Aktivismus.[39] Trotz der immer prominenter werdenden Praktiken des Datensammelns und -verarbeitens bleiben Verantwortung und Rechenschaftspflicht unscharf geregelt.[40] Daher behandelt dieser Beitrag zunächst die Problematik auf einer generellen Ebene, zeigt dann spezifische Probleme auf, die beispielhaft für die Diskussionen stehen, die unter dem Begriff Data Justice geführt werden, und stellt dann Möglichkeiten vor, wie Gerechtigkeit in der Datensammlung und -verarbeitung aussehen kann.

In der Literatur zu Data Justice fokussiert man sich meist auf Ungerechtigkeiten durch Diskriminierung innerhalb von Datensammlung und -verarbeitung mit Auswirkungen auch im nicht-digitalen Raum. Im Einleitungskapitel des Buchs Data Justice wird deutlich, dass sich die Autor_innen unter dem Begriff Data Justice damit beschäftigen, wie naturalisierte Ordnungen destabilisiert, gegenwärtige Machtverhältnisse offengelegt und hinterfragt werden können.[41] Ein paar Beispiele zeigen sich im Folgenden:

Die Professorin für International Data Governance Linnet Taylor meint, als Bürger_in müsse man immer öfter damit rechnen, überwacht zu werden, denn Städte werden immer „smarter“[42] und sammeln immer mehr Daten über die Bürger_innen.[43] Das Team des Data Justice Labs beschreibt: „[T]he datafied citizen becomes a heavily monitored and tightly managed entity.“[44] Ziel von dieser Datenfizierung sei, so Dencik, die Erkennung und Vorhersage von Mustern, Erstellung von Profilen und Kategorisierung von Populationen.[45] Das Subjekt ist somit in der eigenen Souveränität insoweit eingeschränkt, als es der Sichtbarkeit in der Datensammlung nicht entgehen kann. Dazu kommt, dass „Dataveillance“, also die Überwachung durch Datensammlung, nicht alle Bevölkerungsgruppen gleich stark trifft. Taylor schreibt: Race, ethnische Zugehörigkeit, Religion, Geschlecht, Wohnort, Staatsangehörigkeit und sozioökonomischer Status bestimmen, wie Einzelpersonen durch ihre Daten zu Verwaltungs- und Rechtssubjekten werden.[46] Folglich bestimmen diese Faktoren auch, wie die erhobenen Daten von politischen Entscheidungsträgern und Wirtschaftsunternehmen verwendet werden können, um auf diese Personen zuzugreifen und einzuwirken, so Linnet Taylor.[47]

Auch in der Nutzung öffentlicher Dienste wird vermehrt auf Digitalisierung und damit auf Datenfizierung gesetzt, so Dencik.[48] Einige der Bereiche, die hierbei betroffen sind, sind: Sozialhilfe, Polizeiarbeit, Grenzkontrollen, staatliche Überwachung, digitale Bürgerschaft.[49] Die Nutzung von Daten durch Regierungen verändere, laut dem Data Justice Lab, wie Regierungen ihre Bürger_innen erfassen und wie mit ihnen und den sozialen Problemen umgegangen werde.[50] Diese Allgegenwärtigkeit der Überwachung kann auch in dem Empfinden von Kontrollverlust münden.

Die Philosophin Bonnie Sheehey betont, dass die Nutzung von Daten die Marginalisierung von Personen verschlimmern kann. Ein Beispiel für diese „data-driven-discrimination“ ist das Predictive Policing (siehe auch algorithmisches Entscheiden). Hierbei werden historische Daten analysiert, um Kriminaldelikte vorherzusagen und damit zukünftige Delikte zu verhindern.[51] Das Problem hierbei ist, dass die historischen Daten, die dem Algorithmus gespeist werden, die Vergangenheit und all ihre negativen Seiten (Vorurteile, Rassismus, Sexismus, …) widerspiegeln. Sie sind daher nicht neutral, sondern potenziell diskriminierend. Dies resultiert, laut einer Studie der Forschungsgruppe „Policing in Chicago“ der University of Illinois, darin, dass bei Verwendung von Predictive Policing vermehrt ärmere Nachbarschaften überprüft werden und hauptsächlich People of Color als potenziell straffällig eingestuft wurden, häufig ohne dass sie je eine Straftat begangen hatten.[52]

Die Datenfizierung erweckt den Anschein, dass die Sammlung und Verarbeitung von großen Datensätzen eine Möglichkeit sei, marginalisierte Gruppen sichtbar zu machen. Dies sei, so Linnet Taylor, jedoch ein Trugschluss. Sie beschreibt die Studie von Lisa Jean Moore, Professorin für Soziologie und Gender Studies, und Paisley Currahs, Professor für Politikwissenschaft und Women’s & Gender Studies, über die Behandlung von Transgender-Bürger_innen in Bevölkerungsdatenbanken und konstatiert, dass die offizielle Änderung des Geschlechts in hohem Maße vom Einkommen abhänge.[53] Hier wird deutlich, dass die Kluft zwischen Arm und Reich weiterhin besteht und bestimmt, wer repräsentiert wird und wer nicht.

Ein bekanntes Beispiel für die Datenfizierung in Deutschland ist die Schufa-Auskunft, die anzeigen soll, wie gut die Person ihre Zahlungsverpflichtungen erfüllt, und damit die „Kreditwürdigkeit“ der Person bestimmt.[54] Nach dem Europäischen Gerichtshof stellt sie einen Verstoß gegen das Recht der Europäischen Union dar. Bereits der vor dem Urteil angerufene Generalanwalt am EuGH ging davon aus, dass das Scoring ein intransparentes System sei: Weder sei einsehbar, welche Daten betrachtet werden, noch wie die Berechnung des Scores funktioniere.[55] Dieser Mangel an Transparenz und die Kategorisierung der Menschen, die aus diesem Score resultiert, sei widerrechtlich.[56] Man kann also argumentieren, dass dies ein Beispiel dafür darstellt, wie Datensammlung und -verarbeitung Gerechtigkeitsprinzipien verletzt.

Führende Wissenschaftler_innen erarbeiteten auch Vorschläge, wie Data Justice umgesetzt und Digitale Resignation umgangen werden kann. So nennt beispielsweise das Data Justice Lab bewährte Ideale der Gerechtigkeitsforschung, die für sie im Zentrum der Debatten um Data Justice stehen sollen, da die Einbeziehung dieser Werte Datenverarbeitung gerechter gestalten soll. Es sind: Gleichheit, Anerkennung, Fairness, Verhinderung von Diskriminierung und Ermöglichung menschlicher Entfaltung, wobei nicht nur digitale Rechte, sondern auch Menschenrechte, soziale und wirtschaftliche Rechte zu berücksichtigen sind, um einen systemischen Wandel bei der Erreichung von Datengerechtigkeit zu erreichen.[57] Linnet Taylor schlägt in ihrem Aufsatz „What is data justice?“ vor, dass Datenverarbeitung gerechter würde, wenn der Fokus auf marginalisierte und gefährdete Menschen gelegt werde, statt die Denkfigur des ‚idealen‘ Menschen als Ausgangspunkt zu nutzen.[58]

Für Linnet Taylor ist auch Aktivismus wie Whistleblowing im digitalen Raum ein Akt zur Herstellung von Data Justice, so etwa Wikileaks. Es kann ein Beispiel für Data Justice darstellen, da hier eine Demokratisierung des Wissens betrieben wird.[59] Auch der Akt der „Sousveillance“, was Lina Dencik als „the subject is gazing back at power ‚from below‘ […]“ beschreibt, kann als Widerstand gegen die hegemonialen Verhältnisse der Dataveillance verstanden werden.[60] Lina Dencik beschreibt außerdem, dass immer mehr Aktivist_innen und Bürger_innen Unternehmen und Regierungen drängen, ihre Daten besser zu schützen.[61]

Wie wird der Begriff erfasst/festgestellt?

Der Begriff Data Justice ist kaum messbar, da es sich um keine universell durchgesetzte und einheitliche Regelung handelt. Trotzdem gibt es Möglichkeiten, sich einer Erfassung von Data Justice über unterschiedliche Kontexte anzunähern:

Ethische Prüfmechanismen

Die Arbeitsgruppe des Alan Turing Instituts erarbeitete sechs Säulen, die dazu dienen sollen, Gerechtigkeit in der Datensammlung und -verwendung zu verbessern. Die Fragen, die diese Säulen aufwerfen, sind als „Handlungsanweisungen“ beziehungsweise Prüfmechanismen für Entwickler_innen von Künstlicher Intelligenz und Machine Learning gedacht. Sie können als mögliche Überprüfungstools genutzt werden, um zu messen, inwieweit die Datenverarbeitung gerecht ist. Es handelt sich um einen Vorschlag, der noch keinen Konsens repräsentiert, aber mit seinen sechs Säulen stichhaltige Aspekte des Data-Justice-Diskurses darstellt, die auch als Prüfmechanismen genutzt werden können, um bereits eingetretene Ungerechtigkeiten nachträglich sichtbar zu machen.

  • Power: Auf welchen Ebenen wird Macht ausgeübt? Wie wird die Macht durch die Datenverarbeitung manifestiert?[62]
  • Equity: Wie kann die Ursache von Ungerechtigkeit bekämpft werden? Ist das Ziel/der Zweck das Leben marginalisierter Gruppen zu beeinflussen? Wessen Bedürfnisse stehen im Vordergrund? Ist das Ziel Gerechtigkeit?[63]
  • Access: Wer hat Zugriff auf die Vorteile der Datenverarbeitung?[64] Wer kann sich repräsentieren?[65]
  • Participation: Inwiefern ist die datenwissenschaftliche Forschung demokratisch? Wer wird in Entscheidungsprozesse miteinbezogen?[66]
  • Identity: Inwieweit werden Menschen kategorisiert und objektifiziert? Kreiert die Kategorisierung soziale Ungleichheiten?[67] Wer/welche Identitätsmerkmale werden nicht betrachtet?[68]
  • Knowledge: Werden unterschiedliche Perspektiven/unterschiedliches Wissen einbezogen?[69] Wird auch „Experten- und Expertinnenwissen“ hinterfragt?[70]
Untersuchung der Auswirkungen von Datenverarbeitung

Etwa bei Predictive Policing[71] kann untersucht werden, welche Personengruppen öfter als potenziell kriminell eingestuft wurden. So hat etwa die Policing in der Chicago Research Group der University of Illinois die Liste eines Algorithmus analysiert, der vorhersagen soll, wer an Waffengewalt beteiligt sein werde und wer Teil einer kriminellen Gang sei - heraus kam, dass Schwarze und Latinos signifikant höhere Scores hatten, auch ohne bisher straffällig geworden zu sein.[72] Die Untersuchung der Ergebnisse von Datenverarbeitung kann also anzeigen, ob die Verarbeitung Diskriminierungen wiederholt oder inwiefern sie gerecht ist.

Untersuchung der Reaktionen auf Datenmissbrauch

Die Wichtigkeit von Data Justice kann messbar werden, indem man überprüft, wo diese noch fehlt. Verschiedene Studien, die sich mit Datenmissbrauch auseinandersetzen, zeigen auf, dass das Thema immer wichtiger wird, da Nutzer_innen immer mehr von Datendiebstahl betroffen sind, was Ängste und Unwissenheit verstärkt. Durch Data Justice könnten Sicherheit und Verständnis für User_innen gewährleistet werden.

Datenmissbrauch kann durch verschiedene Handlungen belegt werden. Oft können diese durch repräsentative Studien offengelegt werden.[73] Ihre Ergebnisse zeigen, dass klare Regeln für die Umsetzung von Data Justice dort wichtig werden, wo Unsicherheiten und Ängste wachsen. Das Fehlen von Richtlinien und einheitlich geltenden Gesetzen erschwert es, einen Überblick über das Thema zu erlangen. Durch das schnelle Fortschreiten sowie die Weiterentwicklung von Technologien fühlen sich viele abgehängt und wissen nicht, wie sie in diesem Themenbereich an Wissen aufholen können. Mangelndes Verständnis, ungewollt fahrlässiges Verhalten von Nutzer_innen und Unwissen sind somit Bereiche, in denen Data Justice-Mängel erfasst werden können.

Untersuchung von Gesetzen

Eine weitere Möglichkeit, Data Justice zumindest teilweise zu erfassen, besteht darin, Gesetze und Rechte zu analysieren, die den Datenschutz und den Umgang mit Daten regeln. Gesetze können einen grundlegenden Rahmen bilden und eine Orientierung in Bezug auf einen gerechten und fairen Umgang mit Daten aufzeigen. Es gibt keine einheitlichen rechtlichen und regulatorischen Rahmenbedingungen, die Data Justice weltweit regeln. Wie einzelne Länder zum Beispiel Datenschutzregeln umsetzen, hängt von lokalen Gesetzgebungen und der Durchsetzung ab.[74] So sehen einige Kommentator_innen zwar eine weltweite Ausbreitung von Formen des Datenschutzes nach europäischen Vorbild, allerdings ist die Einführung dementsprechender Gesetze in vielen Ländern, in denen es einen geringen Schutz der Privatsphäre und vor Diskriminierung gibt, nach ihrer Verabschiedung nur begrenzt durchsetzbar.[75] Anders als in Europa, wo strenge Datenschutzgesetze existieren, existieren zum Beispiel in einigen afrikanischen Ländern wenige oder keine rechtlichen und behördlichen Schutzmaßnahmen.[76]

Welche Bildungsprojekte gibt es dazu?

  • Die Stiftung Neue Verantwortung ist eine gemeinnützige Forschungseinrichtung für aktuelle politische und soziale Fragen der neuen Technologien. Auch zu dem Standpunkt Data Justice werden Artikel und Kolumnen verfasst: https://www.stiftung-nv.de/de
  • GPAI ist eine Initiative, die 2020 ins Leben gerufen wurde. Ihr Ziel ist es, die Lücke zwischen Theorie und Praxis von KI bezogenen Themen zu schließen. Unter anderem widmet sie sich dem Thema Data Justice und veröffentlichen Beiträge und Artikel: https://gpai.ai/projects/data-governance/data-justice/
  • Das Data Justice Lab ist eine Forschungseinrichtung der Universität Cardiff, die Forschungsarbeit in Bezug auf Datenanalyse aus der Perspektive der sozialen Gerechtigkeit durchführt. Regelmäßig informiert sie über thematische Konferenzen, Publikationen sowie Neuerungen in diesem Themenbereich: https://datajusticelab.org/
  • bot populi ist eine Medienplattform, die 2018 von sieben internationalen Organisationen gegründet wurde, darunter das Data Justice Lab und IT for Change. Sie behandelt Themen der digitalen Technologie aus der Perspektive der sozialen Gerechtigkeit sowie des globalen Südens. Die Beiträge werden in Formen von Podcasts, Artikeln und Videos veröffentlicht: https://botpopuli.net/

Weiterführende Literatur

  • Dencik, Lina, Arne Hintz und Jonathan Cable. 2016. „Towards data justice? The ambiguity of anti-surveillance resistance in political activism.“ BIG DATA & SOCIETY 3 (2): 1–12. URL: https://doi.org/10.1177/2053951716679678. Zugriff am 19.06.2024.
  • Dencik, Lina et al. 2019. „Exploring data justice: Conceptions, applications and directions.“ Information, Communication & Society. 22 (7): 873–881. DOI: 10.1080/1369118X.2019.1606268. Zugriff am 19.06.2024.
  • Dencik, Lina et al. 2022. Data Justice. London: SAGE Publications Ltd.
  • Heeks, Richard und Jaco Renken. 2016. „Data Justice for development: What would it mean?“ Information Development 34 (1): 90–102. URL: https://doi.org/10.1177/0266666916678282. Zugriff am 19.06.2024.
  • Taylor, Linnet. 2017. „What is data justice? The case for connecting digital rights and freedoms globally.“ Big Data & Society 4 (2): 1–14. URL: https://doi.org/10.1177/2053951717736335. Zugriff am 19.06.2024.
  • Taylor, Linnet; Annika Richterich und Pablo Abend. 2019. „Global Data Justice: Linnet Taylor in Coversation with Annika Richterich and Pablo Abend.“ Digital Culture & Society. Inequalities and Divides in Digital Cultures 5 (1): 197–210. URL: https://doi.org/10.25969/mediarep/15783. Zugriff am 28.05.2023.
  • Taylor, Linnet. 2019. „Global data justice.“ Communications of the ACM 62 (6): 22–24. URL: https://doi.org/10.1145/3325279. Zugriff am 19.06.2024.

Quellenverzeichnis

  1. Data Justice Lab. o. J. „About. Data Justice“. URL: https://datajusticelab.org/about/. Zugriff am 19.06.2024.
  2. Vgl. Diggit Magazine. 13.03.2019. „Dr. Linnet Taylor on Data Justice.“ Youtube, 17:04 Min. URL: https://www.youtube.com/watch?v=FMRGMFVUwCA. Zugriff am 19.06.2024.
  3. Dencik, Lina et al. 2022. „Introduction.“ In Data Justice, herausgegeben von Lina Dencik et al. London: Sage Publications Ltd, 1-10, hier 5.
  4. Vgl. Europäische Kommission. 2023. „Was regelt die Datengrundschutzverordnung?“ Stand: 2023. URL: https://commission.europa.eu/law/law-topic/data-protection/reform/what-does-general-data-protection-regulation-gdpr-govern_de#:~:text=Die%20Verordnung%20(EU)%202016%2F,oder%20Organisationen%20in%20der%20EU. Zugriff am 24.06.2023.
  5. Vgl. Dencik, Lina und Javier Sanchez-Monedero. 2022. „Data Justice.“ Internet Policy Review 11 (1), 1–16, hier 5. DOI: 10.14763/2022.1.1615. Zugriff am 17.05.2023; Dencik, Lina. 2022. „Data and social justice.“ In Data Justice, herausgegeben von Lina Dencik et al. London: Sage Publications Ltd, 123-137, hier 131.
  6. Vgl. Dencik, Lina, Arne Hintz und Jonathan Cable. 2016. „Towards data justice? The ambiguity of anti-surveillance resistance in political activism.“ BIG DATA & SOCIETY 3 (2): 1–12.
  7. Vgl. Johnson, Jeffrey Alan. 2014. „From open data to information justice.“ In Ethics and Information Technology 16 (4): 263–274, hier 268.
  8. Dachwitz, Ingo. 2018. „Von Datenhändlern und Datengerechtigkeit: Frederike Kaltheuner im Interview.“ Netzpolizik.org (20.09.2018 um 19:30 Uhr). URL: https://netzpolitik.org/2018/von-datenhaendlern-und-datengerechtigkeit-frederike-kaltheuner-im-interview/. Zugriff am 01.06.2023.
  9. Vgl. Taylor, Linnet. 2017. „What is Data Justice? The case for connecting digital rights and freedoms globally.“ BIG DATA & SOCIETY 4 (2): 1–14, hier 8. URL: https://doi.org/10.1177/2053951717736335. Zugriff am 19.06.2024.
  10. Vgl. Taylor, Linnet. 2017. „What is Data Justice? The case for connecting digital rights and freedoms globally.“ BIG DATA & SOCIETY 4 (2): 1–14, hier 9. URL: https://doi.org/10.1177/2053951717736335. Zugriff am 19.06.2024.
  11. Vgl. Taylor, Linnet. 2017. „What is Data Justice? The case for connecting digital rights and freedoms globally.“ BIG DATA & SOCIETY 4 (2): 1–14, hier 9. URL: https://doi.org/10.1177/2053951717736335. Zugriff am 19.06.2024.
  12. Vgl. Taylor, Linnet. 2017. „What is Data Justice? The case for connecting digital rights and freedoms globally.“ BIG DATA & SOCIETY 4 (2): 1–14. URL: https://doi.org/10.1177/2053951717736335. Zugriff am 19.06.2024.
  13. Vgl. Dencik, Lina und Javier Sanchez-Monedero. 2022. „Data Justice.“ Internet Policy Review 11 (1): 1–16, hier 2. DOI: 10.14763/2022.1.1615. Zugriff am 17.05.2023.
  14. Vgl. Taylor, Linnet. 2017. „What is Data Justice? The case for connecting digital rights and freedoms globally.“ BIG DATA & SOCIETY 4 (2): 1–14, hier 2. URL: https://doi.org/10.1177/2053951717736335. Zugriff am 19.06.2024.
  15. Vgl. Dencik, Lina und Javier Sanchez-Monedero. 2022. „Data Justice.“ Internet Policy Review 11 (1): 1–16, hier 2. DOI: 10.14763/2022.1.1615. Zugriff am 17.05.2023; The Global Partnership on Artificial Intelligence. 2022. Data Justice: Data Justice in Practice: A Guide for Impacted Communities, 19. URL: https://gpai.ai/projects/data-governance/data-justice-in-practice-a-guide-for-impacted-communities.pdf. Zugriff am 19.06.2024.
  16. Vgl. Taylor, Linnet, Annika Richterich und Pablo Abend. 2019. „Global Data Justice: Linnet Taylor in Coversation with Annika Richterich and Pablo Abend.“ Digital Culture & Society. Inequalities and Divides in Digital Cultures, 5 (1): 197–210, hier 199. DOI: https://doi.org/10.25969/mediarep/15783. Zugriff am 17.06.2023.
  17. Vgl. Kitchin, Rob. 2014. The Data Revolution: Big Data, Open Data, Data Infrastructures and Their Consequences. London: Sage, 16.
  18. Vgl. Redden, Joanna. 2022. „Data and governance.“ In Data Justice, herausgegeben von Lina Dencik et al. London: Sage Publications Ltd, 25-40, hier 26.
  19. Vgl. Redden, Joanna. 2022. „Data and governance.“ In Data Justice, herausgegeben von Lina Dencik et al. London: Sage Publications Ltd, 25–40, hier 30.
  20. Vgl. Dencik, Lina. 2022. „Data and social justice.“ In Data Justice, herausgegeben von Lina Dencik et al. London: Sage Publications Ltd, 124–137, hier 136.
  21. vgl. Dencik, Lina. 2022. „Data and social justice.“ In Data Justice, herausgegeben von Lina Dencik et al. London: Sage Publications Ltd, 123–137, hier 129f.
  22. Vgl. Miller, David. 2021. „Justice.“ The Stanford Encyclopedia of Philosophy. URL: https://plato.stanford.edu/entries/justice/. Zugriff am 19.06.2024.
  23. Vgl. Dencik, Lina. 2022. „Data and social justice.“ In Data Justice, herausgegeben von Lina Dencik et al. London: Sage Publications Ltd, 124–137, hier 136.
  24. Vgl. Dencik, Lina und Javier Sanchez-Monedero. 2022. „Data Justice.“ Internet Policy Review 11 (1): 1–16, hier 3. DOI: 10.14763/2022.1.1615. Zugriff am 17.05.2023.
  25. Vgl. Dencik, Lina. 2022. „Data and social justice.“ In Data Justice, herausgegeben von Lina Dencik et al. London: Sage Publications Ltd, 123–137, hier 128.
  26. Vgl. Dencik, Lina. 2022. „Data and social justice.“ In Data Justice, herausgegeben von Lina Dencik et al. London: Sage Publications Ltd, 123–137, hier 126.
  27. Vgl. Sen, Amartya. 2009. The Idea of Justice. Cambridge, MA: Harvard University Press.
  28. Vgl. Robeyns, Ingrid und Morten Fibieger Byskov. 2023. „The Capability Approach.“ The Stanford Encyclopedia of Philosophy. URL: https://plato.stanford.edu/entries/capability-approach/. Zugriff am 19.06.2024; Dencik, Lina. 2022. „Data and social justice.“ In Data Justice, herausgegeben von Lina Dencik et al. London: Sage Publications Ltd, 123–137, hier 127.
  29. Vgl. Robeyns, Ingrid und Morten Fibieger Byskov. 2023. „The Capability Approach.“ The Stanford Encyclopedia of Philosophy URL: https://plato.stanford.edu/entries/capability-approach/. Zugriff am 19.06.2024.
  30. Vgl. Heeks, Richard und Jaco Renken. 2016. „Data Justice for development: What would it mean?“ Information Development 34 (1): 90–102, hier 96f. DOI: 10.1177/0266666916678282. Zugriff am 20.05.2023; Dencik, Lina. 2022. „Data and social justice.“ In Data Justice, herausgegeben von Lina Dencik et al. London: Sage Publications Ltd, 123–137, hier 126f.
  31. Vgl. Dencik, Lina. 2022. „Data and social justice.“ In Data Justice, herausgegeben von Lina Dencik et al. London: Sage Publications Ltd, 123–137, hier 131.
  32. Vgl. The Global Partnership on Artificial Intelligence. 2022. Data Justice: Data Justice in Practice: A Guide for Impacted Communities., 19. URL: https://gpai.ai/projects/data-governance/data-justice-in-practice-a-guide-for-impacted-communities.pdf. Zugriff am 19.06.2024.
  33. Vgl. Taylor, Linnet. 2017. „What is Data Justice? The case for connecting digital rights and freedoms globally.“ BIG DATA & SOCIETY 4 (2): 1–14, hier 8. URL: https://doi.org/10.1177/2053951717736335. Zugriff am 19.06.2024.
  34. Vgl. The Global Partnership on Artificial Intelligence. 2022. Data Justice: Data Justice in Practice: A Guide for Impacted Communities., 23. URL: https://gpai.ai/projects/data-governance/data-justice-in-practice-a-guide-for-impacted-communities.pdf. Zugriff am 19.06.2024.
  35. Vgl. O’Neil, Cathy. 2016. Weapons of Math Destruction. New York: Crown, 93.
  36. Vgl.Taylor, Linnet. 2017. „What is data justice? The case for connecting digital rights and freedoms globally.“ BIG DATA & SOCIETY 4 (2): 1–14, hier 10. URL: https://doi.org/10.1177/2053951717736335. Zugriff am 19.06.2024.
  37. Vgl. Taylor, Linnet. 2017. „What is data justice? The case for connecting digital rights and freedoms globally.“ BIG DATA & SOCIETY 4 (2): 1–14, hier 8, 10. URL: https://doi.org/10.1177/2053951717736335. Zugriff am 19.06.2024.
  38. Vgl. Dencik, Lina, Arne Hitze und Jonathan Cable. 2016. „Towards data justice? The ambiguity of anti-surveillance resistance in political activism.“ Big Data & Society, 3 (2): 1–12, hier 2. URL: https://doi.org/10.1177/2053951716679678. Zugriff am 19.06.2024.
  39. Vgl. Dencik, Lina et al. 2022. „Introduction.“ In Data Justice, herausgegeben von Lina Dencik et al., London: Sage Publications Ltd, 1-10. hier 5.
  40. Vgl. Taylor, Linnet. 2017. „What is data justice? The case for connecting digital rights and freedoms globally.“ BIG DATA & SOCIETY 4 (2): 1–14, hier 3. URL: https://doi.org/10.1177/2053951717736335. Zugriff am 19.06.2024.
  41. Vgl. Dencik, Lina et al. 2022. „Introduction.“ In Data Justice, herausgegeben von Lina Dencik et al. London: Sage Publications Ltd, 1-11, hier 3.
  42. Mit "smart" ist hier gemeint, dass alltägliche Prozesse digital werden und digitale Überwachungsmethoden zunehmen.
  43. Vgl. Taylor, Linnet. 2017. „What is data justice? The case for connecting digital rights and freedoms globally.“ BIG DATA & SOCIETY 4 (2): 1–14, hier 2. URL: https://doi.org/10.1177/2053951717736335. Zugriff am 19.06.2024.
  44. Dencik, Lina et al. 2022. „Introduction.“ In Data Justice, herausgegeben von Lina Dencik et al. London: Sage Publications Ltd, 1-10, hier 8.
  45. Vgl. Dencik, Lina und Javier Sanchez-Monedero. 2022. „Data justice.“ Internet Policy Review 11 (1): 1–16, hier 3. DOI: 10.14763/2022.1.1615. Zugriff am 17.05.2023.
  46. Vgl. Taylor, Linnet. 2017. „What is data justice? The case for connecting digital rights and freedoms globally.“ BIG DATA & SOCIETY 4 (2): 1–14, hier 3. URL: https://doi.org/10.1177/2053951717736335. Zugriff am 19.06.2024.
  47. Vgl. Taylor, Linnet. 2017. „What is data justice? The case for connecting digital rights and freedoms globally.“ BIG DATA & SOCIETY 4 (2): 1–14, hier 3. URL: https://doi.org/10.1177/2053951717736335. Zugriff am 19.06.2024.
  48. Vgl. Dencik, Lina et al. 2022. „Introduction.“ In Data Justice, herausgegeben von Lina Dencik et al. London: Sage Publications Ltd, 1-10, hier 5.
  49. Vgl. Dencik, Lina et al. 2022. „Introduction.“ In Data Justice, herausgegeben von Lina Dencik et al. London: Sage Publications Ltd, 1.10, hier 5.
  50. Vgl. Dencik, Lina et al. 2022. „Introduction.“ In Data Justice, herausgegeben von Lina Dencik et al. London: Sage Publications Ltd, 1-10, hier 7.
  51. Vgl. Sheehey, Bonnie. 2018. „Algorithmic paranoia: the temporal governmentality of predictive policing.“ Ethics and Information Technology 2019 (21): 49–58, hier 49. URL: https://doi.org/10.1007/s10676-018-9489-x. Zugriff am 24.05.2023.
  52. Vgl. University of Illinois at Chicago Policing in Chicago Research Group. 2017. „Investigation of the Chicago Police Department.“ URL: https://docs.google.com/document/d/1Ft_41wtKLU2NVKGSiN2hMHFmHaSRkIS3rNatZVvAnOk/edit. Zugriff am 19.06.2024.
  53. Vgl. Moore, Lisa Jean und Paisley Currah. 2015. „3. Legally sexed: Birth certificates and transgender citizens.“ In Feminist Surveillance Studies, herausgegeben von Rachel Dubrovsky und Shoshana Magnet. New York: Duke University Press, 58–78. Zitiert nach: Taylor, Linnet. 2017. „What is data justice? The case for connecting digital rights and freedoms globally.“ BIG DATA & SOCIETY 4 (2): 1–14, hier 3. URL: https://doi.org/10.1177/2053951717736335. Zugriff am 19.06.2024.
  54. Vgl. Tagesschau. 2023. „EuGH macht Vorgaben für SCHUFA-Scoring.“ Stand: 7.12.2023, 13:42 Uhr. URL: https://www.tagesschau.de/wirtschaft/verbraucher/schufa-score-eugh-100.html. Zugriff am 19.06.2024.
  55. Vgl. Tagesschau. 2023. „Schufa-Scoring verstößt gegen EU-Recht.“ Stand: 16.03.2023, 14:50 Uhr. URL: https://www.tagesschau.de/wirtschaft/finanzen/schufa-scoring-verstoss-eu-recht-101.html. Zugriff am 19.06.2024.
  56. Vgl. Tagesschau. 2023. „Schufa-Scoring verstößt gegen EU-Recht.“ Stand: 16.03.2023, 14:50 Uhr. URL: https://www.tagesschau.de/wirtschaft/finanzen/schufa-scoring-verstoss-eu-recht-101.html. Zugriff am 19.06.2024.
  57. Vgl. Dencik, Lina et al. 2022. „Introduction.“ In Data Justice, herausgegeben von Lina Dencik et al. London: Sage Publications Ltd, 1-10, hier 6.
  58. Vgl. Taylor, Linnet. 2017. „What is data justice? The case for connecting digital rights and freedoms globally.“ BIG DATA & SOCIETY 4 (2): 1–14, hier 10. URL: https://doi.org/10.1177/2053951717736335. Zugriff am 19.06.2024.
  59. Vgl. Taylor, Linnet. 2017. „What is data justice? The case for connecting digital rights and freedoms globally.“ BIG DATA & SOCIETY 4 (2): 1–14, hier 3. URL: https://doi.org/10.1177/2053951717736335. Zugriff am 19.06.2024.
  60. Dencik, Lina, Arne Hintz und Jonathan Cable. 2016. „Towards data justice? The ambiguity of anti-surveillance resistance in political activism.“ BIG DATA & SOCIETY 3 (2): 1–12, hier 3. URL: https://doi.org/10.1177/2053951716679678. Zugriff am 19.06.2024. Sousveillance äußert sich beispielsweise durch das Nutzen tragbarer Kameras oder andere Speichermedien, um Autoritäten zur Rechenschaft ziehen zu können.
  61. Vgl. Dencik, Lina, Arne Hintz und Jonathan Cable. 2016. „Towards data justice? The ambiguity of anti-surveillance resistance in political activism.“ BIG DATA & SOCIETY 3 (2): 1–12, hier 4. URL: https://doi.org/10.1177/2053951716679678. Zugriff am 19.06.2024.
  62. Vgl. Leslie, David et al. 2022. Data justice in practice: a guide for developers., 12. URL: http://dx.doi.org/10.2139/ssrn.4080058. Zugriff am 20.06.2023.
  63. Vgl. Leslie, David et al. 2022. Data justice in practice: a guide for developers., 12. URL: http://dx.doi.org/10.2139/ssrn.4080058. Zugriff am 20.06.2023.
  64. Vgl. Leslie, David et al. 2022. Data justice in practice: a guide for developers., 12. URL: http://dx.doi.org/10.2139/ssrn.4080058. Zugriff am 20.06.2023.
  65. Vgl. Leslie, David et al. 2022. Data justice in practice: a guide for developers., 16. URL: http://dx.doi.org/10.2139/ssrn.4080058. Zugriff am 20.06.2023.
  66. Vgl. Leslie, David et al. 2022. Data justice in practice: a guide for developers., 12. URL: http://dx.doi.org/10.2139/ssrn.4080058. Zugriff am 20.06.2023.
  67. Vgl. Leslie, David et al. 2022. Data justice in practice: a guide for developers., 12. URL: http://dx.doi.org/10.2139/ssrn.4080058. Zugriff am 20.06.2023.
  68. Vgl. Leslie, David et al. 2022. Data justice in practice: a guide for developers., 18. URL: http://dx.doi.org/10.2139/ssrn.4080058. Zugriff am 20.06.2023.
  69. Vgl. Leslie, David et al. 2022. Data justice in practice: a guide for developers., 12. URL: http://dx.doi.org/10.2139/ssrn.4080058. Zugriff am 20.06.2023.
  70. Vgl. Leslie, David et al. 2022. Data justice in practice: a guide for developers., 20. URL: http://dx.doi.org/10.2139/ssrn.4080058. Zugriff am 20.06.2023.
  71. Unter Predictive Policing versteht man die Analyse von Falldaten zur Berechnung, wie wahrscheinlich zukünftige Straftaten sind, um dann den Einsatz von Polizeikräften zu steuern.
  72. Vgl. University of Illinois at Chicago Policing in Chicago Research Group. 2017. Investigation of the Chicago Police Department. URL: https://docs.google.com/document/d/1Ft_41wtKLU2NVKGSiN2hMHFmHaSRkIS3rNatZVvAnOk/edit. Zugriff am 19.06.2024.
  73. Vgl. Bitkom e.V. 2021. „Vertrauen und Sicherheit in der digitalen Welt.“ Berlin, 24. Abrufbar unter: https://www.bitkom.org/sites/main/files/2021-07/bitkom_vertrauenitsicherheit2021.pdf. Zugriff am 19.06.2024; R+V Versicherung. 2019. „Die Ängste der Deutschen.“ Berlin. Abrufbar unter: https://www.ruv.de/dam/jcr:9e2b70ad-6b5c-4772-bb66-71413ad9c943/ruv-aengste-datenmissbrauch.pdf. Zugriff am 19.06.2024.
  74. Vgl. Hintz, Arne. 2022. „Data and policy.“ In Data Justice, herausgegeben von Lina Dencik et al. London: Sage Publications Ltd, 89–104, hier 91.
  75. Vgl. Taylor, Linnet, Annika Richterich und Pablo Abend. 2019. „Global Data Justice: Linnet Taylor in Conversation with Annika Richterich and Pablo Abend.“ Digital Culture & Society. Inequalities and Divides in Digital Cultures 5 (1): 197–210, hier 201. URL: https://doi.org/10.25969/mediarep/15783. Zugriff am 28.05.2023.
  76. Vgl. Fick, Maggie und Alexis Akwagyiram. 2018. „In Africa, scant data protection leaves internet users exposed.“ Reuters. Media Industry (04. April). URL: https://www.reuters.com/article/us-facebook-africa/in-africa-scant-data-protection-leaves-internet-users-exposed-idUSKCN1HB1SZ. Zugriff am 19.06.2024; Kaltheuner, Frederike und Nele Obermüller. 2018. Datengerechtigkeit. Berlin: Nicolai Publishing & Intelligence, 58.


Die erste Version dieses Beitrags beruht auf der studentischen Arbeit von Paula Ricarda Geisler, Teresa Hartmann und Jule Wagner, die im SoSe 2023 im Rahmen eines Seminars am Institut für Medienkultur und Theater der Universität zu Köln für das Projekt „Digitale Souveränität“ verfasst wurde.


Zitiervorschlag: Glossar Digitale Souveränität. 2024. „Data Justice (Medienwissenschaft).“ https://www.bigdataliteracy.net/glossar/. Zugegriffen am tt.mm.jjjj.