Database - Search Results

In the interview, Gerda Sieben, head of the jfc Media Center, answers Media Smart's questions about Big Data. Depending on the objective and purpose of the data analysis, the evaluation could serve the common good (climate and weather data), but also affect the well-being of individuals (profiling, control, manipulation). Gerda Sieben believes that Big Data increases digital inequality and that it has become almost impossible to control one's own data.

In dem Interview stellt sich Gerda Sieben, Leiterin des jfc Medienzentrums, den Fragen von Media Smart zum Thema Big Data. Je nach Zielsetzung und Zweck der Datenanalyse könne die Auswertung dem Gemeinwohl dienen (Klima- und Wetterdaten), aber auch das Wohl der Individuen beeinträchtigen (Profilbildung, Kontrolle, Manipulation). Gerda Sieben ist der Meinung, das Big Data die digitale Ungleichheit vergrößere und eine Kontrolle der eigenen Daten fast unmöglich geworden sei.


The explanatory video contains a brief definition of Big Data (storage, analysis and processing of data), describes where data is created, who it benefits (advertising, predictive policing, surveillance and education, e.g. the Social Credit System in China, therapy options, misuse of sensitive data).

Das Erklärvideo enthält eine kurze Definition von Big Data (Speicherung, Auswertung und Verarbeitung von Daten), beschreibt, wo Daten entstehen, wem sie nützen (Werbung, Predictive Policing, Überwachung und Erziehung, z. B. das Social Credit System in China, Therapiemöglichkeiten, Missbrauch sensibler Daten).


This video, which was produced by Silent Circle, a company that offers secure technologies, presents a street experiment that aims to promote a critical reflection of data collection through a better understanding of online services’ terms and conditions. While this presents a great entrance in the topic, emphasising people’s lack of knowledge on data collection, the topic of the video is very narrow and constructive advice is not being made explicit.

Das Video präsentiert ein Straßenexperiment, welches darauf abzielt, eine kritische Reflexion der Datenerfassung durch ein besseres Verständnis der Geschäftsbedingungen von Online-Diensten zu fördern. Obwohl es einen guten Einstieg in das Thema darstellt und das mangelnde Wissen der Menschen über die Datenerfassung hervorhebt, ist das Thema des Videos sehr eng gefasst und es werden keine konstruktiven Ratschläge gegeben.


The Data Day posters show some of the things people agree to when they don't read the terms and conditions and just click "I agree". Very few people take the time to study the terms and conditions and just click away the annoying notices. The original "A Data-Day in London" was created for the Glass Room. It was updated for a more international audience in May 2018, before the entry into force of the General Data Protection Regulation, and reissued in January 2021.

Die Data-Day-Plakate zeigen einige der Dinge, denen Menschen zustimmen, wenn Sie die Allgemeinen Geschäftsbedingungen nicht lesen und einfach auf "Ich stimme zu" klicken. Die wenigsten Menschen nehmen sich die Zeit, die Bedingungen zu studieren und klicken die lästigen Hinweise einfach weg. Das Original "A Data-Day in London" wurde für den Glass Room erstellt. Es wurde im Mai 2018 vor dem Inkrafttreten der Datenschutzgrundverordnung für ein internationaleres Publikum aktualisiert und im Januar 2021 erneut aufgelegt.


An accessible introduction for newcomers to the ideas behind artificial intelligence. An 80 page booklet, with hands on exercises.

Eine leicht verständliche Einführung für Einsteiger in die Ideen der künstlichen Intelligenz. Ein 80-seitiges Heft mit praktischen Übungen.


4 videos provide an overview of the foundations and principles of the right to privacy, an overview of the state of research, the issue of data and surveillance, and the risks of data-intensive systems. Advocacy Assembly is a free digital learning platform with courses for journalists, campaigners and activists. The website was launched in 2015 by Small Media, which manages the platform and its security.

4 Videos geben einen Überblick über die Grundlagen und Prinzipien des Rechts auf Privatsphäre, einen Überblick über den Forschungsstand, das Thema Daten und Überwachung sowie die Risiken von datenintensiven Systemen. Advocacy Assembly ist eine kostenlose digitale Lern-Plattform mit Kursen für Journalisten, Kampagnenmacher und Aktivisten. Die Website wurde 2015 von Small Media ins Leben gerufen, die die Plattform und deren Sicherheit betreuen.


The 'AI Pedagogy Project' by the metaLAB (at) Harvard contains a collection of tasks and materials inspired by the humanities, for educators who want to know how AI affects their students and their curricula. How do we make informed, intentional decisions about the role of AI in the classroom? How can students develop critical relationships with these tools? How can imaginative applications of AI technologies enhance learning? The AI Pedagogy Project helps educators engage their students in conversations about the capabilities and limitations of AI informed by hands-on experimentation. The materials include an interactive guide that provides a concise and accessible background to the technology that will help teachers feel more comfortable talking about AI in the classroom. The tasks that follow are designed to encourage an informed discussion of the risks, benefits and potential impacts of AI tools. They have been designed by international pedagogues. The tasks also deal with topics such as disinformation, ethics, privacy and journalism in connection with AI.

Das 'AI Pedagogy Project' des metaLAB (at) Harvard beinhaltet eine Sammlung von Aufgaben und Materialien aus einer geisteswissenschaftlichen Perspektive für Pädagog:innen, die wissen wollen, wie KI ihre Schüler und ihren Unterricht beeinflusst. Wie können wir fundierte, bewusste Entscheidungen über die Rolle der KI im Unterricht treffen? Wie können Schüler eine kritische Beziehung zu diesen Werkzeugen entwickeln? Wie können fantasievolle Anwendungen von KI-Technologien das Lernen verbessern? Das AI Pedagogy Project hilft Pädagog:innen, ihre Schüler:innen in Gespräche über die Möglichkeiten und Grenzen von KI einzubinden, die durch praktische Experimente unterstützt werden. Zu den Materialien zählt ein interaktiver Leitfaden, der komprimiert und in verständlicher Sprache den Hintergrund der Technologie vermittelt sowie der Lehrperson dabei hilft, sich bei Gesprächen über KI im Unterricht sicherer zu fühlen. Die darauffolgenden Aufgaben sollen eine informierte Auseinandersetzung mit den Risiken, Vorteilen und möglichen Auswirkungen von KI-Tools anregen. Sie wurden von internationalen Pädagog:innen konzipiert. Die Aufgaben beschäftigen sich im Zusammenhang mit KI auch mit Themen wie Desinformation, Ethik, Privatsphäre oder Journalismus.


The article gives an overview of definitions, fields of application and criticism of the new technologies summarized under the generic term "Big Data".

Der Beitrag gibt einen Überblick über Defintionen, Anwendungsfelder und Kritik der unter dem Oberbegriff "Big Data" zusammengefassten neuen Technologien.


The media package "Algorithms in our everyday life" developed by iRights.Lab is aimed at students from grade 7 onwards with the goal of conveying a general understanding of algorithmic systems and establishing social and political connections.

Das von iRights.Lab entwickelte Medienpaket „Algorithmen in unserem Alltag“ richtet sich an Schülerinnen und Schüler ab der Jahrgangsstufe 7 mit dem Ziel, ein allgemeines Verständnis über algorithmische Systeme zu vermitteln und gesellschaftliche und politische Zusammenhänge herzustellen.


As part of the "Böll.Interview" podcast series, Lorena Jaume-Palasí, founder of the Ethical Tech Society, answered questions from the Böll Foundation on the topic of artificial intelligence, algorithms and discrimination. Jaume-Palasí describes artificial intelligence and algorithmic decision-making systems as collective technologies to which we would apply the wrong, namely individualistic, standards. These technologies are based on mathematical or statistical methods that are designed to form classifications and analyze collectives, but not individuals. The individualistic idea that people can be analyzed using these methods is problematic. It is only ever about group formations, such as the suburban mother with a migrant background who is single and always borrows certain cars. In this respect, algorithms can only discriminate because there will always be people who do not fit into any classification.

Im Rahmen der Podcast-Reihe „Böll.Interview“ stellte sich Lorena Jaume-Palasí, Gründerin der Ethical Tech Society, den Fragen der Böll Stiftung zu dem Thema Künstliche Intelligenz, Algorithmen und Diskriminierung. Jaume-Palasí beschreibt Künstliche Intelligenz und algorithmische Entscheidungssysteme als kollektive Technologien, an die wir die falschen, nämlich individualistische Maßstäbe anlegen würden. Diese Technologien beruhen auf mathematischen oder statistischen Methoden, die dafür ausgelegt seien, Klassifikationen zu bilden und Kollektive zu analysieren, aber nicht einzelne Individuen. Die individualistische Vorstellung, dass Menschen mit diesen Methoden analysiert werden können, sei problematisch. Es gehe immer nur um Gruppenbildungen, etwa die Vorstadtmutter mit Migrationshintergrund, die Single ist und immer bestimmte Autos ausleiht. Insoweit können Algorithmen nicht anders, als zu diskriminieren, weil es immer Menschen geben werde, die in keine Klassifikation passen würden.




Search matches: 158

New search