Data Feminism – Perspektiven aus Kultur, Medizin & Informatik
Ringvorlesung des IZfG im Sommersemester 2025
Ort: Rubenowstr. 3, Hörsaal*
*Ausnahme: 3. Juni
Zeit: 18 Uhr c.t., genaue Daten entnehmen Sie bitte unten
Organisation: Dr. Jenny Linek
Unzählige Daten werden tagtäglich generiert, ob beim Einkauf, bei der Onlinerecherche, beim Reisen, durch die Nutzung von Spracherkennungssoftware, in Bewerbungsverfahren, in sozialen Netzwerken, im Krankenhaus oder bei Versicherungs- und Bankangelegenheiten. Der Großteil der davon betroffenen Personen hat jedoch wenig Kenntnis davon, wie und mit welchen Absichten diese Daten generiert und verwertet werden. Der Einsatz von algorithmischen Computerprogrammen, die auf Grundlage dieser Daten eine Auswahl treffen und Entscheidungen vorwegnehmen, wird im Alltag kaum hinterfragt, geht er doch mit dem Versprechen auf absolute Objektivität und hohe Effizienz einher. Krankheiten sollen besser behandelt werden können, wenn große Mengen an Personendaten automatisiert ausgewertet werden, Personalverfahren gerechter gestaltet, wenn keine menschliche Emotion und Voreingenommenheit einfließen. Wie realistisch sind aber diese Versprechen? Welcher Raum bleibt für die kritische Prüfung von mathematischen Modellen, wenn diese per se als neutrale Instanzen gelten?
Bücher wie Weapons of Math Destruction (2016) von Cathy O'Neil, Unsichtbare Frauen (2020) von Caroline Criado-Perez und Data Feminism (2020) von Catherine D'Ignazio und Lauren F. Klein haben in den vergangenen Jahren eindrücklich dargestellt, wie wichtig es für die Geschlechterforschung ist, sich mit der Systematik von Daten zu beschäftigen. Wie die Autorinnen zeigen, drohen sich bestehende soziale Ungleichheiten in „eine[r] Welt, die immer stärker auf Daten basiert und immer stärker von Daten beherrscht wird“ (Criado-Perez), massiv zu verschärfen, wenn wir uns nicht darum kümmern, feministische und intersektionale Ansätze in die Forschung und Entwicklung von Algorithmen und Apps einzubeziehen. Die Zahlen von Softwaresystemen sprechen keine klare und vor allem keine neutrale Sprache, solange in deren Datengrundlage Ausblendungen, Vorurteile und Verzerrungen mit einfließen, die von Algorithmen reproduziert werden.
Die diesjährige IZfG-Ringvorlesung setzt an diesem Punkt an und versammelt im Sommersemester 2025 interne und externe Expert*innen aus Data Science, Soziologie, Kulturwissenschaft, Medizininformatik, Philosophie und Medizinethik. Das IZfG lädt mit dieser Veranstaltungsreihe Expert*innen aus einer Bandbreite relevanter Fachbereiche ein und bietet somit auch gezielt wichtige Impulse für Studierende und Forschende über Fächergrenzen hinweg.
Zu den zentralen Anliegen der Ringvorlesung wird es entsprechend gehören, Fragen wie die folgenden zu adressieren: Welche Impulse kann die Geschlechterforschung für die Digitalisierung und Fachbereiche mit datengestützter Forschung geben? Inwiefern werden Verzerrungen und Stereotypisierungen bei der Entwicklung von KI konkret sichtbar? Wie werden diese Phänomene aus den Kulturwissenschaften wahrgenommen und reflektiert? Welche Formen der interdisziplinären Zusammenarbeit sind sinnvoll und lassen die Potentiale von Big Data und KI für alle gleichermaßen nutzbar machen?
Literatur:
- Criado-Perez, Caroline: Unsichtbare Frauen. Wie eine von Daten beherrschte Welt die Hälfte der Bevölkerung ignoriert, München 2020.
- D'Ignazio, Catherine/ Klein, Lauren F.: Data Feminism. Cambridge u.a. 2020.
- O'Neil, Cathy: Weapons of Math Destruction. Big Data Increases Inequality and Threatens Democracy, New York 2016
Hier finden Sie Informationen zu den einzelnen Vorträgen:
Vortragende: Dr. Ute Kalender, Hamburg
Seit Entstehung der Geschlechterforschung bildet die Medizin eines ihrer zentralen Forschungsobjekte und Interventionsziele – haben die Medizin und anverwandte Fachgebiete doch bis heute eine immense Definitionsmacht für die Frage, wie wir Geschlecht verstehen, wie Geschlechter geformt werden, welche geschlechtlichen Körper geboren werden und welche nicht. Mit der Digitalisierung und Datafizierung der Medizin erhalten diese Problematiken eine neue Dringlichkeit und werden in digitalen Feminismen und Data Feminismen weitergeführt, aktualisiert und transformiert. Der Vortrag gibt einen einführenden Überblick über das breite Feld der digitalen und Data Feminismen. Ein besonderer Fokus wird auf das Thema Intersektionalität gelegt. Am Beispiel von Gender und Künstlicher Intelligenz werden die aufgeworfenen Gendertheorien schließlich praktisch vertieft und anschaulich skizziert.
Vortragende: Prof. Dr. Regina Schober, Düsseldorf
Versuche, sich selbst zu beschreiben, zu formen und zu verstehen, finden im digitalen Zeitalter immer häufiger unter den Vorzeichen der Quantifizierung und der Algorithmisierung statt. Formen des 'life-writing', wie etwa Briefe, Tagebücher und Biographien werden zunehmend durch digitale Erfassung biometrischer Daten (self-tracking) und algorithmisch gestützte Selbstgestaltung (z.B. bei Influencer:innen) ergänzt bzw. ersetzt. Solche Verschiebungen in den medialen Praktiken der Selbstformung sind auch aus feministischer Perspektive relevant, da sie Machtrelationen, Fragen des Zugangs und der Performativität von Geschlechterrollen neujustieren. Solche Fragen werden in besonderem Maße in autofiktionalen Romanen der Gegenwart verhandelt, die sich kritisch mit den Logiken der digitalen Selbstvermessung, -regulierung und -optimierung auseinandersetzen. Der Vortrag wird in Bezug auf exemplarische literarische Texte die Frage diskutieren, wie sich Literatur in Bezug zu algorithmischen und quantitativen Praktiken der Selbstformung verhält, und sich dabei einerseits auf digitale Logiken beruft, andererseits als kritischer Gegenentwurf in der digitalen Aufmerksamkeitsökonomie positioniert.
Vortragende: Prof. Dr. Kristina Yordanova (Greifswald)
There are different types of data, such as textual, video, image or sensor data that are used for training artificial intelligence (AI) models. These data are almost always biased in a certain way. Some examples of bias are gender, ethnical or age-related bias. The bias in the data is then integrated in the AI system and it in turn acts and makes decisions according to the data (and bias) it was trained with. As AI, with its sub-field of machine learning (ML) gets more and more popular and AI applications become part of our everyday life, it is very important to mitigate the effect of bias. In this talk I first discuss how bias is introduced in the data and later on in AI systems. I will then illustrate this with some examples of AI systems and how they are affected by gender bias. Finally, I will discuss strategies for mitigating (gender) bias in AI systems.
Vortragender: Sebastian Laacke M.A., Greifswald
Verzerrungen können sich in medizinischen KI-Systemen auf verschiedenen Ebenen manifestieren: in den Trainingsdaten, im Design der Algorithmen oder auch in KI-basierten Entscheidungssituationen, in denen die epistemische (d.h. wissensbezogene) Autorität von Patient*innen, Ärzt*innen und technischen Systemen je neu ausgehandelt werden muss. Sind diese Verzerrungen geschlechtsbezogen, sprechen wir von Gender Bias. Der Vortrag geht anhand von Beispielen aus der Medizin und der psychischen Gesundheit der ethischen Frage nach, warum Gender Bias in medizinischen KI-Systemen eigentlich so problematisch ist und versucht anhand von ethischen Theorien und Konzepten einen Beitrag zur argumentativen Untermauerung unserer moralischen Intuitionen zu leisten.
Digitaler Vortrag + Workshop, Anmeldungen bitte unter: halloluisegoerlachde
Vortragende: Luise Görlach M.A., Weimar
Die Veranstaltung widmet sich der Digital Gender Gap, also dem ungleich verteilten Grad an Digitalkompetenz zwischen Männern und FLINTA*. Die Initiative D21, die jährlich den D21-Digital-Index veröffentlicht, untersucht die digitale Gesellschaft Deutschlands und beleuchtet unter anderem geschlechtsspezifische Unterschiede in der digitalen Teilhabe. Der Index analysiert vier zentrale Bereiche: digitale Kompetenz, Zugang zu digitalen Technologien, Nutzungsverhalten und Offenheit gegenüber Digitalisierung, die entscheidend sind, um die digitale Chancengleichheit zu bewerten.
Gemeinsam beleuchten wir die Ursachen und Faktoren, die für diese ungleiche Kompetenzverteilung verantwortlich sind, reflektieren dabei unser eigenes Umfeld und überlegen zunächst theoretisch, wie wir diesem Phänomen gerade im Arbeitskontext entgegenwirken können. Beispielsweise zeigt sich, dass Frauen seltener Cloud-Dienste nutzen, weniger Zugang zu beruflicher IT-Ausstattung haben und häufiger Opfer von Cybermobbing werden als Männer. Zudem betrachten wir, inwiefern diese Kompetenzlücke gerade FLINTA* anfälliger für algorithmische Diskriminierung und verschiedene Formen der digitalen Gewalt, wie beispielsweise Cyberstalking, macht.
Im praktischen Teil erproben wir einfache Schritte, um mehr Kontrolle über die eigenen Daten zu erhalten und somit besser gegen kommerzielle und kriminelle Ausbeutung unseres Digitalen Ichs gewappnet zu sein. Ziel des Workshops ist es, die Digitalkompetenz bei FLINTA* zu stärken, um sie zu befähigen, digital selbstbestimmter zu agieren und sich vor Diskriminierung sowie Übergriffen im digitalen Raum besser zu schützen.
Dieser Vortrag findet um 18:00 im Hörsaal des Alfried Krupp Wissenschaftskollegs statt (Martin-Luther- Str. 14, 17489 Greifswald)
Vortragende: Dr. Corinna Bath, Essen
Klassifikationen wie gesund/krank sind Grundlage medizinischer Diagnosen und gleichzeitig Voraussetzung informatischer Modellierung. Was passiert, wenn sich die Politiken der Klassifikation der Medizin mit denen der Informatik wie bei KI-basierten Apps zur gesundheitlichen Diagnose miteinander verschränken?
Am Beispiel der Ergebnisse eines praxeologisch-empirischen Forschungsprojekts zur Entwicklung und Nutzung dieser Apps möchte ich im Vortrag diskutieren, wie Klassifikationen nicht nur zur Objektivierung und zu Diskriminierungen beitragen, sondern Uneindeutigkeit, Lücken und Widersprüche offenbaren, die von Entwickler*innen und Nutzer*innen Anpassungsarbeit erfordern.
Vortragende: Prof. Dr. Dagmar Waltemath/Lea Schindler (Greifswald)
Abstract folgt.