Bye, Bye, Bias! Digital-Humanities-Projekte informationsethisch überprüfen und gestalten mit Value Sensitive Design

Views
3935
Downloads
2
Open Peer Review
Kategorie
Long Paper
Version
1.0
Weitere Versionen dieses Artikels:
Version 2.0 vom: 21.03.2023

mit Version 2.0 vergleichen
Katharina Leyrer Autoreninformationen
Sie möchten das Long Paper kommentieren?Working Paper kommentieren?

DOI: 10.17175/sb005_003

Nachweis im OPAC der Herzog August Bibliothek: 1764792149

Erstveröffentlichung: 08.09.2021

Lizenz: Sofern nicht anders angegeben Creative Commons Lizenzvertrag

Medienlizenzen: Medienrechte liegen bei den Autor*innen

Letzte Überprüfung aller Verweise: 07.09.2021

GND-Verschlagwortung: Informationsethik | Digital Humanities | Mensch-Maschine-Kommunikation | Design | Bias |

Empfohlene Zitierweise: Katharina Leyrer: Bye, Bye, Bias! Digital-Humanities-Projekte wertebasiert gestalten mit Value Sensitive Design. In: Fabrikation von Erkenntnis – Experimente in den Digital Humanities. Hg. von Manuel Burghardt, Lisa Dieckmann, Timo Steyer, Peer Trilcke, Niels Walkowski, Joëlle Weis, Ulrike Wuttke. Wolfenbüttel 2021. (= Zeitschrift für digitale Geisteswissenschaften / Sonderbände, 5) text/html Format. DOI: 10.17175/sb005_003


Abstract

Technologien sind nicht neutral, sondern fördern bestimmte Werte und behindern andere. Das gilt auch für Technologien, die in den Digital Humanities entwickelt und genutzt werden. Daher bedürfen diese Technologien einer ethischen Untersuchung und Einordnung. Der Ansatz des Value Sensitive Design ermöglicht einerseits, systematisch zu analysieren, welche Interessen und Werte in eine bestimmte Technologie eingeschrieben werden und ist zugleich ein Framework, um Technologien wertesensitiv zu entwickeln. Der Beitrag zeigt auf, wie Value Sensitive Design als theoretischer und methodischer Ansatz in den unterschiedlichen Spielarten der Digital Humanities genutzt werden kann.


Technological systems are not neutral but promote certain values and hinder others. That is also true for technologies that are developed and used in the field of Digital Humanities. Therefore, these technologies need to be reviewed from an ethical point of view. Value Sensitive Design is a framework to systematically analyze whose interests and values are implemented in a technological system. At the same time, Value Sensitive Design facilitates accounting for human values when designing technologies. This contribution points out how Value Sensitive Design can be used as a theoretical and methodological approach in different areas of Digital Humanities activities.



1. Einleitung

[1]Eine Gesichtserkennungssoftware, die in polizeilichen Ermittlungen in den USA zum Einsatz kommt, erzeugt überdurchschnittlich oft falsche Matches, wenn sie Bilder Schwarzer Menschen abgleicht – weil die Software mit Gesichtern weißer Menschen trainiert wurde. Die Technologie ruft damit rassistische Diskriminierung hervor.[1] Ein selbstlernendes System, das der Konzern Amazon zur Vorauswahl von Bewerber*innen einsetzte, diskriminierte auf Basis binärer Geschlechtszuschreibungen: Die Software bewertete Bewerbungen von Frauen systematisch schlechter als die von Männern.[2] Stereotype auf Basis von religiöser Zugehörigkeit reproduzierte das Sprachmodell GPT-3, zu dessen Nutzer*innen Microsoft gehört: Das Sprachmodell assoziierte Menschen muslimischen Glaubens mit Gewalt.[3] Diese Beispiele zeigen: Technologien können bestimmte Akteur*innen systematisch benachteiligen. Solche Technologien beschreiben Friedman und Nissenbaum als »biased«, da sie »systematically and unfairly discriminate against certain individuals or groups of individuals in favor of others«.[4] Das Design von Technologien bedarf daher einer informationsethischen Untersuchung.[5]

[2]Warum ist das für die Digital Humanities von Bedeutung? Jedes Digital-Humanities-Projekt hat in irgendeiner Weise mit Technologien zu tun, z. B. wenn Akteur*innen digitale Datensätze erstellen, kuratieren und nutzen, Tools und Analyseverfahren entwickeln und anwenden, Online-Communities und computervermittelte Interaktionen geisteswissenschaftlich untersuchen[6] oder digitale Publikationen und E-Learning-Angebote realisieren.[7] Diese Technologien können – wie alle anderen auch – Bias aufweisen. Aktuell finden ethische Aspekte bei der Konzeption und Realisierung von Digital-Humanities-Projekten, -Technologien und -Infrastrukturen jedoch wenig Beachtung.[8] Für die gute wissenschaftliche Praxis, wie sie beispielsweise die DFG in ihren Leitlinien festschreibt, ist eine ethische Überprüfung von Forschungsvorhaben zugleich unabdingbar.[9]

[3]Dieser Beitrag geht daher der Frage nach, wie Technologien, die in den Digital Humanities entwickelt und genutzt werden, informationsethisch überprüft und wertebasiert gestaltet werden können. Zunächst wird beschrieben, welche verschiedenen Formen von Bias Technologien aufweisen können. Zudem wird skizziert, welche Technologien in den Digital Humanities eine Rolle spielen. Anschließend wird der Value-Sensitive-Design-Ansatz vorgestellt, mit dem Technologien wertebasiert analysiert und entwickelt werden können. Obwohl der Ansatz in Feldern wie der Informationstechnologie, dem Bauingenieurswesen und der Gesundheitstechnologie bereits etabliert ist, hat die Anwendung von Value Sensitive Design in den Digital Humanities experimentellen Charakter.[10] Daher wird in Kapitel 5 anhand konkreter Beispiele vorgestellt, wie Value Sensitive Design in den verschiedenen Teilbereichen der Digital Humanities angewendet werden kann.

2. Wie kommt der Bias in die Technologie?

[4]Nach Friedman und Nissenbaum kann Bias in technischen Systemen auf drei unterschiedliche Weisen entstehen.[11] Sie unterscheiden Pre-Existing Bias, Technical Bias und Emergent Bias. Mit Pre-Existing Bias sind Verzerrungen gemeint, die bereits vor der Entwicklung der Technologie existieren: Die Designer*innen oder Auftraggeber*innen schreiben – bewusst oder unbewusst – bereits existierende persönliche oder gesellschaftliche Vorurteile in das System ein. Ein Beispiel: Die automatische Zugangskontrolle zu den Umkleideräumen eines Fitnessstudios in London ordnete Personen mit einem Doktortitel automatisch als männlich ein und verwehrte ihnen den Zugang zu den Damenumkleiden – weil die Designer*innen des Systems davon ausgegangen waren, dass nur Männer einen Doktortitel haben können.[12] Auch die oben bereits erwähnte Software, die Amazon zur Vorauswahl von Bewerber*innen einsetzte, hat einen Pre-Existing Bias: Da das Unternehmen bislang vor allem Männer eingestellt hatte, ging das selbstlernende System davon aus, dass Frauen weniger geeignet für eine Einstellung bei Amazon seien.[13]

[5]Technical Bias entsteht hingegen bei der »resolution of issues in the technical design«,[14] beispielsweise durch Limitationen der Hard- und Software oder wenn Algorithmen bestimmte Akteur*innen bevorzugen und andere benachteiligen. So führt die beschränkte Größe von Bildschirmen beispielsweise dazu, dass die Ergebnisliste von Suchmaschinen in verschiedene ›Seiten‹ aufgeteilt wird, die nur nacheinander auf dem entsprechenden Bildschirm angezeigt werden können. Suchergebnisse, die auf der zweiten Seite angezeigt werden, werden jedoch weniger oft angeklickt. Bevorzugt der Algorithmus der Suchmaschine zusätzlich bestimmte Websites und zeigt diese ganz oben in der Ergebnisliste an, werden diese also deutlich öfter angeklickt – es liegt eine unfaire, systematische Diskriminierung vor. Technical Bias kann aber auch entstehen, wenn »Human Constructs«[15] wie Urteile, Diskurse oder Institutionen formalisiert und quantifiziert werden. Dies passiert beispielsweise in Software, die voraussagt, wie hoch die Wahrscheinlichkeit ist, dass ein*e Straftäter*in wiederholt delinquent wird.[16]

[6]Emergent Bias entsteht hingegen erst im Anwendungskontext der Technologie, also wenn Personen die Technologie nutzen. Gründe für Emergent Bias können sein, dass »new knowledge in society«[17] nicht in die Technologie aufgenommen wird oder die Nutzer*innen der Technologie andere Fähigkeiten und Werte haben als die Nutzer*innengruppe, für welche die Technologie ursprünglich designt wurde. Wenn beispielsweise ein Geldautomat, der v. a. schriftbasiert mit Nutzer*innen kommuniziert (z. B. ›Geben Sie unten links Ihre Karte ein‹) in einer Gegend aufgestellt wird, in der viele Analphabet*innen wohnen, entsteht ein Emergent Bias: Die tatsächlichen Nutzer*innen unterscheiden sich in ihren Fähigkeiten von den angenommenen Nutzer*innen der Technologie. Vor allem Benutzeroberflächen weisen oft Emergent Bias auf, da sie mit Blick auf die Fähigkeiten und Gewohnheiten bestimmter Zielgruppen gestaltet werden. Diese können sich jedoch im Lauf der Zeit verändern.[18]

3. Technologien in den Digital Humanities

[7]Technologien können also auf unterschiedliche Weise Bias hervorbringen. Was bedeutet das für die Digital Humanities?

[8]Nach Friedman und Hendry umfassen Technologische Systeme sowohl Werkzeuge und Technologien, als auch Infrastrukturen und Policies. Unter Werkzeugen verstehen sie dabei »physical artifacts that augment human activity«[19] wie z. B. eine Steinaxt oder ein Messer. Wenn darüber hinaus wissenschaftliche Erkenntnisse angewandt werden, um praktische Probleme zu lösen (beispielsweise bei Traktoren und Computern), sprechen Friedman und Hendry von Technologien – wobei die Übergänge zwischen Werkzeugen und Technologien fließend sind. Infrastrukturen beschreiben schließlich alle Einrichtungen und Strukturen, die nötig sind, um ein Vorhaben oder gesellschaftliche Aktivitäten zu realisieren, beispielsweise Straßen und Energieversorgung. Werkzeuge, Technologien und Infrastrukturen stehen dabei in wechselseitiger Abhängigkeit und ergeben in ihrem Zusammenspiel sog. Technologische Systeme. Im Folgenden wird der Begriff Technologien als Kurzform für Technologische Systeme genutzt und beschreibt dabei Werkzeuge, Technologien und Infrastrukturen genauso wie deren Zusammenspiel. Schließlich fassen Friedman und Hendry auch Policies, also Regelwerke oder Strategien, unter den Technologie-Begriff, da Policies als »some combination of tool and infrastructure«[20] verstanden werden und menschliches Handeln ebenfalls prägen.[21]

[9]Welche Technologien werden in den DH also genutzt und angewendet? Eine systematische Orientierung bieten dabei die Spielarten der DH, die Roth und Burghardt unterscheiden: Digitized Humanities, Numerical Humanities, Humanities of the Digital und Public Humanities.[22]

[10]Mit dem Begriff Digitized Humanities beschreibt Roth »the creation, curation, and use of digitized data sets«[23] in den Geistes- und Sozialwissenschaften. Akteur*innen in den Digitized Humanities »digitize, store, process, gather, connect, manage, make available, mine and visualize«[24] Texte, Bilder und Multimedia-Artefakte. Dafür entwickeln und nutzen sie Software. In dieser Spielart der DH sind also beispielsweise Datenmanagement- und Datenspeichersysteme, aber auch Visualisierungs-, Analyse-, Scraping- und OCR-Tools sowie Benutzeroberflächen von Bedeutung. Darüber hinaus spielen Digitale Bibliotheken und Archive als Infrastrukturen eine Rolle, genauso wie Policies für die Erhebung, Kuratierung, Archivierung und Verfügbarmachung von Datensätzen.

[11]In der Kategorie der Numerical Humanities geht es hingegen darum, soziale Prozesse zu formalisieren, indem mathematisch abstrahierte Modelle erstellt werden. Ziel ist dabei, »to capture the possibly general mechanisms at the root of the observed data«.[25] Prozesse softwaregestützt zu realisieren, die andernfalls langwierig oder schwierig umsetzbar sind – wie beispielsweise bei OCR oder statistischen Analysen – versteht Roth dabei nicht als Numerical Humanities; vielmehr zeichnet sich diese Spielart dadurch aus, dass »numerical models of human or social behavior per se«[26] entwickelt werden. Hier kommen vor allem selbstlernende Systeme zum Einsatz, beispielsweise Mustererkennungssoftware, die nach Gesetzmäßigkeiten in bestimmten Datensätzen sucht.

[12]Schließlich beschreibt Roth die Humanities of the Digital als weitere Spielart der DH und meint damit die geisteswissenschaftliche Forschung zu computervermittelter Kommunikation, Mensch-Maschine-Interaktion und Online-Gemeinschaften. Online-Communities werden als sozio-technische Systeme verstanden, die sich durch eigene Regeln und Settings auszeichnen und die es zu untersuchen gilt. So gehören neben Studien zur Rolle von digitaler Kommunikation im Alltag auch Untersuchungen zu Wikipedia, Blogs, sozialen Netzwerkseiten und Gaming-Plattformen zu den Humanities of the Digital.[27] In dieser Spielart geht es – anders als in den Digitized Humanities und den Numerical Humanities – weniger darum, Technologien anzuwenden und zu entwickeln; technologische Artefakte und Infrastrukturen sind vielmehr der Untersuchungsgegenstand.

[13]Den drei von Roth beschriebenen Teilbereichen der DH fügt Burghardt noch einen vierten hinzu, die Public Humanities. Diese umfassen die Themenfelder des digitalen Publizierens, der Wissenschaftskommunikation und des E-Learning.[28] Hier spielen Infrastrukturen wie Zeitschriften, Portale, Verlage und deren Policies eine Rolle, aber auch Soft- und Hardware, die für die Rezeption digitaler Publikationen und E-Learning-Ressourcen benötigt werden, z. B. E-Book-Formate oder User Interfaces.

4. Value Sensitive Design: Grundlagen und methodisches Vorgehen

[14]Bisher wurde also deutlich, dass in Digital-Humanities-Projekten verschiedenste Technologien eine Rolle spielen und dass jede Technologie verschiedene Formen von Bias enthalten kann. Damit kann auch jede Technologie, die in DH-Projekten entwickelt oder angewendet wird, biased sein. Wie aber können wir verhindern, dass Technologien in DH-Projekten Bias beinhalten, hervorrufen oder verstärken?

[15]Ein Ansatz dazu ist Value Sensitive Design. Er wurde von Batya Friedman bereits in den 1990er-Jahren entwickelt[29] und zeichnet sich – im Gegensatz zu anderen Ansätzen wie z. B. ›Social Shaping of Technology‹ – dadurch aus, dass er Technologien nicht nur analysiert und kritisiert. Vielmehr legt das Value Sensitive Design den Fokus darauf, wie Technologien »in moral and ethic ways«[30] konzipiert und umgesetzt werden können. Auf Basis von Value Sensitive Design kann also einerseits systematisch analysiert werden, welche Werte in eine bestimmte Technologie eingeschrieben sind. Andererseits bietet der Ansatz darüber hinaus aber auch ein »overarching theoretical and methodological framework«,[31] um Technologien wertesensitiv zu entwickeln, also die Werte aller betroffenen Akteur*innen im gesamten Design-Prozess zu reflektieren und zu berücksichtigen. Dazu sieht Value Sensitive Design eine integrative und iterative Methodologie mit drei Untersuchungs-Abschnitten vor: den konzeptionellen Überlegungen, den empirischen Untersuchungen und den technischen Investigationen.

4.1 Drei Untersuchungsabschnitte von Value Sensitive Design

[16]In den konzeptionellen Überlegungen wird herausgearbeitet, um welche zentralen Themen, Technologien und Werte es geht. Im Mittelpunkt stehen dabei die Fragen:

  • Welch Technologie wird analysiert oder gestaltet?
  • Welche Stakeholder sind direkt oder indirekt von der jeweiligen Technologie betroffen?
  • Welche Werte und Wertkonflikte spielen eine Rolle?

[17]Besonders am Value-Sensitive-Design-Ansatz ist dabei der Stakeholder-Begriff: Dieser bezieht – anders als der Begriff User – auch diejenigen Akteur*innen mit ein, die zwar nicht direkt mit der Technologie interagieren, auf die sich die Technologie aber dennoch auswirkt: die sog. indirekten Stakeholder. Akteur*innen, die direkt mit der jeweiligen Technologie interagieren, werden dagegen als direkte Stakeholder verstanden. Stakeholder können dabei sowohl Individuen, Gruppen, Organisationen und Gesellschaften als auch zukünftige Generationen sein. In den konzeptionellen Überlegungen wird also analysiert, welche Stakeholder direkt oder indirekt von der jeweiligen Technologie betroffen sind und auf welche Weise.[32]

[18]Auch die Werte und Wertkonflikte, die im Kontext der Technologie eine Rolle spielen, werden im Rahmen der konzeptionellen Untersuchungen expliziert und konkret beschrieben. Ein Wert ist dabei, »what a person or group of people consider important in life«.[33] Da der Value-Sensitive-Design-Ansatz den Werte-Begriff damit sehr weit fasst, sieht er vor, auf Basis von Literatur und bisheriger Forschung zu spezifizieren, was genau unter einem bestimmten Wert im jeweiligen Kontext verstanden wird.[34] Als Ausgangspunkt bieten Friedman und Hendry hierfür eine Liste mit 13 Werten, die beim Design technischer Systeme oft eine Rolle spielen und von ethischer Bedeutung sind:

  • menschliches Wohlergehen,
  • Eigentum und Besitz,
  • Freiheit von Bias,
  • Privatsphäre,
  • Vertrauen,
  • Autonomie,
  • Usability,
  • informierte Einwilligung,
  • Verantwortung,
  • Identität,
  • Verbindlichkeit,
  • Identität,
  • Gelassenheit,
  • ökologische Nachhaltigkeit.

[19]Die Autor*innen weisen aber ausdrücklich darauf hin, dass diese Liste nicht vollständig ist.[35]

[20]Im Rahmen der empirischen Untersuchungen wird mittels qualitativer und quantitativer Methoden untersucht, wie die betroffenen Akteur*innen die jeweiligen Werte im Kontext der Technologie bewerten und welche Prioritäten sie bei Wertkonflikten setzen. Dieser Teilbereich des Value Sensitive Design sieht darüber hinaus vor, zu einem späteren Zeitpunkt im Design-Prozess empirisch zu prüfen, inwiefern die Technologie die entsprechenden Werte in der Anwendung tatsächlich fördert.

[21]Die technischen Investigationen haben ebenfalls zwei Aufgaben: Erstens, zu analysieren, wie sich bestimmte bereits existierende Charakteristika einer Technologie auf verschiedene Werte auswirken. Zweitens wird in den technischen Investigationen überlegt, wie die Technologie so gestaltet werden kann, dass sie die Werte unterstützt, die in den konzeptionellen und empirischen Untersuchungen herausgearbeitet wurden.[36] Friedman und Hendry betonen dabei, dass Technologien eng mit den sozialen Strukturen verknüpft sind, in die sie eingebettet sind. Um bestimmte Werte zu fördern, muss daher nicht in jedem Fall das technische Design angepasst werden. Eine Lösung kann auch darin bestehen, Policies oder soziale Strukturen zu verändern.[37]

[22]Die drei Untersuchungs-Abschnitte sind nicht voneinander unabhängig, sondern beeinflussen sich wechselseitig. Die Reihenfolge der Untersuchungsabschnitte ist daher nicht vorab festgelegt; vielmehr ist eine iterative Wiederholung der Investigationen vorgesehen (vgl. Abbildung 1).[38]

Abb. 1: Die drei Untersuchungsschritte von Value-Sensitive-Design-Analysen. [Leyrer 2021]

4.2 Anwendung von Value Sensitive Design am Beispiel ›Room with a view‹

[23]So weit, so theoretisch: Wie aber sieht eine Value-Sensitive-Design-Analyse in der Praxis aus? Um dies zu zeigen, wird im Folgenden vorgestellt, wie Friedman et al. das Projekt ›Room with a view‹ mit Value Sensitive Design begleiteten. In dem Projekt ging es darum, in fensterlosen Büroräumen Bildschirme aufzustellen, auf denen eine Live-Übertragung des Platzes vor dem Bürogebäude zu sehen war.[39]

[24]In den konzeptionellen Überlegungen stellten Friedman et al. die These auf, dass der Blick auf ein ›virtuelles Fenster‹ – also die Live-Übertragung einer Straßenszene auf Plasma-Bildschirme – die Gesundheit, das Wohlbefinden und die Kreativität der Beschäftigten steigert. Basis dafür waren verschiedene psychologische Studien, die zeigen, dass der Blick auf Natur-Szenen positive physiologische und psychologische Auswirkungen hat und beispielsweise Stress und Krankheiten reduziert.[40] Direkte Stakeholder der Technologie sind also die Beschäftigten in den fensterlosen Büroräumen, deren Werte Gesundheit und Kreativität gefördert werden sollen. Die ›virtuellen‹ Fenster haben aber auch Auswirkungen auf Personen, die sich auf dem Platz vor dem Bürogebäude aufhalten: Sie werden gefilmt und auf den Bildschirmen in den Büros abgebildet. Sie sind damit indirekte Stakeholder der Technologie. Die Live-Übertragung des Platzes auf Bildschirme in den Bürogebäuden könnte damit die Gefährdung der Privatsphäre der indirekten Stakeholder mit sich bringen.[41]

[25]Ausgehend von diesen konzeptionellen Überlegungen führten Friedman et al. verschiedene empirische Untersuchungen durch, um zu prüfen, inwiefern die Technologie der ›virtuellen Fenster‹ die unterschiedlichen Werte der direkten und indirekten Stakeholder tatsächlich fördert oder behindert. So untersuchten sie zunächst in einem experimentellen Setting, welche Effekte ein Bildschirm, auf dem eine Straßenszene vor dem Bürogebäude live übertragen wird, auf die Büroangestellten hat. Hierzu erhoben die Forscher*innen verschiedene Parameter wie die Blickrichtung, den Puls und verschiedene Leistungsdaten der Büroangestellten und führten anschließend qualitative Interviews. Dabei kamen sie zu dem Ergebnis, dass die Live-Übertragung auf dem Bildschirm eine ähnlich erholsame Wirkung hat wie ein echtes Fenster. Einen größeren physiologischen Erholungseffekt wiesen echte Fenster im Vergleich zu ›virtuellen Fenstern‹ nur dann auf, wenn die Teilnehmenden länger als 30 Sekunden auf das jeweilige ›Fenster‹ blickten.[42]

[26]Zusätzlich untersuchten Friedman et al. die Interessen der indirekten Stakeholder – also der Passant*innen auf dem Platz vor dem Bürogebäude –, indem sie diese zu ihrer Einstellung zu Privatsphäre im öffentlichen Raum allgemein und zur Live-Übertragung ihres Bildes auf die Büro-Bildschirme befragten. Dabei wurde deutlich, dass die Passant*innen die Werte Privatsphäre, informierte Einwilligung und Sicherheit sehr hoch bewerteten. Mit dieser Vielfalt empirischer Methoden untersuchten die Forscher*innen also, welche Werte für die verschiedenen betroffenen Akteur*innen im Kontext der ›Virtuelles Fenster‹-Technologie wichtig sind. Dabei wurde deutlich, dass ein Wertkonflikt vorliegt: Während die Technologie die Werte der direkten Stakeholder steigert – also Gesundheit, Wohlbefinden und Kreativität –, gefährdet sie die Werte der indirekten Stakeholder – Privatsphäre, Sicherheit und informierte Einwilligung.[43]

[27]Wie kann mit einem solchen Wertekonflikt umgegangen werden? In den technischen Investigationen empfehlen die Forscher*innen, Gebäude grundsätzlich mit Fenstern zu bauen, da der Blick auf eine Natur-Szene die Werte der Büroangestellten fördert und durch ›virtuelle Fenster‹ nur teilweise ersetzt werden kann.[44] Um im Falle von Gebäuden, die nun mal bereits ohne Fenster gebaut wurden, dennoch einen positiven Effekt für Büroangestellte durch ›virtuelle Fenster‹ zu erzielen, ohne die Werte von Passant*innen auf dem Platz vor dem Bürogebäude als indirekte Stakeholder zu gefährden, könnte darüber hinaus eine Natur-Szene auf den Bildschirm übertragen werden, in der keine Menschen zu sehen sind.

Abb. 2: Beispiel für eine Natur-Szene, auf der keine Menschen abgebildet werden. Eignet sich auch für ein kurzes Experiment: Entspannt Sie der Anblick dieser Natur-Szene? [Free Fotos 2016]

[28]Das Beispiel zeigt, wie die drei Untersuchungs-Abschnitte des Value-Sensitive-Design-Ansatzes angewendet werden können und, dass das Einbeziehen der indirekten Stakeholder und deren Interessen bedeutsame Implikationen für das Design einer Technologie haben kann.

5. Value Sensitive Design in Digital-Humanities-Projekten

[29]Der Value-Sensitive-Design-Ansatz wurde seit seiner Entstehung vor über 30 Jahrenstetig weiterentwickelt und in unterschiedlichen Bereichen angewendet, u. a. in der Informationstechnologie, der Informatik, der Philosophie, der Gesundheitstechnologie und der Pädagogik.[45] In den Digital Humanities ist der Ansatz aber bisher wenig rezipiert worden. Im Folgenden soll daher vorgestellt werden, wie Value Sensitive Design in unterschiedlichen DH-Projekten angewendet werden kann. Für jede Spielart der DH nach Roth und Burghardt werden dazu Anknüpfungspunkte für Value Sensitive Design aufgezeigt.

5.1 Pre-Existing Bias in den Digitized Humanities abmindern

[30]Wie oben bereits ausgeführt, fasst Roth unter Digitized Humanities die Aktivitäten, die digitale Datensätze in den Geistes- und Sozialwissenschaften erstellen, kuratieren und nutzen, indem Texte, Bilder und Multimedia-Artefakte digitalisiert, verarbeitet, verknüpft, verfügbar gemacht und visualisiert werden, beispielsweise in Digitalen Archiven.[46] Diese Aktivitäten haben direkte und indirekte Auswirkungen auf verschiedene Interessensgruppen und deren Werte: So zeigen ethische und wissenschaftstheoretische Untersuchungen, »dass bereits im Prozess der Datenformatierung als auch der weiteren Verarbeitung von Daten und der aus ihnen gezogenen Schlussfolgerungen mannigfaltige Wertentscheidungen getroffen werden«.[47] Der Value-Sensitive-Design-Ansatz kann in den Digitized Humanities also genutzt werden, um bei der Zusammenstellung digitaler Datensätze und beim Aufbau Digitaler Archive und Infrastrukturen die Interessen aller betroffenen Stakeholder zu beachten.[48] Dadurch kann verhindert werden, dass Pre-Existing Bias reproduziert wird – oder sogar dazu beigetragen werden, diesen abzumindern. Zur Verdeutlichung folgen einige Beispiele, wie Value Sensitive Design in Digitized Humanities-Projekten dazu beitragen kann, Diskriminierung auf Basis von kolonialen Machtstrukturen, binären Geschlechtszuschreibungen und körperlichen Fähigkeiten zu lindern.

5.1.1 Digitale Archive postkolonial gestalten

[31]Digitale Archive können koloniale Machtstrukturen reproduzieren. Das macht Risam am Beispiel der Networked Infrastructure for Nineteenth-Century Electronic Scholarship (NINES) deutlich: Das Projekt dient der Vernetzung von DH-Projekten zum 19. Jahrhundert in den USA und Großbritannien, indem es über 900.000 [49] Projekte, Publikationen und digitale Sammlungen zusammenstellt, zentral durchsuchbar macht und Qualitätssicherung durch Peer Review anbietet. NINES ist damit eine bedeutende Infrastruktur in den Digital Humanities. Die Autor*innen, die in NINES zu finden sind, sind allerdings eine »narrowly prescribed group of primarily white writers«.[50] Texte Schwarzer und indigener Autor*innen sind hingegen stark unterrepräsentiert. Zudem sind englischsprachige Texte, die im 19. Jahrhundert in den von Großbritannien kolonialisierten Gebieten entstanden sind, nicht zu finden. Thematisiert wird dieser Mangel auf der Projektseite nicht. [51] NINES schreibt damit »colonial dynamics of knowledge production«[52] fort, durch die »colonial violence«[53] in der Digital-Humanities-Forschung reproduziert wird.

[32]Risam fordert daher, Digitale Archive postkolonial zu gestalten und koloniale Formen der Wissensproduktion zu überwinden. Dafür kann Value Sensitive Design als Ausgangspunkt dienen: So sieht der Ansatz vor, bei der Identifikation der Stakeholder – also derjenigen, die direkt oder indirekt von einer Technologie betroffen sind – besonders Individuen und Gruppen zu berücksichtigen, die von Diskriminierung betroffen sind.[54] Damit können die Interessen und Werte von Personen, die von rassistischer oder (neo-)kolonialer Diskriminierung betroffen sind, im Rahmen von empirischen Untersuchungen erhoben und aktiv in das Design von Digitalen Archiven und Infrastrukturen einbezogen werden.

5.1.2 Gender Bias ausgleichen

[33]Darüber hinaus weisen die Bestände von Archiven – und damit die Basis für digitale Datensätze – meist einen Gender Bias auf. So konstatiert Buettner für die Monacensia im Hildebrandhaus, dem Literaturarchiv der Stadtbibliothek München:

»Mit einem Blick auf die Archivbestände der Monacensia stellen wir fest, dass sich das literarische Gedächtnis bislang einseitig aus Erinnerungen von Männern speist. Das künstlerische Werk von Frauen ist in der Vergangenheit landauf landab als weniger relevant eingeschätzt worden. […] Das literarische Gedächtnis der Stadt München reproduziert so – genau wie viele Museumssammlungen, Theaterspielpläne, Verlags-, Radio- und Ausstellungsprogramm [sic!] – eine unvollständige Wirklichkeit.«[55]

[35]Bei der Erstellung digitaler Datensätze und Archive gilt es also, diesen Pre-Existing Gender Bias so gut wie möglich auszugleichen. Auf Basis von Value Sensitive Design können dabei u. a. im Rahmen der technischen Investigationen Lösungsansätze gesucht werden, um Daten von und über Frauen in ausreichender Quantität und Qualität in den Datensatz bzw. das Digitale Archiv aufzunehmen – oder, sollte dies nicht möglich sein, Frauen trotz der strukturellen Unterrepräsentation im Datensatz sichtbar zu machen. Die Monacensia im Hildebrandhaus rief beispielsweise das mehrjährige partizipative Kulturerbeprojekt #femaleheritage ins Leben, »um die literarischen Texte und Dokumente von Frauen ins literarische Gedächtnis ein- bzw. zurückzuschreiben«.[56] Das Projekt zeigt in Blogartikeln und Sonderausstellungen Archivlücken und Forschungsdesiderate zu Frauen in München auf, erstellte ein Online-Dossier mit Dokumentarfilmen und Texten zu jüdischen Schriftstellerinnen und sammelte in einer Blogparade über 200 Beiträge in Podcasts, Blogs und der Wikipedia, in denen Frauen im Kontext von Literatur, Kultur, Politik und Gesellschaft gewürdigt werden.[57]

Abb. 3: Ausschnitt aus einer Zusammenstellung der knapp 200 Blogartikel, die im Kontext der #femaleheritage-Blogparade entstanden sind. [Praske 2021]

[36]Auch wenn die Moncacensia kein DH-Projekt ist, zeigt das Beispiel, dass digitale und analoge Archiv- und Datenbestände Pre-existing Bias aufweisen können – und dass (nicht nur, aber auch auf Basis von Value Sensitive Design) Strategien entwickelt werden können, um diesen abzumindern.

5.1.3 Barrierefreiheit fördern

[37]Schließlich kann auf Basis des Value-Sensitive-Design-Ansatzes auch sichergestellt werden, dass Digitale Archive und Infrastrukturen möglichst barrierefrei sind. Ein bedeutender Aspekt ist dabei die Gestaltung der Benutzeroberfläche: Diese sollte nach den Prinzipien der Web Accessibility so gestaltet sein, dass auch Personen mit visuellen, auditiven und physischen Einschränkungen das Online-Angebot nutzen können (ausführlicher hierzu Kapitel 5.4). Aber auch finanzielle Aspekte spielen für die barrierearme Nutzung von und die Beteiligung an digitalen Archiven und Infrastrukturen eine Rolle: So macht Rojas Castro darauf aufmerksam, dass Institutionen mit geringen finanziellen Ressourcen keine eigenen Digitalisate zu digitalen Infrastrukturen beitragen können, wenn sie ihre Dokumente dafür zwingend mit einem kostenpflichtigen Persistenten Identifikator wie DOI oder Handle versehen müssen. Dies führt wiederum zu weiteren Verzerrungen: Wenn beispielsweise ressourcenarme Institutionen im globalen Süden eigene Digitalisate in zentralen DH-Infrastrukturen aus finanziellen Gründen nicht beitragen können, entsteht ein regionaler Bias.[58] Werden also Value-Sensitive-Design-Überlegungen in die Gestaltung von digitalen Infrastrukturen und deren Policies einbezogen, fördert dies den Abbau von Barrieren, weil die Interessen von Stakeholdern mit geringen finanziellen Ressourcen oder verschiedenen physischen Beeinträchtigungen berücksichtigt werden.

5.2 Design-Normen für KI-Anwendungen in den Numerical Humanities

[38]Anders als die Digitized Humanities legt die Spielart der Numerical Humanities den Schwerpunkt darauf, formale Modelle zu erstellen und menschliches Verhalten mathematisch zu abstrahieren. Hier kommen vor allem KI-Anwendungen wie Machine Learning Software zum Einsatz. Machine Learning Software zeichnet sich dadurch aus, dass sie sich autonom und adaptiv weiterentwickelt, indem sie mit ihrem Umfeld interagiert. Machine-Learning-Systeme können daher aus verschiedenen Gründen Bias enthalten: Wenn die Trainingsdaten biased sind, wird dieser Bias unweigerlich in die Machine Learning Software übertragen. Beispiel hierfür ist die eingangs erwähnte Gesichtserkennungssoftware, die bei Schwarzen Personen eine deutlich höhere Rate an falsch positiven Treffern aufweist als bei weißen Personen – weil die Trainingsdaten vorrangig Bilder weißer Personen enthielten. Mithilfe des Value-Sensitive-Design-Ansatzes kann also sichergestellt werden, dass der Datensatz, auf dessen Basis eine Machine Learning Software lernt, keinen Bias aufweist (vgl. auch Kapitel 5.1).

[39]Machine-Learning-Systeme können aber auch bei unverzerrten Trainingsdaten einen Algorithmus hervorbringen, der »might conceivably be described as following a rule that is somehow biased«.[59] Diese Form von Bias ist »emergent und opaque«,[60] er ist also nicht vorhersehbar und für Menschen schwer zu erkennen. Eine ethische Überprüfung von Machine-Learning-Technologien bringt daher besondere Herausforderungen mit sich. Umbrello und van de Poel schlagen vor, das Value-Sensitive-Design-Framework für KI-Anwendungen weiterzuentwickeln und um ein »set of AI-specific design principles«[61] zu ergänzen. Drei Aspekte sind dabei zentral:

[40]1) Als Design-Vorgaben, die für alle KI-Anwendungen gelten, schlagen Umbrello und van de Poel die AI for Social Good-Prinzipien (AI4SG) vor. Diese spezifizieren die Prinzipien der EU High Level Expert Group on AI und übertragen sie in sieben konkrete Anforderungen für das Design von KI-Anwendungen:

  • Die Anwendung wird kontinuierlich und zunächst in kleineren Szenarien empirisch getestet;
  • die Designer*innen sichern die Anwendung gegen die Manipulation der Datenbasis und die übermäßige Abhängigkeit von einzelnen Variablen ab;
  • die Nutzer*innen-Autonomie wird gestärkt, indem die User*innen verschieden Auswahlmöglichkeiten bekommen;
  • die Anwendung ist transparent und wird angepasst an die jeweilige Nutzer*innen-Gruppe erklärt;
  • die Privatsphäre von »data subjects«[62] wird geschützt;
  • die Datenbasis, mit der die Anwendung lernt, muss frei von Bias sein, v. a. bezüglich Kategorien wie Race, Gender und Altersklassen und
  • die Zuschreibung von Bedeutung darf nicht willkürlich erfolgen und nicht zu eng gefasst werden.[63]

[41]2) Die AI4SG-Prinzipien zielen jedoch vorrangig darauf ab, KI-Anwendungen so zu gestalten, dass sie keinen Schaden hervorrufen. Der Value-Sensitive-Design-Ansatz sieht darüber hinaus aber auch vor, gesellschaftlich erwünschte Werte und Ziele aktiv zu fördern. Umbrello und van de Poel schlagen daher vor, zwischen »values promoted by design and values respected by design«[64] zu unterscheiden. Welche Werte gesellschaftlich erwünscht sind und von KI-Technologien gefördert werden sollen, kann beispielsweise anhand der Sustainable Development Goals (SDG) der UN abgeleitet werden, die von den Vereinten Nationen erarbeitet und ihren 193 Mitgliedsstaaten verabschiedet wurden.[65] Zu den Zielen, die in den SDG festgehalten sind, gehören u. a. Geschlechtergerechtigkeit, die Bekämpfung von Armut und der Zugang zu Bildung.[66]

[42]3) Schließlich schlagen die Autoren vor, dass die Value-Sensitive-Design-Analyse den gesamten Lebenszyklus einer KI-Anwendung begleitet. Sollten im Lauf der Anwendungszeit einer Technologie Problematiken und Wertverletzungen auftauchen, kann sie so entsprechend angepasst werden. Die Erweiterung des Value-Sensitive-Design-Frameworks sieht daher vor, über den gesamten Lebenszyklus hinweg Prototypen der KI-Anwendung zu erstellen und diese im jeweiligen Anwendungsfeld zu testen. Dabei werden nicht nur die technischen Funktionen geprüft, sondern auch die Auswirkungen der KI-Anwendung auf Werte und Gesellschaft. Diese Tests sollten mit der Anwendung in kleinem Rahmen beginnen und dann sukzessive den Bezugsrahmen ausweiten.[67]

[43]Auf Basis dieses erweiterten Frameworks kann Value Sensitive Design also auch in den Numerical Humanities genutzt werden, um selbstlernenden Systeme wertebasiert zu gestalten oder bereits existierende KI-Anwendungen informationsethisch zu überprüfen.

5.3 Akteur*innen und ihre Interessen in den Humanities of the Digital analysieren

[44]Als dritte Spielart der Digital Humanities beschreibt Roth die Humanities of the Digital: Die geisteswissenschaftliche Forschung zu »computermediated interactions and societies«,[68] also zu soziotechnischen Systemen wie Online-Communities, Blogs, Sozialen Netzwerk-Seiten und Gaming-Plattformen. Hier geht es also weniger darum, Technologien zu entwickeln und anzuwenden, sondern diese als Untersuchungsgegenstände in den Blick zu nehmen.

[45]Value Sensitive Design kann dabei als theoretischer Ausgangspunkt dienen, um Online-Communities, Soziale Netzwerk-Seiten und Gaming-Plattformen aus einer informationsethischen Perspektive zu untersuchen und sich unterschiedlichen Fragestellungen zu nähern: Welche direkten und indirekten Stakeholder hat eine Soziale Netzwerk-Seite wie Instagram, eine Online-Community wie Wikipedia oder eine Gaming-Plattform wie Steam? Welche Werte und wessen Interessen werden von den Nutzungsbedingungen, Policies und dem technischen Design gefördert bzw. behindert? Wie könnte die jeweilige Plattform oder Community gestaltet sein, um die Werte und Interessen aller Stakeholder zu beachten?

[46]Dass Online-Communities, Soziale Netzwerk-Seiten und Gaming-Plattformen die Interessen und Werte verschiedener Stakeholder in unterschiedlichem Maß fördern oder behindern, wird anhand von Beispielen deutlich. So weist die Community-betriebene Online-Datenbank Wikidata einen Gender Bias auf: Von den 8,2 Millionen Personen, die Wikidata verzeichnet, sind nur 23 Prozent Frauen.[69] Die mit Wikidata verknüpfte Enzyklopädie Wikipedia enthält zudem einen »Eurocentric bias«,[70] da historische Artikel in mehreren Sprachversionen der Wikipedia vor allem die Geschichte europäischer Länder thematisieren.[71] Die Nutzungsbedingungen der Sozialen Netzwerk-Seite Facebook erlauben Bilder nackter Oberkörper, die als männlich gelesen werden, verbieten aber Bilder nackter Oberkörper, die als weiblich gelesen werden. West beschreibt dies als »gendered policies on images of female nudity«.[72] Eine umfassende informationsethische Analyse der jeweiligen Communities und Sozialen Netzwerk-Seiten, in der alle direkten und indirekten Stakeholder und ihre Werte berücksichtigt werden, steht jedoch noch aus.

5.4 Mehr Barrierefreiheit in den Public Humanities schaffen

[47]Den drei von Roth beschriebenen Teilbereichen der Digital Humanities fügt Burghardt eine vierte Spielart hinzu: Die Public Humanities, also die Themenfelder des digitalen Publizierens, der Wissenschaftskommunikation und des E-Learnings. Auch hier gilt es, die Interessen unterschiedlicher Stakeholder zu berücksichtigen, um Bias und Diskriminierung zu vermeiden. Auf Basis von Value Sensitive Design kann beispielsweise sichergestellt werden, dass digitale Publikationen und E-Learning-Angebote möglichst barrierefrei gestaltet werden. Barrierefreiheit bezieht sich dabei auf Barrieren physischer Art, aber auch finanzieller und sprachlicher Art.

[48]Genau wie in den Digitized Humanities sollten Benutzeroberflächen und Formate von digitalen Publikationen und E-Learning-Angeboten nach den Prinzipien der Web Accessibility gestaltet sein, sodass sie von Personen mit auditiven, visuellen, körperlichen, kognitiven und sprachlichen Einschränkungen genutzt werden können. Orientierung bieten dafür die Standards und Empfehlungen der W3C Web Accessibility Initiative,[73] die beispielsweise vorsehen, Bilder mit einem Alternativtext zu versehen, Audio-Inhalte und Videos mit Transkriptionen bzw. Untertiteln auszustatten und die Navigation auf Websites per Tastatur zu ermöglichen. Stakeholder, deren Interessen damit verfolgt werden, sind dabei neben Menschen mit Behinderung auch weitere Gruppen: Personen, deren Fähigkeiten sich altersbedingt verändern; Nutzer*innen, die über eine langsame Internet-Verbindung verfügen; und Personen, die sich in limitierenden Situationen befinden, beispielsweise in einer Umgebung, in der sie Audio-Inhalte nicht anhören können oder hellem Sonnenlicht ausgesetzt sind. Die W3C Web Accessibility Initiative empfiehlt, Aspekte der Barrierefreiheit bereits zu Beginn eines Projektes zu bedenken, um zu vermeiden, Designs und Inhalte noch einmal neu gestalten zu müssen.[74]

[49]Neben Empfehlungen für die Gestaltung und Entwicklung von Websites und Online-Publikationen weist die W3C Web Accessibility Initiative auch darauf hin, dass Texte klar, prägnant und in verständlicher Sprache formuliert werden sollen.[75] Auch Sprache kann also eine Barriere sein, die es Stakeholdern schwierig bis unmöglich macht, eine Ressource zu nutzen. Dabei spielen nicht nur die Verständlichkeit von Texten, sondern auch Fremdsprachenkenntnisse eine Rolle. Ein Beispiel: Die Website The Programming Historian publiziert Tutorials, »that help humanists learn a wide range of digital tools, techniques, and workflows«.[76]Die englischsprachige Version der Website ist im Directory of Open Access Journals (DOAJ) verzeichnet. Das DOAJ lehnte es zunächst jedoch ab, auch die spanisch- und französischsprachigen Versionen der Tutorials in ihr Verzeichnis aufzunehmen, da diese als nicht »original enough«[77] angesehen wurden. Für Personen, die über geringe Englischkenntnisse verfügen und daher gezielt nach französisch- oder spanischsprachigen Ressourcen suchen, waren die entsprechenden Tutorials von The Programming Historian über das DOAJ damit nicht auffindbar. Seit April 2021 verzeichnet das DOAJ aber alle drei Sprachversionen der Website und trägt damit zur barrierefreien Auffindbarkeit der Tutorials von The Programming Historian für Personen ohne oder mit geringen Englischkenntnissen bei.[78]

[50]Schließlich können auch finanzielle Aspekte ausschlaggebend dafür sein, dass digitale Publikationen oder E-Learning-Ressourcen von bestimmten Individuen oder Gruppen nicht genutzt werden können. Der Zugang zu wissenschaftlichen Zeitschriften, Monographien und Sammelbänden ist sowohl für Einzelpersonen als auch für Institutionen in der Regel mit Kosten verbunden – mit Ausnahme von Publikationen, die Open Access zur Verfügung gestellt werden. Aber auch hier können finanzielle Barrieren entstehen, und zwar für die Autor*innen, die eigene Beiträge veröffentlichen wollen: Sog. Gold-Open-Access-Zeitschriften, die ihre Beiträge direkt bei der Veröffentlichung für Leser*innen kostenfrei zur Verfügung stellen, erheben teilweise Article Processing Charges (APCs) – also Gebühren, die Autor*innen für die Veröffentlichung ihres Beitrages entrichten müssen.[79] Für Wissenschaftler*innen, die an weniger ressourcenstarken Institutionen affiliiert sind, hat dies zur Folge, dass sie ihre Beiträge nur in einem Teil der entsprechenden Journals publizieren können, die in ihrem jeweiligen Fachbereich eine Rolle spielen – nämlich denjenigen ohne APCs. Damit sind ihre Möglichkeiten, am wissenschaftlichen Diskurs teilzunehmen, eingeschränkt.

[51]Der Value-Sensitive-Design-Ansatz kann damit auch in den Public Humanities dazu beitragen, die Policies und das technische Design von digitalen Publikationen und E-Learning-Ressourcen so zu gestalten, dass Barrieren finanzieller, sprachlicher und physischer Art abgebaut werden, indem die Interessen und Werte unterschiedlicher Stakeholder berücksichtigt werden. Zu diesen Stakeholdern gehören u. a. Wissenschaftler*innen, die an ressourcenarmen Institutionen affiliiert sind, Personen mit geringen Englischkenntnissen, Nutzer*innen, die über eine langsame Internet-Verbindung verfügen und Menschen mit auditiven, visuellen oder körperlichen Einschränkungen.

5.5 Menschenrechte und Umweltschutz in allen DH-Spielarten fördern

[52]In den bisherigen Abschnitten wurde gezeigt, wie Value Sensitive Design in den vier von Roth und Burghardt benannten Spielarten der DH angewendet werden kann, um Bias und Diskriminierung zu vermeiden. Abschließend soll hier auf eine Problematik eingegangen werden, die alle DH-Projekte unabhängig von ihrer Spielart aufwerfen. Noble ruft Akteur*innen in den DH dazu auf, sich die »materiality of the digital humanities and its impact in the world«[80] stärker bewusst zu machen. So führt der Abbau von Mineralien, die für die Herstellung digitaler Technologien benötigt werden, in Regionen des globalen Südens zu Konflikten und Ausbeutung, während Nutzer*innen im globalen Norden die Profiteur*innen dieser Technologien sind. Zudem entstehen sowohl bei der Produktion, als auch bei der meist unsachgemäßen Entsorgung von Hardware Umweltschäden. Noble fordert daher: Die DH-Community sollte nicht nur reflektieren, wie sie zu einer gerechteren Verteilung von IT-Infrastrukturen weltweit beitragen kann, sondern auch »design against – or outright resist – the exploitive forms of labor and hazardous environmental practices in which information and communication technologies are implicated«.[81] Auch das Manifest Digital Humanities and the Climate Crisis, das im Sommer 2021 von einem internationalen Zusammenschluss DH-Forschender veröffentlicht wurde, ruft Akteur*innen in den DH dazu auf, die ökologischen und sozialen Auswirkungen ihres Handelns zu prüfen.[82]

[53]Auch hier kann Value Sensitive Design als Ausgangspunkt dienen, um Menschenrechte und Umweltschutz beim Design von Projekten und Technologien in den DH mitzudenken. So können die Personen, die am Herstellungsprozess von Hardware und IT-Technologien beteiligt sind, genauso als indirekte Stakeholder eines jeden DH-Projektes begriffen werden wie diejenigen, die von den Umweltschäden durch unsachgemäße Hardware-Entsorgung betroffen sind. Wie können die Werte und Interessen dieser Stakeholder also im Design berücksichtigt werden? Dies gilt es, mit empirischen Untersuchungen und technischen Investigationen zu erforschen. Hier zwei Ideen: DH-Projekte könnten sich grundsätzlich zum Ziel setzen, Software und Infrastrukturen so zu entwickeln, dass sie möglichst wenig (Hardware-)Ressourcen in Anspruch nehmen, wie es zum Beispiel die 2014 gegründete Arbeitsgruppe Minimal Computing der Global Outlook DH-Initiative propagiert.[83] Bei der Beschaffung von Hardware sollte zudem darauf geachtet werden, dass diese sozial- und umweltverträglich hergestellt wurde. Orientierung bieten dabei Label wie TCO Certified für soziale Kriterien oder der Blaue Engel, das EU-Ecolabel und das Nordic Ecolabel für ökologische Aspekte.[84] Wie öffentliche Einrichtungen soziale und ökologische Kriterien in Vergabeverfahren verankern können, verdeutlichen u. a. die Fachkonferenzen für sozial verantwortliche IT-Beschaffung und die Nichtregierungsorganisation Electronics Watch auf ihren Websites.[85] Darüber hinaus könnten Menschenrechts- und Umweltschutz-Aspekte nicht nur bei der Beschaffung von Hardware, sondern auch bei der Organisation von Konferenzen und Dienstreisen im Rahmen von DH-Projekten handlungsleitend sein, beispielsweise indem bei Tagungen fair gehandelte und ökologisch erzeugte Verpflegung angeboten und auf Flugreisen so weit wie möglich verzichtet wird.

6. Zusammenfassung, Limitationen und Ausblick

[54]Dieser Beitrag zeigt auf, dass Technologien nicht neutral sind, sondern immer bestimmte Werte fördern oder behindern. Zugleich werden in jedem Digital-Humanities-Projekt Technologien angewendet oder entwickelt. Um zu verhindern, dass diese Technologien Bias reproduzieren oder hervorbringen, schlägt dieser Beitrag die Anwendung von Value Sensitive Design vor: Dieses theoretische und methodische Framework bietet eine dreiteilige Vorgehensweise, um die Werte aller betroffenen Stakeholder einer Technologie im gesamten Design-Prozess zu berücksichtigen. Anhand der vier von Roth und Burghardt geprägten Spielarten von DH wurden verschiedene Anknüpfungspunkte und Anwendungsbeispiele aufgezeigt, wie Value Sensitive Design in DH-Projekten gewinnbringend eingesetzt werden kann.

[55]Dabei unterliegen sowohl dieser Beitrag, als auch der Value-Sensitive-Design-Ansatz verschiedenen Limitationen. So können Technologien, Datensätze und Forschungsprojekte auch Verzerrungen aufweisen, die keine systematische und unfaire Diskriminierung hervorrufen. Solche Verzerrungen werden zwar nicht als Bias im Sinne von Nissenbaum und Friedman verstanden,[86] sind aber trotzdem problematisch, da sie zu verzerrten Forschungsergebnissen führen. Um diese Art von Bias zu verhindern, ist Value Sensitive Design weniger geeignet; mögliche Strategien zur Vermeidung solcher Verzerrungen sind vielmehr Methodenvielfalt, Triangulation und unterschiedliche experimentelle Settings.

[56]Darüber hinaus ließen sich sicherlich noch weitere Aspekte und Beispiele finden, wie Value Sensitive Design in DH-Projekten genutzt werden kann. Gleichermaßen gibt es neben Value Sensitive Design weitere Methoden und Frameworks, die die ethische Gestaltung von Projekten und Technologien unterstützen, beispielsweise Embedded Ethics oder Partizipatives Design.[87] Kern des Embedded-Ethics-Ansatzes ist es, eine oder mehrere Ethiker*innen an allen Entscheidungen im gesamten Verlauf eines Projektes zu beteiligen.[88] Das Konzept des Partizipativen Designs legt hingegen den Fokus darauf, potentielle Nutzer*innen in den Design-Prozess einzubinden.[89] Damit hängt die ethische Bewertung und Gestaltung in beiden Ansätzen stärker von wenigen, ausgewählten Akteur*innen ab: im Falle von Embedded Ethics von den Werten und Perspektiven der Ethiker*innen im jeweiligen Projekt; bei Partizipativem Design von den Werten und Perspektiven ausgewählter Nutzer*innen. Aus meiner Sicht hat Value Sensitive Design demgegenüber den entscheidenden Vorteil, die Perspektiven, Werte und Ziele verschiedener direkt und indirekt beteiligter Akteur*innen einzubeziehen und diese systematisch zu analysieren. Dieser Beitrag erhebt aber keinerlei Anspruch auf Vollständigkeit möglicher ethischer Ansätze, sondern zeigt Ideen und Anregungen auf, wie DH-Projekte in der Praxis informationsethisch überprüft und wertebasiert gestaltet werden können. Eine Diskussion und Ergänzung der hier vorgestellten Aspekte sind daher wünschenswert.

[57]Um ein DH-Projekt auf Basis von Value Sensitive Design zu gestalten, sind je nach Projekt und Kontext zusätzliche zeitliche, finanzielle und personelle Ressourcen notwendig. Diese müssen bei der Planung von Projekten und der Beantragung von Mitteln eingeplant werden. Darüber hinaus muss entweder innerhalb des Projektes oder an zentraler Stelle Expertise zur theoretischen und praktischen Umsetzung von Value Sensitive Design vorhanden sein. Zwei Ideen, um dies für jedes DH-Projekt zu gewährleisten: In den Curricula von DH-Studiengängen könnten Technik- und Informationsethik sowie konkrete methodische Ansätze wie Value Sensitive Design verpflichtend verankert werden, sodass möglichst viele zukünftige Akteur*innen in den DH die Grundlagen wertebasierten Projekt- und Technologie-Designs kennen. Auch die Idee der Data Stewards, also von Expert*innen, die Forschende beim Management von Forschungsdaten unterstützen,[90] kann als Anregung dienen: So sind parallel dazu Value Stewards oder Ethic Stewards denkbar, die DH-Forschende bei der informationsethischen Überprüfung und wertebasierten Gestaltung ihrer Projekte und Technologien beraten.

[58]Darüber hinaus ist es auch mithilfe von Value Sensitive Design nicht möglich, Bias vollständig auszuschließen. Wie genau eine Value-Sensitive-Design-Analyse durchgeführt wird, welche Stakeholder einbezogen, welche empirischen Erhebungen durchgeführt und wie darauf aufbauend das technische Design und Policies konkret umgesetzt werden, unterscheidet sich mit großer Wahrscheinlichkeit von Forscher*in zu Forscher*in: Eigene Werte, Erfahrungen und Interessen fließen immer bewusst oder unbewusst in die Anwendung des Value-Sensitive-Design-Frameworks ein. Dies ist nicht nur unvermeidlich, sondern auch in Ordnung: Friedman und Hendry resümieren, »we need not require perfection, but commitment to practice – and through practice, progress«.[91] Value Sensitive Design garantiert also keine ›ethisch perfekten‹ Technologien – aber das Framework bietet Unterstützung dabei, Bias so gut wie möglich zu vermeiden und die Auswirkungen von Technologien auf die Gesellschaft zu bedenken, offenzulegen und zu diskutieren. Zudem ermöglicht Value Sensitive Design, Technologien nicht nur nach klassischen Kriterien wie Effektivität oder Robustheit zu bewerten – sondern auch nach den Werten, die sie fördern. Das ist ein guter Start, um Technologien und Projekte so zu gestalten, dass sie nicht nur die Digital Humanities, sondern auch die Welt ein wenig besser machen.


Fußnoten


Bibliographische Angaben

  • Anne Baillot: »Digital Humanities und die Klimakrise« – ein Manifest. In: Digital Intellectuals. Hg. von Anne Baillot. Blogbeitrag vom 24.08.2021. [online].

  • Marianne Beisheim: Die ›Agenda 2030 für nachhaltige Entwicklung‹. In: Zeitschrift für die Vereinten Nationen und ihre Sonderorganisationen 63 (2015), H. 6, S. 255–260. [online] [Nachweis im GVK]

  • Anke Buettner: Gedächtnis mit Schlagseite – die Monacensia und #femaleheritage. In: Münchner Stadtbibliothek. Blog. Blogbeitrag vom 11.11.2020. [online]

  • Anke Buettner: Kulturerbe-Projekt #femaleheritage: Vom Spuren legen und Fährten lesen – Ausblick & Nachlese der Blogparade. In: Münchner Stadtbibliothek. Blog. Blogbeitrag vom 08.03.2021. [online]

  • Manuel Burghardt: Theorie und Digital Humanities – Eine Bestandsaufnahme. In: Digital Humanities Theorie. Hg. von AG Digital Humanities Theorie. Blogbeitrag vom 15.05.2020. [online]

  • Gender Gap in Wikidata. Hg. von Denelezh. In: denelezh.wmcloud.org/gender-gap. Analyse-Tool abgerufen am 21.09.2020. [online]

  • Leitlinien zur Sicherung guter wissenschaftlicher Praxis. Kodex. Hg. von Deutsche Forschungsgemeinschaft. Bonn 2019. In: zenodo.org/record/3923602. Version 1.0 vom 15.09.2019. DOI: 10.5281/zenodo.3923602

  • Directory of Open Access Journals. Hg. von DOAJ. [online]

  • Werkzeugsammlung Öffentliche Beschaffung. Hg. von Electronics Watch. In: electronicswatch.org. Amsterdam. [online]

  • Dokumentation vom 04.09.2020. Hg. von Fachkonferenzen für sozial verantwortliche IT-Beschaffung. In: faire-beschaffung.de. Wustermark 2020. [online]

  • Claudia Frick / Christian Kaier: Publikationskosten für Zeitschriftenartikel abseits von Open-Access-Publikationsfonds – Lost in Transformation? In: o-bib. Das offene Bibliotheksjournal 7 (2020), H. 2, S. 1–15. Artikel vom 05.05.2020. DOI: 10.5282/O-BIB/5586

  • Batya Friedman: Value-sensitive design. In: Interactions 3 (1996), H. 6, S. 16–23. [Nachweis im GVK]

  • Batya Friedman / David Hendry: Value Sensitive Design. Shaping technology with moral imagination. Cambridge MA u. a. 2019. [Nachweis im GVK]

  • Batya Friedman / Peter Kahn / Alan Borning: Value Sensitive Design and Information Systems. In: The handbook of information and computer ethics. Hg. von Kenneth Einar Himma / Herman T. Tavani. Hoboken, NJ 2008, S. 69–101. [Nachweis im GVK]

  • Batya Friedman / Helen Nissenbaum: Bias in computer systems. In: ACM Transactions on Information Systems 14 (1996), H. 3, S. 330–347. PDF. [online] [Nachweis im GVK]

  • Marisa Gierlinger: Warum Tech-Konzerne der Gesichtserkennung abschwören. In: Süddeutsche Zeitung. Artikel vom 12.06.2020. [online]

  • Minimal Computing: About. Hg. von GO::DH Minimal Computing Working Group. In: go-dh.github.io. [online]

  • Roger Häußling: Techniksoziologie. Eine Einführung. 2., überarbeitete und aktualisierte Auflage. Opladen u. a. 2019. [Nachweis im GVK]

  • Shawn Lawton Henry: Introduction to Web Accessibility. Hg. von W3C Web Accessibility Initiative. In: w3.org/WAI/standards-guidelines vom 11.07.2019. Website. [online]

  • Shawn Lawton Henry: W3C Accessibility Standards Overview. Hg. von W3C Web Accessibility Initiative. In: w3.org/WAI/standards-guidelines vom 30.04.2021. [online]

  • Martin Holland: Amazon: KI zur Bewerbungsprüfung benachteiligte Frauen. In: Heise Online. Artikel vom 11.10.2018. [online]

  • Martin Holland: Analyse: KI-Sprachmodell GPT-3 hegt tief verankerte Vorurteile gegen Muslime. In: Heise Online vom 25.01.2021. [online]

  • Digital Humanities: Eine Einführung. Hg. von Fotis Jannidis / Hubertus Kohle / Malte Rehbein. Stuttgart 2017 [Nachweis im GVK]

  • Peter H. Kahn: The human relationship with nature. Development and culture. Cambridge, MA. 1999. [Nachweis im GVK]

  • Daniél Kretschmar: Rassismus in Algorithmen. Gesichtserkennung für die Tonne. In: taz.de. Artikel vom 01.07.2020. [online]

  • Data Stewardship. Hg. von Landesinitiative für Forschungsdatenmanagement. In: fdm.nrw. Duisburg-Essen 2020. [online]

  • Stuart McLennan / Amelia Fiske / Leo Anthony Celi / Ruth Müller / Jan Harder / Konstantin Ritt / Sami Haddadin / Alena Buyx: An embedded ethics approach for AI development. In: Nature Machine Intelligence 2 (2020), H. 9, S. 488–490. [Nachweis im GVK]

  • What is NINES? Hg. von NINES Nineteenth-century Scholarship Online. In: nines.org/about. [online]

  • Safiya Umoja Noble: Toward a Critical Black Digital Humanities. In: Debates in the Digital Humanities. Hg. von Matthew K. Gold, Lauren F. Klein. Minneapolis, MN 2019, S. 27–35. [Nachweis im GVK]

  • Tanja Praske: Blogparade »Frauen und Erinnerungskultur #femaleheritage« der Monacensia (11.11.–09.12) mit Nachklapp. In: pearltrees.com. Inhalt vom 16.02.2021. [online]

  • The Programming Historian. Hg. von The Programming Historian. 2008–2021. [online]

  • Wie die Beschaffung fairer IT-Hardware gelingt. Hg. von Rat für Nachhaltige Entwicklung. In: nachhaltigkeitsrat.de/aktuelles. Artikel vom 25.06.2019. [online]

  • Roopika Risam: New digital worlds. Postcolonial digital humanities in theory, praxis, and pedagogy. Evanston, IL 2019. [Nachweis im GVK]

  • Antonio Rojas Castro: FAIR enough? Building DH resources in an unequal world. (Digital Humanities Kolloquium, BBAW, 07.08.2020). In: vimeo.com/445147368. Video. [online]

  • Camille Roth: Digital, digitized, and numerical humanities. In: Digital Scholarship in the Humanities 34 (2019), H. 3, S. 616–632. Artikel vom 05.11.2018. DOI: 10.1093/llc/fqy057 [Nachweis im GVK]

  • Anna Samoilenko: Multilingual historical narratives on Wikipedia. 2017. In: GESIS Data Archive. Datensatz. Version 1. DOI: 10.7802/1411

  • Judith Simon: Values in Design. In: Handbuch Medien- und Informationsethik. Hg. von Jessica Heesen. Stuttgart 2016, S. 357–364. [Nachweis im GVK]

  • Routledge international handbook of participatory design. Hg. von Jesper Simonsen / Toni Robertson. New York, NY u. a. 2013. [Nachweis im GVK]

  • Roger S. Ulrich: Biophilia, biophobia, and natural landscapes. In: The biophilia hypothesis. Hg. von Stephen R. Kellert. Washington, DC u. a. 1993, S. 73–137. [Nachweis im GVK]

  • Roger S. Ulrich: View through a window may influence recovery from surgery. In: Science 224 (1984), H. 4647, S. 420–421. [Nachweis im GVK]

  • Steven Umbrello / Ibo van de Poel: Mapping Value Sensitive Design onto AI for social good principles. In: AI and Ethics (2021). Artikel vom 01.02.2021. DOI: 10.1007/s43681-021-00038-3 [Nachweis im GVK]

  • A new companion to digital humanities. Hg. von Susan Schreibman / Ray Siemens / John Unsworth. Chichester u. a. 2016. [Nachweis im GVK]

  • Sara Wachter-Boettcher: Technically wrong. Sexist apps, biased algorithms, and other threats of toxic tech. New York, NY u. a. 2017. [Nachweis im GVK]

  • Sarah Myers West: Raging Against the Machine: Network Gatekeeping and Collective Action on Social Media Platforms. In: Mobile Media and Communication 5 (2017), H. 3, S. 28–36. DOI: 10.17645/mac.v5i3.989 [Nachweis im GVK]

  • Kevin White / Shadi Abou-Zahra / Shawn Lawton Henry: Writing for Web Accessibility – Tips for Getting Started. Hg. von W3C Web Accessibility Initiative. In: w3.org/WAI/tips/writing/ vom 01.12.2020. [online]

  • Till Winkler / Sarah Spiekermann: Twenty years of Value Sensitive Design: a review of methodological practices in VSD projects. In: Ethics and Information Technology 23 (2021), S. 17–21. Artikel vom 21.08.2018. DOI: 10.1007/s10676-018-9476-2 [Nachweis im GVK]


Abbildungsverzeichnis

  • Abb. 1: Die drei Untersuchungsschritte von Value-Sensitive-Design-Analysen. [Leyrer 2021].
  • Abb. 2: Beispiel für eine Natur-Szene, auf der keine Menschen abgebildet werden. Eignet sich auch für ein kurzes Experiment: Entspannt Sie der Anblick dieser Natur-Szene? [Wasserfall, Tal, Berge, Landschaft, Wald, Bachlauf. Hg. von Free Fotos. In: pixabay.com. Bild vom 08.01.2016]. [online]
  • Abb. 3: Ausschnitt aus einer Zusammenstellung der knapp 200 Blogartikel, die im Kontext der #femaleheritage-Blogparade entstanden sind. [Praske 2021]