Versionen vergleichen von : Bye, Bye, Bias! Digital-Humanities-Projekte informationsethisch überprüfen und gestalten mit Value Sensitive Design

AltNeu
2 2
3
4
5
3 Katharina Leyrer 6 Katharina Leyrer
7
4 Kontakt: katharina.leyrer@fau.deInstitution: Friedrich-Alexander-Universität 8 Kontakt: katharina.leyrer@fau.deInstitution: Friedrich-Alexander-Universität
6 10
11Sie möchten das Long Paper
12 kommentieren?
13
14 Bis zum 08.11.2021 kann mittels des Annotationstools hypothes.is das Long
15 Paper direkt hier auf der Seite öffentlich begutachtet und kommentiert werden. Die
16 Annotations-Sidebar von hypothes.is öffnen Sie in der rechten oberen
17 Ecke. Sobald Sie eingeloggt sind, sehen Sie alle Kommentare und können
18 eigene hinzufügen.
7 19
8 20
9 DOI: 10.17175/sb005_003_v2 21
10 Nachweis im OPAC der Herzog August Bibliothek: 1839573139 22
23
24
25 DOI:
26 10.17175/sb005_003
27
28
29 Nachweis im OPAC der Herzog August Bibliothek:
30 1764792149
31
11 Erstveröffentlichung: 08.09.2021 32 Erstveröffentlichung: 08.09.2021
12
13Version 2.0: 21.03.2023
14
15 Lizenz: Sofern nicht anders angegeben 33 Lizenz: Sofern nicht anders angegeben
17 35
18 Medienlizenzen: Medienrechte liegen bei den Autor*innen 36 Medienlizenzen: Medienrechte liegen bei den
19 37 Autor*innen
20 Letzte Überprüfung aller Verweise: 07.09.2021 38 Letzte Überprüfung aller Verweise: 07.09.2021
21 39 GND-Verschlagwortung: Informationsethik
22 GND-Verschlagwortung: Informationsethik | Digital Humanities | Mensch-Maschine-Kommunikation | Design | Bias |  40 | Digital
23 41 Humanities | Mensch-Maschine-Kommunikation | Design | Bias |
24 Empfohlene Zitierweise: Katharina Leyrer: Bye, Bye, Bias! Digital-Humanities-Projekte wertebasiert gestalten mit Value Sensitive Design. In: Fabrikation von Erkenntnis – Experimente in den Digital Humanities. Hg. von Manuel Burghardt, Lisa Dieckmann, Timo Steyer, Peer Trilcke, Niels Walkowski, Joëlle Weis, Ulrike Wuttke. Wolfenbüttel 2021. (= Zeitschrift für digitale Geisteswissenschaften / Sonderbände, 5). Erstveröffentlichung 08.09.2021. Version 2.0 vom 21.03.2023. HTML / XML / PDF. DOI: 10.17175/sb005_003_v2 42 Empfohlene Zitierweise: Katharina Leyrer: Bye, Bye,
43 Bias! Digital-Humanities-Projekte wertebasiert gestalten mit Value Sensitive
44 Design. In: Fabrikation von Erkenntnis – Experimente in den Digital Humanities.
45 Hg. von Manuel Burghardt, Lisa Dieckmann, Timo Steyer, Peer Trilcke, Niels
46 Walkowski, Joëlle Weis, Ulrike Wuttke. Wolfenbüttel 2021. (= Zeitschrift für
47 digitale Geisteswissenschaften / Sonderbände, 5) text/html Format. DOI: 10.17175/sb005_003
25 48
30 Abstract 53 Abstract
31 Technologien sind nicht neutral, sondern fördern bestimmte Werte und 54 Technologien sind nicht neutral, sondern fördern bestimmte Werte und behindern
32 behindern andere. Das gilt auch für Technologien, die in den Digital 55 andere. Das gilt auch für Technologien, die in den Digital Humanities entwickelt
33 Humanities entwickelt und genutzt werden. Daher bedürfen diese 56 und genutzt werden. Daher bedürfen diese Technologien einer ethischen
34 Technologien einer ethischen Untersuchung und Einordnung. Der Ansatz des 57 Untersuchung und Einordnung. Der Ansatz des Value Sensitive Design ermöglicht
35 Value Sensitive Design ermöglicht einerseits, systematisch zu 58 einerseits, systematisch zu analysieren, welche Interessen und Werte in eine
36 analysieren, welche Interessen und Werte in eine bestimmte Technologie 59 bestimmte Technologie eingeschrieben werden und ist zugleich ein Framework, um
37 eingeschrieben werden und ist zugleich ein Framework, um Technologien 60 Technologien wertesensitiv zu entwickeln. Der Beitrag zeigt auf, wie Value
38 wertesensitiv zu entwickeln. Der Beitrag zeigt auf, wie Value Sensitive 61 Sensitive Design als theoretischer und methodischer Ansatz in den
39 Design als theoretischer und methodischer Ansatz in den 62 unterschiedlichen Spielarten der Digital Humanities genutzt werden kann.
40 unterschiedlichen Spielarten der Digital Humanities genutzt werden 63
41 kann. 64
65
66 Technological systems are not neutral but promote certain values and hinder
67 others. That is also true for technologies that are developed and used in the
68 field of Digital Humanities. Therefore, these technologies need to be reviewed
69 from an ethical point of view. Value Sensitive Design is a framework to
70 systematically analyze whose interests and values are implemented in a
71 technological system. At the same time, Value Sensitive Design facilitates
72 accounting for human values when designing technologies. This contribution
73 points out how Value Sensitive Design can be used as a theoretical and
74 methodological approach in different areas of Digital Humanities activities.
42 75
46 79
47 Technological systems are not neutral but promote certain values and
48 hinder others. That is also true for technologies that are developed and
49 used in the field of Digital Humanities. Therefore, these technologies
50 need to be reviewed from an ethical point of view. Value Sensitive
51 Design is a framework to systematically analyze whose interests and
52 values are implemented in a technological system. At the same time,
53 Value Sensitive Design facilitates accounting for human values when
54 designing technologies. This contribution points out how Value Sensitive
55 Design can be used as a theoretical and methodological approach in
56 different areas of Digital Humanities activities.
57
58
59
60
61 Version 2.0 (21.03.2023)
62 Es wurden folgende Änderungen vorgenommen: Inhaltliche und strukturelle Anpassungen,
63 wie sie von den Gutachten angemerkt worden sind. Aktualisierung und Ergänzung der
64 Fußnoten und der bibliografischen Angaben. Formale Korrekturen.
65 80
69 1. Einleitung 84 1. Einleitung
85
86
70 2. Wie kommt der Bias in die Technologie? 87 2. Wie kommt der Bias in die Technologie?
88
89
71 3. Technologien in den Digital Humanities 90 3. Technologien in den Digital Humanities
72 4. Ethik in den DH: Informations- und Technikethik
73 5. Value Sensitive Design: Grundlagen und methodisches Vorgehen
74 5.1 Drei Untersuchungsabschnitte von Value Sensitive Design
75 5.2 Anwendung von Value Sensitive Design: Zwei Beispiele
76 5.2.1 ›Room with a view‹: Virtuelle Fenster in Büroräumen
77 5.2.2 Die Groupware CodeCOOP für den Wissensaustausch in Unternehmen
78 6. Value Sensitive Design in Digital-Humanities-Projekten
79 6.1 Pre-Existing Bias in den Digitized Humanities abmindern
80 6.1.1 Gender Bias ausgleichen
81 6.1.2 Digitale Archive postkolonial gestalten
82 6.1.3 Barrierefreiheit fördern
83 6.2 Design-Normen für KI-Anwendungen in den Numerical Humanities
84 91
85 6.3 Akteur*innen und ihre Interessen in den Humanities of the Digital analysieren 92
86 6.4 Mehr Barrierefreiheit in den Public 93 4. Value Sensitive Design: Grundlagen und methodisches
87 Humanities schaffen 94 Vorgehen
88 6.5 Menschenrechte und Umweltschutz in allen DH-Spielarten 95
96
97 4.1 Drei Untersuchungsabschnitte von Value Sensitive
98 Design
99
100
101 4.2 Anwendung von Value Sensitive Design am Beispiel ›Room
102 with a view‹
103
104
105 5. Value Sensitive Design in Digital-Humanities-Projekten
106
107
108 5.1 Pre-Existing Bias in den Digitized Humanities
109 abmindern
110
111
112 5.1.1 Digitale Archive postkolonial gestalten
113
114
115 5.1.2 Gender Bias ausgleichen
116
117
118 5.1.3 Barrierefreiheit fördern
119
120
121 5.2 Design-Normen für KI-Anwendungen in den Numerical
122 Humanities
123
124
125 5.3 Akteur*innen und ihre Interessen in den Humanities of
126 the Digital analysieren
127
128
129 5.4 Mehr Barrierefreiheit in den Public Humanities
130 schaffen
131
132
133 5.5 Menschenrechte und Umweltschutz in allen DH-Spielarten
89 fördern 134 fördern
90 7. Zusammenfassung, Limitationen und Ausblick 135
91 Bibliografische Angaben 136
137 6. Zusammenfassung, Limitationen und Ausblick
138
139
140 Bibliographische Angaben
141
142
92 Abbildungsverzeichnis 143 Abbildungsverzeichnis
144
145
146
147
93 148
96 151
97 [1]Eine Gesichtserkennungssoftware, die in polizeilichen Ermittlungen in den USA 152 [1]Eine Gesichtserkennungssoftware, die in
98 zum Einsatz kommt, erzeugt überdurchschnittlich oft falsche Matches, wenn 153 polizeilichen Ermittlungen in den USA zum Einsatz kommt, erzeugt
99 sie Bilder Schwarzer Menschen abgleicht – weil die Software mit Gesichtern 154 überdurchschnittlich oft falsche Matches, wenn sie Bilder Schwarzer Menschen
100 weißer Menschen trainiert wurde. Die Technologie 155 abgleicht – weil die Software mit Gesichtern weißer Menschen trainiert wurde.
101 ruft damit rassistische Diskriminierung hervor.[1] Ein 156 Die Technologie ruft damit rassistische Diskriminierung hervor.[1] Ein
102 selbstlernendes System, das der Konzern Amazon zur 157 selbstlernendes System, das der Konzern Amazon zur Vorauswahl von
103 Vorauswahl von Bewerber*innen einsetzte, diskriminierte auf Basis binärer 158 Bewerber*innen einsetzte, diskriminierte auf Basis binärer
104 Geschlechtszuschreibungen: Die Software bewertete Bewerbungen von Frauen 159 Geschlechtszuschreibungen: Die Software bewertete Bewerbungen von Frauen
105 systematisch schlechter als die von Männern.[2] Stereotype auf Basis von religiöser Zugehörigkeit 160 systematisch schlechter als die von Männern.[2] Stereotype auf Basis von religiöser
106 reproduzierte das Sprachmodell GPT-3, zu dessen 161 Zugehörigkeit reproduzierte das Sprachmodell GPT-3, zu dessen Nutzer*innen
107 Nutzer*innen Microsoft gehört: Das Sprachmodell 162 Microsoft gehört: Das Sprachmodell assoziierte Menschen muslimischen
108 assoziierte Menschen muslimischen Glaubens mit Gewalt.[3] Diese Beispiele zeigen: Technologien können 163 Glaubens mit Gewalt.[3] Diese Beispiele zeigen: Technologien können bestimmte Akteur*innen
109 bestimmte Akteur*innen systematisch benachteiligen. Solche Technologien 164 systematisch benachteiligen. Solche Technologien beschreiben Friedman und Nissenbaum
110 beschreiben Friedman und Nissenbaum als »biased«, da 165 als »biased«, da sie »systematically and unfairly discriminate against
111 sie »systematically and unfairly discriminate against certain individuals 166 certain individuals or groups of individuals in favor of others«.[4] Das Design von Technologien bedarf daher einer informationsethischen
112 or groups of individuals in favor of others«.[4]
113 Das Design von Technologien bedarf daher einer ethischen
114 Untersuchung.[5] 167 Untersuchung.[5]
115 [2]Warum ist das für die Digital Humanities von Bedeutung? Jedes 168 [2]Warum ist das für die Digital Humanities von
116 Digital-Humanities-Projekt hat in irgendeiner Weise mit Technologien zu tun, 169 Bedeutung? Jedes Digital-Humanities-Projekt hat in irgendeiner Weise mit
117 z. B. wenn Akteur*innen digitale Datensätze erstellen, kuratieren und 170 Technologien zu tun, z. B. wenn Akteur*innen digitale Datensätze erstellen,
118 nutzen, Tools und Analyseverfahren entwickeln und anwenden, 171 kuratieren und nutzen, Tools und Analyseverfahren entwickeln und anwenden,
119 Online-Communities und computervermittelte Interaktionen 172 Online-Communities und computervermittelte Interaktionen geisteswissenschaftlich
120 geisteswissenschaftlich untersuchen[6] oder digitale Publikationen und E-Learning-Angebote 173 untersuchen[6]
121 realisieren.[7] Diese Technologien 174 oder digitale Publikationen und E-Learning-Angebote realisieren.[7] Diese Technologien
122 können – wie alle anderen auch – Bias aufweisen. Aktuell finden ethische 175 können – wie alle anderen auch – Bias aufweisen. Aktuell finden ethische Aspekte bei
123 Aspekte bei der Konzeption und Realisierung von 176 der Konzeption und Realisierung von Digital-Humanities-Projekten, -Technologien und
124 Digital-Humanities-Projekten, -Technologien und -Infrastrukturen jedoch 177 -Infrastrukturen jedoch wenig Beachtung.[8] Für die gute wissenschaftliche Praxis, wie sie beispielsweise die DFG
125 wenig Beachtung.[8] Für die gute wissenschaftliche Praxis, wie sie 178 in ihren Leitlinien festschreibt, ist eine ethische Überprüfung von
126 beispielsweise die DFG in ihren Leitlinien festschreibt, ist eine ethische 179 Forschungsvorhaben zugleich unabdingbar.[9]
127 Überprüfung von Forschungsvorhaben zugleich unabdingbar.[9] 180 [3]Dieser Beitrag geht daher der Frage nach, wie
128 [3]Dieser Beitrag geht daher der Frage nach, wie Technologien, die in den 181 Technologien, die in den Digital Humanities entwickelt und genutzt werden,
129 Digital Humanities entwickelt und genutzt werden, ethisch 182 informationsethisch überprüft und wertebasiert gestaltet werden können. Zunächst
130 überprüft und wertebasiert gestaltet werden können. Ziel des Beitrages ist es, 183 wird beschrieben, welche verschiedenen Formen von Bias Technologien aufweisen
131 zu zeigen, wie Digital Humanities-Projekte auf Basis des Value-Sensitive-Design-Ansatzes 184 können. Zudem wird skizziert, welche Technologien in den Digital Humanities eine
185 Rolle spielen. Anschließend wird der Value-Sensitive-Design-Ansatz vorgestellt, mit
186 dem Technologien wertebasiert analysiert und entwickelt werden können. Obwohl der
187 Ansatz in Feldern wie der Informationstechnologie, dem Bauingenieurswesen und der
188 Gesundheitstechnologie bereits etabliert ist, hat die Anwendung von Value Sensitive
189 Design in den Digital Humanities experimentellen Charakter.[10] Daher wird in Kapitel 5
190 anhand konkreter Beispiele vorgestellt, wie Value Sensitive Design in den
191 verschiedenen Teilbereichen der Digital Humanities angewendet werden kann.
132 192
133 aus einer ethischen Perspektive reflektiert und so gestaltet werden können, dass 193 2. Wie kommt der Bias in die
134 sie die Werte aller beteiligten Akteur*innen berücksichtigen. 194 Technologie?
195
196 [4]Nach Friedman und Nissenbaum kann Bias in
197 technischen Systemen auf drei unterschiedliche Weisen entstehen.[11] Sie
198 unterscheiden Pre-Existing Bias,
199 Technical Bias und Emergent Bias. Mit Pre-Existing Bias
200 sind Verzerrungen gemeint, die bereits vor der Entwicklung der Technologie
201 existieren: Die Designer*innen oder Auftraggeber*innen schreiben – bewusst oder
202 unbewusst – bereits existierende persönliche oder gesellschaftliche Vorurteile in
203 das System ein. Ein Beispiel: Die automatische Zugangskontrolle zu den
204 Umkleideräumen eines Fitnessstudios in London ordnete Personen mit einem Doktortitel
205 automatisch als männlich ein und verwehrte ihnen den Zugang zu den Damenumkleiden –
206 weil die Designer*innen des Systems davon ausgegangen waren, dass nur Männer einen
207 Doktortitel haben können.[12] Auch die oben bereits
208 erwähnte Software, die Amazon zur
209 Vorauswahl von Bewerber*innen einsetzte, hat einen Pre-Existing Bias: Da das
210 Unternehmen bislang vor allem Männer eingestellt hatte, ging das selbstlernende
211 System davon aus, dass Frauen weniger geeignet für eine Einstellung bei Amazon
212 seien.[13]
213 [5]Technical Bias entsteht hingegen bei
214 der »resolution of issues in the technical design«,[14]
215 beispielsweise durch Limitationen der Hard- und Software oder wenn Algorithmen
216 bestimmte Akteur*innen bevorzugen und andere benachteiligen. So führt die
217 beschränkte Größe von Bildschirmen beispielsweise dazu, dass die Ergebnisliste von
218 Suchmaschinen in verschiedene ›Seiten‹ aufgeteilt wird, die nur nacheinander auf dem
219 entsprechenden Bildschirm angezeigt werden können. Suchergebnisse, die auf der
220 zweiten Seite angezeigt werden, werden jedoch weniger oft angeklickt. Bevorzugt der
221 Algorithmus der Suchmaschine zusätzlich bestimmte Websites und zeigt diese ganz oben
222 in der Ergebnisliste an, werden diese also deutlich öfter angeklickt – es liegt eine
223 unfaire, systematische Diskriminierung vor. Technical Bias kann aber auch
224 entstehen, wenn »Human Constructs«[15] wie Urteile, Diskurse
225 oder Institutionen formalisiert und quantifiziert werden. Dies passiert
226 beispielsweise in Software, die voraussagt, wie hoch die Wahrscheinlichkeit ist,
227 dass ein*e Straftäter*in wiederholt delinquent wird.[16]
228 [6]Emergent Bias entsteht hingegen erst
229 im Anwendungskontext der Technologie, also wenn Personen die Technologie nutzen.
230 Gründe für Emergent Bias können sein, dass »new knowledge in society«[17] nicht in die Technologie aufgenommen wird oder die Nutzer*innen der
231 Technologie andere Fähigkeiten und Werte haben als die Nutzer*innengruppe, für
232 welche die Technologie ursprünglich designt wurde. Wenn beispielsweise ein
233 Geldautomat, der v. a. schriftbasiert mit Nutzer*innen kommuniziert (z. B. ›Geben
234 Sie unten links Ihre Karte ein‹) in einer Gegend aufgestellt wird, in der viele
235 Analphabet*innen wohnen, entsteht ein Emergent Bias: Die tatsächlichen Nutzer*innen
236 unterscheiden sich in ihren Fähigkeiten von den angenommenen Nutzer*innen der
237 Technologie. Vor allem Benutzeroberflächen weisen oft Emergent Bias auf, da sie mit
238 Blick auf die Fähigkeiten und Gewohnheiten bestimmter Zielgruppen gestaltet werden.
239 Diese können sich jedoch im Lauf der Zeit verändern.[18]
135 240
136 241
137 [4]Zunächst wird beschrieben, welche verschiedenen Formen von Bias Technologien aufweisen 242 3. Technologien in den Digital
138 können. Zudem wird skizziert, welche Technologien in den Digital Humanities 243 Humanities
139 eine Rolle spielen. Da ethische Reflektionen in den Digital Humanities an die Informations-
140 244
141 und Technikethik anknüpfen können, werden daraufhin diese beiden Bereichsethiken kurz 245 [7]Technologien können also auf unterschiedliche
142 umrissen. 246 Weise Bias hervorbringen. Was bedeutet das für die Digital Humanities?
143 Anschließend wird der Value-Sensitive-Design-Ansatz 247 [8]Nach Friedman und Hendry umfassen Technologische Systeme sowohl Werkzeuge und Technologien, als auch Infrastrukturen und Policies. Unter Werkzeugen verstehen sie dabei
144 vorgestellt, mit dem Technologien wertebasiert analysiert und entwickelt 248 »physical artifacts that augment human activity«[19] wie z. B. eine
145 werden können. Obwohl der Ansatz in Feldern wie der Informationstechnologie, 249 Steinaxt oder ein Messer. Wenn darüber hinaus wissenschaftliche Erkenntnisse
146 dem Bauingenieurswesen und der Gesundheitstechnologie bereits etabliert ist, 250 angewandt werden, um praktische Probleme zu lösen (beispielsweise bei Traktoren und
147 hat die Anwendung von Value Sensitive Design in den Digital Humanities 251 Computern), sprechen Friedman und Hendry von Technologien – wobei die
148 experimentellen Charakter.[10] Daher 252 Übergänge zwischen Werkzeugen und Technologien fließend sind. Infrastrukturen
149 wird in 253 beschreiben schließlich alle Einrichtungen und Strukturen, die nötig sind, um ein
150 Kapitel 5 anhand konkreter Beispiele vorgestellt, 254 Vorhaben oder gesellschaftliche Aktivitäten zu realisieren, beispielsweise Straßen
151 wie Value Sensitive Design in den verschiedenen Teilbereichen der Digital 255 und Energieversorgung. Werkzeuge, Technologien und Infrastrukturen stehen dabei in
152 Humanities angewendet werden kann. 256 wechselseitiger Abhängigkeit und ergeben in ihrem Zusammenspiel sog.
153 257 Technologische Systeme. Im Folgenden wird der Begriff Technologien
154 258 als Kurzform für Technologische Systeme genutzt und beschreibt dabei Werkzeuge,
155 2. Wie kommt der Bias in die Technologie? 259 Technologien und Infrastrukturen genauso wie deren Zusammenspiel. Schließlich fassen
156 260 Friedman und Hendry auch Policies, also Regelwerke oder Strategien, unter den
157 [5]Nach Friedman und Nissenbaum kann Bias in technischen Systemen auf drei 261 Technologie-Begriff, da Policies als »some combination of tool and infrastructure«[20] verstanden werden und menschliches Handeln ebenfalls prägen.[21]
158 unterschiedliche Weisen entstehen.[11] Sie unterscheiden Pre-Existing Bias, Technical Bias und Emergent 262 [9]Welche Technologien werden in den DH also
159 Bias. Mit Pre-Existing Bias sind 263 genutzt und angewendet? Eine systematische Orientierung bieten dabei die Spielarten
160 Verzerrungen gemeint, die bereits vor der Entwicklung der Technologie 264 der DH, die Roth und Burghardt unterscheiden: Digitized Humanities, Numerical Humanities, Humanities of the Digital und Public Humanities.[22]
161 existieren: Die Designer*innen oder Auftraggeber*innen schreiben – bewusst 265 [10]Mit dem Begriff Digitized Humanities
162 oder unbewusst – bereits existierende persönliche oder gesellschaftliche 266 beschreibt Roth »the creation, curation, and use of digitized data sets«[23] in
163 Vorurteile in das System ein. Ein Beispiel: Die automatische 267 den Geistes- und Sozialwissenschaften. Akteur*innen in den Digitized Humanities
164 Zugangskontrolle zu den Umkleideräumen eines Fitnessstudios in London 268 »digitize, store, process, gather, connect, manage, make available, mine and
165 ordnete Personen mit einem Doktortitel automatisch als männlich ein und 269 visualize«[24] Texte, Bilder und Multimedia-Artefakte. Dafür entwickeln und nutzen
166 verwehrte ihnen den Zugang zu den Damenumkleiden – weil die Designer*innen 270 sie Software. In dieser Spielart der DH sind also beispielsweise Datenmanagement-
167 des Systems davon ausgegangen waren, dass nur Männer einen Doktortitel haben 271 und Datenspeichersysteme, aber auch Visualisierungs-, Analyse-, Scraping- und
168 können.[12] Auch 272 OCR-Tools sowie Benutzeroberflächen von Bedeutung. Darüber hinaus spielen Digitale
169 die oben bereits erwähnte Software, die Amazon zur 273 Bibliotheken und Archive als Infrastrukturen eine Rolle, genauso wie Policies für
170 Vorauswahl von Bewerber*innen einsetzte, hat einen Pre-Existing Bias: Da das Unternehmen 274 die Erhebung, Kuratierung, Archivierung und Verfügbarmachung von Datensätzen.
171 bislang vor allem Männer 275 [11]In der Kategorie der Numerical
172 eingestellt hatte, ging das selbstlernende System davon aus, dass Frauen 276 Humanities geht es hingegen darum, soziale Prozesse zu formalisieren, indem
173 weniger geeignet für eine Einstellung bei Amazon seien.[13] 277 mathematisch abstrahierte Modelle erstellt werden. Ziel ist dabei, »to capture the
174 [6] 278 possibly general mechanisms at the root of the observed data«.[25] Prozesse
175 Technical Bias entsteht hingegen bei der 279 softwaregestützt zu realisieren, die andernfalls langwierig oder schwierig umsetzbar
176 »resolution of issues in the technical design«[14], beispielsweise durch 280 sind – wie beispielsweise bei OCR oder statistischen Analysen – versteht Roth dabei
177 Limitationen der Hard- und Software oder wenn Algorithmen bestimmte 281 nicht als Numerical Humanities; vielmehr zeichnet sich diese Spielart dadurch aus,
178 Akteur*innen bevorzugen und andere benachteiligen. So führt die beschränkte 282 dass »numerical models of human or social behavior per se«[26] entwickelt werden. Hier
179 Größe von Bildschirmen beispielsweise dazu, dass die Ergebnisliste von 283 kommen vor allem selbstlernende Systeme zum Einsatz, beispielsweise
180 Suchmaschinen in verschiedene ›Seiten‹ aufgeteilt wird, die nur nacheinander 284 Mustererkennungssoftware, die nach Gesetzmäßigkeiten in bestimmten Datensätzen
181 auf dem entsprechenden Bildschirm angezeigt werden können. Suchergebnisse, 285 sucht.
182 die auf der zweiten Seite angezeigt werden, werden jedoch weniger oft 286 [12]Schließlich beschreibt Roth die
183 angeklickt. Bevorzugt der Algorithmus der Suchmaschine zusätzlich bestimmte 287 Humanities of the Digital als weitere Spielart der DH und meint damit die
184 Websites und zeigt diese ganz oben in der Ergebnisliste an, werden diese 288 geisteswissenschaftliche Forschung zu computervermittelter Kommunikation,
185 also deutlich öfter angeklickt – es liegt eine unfaire, systematische 289 Mensch-Maschine-Interaktion und Online-Gemeinschaften. Online-Communities werden als
186 Diskriminierung vor. Technical Bias kann aber auch 290 sozio-technische Systeme verstanden, die sich durch eigene Regeln und Settings
187 entstehen, wenn »Human Constructs«[15] wie Urteile, Diskurse oder 291 auszeichnen und die es zu untersuchen gilt. So gehören neben Studien zur Rolle von
188 Institutionen formalisiert und quantifiziert werden. Dies passiert 292 digitaler Kommunikation im Alltag auch Untersuchungen zu Wikipedia, Blogs, sozialen Netzwerkseiten
189 beispielsweise in Software, die voraussagt, wie hoch die Wahrscheinlichkeit 293 und Gaming-Plattformen zu den Humanities of the Digital.[27] In
190 ist, dass ein*e Straftäter*in wiederholt delinquent wird.[16] 294 dieser Spielart geht es – anders als in den Digitized Humanities und den Numerical
191 [7]
192 Emergent Bias entsteht hingegen erst im
193 Anwendungskontext der Technologie, also wenn Personen die Technologie
194 nutzen. Gründe für Emergent Bias können sein, dass »new knowledge in
195 society«[17] nicht in die Technologie
196 aufgenommen wird oder die Nutzer*innen der Technologie andere Fähigkeiten
197 und Werte haben als die Nutzer*innengruppe, für welche die Technologie
198 ursprünglich designt wurde. Wenn beispielsweise ein Geldautomat, der v. a.
199 schriftbasiert mit Nutzer*innen kommuniziert (z. B. ›Geben Sie unten links
200 Ihre Karte ein‹) in einer Gegend aufgestellt wird, in der viele
201 Analphabet*innen wohnen, entsteht ein Emergent Bias: Die tatsächlichen
202 Nutzer*innen unterscheiden sich in ihren Fähigkeiten von den angenommenen
203 Nutzer*innen der Technologie. Vor allem Benutzeroberflächen weisen oft
204 Emergent Bias auf, da sie mit Blick auf die Fähigkeiten und Gewohnheiten
205 bestimmter Zielgruppen gestaltet werden. Diese können sich jedoch im Lauf
206 der Zeit verändern.[18]
207
208 3. Technologien in den Digital Humanities
209
210 [8]Technologien können also auf unterschiedliche Weise Bias hervorbringen. Was
211 bedeutet das für die Digital Humanities?
212
213 [9]Nach Friedman und Hendry umfassen Technologische Systeme
214 sowohl Werkzeuge und Technologien, als auch Infrastrukturen
215 und Policies. Unter Werkzeugen
216 verstehen sie dabei »physical artifacts that augment human
217 activity«[19] wie z. B. eine Steinaxt oder ein Messer.
218 Wenn darüber hinaus wissenschaftliche Erkenntnisse angewandt werden, um
219 praktische Probleme zu lösen (beispielsweise bei Traktoren und Computern),
220 sprechen Friedman und Hendry von Technologien – wobei
221 die Übergänge zwischen Werkzeugen und Technologien fließend sind. Infrastrukturen
222 beschreiben schließlich alle
223 Einrichtungen und Strukturen, die nötig sind, um ein Vorhaben oder
224 gesellschaftliche Aktivitäten zu realisieren, beispielsweise Straßen und
225 Energieversorgung. Werkzeuge, Technologien und Infrastrukturen stehen dabei
226 in wechselseitiger Abhängigkeit und ergeben in ihrem Zusammenspiel sogenannte Technologische
227 Systeme. Im Folgenden wird der Begriff
228 Technologien als Kurzform für Technologische
229 Systeme genutzt und beschreibt dabei Werkzeuge, Technologien und
230 Infrastrukturen genauso wie deren Zusammenspiel. Schließlich fassen Friedman
231 und Hendry auch Policies, also Regelwerke oder
232 Strategien, unter den Technologie-Begriff, da Policies als »some
233 combination of tool and infrastructure«[20] verstanden werden und menschliches Handeln
234 ebenfalls prägen.[21]
235 [10]Welche Technologien werden in den DH also genutzt und angewendet? Eine
236 systematische Orientierung bieten dabei die Spielarten der DH, die Roth und
237 Burghardt unterscheiden: Digitized Humanities,
238 Numerical Humanities,
239 Humanities of the Digital und Public
240 Humanities.[22]
241 [11]Mit dem Begriff Digitized Humanities beschreibt Roth
242 »the creation, curation, and use of digitized data
243 sets«[23] in den Geistes- und Sozialwissenschaften. Akteur*innen in
244 den Digitized Humanities »digitize, store, process, gather, connect,
245 manage, make available, mine and visualize«[24] Texte, Bilder und Multimedia-Artefakte. Dafür entwickeln
246 und nutzen sie Software. In dieser Spielart der DH sind also beispielsweise
247 Datenmanagement- und Datenspeichersysteme, aber auch Visualisierungs-,
248 Analyse-, Scraping- und Optical Character Recognition (OCR)-Tools sowie Benutzeroberflächen
249 von Bedeutung.
250 Darüber hinaus spielen digitale Bibliotheken und Archive als Infrastrukturen
251 eine Rolle, genauso wie Policies für die Erhebung, Kuratierung, Archivierung
252 und Verfügbarmachung von Datensätzen.
253
254 [12]In der Kategorie der Numerical Humanities geht es
255 hingegen darum, soziale Prozesse zu formalisieren, indem mathematisch
256 abstrahierte Modelle erstellt werden. Ziel ist dabei, »to capture the
257 possibly general mechanisms at the root of the observed
258 data«[25]. Prozesse softwaregestützt zu realisieren, die andernfalls
259 langwierig oder schwierig umsetzbar sind – wie beispielsweise bei OCR oder
260 statistischen Analysen – versteht Roth dabei nicht als Numerical Humanities;
261 vielmehr zeichnet sich diese Spielart dadurch aus, dass »numerical
262 models of human or social behavior per se«[26] entwickelt werden. Hier kommen vor allem selbstlernende
263 Systeme zum Einsatz, beispielsweise Mustererkennungssoftware, die nach
264 Gesetzmäßigkeiten in bestimmten Datensätzen sucht.
265
266 [13]Schließlich beschreibt Roth die Humanities of the Digital als weitere
267 Spielart der DH und meint damit die geisteswissenschaftliche Forschung zu
268 computervermittelter Kommunikation, Mensch-Maschine-Interaktion und
269 Online-Gemeinschaften. Online-Communities werden als sozio-technische
270 Systeme verstanden, die sich durch eigene Regeln und Settings auszeichnen
271 und die es zu untersuchen gilt. So gehören neben Studien zur Rolle von
272 digitaler Kommunikation im Alltag auch Untersuchungen zu Wikipedia, Blogs,
273 Sozialen-Netzwerk-Seiten und Gaming-Plattformen zu den Humanities of the
274 Digital. [27] In dieser
275 Spielart geht es – anders als in den Digitized Humanities und den Numerical
276 Humanities – weniger darum, Technologien anzuwenden und zu entwickeln; 295 Humanities – weniger darum, Technologien anzuwenden und zu entwickeln;
278 Untersuchungsgegenstand. 297 Untersuchungsgegenstand.
279 298 [13]Den drei von Roth beschriebenen
280 [14]Den drei von Roth beschriebenen Teilbereichen der DH fügt Burghardt noch 299 Teilbereichen der DH fügt Burghardt noch einen vierten hinzu, die Public
281 einen vierten hinzu, die Public Humanities. Diese umfassen die Themenfelder 300 Humanities. Diese umfassen die Themenfelder des digitalen Publizierens, der
282 des digitalen Publizierens, der Wissenschaftskommunikation und des 301 Wissenschaftskommunikation und des E-Learning.[28] Hier spielen Infrastrukturen wie
283 E-Learning.[28] Hier spielen 302 Zeitschriften, Portale, Verlage und deren Policies eine Rolle, aber auch Soft- und
284 Infrastrukturen wie Zeitschriften, Portale, Verlage und deren Policies eine 303 Hardware, die für die Rezeption digitaler Publikationen und E-Learning-Ressourcen
285 Rolle, aber auch Soft- und Hardware, die für die Rezeption digitaler 304 benötigt werden, z. B. E-Book-Formate oder User Interfaces.
286 Publikationen und E-Learning-Ressourcen benötigt werden, z. B.
287 E-Book-Formate oder User Interfaces.
288 305
289 306
290 4. Ethik in den DH: Informations- und Technikethik 307 4. Value Sensitive Design: Grundlagen und
308 methodisches Vorgehen
291 309
292 [15]Bisher wurde also deutlich, dass in Digital-Humanities-Projekten 310 [14]Bisher wurde also deutlich, dass in
293 verschiedenste Technologien eine Rolle spielen und dass jede Technologie 311 Digital-Humanities-Projekten verschiedenste Technologien eine Rolle spielen und dass
294 verschiedene Formen von Bias enthalten kann. Damit kann auch jede 312 jede Technologie verschiedene Formen von Bias enthalten kann. Damit kann auch jede
295 Technologie, die in DH-Projekten entwickelt oder angewendet wird, biased sein und bedarf einer ethischen Überprüfung. Wie aber können wir 313 Technologie, die in DH-Projekten entwickelt oder angewendet wird, biased
296 den ethischen Herausforderungen begegnen, die sich aus den verschiedenen 314 sein. Wie aber können wir verhindern, dass Technologien in DH-Projekten Bias
297 Technologien in den Digital Humanities ergeben?[29] 315 beinhalten, hervorrufen oder verstärken?
298 [16]Allgemein versucht Ethik die Frage zu beantworten, »wie menschliches Handeln möglich wird, das als gut, 316 [15]Ein Ansatz dazu ist Value Sensitive Design.
299 richtig und wünschenswert empfunden werden kann«[30]. 317 Er wurde von Batya Friedman bereits in den 1990er-Jahren entwickelt[29] und zeichnet sich –
300 Dabei gibt es Handlungsbereiche, die spezifische 318 im Gegensatz zu anderen Ansätzen wie z. B. ›Social Shaping of Technology‹ – dadurch
301 ethische Probleme hervorbringen, welche nur in ihrem jeweiligen konkreten Kontext 319 aus, dass er Technologien nicht nur analysiert und kritisiert. Vielmehr legt das
302 gelöst werden können. 320 Value Sensitive Design den Fokus darauf, wie Technologien »in moral and ethic
303 Um diese Probleme zu adressieren, haben sich verschiedene Bereichsethiken entwickelt, 321 ways«[30] konzipiert und umgesetzt
304 beispielsweise die 322 werden können. Auf Basis von Value Sensitive Design kann also einerseits
305 Informations-, die Technik-, die Medien- und die Computerethik. Diese Bereichsethiken 323 systematisch analysiert werden, welche Werte in eine bestimmte Technologie
306 sind nicht scharf 324 eingeschrieben sind. Andererseits bietet der Ansatz darüber hinaus aber auch ein
307 voneinander abgrenzbar und haben viele Berührungspunkte.[31] 325 »overarching theoretical and methodological framework«,[31] um Technologien
308 [17]Um ethische Probleme in den Digital Humanities zu diskutieren, kann vor allem an Ansätze 326 wertesensitiv zu entwickeln, also die Werte aller betroffenen Akteur*innen im
309 der Informations- 327 gesamten Design-Prozess zu reflektieren und zu berücksichtigen. Dazu sieht Value
310 und Technikethik angeknüpft werden. Die Informationsethik befasst sich mit ethischen
311 Fragestellungen,
312 die im Zusammenhang mit Informations- und Kommunikationstechnologien[32] und »aus den Anwendungen des Internets,
313 des Informationsmanagements und der Computernutzung insgesamt hervorgehen«[33] – und damit also mit den
314 Technologien, die in den DH genutzt und entwickelt werden (vgl. Kapitel 3). Im Fokus steht dabei, wie
315 sich Informations- und Kommunikationstechnologien auf Umwelt und Gesellschaft auswirken.[34]
316 Als zentrale Grundwerte der Informationsethik identifiziert Rösch Informationsfreiheit,
317 Informationsgerechtigkeit,
318 Privatheit, Geistiges Eigentum, Informationsqualität und Informationsökologie.[35]
319 [18]Darüber hinaus sind in den Digital Humanities auch ethische Aspekte von Bedeutung,
320
321 die im Zusammenhang mit der sozialen Praxis, der Genese und der Einbettung von
322 Technologien entstehen. Diese sind Gegenstand der Technikethik:
323 Deren Aufgabe ist es, ethische Aspekte, die durch technische Innovationen
324 und den »wissenschaftlich-technischen Fortschritt[…]«[36] entstehen, zu
325 reflektieren und Entscheidungen über Technik auf Basis ethischer Argumente
326 zu ermöglichen. Technikethik beschäftigt sich auch mit der »sozialen Praxis
327 der Technik und ihrer Einbettung, der Praxis der Genese technischer Produkte
328 und Technologien«[37]. Anders als bei der Informationsethik gehen die zentralen
329 Werte der Technikethik dabei deutlich über den Bezugsrahmen der Technik selbst
330 hinaus und umfassen neben Effektivität, Effizienz und Sicherheit auch Gesundheit,
331
332 menschliches Wohlbefinden, (ökologische) Nachhaltigkeit, Gerechtigkeit, Demokratie,
333
334 Inklusivität[38] und
335 Geschlechtergerechtigkeit.[39]
336 [19]In der Informations-, der Technik- und der Computerethik haben sich verschiedene Methoden
337 und
338 Frameworks entwickelt, um die ethische Gestaltung von Projekten und Technologien zu
339 unterstützen,
340 beispielsweise Embedded Ethics oder Partizipatives Design.[40] Kern
341 des Embedded-Ethics-Ansatzes ist es, eine oder mehrere Ethiker*innen an allen Entscheidungen
342 im
343 gesamten Verlauf eines Projektes zu beteiligen.[41] Das Konzept des Partizipativen Designs legt hingegen den Fokus darauf, potentielle
344
345 Nutzer*innen in den Design-Prozess einzubinden.[42]
346 [20]Einen Schwerpunkt auf Informations- und Kommunikationstechnologien legt der Ansatz
347
348 des Value Sensitive Design,[43] der von Batya Friedman bereits in den 1990er-Jahren
349 entwickelt wurde[44] und sowohl in der Technik-,
350 als auch in der Informationsethik eine bedeutende Rolle spielt.[45] Friedman et al.
351 kritisierten, dass die Forschung zur ethischen Gestaltung von Technologien bislang
352 lediglich
353 einzelne Werte wie Privatsphäre, Autonomie oder informierte Einwilligung in den
354 Blick genommen hatte.[46] Daher schlagen sie mit Value Sensitive Design ein »overarching
355 theoretical and methodological framework«[47] vor, mit dem einerseits systematisch
356 analysiert werden kann, welche Werte in eine bestimmte Technologie eingeschrieben
357
358 sind. Zugleich ermöglicht das Framework,
359 Technologien wertesensitiv zu entwickeln, indem die Werte aller betroffenen
360 Akteur*innen im gesamten Design-Prozess reflektiert und berücksichtigt werden.[48]
361 [21]Mit Value Sensitive Design können Forscher*innen Technologien und ihre Anwendung also
362
363 nicht nur ethisch reflektieren, sondern auch im Sinne normativer Ethik »verändernd,
364 regulierend«[49]
365 auf die Entwicklung von Technologien und deren Rahmenbedingungen einwirken.
366 Seit seiner Entstehung vor über 30 Jahren wurde der Value-Sensitive-Design-Ansatz
367
368 stetig weiterentwickelt und in unterschiedlichen Bereichen angewendet, u. a. in
369 der Informationstechnologie, der Informatik, der Philosophie, der Gesundheitstechnologie
370
371 und der Pädagogik.[50]
372
373 5. Value Sensitive Design: Grundlagen und methodisches Vorgehen
374
375 [22]Um Technologien wertebasiert zu entwickeln sieht Value
376 Sensitive Design eine integrative und iterative Methodologie mit drei 328 Sensitive Design eine integrative und iterative Methodologie mit drei
377 Untersuchungsabschnitten vor: den konzeptionellen 329 Untersuchungs-Abschnitten vor: den konzeptionellen
378 Überlegungen, den empirischen 330 Überlegungen, den empirischen
381 333
382 5.1 Drei Untersuchungsabschnitte von Value Sensitive Design
383
384 [23]In den konzeptionellen Überlegungen wird herausgearbeitet, um welche
385 zentralen Themen, Technologien und Werte es
386 geht (siehe auch Beispiele in Kapitel 5.2). Im Mittelpunkt
387 stehen dabei die Fragen:
388 334
389 335
390 Welche Technologie wird analysiert oder gestaltet? 336 4.1 Drei Untersuchungsabschnitte von
337 Value Sensitive Design
338
339 [16]In den konzeptionellen
340 Überlegungen wird herausgearbeitet, um welche zentralen Themen,
341 Technologien und Werte es geht. Im Mittelpunkt stehen dabei die Fragen:
342
343 Welch Technologie wird analysiert oder gestaltet?
391 Welche Stakeholder sind direkt oder indirekt von der jeweiligen 344 Welche Stakeholder sind direkt oder indirekt von der jeweiligen
392 Technologie betroffen? 345 Technologie betroffen?
393
394 Welche Werte und Wertkonflikte spielen eine Rolle? 346 Welche Werte und Wertkonflikte spielen eine Rolle?
395 347
396 [24]Zentral ist im Value Sensitive Design dabei der Stakeholder-Begriff: Dieser bezieht – anders als der Begriff 348 [17]Besonders am
397 User – auch diejenigen Akteur*innen mit ein, 349 Value-Sensitive-Design-Ansatz ist dabei der Stakeholder-Begriff: Dieser bezieht – anders als der
398 die zwar nicht direkt mit der Technologie interagieren, auf die sich die 350 Begriff User – auch diejenigen
399 Technologie aber dennoch auswirkt: die sogenannten indirekten 351 Akteur*innen mit ein, die zwar nicht direkt mit der Technologie interagieren,
400 Stakeholder. Akteur*innen, die direkt mit der jeweiligen 352 auf die sich die Technologie aber dennoch auswirkt: die sog. indirekten Stakeholder. Akteur*innen,
401 Technologie interagieren, werden dagegen als direkte 353 die direkt mit der jeweiligen Technologie interagieren, werden dagegen als direkte Stakeholder verstanden.
402 Stakeholder verstanden. Stakeholder können dabei sowohl 354 Stakeholder können dabei sowohl Individuen, Gruppen, Organisationen und
403 Individuen, Gruppen, Organisationen und Gesellschaften als auch 355 Gesellschaften als auch zukünftige Generationen sein. In den konzeptionellen
404 zukünftige Generationen sein. In den konzeptionellen Überlegungen wird 356 Überlegungen wird also analysiert, welche Stakeholder direkt oder indirekt von
405 also analysiert, welche Stakeholder direkt oder indirekt von der 357 der jeweiligen Technologie betroffen sind und auf welche Weise.[32]
406 jeweiligen Technologie betroffen sind und auf welche Weise.[51] 358 [18]Auch die Werte und Wertkonflikte, die
407 [25]Auch die Werte und Wertkonflikte, die im Kontext der Technologie eine 359 im Kontext der Technologie eine Rolle spielen, werden im Rahmen der
408 Rolle spielen, werden im Rahmen der konzeptionellen Untersuchungen 360 konzeptionellen Untersuchungen expliziert und konkret beschrieben. Ein Wert ist
409 expliziert und konkret beschrieben. Ein Wert ist dabei, »what a 361 dabei, »what a person or group of people consider important in life«.[33] Da der Value-Sensitive-Design-Ansatz den Werte-Begriff damit sehr
410 person or group of people consider important in life«[52]. Da der 362 weit fasst, sieht er vor, auf Basis von Literatur und bisheriger Forschung zu
411 Value-Sensitive-Design-Ansatz den Werte-Begriff damit sehr weit fasst, 363 spezifizieren, was genau unter einem bestimmten Wert im jeweiligen Kontext
412 sieht er vor, auf Basis von Literatur und bisheriger Forschung zu 364 verstanden wird.[34] Als Ausgangspunkt
413 spezifizieren, was genau unter einem bestimmten Wert im jeweiligen 365 bieten Friedman und Hendry hierfür eine Liste mit 13 Werten, die beim Design
414 Kontext verstanden wird.[53] Als Ausgangspunkt bieten Friedman 366 technischer Systeme oft eine Rolle spielen und von ethischer Bedeutung sind:
415 und Hendry hierfür eine Liste mit 13 Werten, die beim Design technischer
416 Systeme oft eine Rolle spielen und von ethischer Bedeutung sind.
417 Die Autor*innen weisen aber ausdrücklich darauf hin, dass diese
418 Liste nicht vollständig ist.[54] Die Liste umfasst:
419 367
420 »Human welfare« 368 menschliches Wohlergehen,
421 »Ownership and property« 369 Eigentum und Besitz,
422 »Privacy« 370 Freiheit von Bias,
423 »Freedom from bias« 371 Privatsphäre,
424 »Universal Usability « 372 Vertrauen,
425 »Trust« 373 Autonomie,
426 »Autonomy« 374 Usability,
427 »Informed consent« 375 informierte Einwilligung,
428 »Accountability« 376 Verantwortung,
429 »Courtesy« 377 Identität,
430 »Identity« 378 Verbindlichkeit,
431 »Calmness« 379 Identität,
432 »Environmental sustainability«[55] 380 Gelassenheit,
381 ökologische Nachhaltigkeit.
382
383 [19]Die Autor*innen weisen aber
384 ausdrücklich darauf hin, dass diese Liste nicht vollständig ist.[35]
385 [20]Im Rahmen der empirischen
386 Untersuchungen wird mittels qualitativer und quantitativer Methoden
387 untersucht, wie die betroffenen Akteur*innen die jeweiligen Werte im Kontext der
388 Technologie bewerten und welche Prioritäten sie bei Wertkonflikten setzen.
389 Dieser Teilbereich des Value Sensitive Design sieht darüber hinaus vor, zu einem
390 späteren Zeitpunkt im Design-Prozess empirisch zu prüfen, inwiefern die
391 Technologie die entsprechenden Werte in der Anwendung tatsächlich fördert.
392 [21]Die technischen Investigationen
393 haben ebenfalls zwei Aufgaben: Erstens, zu analysieren, wie sich bestimmte
394 bereits existierende Charakteristika einer Technologie auf verschiedene Werte
395 auswirken. Zweitens wird in den technischen Investigationen überlegt, wie die
396 Technologie so gestaltet werden kann, dass sie die Werte unterstützt, die in den
397 konzeptionellen und empirischen Untersuchungen herausgearbeitet wurden.[36] Friedman und Hendry
398 betonen dabei, dass Technologien eng mit den sozialen Strukturen verknüpft sind,
399 in die sie eingebettet sind. Um bestimmte Werte zu fördern, muss daher nicht in
400 jedem Fall das technische Design angepasst werden. Eine Lösung kann auch darin
401 bestehen, Policies oder soziale Strukturen zu verändern.[37]
402 [22]Die drei Untersuchungs-Abschnitte sind
403 nicht voneinander unabhängig, sondern beeinflussen sich wechselseitig. Die
404 Reihenfolge der Untersuchungsabschnitte ist daher nicht vorab festgelegt;
405 vielmehr ist eine iterative Wiederholung der Investigationen vorgesehen (vgl. Abbildung
406 1).[38]
433 407
434 408
435 [26]Human welfare meint beispielsweise körperliches und psychisches Wohlbefinden.
436 Der Wert Courtesy bezieht sich darauf, Akteur*innen mit Höflichkeit
437 und Rücksichtnahme zu begegnen. Identity beschreiben Friedman und
438 Hendry als »people’s understanding of who they are over time, embracing
439 both continuity and discontinuity«[56]. Leider kann an dieser Stelle keine
440 ausführliche Diskussion der Werte erfolgen, die Friedman und Hendry aufzählen.
441 Eine Kurzdefinition und ausführliche Literaturhinweise finden sich aber zu jedem
442 der Werte bei Friedman et al.[57]
443 [27]Wie oben erwähnt ist bei Value Sensitive Design jedoch entscheidend,
444 dass auf Basis von Literatur herausgearbeitet wird, was unter einem
445 bestimmten Wert im Kontext einer konkreten Technologie verstanden wird.[58]
446 Eine umfängliche Konzeptualisierung der Werte, die in den Digital Humanities
447 eine Rolle spielen, kann also nicht unabhängig vom konkreten Kontext der
448 jeweiligen Technologie geleistet werden. In Kapitel 5 wird gezeigt, dass
449 in den Digital Humanities über die hier genannten Werte hinaus beispielsweise
450 auch Geschlechtergerechtigkeit, Barrierefreiheit, globale Gerechtigkeit im Sinne
451 von Teilhabe und Freiheit von Diskriminierung[59], aber auch die in der
452 Informationsethik zentralen Werte Informationsfreiheit und -gerechtigkeit
453 eine Rolle spielen.
454 409
455 [28]Im zweiten Untersuchungsabschnitt, den empirischen Untersuchungen, wird
456 mittels qualitativer und quantitativer Methoden analysiert, wie die
457 betroffenen Akteur*innen die jeweiligen Werte im Kontext der Technologie
458 bewerten und welche Prioritäten sie bei Wertkonflikten setzen (siehe
459 auch Beispiele in Kapitel 5.2). Dieser Teilbereich des Value
460 Sensitive Design sieht darüber hinaus vor, zu einem späteren Zeitpunkt
461 im Design-Prozess empirisch zu prüfen, inwiefern die Technologie die
462 entsprechenden Werte in der Anwendung tatsächlich fördert.
463 410
464 [29]Die technischen Investigationen haben ebenfalls zwei Aufgaben: Erstens,
465 zu analysieren, wie sich bestimmte bereits existierende Charakteristika
466 einer Technologie auf verschiedene Werte auswirken. Zweitens wird in den
467 technischen Investigationen überlegt, wie die Technologie so gestaltet
468 werden kann, dass sie die Werte unterstützt, die in den konzeptionellen
469 und empirischen Untersuchungen herausgearbeitet wurden (siehe auch
470 Beispiele in Kapitel 5.2).[60] Friedman und Hendry betonen dabei,
471 dass Technologien eng mit den sozialen Strukturen verknüpft sind, in die
472 sie eingebettet sind. Um bestimmte Werte zu fördern, muss daher nicht in
473 jedem Fall das technische Design angepasst werden. Eine Lösung kann auch
474 darin bestehen, Policies oder soziale Strukturen zu verändern.[61]
475 [30]Die drei Untersuchungsabschnitte sind nicht voneinander unabhängig,
476 sondern beeinflussen sich wechselseitig. Die Reihenfolge der
477 Untersuchungsabschnitte ist daher nicht vorab festgelegt; vielmehr ist
478 eine iterative Wiederholung der Investigationen vorgesehen (vgl. Abbildung 1).[62]
479 411
484 416
485 5.2 Anwendung von Value Sensitive Design: Zwei Beispiele
486 417
487 [31]So weit, so theoretisch: Wie aber sieht es mit
488 Value-Sensitive-Design-Analyse in der Praxis aus?
489 Im Folgenden werden zwei Projekte vorgestellt, die eine Technologie auf Basis von
490 Value Sensitive Design entwickelt haben.
491 418
492 5.2.1 ›Room with a view‹: Virtuelle Fenster in Büroräumen
493 419
494 [32]In dem Projekt ›Room with a view‹ ging es darum, in fensterlosen Büroräumen Bildschirme 420 4.2 Anwendung von Value Sensitive
495 aufzustellen, auf denen 421 Design am Beispiel ›Room with a view‹
496 eine Live-Übertragung des Platzes vor dem Bürogebäude zu sehen war. Friedman et al. 422
497 begleiteten das 423 [23]So weit, so theoretisch: Wie aber sieht
498 Projekt mit Value Sensitive Design.[63] 424 eine Value-Sensitive-Design-Analyse in der Praxis aus? Um dies zu zeigen, wird
499 [33]In den konzeptionellen Überlegungen stellten Friedman et al. die These 425 im Folgenden vorgestellt, wie Friedman et al. das Projekt ›Room with a view‹ mit
500 auf, dass der Blick auf ein ›virtuelles Fenster‹ – also die 426 Value Sensitive Design begleiteten. In dem Projekt ging es darum, in
501 Live-Übertragung einer Straßenszene auf Plasma-Bildschirme – die 427 fensterlosen Büroräumen Bildschirme aufzustellen, auf denen eine
502 Gesundheit, das Wohlbefinden und die Kreativität der Beschäftigten 428 Live-Übertragung des Platzes vor dem Bürogebäude zu sehen war.[39]
503 steigert. Basis dafür waren verschiedene psychologische Studien, die 429 [24]In den konzeptionellen Überlegungen
504 zeigen, dass der Blick auf Natur-Szenen positive physiologische und 430 stellten Friedman et al. die These auf, dass der Blick auf ein ›virtuelles
505 psychologische Auswirkungen hat und beispielsweise Stress und 431 Fenster‹ – also die Live-Übertragung einer Straßenszene auf Plasma-Bildschirme –
506 Krankheiten reduziert.[64] Direkte Stakeholder 432 die Gesundheit, das Wohlbefinden und die Kreativität der Beschäftigten steigert.
507 der Technologie sind also die Beschäftigten in den fensterlosen 433 Basis dafür waren verschiedene psychologische Studien, die zeigen, dass der
508 Büroräumen, deren Werte Gesundheit und Kreativität gefördert werden 434 Blick auf Natur-Szenen positive physiologische und psychologische Auswirkungen
509 sollen. Die ›virtuellen‹ Fenster haben aber auch Auswirkungen auf 435 hat und beispielsweise Stress und Krankheiten reduziert.[40] Direkte Stakeholder der Technologie sind also die Beschäftigten in
510 Personen, die sich auf dem Platz vor dem Bürogebäude aufhalten: Sie 436 den fensterlosen Büroräumen, deren Werte Gesundheit und Kreativität gefördert
511 werden gefilmt und auf den Bildschirmen in den Büros abgebildet. Sie 437 werden sollen. Die ›virtuellen‹ Fenster haben aber auch Auswirkungen auf
512 sind damit indirekte Stakeholder der Technologie. Die Live-Übertragung 438 Personen, die sich auf dem Platz vor dem Bürogebäude aufhalten: Sie werden
513 des Platzes auf Bildschirme in den Bürogebäuden könnte damit die 439 gefilmt und auf den Bildschirmen in den Büros abgebildet. Sie sind damit
514 Gefährdung der Privatsphäre der indirekten Stakeholder mit sich 440 indirekte Stakeholder der Technologie. Die Live-Übertragung des Platzes auf
515 bringen.[65] 441 Bildschirme in den Bürogebäuden könnte damit die Gefährdung der Privatsphäre der
516 [34]Ausgehend von diesen konzeptionellen Überlegungen führten Friedman et al. 442 indirekten Stakeholder mit sich bringen.[41]
517 verschiedene empirische Untersuchungen durch, um zu prüfen, inwiefern 443 [25]Ausgehend von diesen konzeptionellen
518 die Technologie der ›virtuellen Fenster‹ die unterschiedlichen Werte der 444 Überlegungen führten Friedman et al. verschiedene empirische Untersuchungen
519 direkten und indirekten Stakeholder tatsächlich fördert oder behindert. 445 durch, um zu prüfen, inwiefern die Technologie der ›virtuellen Fenster‹ die
520 So untersuchten sie zunächst in einem experimentellen Setting, welche 446 unterschiedlichen Werte der direkten und indirekten Stakeholder tatsächlich
521 Effekte ein Bildschirm, auf dem eine Straßenszene vor dem Bürogebäude 447 fördert oder behindert. So untersuchten sie zunächst in einem experimentellen
522 live übertragen wird, auf die Büroangestellten hat. Hierzu erhoben die 448 Setting, welche Effekte ein Bildschirm, auf dem eine Straßenszene vor dem
523 Forscher*innen verschiedene Parameter wie die Blickrichtung, den Puls 449 Bürogebäude live übertragen wird, auf die Büroangestellten hat. Hierzu erhoben
524 und verschiedene Leistungsdaten der Büroangestellten und führten 450 die Forscher*innen verschiedene Parameter wie die Blickrichtung, den Puls und
525 anschließend qualitative Interviews. Dabei kamen sie zu dem Ergebnis, 451 verschiedene Leistungsdaten der Büroangestellten und führten anschließend
526 dass die Live-Übertragung auf dem Bildschirm eine ähnlich erholsame 452 qualitative Interviews. Dabei kamen sie zu dem Ergebnis, dass die
527 Wirkung hat wie ein echtes Fenster. Einen größeren physiologischen 453 Live-Übertragung auf dem Bildschirm eine ähnlich erholsame Wirkung hat wie ein
528 Erholungseffekt wiesen echte Fenster im Vergleich zu ›virtuellen 454 echtes Fenster. Einen größeren physiologischen Erholungseffekt wiesen echte
529 Fenstern‹ nur dann auf, wenn die Teilnehmenden länger als 30 Sekunden 455 Fenster im Vergleich zu ›virtuellen Fenstern‹ nur dann auf, wenn die
530 auf das jeweilige ›Fenster‹ blickten.[66] 456 Teilnehmenden länger als 30 Sekunden auf das jeweilige ›Fenster‹ blickten.[42]
531 [35]Zusätzlich untersuchten Friedman et al. die Interessen der indirekten 457 [26]Zusätzlich untersuchten Friedman et al.
532 Stakeholder – also der Passant*innen auf dem Platz vor dem Bürogebäude 458 die Interessen der indirekten Stakeholder – also der Passant*innen auf dem Platz
533 –, indem sie diese zu ihrer Einstellung zu Privatsphäre im öffentlichen 459 vor dem Bürogebäude –, indem sie diese zu ihrer Einstellung zu Privatsphäre im
534 Raum allgemein und zur Live-Übertragung ihres Bildes auf die 460 öffentlichen Raum allgemein und zur Live-Übertragung ihres Bildes auf die
535 Büro-Bildschirme befragten. Dabei wurde deutlich, dass die Passant*innen 461 Büro-Bildschirme befragten. Dabei wurde deutlich, dass die Passant*innen die
536 die Werte Privatsphäre, informierte Einwilligung und Sicherheit sehr 462 Werte Privatsphäre, informierte Einwilligung und Sicherheit sehr hoch
537 hoch bewerteten. Mit dieser Vielfalt empirischer Methoden untersuchten 463 bewerteten. Mit dieser Vielfalt empirischer Methoden untersuchten die
538 die Forscher*innen also, welche Werte für die verschiedenen betroffenen 464 Forscher*innen also, welche Werte für die verschiedenen betroffenen Akteur*innen
539 Akteur*innen im Kontext der ›Virtuelles Fenster‹-Technologie wichtig 465 im Kontext der ›Virtuelles Fenster‹-Technologie wichtig sind. Dabei wurde
540 sind. Dabei wurde deutlich, dass ein Wertkonflikt vorliegt: Während die 466 deutlich, dass ein Wertkonflikt vorliegt: Während die Technologie die Werte der
541 Technologie die Werte der direkten Stakeholder steigert – also 467 direkten Stakeholder steigert – also Gesundheit, Wohlbefinden und Kreativität –,
542 Gesundheit, Wohlbefinden und Kreativität –, gefährdet sie die Werte der 468 gefährdet sie die Werte der indirekten Stakeholder – Privatsphäre, Sicherheit
543 indirekten Stakeholder – Privatsphäre, Sicherheit und informierte 469 und informierte Einwilligung.[43]
544 Einwilligung.[67] 470 [27]Wie kann mit einem solchen
545 [36]Wie kann mit einem solchen Wertekonflikt umgegangen werden? In den 471 Wertekonflikt umgegangen werden? In den technischen Investigationen empfehlen
546 technischen Investigationen empfehlen die Forscher*innen, Gebäude 472 die Forscher*innen, Gebäude grundsätzlich mit Fenstern zu bauen, da der Blick
547 grundsätzlich mit Fenstern zu bauen, da der Blick auf eine Natur-Szene 473 auf eine Natur-Szene die Werte der Büroangestellten fördert und durch ›virtuelle
548 die Werte der Büroangestellten fördert und durch ›virtuelle Fenster‹ nur 474 Fenster‹ nur teilweise ersetzt werden kann.[44] Um im Falle von
549 teilweise ersetzt werden kann.[68] Um im Falle von Gebäuden, die 475 Gebäuden, die nun mal bereits ohne Fenster gebaut wurden, dennoch einen
550 nun mal bereits ohne Fenster gebaut wurden, dennoch einen positiven 476 positiven Effekt für Büroangestellte durch ›virtuelle Fenster‹ zu erzielen, ohne
551 Effekt für Büroangestellte durch ›virtuelle Fenster‹ zu erzielen, ohne 477 die Werte von Passant*innen auf dem Platz vor dem Bürogebäude als indirekte
552 die Werte von Passant*innen auf dem Platz vor dem Bürogebäude als 478 Stakeholder zu gefährden, könnte darüber hinaus eine Natur-Szene auf den
553 indirekte Stakeholder zu gefährden, könnte darüber hinaus eine 479 Bildschirm übertragen werden, in der keine Menschen zu sehen sind.
554 Natur-Szene auf den Bildschirm übertragen werden, in der keine Menschen 480
555 zu sehen sind. 481
482
556 483
559 Abb. 2: Beispiel für eine Natur-Szene, 486 Abb. 2: Beispiel für eine Natur-Szene,
560 auf der keine Menschen abgebildet werden. Eignet sich auch für 487 auf der keine Menschen abgebildet werden. Eignet sich auch für ein kurzes
561 ein kurzes Experiment: Entspannt Sie der Anblick dieser 488 Experiment: Entspannt Sie der Anblick dieser Natur-Szene? [Free Fotos
562 Natur-Szene? [Free Fotos 2016] 489 2016]
563 490
564 [37]Das Beispiel macht deutlich, wie die drei Untersuchungsabschnitte des 491 [28]Das Beispiel zeigt, wie die drei
565 Value-Sensitive-Design-Ansatzes angewendet werden können und, dass das 492 Untersuchungs-Abschnitte des Value-Sensitive-Design-Ansatzes angewendet werden
566 Einbeziehen der indirekten Stakeholder und deren Interessen bedeutsame 493 können und, dass das Einbeziehen der indirekten Stakeholder und deren Interessen
567 Implikationen für das Design einer Technologie haben kann. 494 bedeutsame Implikationen für das Design einer Technologie haben kann.
568 Um noch stärker zu verdeutlichen, wie auf Basis von Value Sensitive
569 Design konkrete Design-Anforderungen für die Gestaltung einer
570 Technologie formuliert werden können, wird im Folgenden ein zweites
571 Beispiel skizziert.
572
573
574 5.2.2 Die Groupware CodeCOOP für den Wissensaustausch in Unternehmen
575
576
577 [38]Die Entwicklung und Umsetzung des Groupware-Systems CodeCOOP begleiteten Miller
578 et al. aus einer Value-Sensitive-Design-Perspektive. Das Groupware-System
579 wurde mit dem Ziel entwickelt, den Austausch von Wissen unter den Mitarbeiter*innen
580
581 des Software-Unternehmens LEO-R zu fördern. Mitarbeiter*innen sollten Informationen
582 und Code einfach und effizient über die Groupware miteinander teilen können.
583 Zu den Features des Groupware-Systems gehören u. a. Diskussionsforen, eine
584 Volltext-Suche und ein »code repository«[69]. Um zu gewährleisten, dass
585 Mitarbeiter*innen das System nach seiner Einführung tatsächlich nutzen, sollten
586 Wertkonflikte dabei von Anfang an erkannt und gelöst werden.[70]
587 [39]In einem ersten Schritt untersuchten Miller et al. im Rahmen der konzeptionellen
588 Investigationen, welche Stakeholder von dem Groupware-System betroffen sind.
589 Direkte Stakeholder sind die Mitarbeiter*innen des Software-Unternehmens LEO-R,
590 die direkt mit dem System interagieren.[71] Als indirekte Stakeholder identifizierten
591 Miller et al. Manager*innen und Führungskräfte des Unternehmens. Anschließend
592 untersuchten die Autor*innen der Studie, welche potentiellen Vorteile und Gefahren
593
594 das Groupware-System für jede Stakeholder-Gruppe mit sich bringt und welche Werte
595
596 dies betrifft. Auf Basis von Forschungsliteratur zu vergleichbaren Groupware-Systemen
597
598 und in Zusammenarbeit mit einer Expert*innen-Gruppe aus Unternehmens-Mitarbeiter*innen
599
600 stellten Miller et al. fest, dass vor allem Reputation, Zusammenarbeit, Privatsphäre,
601
602 Anonymität, Vertrauen, und »awareness«[72] im Kontext des Systems eine Rolle spielen.[73]
603 [40]Im zweiten Abschnitt, den empirischen Investigationen, führten Miller et al.
604 eine anonyme Online-Befragung mit den Mitarbeiter*innen des Software-Unternehmens
605
606 durch. Dabei wurden die Mitarbeiter*innen gefragt, wie sie die Vor- und Nachteile
607
608 der Groupware und die damit verbundenen Werte einschätzen und gewichten. Darüber
609 hinaus planten Miller et al., Manager*innen und Führungskräfte des Software-Unternehmens
610
611 zu ihren Interessen und Werten zu befragen; diese sagten ihre Teilnahme an
612 Interviews jedoch aus Zeitgründen ab.[74] Die Autor*innen der Studie bemängeln
613 daher das unzureichende Einbeziehen der indirekten Stakeholder in ihrer
614 Value-Sensitive-Design-Analyse.[75]
615 [41]In den technischen Investigationen, dem dritten Abschnitt der
616 Value-Sensitive-Design-Analyse, übersetzten Miller et al. die
617 Werte und Interessen der Stakeholder in Design-Anforderungen für
618 die Groupware. Dazu nutzten sie die Methode der Value Dams and
619 Flows. Die Methode sieht vor, technische Funktionen und Policies zu
620 vermeiden, wenn sie von einem Teil der Stakeholder als sehr
621 problematisch bewertet werden. Solche Funktionen und Policies
622 werden als Value Dams bezeichnet. Value Dams werden bereits dann
623 ausgesprochen, wenn ein geringer Anteil der Stakeholder eine bestimmte
624 Funktion oder Policy stark ablehnt. Als Value Flows werden hingegen
625 technische Funktionen und Policies bezeichnet, die ein großer Teil der
626 Stakeholder als wünschenswert beurteilt. Sie werden in die Gestaltung
627 des Systems aufgenommen. Zwischen den Value Dams und Flows können
628 Konflikte entstehen, die systematisch adressiert und gelöst werden müssen.[76]
629 [42]Für das Groupware-System CodeCOOP legten Miller et al. fest, dass Features,
630 die mehr als die Hälfte der Umfrage-Teilnehmer*innen als deutlichen Vorteil
631 bewerteten, als Value Flows eingeordnet werden. So war mehr als 50% der
632 System-Nutzer*innen wichtig, zu sehen, mit welcher Häufigkeit eigene
633 Inhalte von anderen Mitarbeiter*innen genutzt werden. Ähnlich wichtig
634 war den Nutzer*innen, dass angezeigt wird, wie andere Nutzer*innen einzelne
635 Posts bewerten bzw. ranken. Diese Features definierten Miller et al.
636 daher als Value Flows, die im Design der Groupware umgesetzt werden
637 sollen, um die »awareness«[77] der System-Nutzer*innen zu unterstützen.[78]
638 [43]Zugleich sahen mehr als 11% der Teilnehmer*innen der Online-Befragung
639 einen deutlichen Eingriff in ihre Privatsphäre, wenn geloggt wird,
640 welche Fragen sie in den Diskussionforen posten und welche Suchanfragen
641 sie stellen. Um die Privatsphäre der System-Nutzer*innen zu schützen,
642 legten Miller et al. das Loggen von Fragen und Suchanfragen als Value
643 Dams fest. Damit entsteht ein Konflikt zwischen der Förderung der
644 »awareness« der Mitarbeiter*innen und dem Schutz ihrer Privatsphäre.
645 Miller et al. formulierten daher die Designanforderung, dass zwar
646 angezeigt wird, wie oft einzelne Inhalte genutzt und wie sie gerankt
647 wurden; dass dabei aber nicht sichtbar ist, wer den Inhalt gesucht,
648 genutzt oder gerankt hat.[79]
649 [44]Schließlich formulierten Miller et al. auch für die Unternehmens-Policies
650 in Bezug auf das Groupware-System Value Dams und Flows, denn
651 »groupware systems do not exist independent of complex social systems«[80].
652 So gaben über 70% der Teilnehmer*innen der Online-Befragung an,
653 dass sie es als deutlichen Vorteil ansehen, wenn das Beantworten
654 von Fragen und Beitragen von Code ihre Reputation im Unternehmen
655 stärkt. Zugleich nahmen 13% der Befragten als Gefahr war, dass
656 sich ihre Reputation verschlechtern könnte, wenn sie inkorrekte
657 Antworten oder fehlerhaften Code in der Groupware posten. Diesen
658 Wertkonflikt lösten Miller et al., indem sie empfahlen, dass der
659 Beitrag zum Groupware-System ausschließlich dann in die jährliche
660 Evaluation der Mitarbeiter*innen einfließt, wenn die Bewertung
661 positiv ausfällt.[81]
662 [45]Das hier vorgestellte Groupware-System wurde zwar im Kontext
663 eines Unternehmens entwickelt; zugleich können Informationssysteme,
664 die den Austausch von Wissen, die Dokumentation von Code und die
665 Zusammenarbeit verschiedener Akteur*innen fördern, auch im Kontext
666 der Digital Humanities eine zentrale Rolle spielen.
667 495
670 498
671 6. Value Sensitive Design in Digital-Humanities-Projekten 499 5. Value Sensitive Design in
500 Digital-Humanities-Projekten
672 501
673 [46]In den Digital Humanities 502 [29]Der Value-Sensitive-Design-Ansatz wurde
674 ist der Ansatz aber bisher nach Kenntnis der Autorin nicht rezipiert worden. Im Folgenden 503 seit seiner Entstehung vor über 30 Jahrenstetig weiterentwickelt und in
675 soll daher 504 unterschiedlichen Bereichen angewendet, u. a. in der Informationstechnologie,
676 vorgestellt werden, wie Value Sensitive Design in unterschiedlichen 505 der Informatik, der Philosophie, der Gesundheitstechnologie und der Pädagogik.[45] In den Digital Humanities ist der Ansatz aber bisher wenig
677 DH-Projekten angewendet werden kann. Für jede Spielart der DH nach Roth und 506 rezipiert worden. Im Folgenden soll daher vorgestellt werden, wie Value
678 Burghardt werden dazu Anknüpfungspunkte für Value Sensitive Design 507 Sensitive Design in unterschiedlichen DH-Projekten angewendet werden kann. Für
679 aufgezeigt. 508 jede Spielart der DH nach Roth und Burghardt werden dazu Anknüpfungspunkte für
509 Value Sensitive Design aufgezeigt.
680 510
681 6.1 Pre-Existing Bias in den Digitized Humanities abmindern
682 511
683 [47]Wie oben bereits ausgeführt, fasst Roth unter Digitized Humanities die 512
684 Aktivitäten, die digitale Datensätze in den Geistes- und 513
685 Sozialwissenschaften erstellen, kuratieren und nutzen, indem Texte, 514 5.1 Pre-Existing Bias in den
686 Bilder und Multimedia-Artefakte digitalisiert, verarbeitet, verknüpft, 515 Digitized Humanities abmindern
687 verfügbar gemacht und visualisiert werden, beispielsweise in digitalen 516
688 Archiven.[82] Diese Aktivitäten haben direkte und 517 [30]Wie oben bereits ausgeführt, fasst
689 indirekte Auswirkungen auf verschiedene Interessensgruppen und deren 518 Roth unter Digitized Humanities die Aktivitäten, die digitale
690 Werte: So zeigen ethische und wissenschaftstheoretische Untersuchungen, 519 Datensätze in den Geistes- und Sozialwissenschaften erstellen, kuratieren
691 »dass bereits im Prozess der Datenformatierung als auch der 520 und nutzen, indem Texte, Bilder und Multimedia-Artefakte digitalisiert,
521 verarbeitet, verknüpft, verfügbar gemacht und visualisiert werden,
522 beispielsweise in Digitalen Archiven.[46] Diese Aktivitäten haben
523 direkte und indirekte Auswirkungen auf verschiedene Interessensgruppen und
524 deren Werte: So zeigen ethische und wissenschaftstheoretische
525 Untersuchungen, »dass bereits im Prozess der Datenformatierung als auch der
692 weiteren Verarbeitung von Daten und der aus ihnen gezogenen 526 weiteren Verarbeitung von Daten und der aus ihnen gezogenen
693 Schlussfolgerungen mannigfaltige Wertentscheidungen getroffen 527 Schlussfolgerungen mannigfaltige Wertentscheidungen getroffen werden«.[47] Der Value-Sensitive-Design-Ansatz kann in den Digitized
694 werden«.[83] 528 Humanities also genutzt werden, um bei der Zusammenstellung digitaler
695 [48]Direkte Stakeholder von Technologien, die in den Digitized Humanities 529 Datensätze und beim Aufbau Digitaler Archive und Infrastrukturen die
696 erstellt und genutzt werden, sind einerseits diejenigen, die an 530 Interessen aller betroffenen Stakeholder zu beachten.[48] Dadurch kann verhindert werden, dass Pre-Existing Bias
697 DH-Projekten und -Infrastrukturen mitwirken und diese gestalten, 531 reproduziert wird – oder sogar dazu beigetragen werden, diesen abzumindern.
698 beispielsweise DH-Forscher*innen, Bibliotheksmitarbeiter*innen und 532 Zur Verdeutlichung folgen einige Beispiele, wie Value Sensitive Design in
699 IT-Dienstleister*innen. Aber auch die Nutzer*innen von DH-Infrastrukturen 533 Digitized Humanities-Projekten dazu beitragen kann, Diskriminierung auf
700 sind direkte Stakeholder der Technologien in den Digitized Humanities, 534 Basis von kolonialen Machtstrukturen, binären Geschlechtszuschreibungen und
701 indem sie beispielsweise aus wissenschaftlichem oder privaten 535 körperlichen Fähigkeiten zu lindern.
702 Interesse die Inhalte nutzen, die digitale Archive und Bibliotheken
703 bereitstellen. Als indirekte Stakeholder der Technologien in den
704 Digitized Humanities können darüber hinaus all jene verstanden
705 werden, die in den Texten, Bildern und Multimedia-Artefakten der
706 DH-Projekte und -Infrastrukturen abgebildet werden – genauso
707 wie jene Gruppen, die in diesen Projekten und Infrastrukturen
708 eben nicht repräsentiert werden. Im Folgenden wird gezeigt,
709 dass die Werte, die in den Digitized Humanities eine Rolle
710 spielen, unter anderem Geschlechtergerechtigkeit, Barrierefreiheit,
711 globale Gerechtigkeit im Sinne von Teilhabe und Freiheit von
712 Diskriminierung[84] umfassen.
713 536
714 [49]Der Value-Sensitive-Design-Ansatz
715 kann in den Digitized Humanities also genutzt werden, um bei der
716 Zusammenstellung digitaler Datensätze und beim Aufbau digitaler Archive
717 und Infrastrukturen die Interessen aller betroffenen Stakeholder zu
718 beachten.[85] Dadurch kann verhindert
719 werden, dass Pre-Existing Bias reproduziert wird – oder sogar dazu
720 beigetragen werden, diesen abzumindern. Zur Verdeutlichung folgen einige
721 Beispiele, wie Value Sensitive Design in Digitized Humanities-Projekten
722 dazu beitragen kann, Diskriminierung auf Basis von kolonialen
723 Machtstrukturen, binären Geschlechtszuschreibungen und körperlichen
724 Fähigkeiten zu lindern.
725 537
726 6.1.1 Gender Bias ausgleichen
727 538
728 [50]Digitale Datensätze, die in den DH erstellt, kuratiert und genutzt werden, 539 5.1.1 Digitale Archive
729 entstehen meist auf Basis bereits vorhandener Sammlungen, beispielsweise 540 postkolonial gestalten
730 von Bibliotheken und Archiven. Zentral ist daher für die ethische
731 Gestaltung von Projekten in den Digitized Humanities, zu Beginn zu
732 analysieren, inwiefern die Datenbasis des jeweiligen Projekts einen
733 Bias aufweist.[86] So weisen beispielsweise die Bestände von Archiven
734 meist einen Gender Bias auf. So konstatiert
735 Buettner für die Monacensia im Hildebrandhaus,
736 dem Literaturarchiv der Stadtbibliothek München:
737 541
738 [51]»Mit einem Blick auf die Archivbestände der 542 [31]Digitale Archive können koloniale
543 Machtstrukturen reproduzieren. Das macht Risam am Beispiel der Networked Infrastructure for
544 Nineteenth-Century Electronic Scholarship (NINES) deutlich: Das
545 Projekt dient der Vernetzung von DH-Projekten zum 19. Jahrhundert in den USA
546 und Großbritannien, indem es über 900.000 [49] Projekte,
547 Publikationen und digitale Sammlungen zusammenstellt, zentral durchsuchbar
548 macht und Qualitätssicherung durch Peer Review anbietet. NINES ist damit
549 eine bedeutende Infrastruktur in den Digital Humanities. Die Autor*innen,
550 die in NINES zu finden sind, sind allerdings eine »narrowly prescribed group
551 of primarily white writers«.[50] Texte Schwarzer und indigener
552 Autor*innen sind hingegen stark unterrepräsentiert. Zudem sind
553 englischsprachige Texte, die im 19. Jahrhundert in den von Großbritannien
554 kolonialisierten Gebieten entstanden sind, nicht zu finden. Thematisiert
555 wird dieser Mangel auf der Projektseite nicht. [51] NINES schreibt damit
556 »colonial dynamics of knowledge production«[52] fort, durch die
557 »colonial violence«[53] in der
558 Digital-Humanities-Forschung reproduziert wird.
559 [32]Risam fordert daher, Digitale
560 Archive postkolonial zu gestalten und koloniale Formen der Wissensproduktion
561 zu überwinden. Dafür kann Value Sensitive Design als Ausgangspunkt dienen:
562 So sieht der Ansatz vor, bei der Identifikation der Stakeholder – also
563 derjenigen, die direkt oder indirekt von einer Technologie betroffen sind –
564 besonders Individuen und Gruppen zu berücksichtigen, die von Diskriminierung
565 betroffen sind.[54] Damit können
566 die Interessen und Werte von Personen, die von rassistischer oder
567 (neo-)kolonialer Diskriminierung betroffen sind, im Rahmen von empirischen
568 Untersuchungen erhoben und aktiv in das Design von Digitalen Archiven und
569 Infrastrukturen einbezogen werden.
570
571
572
573 5.1.2 Gender Bias ausgleichen
574
575
576 [33]Darüber hinaus weisen die Bestände
577 von Archiven – und damit die Basis für digitale Datensätze – meist einen
578 Gender Bias auf. So konstatiert Buettner für die Monacensia im Hildebrandhaus, dem
579 Literaturarchiv der Stadtbibliothek München:
580
581 »Mit einem Blick auf die Archivbestände der
739 Monacensia stellen wir fest, dass sich das literarische Gedächtnis 582 Monacensia stellen wir fest, dass sich das literarische Gedächtnis
740 bislang einseitig aus Erinnerungen von Männern 583 bislang einseitig aus Erinnerungen von Männern speist. Das
741 speist. Das künstlerische Werk von Frauen ist in der Vergangenheit 584 künstlerische Werk von Frauen ist in der Vergangenheit landauf landab
742 landauf landab als weniger relevant eingeschätzt worden. […] Das 585 als weniger relevant eingeschätzt worden. […] Das literarische
743 literarische Gedächtnis der Stadt München reproduziert so – genau 586 Gedächtnis der Stadt München reproduziert so – genau wie viele
744 wie viele Museumssammlungen, Theaterspielpläne, Verlags-, Radio- und 587 Museumssammlungen, Theaterspielpläne, Verlags-, Radio- und
745 Ausstellungsprogramm [sic!] – eine unvollständige 588 Ausstellungsprogramm [sic!] – eine unvollständige Wirklichkeit.«[55]
746 Wirklichkeit.«[87]
747 [52]Bei der Erstellung digitaler Datensätze und Archive gilt es also, diesen
748 Pre-Existing Gender Bias so gut wie möglich auszugleichen. Auf Basis von
749 Value Sensitive Design können bei der Erstellung digitaler Datensätze
750 auf Basis von Archiven wie der Monacensia in einem ersten Schritt –
751 den konzeptionellen Überlegungen – die betroffenen Stakeholder und
752 Stakeholder-Gruppen identifiziert werden. Neben den Mitarbeiter*innen
753 des Archivs bzw. des DH-Projekts können auch die Nutzer*innen der
754 Monacensia als direkte Stakeholder begriffen werden. Eine bedeutende
755 Gruppe indirekter Stakeholder sind hingegen Frauen im Allgemeinen und
756 Akteurinnen des literarischen Lebens in München im Besonderen: Sie
757 sind in den Beständen der Monacensia unterrepräsentiert, sodass ihre
758 Werte Teilhabe und Repräsentation gefährdet sind.
759 589
760 [53]In einem zweiten Schritt, den empirischen Investigationen, müsste 590 [35]Bei der Erstellung digitaler
761 untersucht werden, welche Werte den verschiedenen Stakeholder-Gruppen 591 Datensätze und Archive gilt es also, diesen Pre-Existing Gender Bias so gut
762 in Bezug auf das digitale Archiv tatsächlich wichtig sind. Dazu könnten 592 wie möglich auszugleichen. Auf Basis von Value Sensitive Design können dabei
763 beispielsweise Akteurinnen des literarischen Lebens in München wie 593 u. a. im Rahmen der technischen Investigationen Lösungsansätze gesucht
764 Autorinnen und Literaturwissenschaftlerinnen im Rahmen von qualitativen 594 werden, um Daten von und über Frauen in ausreichender Quantität und Qualität
765 Interviews befragt werden. Auch die Werte der direkten Stakeholder-Gruppen, 595 in den Datensatz bzw. das Digitale Archiv aufzunehmen – oder, sollte dies
766 also der Mitarbeiter*innen des Archivs bzw. des DH-Projekts und der 596 nicht möglich sein, Frauen trotz der strukturellen Unterrepräsentation im
767 potentiellen Nutzer*innen des digitalen Archivs müssten im Rahmen 597 Datensatz sichtbar zu machen. Die Monacensia im Hildebrandhaus rief
768 empirischer Untersuchungen erhoben werden, sodass potentiell auftretende 598 beispielsweise das mehrjährige partizipative Kulturerbeprojekt
769 Wertkonflikte identifiziert werden können. 599 #femaleheritage ins Leben, »um die literarischen Texte und
600 Dokumente von Frauen ins literarische Gedächtnis ein- bzw.
601 zurückzuschreiben«.[56] Das Projekt zeigt in Blogartikeln und
602 Sonderausstellungen Archivlücken und Forschungsdesiderate zu Frauen in
603 München auf, erstellte ein Online-Dossier mit Dokumentarfilmen und Texten zu
604 jüdischen Schriftstellerinnen und sammelte in einer Blogparade über 200
605 Beiträge in Podcasts, Blogs und der Wikipedia, in denen Frauen im Kontext
606 von Literatur, Kultur, Politik und Gesellschaft gewürdigt werden.[57]
770 607
771 [54]Wie können die Werte Teilhabe und Repräsentation von Frauen gefördert werden, 608
772 wenn auf Basis von Archivbeständen mit Gender Bias ein digitaler Datensatz 609
773 oder ein digitales Archiv erstellt wird? Im Rahmen des dritten Analyseschritts, 610
774 den technischen Investigationen, werden Strategien entwickelt, um Daten von und über
775 Frauen in ausreichender Quantität und Qualität in den Datensatz bzw. das
776 digitale Archiv aufzunehmen – oder, sollte dies nicht möglich sein,
777 Frauen trotz der strukturellen Unterrepräsentation im Datensatz sichtbar
778 zu machen. Die Monacensia im Hildebrandhaus rief beispielsweise das
779 mehrjährige partizipative Kulturerbeprojekt #femaleheritage ins Leben, »um die literarischen Texte und
780 Dokumente von Frauen ins literarische Gedächtnis ein- bzw.
781 zurückzuschreiben«.[88] Das Projekt zeigt in Blogartikeln
782 und Sonderausstellungen Archivlücken und Forschungsdesiderate zu Frauen
783 in München auf, erstellte ein Online-Dossier mit Dokumentarfilmen und
784 Texten zu jüdischen Schriftstellerinnen und sammelte in einer Blogparade
785 über 200 Beiträge in Podcasts, Blogs und der Wikipedia, in denen Frauen
786 im Kontext von Literatur, Kultur, Politik und Gesellschaft gewürdigt
787 werden.[89]
788 611
791 Zusammenstellung der knapp 200 Blogartikel, die im Kontext der 614 Zusammenstellung der knapp 200 Blogartikel, die im Kontext der
792 #femaleheritage-Blogparade entstanden sind. [Praske 615 #femaleheritage-Blogparade entstanden sind. [Praske 2021]
793 2021]
794 616
795 [55]Das Beispiel zeigt, dass Value Sensitive Design dazu beitragen kann, 617 [36]Auch wenn die Moncacensia kein
796 Pre-Existing Bias in Archiv- und Datenbeständen zu ermitteln und Strategien zu entwickelt, 618 DH-Projekt ist, zeigt das Beispiel, dass digitale und analoge Archiv- und
797 619 Datenbestände Pre-existing Bias aufweisen können – und dass (nicht nur, aber
798 um diesen Bias in digitalen Datensätzen und Archiven 620 auch auf Basis von Value Sensitive Design) Strategien entwickelt werden
799 abzumindern. 621 können, um diesen abzumindern.
800 622
801 623
802 6.1.2 Digitale Archive postkolonial gestalten 624 5.1.3 Barrierefreiheit fördern
803
804 [56]Darüber hinaus können digitale Archive koloniale Machtstrukturen
805 reproduzieren. Das macht Risam am Beispiel der Networked Infrastructure for Nineteenth-Century Electronic
806 Scholarship (NINES) deutlich: Das Projekt dient der
807 Vernetzung von DH-Projekten zum 19. Jahrhundert in den USA und
808 Großbritannien, indem es über 900.000[90] Projekte, Publikationen und
809 digitale Sammlungen zusammenstellt, zentral durchsuchbar macht und
810 Qualitätssicherung durch Peer Review anbietet. NINES ist damit eine
811 bedeutende Infrastruktur in den Digital Humanities. Die Autor*innen,
812 die in NINES zu finden sind, sind allerdings eine »narrowly
813 prescribed group of primarily white writers«[91]. Texte
814 Schwarzer und indigener Autor*innen sind hingegen stark
815 unterrepräsentiert. Zudem sind englischsprachige Texte, die im 19.
816 Jahrhundert in den von Großbritannien kolonialisierten Gebieten
817 entstanden sind, nicht zu finden. Thematisiert wird dieser Mangel
818 auf der Projektseite nicht.[92] NINES schreibt damit »colonial
819 dynamics of knowledge production«[93] fort, durch die »colonial
820 violence«[94] in der
821 Digital-Humanities-Forschung reproduziert wird.
822
823 [57]Risam fordert daher, digitale Archive postkolonial zu gestalten und koloniale
824 Formen der Wissensproduktion zu überwinden. Dafür kann Value Sensitive
825 Design als Ausgangspunkt dienen: So sieht der Ansatz vor, bei der
826 Identifikation der Stakeholder – also derjenigen, die direkt oder indirekt
827 von einer Technologie betroffen sind – besonders Individuen und Gruppen
828 zu berücksichtigen, die von Diskriminierung betroffen sind. Personen,
829 die von rassistischer und (neo-)kolonialer Diskriminierung betroffen
830 sind, können somit als Stakeholder von DH-Projekten wie NINES identifiziert
831 werden: Als Gruppe, die in den Inhalten der Infrastruktur NINES
832 unterrepräsentiert ist, sind sie indirekte Stakeholder. Als Mitarbeiter*innen
833 oder Nutzer*innen von DH-Projekten wie NINES können sie zugleich aber auch
834 direkte Stakeholder sein. Mit Value Sensitive Design kann im Rahmen der
835 konzeptionellen und empirischen Untersuchungen zunächst geklärt werden,
836 welche verschiedenen Stakeholder-Gruppen konkret von der DH-Infrastruktur
837 betroffen sind, welche Werte die unterschiedlichen Stakeholdergruppen als
838 wichtig erachten und welche Wertkonflikte dabei entstehen. Auf Basis
839 dieser Analysen können die Werte von Stakeholder-Gruppen, die von
840 rassistischer und (neo-)kolonialer Diskriminierung betroffen sind,
841 aktiv in das Design von digitalen Archiven und Infrastrukturen
842 einbezogen werden.
843 625
844 626
845 6.1.3 Barrierefreiheit fördern 627 [37]Schließlich kann auf Basis des
628 Value-Sensitive-Design-Ansatzes auch sichergestellt werden, dass Digitale
629 Archive und Infrastrukturen möglichst barrierefrei sind. Ein bedeutender
630 Aspekt ist dabei die Gestaltung der Benutzeroberfläche: Diese sollte nach
631 den Prinzipien der Web
632 Accessibility so gestaltet sein, dass auch Personen mit
633 visuellen, auditiven und physischen Einschränkungen das Online-Angebot
634 nutzen können (ausführlicher hierzu Kapitel 5.4). Aber auch finanzielle Aspekte spielen für die
635 barrierearme Nutzung von und die Beteiligung an digitalen Archiven und
636 Infrastrukturen eine Rolle: So macht Rojas Castro darauf aufmerksam, dass
637 Institutionen mit geringen finanziellen Ressourcen keine eigenen
638 Digitalisate zu digitalen Infrastrukturen beitragen können, wenn sie ihre
639 Dokumente dafür zwingend mit einem kostenpflichtigen Persistenten
640 Identifikator wie DOI oder Handle versehen müssen. Dies führt
641 wiederum zu weiteren Verzerrungen: Wenn beispielsweise ressourcenarme
642 Institutionen im globalen Süden eigene Digitalisate in zentralen
643 DH-Infrastrukturen aus finanziellen Gründen nicht beitragen können, entsteht
644 ein regionaler Bias.[58] Werden also
645 Value-Sensitive-Design-Überlegungen in die Gestaltung von digitalen
646 Infrastrukturen und deren Policies einbezogen, fördert dies den Abbau von
647 Barrieren, weil die Interessen von Stakeholdern mit geringen finanziellen
648 Ressourcen oder verschiedenen physischen Beeinträchtigungen berücksichtigt
649 werden.
846 650
847 [58]Schließlich kann auf Basis des Value-Sensitive-Design-Ansatzes auch 651
848 sichergestellt werden, dass digitale Archive und Infrastrukturen 652 5.2 Design-Normen für
849 möglichst barrierefrei sind. Ein bedeutender Aspekt ist dabei die 653 KI-Anwendungen in den Numerical Humanities
850 Gestaltung der Benutzeroberfläche: Diese sollte nach den Prinzipien der 654
851 Web Accessibility so gestaltet sein, dass 655 [38]Anders als die Digitized Humanities
852 auch Personen mit visuellen, auditiven und physischen Einschränkungen 656 legt die Spielart der Numerical Humanities den Schwerpunkt darauf,
853 das Online-Angebot nutzen können (ausführlicher hierzu Kapitel 6.4). Aber auch 657 formale Modelle zu erstellen und menschliches Verhalten mathematisch zu
854 finanzielle Aspekte spielen für die barrierearme Nutzung von und die 658 abstrahieren. Hier kommen vor allem KI-Anwendungen wie Machine Learning
855 Beteiligung an digitalen Archiven und Infrastrukturen eine Rolle: So 659 Software zum Einsatz. Machine Learning Software zeichnet sich dadurch aus,
856 macht Rojas Castro darauf aufmerksam, dass Institutionen mit geringen 660 dass sie sich autonom und adaptiv weiterentwickelt, indem sie mit ihrem
857 finanziellen Ressourcen keine eigenen Digitalisate zu digitalen 661 Umfeld interagiert. Machine-Learning-Systeme können daher aus verschiedenen
858 Infrastrukturen beitragen können, wenn sie ihre Dokumente dafür zwingend 662 Gründen Bias enthalten: Wenn die Trainingsdaten biased sind, wird dieser
859 mit einem kostenpflichtigen Persistenten Identifikator wie DOI oder Handle versehen 663 Bias unweigerlich in die Machine Learning Software übertragen. Beispiel
860 müssen. Dies führt wiederum zu weiteren Verzerrungen: Wenn 664 hierfür ist die eingangs erwähnte Gesichtserkennungssoftware, die bei
861 beispielsweise ressourcenarme Institutionen im globalen Süden eigene 665 Schwarzen Personen eine deutlich höhere Rate an falsch positiven Treffern
862 Digitalisate in zentralen DH-Infrastrukturen aus finanziellen Gründen 666 aufweist als bei weißen Personen – weil die Trainingsdaten vorrangig
863 nicht beitragen können, entsteht ein regionaler Bias.[95] 667 Bilder weißer Personen enthielten. Mithilfe des
864 [59]Auf Basis von Value Sensitive Design können Personen mit verschiedenen 668 Value-Sensitive-Design-Ansatzes kann also sichergestellt werden, dass der
865 physischen Einschränkungen genauso wie Institutionen mit geringen 669 Datensatz, auf dessen Basis eine Machine Learning Software lernt, keinen
866 finanziellen Ressourcen als Stakeholder von digitalen Archiven und 670 Bias aufweist (vgl. auch Kapitel
867 Infrastrukturen in den Fokus genommen werden. Im Rahmen empirischer 671 5.1).
868 Untersuchungen kann erhoben werden, welche Interessen und Werte 672 [39]Machine-Learning-Systeme können
869 diese Stakeholder-Gruppen haben – beispielsweise Barrierefreiheit, 673 aber auch bei unverzerrten Trainingsdaten einen Algorithmus hervorbringen,
870 Freiheit von Bias, Teilhabe und (Informations-)Gerechtigkeit – 674 der »might conceivably be described as following a rule that is somehow
871 und an welchen Stellen diese möglicherweise mit den Interessen 675 biased«.[59] Diese Form von
872 weiterer Stakeholder-Gruppen in Konflikt geraten. Darauf aufbauend 676 Bias ist »emergent und opaque«,[60] er ist also
873 können im Rahmen der technischen Investigationen Strategien 677 nicht vorhersehbar und für Menschen schwer zu erkennen. Eine ethische
874 entwickelt werden, um die Benutzeroberflächen und Policies der 678 Überprüfung von Machine-Learning-Technologien bringt daher besondere
875 DH-Projekte so zu gestalten, dass sie auch die Interessen von 679 Herausforderungen mit sich. Umbrello und van de Poel schlagen vor, das
876 Personen mit verschiedenen physischen Einschränkungen genauso 680 Value-Sensitive-Design-Framework für KI-Anwendungen weiterzuentwickeln und
877 wie von Institutionen mit geringen finanziellen Ressourcen berücksichtigen. 681 um ein »set of AI-specific design principles«[61] zu
682 ergänzen. Drei Aspekte sind dabei zentral:
683 [40]1) Als Design-Vorgaben, die für
684 alle KI-Anwendungen gelten, schlagen Umbrello und van de Poel die AI for
685 Social Good-Prinzipien (AI4SG) vor. Diese spezifizieren die
686 Prinzipien der EU High Level Expert Group
687 on AI und übertragen sie in sieben konkrete Anforderungen für das
688 Design von KI-Anwendungen:
689
690 Die Anwendung wird kontinuierlich und zunächst in kleineren
691 Szenarien empirisch getestet;
692 die Designer*innen sichern die Anwendung gegen die Manipulation
693 der Datenbasis und die übermäßige Abhängigkeit von einzelnen Variablen
694 ab;
695 die Nutzer*innen-Autonomie wird gestärkt, indem die User*innen
696 verschieden Auswahlmöglichkeiten bekommen;
697 die Anwendung ist transparent und wird angepasst an die jeweilige
698 Nutzer*innen-Gruppe erklärt;
699 die Privatsphäre von »data subjects«[62]
700 wird geschützt;
701 die Datenbasis, mit der die Anwendung lernt, muss frei von Bias
702 sein, v. a. bezüglich Kategorien wie Race, Gender und Altersklassen und
703 die Zuschreibung von Bedeutung darf nicht willkürlich erfolgen und
704 nicht zu eng gefasst werden.[63]
705
706 [41]2) Die AI4SG-Prinzipien zielen
707 jedoch vorrangig darauf ab, KI-Anwendungen so zu gestalten, dass sie keinen
708 Schaden hervorrufen. Der Value-Sensitive-Design-Ansatz sieht darüber hinaus
709 aber auch vor, gesellschaftlich erwünschte Werte und Ziele aktiv zu fördern.
710 Umbrello und van de Poel schlagen daher vor, zwischen »values promoted by
711 design and values respected by design«[64] zu
712 unterscheiden. Welche Werte gesellschaftlich erwünscht sind und von
713 KI-Technologien gefördert werden sollen, kann beispielsweise anhand der
714 Sustainable Development Goals (SDG) der UN abgeleitet werden, die
715 von den Vereinten Nationen erarbeitet und ihren 193 Mitgliedsstaaten
716 verabschiedet wurden.[65] Zu den Zielen, die in den SDG
717 festgehalten sind, gehören u. a. Geschlechtergerechtigkeit, die Bekämpfung
718 von Armut und der Zugang zu Bildung.[66]
719 [42]3) Schließlich schlagen die Autoren
720 vor, dass die Value-Sensitive-Design-Analyse den gesamten Lebenszyklus einer
721 KI-Anwendung begleitet. Sollten im Lauf der Anwendungszeit einer Technologie
722 Problematiken und Wertverletzungen auftauchen, kann sie so entsprechend
723 angepasst werden. Die Erweiterung des Value-Sensitive-Design-Frameworks
724 sieht daher vor, über den gesamten Lebenszyklus hinweg Prototypen der
725 KI-Anwendung zu erstellen und diese im jeweiligen Anwendungsfeld zu testen.
726 Dabei werden nicht nur die technischen Funktionen geprüft, sondern auch die
727 Auswirkungen der KI-Anwendung auf Werte und Gesellschaft. Diese Tests
728 sollten mit der Anwendung in kleinem Rahmen beginnen und dann sukzessive den
729 Bezugsrahmen ausweiten.[67]
730 [43]Auf Basis dieses erweiterten
731 Frameworks kann Value Sensitive Design also auch in den Numerical Humanities
732 genutzt werden, um selbstlernenden Systeme wertebasiert zu gestalten oder
733 bereits existierende KI-Anwendungen informationsethisch zu überprüfen.
878 734
880 736
881 6.2 Design-Normen für KI-Anwendungen in den Numerical Humanities 737 5.3 Akteur*innen und ihre
738 Interessen in den Humanities of the Digital analysieren
739
740 [44]Als dritte Spielart der Digital
741 Humanities beschreibt Roth die Humanities of the Digital: Die
742 geisteswissenschaftliche Forschung zu »computermediated interactions and
743 societies«,[68] also zu soziotechnischen
744 Systemen wie Online-Communities, Blogs, Sozialen Netzwerk-Seiten und
745 Gaming-Plattformen. Hier geht es also weniger darum, Technologien zu
746 entwickeln und anzuwenden, sondern diese als Untersuchungsgegenstände in den
747 Blick zu nehmen.
748 [45]Value Sensitive Design kann dabei
749 als theoretischer Ausgangspunkt dienen, um Online-Communities, Soziale
750 Netzwerk-Seiten und Gaming-Plattformen aus einer informationsethischen
751 Perspektive zu untersuchen und sich unterschiedlichen Fragestellungen zu
752 nähern: Welche direkten und indirekten Stakeholder hat eine Soziale
753 Netzwerk-Seite wie Instagram, eine
754 Online-Community wie Wikipedia
755 oder eine Gaming-Plattform wie Steam? Welche Werte und wessen Interessen werden von den
756 Nutzungsbedingungen, Policies und dem technischen Design gefördert bzw.
757 behindert? Wie könnte die jeweilige Plattform oder Community gestaltet sein,
758 um die Werte und Interessen aller Stakeholder zu beachten?
759 [46]Dass Online-Communities, Soziale
760 Netzwerk-Seiten und Gaming-Plattformen die Interessen und Werte
761 verschiedener Stakeholder in unterschiedlichem Maß fördern oder behindern,
762 wird anhand von Beispielen deutlich. So weist die Community-betriebene
763 Online-Datenbank Wikidata einen Gender Bias auf: Von den 8,2 Millionen
764 Personen, die Wikidata verzeichnet, sind nur 23 Prozent Frauen.[69] Die
765 mit Wikidata verknüpfte Enzyklopädie Wikipedia enthält zudem einen
766 »Eurocentric bias«,[70] da historische Artikel in mehreren
767 Sprachversionen der Wikipedia vor allem die Geschichte europäischer Länder
768 thematisieren.[71] Die Nutzungsbedingungen der Sozialen
769 Netzwerk-Seite Facebook erlauben Bilder nackter Oberkörper, die als
770 männlich gelesen werden, verbieten aber Bilder nackter Oberkörper, die als
771 weiblich gelesen werden. West beschreibt dies als »gendered policies on
772 images of female nudity«.[72] Eine umfassende
773 informationsethische Analyse der jeweiligen Communities und Sozialen
774 Netzwerk-Seiten, in der alle direkten und indirekten Stakeholder und ihre
775 Werte berücksichtigt werden, steht jedoch noch aus.
882 776
884 778
885 [60]Anders als die Digitized Humanities legt die Spielart der Numerical Humanities den 779 5.4 Mehr Barrierefreiheit in den
886 Schwerpunkt darauf, 780 Public Humanities schaffen
887 formale Modelle zu erstellen und menschliches Verhalten mathematisch zu
888 abstrahieren. Hier kommen vor allem KI-Anwendungen wie Machine Learning
889 Software zum Einsatz. Machine Learning Software zeichnet sich dadurch
890 aus, dass sie sich autonom und adaptiv weiterentwickelt, indem sie mit
891 ihrem Umfeld interagiert. Machine Learning Systeme können daher aus
892 verschiedenen Gründen Bias enthalten: Wenn die Trainingsdaten biased
893 sind, wird dieser Bias unweigerlich in die Machine Learning Software
894 übertragen. Beispiel hierfür ist die eingangs erwähnte
895 Gesichtserkennungssoftware, die bei Schwarzen Personen eine deutlich
896 höhere Rate an falsch positiven Treffern aufweist als bei weißen Personen – weil die Trainingsdaten
897 vorrangig Bilder weißer Personen enthielten.
898 Mithilfe des Value-Sensitive-Design-Ansatzes kann also sichergestellt
899 werden, dass der Datensatz, auf dessen Basis eine
900 Machine Learning Software lernt, keinen Bias aufweist (vgl. auch Kapitel 6.1).
901 781
902 [61]Machine Learning Systeme können aber auch bei unverzerrten Trainingsdaten 782 [47]Den drei von Roth beschriebenen
903 einen Algorithmus hervorbringen, der »might conceivably be 783 Teilbereichen der Digital Humanities fügt Burghardt eine vierte Spielart
904 described as following a rule that is somehow biased«.[96] Diese Form von Bias ist 784 hinzu: Die Public Humanities, also die Themenfelder des digitalen
905 »emergent und opaque«,[97] er ist also nicht 785 Publizierens, der Wissenschaftskommunikation und des E-Learnings. Auch hier
906 vorhersehbar und für Menschen schwer zu erkennen. Eine ethische 786 gilt es, die Interessen unterschiedlicher Stakeholder zu berücksichtigen, um
907 Überprüfung von Machine Learning Technologien bringt daher besondere 787 Bias und Diskriminierung zu vermeiden. Auf Basis von Value Sensitive Design
908 Herausforderungen mit sich. Umbrello und van de Poel schlagen vor, das 788 kann beispielsweise sichergestellt werden, dass digitale Publikationen und
909 Value-Sensitive-Design-Framework für KI-Anwendungen weiterzuentwickeln 789 E-Learning-Angebote möglichst barrierefrei gestaltet werden.
910 und um ein »set of AI-specific design principles«[98] zu ergänzen. Drei Aspekte 790 Barrierefreiheit bezieht sich dabei auf Barrieren physischer Art, aber auch
911 sind dabei zentral: 791 finanzieller und sprachlicher Art.
912 792 [48]Genau wie in den Digitized
913 [62]1) Als Design-Vorgaben, die für alle KI-Anwendungen gelten, schlagen 793 Humanities sollten Benutzeroberflächen und Formate von digitalen
914 Umbrello und van de Poel die AI for Social Good-Prinzipien (AI4SG) vor. Diese spezifizieren die Prinzipien der EU High Level Expert Group on AI und übertragen 794 Publikationen und E-Learning-Angeboten nach den Prinzipien der Web
915 sie in sieben konkrete Anforderungen für das Design von KI-Anwendungen: 795 Accessibility gestaltet sein, sodass sie von Personen mit auditiven,
916 796 visuellen, körperlichen, kognitiven und sprachlichen Einschränkungen genutzt
917 797 werden können. Orientierung bieten dafür die Standards und Empfehlungen der
918 Die Anwendung wird kontinuierlich und zunächst in kleineren 798 W3C Web Accessibility
919 Szenarien empirisch getestet; 799 Initiative,[73] die
920
921 die Designer*innen sichern die Anwendung gegen die Manipulation
922 der Datenbasis und die übermäßige Abhängigkeit von einzelnen
923 Variablen ab;
924
925 die Nutzer*innen-Autonomie wird gestärkt, indem die User*innen
926 verschieden Auswahlmöglichkeiten bekommen;
927
928 die Anwendung ist transparent und wird angepasst an die jeweilige
929 Nutzer*innen-Gruppe erklärt;
930
931 die Privatsphäre von »data subjects«[99] wird geschützt;
932
933 die Datenbasis, mit der die Anwendung lernt, muss frei von Bias
934 sein, v. a. bezüglich Kategorien wie Race, Gender und Altersklassen
935 und
936
937 die Zuschreibung von Bedeutung darf nicht willkürlich erfolgen und
938 nicht zu eng gefasst werden.[100]
939
940 [63]2) Die AI4SG-Prinzipien zielen jedoch vorrangig darauf ab, KI-Anwendungen
941 so zu gestalten, dass sie keinen Schaden hervorrufen. Der
942 Value-Sensitive-Design-Ansatz sieht darüber hinaus aber auch vor,
943 gesellschaftlich erwünschte Werte und Ziele aktiv zu fördern sowie die Werte aller
944 beteiligten Stakeholder zu berücksichtigen. Umbrello
945 und van de Poel schlagen daher vor, zwischen »values promoted by
946 design and values respected by design«[101] zu unterscheiden. Welche
947 Werte gesellschaftlich erwünscht sind und von KI-Technologien gefördert
948 werden sollen, kann beispielsweise anhand der Sustainable Development Goals
949 (SDG) der UN abgeleitet werden, die von den Vereinten Nationen
950 erarbeitet und ihren 193 Mitgliedsstaaten verabschiedet wurden.[102] Zu den Zielen,
951 die in den SDG festgehalten sind, gehören u. a.
952 Geschlechtergerechtigkeit, die Bekämpfung von Armut und der Zugang zu
953 Bildung.[103]
954 [64]3) Schließlich schlagen die Autoren vor, dass die
955 Value-Sensitive-Design-Analyse den gesamten Lebenszyklus einer
956 KI-Anwendung begleitet. Sollten im Lauf der Anwendungszeit einer
957 Technologie Problematiken und Wertverletzungen auftauchen, kann sie so
958 entsprechend angepasst werden. Die Erweiterung des
959 Value-Sensitive-Design-Frameworks sieht daher vor, über den gesamten
960 Lebenszyklus hinweg Prototypen der KI-Anwendung zu erstellen und diese
961 im jeweiligen Anwendungsfeld zu testen. Dabei werden nicht nur die
962 technischen Funktionen geprüft, sondern auch die Auswirkungen der
963 KI-Anwendung auf Werte und Gesellschaft. Diese Tests sollten mit der
964 Anwendung in kleinem Rahmen beginnen und dann sukzessive den
965 Bezugsrahmen ausweiten.[104]
966 [65]Umbrello und van de Poel illustrieren den Ablauf einer Value-Sensitive-Design-Analyse
967
968 von KI-Anwendungen am Beispiel der Corona-Datenspende-App, die im
969 April 2020 vom Robert-Koch-Institut (RKI) vorgestellt wurde. Über die App
970 können Bürger*innen mit Fitnessarmbändern und Smartwatches dem RKI ihre
971 Gesundheitsdaten zur Verfügung stellen, um die Ausbreitung des COVID-19-Virus
972 nachvollziehbar zu machen. In drei Schritten analysieren Umbrello und
973 van de Poel die Werte, die bei der Entwicklung und dem Einsatz der Corona
974 Datenspende-App eine Rolle spielen:
975
976
977 Als gesellschaftlich erwünschten Wert, den die Anwendung
978 fördert (»Values promoted by design«[105]) identifizieren sie öffentliche
979 Gesundheit. Dieser Wert lässt sich dem dritten SDG, Gesundheit und
980 Wohlbefinden, zuordnen.
981
982 Darüber hinaus analysieren die Autoren, welche »values respected
983 by design«, also Design-Vorgaben, die für alle KI-Anwendungen gelten,
984 im Kontext der Corona-Datenspende-App besondere Bedeutung einnehmen. So spielt
985 zum Beispiel die Verhinderung von Schaden (»Nonmaleficence«[106]) eine hervorgehobene Rolle, vor allem
986 in Bezug auf Datensicherheit und Privatsphäre. Aber auch Erklärbarkeit
987 und Autonomie sind Werte, die beim Design der App beachtet werden müssen,
988 d. h. es muss eine »balance between human decision-making power and
989 its abdication to AI systems«[107] gewährleistet werden, die Funktionsweise
990 der App und des KI-Systems müssen verständlich sein und mindestens eine Person
991 muss für die Funktionsweise verantwortlich zeichnen.
992
993 Schließlich analysieren Umbrello und van de Poel, welche
994 Interessen und Werte die Stakeholder der Corona-Datenspende-App
995 haben. Dabei nehmen sie die Nutzer*innen der App als direkte Stakeholder
996 in den Fokus. So ist beispielsweise Freiwilligkeit entscheidend, also
997 dass das Nutzen der App nicht verpflichtend ist. Damit einher geht der
998 Wert Fairness, der gewährleistet, dass niemand stigmatisiert oder
999 diskriminiert wird, der*die die App nicht nutzt. Zudem könnte das
1000 Tracing der Nutzer*innen über die App eine Gefahr für die Versammlungfreiheit
1001 darstellen, was die Autonomie der Nutzer*innen und die »Nonmaleficence«
1002 der KI-Anwendung gefährdet. Auch der Wert Gesundheit ist aus
1003 Nutzer*innen-Perspektive von besonderer Bedeutung: Wenn die App zu
1004 einem falschen Sicherheitsgefühl führt, könnten Nutzer*innen Gesundheitsrisiken
1005 eingehen.[108]
1006
1007
1008 [66]Anschließend zeigen Umbrello und van de Poel beispielhaft, wie die verschiedenen
1009 identifizierten Werte in Design-Anforderungen übersetzt werden können. Um den
1010 Wert Verhinderung von Schaden (»Nonmaleficence«[109]) zu unterstützen, müssen bei
1011 der Gestaltung der App vor allem der Schutz der Privatsphäre und informierte
1012 Einwilligung beachtet werden. Daraus ergibt sich erstens die Anforderung, dass
1013 die Nutzungsbedingungen der App verständlich formuliert werden müssen, und
1014 zweitens, dass die erhobenen Daten pseudonymisiert, lokal gespeichert und
1015 nach einem bestimmten Zeitraum wieder gelöscht werden müssen. Um den Wert
1016 der Erklärbarkeit zu unterstützen, muss für Nutzer*innen zudem transparent
1017 gemacht werden, welche Daten und Datensets gesammelt und erstellt werden, wie
1018 diese verwendet, gespeichert und gelöscht werden.[110] Abschließend empfehlen die
1019 Autoren die Erstellung eines Prototyps der Corona-Datenspende-App. Dieser
1020 soll zunächst mit einer limitierten Anzahl an Nutzer*innen getestet werden.
1021 Dabei sollen nicht nur die technischen Funktionen, sondern auch mögliche Auswirkungen
1022
1023 auf das Verhalten der Nutzer*innen, die Gesellschaft und die Werte der betroffenen
1024
1025 Stakeholder überprüft und das Design der App gegebenenfalls nachgebessert werden.[111]
1026 [67]Das erweiterte Framework von Value Sensitive Design für KI-Anwendungen kann
1027 auch in den Numerical Humanities genutzt werden, um selbstlernende
1028 Systeme wertebasiert zu gestalten oder bereits existierende
1029 KI-Anwendungen ethisch zu überprüfen. Zentral sind dabei neben
1030 den Werten der betroffenen Stakeholder auch die »values promoted
1031 by design and values respected by design«[112], also einerseits die
1032 in den Sustainable Development Goals formulierten Werte und Ziele
1033 und andererseits die Werte, die den AI for Social Good-Prinzipien
1034 (AI4SG) zugrunde liegen, also Freiheit von Bias, Autonomie,
1035 Privatsphäre und Transparenz.
1036
1037
1038 6.3 Akteur*innen und ihre Interessen in den Humanities of the Digital analysieren
1039
1040 [68]Als dritte Spielart der Digital Humanities beschreibt Roth die Humanities of the Digital:
1041 Die
1042 geisteswissenschaftliche Forschung zu »computermediated
1043 interactions and societies«,[113] also zu soziotechnischen Systemen wie
1044 Online-Communities, Blogs, Sozialen-Netzwerk-Seiten und
1045 Gaming-Plattformen. Hier geht es also weniger darum, Technologien zu
1046 entwickeln und anzuwenden, sondern diese als Untersuchungsgegenstände in
1047 den Blick zu nehmen. Geschlechtergerechtigkeit sowie globale Gerechtigkeit
1048 im Sinne von Teilhabe und Freiheit von Diskriminierung seien hier nur
1049 beispielhaft als Werte genannt, die dabei fokussiert werden können.
1050
1051 [69]Value Sensitive Design kann dabei als theoretischer Ausgangspunkt dienen,
1052 um Online-Communities, Soziale-Netzwerk-Seiten und Gaming-Plattformen
1053 aus einer ethischen Perspektive zu untersuchen und sich
1054 unterschiedlichen Fragestellungen zu nähern: Welche direkten und
1055 indirekten Stakeholder hat eine Soziale-Netzwerk-Seite wie Instagram, eine Online-Community wie Wikipedia oder eine Gaming-Plattform wie Steam? Welche Werte und wessen Interessen werden
1056 von den Nutzungsbedingungen, Policies und dem technischen Design
1057 gefördert bzw. behindert? Wie könnte die jeweilige Plattform oder
1058 Community gestaltet sein, um die Werte und Interessen aller Stakeholder
1059 zu beachten?
1060
1061 [70]Dass Online-Communities, Soziale-Netzwerk-Seiten und Gaming-Plattformen
1062 die Interessen und Werte verschiedener Stakeholder in unterschiedlichem
1063 Maß fördern oder behindern, wird anhand von Beispielen deutlich. So
1064 weist die Community-betriebene Online-Datenbank Wikidata einen Gender
1065 Bias auf: Von den 8,2 Millionen Personen, die Wikidata verzeichnet, sind
1066 nur 23 Prozent Frauen.[114] Die mit
1067 Wikidata verknüpfte Enzyklopädie Wikipedia enthält zudem einen
1068 »Eurocentric bias«,[115] da historische Artikel in mehreren
1069 Sprachversionen der Wikipedia vor allem die Geschichte europäischer
1070 Länder thematisieren.[116] Die Nutzungsbedingungen der
1071 Sozialen-Netzwerk-Seite Facebook erlauben Bilder
1072 nackter Oberkörper, die als männlich gelesen werden, verbieten aber
1073 Bilder nackter Oberkörper, die als weiblich gelesen werden. West
1074 beschreibt dies als »gendered policies on images of female
1075 nudity«[117]. Eine umfassende ethische
1076 Analyse der jeweiligen Communities und Sozialen-Netzwerk-Seiten, in der
1077 alle direkten und indirekten Stakeholder und ihre Werte berücksichtigt
1078 werden, steht jedoch noch aus.
1079
1080 [71]Wie könnte die Analyse einer Online-Community wie Wikipedia anhand von
1081 Value Sensitive Design beispielsweise aussehen? Im Rahmen der
1082 konzeptionellen Untersuchungen werden zunächst der Kontext der
1083 Online-Community beschrieben und die betroffenen Stakeholder ausgemacht.
1084 Die Online-Enzyklopädie Wikipedia zeichnet sich dadurch aus, dass sie
1085 alle Inhalte kostenfrei zur Verfügung stellt und es allen Nutzer*innen
1086 ermöglicht, die Inhalte des Lexikons zu bearbeiten.[118] Direkte Stakeholder sind dabei diejenigen,
1087 die selbst redaktionell an der Wikipedia mitarbeiten, genauso wie alle,
1088 die Inhalte der Online-Enzyklopädie rezipieren. Auch die Wikimedia Foundation, die als
1089 Non-Profit-Organisation die Wikipedia trägt und finanziert,[119] kann als
1090 direkter Stakeholder verstanden werden. Indirekte Stakeholder sind aber
1091 auch Individuen und Gruppen, die in den Artikeln und Inhalten der
1092 Wikipedia abgebildet werden, genau wie jene, die nicht repräsentiert
1093 werden. Welche Werte diese unterschiedlichen Stakeholder-Gruppen
1094 priorisieren und wo potentiell Wertkonflikte auftreten, muss im Rahmen
1095 von empirischen Investigationen untersucht werden, beispielsweise in
1096 Online-Befragungen oder qualitativen Interviews. Im dritten Schritt der
1097 Analyse, den technischen Investigationen, wird analysiert, welche
1098 technischen Features und organisatorischen Strukturen der
1099 Online-Community Wikipedia die Interessen und Werte der verschiedenen
1100 Stakeholder-Gruppen fördern oder behindern. Eine
1101 Value-Sensitive-Design-Analyse ermöglicht damit ein Verständnis von
1102 Problematiken wie dem Eurocentric oder Gender Bias in der
1103 Online-Community Wikipedia, das neben verschiedenen
1104 Stakeholder-Interessen auch technische und organisatorische Aspekte
1105 einbezieht.
1106
1107
1108 6.4 Mehr Barrierefreiheit in den Public
1109 Humanities schaffen
1110
1111
1112 [72]Den drei von Roth beschriebenen Teilbereichen der Digital Humanities fügt
1113 Burghardt eine vierte Spielart hinzu: Die Public
1114 Humanities, also die Themenfelder des digitalen Publizierens,
1115 der Wissenschaftskommunikation und des E-Learnings. Auch hier gilt es,
1116 die Interessen unterschiedlicher Stakeholder zu berücksichtigen, um Bias
1117 und Diskriminierung zu vermeiden. Auf Basis von Value Sensitive Design
1118 kann beispielsweise sichergestellt werden, dass digitale Publikationen
1119 und E-Learning-Angebote möglichst barrierefrei gestaltet werden.
1120 Barrierefreiheit bezieht sich dabei auf Barrieren physischer Art, aber
1121 auch finanzieller und sprachlicher Art. Damit spielen in den Public
1122 Humanities neben Barrierefreiheit auch die in der Informationsethik
1123 zentralen Werte Informationsfreiheit und Informationsgerechtigkeit eine
1124 Rolle.[120]
1125 [73]Genau wie in den Digitized Humanities sollten Benutzeroberflächen und
1126 Formate von digitalen Publikationen und E-Learning-Angeboten nach den
1127 Prinzipien der Web Accessibility gestaltet sein, sodass sie von Personen
1128 mit auditiven, visuellen, körperlichen, kognitiven und sprachlichen
1129 Einschränkungen genutzt werden können. Orientierung bieten dafür die
1130 Standards und Empfehlungen der W3C Web Accessibility
1131 Initiative,[121] die
1132 beispielsweise vorsehen, Bilder mit einem Alternativtext zu versehen, 800 beispielsweise vorsehen, Bilder mit einem Alternativtext zu versehen,
1133 Audio-Inhalte und Videos mit Transkriptionen bzw. Untertiteln 801 Audio-Inhalte und Videos mit Transkriptionen bzw. Untertiteln auszustatten
1134 auszustatten und die Navigation auf Websites per Tastatur zu 802 und die Navigation auf Websites per Tastatur zu ermöglichen. Stakeholder,
1135 ermöglichen. Stakeholder, deren Interessen damit verfolgt werden, sind 803 deren Interessen damit verfolgt werden, sind dabei neben Menschen mit
1136 dabei neben Menschen mit Behinderung auch weitere Gruppen: Personen, 804 Behinderung auch weitere Gruppen: Personen, deren Fähigkeiten sich
1137 deren Fähigkeiten sich altersbedingt verändern; Nutzer*innen, die über 805 altersbedingt verändern; Nutzer*innen, die über eine langsame
1138 eine langsame Internetverbindung verfügen; und Personen, die sich in 806 Internet-Verbindung verfügen; und Personen, die sich in limitierenden
1139 limitierenden Situationen befinden, beispielsweise in einer Umgebung, in 807 Situationen befinden, beispielsweise in einer Umgebung, in der sie
1140 der sie Audio-Inhalte nicht anhören können oder hellem Sonnenlicht 808 Audio-Inhalte nicht anhören können oder hellem Sonnenlicht ausgesetzt sind.
1141 ausgesetzt sind. Die W3C Web Accessibility 809 Die W3C Web Accessibility Initiative empfiehlt, Aspekte der
1142 Initiative empfiehlt, Aspekte der Barrierefreiheit bereits zu 810 Barrierefreiheit bereits zu Beginn eines Projektes zu bedenken, um zu
1143 Beginn eines Projektes zu bedenken, um zu vermeiden, Designs und Inhalte 811 vermeiden, Designs und Inhalte noch einmal neu gestalten zu müssen.[74]
1144 noch einmal neu gestalten zu müssen.[122] 812 [49]Neben Empfehlungen für die
1145 [74]Neben Empfehlungen für die Gestaltung und Entwicklung von Websites und 813 Gestaltung und Entwicklung von Websites und Online-Publikationen weist die
1146 Online-Publikationen weist die W3C Web Accessibility Initiative auch 814 W3C Web Accessibility Initiative auch darauf hin, dass Texte klar, prägnant
1147 darauf hin, dass Texte klar, prägnant und in verständlicher Sprache 815 und in verständlicher Sprache formuliert werden sollen.[75] Auch
1148 formuliert werden sollen.[123] Auch Sprache 816 Sprache kann also eine Barriere sein, die es Stakeholdern schwierig bis
1149 kann also eine Barriere sein, die es Stakeholdern schwierig bis
1150 unmöglich macht, eine Ressource zu nutzen. Dabei spielen nicht nur die 817 unmöglich macht, eine Ressource zu nutzen. Dabei spielen nicht nur die
1151 Verständlichkeit von Texten, sondern auch Fremdsprachenkenntnisse eine 818 Verständlichkeit von Texten, sondern auch Fremdsprachenkenntnisse eine
1152 Rolle. Ein Beispiel: Die Website The Programming Historian publiziert Tutorials, »that help humanists learn a wide 819 Rolle. Ein Beispiel: Die Website The Programming Historian
1153 range of digital tools, techniques, and workflows«[124]. Die englischsprachige 820 publiziert Tutorials, »that help humanists learn a wide range of digital
1154 Version der Website ist im Directory of Open Access 821 tools, techniques, and workflows«.[76]Die
1155 Journals (DOAJ) verzeichnet. Das DOAJ lehnte es zunächst 822 englischsprachige Version der Website ist im Directory of Open Access Journals
1156 jedoch ab, auch die spanisch- und französischsprachigen Versionen der 823 (DOAJ) verzeichnet. Das DOAJ lehnte es zunächst jedoch ab, auch die
1157 Tutorials in ihr Verzeichnis aufzunehmen, da diese als nicht 824 spanisch- und französischsprachigen Versionen der Tutorials in ihr
1158 »original enough«[125] angesehen wurden. Für Personen, die über 825 Verzeichnis aufzunehmen, da diese als nicht »original enough«[77] angesehen
1159 geringe Englischkenntnisse verfügen und daher gezielt nach französisch- 826 wurden. Für Personen, die über geringe Englischkenntnisse verfügen und daher
1160 oder spanischsprachigen Ressourcen suchen, waren die entsprechenden 827 gezielt nach französisch- oder spanischsprachigen Ressourcen suchen, waren
1161 Tutorials von The Programming Historian über das DOAJ damit nicht 828 die entsprechenden Tutorials von The Programming Historian über das DOAJ
1162 auffindbar. Seit April 2021 verzeichnet das DOAJ aber alle drei 829 damit nicht auffindbar. Seit April 2021 verzeichnet das DOAJ aber alle drei
1163 Sprachversionen der Website und trägt damit zur barrierefreien 830 Sprachversionen der Website und trägt damit zur barrierefreien
1164 Auffindbarkeit der Tutorials von The Programming Historian für Personen 831 Auffindbarkeit der Tutorials von The Programming Historian für Personen ohne
1165 ohne oder mit geringen Englischkenntnissen bei.[126] 832 oder mit geringen Englischkenntnissen bei.[78]
1166 [75]Schließlich können auch finanzielle Aspekte ausschlaggebend dafür sein, 833 [50]Schließlich können auch finanzielle
1167 dass digitale Publikationen oder E-Learning-Ressourcen von bestimmten 834 Aspekte ausschlaggebend dafür sein, dass digitale Publikationen oder
1168 Individuen oder Gruppen nicht genutzt werden können. Der Zugang zu 835 E-Learning-Ressourcen von bestimmten Individuen oder Gruppen nicht genutzt
1169 wissenschaftlichen Zeitschriften, Monographien und Sammelbänden ist 836 werden können. Der Zugang zu wissenschaftlichen Zeitschriften, Monographien
1170 sowohl für Einzelpersonen als auch für Institutionen in der Regel mit 837 und Sammelbänden ist sowohl für Einzelpersonen als auch für Institutionen in
1171 Kosten verbunden – mit Ausnahme von Publikationen, die Open Access zur Verfügung gestellt werden. Aber auch hier 838 der Regel mit Kosten verbunden – mit Ausnahme von Publikationen, die Open Access zur Verfügung gestellt
1172 können finanzielle Barrieren entstehen, und zwar für die Autor*innen, 839 werden. Aber auch hier können finanzielle Barrieren entstehen, und zwar für
1173 die eigene Beiträge veröffentlichen wollen: Sogenannte Gold-Open-Access-Zeitschriften, die ihre Beiträge direkt bei 840 die Autor*innen, die eigene Beiträge veröffentlichen wollen: Sog. Gold-Open-Access-Zeitschriften, die
1174 der Veröffentlichung für Leser*innen kostenfrei zur Verfügung stellen, 841 ihre Beiträge direkt bei der Veröffentlichung für Leser*innen kostenfrei zur
1175 erheben teilweise Article Processing Charges 842 Verfügung stellen, erheben teilweise Article
1176 (APCs) – also Gebühren, die Autor*innen für die Veröffentlichung ihres 843 Processing Charges (APCs) – also Gebühren, die
1177 Beitrages entrichten müssen.[127] Für Wissenschaftler*innen, die 844 Autor*innen für die Veröffentlichung ihres Beitrages entrichten müssen.[79] Für Wissenschaftler*innen, die an weniger ressourcenstarken
1178 an weniger ressourcenstarken Institutionen affiliiert sind, hat dies zur 845 Institutionen affiliiert sind, hat dies zur Folge, dass sie ihre Beiträge
1179 Folge, dass sie ihre Beiträge nur in einem Teil der entsprechenden 846 nur in einem Teil der entsprechenden Journals publizieren können, die in
1180 Journals publizieren können, die in ihrem jeweiligen Fachbereich eine 847 ihrem jeweiligen Fachbereich eine Rolle spielen – nämlich denjenigen ohne
1181 Rolle spielen – nämlich denjenigen ohne APCs. Damit sind ihre 848 APCs. Damit sind ihre Möglichkeiten, am wissenschaftlichen Diskurs
1182 Möglichkeiten, am wissenschaftlichen Diskurs teilzunehmen, 849 teilzunehmen, eingeschränkt.
1183 eingeschränkt. 850 [51]Der Value-Sensitive-Design-Ansatz
1184 851 kann damit auch in den Public Humanities dazu beitragen, die Policies und
1185 [76]Wie also können digitale Publikationen auf Basis von Value Sensitiv 852 das technische Design von digitalen Publikationen und E-Learning-Ressourcen
1186 Design wertebasiert gestaltet werden? Zunächst wird im Rahmen der 853 so zu gestalten, dass Barrieren finanzieller, sprachlicher und physischer
1187 konzeptionellen Überlegungen untersucht, welche Stakeholdergruppen 854 Art abgebaut werden, indem die Interessen und Werte unterschiedlicher
1188 im Kontext digitaler Publikationen eine Rolle spielen. Zu den 855 Stakeholder berücksichtigt werden. Zu diesen Stakeholdern gehören u. a.
1189 direkten Stakeholdern gehören neben den Autor*innen und Leser*innen 856 Wissenschaftler*innen, die an ressourcenarmen Institutionen affiliiert sind,
1190 wissenschaftlicher Texte auch die Organisationen, die digitale 857 Personen mit geringen Englischkenntnissen, Nutzer*innen, die über eine
1191 Publikationen bereitstellen, und ihre Mitarbeiter*innen. Diese 858 langsame Internet-Verbindung verfügen und Menschen mit auditiven, visuellen
1192 Stakeholder-Gruppen müssen in weitere Untergruppen ausdifferenziert 859 oder körperlichen Einschränkungen.
1193 werden, deren Interessen bei der Gestaltung von digitalen
1194 Publikationen und ihren Policies besonderer Berücksichtigung
1195 bedürfen. Zu Stakeholdergruppen mit spezifischen Interessen
1196 gehören beispielsweise Wissenschaftler*innen, die an ressourcenarmen
1197 Institutionen affiliiert sind, aber auch Personen mit geringen
1198 Englischkenntnissen und Nutzer*innen, die über eine langsame
1199 Internetverbindung verfügen sowie Menschen mit auditiven,
1200 visuellen oder körperlichen Einschränkungen.
1201
1202 [77]In einem zweiten Schritt, den empirischen Untersuchungen, muss erhoben
1203 werden, welche Interessen und Werte die verschiedenen
1204 Stakeholder-Gruppen als wichtig bewerten, beispielsweise im Rahmen von
1205 Interviews oder Online-Befragungen. Vor allem in Bezug auf Open Access
1206 ist dabei wahrscheinlich, dass Werte wie Informationsfreiheit und
1207 Informationsgerechtigkeit, die Autor*innen und Leser*innen wichtig sind,
1208 in Konflikt mit den wirtschaftlichen Interessen der Organisationen
1209 stehen, die digitale Publikationen bereitstellen, vor allem wenn diese
1210 in privatwirtschaftlichen Strukturen organisiert sind.[128] Dieser
1211 Interessenskonflikt kann zugunsten der Autor*innen, Leser*innen und
1212 Wissenschaftler*innen, die an ressourcenarmen Institutionen affiliiert
1213 sind, gelöst werden, indem Fachcommunities eigene Publikationsorgane
1214 anbieten, die nicht privatwirtschaftlich, sondern community-basiert
1215 organisiert sind. Ein Beispiel ist die Zeitschrift für
1216 digitale Geisteswissenschaften (ZfdG), die vom Forschungsverbund Marbach Weimar Wolfenbüttel und
1217 dem DHd-Verband (Digital Humanities im
1218 deutschsprachigen Raum) herausgegeben wird: [129] Alle Artikel der
1219 Zeitschrift erscheinen Open Access, ohne dass Autor*innen für die
1220 Veröffentlichung ihrer Texte Gebühren entrichten müssen. [130]
1221 [78]Um darüber hinaus auch die Interessen von Stakeholder-Gruppen wie Personen
1222 mit geringen Englischkenntnissen, Nutzer*innen, die über eine langsame
1223 Internetverbindung verfügen und Menschen mit auditiven, visuellen
1224 oder körperlichen Einschränkungen in das Design von digitalen Publikationen
1225 einzubeziehen, sind weitere empirische und technische Investigationen
1226 nötig, die hier nicht ausgeführt werden können. Deutlich wurde aber,
1227 dass der Value-Sensitive-Design-Ansatz auch in den Public Humanities
1228 dazu beitragen kann die Policies und das technische Design von
1229 digitalen Publikationen und E-Learning-Ressourcen so zu gestalten, dass
1230 Barrieren finanzieller, sprachlicher und physischer Art abgebaut werden,
1231 indem die Interessen und Werte unterschiedlicher Stakeholder
1232 berücksichtigt werden.
1233
1234
1235 6.5 Menschenrechte und Umweltschutz in allen DH-Spielarten
1236 fördern
1237
1238
1239 [79]In den bisherigen Abschnitten wurde gezeigt, wie Value Sensitive Design
1240 in den vier von Roth und Burghardt benannten Spielarten der DH
1241 angewendet werden kann, um Bias und Diskriminierung zu vermeiden.
1242 Abschließend soll hier auf eine Problematik eingegangen werden, die alle
1243 DH-Projekte unabhängig von ihrer Spielart aufwerfen. Noble ruft
1244 Akteur*innen in den DH dazu auf, sich die »materiality of the
1245 digital humanities and its impact in the world«[131] stärker bewusst zu machen. So führt
1246 der Abbau von Mineralien, die für die Herstellung digitaler Technologien
1247 benötigt werden, in Regionen des globalen Südens zu Konflikten und
1248 Ausbeutung, während Nutzer*innen im globalen Norden die Profiteur*innen
1249 dieser Technologien sind. Zudem entstehen sowohl bei der Produktion, als
1250 auch bei der meist unsachgemäßen Entsorgung von Hardware Umweltschäden.
1251 Noble fordert daher: Die DH-Community sollte nicht nur reflektieren, wie
1252 sie zu einer gerechteren Verteilung von IT-Infrastrukturen weltweit
1253 beitragen kann, sondern auch »design against – or outright resist
1254 – the exploitive forms of labor and hazardous environmental
1255 practices in which information and communication technologies are
1256 implicated«[132]. Auch
1257 das Manifest Digital Humanities and the Climate Crisis, das im Sommer
1258 2021 von einem internationalen Zusammenschluss DH-Forschender
1259 veröffentlicht wurde, ruft Akteur*innen in den DH dazu auf, die
1260 ökologischen und sozialen Auswirkungen ihres Handelns zu prüfen.[133]
1261 [80]Auch hier kann Value Sensitive Design als Ausgangspunkt dienen, um Werte
1262 wie Umweltschutz und ökologische Nachhaltigkeit, globale Gerechtigkeit
1263 und Gesundheit beim Design von Projekten und Technologien in den DH
1264 mitzudenken. So können die Personen, die am Herstellungsprozess von
1265 Hardware und IT-Technologien beteiligt sind, genauso als indirekte
1266 Stakeholder eines jeden DH-Projektes begriffen werden wie diejenigen,
1267 die von den Umweltschäden durch unsachgemäße Hardware-Entsorgung
1268 betroffen sind. Wie können die Werte und Interessen dieser Stakeholder
1269 also im Design berücksichtigt werden? Dies gilt es, mit empirischen
1270 Untersuchungen und technischen Investigationen zu erforschen. Hier zwei
1271 Ideen: DH-Projekte könnten sich grundsätzlich zum Ziel setzen, Software
1272 und Infrastrukturen so zu entwickeln, dass sie möglichst wenig
1273 (Hardware-)Ressourcen in Anspruch nehmen, wie es zum Beispiel die 2014
1274 gegründete Arbeitsgruppe Minimal Computing der
1275 Global Outlook DH propagiert.[134] Bei
1276 der Beschaffung von Hardware sollte zudem darauf geachtet werden, dass
1277 diese sozial- und umweltverträglich hergestellt wurde. Orientierung
1278 bieten dabei Label wie TCO Certified für soziale
1279 Kriterien oder der Blaue Engel, das EU-Ecolabel und das Nordic
1280 Ecolabel für ökologische Aspekte.[135] Wie öffentliche
1281 Einrichtungen soziale und ökologische Kriterien in Vergabeverfahren
1282 verankern können, verdeutlichen u. a. die Fachkonferenzen für sozial verantwortliche IT-Beschaffung und
1283 die Nichtregierungsorganisation Electronics Watch
1284 auf ihren Websites.[136] Darüber hinaus könnten Menschenrechts- und
1285 Umweltschutz-Aspekte nicht nur bei der Beschaffung von Hardware, sondern
1286 auch bei der Organisation von Konferenzen und Dienstreisen im Rahmen von
1287 DH-Projekten handlungsleitend sein, beispielsweise indem bei Tagungen
1288 fair gehandelte und ökologisch erzeugte Verpflegung angeboten und auf
1289 Flugreisen so weit wie möglich verzichtet wird.
1290 860
1292 862
1293 7. Zusammenfassung, Limitationen und Ausblick 863 5.5 Menschenrechte und
864 Umweltschutz in allen DH-Spielarten fördern
1294 865
1295 [81]Dieser Beitrag zeigt auf, dass Technologien nicht neutral sind, sondern immer 866 [52]In den bisherigen Abschnitten wurde
1296 bestimmte Werte fördern oder behindern. Zugleich werden in jedem 867 gezeigt, wie Value Sensitive Design in den vier von Roth und Burghardt
1297 Digital-Humanities-Projekt Technologien angewendet oder entwickelt. Um zu 868 benannten Spielarten der DH angewendet werden kann, um Bias und
1298 verhindern, dass diese Technologien Bias reproduzieren oder hervorbringen, 869 Diskriminierung zu vermeiden. Abschließend soll hier auf eine Problematik
1299 schlägt dieser Beitrag die Anwendung von Value Sensitive Design vor: Dieses 870 eingegangen werden, die alle DH-Projekte unabhängig von ihrer Spielart
1300 theoretische und methodische Framework bietet eine dreiteilige 871 aufwerfen. Noble ruft Akteur*innen in den DH dazu auf, sich die »materiality
1301 Vorgehensweise, um die Werte aller betroffenen Stakeholder einer Technologie 872 of the digital humanities and its impact in the world«[80] stärker
1302 im gesamten Design-Prozess zu berücksichtigen. Anhand der vier von Roth und 873 bewusst zu machen. So führt der Abbau von Mineralien, die für die
1303 Burghardt geprägten Spielarten von DH wurden verschiedene Anknüpfungspunkte 874 Herstellung digitaler Technologien benötigt werden, in Regionen des globalen
1304 und Anwendungsbeispiele aufgezeigt, wie Value Sensitive Design in 875 Südens zu Konflikten und Ausbeutung, während Nutzer*innen im globalen Norden
1305 DH-Projekten gewinnbringend eingesetzt werden kann. 876 die Profiteur*innen dieser Technologien sind. Zudem entstehen sowohl bei der
877 Produktion, als auch bei der meist unsachgemäßen Entsorgung von Hardware
878 Umweltschäden. Noble fordert daher: Die DH-Community sollte nicht nur
879 reflektieren, wie sie zu einer gerechteren Verteilung von IT-Infrastrukturen
880 weltweit beitragen kann, sondern auch »design against – or outright resist –
881 the exploitive forms of labor and hazardous environmental practices in which
882 information and communication technologies are implicated«.[81] Auch
883 das Manifest Digital Humanities and the Climate Crisis, das im Sommer
884 2021 von einem internationalen Zusammenschluss DH-Forschender veröffentlicht
885 wurde, ruft Akteur*innen in den DH dazu auf, die ökologischen und sozialen
886 Auswirkungen ihres Handelns zu prüfen.[82]
887 [53]Auch hier kann Value Sensitive
888 Design als Ausgangspunkt dienen, um Menschenrechte und Umweltschutz beim
889 Design von Projekten und Technologien in den DH mitzudenken. So können die
890 Personen, die am Herstellungsprozess von Hardware und IT-Technologien
891 beteiligt sind, genauso als indirekte Stakeholder eines jeden DH-Projektes
892 begriffen werden wie diejenigen, die von den Umweltschäden durch
893 unsachgemäße Hardware-Entsorgung betroffen sind. Wie können die Werte und
894 Interessen dieser Stakeholder also im Design berücksichtigt werden? Dies
895 gilt es, mit empirischen Untersuchungen und technischen Investigationen zu
896 erforschen. Hier zwei Ideen: DH-Projekte könnten sich grundsätzlich zum Ziel
897 setzen, Software und Infrastrukturen so zu entwickeln, dass sie möglichst
898 wenig (Hardware-)Ressourcen in Anspruch nehmen, wie es zum Beispiel die 2014
899 gegründete Arbeitsgruppe Minimal
900 Computing der Global Outlook
901 DH-Initiative propagiert.[83] Bei der Beschaffung von
902 Hardware sollte zudem darauf geachtet werden, dass diese sozial- und
903 umweltverträglich hergestellt wurde. Orientierung bieten dabei Label wie
904 TCO Certified für soziale
905 Kriterien oder der Blaue Engel,
906 das EU-Ecolabel und das Nordic Ecolabel für ökologische
907 Aspekte.[84] Wie
908 öffentliche Einrichtungen soziale und ökologische Kriterien in
909 Vergabeverfahren verankern können, verdeutlichen u. a. die Fachkonferenzen für sozial verantwortliche
910 IT-Beschaffung und die Nichtregierungsorganisation Electronics Watch auf ihren
911 Websites.[85] Darüber hinaus könnten Menschenrechts- und
912 Umweltschutz-Aspekte nicht nur bei der Beschaffung von Hardware, sondern
913 auch bei der Organisation von Konferenzen und Dienstreisen im Rahmen von
914 DH-Projekten handlungsleitend sein, beispielsweise indem bei Tagungen fair
915 gehandelte und ökologisch erzeugte Verpflegung angeboten und auf Flugreisen
916 so weit wie möglich verzichtet wird.
1306 917
1307 [82]Dabei unterliegen sowohl dieser Beitrag, als auch der
1308 Value-Sensitive-Design-Ansatz verschiedenen Limitationen. So können
1309 Technologien, Datensätze und Forschungsprojekte auch Verzerrungen aufweisen,
1310 die keine systematische und unfaire Diskriminierung hervorrufen. Solche
1311 Verzerrungen werden zwar nicht als Bias im Sinne von Nissenbaum und Friedman
1312 verstanden,[137]
1313 sind aber trotzdem problematisch, da sie zu verzerrten Forschungsergebnissen
1314 führen. Um diese Art von Bias zu verhindern, ist Value Sensitive Design
1315 weniger geeignet; mögliche Strategien zur Vermeidung solcher Verzerrungen
1316 sind vielmehr Methodenvielfalt, Triangulation und unterschiedliche
1317 experimentelle Settings.
1318 918
1319 [83]Darüber hinaus ließen sich sicherlich noch weitere Aspekte und Beispiele
1320 finden, wie Value Sensitive Design in DH-Projekten genutzt werden kann.
1321 Gleichermaßen gibt es wie in Kapitel 4 beschrieben neben Value Sensitive Design weitere Methoden und
1322 Frameworks, die die ethische Gestaltung von Projekten und Technologien
1323 unterstützen, wie Embedded Ethics oder
1324 Partizipatives Design. In beiden Ansätzen hängt die ethische
1325 Bewertung und Gestaltung aber stärker von wenigen,
1326 ausgewählten Akteur*innen ab: im Falle von Embedded Ethics von den Werten
1327 und Perspektiven der Ethiker*innen im jeweiligen Projekt; bei Partizipativem
1328 Design von den Werten und Perspektiven ausgewählter Nutzer*innen. Aus meiner
1329 Sicht hat Value Sensitive Design demgegenüber den entscheidenden Vorteil,
1330 die Perspektiven, Werte und Ziele verschiedener direkt und indirekt
1331 beteiligter Akteur*innen einzubeziehen und diese systematisch zu
1332 analysieren. Dieser Beitrag erhebt aber keinerlei Anspruch auf
1333 Vollständigkeit möglicher ethischer Ansätze, sondern zeigt Ideen und
1334 Anregungen auf, wie DH-Projekte in der Praxis ethisch überprüft
1335 und wertebasiert gestaltet werden können. Eine Diskussion und Ergänzung der
1336 hier vorgestellten Aspekte sind daher wünschenswert.
1337 919
1338 [84]Um ein DH-Projekt auf Basis von Value Sensitive Design zu gestalten, sind je 920 6. Zusammenfassung, Limitationen und
1339 nach Projekt und Kontext zusätzliche zeitliche, finanzielle und personelle 921 Ausblick
1340 Ressourcen notwendig. Diese müssen bei der Planung von Projekten und der
1341 Beantragung von Mitteln eingeplant werden. Darüber hinaus muss entweder
1342 innerhalb des Projektes oder an zentraler Stelle Expertise zur theoretischen
1343 und praktischen Umsetzung von Value Sensitive Design vorhanden sein. Drei
1344 Ideen, um dies für jedes DH-Projekt zu gewährleisten: In den Curricula von
1345 DH-Studiengängen könnten Technik- und Informationsethik sowie konkrete
1346 methodische Ansätze wie Value Sensitive Design verpflichtend verankert
1347 werden, sodass möglichst viele zukünftige Akteur*innen in den DH die
1348 Grundlagen wertebasierten Projekt- und Technologie-Designs kennen. Auch die
1349 Idee der Data Stewards, also von Expert*innen, die
1350 Forschende beim Management von Forschungsdaten unterstützen,[138] kann als Anregung
1351 dienen: So sind parallel dazu Value Stewards oder
1352 Ethic Stewards denkbar, die DH-Forschende bei der
1353 ethischen Überprüfung und wertebasierten Gestaltung ihrer
1354 Projekte und Technologien beraten. Ähnlich wie in den Bereichen
1355 Forschungsdatenmanagement oder Open Access könnten auch
1356 Forschungsförderinstitutionen eine entscheidende Rolle einnehmen:
1357 In ihren Förderrichtlinien könnten sie von Forscher*innen fordern,
1358 eine Strategie zu entwickeln, um ihr Projekt ethisch zu reflektieren
1359 und zu gestalten – und diese Strategie bereits in ihrem Förderantrag zu skizzieren.
1360 922
1361 [85]Darüber hinaus ist es auch mithilfe von Value Sensitive Design nicht möglich, 923 [54]Dieser Beitrag zeigt auf, dass
1362 Bias vollständig auszuschließen. Wie genau eine 924 Technologien nicht neutral sind, sondern immer bestimmte Werte fördern oder
1363 Value-Sensitive-Design-Analyse durchgeführt wird, welche Stakeholder 925 behindern. Zugleich werden in jedem Digital-Humanities-Projekt Technologien
1364 einbezogen, welche empirischen Erhebungen durchgeführt und wie darauf 926 angewendet oder entwickelt. Um zu verhindern, dass diese Technologien Bias
1365 aufbauend das technische Design und Policies konkret umgesetzt werden, 927 reproduzieren oder hervorbringen, schlägt dieser Beitrag die Anwendung von Value
1366 unterscheidet sich mit großer Wahrscheinlichkeit von Forscher*in zu 928 Sensitive Design vor: Dieses theoretische und methodische Framework bietet eine
1367 Forscher*in: Eigene Werte, Erfahrungen und Interessen fließen immer bewusst 929 dreiteilige Vorgehensweise, um die Werte aller betroffenen Stakeholder einer
1368 oder unbewusst in die Anwendung des Value-Sensitive-Design-Frameworks ein. 930 Technologie im gesamten Design-Prozess zu berücksichtigen. Anhand der vier von
1369 Dies ist nicht nur unvermeidlich, sondern auch in Ordnung: Friedman und 931 Roth und Burghardt geprägten Spielarten von DH wurden verschiedene
1370 Hendry resümieren, »we need not require perfection, but commitment to 932 Anknüpfungspunkte und Anwendungsbeispiele aufgezeigt, wie Value Sensitive Design
1371 practice – and through practice, progress«.[139] Value Sensitive Design garantiert also 933 in DH-Projekten gewinnbringend eingesetzt werden kann.
1372 keine ›ethisch perfekten‹ Technologien – aber das Framework bietet 934 [55]Dabei unterliegen sowohl dieser
1373 Unterstützung dabei, Bias so gut wie möglich zu vermeiden und die 935 Beitrag, als auch der Value-Sensitive-Design-Ansatz verschiedenen Limitationen.
1374 Auswirkungen von Technologien auf die Gesellschaft zu bedenken, offenzulegen 936 So können Technologien, Datensätze und Forschungsprojekte auch Verzerrungen
1375 und zu diskutieren. Zudem ermöglicht Value Sensitive Design, Technologien 937 aufweisen, die keine systematische und unfaire Diskriminierung hervorrufen.
1376 nicht nur nach klassischen Kriterien wie Effektivität oder Robustheit zu 938 Solche Verzerrungen werden zwar nicht als Bias im Sinne von Nissenbaum und
1377 bewerten – sondern auch nach den Werten, die sie fördern. Das ist ein guter 939 Friedman verstanden,[86] sind aber trotzdem
1378 Start, um Technologien und Projekte so zu gestalten, dass sie nicht nur die 940 problematisch, da sie zu verzerrten Forschungsergebnissen führen. Um diese Art
1379 Digital Humanities, sondern auch die Welt ein wenig besser machen. 941 von Bias zu verhindern, ist Value Sensitive Design weniger geeignet; mögliche
942 Strategien zur Vermeidung solcher Verzerrungen sind vielmehr Methodenvielfalt,
943 Triangulation und unterschiedliche experimentelle Settings.
944 [56]Darüber hinaus ließen sich sicherlich
945 noch weitere Aspekte und Beispiele finden, wie Value Sensitive Design in
946 DH-Projekten genutzt werden kann. Gleichermaßen gibt es neben Value Sensitive
947 Design weitere Methoden und Frameworks, die die ethische Gestaltung von
948 Projekten und Technologien unterstützen, beispielsweise Embedded Ethics oder Partizipatives Design.[87] Kern des Embedded-Ethics-Ansatzes ist es, eine oder mehrere
949 Ethiker*innen an allen Entscheidungen im gesamten Verlauf eines Projektes zu
950 beteiligen.[88] Das Konzept des Partizipativen
951 Designs legt hingegen den Fokus darauf, potentielle Nutzer*innen in den
952 Design-Prozess einzubinden.[89] Damit hängt die ethische Bewertung und Gestaltung in beiden
953 Ansätzen stärker von wenigen, ausgewählten Akteur*innen ab: im Falle von
954 Embedded Ethics von den Werten und Perspektiven der Ethiker*innen im jeweiligen
955 Projekt; bei Partizipativem Design von den Werten und Perspektiven ausgewählter
956 Nutzer*innen. Aus meiner Sicht hat Value Sensitive Design demgegenüber den
957 entscheidenden Vorteil, die Perspektiven, Werte und Ziele verschiedener direkt
958 und indirekt beteiligter Akteur*innen einzubeziehen und diese systematisch zu
959 analysieren. Dieser Beitrag erhebt aber keinerlei Anspruch auf Vollständigkeit
960 möglicher ethischer Ansätze, sondern zeigt Ideen und Anregungen auf, wie
961 DH-Projekte in der Praxis informationsethisch überprüft und wertebasiert
962 gestaltet werden können. Eine Diskussion und Ergänzung der hier vorgestellten
963 Aspekte sind daher wünschenswert.
964 [57]Um ein DH-Projekt auf Basis von Value
965 Sensitive Design zu gestalten, sind je nach Projekt und Kontext zusätzliche
966 zeitliche, finanzielle und personelle Ressourcen notwendig. Diese müssen bei der
967 Planung von Projekten und der Beantragung von Mitteln eingeplant werden. Darüber
968 hinaus muss entweder innerhalb des Projektes oder an zentraler Stelle Expertise
969 zur theoretischen und praktischen Umsetzung von Value Sensitive Design vorhanden
970 sein. Zwei Ideen, um dies für jedes DH-Projekt zu gewährleisten: In den
971 Curricula von DH-Studiengängen könnten Technik- und Informationsethik sowie
972 konkrete methodische Ansätze wie Value Sensitive Design verpflichtend verankert
973 werden, sodass möglichst viele zukünftige Akteur*innen in den DH die Grundlagen
974 wertebasierten Projekt- und Technologie-Designs kennen. Auch die Idee der Data Stewards, also von Expert*innen,
975 die Forschende beim Management von Forschungsdaten unterstützen,[90] kann als
976 Anregung dienen: So sind parallel dazu Value
977 Stewards oder Ethic
978 Stewards denkbar, die DH-Forschende bei der
979 informationsethischen Überprüfung und wertebasierten Gestaltung ihrer Projekte
980 und Technologien beraten.
981 [58]Darüber hinaus ist es auch mithilfe von
982 Value Sensitive Design nicht möglich, Bias vollständig auszuschließen. Wie genau
983 eine Value-Sensitive-Design-Analyse durchgeführt wird, welche Stakeholder
984 einbezogen, welche empirischen Erhebungen durchgeführt und wie darauf aufbauend
985 das technische Design und Policies konkret umgesetzt werden, unterscheidet sich
986 mit großer Wahrscheinlichkeit von Forscher*in zu Forscher*in: Eigene Werte,
987 Erfahrungen und Interessen fließen immer bewusst oder unbewusst in die Anwendung
988 des Value-Sensitive-Design-Frameworks ein. Dies ist nicht nur unvermeidlich,
989 sondern auch in Ordnung: Friedman und Hendry resümieren, »we need not require
990 perfection, but commitment to practice – and through practice, progress«.[91] Value Sensitive Design
991 garantiert also keine ›ethisch perfekten‹ Technologien – aber das Framework
992 bietet Unterstützung dabei, Bias so gut wie möglich zu vermeiden und die
993 Auswirkungen von Technologien auf die Gesellschaft zu bedenken, offenzulegen und
994 zu diskutieren. Zudem ermöglicht Value Sensitive Design, Technologien nicht nur
995 nach klassischen Kriterien wie Effektivität oder Robustheit zu bewerten –
996 sondern auch nach den Werten, die sie fördern. Das ist ein guter Start, um
997 Technologien und Projekte so zu gestalten, dass sie nicht nur die Digital
998 Humanities, sondern auch die Welt ein wenig besser machen.
999
1380 1000
1388 [1] 1008 [1]
1009 Vgl. Gierlinger 2020; Kretschmar 2020.
1389 1010
1390 Vgl.
1391 Gierlinger 2020; Kretschmar 2020.
1392 1011
1394 [2] 1013 [2]
1014 Vgl. Holland 2018.
1395 1015
1396 Vgl. Holland
1397 2018.
1398 1016
1400 [3] 1018 [3]
1019 Vgl. Holland 2021.
1401 1020
1402
1403 Vgl. Holland
1404 2021.
1405 1021
1407 [4] 1023 [4]
1024 Friedman / Nissenbaum 1996, S. 332; Hervorhebungen im
1025 Original.
1408 1026
1409 Friedman /
1410 Nissenbaum 1996, S. 332; Hervorhebungen im Original.
1411 1027
1413 [5] 1029 [5]
1030 Die Erkenntnis, dass Technologien nicht neutral,
1031 sondern von ihren gesellschaftlichen Rahmenbedingungen geprägt sind, ist
1032 dabei nicht neu. Bereits in den 1990er-Jahren thematisierten
1033 verschiedene techniksoziologische Ansätze, dass soziale, politische,
1034 technische und ökonomische Faktoren die Gestaltung von Technologien
1035 maßgeblich beeinflussen, u. a. Social Construction of Technology (SCOT)
1036 und Social Shaping of Technology (SST; vgl. Häußling 2019, S. 198–206).
1414 1037
1415 Die Erkenntnis, dass Technologien
1416 nicht neutral, sondern von ihren gesellschaftlichen Rahmenbedingungen
1417 geprägt sind, ist dabei nicht neu. Bereits in den 1990er-Jahren
1418 thematisierten verschiedene techniksoziologische Ansätze, dass soziale,
1419 politische, technische und ökonomische Faktoren die Gestaltung von
1420 Technologien maßgeblich beeinflussen, u. a. Social Construction of
1421 Technology (SCOT) und Social Shaping of Technology (SST; vgl. Häußling 2019, S. 198–206).
1422 1038
1424 [6] 1040 [6]
1041 Vgl. Roth 2019.
1425 1042
1426 Vgl. Roth
1427 2019.
1428 1043
1430 [7] 1045 [7]
1431
1432 Vgl. Burghardt 2020. 1046 Vgl. Burghardt 2020.
1434 1048
1049
1435 [8] 1050 [8]
1051 Vgl. Rojas Castro 2020; Noble 2019. Warum spielen ethische Aspekte in DH-Projekten
1052 bislang kaum eine Rolle? Noble schreibt in Bezug auf die Reproduktion
1053 kolonialer Machtverhältnisse in den Digital Humanities, dass sich die DH
1054 als »neutral« und damit »noncolonial«verstehen – dies aber nicht sind
1055 (Noble 2019, S. 28f.). Ein Grund könnte also sein, dass die
1056 ethische Bedeutung und Auswirkung von DH-Projekten den Forschenden nicht
1057 oder kaum bewusst sind. Zudem beschreibt Noble eine Art Teufelskreis:
1058 Weil sich die DH nicht eindeutig gegen rassistische und sexistische
1059 Gewalt positionieren, verlassen Frauen und Schwarze Menschen das
1060 Forschungsfeld (Noble 2019, S. 29f.). Dies könnte wiederum zur Folge haben,
1061 dass ethische Aspekte im Kontext von Rassismus und Sexismus noch weniger
1062 Beachtung finden. Eine umfassende Untersuchung der Gründe, aus denen
1063 ethische Aspekte in DH-Projekten kaum eine Rolle spielen, steht jedoch
1064 noch aus.
1436 1065
1437 Vgl. Rojas Castro 2020;
1438 Noble 2019. Warum spielen ethische
1439 Aspekte in DH-Projekten bislang kaum eine Rolle? Dazu gibt es nach Kenntnis der Autorin
1440 keine
1441 umfassende Untersuchung. Daher kann hier nur ein Erklärungsansatz angeboten werden,
1442 der
1443 sich auf einzelne ethische Aspekte in den DH bezieht: Noble schreibt in Bezug
1444 auf die Reproduktion kolonialer Machtverhältnisse in den Digital
1445 Humanities, dass sich die DH als »neutral« und damit
1446 »noncolonial«verstehen – dies aber nicht sind (Noble 2019, S. 28f.). Ein Grund könnte
1447 also sein, dass die ethische Bedeutung und Auswirkung von DH-Projekten
1448 den Forschenden nicht oder kaum bewusst sind. Zudem beschreibt Noble
1449 eine Art Teufelskreis: Weil sich die DH nicht eindeutig gegen
1450 rassistische und sexistische Gewalt positionieren, verlassen Frauen und
1451 Schwarze Menschen das Forschungsfeld (Noble 2019, S. 29f.). Dies könnte wiederum zur Folge haben,
1452 dass ethische Aspekte im Kontext von Rassismus und Sexismus noch weniger
1453 Beachtung finden.
1454 1066
1456 [9] 1068 [9]
1069 Vgl. Deutsche Forschungsgemeinschaft (Hg.) 2019, Leitlinie 10.
1457 1070
1458 Vgl.
1459 Deutsche Forschungsgemeinschaft (Hg.) 2019,
1460 Leitlinie 10.
1461 1071
1463 [10] 1073 [10]
1074 Für eine ausführliche Zusammenstellung bisheriger
1075 Anwendungsbeispiele vgl. Friedman / Hendry 2019 und Winkler / Spiekermann 2018.
1464 1076
1465 Für eine ausführliche
1466 Zusammenstellung bisheriger Anwendungsbeispiele vgl.
1467 Friedman / Hendry 2019 und Winkler / Spiekermann 2018.
1468 1077
1470 [11] 1079 [11]
1080 Vgl. Friedmann / Nissenbaum 1996.
1471 1081
1472 Vgl. Friedmann / 1082
1473 Nissenbaum 1996.
1474 1083
1475 [12] 1084 [12]
1476
1477 Vgl. Wachter-Boettcher 2017, S. 6. 1085 Vgl. Wachter-Boettcher 2017, S. 6.
1479 1087
1088
1480 [13] 1089 [13]
1090 Vgl. Holland 2018.
1481 1091
1482 Vgl. Holland
1483 2018.
1484 1092
1486 [14] 1094 [14]
1095 Friedman / Nissenbaum 1996, S. 334.
1487 1096
1488 Friedman /
1489 Nissenbaum 1996, S. 334.
1490 1097
1492 [15] 1099 [15]
1100 Friedman / Nissenbaum 1996, S. 334.
1493 1101
1494 Friedman /
1495 Nissenbaum 1996, S. 334.
1496 1102
1498 [16] 1104 [16]
1499
1500 Vgl. Wachter-Boettcher 2018, S. 119–129. 1105 Vgl. Wachter-Boettcher 2018, S. 119–129.
1502 1107
1108
1503 [17] 1109 [17]
1110 Friedman / Nissenbaum 1996, S. 335.
1504 1111
1505 Friedman /
1506 Nissenbaum 1996, S. 335.
1507 1112
1509 [18] 1114 [18]
1115 Vgl. Friedman / Nissenbaum 1996, S. 335.
1510 1116
1511 Vgl. Friedman /
1512 Nissenbaum 1996, S. 335.
1513 1117
1515 [19] 1119 [19]
1120 Friedman / Hendry 2019, S. 19.
1516 1121
1517 Friedman / Hendry
1518 2019, S. 19.
1519 1122
1521 [20] 1124 [20]
1125 Friedman / Hendry 2019, S. 20.
1522 1126
1523 Friedman / Hendry
1524 2019, S. 20.
1525 1127
1527 [21] 1129 [21]
1130 Vgl. Friedman / Hendry 2019, S. 19f.
1528 1131
1529 Vgl. Friedman / Hendry
1530 2019, S. 19f.
1531 1132
1533 [22] 1134 [22]
1135 Vgl. Roth 2019; Burghardt 2020. Die Spielarten von Roth und Burghardt werden in
1136 diesem Beitrag als Grundlage gewählt, da sie u. a. auf Basis einer
1137 empirischen Untersuchung von Zeitschriftenartikeln und
1138 Konferenzbeiträgen einen aktuelleren Überblick über die verschiedenen
1139 Teilbereiche der DH-Forschung geben als Standardwerke wie Jannidis et al. (Hg.) 2017 oder Schreibman et al. (Hg.) 2015.
1534 1140
1535 Vgl. Roth 2019;
1536 Burghardt 2020. Die Spielarten von Roth und Burghardt werden in diesem
1537 Beitrag als Grundlage gewählt, da sie u. a. auf Basis einer empirischen
1538 Untersuchung von Zeitschriftenartikeln und Konferenzbeiträgen einen
1539 aktuelleren Überblick über die verschiedenen Teilbereiche der
1540 DH-Forschung geben als Standardwerke wie Jannidis et al. (Hg.)
1541 2017 oder Schreibman et al. (Hg.)
1542 2015.
1543 1141
1545 [23] 1143 [23]
1144 Roth 2019, S. 616.
1546 1145
1547 Roth 2019,
1548 S. 616.
1549 1146
1551 [24] 1148 [24]
1149 Roth 2019, S. 616.
1552 1150
1553 Roth 2019,
1554 S. 616.
1555 1151
1557 [25] 1153 [25]
1154 Roth 2019, S. 618.
1558 1155
1559 Roth 2019,
1560 S. 618.
1561 1156
1563 [26] 1158 [26]
1159 Roth 2019, S. 618.
1564 1160
1565 Roth 2019,
1566 S. 618.
1567 1161
1569 [27] 1163 [27]
1570
1571 Vgl. Roth 2019, S. 623–625. 1164 Vgl. Roth 2019, S. 623–625.
1573 1166
1167
1574 [28] 1168 [28]
1169 Vgl. Burghardt
1170 2020.
1575 1171
1576 Vgl. Burghardt 2020.
1577 1172
1579 [29] 1174 [29]
1175 Vgl. Friedman 1996.
1580 1176
1581 An dieser Stelle herzlichen Dank an Frauke Schade,
1582 die als eine der Reviewerinnen dieses Textes ein Kapitel zu Informationsethik angeregt
1583 hat.
1584 1177
1586 [30] 1179 [30]
1180 Friedman / Hendry 2019, S. 2.
1587 1181
1588 Rösch 2021, S. 3.
1589 1182
1591 [31] 1184 [31]
1185 Friedman et al. 2008, S. 69.
1592 1186
1593 Vgl. Rösch 2021, S. 33.
1594 1187
1596 [32] 1189 [32]
1190 Vgl. Friedman / Hendry 2019, S. 35–44.
1597 1191
1598 Vgl.
1599 Burgess et al. 2019, S. 3.
1600 1192
1602 [33] 1194 [33]
1195 Friedman et al. 2008, S. 70.
1603 1196
1604
1605 Heesen 2016, S. 2.
1606 1197
1608 [34] 1199 [34]
1200 Vgl. Friedman et al. 2008, S. 72.
1609 1201
1610 Vgl. Rösch 2021, S. 58.
1611 1202
1613 [35] 1204 [35]
1205 Vgl. Friedman / Hendry 2019, S. 22–29.
1614 1206
1615 Vgl. Rösch 2021, S. 55.
1616 1207
1618 [36] 1209 [36]
1210 Vgl. Friedman et al. 2008, S. 73.
1619 1211
1620 Grunwald / Hillerbrand 2021, S. 5.
1621 1212
1623 [37] 1214 [37]
1215 Friedman / Hendry 2019, S. 20.
1624 1216
1625 Grunwald / Hillerbrand 2021, S. 5.
1626 1217
1628 [38] 1219 [38]
1220 Winkler / Spiekermann 2018, S. 3.
1629 1221
1630 Vgl. van de Poel 2021, S. 129.
1631 1222
1633 [39] 1224 [39]
1225 Friedman et al. 2008, S. 75–80.
1634 1226
1635 Vgl. Ernst 2021, S. 110.
1636 1227
1638 [40] 1229 [40]
1230 Friedman et al. beziehen sich hier auf Ulrich 1984 und Ulrich 1993 sowie auf Kahn 1999.
1639 1231
1640 Eine
1641 Übersicht über Ansätze, die Werte beim Design von Technologien einbeziehen, findet
1642 sich z. B. bei Simon 2016
1643 und bei Friedman / Hendry 2019, S.15f.
1644 1232
1646 [41] 1234 [41]
1235 Vgl. Friedman et al. 2008, S. 75–80.
1647 1236
1648 Vgl. MacLennan et al. 2020.
1649 1237
1651 [42] 1239 [42]
1240 Vgl. Friedman et al. 2008, S. 75–80.
1652 1241
1653 Vgl. Simonsen / Robertson (Hg.) 2013.
1654 1242
1656 [43] 1244 [43]
1245 Vgl. Friedman et al. 2008, S. 75–80.
1657 1246
1658 Vgl. Grunwald / Hillerbrand 2021, S. 469.
1659 1247
1661 [44] 1249 [44]
1250 Vgl. Friedman et al. 2008, S. 75–80.
1662 1251
1663 Vgl. Friedman
1664 1996.
1665 1252
1667 [45] 1254 [45]
1255 Eine ausführliche Zusammenstellung bisheriger
1256 Anwendungsbeispiele vgl. Friedman / Hendry 2019 und Winkler / Spiekermann 2018.
1668 1257
1669
1670 So wird der Ansatz sowohl in Handbüchern für Technikethik (Vgl. z. B. Grunwald / Hillerbrand 2021),
1671 als auch in Handbüchern für Informationsethik vorgestellt (Vgl. z. B.
1672 Heesen 2016).
1673 1258
1675 [46] 1260 [46]
1261 Vgl. Roth 2019, S. 616.
1676 1262
1677 Vgl.
1678 Friedman et al.
1679 2008, S. 69f.
1680 1263
1682 [47] 1265 [47]
1266 Simon 2016, S. 363.
1683 1267
1684 Friedman et al.
1685 2008, S. 70.
1686 1268
1688 [48] 1270 [48]
1271 Zu den direkten Stakeholder gehören dabei diejenigen,
1272 die Digitale Archive und Infrastrukturen erstellen und nutzen. Indirekte
1273 Stakeholder sind hingegen diejenigen, die in den Digitalen Archive und
1274 Infrastrukturen abgebildet oder repräsentiert werden (wollen).
1689 1275
1690 Vgl.
1691 Friedman et al.
1692 2008, S. 69.
1693 1276
1695 [49] 1278 [49]
1279 Vgl. NINES (Hg.) 2021.
1696 1280
1697 Rösch 2021, S. 14.
1698 1281
1700 [50] 1283 [50]
1284 Risam 2019, S. 51.
1701 1285
1702 Für eine ausführliche Zusammenstellung bisheriger
1703 Anwendungsbeispiele vgl. Friedman / Hendry
1704 2019 und Winkler /
1705 Spiekermann 2018.
1706 1286
1708 [51] 1288 [51]
1289 Vgl. NINES (Hg.) 2021.
1709 1290
1710 Vgl. Friedman / Hendry 2019,
1711 S. 35–44.
1712 1291
1714 [52] 1293 [52]
1294 Risam 2019, S. 51.
1715 1295
1716 Friedman et
1717 al. 2008, S. 70.
1718 1296
1720 [53] 1298 [53]
1299 Risam 2019, S. 51.
1721 1300
1722 Vgl. Friedman et
1723 al. 2008, S. 72.
1724 1301
1726 [54] 1303 [54]
1304 Vgl. Friedman / Henry 2019, S. 42.
1727 1305
1728 Vgl. Friedman / Hendry 2019, S. 22-29.
1729 1306
1731 [55] 1308 [55]
1309 Buettner 2020, Hervorhebung im Original.
1732 1310
1733 Alle Friedman / Hendry 2019, S. 28.
1734 1311
1736 [56] 1313 [56]
1314 Buettner 2020.
1737 1315
1738 Friedman / Hendry 2019, S. 28.
1739 1316
1741 [57] 1318 [57]
1319 Buettner 2021.
1742 1320
1743
1744 Vgl. Friedman et
1745 al. 2008, S. 90f.
1746 1321
1748 [58] 1323 [58]
1324 Rojas Castro 2020.
1749 1325
1750
1751 Vgl. Friedman et
1752 al. 2008, S. 72.
1753 1326
1755 [59] 1328 [59]
1329 Umbrello / van de Poel 2021, S. 4.
1756 1330
1757
1758 Vgl. Vereinte Nationen Generalversammlung 2014,
1759 S. 8.
1760 1331
1762 [60] 1333 [60]
1334 Umbrello / van de Poel 2021, S. 4.
1763 1335
1764 Vgl. Friedman et
1765 al. 2008, S. 73.
1766 1336
1768 [61] 1338 [61]
1339 Umbrello / van de Poel 2021, S. 2.
1769 1340
1770 Friedman /
1771 Hendry 2019, S. 20.
1772 1341
1774 [62] 1343 [62]
1344 Umbrello / van de Poel 2021, S. 5.
1775 1345
1776 Winkler /
1777 Spiekermann 2018, S. 3.
1778 1346
1780 [63] 1348 [63]
1349 Vgl. Umbrello / van de Poel 2021, S. 4–6.
1781 1350
1782 Friedman et
1783 al. 2008, S. 75–80.
1784 1351
1786 [64] 1353 [64]
1354 Umbrello / van de Poel 2021, S. 6.
1787 1355
1788 Friedman et al. beziehen
1789 sich hier auf Ulrich 1984 und Ulrich 1993 sowie auf Kahn 1999.
1790 1356
1792 [65] 1358 [65]
1359 Vgl. Beisheim 2015.
1793 1360
1794 Vgl. Friedman et
1795 al. 2008, S. 75–80.
1796 1361
1798 [66] 1363 [66]
1364 Vgl. Umbrello / van de Poel 2021, S. 6f.
1799 1365
1800 Vgl. Friedman et
1801 al. 2008, S. 75–80.
1802 1366
1804 [67] 1368 [67]
1369 Vgl. Umbrello / van de Poel 2021, S. 6.
1805 1370
1806 Vgl. Friedman et
1807 al. 2008, S. 75–80.
1808 1371
1810 [68] 1373 [68]
1374 Roth 2019, S. 623.
1811 1375
1812 Vgl. Friedman et
1813 al. 2008, S. 75–80.
1814 1376
1816 [69] 1378 [69]
1379 Vgl. Denelezh (Hg.) 2020.
1817 1380
1818 Miller et al. 2007
1819 , S. 282.
1820 1381
1822 [70] 1383 [70]
1384 Samoilenko 2017.
1823 1385
1824 Vgl. Miller et al. 2007
1825 , S. 281f.
1826 1386
1829 1389
1830 Vgl. Miller et al. 2007 1390 Samoilenko 2017
1831 , S. 283f. 1391
1392
1832 1393
1834 [72] 1395 [72]
1396 West 2017, S. 31.
1835 1397
1836 Miller et al. 2007
1837 , S. 284.
1838 1398
1840 [73] 1400 [73]
1401 Vgl. W3C Web Accessibility Initiative, Henry 2021.
1841 1402
1842 Vgl. Miller et al. 2007
1843 , S. 284.
1844 1403
1846 [74] 1405 [74]
1406 Vgl. W3C Web Accessibility Initiative, Henry 2019.
1847 1407
1848 Vgl. Miller et al. 2007
1849 , S. 284.
1850 1408
1852 [75] 1410 [75]
1411 Vgl. W3C Web Accessibility Initiative, White 2020.
1853 1412
1854 Vgl. Miller et al. 2007
1855 , S. 290.
1856 1413
1858 [76] 1415 [76]
1416 The Programming Historian (Hg.) 2008-2021.
1859 1417
1860 Vgl. Miller et al. 2007
1861 , S. 284.
1862 1418
1864 [77] 1420 [77]
1421 Rojas Castro 2020.
1865 1422
1866 Miller et al. 2007
1867 , S. 284.
1868 1423
1870 [78] 1425 [78]
1426 Vgl. Directory of Open Access Journals (Hg.) 2021.
1871 1427
1872 Vgl. Miller et al. 2007
1873 , S. 284f.
1874 1428
1876 [79] 1430 [79]
1431 Vgl. Frick / Kaier 2020.
1877 1432
1878 Vgl. Miller et al. 2007
1879 , S. 285.
1880 1433
1882 [80] 1435 [80]
1436 Noble 2019, S. 32.
1883 1437
1884 Miller et al. 2007
1885 , S. 286.
1886 1438
1888 [81] 1440 [81]
1441 Noble 2019, S. 30.
1889 1442
1890 Vgl. Miller et al. 2007
1891 , S. 285f.
1892 1443
1894 [82] 1445 [82]
1446 Baillot 2021.
1895 1447
1896 Vgl. Roth
1897 2019, S. 616.
1898 1448
1900 [83] 1450 [83]
1451 Vgl. Minimal Computing (Hg.).
1901 1452
1902 Simon
1903 2016, S. 363.
1904 1453
1906 [84] 1455 [84]
1456 Vgl. Rat für Nachhaltige Entwicklung (Hg.) 2019.
1907 1457
1908 Vgl.
1909 Vereinte Nationen Generalversammlung 2014
1910 , S. 8.
1911 1458
1913 [85] 1460 [85]
1461 Vgl. Electronics Watch (Hg.) [2020]; Konferenzen für sozial verantwortliche IT-Beschaffung (Hg.)
1462 2020.
1914 1463
1915 Zu den direkten Stakeholder gehören
1916 dabei diejenigen, die digitale Archive und Infrastrukturen erstellen
1917 und nutzen. Indirekte Stakeholder sind hingegen diejenigen, die in
1918 den digitalen Archive und Infrastrukturen abgebildet oder
1919 repräsentiert werden (wollen).
1920 1464
1922 [86] 1466 [86]
1923 1467 Vgl. Friedman / Nissenbaum 1996, S. 332.
1924 Herzlichen Dank an Swantje Dogunke,
1925 eine der Reviewerin dieses Aufsatzes, für diesen wichtigen Hinweis.
1926 1468
1929 [87] 1471 [87]
1472 Eine Übersicht über Ansätze, die Werte beim Design
1473 von Technologien einbeziehen, findet sich z. B. bei Simon 2016 und bei Friedman / Hendry 2019, S.15f.
1930 1474
1931 Buettner 2020, Hervorhebung im Original.
1932 1475
1934 [88] 1477 [88]
1478 MacLennan et al. 2020.
1935 1479
1936 Buettner 2020.
1937 1480
1939 [89] 1482 [89]
1483 Vgl. Routledge international handbook of
1484 participatory design, Simonsen / Robertson (Hg.) 2013.
1940 1485
1941 Buettner
1942 2021.
1943 1486
1945 [90] 1488 [90]
1489 Vgl. Fdm:nrw (Hg.) 2020.
1946 1490
1947 Vgl.
1948 NINES
1949 (Hg.) 2021.
1950 1491
1952 [91] 1493 [91]
1953 1494 Friedman / Hendry 2019, S. 180.
1954 Risam 2019, S. 51.
1955
1956
1957 [92]
1958
1959 Vgl. NINES (Hg.)
1960 2021.
1961
1962
1963 [93]
1964
1965 Risam
1966 2019, S. 51.
1967
1968
1969 [94]
1970
1971 Risam
1972 2019, S. 51.
1973
1974
1975 [95]
1976
1977 Rojas Castro
1978 2020.
1979
1980
1981 [96]
1982
1983 Umbrello /
1984 van de Poel 2021, S. 4.
1985
1986
1987 [97]
1988
1989 Umbrello /
1990 van de Poel 2021, S. 4.
1991
1992
1993 [98]
1994
1995 Umbrello /
1996 van de Poel 2021, S. 2.
1997
1998
1999 [99]
2000
2001 Umbrello
2002 / van de Poel 2021, S. 5.
2003
2004
2005 [100]
2006
2007 Vgl. Umbrello /
2008 van de Poel 2021, S. 4–6.
2009
2010
2011 [101]
2012
2013 Umbrello /
2014 van de Poel 2021, S. 6.
2015
2016
2017 [102]
2018
2019 Vgl.
2020 Beisheim 2015.
2021
2022
2023 [103]
2024
2025 Vgl.
2026 Umbrello / van de Poel 2021, S. 6f.
2027
2028
2029 [104]
2030
2031 Vgl. Umbrello / van
2032 de Poel 2021, S. 6.
2033
2034
2035 [105]
2036
2037 Umbrello / van
2038 de Poel 2021, S. 9.
2039
2040
2041 [106]
2042
2043 Umbrello / van
2044 de Poel 2021, S. 10.
2045
2046
2047 [107]
2048
2049 Umbrello / van
2050 de Poel 2021, S. 9.
2051
2052
2053 [108]
2054
2055 Vgl. Umbrello / van
2056 de Poel 2021, S. 8-10.
2057
2058
2059 [109]
2060
2061 Umbrello / van
2062 de Poel 2021, S. 10.
2063
2064
2065 [110]
2066
2067 Vgl. Umbrello / van
2068 de Poel 2021, S. 10-11.
2069
2070
2071 [111]
2072
2073 Vgl. Umbrello / van
2074 de Poel 2021, S. 12.
2075
2076
2077 [112]
2078
2079 Vgl. Umbrello / van
2080 de Poel 2021, S. 6.
2081
2082
2083 [113]
2084
2085 Roth
2086 2019, S. 623.
2087
2088
2089 [114]
2090
2091 Vgl.
2092 Denelezh (Hg.) 2020.
2093
2094
2095 [115]
2096
2097 Samoilenko
2098 2017.
2099
2100
2101 [116]
2102
2103 Samoilenko 2017
2104
2105 [117]
2106
2107 West
2108 2017, S. 31.
2109
2110
2111 [118]
2112
2113 Vgl. Greb
2114 2021.
2115
2116
2117 [119]
2118
2119 Vgl. Liao 2015, S. 38.
2120
2121
2122 [120]
2123
2124 Vgl. Rösch 2021, S. 74, 87.
2125
2126
2127 [121]
2128
2129 Vgl. W3C Web
2130 Accessibility Initiative, Henry 2021.
2131
2132
2133 [122]
2134
2135 Vgl. W3C Web
2136 Accessibility Initiative, Henry 2019.
2137
2138
2139 [123]
2140
2141 Vgl. W3C Web
2142 Accessibility Initiative, White 2020.
2143
2144
2145 [124]
2146
2147 The
2148 Programming Historian (Hg.) 2008-2021.
2149
2150
2151 [125]
2152
2153 Rojas Castro
2154 2020.
2155
2156
2157 [126]
2158
2159
2160 Vgl. Directory of
2161 Open Access Journals (Hg.) 2021.
2162
2163
2164 [127]
2165
2166 Vgl. Frick / Kaier 2020.
2167
2168
2169 [128]
2170
2171 Vgl. Rösch 2021, S. 147.
2172
2173
2174 [129]
2175
2176 Vgl. ZfdG 2021a.
2177
2178
2179 [130]
2180
2181 Vgl. ZfdG 2021b.
2182
2183
2184 [131]
2185
2186 Noble
2187 2019, S. 32.
2188
2189
2190 [132]
2191
2192 Noble 2019, S. 30.
2193
2194
2195 [133]
2196
2197 Baillot
2198 2021.
2199
2200
2201 [134]
2202
2203 Vgl. Minimal Computing (Hg.).
2204
2205
2206 [135]
2207
2208 Vgl.
2209 Rat für
2210 Nachhaltige Entwicklung (Hg.) 2019.
2211
2212
2213 [136]
2214
2215 Vgl. Electronics Watch (Hg.) [2020]; Konferenzen für sozial verantwortliche IT-Beschaffung (Hg.)
2216 2020.
2217
2218
2219 [137]
2220
2221 Vgl. Friedman / Nissenbaum 1996, S. 332.
2222
2223
2224 [138]
2225
2226 Vgl. Fdm:nrw (Hg.) 2020.
2227
2228
2229 [139]
2230
2231 Friedman / Hendry
2232 2019, S. 180.
2233 1495
2238 1500
2239 Bibliografische Angaben
2240 1501
2241 1502
2242 Anne Baillot: »Digital Humanities und die Klimakrise« – ein Manifest. In: Digital 1503
2243 Intellectuals. Hg. von Anne Baillot. Blogbeitrag vom 24.08.2021. [online]. 1504
2244 Marianne Beisheim: Die ›Agenda 2030 für nachhaltige Entwicklung‹. In: 1505 Bibliographische Angaben
2245 Zeitschrift für die Vereinten Nationen und ihre Sonderorganisationen 63 (2015), H. 1506
2246 6, S. 255–260. [online] [Nachweis im GVK] 1507
1508 Anne Baillot: »Digital
1509 Humanities und die Klimakrise« – ein Manifest. In: Digital Intellectuals.
1510 Hg. von Anne Baillot. Blogbeitrag vom 24.08.2021. [online].
1511
1512 Marianne Beisheim: Die ›Agenda 2030
1513 für nachhaltige Entwicklung‹. In: Zeitschrift für die Vereinten Nationen und
1514 ihre Sonderorganisationen 63 (2015), H. 6, S. 255–260. [online] [Nachweis im GVK]
1515
2247 Anke Buettner: Gedächtnis mit 1516 Anke Buettner: Gedächtnis mit
2249 Stadtbibliothek. Blog. Blogbeitrag vom 11.11.2020. [online] 1518 Stadtbibliothek. Blog. Blogbeitrag vom 11.11.2020. [online]
2250 Anke Buettner: Kulturerbe-Projekt 1519
2251 #femaleheritage: Vom Spuren legen und Fährten lesen – Ausblick & 1520 Anke Buettner:
2252 Nachlese der Blogparade. In: Münchner Stadtbibliothek. Blog. Blogbeitrag vom 1521 Kulturerbe-Projekt #femaleheritage: Vom Spuren legen und Fährten lesen –
2253 08.03.2021. [online] 1522 Ausblick & Nachlese der Blogparade. In: Münchner Stadtbibliothek. Blog.
2254 John T. F. Burgess / Emily Knox / Robert Hauptman: Foundations of information ethics. 1523 Blogbeitrag vom 08.03.2021. [online]
2255 Chicago 2019. [Nachweis im GVK] 1524
2256 Manuel Burghardt: Theorie und Digital Humanities – 1525 Manuel Burghardt: Theorie und
2257 Eine Bestandsaufnahme. In: Digital Humanities Theorie. Hg. von AG Digital Humanities 1526 Digital Humanities – Eine Bestandsaufnahme. In: Digital Humanities Theorie.
2258 Theorie. Blogbeitrag vom 15.05.2020. [online] 1527 Hg. von AG Digital Humanities Theorie. Blogbeitrag vom 15.05.2020. [online]
2259 Gender Gap in Wikidata. Hg. von Denelezh. In: denelezh.wmcloud.org/gender-gap. Analyse-Tool 1528
2260 abgerufen am 21.09.2020. [online] 1529 Gender Gap in Wikidata. Hg. von
2261 Leitlinien zur Sicherung guter wissenschaftlicher Praxis. Kodex. Hg. von Deutsche 1530 Denelezh. In: denelezh.wmcloud.org/gender-gap. Analyse-Tool abgerufen am
2262 Forschungsgemeinschaft. Bonn 2019. 1531 21.09.2020. [online]
2263 In: zenodo.org/record/3923602. Version 1.0 vom 15.09.2019. DOI: 10.5281/zenodo.3923602Directory of Open Access Journals. Hg. von DOAJ. 1532
2264 [online] 1533 Leitlinien zur Sicherung guter
2265 Werkzeugsammlung Öffentliche 1534 wissenschaftlicher Praxis. Kodex. Hg. von Deutsche Forschungsgemeinschaft.
2266 Beschaffung. Hg. von Electronics Watch. In: electronicswatch.org. Amsterdam. 1535 Bonn 2019. In: zenodo.org/record/3923602. Version 1.0 vom 15.09.2019. DOI:
2267 [online] 1536 10.5281/zenodo.3923602
2268 Waltraud Ernst: Feministische Technikphilosophie. 1537
2269 In: Handbuch Technikethik. Hg. von Armin Grunwald und Rafaela Hillebrand. Stuttgart 1538 Directory of Open Access Journals. Hg.
2270 2021, S. 114–118. [Nachweis im GVK] 1539 von DOAJ. [online]
2271 Dokumentation vom 04.09.2020. Hg. von 1540
2272 Fachkonferenzen für sozial verantwortliche IT-Beschaffung. In: 1541 Werkzeugsammlung
1542 Öffentliche Beschaffung. Hg. von Electronics Watch. In:
1543 electronicswatch.org. Amsterdam. [online]
1544
1545 Dokumentation vom 04.09.2020.
1546 Hg. von Fachkonferenzen für sozial verantwortliche IT-Beschaffung. In:
2273 faire-beschaffung.de. Wustermark 2020. [online] 1547 faire-beschaffung.de. Wustermark 2020. [online]
2274 Claudia Frick / Christian Kaier: 1548
2275 Publikationskosten für Zeitschriftenartikel abseits von 1549 Claudia Frick / Christian
1550 Kaier: Publikationskosten für Zeitschriftenartikel abseits von
2276 Open-Access-Publikationsfonds – Lost in Transformation? In: o-bib. Das 1551 Open-Access-Publikationsfonds – Lost in Transformation? In: o-bib. Das
2277 offene Bibliotheksjournal 7 (2020), H. 2, S. 1–15. Artikel vom 05.05.2020. 1552 offene Bibliotheksjournal 7 (2020), H. 2, S. 1–15. Artikel vom 05.05.2020.
2278 DOI: 10.5282/O-BIB/5586Batya Friedman: Value-sensitive design. In: 1553 DOI: 10.5282/O-BIB/5586
2279 Interactions 3 (1996), H. 6, S. 16–23. [Nachweis im GVK] 1554
1555 Batya Friedman: Value-sensitive
1556 design. In: Interactions 3 (1996), H. 6, S. 16–23. [Nachweis im GVK]
1557
2280 Batya Friedman / David Hendry: Value 1558 Batya Friedman / David Hendry: Value
2282 a. 2019. [Nachweis im GVK] 1560 a. 2019. [Nachweis im GVK]
2283 Batya Friedman / Peter Kahn / Alan Borning: 1561
2284 Value Sensitive Design and Information Systems. In: The handbook of 1562 Batya Friedman / Peter Kahn / Alan
2285 information and computer ethics. Hg. von Kenneth Einar Himma / Herman T. 1563 Borning: Value Sensitive Design and Information Systems. In: The
2286 Tavani. Hoboken, NJ 2008, S. 69–101. [Nachweis im GVK] 1564 handbook of information and computer ethics. Hg. von Kenneth Einar Himma /
2287 Batya Friedman / Helen Nissenbaum: Bias in 1565 Herman T. Tavani. Hoboken, NJ 2008, S. 69–101. [Nachweis im GVK]
2288 computer systems. In: ACM Transactions on Information Systems 14 (1996), H. 1566
2289 3, S. 330–347. PDF. [online] [Nachweis im GVK] 1567 Batya Friedman / Helen Nissenbaum:
1568 Bias in computer systems. In: ACM Transactions on Information Systems 14
1569 (1996), H. 3, S. 330–347. PDF. [online] [Nachweis im GVK]
1570
2290 Marisa Gierlinger: Warum 1571 Marisa Gierlinger: Warum
2292 Artikel vom 12.06.2020. [online] 1573 Artikel vom 12.06.2020. [online]
2293 Minimal Computing: About. Hg. von GO::DH 1574
2294 Minimal Computing Working Group. In: go-dh.github.io. [online] 1575 Minimal Computing: About. Hg. von
2295 Verena Greb: 20 Jahre Wikipedia. Acht Dinge, 1576 GO::DH Minimal Computing Working Group. In: go-dh.github.io. [online]
2296 die es zu wissen lohnt. In: Deutsche Welle vom 15.01.2021. [online] 1577
2297 Handbuch Technikethik. Hg. v. Armin Grunwald und Rafaela Hillerbrand. 2. Auflage.
2298 Stuttgart 2021.
2299 Roger Häußling: 1578 Roger Häußling:
2301 Auflage. Opladen u. a. 2019. [Nachweis im GVK] 1580 Auflage. Opladen u. a. 2019. [Nachweis im GVK]
2302 Shawn Lawton Henry: Introduction to Web 1581
2303 Accessibility. Hg. von W3C Web Accessibility Initiative. In: 1582 Shawn Lawton Henry: Introduction
1583 to Web Accessibility. Hg. von W3C Web Accessibility Initiative. In:
2304 w3.org/WAI/standards-guidelines vom 11.07.2019. Website. [online] 1584 w3.org/WAI/standards-guidelines vom 11.07.2019. Website. [online]
2305 Shawn Lawton Henry: W3C Accessibility Standards 1585
2306 Overview. Hg. von W3C Web Accessibility Initiative. In: 1586 Shawn Lawton Henry: W3C Accessibility
1587 Standards Overview. Hg. von W3C Web Accessibility Initiative. In:
2307 w3.org/WAI/standards-guidelines vom 30.04.2021. [online] 1588 w3.org/WAI/standards-guidelines vom 30.04.2021. [online]
2308 Handbuch Medien- und Informationsethik. Hg. v. Jessica Heesen, Stuttgart 2016. [Nachweis im GVK] 1589
2309 Martin Holland: Amazon: KI zur 1590 Martin Holland: Amazon: KI zur
2311 11.10.2018. [online] 1592 11.10.2018. [online]
2312 Martin Holland: Analyse: KI-Sprachmodell 1593
2313 GPT-3 hegt tief verankerte Vorurteile gegen Muslime. In: Heise Online vom 1594 Martin Holland: Analyse:
2314 25.01.2021. [online] 1595 KI-Sprachmodell GPT-3 hegt tief verankerte Vorurteile gegen Muslime. In:
2315 Digital Humanities: Eine Einführung. Hg. von Fotis Jannidis / Hubertus Kohle / 1596 Heise Online vom 25.01.2021. [online]
2316 Malte Rehbein. Stuttgart 2017 [Nachweis im GVK] 1597
2317 Peter H. Kahn: The human relationship with nature. Development and 1598 Digital Humanities: Eine
2318 culture. Cambridge, MA. 1999. [Nachweis im GVK] 1599 Einführung. Hg. von Fotis Jannidis / Hubertus Kohle / Malte Rehbein.
2319 Daniél Kretschmar: Rassismus in 1600 Stuttgart 2017 [Nachweis im GVK]
2320 Algorithmen. Gesichtserkennung für die Tonne. In: taz.de. Artikel vom 1601
1602 Peter H. Kahn: The human
1603 relationship with nature. Development and culture. Cambridge, MA. 1999. [Nachweis im GVK]
1604
1605 Daniél Kretschmar: Rassismus
1606 in Algorithmen. Gesichtserkennung für die Tonne. In: taz.de. Artikel vom
2321 01.07.2020. [online] 1607 01.07.2020. [online]
2322 Data Stewardship. Hg. von Landesinitiative für
2323 Forschungsdatenmanagement. In: fdm.nrw. Duisburg-Essen 2020. [online]
2324 Han-Teng Liao: Harnessing the power of collaborative
2325 filtering. In: China Perspectives (2015), H. 4, S. 35–49. [Nachweis im GVK]
2326 Stuart McLennan / Amelia Fiske / Leo Anthony
2327 Celi / Ruth Müller / Jan Harder / Konstantin Ritt / Sami Haddadin / Alena
2328 Buyx: An embedded ethics approach for AI development. In: Nature Machine
2329 Intelligence 2 (2020), H. 9, S. 488–490. [Nachweis im GVK]
2330 Jessica K. Miller, Batya Friedman, Gavin Jancke:
2331 Value tensions in design. The Value Sensitive Design, development and appropriation
2332 1608
2333 of a corproation's groupware system, in: Proceedings of the 2007 International 1609 Data Stewardship. Hg. von
2334 ACM Conference on Supporting Group Work, S. 281–290. DOI: 10.1145/1316624.1316668What is NINES? Hg. von NINES Nineteenth-century 1610 Landesinitiative für Forschungsdatenmanagement. In: fdm.nrw. Duisburg-Essen
2335 Scholarship Online. In: nines.org/about. [online] 1611 2020. [online]
2336 Safiya Umoja Noble: Toward a Critical Black Digital Humanities. In: 1612
2337 Debates in the Digital Humanities. Hg. von Matthew K. Gold, Lauren F. Klein. 1613 Stuart McLennan / Amelia Fiske /
2338 Minneapolis, MN 2019, S. 27–35. [Nachweis im GVK] 1614 Leo Anthony Celi / Ruth Müller / Jan Harder / Konstantin Ritt / Sami
2339 Ibo van de Poel: Werthaltigkeit der Technik. 1615 Haddadin / Alena Buyx: An embedded ethics approach for AI development. In:
2340 In: Handbuch Technikethik. Hg. von Armin Grunwald und Rafaela Hillebrand. Stuttgart 1616 Nature Machine Intelligence 2 (2020), H. 9, S. 488–490. [Nachweis im GVK]
2341 2021, S. 132–136. [Nachweis im GVK] 1617
2342 Tanja Praske: Blogparade »Frauen und 1618 What is NINES? Hg. von NINES
2343 Erinnerungskultur #femaleheritage« der Monacensia (11.11.–09.12) mit 1619 Nineteenth-century Scholarship Online. In: nines.org/about. [online]
1620
1621 Safiya Umoja Noble: Toward a
1622 Critical Black Digital Humanities. In: Debates in the Digital Humanities.
1623 Hg. von Matthew K. Gold, Lauren F. Klein. Minneapolis, MN 2019, S. 27–35.
1624 [Nachweis im GVK]
1625
1626 Tanja Praske: Blogparade »Frauen
1627 und Erinnerungskultur #femaleheritage« der Monacensia (11.11.–09.12) mit
2344 Nachklapp. In: pearltrees.com. Inhalt vom 16.02.2021. [online] 1628 Nachklapp. In: pearltrees.com. Inhalt vom 16.02.2021. [online]
2345 The Programming Historian. Hg. von The Programming Historian. 2008–2021. [online]
2346 1629
2347 Wie die Beschaffung fairer IT-Hardware 1630 The Programming Historian.
2348 gelingt. Hg. von Rat für Nachhaltige Entwicklung. In: 1631 Hg. von The Programming Historian. 2008–2021. [online]
1632
1633 Wie die Beschaffung fairer
1634 IT-Hardware gelingt. Hg. von Rat für Nachhaltige Entwicklung. In:
2349 nachhaltigkeitsrat.de/aktuelles. Artikel vom 25.06.2019. [online] 1635 nachhaltigkeitsrat.de/aktuelles. Artikel vom 25.06.2019. [online]
2350 Roopika Risam: New digital worlds. Postcolonial 1636
2351 digital humanities in theory, praxis, and pedagogy. Evanston, IL 2019. [Nachweis im GVK] 1637 Roopika Risam: New digital worlds.
2352 Hermann Rösch: Informationsethik und Bibliotheksethik. Grundlagen und Praxis. Berlin, 1638 Postcolonial digital humanities in theory, praxis, and pedagogy. Evanston,
2353 Boston 2021. [Nachweis im GVK] 1639 IL 2019. [Nachweis im GVK]
2354 Antonio Rojas Castro: FAIR enough? Building DH 1640
2355 resources in an unequal world. (Digital Humanities Kolloquium, BBAW, 1641 Antonio Rojas Castro: FAIR enough?
2356 07.08.2020). In: vimeo.com/445147368. Video. [online] 1642 Building DH resources in an unequal world. (Digital Humanities Kolloquium,
2357 Camille Roth: Digital, digitized, and 1643 BBAW, 07.08.2020). In: vimeo.com/445147368. Video. [online]
2358 numerical humanities. In: Digital Scholarship in the Humanities 34 (2019), 1644
2359 H. 3, S. 616–632. Artikel vom 05.11.2018. DOI: 10.1093/llc/fqy057 [Nachweis im GVK] 1645 Camille Roth: Digital, digitized,
1646 and numerical humanities. In: Digital Scholarship in the Humanities 34
1647 (2019), H. 3, S. 616–632. Artikel vom 05.11.2018. DOI: 10.1093/llc/fqy057 [Nachweis im GVK]
1648
2360 Anna Samoilenko: Multilingual 1649 Anna Samoilenko: Multilingual
2361 historical narratives on Wikipedia. 2017. In: GESIS Data Archive. Datensatz. 1650 historical narratives on Wikipedia. 2017. In: GESIS Data Archive. Datensatz.
2362 Version 1. DOI: 10.7802/1411Judith Simon: Values in Design. In: Handbuch 1651 Version 1. DOI: 10.7802/1411
2363 Medien- und Informationsethik. Hg. von Jessica Heesen. Stuttgart 2016,
2364 S. 357–364. [Nachweis im GVK]
2365 Routledge international handbook of participatory design. Hg. von Jesper
2366 Simonsen / Toni Robertson. New York, NY u. a. 2013. [Nachweis im GVK]
2367 Roger S. Ulrich: Biophilia, biophobia, and natural landscapes. In: The
2368 biophilia hypothesis. Hg. von Stephen R. Kellert. Washington, DC u. a. 1993, S.
2369 73–137. [Nachweis im GVK]
2370 Roger S. Ulrich: View through a window may influence recovery from
2371 surgery. In: Science 224 (1984), H. 4647, S. 420–421. [Nachweis im GVK]
2372 Steven Umbrello / Ibo van de Poel: Mapping
2373 Value Sensitive Design onto AI for social good principles. In: AI and Ethics
2374 (2021). Artikel vom 01.02.2021. DOI: 10.1007/s43681-021-00038-3 [Nachweis im GVK]
2375 A new companion to digital humanities.
2376 Hg. von Susan Schreibman / Ray Siemens / John Unsworth. Chichester u. a. 2016. [Nachweis im GVK]
2377 Sara Wachter-Boettcher: Technically wrong.
2378 Sexist apps, biased algorithms, and other threats of toxic tech. New York,
2379 NY u. a. 2017. [Nachweis im GVK]
2380 Vereinte Nationen Generalversammlung:
2381 Aktivitätenprogramm für die Durchführung der Internationalen Dekade
2382 der Menschen afrikanischer Abstammung. Resolution der Generalversammlung,
2383 verabschiedet am 18. November 2014.
2384 Sarah Myers West: Raging Against the Machine:
2385 Network Gatekeeping and Collective Action on Social Media Platforms. In:
2386 Mobile Media and Communication 5 (2017), H. 3, S. 28–36. DOI: 10.17645/mac.v5i3.989 [Nachweis im GVK]
2387 Kevin White / Shadi Abou-Zahra / Shawn Lawton
2388 Henry: Writing for Web Accessibility – Tips for Getting Started. Hg. von W3C
2389 Web Accessibility Initiative. In: w3.org/WAI/tips/writing/ vom 01.12.2020.
2390 [online]
2391 1652
2392 Till Winkler / Sarah Spiekermann: Twenty years 1653 Judith Simon: Values in Design.
2393 of Value Sensitive Design: a review of methodological practices in VSD 1654 In: Handbuch Medien- und Informationsethik. Hg. von Jessica Heesen.
2394 projects. In: Ethics and Information Technology 23 (2021), S. 17–21. Artikel 1655 Stuttgart 2016, S. 357–364. [Nachweis im GVK]
2395 vom 21.08.2018. DOI: 10.1007/s10676-018-9476-2 [Nachweis im GVK] 1656
2396 ZfdG (2021a): I wie Impressum. In: Zeitschrift 1657 Routledge international handbook
2397 für digitale Geisteswissenschaften. 2021. [online] 1658 of participatory design. Hg. von Jesper Simonsen / Toni Robertson. New York,
2398 ZfdG (2021b): P wie Publizieren. In: Zeitschrift 1659 NY u. a. 2013. [Nachweis im GVK]
2399 für digitale Geisteswissenschaften. 2021. [online] 1660
1661 Roger S. Ulrich: Biophilia,
1662 biophobia, and natural landscapes. In: The biophilia hypothesis. Hg. von
1663 Stephen R. Kellert. Washington, DC u. a. 1993, S. 73–137. [Nachweis im GVK]
1664
1665 Roger S. Ulrich: View through a window
1666 may influence recovery from surgery. In: Science 224 (1984), H. 4647, S.
1667 420–421. [Nachweis im GVK]
1668
1669 Steven Umbrello / Ibo van de Poel:
1670 Mapping Value Sensitive Design onto AI for social good principles. In: AI
1671 and Ethics (2021). Artikel vom 01.02.2021. DOI: 10.1007/s43681-021-00038-3 [Nachweis im GVK]
1672
1673 A new companion to digital
1674 humanities. Hg. von Susan Schreibman / Ray Siemens / John Unsworth.
1675 Chichester u. a. 2016. [Nachweis im GVK]
1676
1677 Sara Wachter-Boettcher: Technically
1678 wrong. Sexist apps, biased algorithms, and other threats of toxic tech. New
1679 York, NY u. a. 2017. [Nachweis im GVK]
1680
1681 Sarah Myers West: Raging Against the
1682 Machine: Network Gatekeeping and Collective Action on Social Media
1683 Platforms. In: Mobile Media and Communication 5 (2017), H. 3, S. 28–36.
1684 DOI: 10.17645/mac.v5i3.989 [Nachweis im GVK]
1685
1686 Kevin White / Shadi Abou-Zahra /
1687 Shawn Lawton Henry: Writing for Web Accessibility – Tips for Getting
1688 Started. Hg. von W3C Web Accessibility Initiative. In:
1689 w3.org/WAI/tips/writing/ vom 01.12.2020. [online]
1690
1691 Till Winkler / Sarah Spiekermann:
1692 Twenty years of Value Sensitive Design: a review of methodological practices
1693 in VSD projects. In: Ethics and Information Technology 23 (2021), S. 17–21.
1694 Artikel vom 21.08.2018. DOI: 10.1007/s10676-018-9476-2 [Nachweis im GVK]
1695
1696
1697
1698
1699
2400 1700
2407 1707
2408 Abb. 1: Die drei Untersuchungsschritte von 1708 Abb. 1: Die drei
2409 Value-Sensitive-Design-Analysen. [Leyrer 2021]. 1709 Untersuchungsschritte von Value-Sensitive-Design-Analysen. [Leyrer 2021].
2410 1710
2411 1711
2412 Abb. 2: Beispiel für eine Natur-Szene, auf der keine 1712 Abb. 2: Beispiel für eine
2413 Menschen abgebildet werden. Eignet sich auch für ein kurzes Experiment: 1713 Natur-Szene, auf der keine Menschen abgebildet werden. Eignet sich auch für
2414 Entspannt Sie der Anblick dieser Natur-Szene? [Wasserfall, Tal, Berge, 1714 ein kurzes Experiment: Entspannt Sie der Anblick dieser Natur-Szene?
2415 Landschaft, Wald, Bachlauf. Hg. von Free Fotos. In: pixabay.com. Bild vom 1715 [Wasserfall, Tal, Berge, Landschaft, Wald, Bachlauf. Hg. von Free Fotos. In:
2416 08.01.2016]. [online] 1716 pixabay.com. Bild vom 08.01.2016]. [online]
2417 1717
2418 1718
2419 Abb. 3: Ausschnitt aus einer Zusammenstellung der knapp 1719 Abb. 3: Ausschnitt aus einer
2420 200 Blogartikel, die im Kontext der #femaleheritage-Blogparade entstanden sind. 1720 Zusammenstellung der knapp 200 Blogartikel, die im Kontext der
2421 [Praske 1721 #femaleheritage-Blogparade entstanden sind. [Praske 2021]
2422 2021] 1722
1723
2423 1724