Versionen vergleichen von : Bye, Bye, Bias! Digital-Humanities-Projekte informationsethisch überprüfen und gestalten mit Value Sensitive Design

AltNeu
2 2
3
4
5
3 Katharina Leyrer 6 Katharina Leyrer
4 Kontakt: katharina.leyrer@fau.deInstitution: GND: 1237790735ORCID: 0000-0002-3051-0621 7
5 8 Kontakt: katharina.leyrer@fau.deInstitution: Friedrich-Alexander-Universität
6 9 Erlangen-Nürnberg GND: 1237790735ORCID: 0000-0002-3051-0621
7 10
8 DOI: 10.17175/sb005_003_v2 11Sie möchten das Long Paper
9 Nachweis im OPAC der Herzog August Bibliothek: 1839573139 12 kommentieren?
13
14 Bis zum 08.11.2021 kann mittels des Annotationstools hypothes.is das Long
15 Paper direkt hier auf der Seite öffentlich begutachtet und kommentiert werden. Die
16 Annotations-Sidebar von hypothes.is öffnen Sie in der rechten oberen
17 Ecke. Sobald Sie eingeloggt sind, sehen Sie alle Kommentare und können
18 eigene hinzufügen.
19
20
21
22
23
24
25 DOI:
26 10.17175/sb005_003
27
28
29 Nachweis im OPAC der Herzog August Bibliothek:
30 1764792149
31
10 Erstveröffentlichung: 08.09.2021 32 Erstveröffentlichung: 08.09.2021
11
12Version 2.0: 21.03.2023
13
14 Lizenz: Sofern nicht anders angegeben 33 Lizenz: Sofern nicht anders angegeben
16 35
17 Medienlizenzen: Medienrechte liegen bei den Autor*innen 36 Medienlizenzen: Medienrechte liegen bei den
18 37 Autor*innen
19 Letzte Überprüfung aller Verweise: 07.09.2021 38 Letzte Überprüfung aller Verweise: 07.09.2021
20 39 GND-Verschlagwortung: Informationsethik
21 GND-Verschlagwortung: Informationsethik | Digital Humanities | Mensch-Maschine-Kommunikation | Design | Bias |  40 | Digital
22 41 Humanities | Mensch-Maschine-Kommunikation | Design | Bias |
23 Empfohlene Zitierweise: Katharina Leyrer: Bye, Bye, Bias! Digital-Humanities-Projekte wertebasiert gestalten mit Value Sensitive Design. In: Fabrikation von Erkenntnis – Experimente in den Digital Humanities. Hg. von Manuel Burghardt, Lisa Dieckmann, Timo Steyer, Peer Trilcke, Niels Walkowski, Joëlle Weis, Ulrike Wuttke. Wolfenbüttel 2021. (= Zeitschrift für digitale Geisteswissenschaften / Sonderbände, 5). Erstveröffentlichung 08.09.2021. Version 2.0 vom 21.03.2023. HTML / XML / PDF. DOI: 10.17175/sb005_003_v2 42 Empfohlene Zitierweise: Katharina Leyrer: Bye, Bye,
43 Bias! Digital-Humanities-Projekte wertebasiert gestalten mit Value Sensitive
44 Design. In: Fabrikation von Erkenntnis – Experimente in den Digital Humanities.
45 Hg. von Manuel Burghardt, Lisa Dieckmann, Timo Steyer, Peer Trilcke, Niels
46 Walkowski, Joëlle Weis, Ulrike Wuttke. Wolfenbüttel 2021. (= Zeitschrift für
47 digitale Geisteswissenschaften / Sonderbände, 5) text/html Format. DOI: 10.17175/sb005_003
24 48
29 Abstract 53 Abstract
30 Technologien sind nicht neutral, sondern fördern bestimmte Werte und 54 Technologien sind nicht neutral, sondern fördern bestimmte Werte und behindern
31 behindern andere. Das gilt auch für Technologien, die in den Digital 55 andere. Das gilt auch für Technologien, die in den Digital Humanities entwickelt
32 Humanities entwickelt und genutzt werden. Daher bedürfen diese 56 und genutzt werden. Daher bedürfen diese Technologien einer ethischen
33 Technologien einer ethischen Untersuchung und Einordnung. Der Ansatz des 57 Untersuchung und Einordnung. Der Ansatz des Value Sensitive Design ermöglicht
34 Value Sensitive Design ermöglicht einerseits, systematisch zu 58 einerseits, systematisch zu analysieren, welche Interessen und Werte in eine
35 analysieren, welche Interessen und Werte in eine bestimmte Technologie 59 bestimmte Technologie eingeschrieben werden und ist zugleich ein Framework, um
36 eingeschrieben werden und ist zugleich ein Framework, um Technologien 60 Technologien wertesensitiv zu entwickeln. Der Beitrag zeigt auf, wie Value
37 wertesensitiv zu entwickeln. Der Beitrag zeigt auf, wie Value Sensitive 61 Sensitive Design als theoretischer und methodischer Ansatz in den
38 Design als theoretischer und methodischer Ansatz in den 62 unterschiedlichen Spielarten der Digital Humanities genutzt werden kann.
39 unterschiedlichen Spielarten der Digital Humanities genutzt werden 63
40 kann. 64
41 65
42 66 Technological systems are not neutral but promote certain values and hinder
43 67 others. That is also true for technologies that are developed and used in the
44 68 field of Digital Humanities. Therefore, these technologies need to be reviewed
45 69 from an ethical point of view. Value Sensitive Design is a framework to
46 Technological systems are not neutral but promote certain values and 70 systematically analyze whose interests and values are implemented in a
47 hinder others. That is also true for technologies that are developed and 71 technological system. At the same time, Value Sensitive Design facilitates
48 used in the field of Digital Humanities. Therefore, these technologies 72 accounting for human values when designing technologies. This contribution
49 need to be reviewed from an ethical point of view. Value Sensitive 73 points out how Value Sensitive Design can be used as a theoretical and
50 Design is a framework to systematically analyze whose interests and 74 methodological approach in different areas of Digital Humanities activities.
51 values are implemented in a technological system. At the same time, 75
52 Value Sensitive Design facilitates accounting for human values when 76
53 designing technologies. This contribution points out how Value Sensitive 77
54 Design can be used as a theoretical and methodological approach in 78
55 different areas of Digital Humanities activities. 79
56
57
58
59
60 Version 2.0 (21.03.2023)
61 Es wurden folgende Änderungen vorgenommen: Inhaltliche und strukturelle Anpassungen,
62 wie sie von den Gutachten angemerkt worden sind. Aktualisierung und Ergänzung der
63 Fußnoten und der bibliografischen Angaben. Formale Korrekturen.
64 80
68 1. Einleitung 84 1. Einleitung
85
86
69 2. Wie kommt der Bias in die Technologie? 87 2. Wie kommt der Bias in die Technologie?
88
89
70 3. Technologien in den Digital Humanities 90 3. Technologien in den Digital Humanities
71 4. Ethik in den DH: Informations- und Technikethik 91
72 5. Value Sensitive Design: Grundlagen und methodisches Vorgehen 92
73 5.1 Drei Untersuchungsabschnitte von Value Sensitive Design 93 4. Value Sensitive Design: Grundlagen und methodisches
74 5.2 Anwendung von Value Sensitive Design: Zwei Beispiele 94 Vorgehen
75 5.2.1 ›Room with a view‹: Virtuelle Fenster in Büroräumen 95
76 5.2.2 Die Groupware CodeCOOP für den Wissensaustausch in Unternehmen 96
77 6. Value Sensitive Design in Digital-Humanities-Projekten 97 4.1 Drei Untersuchungsabschnitte von Value Sensitive
78 6.1 Pre-Existing Bias in den Digitized Humanities abmindern 98 Design
79 6.1.1 Gender Bias ausgleichen 99
80 6.1.2 Digitale Archive postkolonial gestalten 100
81 6.1.3 Barrierefreiheit fördern 101 4.2 Anwendung von Value Sensitive Design am Beispiel ›Room
82 6.2 Design-Normen für KI-Anwendungen in den Numerical Humanities 102 with a view‹
83 103
84 6.3 Akteur*innen und ihre Interessen in den Humanities of the Digital analysieren 104
85 6.4 Mehr Barrierefreiheit in den Public 105 5. Value Sensitive Design in Digital-Humanities-Projekten
86 Humanities schaffen 106
87 6.5 Menschenrechte und Umweltschutz in allen DH-Spielarten 107
108 5.1 Pre-Existing Bias in den Digitized Humanities
109 abmindern
110
111
112 5.1.1 Digitale Archive postkolonial gestalten
113
114
115 5.1.2 Gender Bias ausgleichen
116
117
118 5.1.3 Barrierefreiheit fördern
119
120
121 5.2 Design-Normen für KI-Anwendungen in den Numerical
122 Humanities
123
124
125 5.3 Akteur*innen und ihre Interessen in den Humanities of
126 the Digital analysieren
127
128
129 5.4 Mehr Barrierefreiheit in den Public Humanities
130 schaffen
131
132
133 5.5 Menschenrechte und Umweltschutz in allen DH-Spielarten
88 fördern 134 fördern
89 7. Zusammenfassung, Limitationen und Ausblick 135
90 Bibliografische Angaben 136
137 6. Zusammenfassung, Limitationen und Ausblick
138
139
140 Bibliographische Angaben
141
142
91 Abbildungsverzeichnis 143 Abbildungsverzeichnis
93 145
146
147
148
149
94 1. Einleitung 150 1. Einleitung
95 151
96 [1]Eine Gesichtserkennungssoftware, die in polizeilichen Ermittlungen in den USA 152 [1]Eine Gesichtserkennungssoftware, die in
97 zum Einsatz kommt, erzeugt überdurchschnittlich oft falsche Matches, wenn 153 polizeilichen Ermittlungen in den USA zum Einsatz kommt, erzeugt
98 sie Bilder Schwarzer Menschen abgleicht – weil die Software mit Gesichtern 154 überdurchschnittlich oft falsche Matches, wenn sie Bilder Schwarzer Menschen
99 weißer Menschen trainiert wurde. Die Technologie 155 abgleicht – weil die Software mit Gesichtern weißer Menschen trainiert wurde.
100 ruft damit rassistische Diskriminierung hervor.[1] Ein 156 Die Technologie ruft damit rassistische Diskriminierung hervor.[1] Ein
101 selbstlernendes System, das der Konzern Amazon zur 157 selbstlernendes System, das der Konzern Amazon zur Vorauswahl von
102 Vorauswahl von Bewerber*innen einsetzte, diskriminierte auf Basis binärer 158 Bewerber*innen einsetzte, diskriminierte auf Basis binärer
103 Geschlechtszuschreibungen: Die Software bewertete Bewerbungen von Frauen 159 Geschlechtszuschreibungen: Die Software bewertete Bewerbungen von Frauen
104 systematisch schlechter als die von Männern.[2] Stereotype auf Basis von religiöser Zugehörigkeit 160 systematisch schlechter als die von Männern.[2] Stereotype auf Basis von religiöser
105 reproduzierte das Sprachmodell GPT-3, zu dessen 161 Zugehörigkeit reproduzierte das Sprachmodell GPT-3, zu dessen Nutzer*innen
106 Nutzer*innen Microsoft gehört: Das Sprachmodell 162 Microsoft gehört: Das Sprachmodell assoziierte Menschen muslimischen
107 assoziierte Menschen muslimischen Glaubens mit Gewalt.[3] Diese Beispiele zeigen: Technologien können 163 Glaubens mit Gewalt.[3] Diese Beispiele zeigen: Technologien können bestimmte Akteur*innen
108 bestimmte Akteur*innen systematisch benachteiligen. Solche Technologien 164 systematisch benachteiligen. Solche Technologien beschreiben Friedman und Nissenbaum
109 beschreiben Friedman und Nissenbaum als »biased«, da 165 als »biased«, da sie »systematically and unfairly discriminate against
110 sie »systematically and unfairly discriminate against certain individuals 166 certain individuals or groups of individuals in favor of others«.[4] Das Design von Technologien bedarf daher einer informationsethischen
111 or groups of individuals in favor of others«.[4]
112 Das Design von Technologien bedarf daher einer ethischen
113 Untersuchung.[5] 167 Untersuchung.[5]
114 [2]Warum ist das für die Digital Humanities von Bedeutung? Jedes 168 [2]Warum ist das für die Digital Humanities von
115 Digital-Humanities-Projekt hat in irgendeiner Weise mit Technologien zu tun, 169 Bedeutung? Jedes Digital-Humanities-Projekt hat in irgendeiner Weise mit
116 z. B. wenn Akteur*innen digitale Datensätze erstellen, kuratieren und 170 Technologien zu tun, z. B. wenn Akteur*innen digitale Datensätze erstellen,
117 nutzen, Tools und Analyseverfahren entwickeln und anwenden, 171 kuratieren und nutzen, Tools und Analyseverfahren entwickeln und anwenden,
118 Online-Communities und computervermittelte Interaktionen 172 Online-Communities und computervermittelte Interaktionen geisteswissenschaftlich
119 geisteswissenschaftlich untersuchen[6] oder digitale Publikationen und E-Learning-Angebote 173 untersuchen[6]
120 realisieren.[7] Diese Technologien 174 oder digitale Publikationen und E-Learning-Angebote realisieren.[7] Diese Technologien
121 können – wie alle anderen auch – Bias aufweisen. Aktuell finden ethische 175 können – wie alle anderen auch – Bias aufweisen. Aktuell finden ethische Aspekte bei
122 Aspekte bei der Konzeption und Realisierung von 176 der Konzeption und Realisierung von Digital-Humanities-Projekten, -Technologien und
123 Digital-Humanities-Projekten, -Technologien und -Infrastrukturen jedoch 177 -Infrastrukturen jedoch wenig Beachtung.[8] Für die gute wissenschaftliche Praxis, wie sie beispielsweise die DFG
124 wenig Beachtung.[8] Für die gute wissenschaftliche Praxis, wie sie 178 in ihren Leitlinien festschreibt, ist eine ethische Überprüfung von
125 beispielsweise die DFG in ihren Leitlinien festschreibt, ist eine ethische 179 Forschungsvorhaben zugleich unabdingbar.[9]
126 Überprüfung von Forschungsvorhaben zugleich unabdingbar.[9] 180 [3]Dieser Beitrag geht daher der Frage nach, wie
127 [3]Dieser Beitrag geht daher der Frage nach, wie Technologien, die in den 181 Technologien, die in den Digital Humanities entwickelt und genutzt werden,
128 Digital Humanities entwickelt und genutzt werden, ethisch 182 informationsethisch überprüft und wertebasiert gestaltet werden können. Zunächst
129 überprüft und wertebasiert gestaltet werden können. Ziel des Beitrages ist es, 183 wird beschrieben, welche verschiedenen Formen von Bias Technologien aufweisen
130 zu zeigen, wie Digital Humanities-Projekte auf Basis des Value-Sensitive-Design-Ansatzes 184 können. Zudem wird skizziert, welche Technologien in den Digital Humanities eine
131 185 Rolle spielen. Anschließend wird der Value-Sensitive-Design-Ansatz vorgestellt, mit
132 aus einer ethischen Perspektive reflektiert und so gestaltet werden können, dass 186 dem Technologien wertebasiert analysiert und entwickelt werden können. Obwohl der
133 sie die Werte aller beteiligten Akteur*innen berücksichtigen. 187 Ansatz in Feldern wie der Informationstechnologie, dem Bauingenieurswesen und der
134 188 Gesundheitstechnologie bereits etabliert ist, hat die Anwendung von Value Sensitive
135 189 Design in den Digital Humanities experimentellen Charakter.[10] Daher wird in Kapitel 5
136 [4]Zunächst wird beschrieben, welche verschiedenen Formen von Bias Technologien aufweisen 190 anhand konkreter Beispiele vorgestellt, wie Value Sensitive Design in den
137 können. Zudem wird skizziert, welche Technologien in den Digital Humanities 191 verschiedenen Teilbereichen der Digital Humanities angewendet werden kann.
138 eine Rolle spielen. Da ethische Reflektionen in den Digital Humanities an die Informations- 192
139 193 2. Wie kommt der Bias in die
140 und Technikethik anknüpfen können, werden daraufhin diese beiden Bereichsethiken kurz 194 Technologie?
141 umrissen. 195
142 Anschließend wird der Value-Sensitive-Design-Ansatz 196 [4]Nach Friedman und Nissenbaum kann Bias in
143 vorgestellt, mit dem Technologien wertebasiert analysiert und entwickelt 197 technischen Systemen auf drei unterschiedliche Weisen entstehen.[11] Sie
144 werden können. Obwohl der Ansatz in Feldern wie der Informationstechnologie, 198 unterscheiden Pre-Existing Bias,
145 dem Bauingenieurswesen und der Gesundheitstechnologie bereits etabliert ist, 199 Technical Bias und Emergent Bias. Mit Pre-Existing Bias
146 hat die Anwendung von Value Sensitive Design in den Digital Humanities 200 sind Verzerrungen gemeint, die bereits vor der Entwicklung der Technologie
147 experimentellen Charakter.[10] Daher 201 existieren: Die Designer*innen oder Auftraggeber*innen schreiben – bewusst oder
148 wird in 202 unbewusst – bereits existierende persönliche oder gesellschaftliche Vorurteile in
149 Kapitel 5 anhand konkreter Beispiele vorgestellt, 203 das System ein. Ein Beispiel: Die automatische Zugangskontrolle zu den
150 wie Value Sensitive Design in den verschiedenen Teilbereichen der Digital 204 Umkleideräumen eines Fitnessstudios in London ordnete Personen mit einem Doktortitel
151 Humanities angewendet werden kann. 205 automatisch als männlich ein und verwehrte ihnen den Zugang zu den Damenumkleiden –
152 206 weil die Designer*innen des Systems davon ausgegangen waren, dass nur Männer einen
153 207 Doktortitel haben können.[12] Auch die oben bereits
154 2. Wie kommt der Bias in die Technologie? 208 erwähnte Software, die Amazon zur
155 209 Vorauswahl von Bewerber*innen einsetzte, hat einen Pre-Existing Bias: Da das
156 [5]Nach Friedman und Nissenbaum kann Bias in technischen Systemen auf drei 210 Unternehmen bislang vor allem Männer eingestellt hatte, ging das selbstlernende
157 unterschiedliche Weisen entstehen.[11] Sie unterscheiden Pre-Existing Bias, Technical Bias und Emergent 211 System davon aus, dass Frauen weniger geeignet für eine Einstellung bei Amazon
158 Bias. Mit Pre-Existing Bias sind 212 seien.[13]
159 Verzerrungen gemeint, die bereits vor der Entwicklung der Technologie 213 [5]Technical Bias entsteht hingegen bei
160 existieren: Die Designer*innen oder Auftraggeber*innen schreiben – bewusst 214 der »resolution of issues in the technical design«,[14]
161 oder unbewusst – bereits existierende persönliche oder gesellschaftliche 215 beispielsweise durch Limitationen der Hard- und Software oder wenn Algorithmen
162 Vorurteile in das System ein. Ein Beispiel: Die automatische 216 bestimmte Akteur*innen bevorzugen und andere benachteiligen. So führt die
163 Zugangskontrolle zu den Umkleideräumen eines Fitnessstudios in London 217 beschränkte Größe von Bildschirmen beispielsweise dazu, dass die Ergebnisliste von
164 ordnete Personen mit einem Doktortitel automatisch als männlich ein und 218 Suchmaschinen in verschiedene ›Seiten‹ aufgeteilt wird, die nur nacheinander auf dem
165 verwehrte ihnen den Zugang zu den Damenumkleiden – weil die Designer*innen 219 entsprechenden Bildschirm angezeigt werden können. Suchergebnisse, die auf der
166 des Systems davon ausgegangen waren, dass nur Männer einen Doktortitel haben 220 zweiten Seite angezeigt werden, werden jedoch weniger oft angeklickt. Bevorzugt der
167 können.[12] Auch 221 Algorithmus der Suchmaschine zusätzlich bestimmte Websites und zeigt diese ganz oben
168 die oben bereits erwähnte Software, die Amazon zur 222 in der Ergebnisliste an, werden diese also deutlich öfter angeklickt – es liegt eine
169 Vorauswahl von Bewerber*innen einsetzte, hat einen Pre-Existing Bias: Da das Unternehmen 223 unfaire, systematische Diskriminierung vor. Technical Bias kann aber auch
170 bislang vor allem Männer 224 entstehen, wenn »Human Constructs«[15] wie Urteile, Diskurse
171 eingestellt hatte, ging das selbstlernende System davon aus, dass Frauen 225 oder Institutionen formalisiert und quantifiziert werden. Dies passiert
172 weniger geeignet für eine Einstellung bei Amazon seien.[13] 226 beispielsweise in Software, die voraussagt, wie hoch die Wahrscheinlichkeit ist,
173 [6] 227 dass ein*e Straftäter*in wiederholt delinquent wird.[16]
174 Technical Bias entsteht hingegen bei der 228 [6]Emergent Bias entsteht hingegen erst
175 »resolution of issues in the technical design«[14], beispielsweise durch 229 im Anwendungskontext der Technologie, also wenn Personen die Technologie nutzen.
176 Limitationen der Hard- und Software oder wenn Algorithmen bestimmte 230 Gründe für Emergent Bias können sein, dass »new knowledge in society«[17] nicht in die Technologie aufgenommen wird oder die Nutzer*innen der
177 Akteur*innen bevorzugen und andere benachteiligen. So führt die beschränkte 231 Technologie andere Fähigkeiten und Werte haben als die Nutzer*innengruppe, für
178 Größe von Bildschirmen beispielsweise dazu, dass die Ergebnisliste von 232 welche die Technologie ursprünglich designt wurde. Wenn beispielsweise ein
179 Suchmaschinen in verschiedene ›Seiten‹ aufgeteilt wird, die nur nacheinander 233 Geldautomat, der v. a. schriftbasiert mit Nutzer*innen kommuniziert (z. B. ›Geben
180 auf dem entsprechenden Bildschirm angezeigt werden können. Suchergebnisse, 234 Sie unten links Ihre Karte ein‹) in einer Gegend aufgestellt wird, in der viele
181 die auf der zweiten Seite angezeigt werden, werden jedoch weniger oft 235 Analphabet*innen wohnen, entsteht ein Emergent Bias: Die tatsächlichen Nutzer*innen
182 angeklickt. Bevorzugt der Algorithmus der Suchmaschine zusätzlich bestimmte 236 unterscheiden sich in ihren Fähigkeiten von den angenommenen Nutzer*innen der
183 Websites und zeigt diese ganz oben in der Ergebnisliste an, werden diese 237 Technologie. Vor allem Benutzeroberflächen weisen oft Emergent Bias auf, da sie mit
184 also deutlich öfter angeklickt – es liegt eine unfaire, systematische 238 Blick auf die Fähigkeiten und Gewohnheiten bestimmter Zielgruppen gestaltet werden.
185 Diskriminierung vor. Technical Bias kann aber auch 239 Diese können sich jedoch im Lauf der Zeit verändern.[18]
186 entstehen, wenn »Human Constructs«[15] wie Urteile, Diskurse oder 240
187 Institutionen formalisiert und quantifiziert werden. Dies passiert 241
188 beispielsweise in Software, die voraussagt, wie hoch die Wahrscheinlichkeit 242 3. Technologien in den Digital
189 ist, dass ein*e Straftäter*in wiederholt delinquent wird.[16] 243 Humanities
190 [7] 244
191 Emergent Bias entsteht hingegen erst im 245 [7]Technologien können also auf unterschiedliche
192 Anwendungskontext der Technologie, also wenn Personen die Technologie 246 Weise Bias hervorbringen. Was bedeutet das für die Digital Humanities?
193 nutzen. Gründe für Emergent Bias können sein, dass »new knowledge in 247 [8]Nach Friedman und Hendry umfassen Technologische Systeme sowohl Werkzeuge und Technologien, als auch Infrastrukturen und Policies. Unter Werkzeugen verstehen sie dabei
194 society«[17] nicht in die Technologie 248 »physical artifacts that augment human activity«[19] wie z. B. eine
195 aufgenommen wird oder die Nutzer*innen der Technologie andere Fähigkeiten 249 Steinaxt oder ein Messer. Wenn darüber hinaus wissenschaftliche Erkenntnisse
196 und Werte haben als die Nutzer*innengruppe, für welche die Technologie 250 angewandt werden, um praktische Probleme zu lösen (beispielsweise bei Traktoren und
197 ursprünglich designt wurde. Wenn beispielsweise ein Geldautomat, der v. a. 251 Computern), sprechen Friedman und Hendry von Technologien – wobei die
198 schriftbasiert mit Nutzer*innen kommuniziert (z. B. ›Geben Sie unten links 252 Übergänge zwischen Werkzeugen und Technologien fließend sind. Infrastrukturen
199 Ihre Karte ein‹) in einer Gegend aufgestellt wird, in der viele 253 beschreiben schließlich alle Einrichtungen und Strukturen, die nötig sind, um ein
200 Analphabet*innen wohnen, entsteht ein Emergent Bias: Die tatsächlichen 254 Vorhaben oder gesellschaftliche Aktivitäten zu realisieren, beispielsweise Straßen
201 Nutzer*innen unterscheiden sich in ihren Fähigkeiten von den angenommenen 255 und Energieversorgung. Werkzeuge, Technologien und Infrastrukturen stehen dabei in
202 Nutzer*innen der Technologie. Vor allem Benutzeroberflächen weisen oft 256 wechselseitiger Abhängigkeit und ergeben in ihrem Zusammenspiel sog.
203 Emergent Bias auf, da sie mit Blick auf die Fähigkeiten und Gewohnheiten 257 Technologische Systeme. Im Folgenden wird der Begriff Technologien
204 bestimmter Zielgruppen gestaltet werden. Diese können sich jedoch im Lauf 258 als Kurzform für Technologische Systeme genutzt und beschreibt dabei Werkzeuge,
205 der Zeit verändern.[18] 259 Technologien und Infrastrukturen genauso wie deren Zusammenspiel. Schließlich fassen
206 260 Friedman und Hendry auch Policies, also Regelwerke oder Strategien, unter den
207 3. Technologien in den Digital Humanities 261 Technologie-Begriff, da Policies als »some combination of tool and infrastructure«[20] verstanden werden und menschliches Handeln ebenfalls prägen.[21]
208 262 [9]Welche Technologien werden in den DH also
209 [8]Technologien können also auf unterschiedliche Weise Bias hervorbringen. Was 263 genutzt und angewendet? Eine systematische Orientierung bieten dabei die Spielarten
210 bedeutet das für die Digital Humanities? 264 der DH, die Roth und Burghardt unterscheiden: Digitized Humanities, Numerical Humanities, Humanities of the Digital und Public Humanities.[22]
211 265 [10]Mit dem Begriff Digitized Humanities
212 [9]Nach Friedman und Hendry umfassen Technologische Systeme 266 beschreibt Roth »the creation, curation, and use of digitized data sets«[23] in
213 sowohl Werkzeuge und Technologien, als auch Infrastrukturen 267 den Geistes- und Sozialwissenschaften. Akteur*innen in den Digitized Humanities
214 und Policies. Unter Werkzeugen 268 »digitize, store, process, gather, connect, manage, make available, mine and
215 verstehen sie dabei »physical artifacts that augment human 269 visualize«[24] Texte, Bilder und Multimedia-Artefakte. Dafür entwickeln und nutzen
216 activity«[19] wie z. B. eine Steinaxt oder ein Messer. 270 sie Software. In dieser Spielart der DH sind also beispielsweise Datenmanagement-
217 Wenn darüber hinaus wissenschaftliche Erkenntnisse angewandt werden, um 271 und Datenspeichersysteme, aber auch Visualisierungs-, Analyse-, Scraping- und
218 praktische Probleme zu lösen (beispielsweise bei Traktoren und Computern), 272 OCR-Tools sowie Benutzeroberflächen von Bedeutung. Darüber hinaus spielen Digitale
219 sprechen Friedman und Hendry von Technologien – wobei 273 Bibliotheken und Archive als Infrastrukturen eine Rolle, genauso wie Policies für
220 die Übergänge zwischen Werkzeugen und Technologien fließend sind. Infrastrukturen 274 die Erhebung, Kuratierung, Archivierung und Verfügbarmachung von Datensätzen.
221 beschreiben schließlich alle 275 [11]In der Kategorie der Numerical
222 Einrichtungen und Strukturen, die nötig sind, um ein Vorhaben oder 276 Humanities geht es hingegen darum, soziale Prozesse zu formalisieren, indem
223 gesellschaftliche Aktivitäten zu realisieren, beispielsweise Straßen und 277 mathematisch abstrahierte Modelle erstellt werden. Ziel ist dabei, »to capture the
224 Energieversorgung. Werkzeuge, Technologien und Infrastrukturen stehen dabei 278 possibly general mechanisms at the root of the observed data«.[25] Prozesse
225 in wechselseitiger Abhängigkeit und ergeben in ihrem Zusammenspiel sogenannte Technologische 279 softwaregestützt zu realisieren, die andernfalls langwierig oder schwierig umsetzbar
226 Systeme. Im Folgenden wird der Begriff 280 sind – wie beispielsweise bei OCR oder statistischen Analysen – versteht Roth dabei
227 Technologien als Kurzform für Technologische 281 nicht als Numerical Humanities; vielmehr zeichnet sich diese Spielart dadurch aus,
228 Systeme genutzt und beschreibt dabei Werkzeuge, Technologien und 282 dass »numerical models of human or social behavior per se«[26] entwickelt werden. Hier
229 Infrastrukturen genauso wie deren Zusammenspiel. Schließlich fassen Friedman 283 kommen vor allem selbstlernende Systeme zum Einsatz, beispielsweise
230 und Hendry auch Policies, also Regelwerke oder 284 Mustererkennungssoftware, die nach Gesetzmäßigkeiten in bestimmten Datensätzen
231 Strategien, unter den Technologie-Begriff, da Policies als »some 285 sucht.
232 combination of tool and infrastructure«[20] verstanden werden und menschliches Handeln 286 [12]Schließlich beschreibt Roth die
233 ebenfalls prägen.[21] 287 Humanities of the Digital als weitere Spielart der DH und meint damit die
234 [10]Welche Technologien werden in den DH also genutzt und angewendet? Eine 288 geisteswissenschaftliche Forschung zu computervermittelter Kommunikation,
235 systematische Orientierung bieten dabei die Spielarten der DH, die Roth und 289 Mensch-Maschine-Interaktion und Online-Gemeinschaften. Online-Communities werden als
236 Burghardt unterscheiden: Digitized Humanities, 290 sozio-technische Systeme verstanden, die sich durch eigene Regeln und Settings
237 Numerical Humanities, 291 auszeichnen und die es zu untersuchen gilt. So gehören neben Studien zur Rolle von
238 Humanities of the Digital und Public 292 digitaler Kommunikation im Alltag auch Untersuchungen zu Wikipedia, Blogs, sozialen Netzwerkseiten
239 Humanities.[22] 293 und Gaming-Plattformen zu den Humanities of the Digital.[27] In
240 [11]Mit dem Begriff Digitized Humanities beschreibt Roth 294 dieser Spielart geht es – anders als in den Digitized Humanities und den Numerical
241 »the creation, curation, and use of digitized data
242 sets«[23] in den Geistes- und Sozialwissenschaften. Akteur*innen in
243 den Digitized Humanities »digitize, store, process, gather, connect,
244 manage, make available, mine and visualize«[24] Texte, Bilder und Multimedia-Artefakte. Dafür entwickeln
245 und nutzen sie Software. In dieser Spielart der DH sind also beispielsweise
246 Datenmanagement- und Datenspeichersysteme, aber auch Visualisierungs-,
247 Analyse-, Scraping- und Optical Character Recognition (OCR)-Tools sowie Benutzeroberflächen
248 von Bedeutung.
249 Darüber hinaus spielen digitale Bibliotheken und Archive als Infrastrukturen
250 eine Rolle, genauso wie Policies für die Erhebung, Kuratierung, Archivierung
251 und Verfügbarmachung von Datensätzen.
252
253 [12]In der Kategorie der Numerical Humanities geht es
254 hingegen darum, soziale Prozesse zu formalisieren, indem mathematisch
255 abstrahierte Modelle erstellt werden. Ziel ist dabei, »to capture the
256 possibly general mechanisms at the root of the observed
257 data«[25]. Prozesse softwaregestützt zu realisieren, die andernfalls
258 langwierig oder schwierig umsetzbar sind – wie beispielsweise bei OCR oder
259 statistischen Analysen – versteht Roth dabei nicht als Numerical Humanities;
260 vielmehr zeichnet sich diese Spielart dadurch aus, dass »numerical
261 models of human or social behavior per se«[26] entwickelt werden. Hier kommen vor allem selbstlernende
262 Systeme zum Einsatz, beispielsweise Mustererkennungssoftware, die nach
263 Gesetzmäßigkeiten in bestimmten Datensätzen sucht.
264
265 [13]Schließlich beschreibt Roth die Humanities of the Digital als weitere
266 Spielart der DH und meint damit die geisteswissenschaftliche Forschung zu
267 computervermittelter Kommunikation, Mensch-Maschine-Interaktion und
268 Online-Gemeinschaften. Online-Communities werden als sozio-technische
269 Systeme verstanden, die sich durch eigene Regeln und Settings auszeichnen
270 und die es zu untersuchen gilt. So gehören neben Studien zur Rolle von
271 digitaler Kommunikation im Alltag auch Untersuchungen zu Wikipedia, Blogs,
272 Sozialen-Netzwerk-Seiten und Gaming-Plattformen zu den Humanities of the
273 Digital. [27] In dieser
274 Spielart geht es – anders als in den Digitized Humanities und den Numerical
275 Humanities – weniger darum, Technologien anzuwenden und zu entwickeln; 295 Humanities – weniger darum, Technologien anzuwenden und zu entwickeln;
277 Untersuchungsgegenstand. 297 Untersuchungsgegenstand.
278 298 [13]Den drei von Roth beschriebenen
279 [14]Den drei von Roth beschriebenen Teilbereichen der DH fügt Burghardt noch 299 Teilbereichen der DH fügt Burghardt noch einen vierten hinzu, die Public
280 einen vierten hinzu, die Public Humanities. Diese umfassen die Themenfelder 300 Humanities. Diese umfassen die Themenfelder des digitalen Publizierens, der
281 des digitalen Publizierens, der Wissenschaftskommunikation und des 301 Wissenschaftskommunikation und des E-Learning.[28] Hier spielen Infrastrukturen wie
282 E-Learning.[28] Hier spielen 302 Zeitschriften, Portale, Verlage und deren Policies eine Rolle, aber auch Soft- und
283 Infrastrukturen wie Zeitschriften, Portale, Verlage und deren Policies eine 303 Hardware, die für die Rezeption digitaler Publikationen und E-Learning-Ressourcen
284 Rolle, aber auch Soft- und Hardware, die für die Rezeption digitaler 304 benötigt werden, z. B. E-Book-Formate oder User Interfaces.
285 Publikationen und E-Learning-Ressourcen benötigt werden, z. B. 305
286 E-Book-Formate oder User Interfaces. 306
287 307 4. Value Sensitive Design: Grundlagen und
288 308 methodisches Vorgehen
289 4. Ethik in den DH: Informations- und Technikethik 309
290 310 [14]Bisher wurde also deutlich, dass in
291 [15]Bisher wurde also deutlich, dass in Digital-Humanities-Projekten 311 Digital-Humanities-Projekten verschiedenste Technologien eine Rolle spielen und dass
292 verschiedenste Technologien eine Rolle spielen und dass jede Technologie 312 jede Technologie verschiedene Formen von Bias enthalten kann. Damit kann auch jede
293 verschiedene Formen von Bias enthalten kann. Damit kann auch jede 313 Technologie, die in DH-Projekten entwickelt oder angewendet wird, biased
294 Technologie, die in DH-Projekten entwickelt oder angewendet wird, biased sein und bedarf einer ethischen Überprüfung. Wie aber können wir 314 sein. Wie aber können wir verhindern, dass Technologien in DH-Projekten Bias
295 den ethischen Herausforderungen begegnen, die sich aus den verschiedenen 315 beinhalten, hervorrufen oder verstärken?
296 Technologien in den Digital Humanities ergeben?[29] 316 [15]Ein Ansatz dazu ist Value Sensitive Design.
297 [16]Allgemein versucht Ethik die Frage zu beantworten, »wie menschliches Handeln möglich wird, das als gut, 317 Er wurde von Batya Friedman bereits in den 1990er-Jahren entwickelt[29] und zeichnet sich –
298 richtig und wünschenswert empfunden werden kann«[30]. 318 im Gegensatz zu anderen Ansätzen wie z. B. ›Social Shaping of Technology‹ – dadurch
299 Dabei gibt es Handlungsbereiche, die spezifische 319 aus, dass er Technologien nicht nur analysiert und kritisiert. Vielmehr legt das
300 ethische Probleme hervorbringen, welche nur in ihrem jeweiligen konkreten Kontext 320 Value Sensitive Design den Fokus darauf, wie Technologien »in moral and ethic
301 gelöst werden können. 321 ways«[30] konzipiert und umgesetzt
302 Um diese Probleme zu adressieren, haben sich verschiedene Bereichsethiken entwickelt, 322 werden können. Auf Basis von Value Sensitive Design kann also einerseits
303 beispielsweise die 323 systematisch analysiert werden, welche Werte in eine bestimmte Technologie
304 Informations-, die Technik-, die Medien- und die Computerethik. Diese Bereichsethiken 324 eingeschrieben sind. Andererseits bietet der Ansatz darüber hinaus aber auch ein
305 sind nicht scharf 325 »overarching theoretical and methodological framework«,[31] um Technologien
306 voneinander abgrenzbar und haben viele Berührungspunkte.[31] 326 wertesensitiv zu entwickeln, also die Werte aller betroffenen Akteur*innen im
307 [17]Um ethische Probleme in den Digital Humanities zu diskutieren, kann vor allem an Ansätze 327 gesamten Design-Prozess zu reflektieren und zu berücksichtigen. Dazu sieht Value
308 der Informations-
309 und Technikethik angeknüpft werden. Die Informationsethik befasst sich mit ethischen
310 Fragestellungen,
311 die im Zusammenhang mit Informations- und Kommunikationstechnologien[32] und »aus den Anwendungen des Internets,
312 des Informationsmanagements und der Computernutzung insgesamt hervorgehen«[33] – und damit also mit den
313 Technologien, die in den DH genutzt und entwickelt werden (vgl. Kapitel 3). Im Fokus steht dabei, wie
314 sich Informations- und Kommunikationstechnologien auf Umwelt und Gesellschaft auswirken.[34]
315 Als zentrale Grundwerte der Informationsethik identifiziert Rösch Informationsfreiheit,
316 Informationsgerechtigkeit,
317 Privatheit, Geistiges Eigentum, Informationsqualität und Informationsökologie.[35]
318 [18]Darüber hinaus sind in den Digital Humanities auch ethische Aspekte von Bedeutung,
319
320 die im Zusammenhang mit der sozialen Praxis, der Genese und der Einbettung von
321 Technologien entstehen. Diese sind Gegenstand der Technikethik:
322 Deren Aufgabe ist es, ethische Aspekte, die durch technische Innovationen
323 und den »wissenschaftlich-technischen Fortschritt[…]«[36] entstehen, zu
324 reflektieren und Entscheidungen über Technik auf Basis ethischer Argumente
325 zu ermöglichen. Technikethik beschäftigt sich auch mit der »sozialen Praxis
326 der Technik und ihrer Einbettung, der Praxis der Genese technischer Produkte
327 und Technologien«[37]. Anders als bei der Informationsethik gehen die zentralen
328 Werte der Technikethik dabei deutlich über den Bezugsrahmen der Technik selbst
329 hinaus und umfassen neben Effektivität, Effizienz und Sicherheit auch Gesundheit,
330
331 menschliches Wohlbefinden, (ökologische) Nachhaltigkeit, Gerechtigkeit, Demokratie,
332
333 Inklusivität[38] und
334 Geschlechtergerechtigkeit.[39]
335 [19]In der Informations-, der Technik- und der Computerethik haben sich verschiedene Methoden
336 und
337 Frameworks entwickelt, um die ethische Gestaltung von Projekten und Technologien zu
338 unterstützen,
339 beispielsweise Embedded Ethics oder Partizipatives Design.[40] Kern
340 des Embedded-Ethics-Ansatzes ist es, eine oder mehrere Ethiker*innen an allen Entscheidungen
341 im
342 gesamten Verlauf eines Projektes zu beteiligen.[41] Das Konzept des Partizipativen Designs legt hingegen den Fokus darauf, potentielle
343
344 Nutzer*innen in den Design-Prozess einzubinden.[42]
345 [20]Einen Schwerpunkt auf Informations- und Kommunikationstechnologien legt der Ansatz
346
347 des Value Sensitive Design,[43] der von Batya Friedman bereits in den 1990er-Jahren
348 entwickelt wurde[44] und sowohl in der Technik-,
349 als auch in der Informationsethik eine bedeutende Rolle spielt.[45] Friedman et al.
350 kritisierten, dass die Forschung zur ethischen Gestaltung von Technologien bislang
351 lediglich
352 einzelne Werte wie Privatsphäre, Autonomie oder informierte Einwilligung in den
353 Blick genommen hatte.[46] Daher schlagen sie mit Value Sensitive Design ein »overarching
354 theoretical and methodological framework«[47] vor, mit dem einerseits systematisch
355 analysiert werden kann, welche Werte in eine bestimmte Technologie eingeschrieben
356
357 sind. Zugleich ermöglicht das Framework,
358 Technologien wertesensitiv zu entwickeln, indem die Werte aller betroffenen
359 Akteur*innen im gesamten Design-Prozess reflektiert und berücksichtigt werden.[48]
360 [21]Mit Value Sensitive Design können Forscher*innen Technologien und ihre Anwendung also
361
362 nicht nur ethisch reflektieren, sondern auch im Sinne normativer Ethik »verändernd,
363 regulierend«[49]
364 auf die Entwicklung von Technologien und deren Rahmenbedingungen einwirken.
365 Seit seiner Entstehung vor über 30 Jahren wurde der Value-Sensitive-Design-Ansatz
366
367 stetig weiterentwickelt und in unterschiedlichen Bereichen angewendet, u. a. in
368 der Informationstechnologie, der Informatik, der Philosophie, der Gesundheitstechnologie
369
370 und der Pädagogik.[50]
371
372 5. Value Sensitive Design: Grundlagen und methodisches Vorgehen
373
374 [22]Um Technologien wertebasiert zu entwickeln sieht Value
375 Sensitive Design eine integrative und iterative Methodologie mit drei 328 Sensitive Design eine integrative und iterative Methodologie mit drei
376 Untersuchungsabschnitten vor: den konzeptionellen 329 Untersuchungs-Abschnitten vor: den konzeptionellen
377 Überlegungen, den empirischen 330 Überlegungen, den empirischen
380 333
381 5.1 Drei Untersuchungsabschnitte von Value Sensitive Design 334
382 335
383 [23]In den konzeptionellen Überlegungen wird herausgearbeitet, um welche 336 4.1 Drei Untersuchungsabschnitte von
384 zentralen Themen, Technologien und Werte es 337 Value Sensitive Design
385 geht (siehe auch Beispiele in Kapitel 5.2). Im Mittelpunkt 338
386 stehen dabei die Fragen: 339 [16]In den konzeptionellen
387 340 Überlegungen wird herausgearbeitet, um welche zentralen Themen,
388 341 Technologien und Werte es geht. Im Mittelpunkt stehen dabei die Fragen:
389 Welche Technologie wird analysiert oder gestaltet? 342
343 Welch Technologie wird analysiert oder gestaltet?
390 Welche Stakeholder sind direkt oder indirekt von der jeweiligen 344 Welche Stakeholder sind direkt oder indirekt von der jeweiligen
391 Technologie betroffen? 345 Technologie betroffen?
392
393 Welche Werte und Wertkonflikte spielen eine Rolle? 346 Welche Werte und Wertkonflikte spielen eine Rolle?
394 347
395 [24]Zentral ist im Value Sensitive Design dabei der Stakeholder-Begriff: Dieser bezieht – anders als der Begriff 348 [17]Besonders am
396 User – auch diejenigen Akteur*innen mit ein, 349 Value-Sensitive-Design-Ansatz ist dabei der Stakeholder-Begriff: Dieser bezieht – anders als der
397 die zwar nicht direkt mit der Technologie interagieren, auf die sich die 350 Begriff User – auch diejenigen
398 Technologie aber dennoch auswirkt: die sogenannten indirekten 351 Akteur*innen mit ein, die zwar nicht direkt mit der Technologie interagieren,
399 Stakeholder. Akteur*innen, die direkt mit der jeweiligen 352 auf die sich die Technologie aber dennoch auswirkt: die sog. indirekten Stakeholder. Akteur*innen,
400 Technologie interagieren, werden dagegen als direkte 353 die direkt mit der jeweiligen Technologie interagieren, werden dagegen als direkte Stakeholder verstanden.
401 Stakeholder verstanden. Stakeholder können dabei sowohl 354 Stakeholder können dabei sowohl Individuen, Gruppen, Organisationen und
402 Individuen, Gruppen, Organisationen und Gesellschaften als auch 355 Gesellschaften als auch zukünftige Generationen sein. In den konzeptionellen
403 zukünftige Generationen sein. In den konzeptionellen Überlegungen wird 356 Überlegungen wird also analysiert, welche Stakeholder direkt oder indirekt von
404 also analysiert, welche Stakeholder direkt oder indirekt von der 357 der jeweiligen Technologie betroffen sind und auf welche Weise.[32]
405 jeweiligen Technologie betroffen sind und auf welche Weise.[51] 358 [18]Auch die Werte und Wertkonflikte, die
406 [25]Auch die Werte und Wertkonflikte, die im Kontext der Technologie eine 359 im Kontext der Technologie eine Rolle spielen, werden im Rahmen der
407 Rolle spielen, werden im Rahmen der konzeptionellen Untersuchungen 360 konzeptionellen Untersuchungen expliziert und konkret beschrieben. Ein Wert ist
408 expliziert und konkret beschrieben. Ein Wert ist dabei, »what a 361 dabei, »what a person or group of people consider important in life«.[33] Da der Value-Sensitive-Design-Ansatz den Werte-Begriff damit sehr
409 person or group of people consider important in life«[52]. Da der 362 weit fasst, sieht er vor, auf Basis von Literatur und bisheriger Forschung zu
410 Value-Sensitive-Design-Ansatz den Werte-Begriff damit sehr weit fasst, 363 spezifizieren, was genau unter einem bestimmten Wert im jeweiligen Kontext
411 sieht er vor, auf Basis von Literatur und bisheriger Forschung zu 364 verstanden wird.[34] Als Ausgangspunkt
412 spezifizieren, was genau unter einem bestimmten Wert im jeweiligen 365 bieten Friedman und Hendry hierfür eine Liste mit 13 Werten, die beim Design
413 Kontext verstanden wird.[53] Als Ausgangspunkt bieten Friedman 366 technischer Systeme oft eine Rolle spielen und von ethischer Bedeutung sind:
414 und Hendry hierfür eine Liste mit 13 Werten, die beim Design technischer 367
415 Systeme oft eine Rolle spielen und von ethischer Bedeutung sind. 368 menschliches Wohlergehen,
416 Die Autor*innen weisen aber ausdrücklich darauf hin, dass diese 369 Eigentum und Besitz,
417 Liste nicht vollständig ist.[54] Die Liste umfasst: 370 Freiheit von Bias,
418 371 Privatsphäre,
419 »Human welfare« 372 Vertrauen,
420 »Ownership and property« 373 Autonomie,
421 »Privacy« 374 Usability,
422 »Freedom from bias« 375 informierte Einwilligung,
423 »Universal Usability « 376 Verantwortung,
424 »Trust« 377 Identität,
425 »Autonomy« 378 Verbindlichkeit,
426 »Informed consent« 379 Identität,
427 »Accountability« 380 Gelassenheit,
428 »Courtesy« 381 ökologische Nachhaltigkeit.
429 »Identity« 382
430 »Calmness« 383 [19]Die Autor*innen weisen aber
431 »Environmental sustainability«[55] 384 ausdrücklich darauf hin, dass diese Liste nicht vollständig ist.[35]
432 385 [20]Im Rahmen der empirischen
433 386 Untersuchungen wird mittels qualitativer und quantitativer Methoden
434 [26]Human welfare meint beispielsweise körperliches und psychisches Wohlbefinden. 387 untersucht, wie die betroffenen Akteur*innen die jeweiligen Werte im Kontext der
435 Der Wert Courtesy bezieht sich darauf, Akteur*innen mit Höflichkeit 388 Technologie bewerten und welche Prioritäten sie bei Wertkonflikten setzen.
436 und Rücksichtnahme zu begegnen. Identity beschreiben Friedman und 389 Dieser Teilbereich des Value Sensitive Design sieht darüber hinaus vor, zu einem
437 Hendry als »people’s understanding of who they are over time, embracing 390 späteren Zeitpunkt im Design-Prozess empirisch zu prüfen, inwiefern die
438 both continuity and discontinuity«[56]. Leider kann an dieser Stelle keine 391 Technologie die entsprechenden Werte in der Anwendung tatsächlich fördert.
439 ausführliche Diskussion der Werte erfolgen, die Friedman und Hendry aufzählen. 392 [21]Die technischen Investigationen
440 Eine Kurzdefinition und ausführliche Literaturhinweise finden sich aber zu jedem 393 haben ebenfalls zwei Aufgaben: Erstens, zu analysieren, wie sich bestimmte
441 der Werte bei Friedman et al.[57] 394 bereits existierende Charakteristika einer Technologie auf verschiedene Werte
442 [27]Wie oben erwähnt ist bei Value Sensitive Design jedoch entscheidend, 395 auswirken. Zweitens wird in den technischen Investigationen überlegt, wie die
443 dass auf Basis von Literatur herausgearbeitet wird, was unter einem 396 Technologie so gestaltet werden kann, dass sie die Werte unterstützt, die in den
444 bestimmten Wert im Kontext einer konkreten Technologie verstanden wird.[58] 397 konzeptionellen und empirischen Untersuchungen herausgearbeitet wurden.[36] Friedman und Hendry
445 Eine umfängliche Konzeptualisierung der Werte, die in den Digital Humanities 398 betonen dabei, dass Technologien eng mit den sozialen Strukturen verknüpft sind,
446 eine Rolle spielen, kann also nicht unabhängig vom konkreten Kontext der 399 in die sie eingebettet sind. Um bestimmte Werte zu fördern, muss daher nicht in
447 jeweiligen Technologie geleistet werden. In Kapitel 5 wird gezeigt, dass 400 jedem Fall das technische Design angepasst werden. Eine Lösung kann auch darin
448 in den Digital Humanities über die hier genannten Werte hinaus beispielsweise 401 bestehen, Policies oder soziale Strukturen zu verändern.[37]
449 auch Geschlechtergerechtigkeit, Barrierefreiheit, globale Gerechtigkeit im Sinne 402 [22]Die drei Untersuchungs-Abschnitte sind
450 von Teilhabe und Freiheit von Diskriminierung[59], aber auch die in der 403 nicht voneinander unabhängig, sondern beeinflussen sich wechselseitig. Die
451 Informationsethik zentralen Werte Informationsfreiheit und -gerechtigkeit 404 Reihenfolge der Untersuchungsabschnitte ist daher nicht vorab festgelegt;
452 eine Rolle spielen. 405 vielmehr ist eine iterative Wiederholung der Investigationen vorgesehen (vgl. Abbildung
453 406 1).[38]
454 [28]Im zweiten Untersuchungsabschnitt, den empirischen Untersuchungen, wird 407
455 mittels qualitativer und quantitativer Methoden analysiert, wie die 408
456 betroffenen Akteur*innen die jeweiligen Werte im Kontext der Technologie 409
457 bewerten und welche Prioritäten sie bei Wertkonflikten setzen (siehe 410
458 auch Beispiele in Kapitel 5.2). Dieser Teilbereich des Value
459 Sensitive Design sieht darüber hinaus vor, zu einem späteren Zeitpunkt
460 im Design-Prozess empirisch zu prüfen, inwiefern die Technologie die
461 entsprechenden Werte in der Anwendung tatsächlich fördert.
462
463 [29]Die technischen Investigationen haben ebenfalls zwei Aufgaben: Erstens,
464 zu analysieren, wie sich bestimmte bereits existierende Charakteristika
465 einer Technologie auf verschiedene Werte auswirken. Zweitens wird in den
466 technischen Investigationen überlegt, wie die Technologie so gestaltet
467 werden kann, dass sie die Werte unterstützt, die in den konzeptionellen
468 und empirischen Untersuchungen herausgearbeitet wurden (siehe auch
469 Beispiele in Kapitel 5.2).[60] Friedman und Hendry betonen dabei,
470 dass Technologien eng mit den sozialen Strukturen verknüpft sind, in die
471 sie eingebettet sind. Um bestimmte Werte zu fördern, muss daher nicht in
472 jedem Fall das technische Design angepasst werden. Eine Lösung kann auch
473 darin bestehen, Policies oder soziale Strukturen zu verändern.[61]
474 [30]Die drei Untersuchungsabschnitte sind nicht voneinander unabhängig,
475 sondern beeinflussen sich wechselseitig. Die Reihenfolge der
476 Untersuchungsabschnitte ist daher nicht vorab festgelegt; vielmehr ist
477 eine iterative Wiederholung der Investigationen vorgesehen (vgl. Abbildung 1).[62]
478 411
483 416
484 5.2 Anwendung von Value Sensitive Design: Zwei Beispiele 417
485 418
486 [31]So weit, so theoretisch: Wie aber sieht es mit 419
487 Value-Sensitive-Design-Analyse in der Praxis aus? 420 4.2 Anwendung von Value Sensitive
488 Im Folgenden werden zwei Projekte vorgestellt, die eine Technologie auf Basis von 421 Design am Beispiel ›Room with a view‹
489 Value Sensitive Design entwickelt haben. 422
490 423 [23]So weit, so theoretisch: Wie aber sieht
491 5.2.1 ›Room with a view‹: Virtuelle Fenster in Büroräumen 424 eine Value-Sensitive-Design-Analyse in der Praxis aus? Um dies zu zeigen, wird
492 425 im Folgenden vorgestellt, wie Friedman et al. das Projekt ›Room with a view‹ mit
493 [32]In dem Projekt ›Room with a view‹ ging es darum, in fensterlosen Büroräumen Bildschirme 426 Value Sensitive Design begleiteten. In dem Projekt ging es darum, in
494 aufzustellen, auf denen 427 fensterlosen Büroräumen Bildschirme aufzustellen, auf denen eine
495 eine Live-Übertragung des Platzes vor dem Bürogebäude zu sehen war. Friedman et al. 428 Live-Übertragung des Platzes vor dem Bürogebäude zu sehen war.[39]
496 begleiteten das 429 [24]In den konzeptionellen Überlegungen
497 Projekt mit Value Sensitive Design.[63] 430 stellten Friedman et al. die These auf, dass der Blick auf ein ›virtuelles
498 [33]In den konzeptionellen Überlegungen stellten Friedman et al. die These 431 Fenster‹ – also die Live-Übertragung einer Straßenszene auf Plasma-Bildschirme –
499 auf, dass der Blick auf ein ›virtuelles Fenster‹ – also die 432 die Gesundheit, das Wohlbefinden und die Kreativität der Beschäftigten steigert.
500 Live-Übertragung einer Straßenszene auf Plasma-Bildschirme – die 433 Basis dafür waren verschiedene psychologische Studien, die zeigen, dass der
501 Gesundheit, das Wohlbefinden und die Kreativität der Beschäftigten 434 Blick auf Natur-Szenen positive physiologische und psychologische Auswirkungen
502 steigert. Basis dafür waren verschiedene psychologische Studien, die 435 hat und beispielsweise Stress und Krankheiten reduziert.[40] Direkte Stakeholder der Technologie sind also die Beschäftigten in
503 zeigen, dass der Blick auf Natur-Szenen positive physiologische und 436 den fensterlosen Büroräumen, deren Werte Gesundheit und Kreativität gefördert
504 psychologische Auswirkungen hat und beispielsweise Stress und 437 werden sollen. Die ›virtuellen‹ Fenster haben aber auch Auswirkungen auf
505 Krankheiten reduziert.[64] Direkte Stakeholder 438 Personen, die sich auf dem Platz vor dem Bürogebäude aufhalten: Sie werden
506 der Technologie sind also die Beschäftigten in den fensterlosen 439 gefilmt und auf den Bildschirmen in den Büros abgebildet. Sie sind damit
507 Büroräumen, deren Werte Gesundheit und Kreativität gefördert werden 440 indirekte Stakeholder der Technologie. Die Live-Übertragung des Platzes auf
508 sollen. Die ›virtuellen‹ Fenster haben aber auch Auswirkungen auf 441 Bildschirme in den Bürogebäuden könnte damit die Gefährdung der Privatsphäre der
509 Personen, die sich auf dem Platz vor dem Bürogebäude aufhalten: Sie 442 indirekten Stakeholder mit sich bringen.[41]
510 werden gefilmt und auf den Bildschirmen in den Büros abgebildet. Sie 443 [25]Ausgehend von diesen konzeptionellen
511 sind damit indirekte Stakeholder der Technologie. Die Live-Übertragung 444 Überlegungen führten Friedman et al. verschiedene empirische Untersuchungen
512 des Platzes auf Bildschirme in den Bürogebäuden könnte damit die 445 durch, um zu prüfen, inwiefern die Technologie der ›virtuellen Fenster‹ die
513 Gefährdung der Privatsphäre der indirekten Stakeholder mit sich 446 unterschiedlichen Werte der direkten und indirekten Stakeholder tatsächlich
514 bringen.[65] 447 fördert oder behindert. So untersuchten sie zunächst in einem experimentellen
515 [34]Ausgehend von diesen konzeptionellen Überlegungen führten Friedman et al. 448 Setting, welche Effekte ein Bildschirm, auf dem eine Straßenszene vor dem
516 verschiedene empirische Untersuchungen durch, um zu prüfen, inwiefern 449 Bürogebäude live übertragen wird, auf die Büroangestellten hat. Hierzu erhoben
517 die Technologie der ›virtuellen Fenster‹ die unterschiedlichen Werte der 450 die Forscher*innen verschiedene Parameter wie die Blickrichtung, den Puls und
518 direkten und indirekten Stakeholder tatsächlich fördert oder behindert. 451 verschiedene Leistungsdaten der Büroangestellten und führten anschließend
519 So untersuchten sie zunächst in einem experimentellen Setting, welche 452 qualitative Interviews. Dabei kamen sie zu dem Ergebnis, dass die
520 Effekte ein Bildschirm, auf dem eine Straßenszene vor dem Bürogebäude 453 Live-Übertragung auf dem Bildschirm eine ähnlich erholsame Wirkung hat wie ein
521 live übertragen wird, auf die Büroangestellten hat. Hierzu erhoben die 454 echtes Fenster. Einen größeren physiologischen Erholungseffekt wiesen echte
522 Forscher*innen verschiedene Parameter wie die Blickrichtung, den Puls 455 Fenster im Vergleich zu ›virtuellen Fenstern‹ nur dann auf, wenn die
523 und verschiedene Leistungsdaten der Büroangestellten und führten 456 Teilnehmenden länger als 30 Sekunden auf das jeweilige ›Fenster‹ blickten.[42]
524 anschließend qualitative Interviews. Dabei kamen sie zu dem Ergebnis, 457 [26]Zusätzlich untersuchten Friedman et al.
525 dass die Live-Übertragung auf dem Bildschirm eine ähnlich erholsame 458 die Interessen der indirekten Stakeholder – also der Passant*innen auf dem Platz
526 Wirkung hat wie ein echtes Fenster. Einen größeren physiologischen 459 vor dem Bürogebäude –, indem sie diese zu ihrer Einstellung zu Privatsphäre im
527 Erholungseffekt wiesen echte Fenster im Vergleich zu ›virtuellen 460 öffentlichen Raum allgemein und zur Live-Übertragung ihres Bildes auf die
528 Fenstern‹ nur dann auf, wenn die Teilnehmenden länger als 30 Sekunden 461 Büro-Bildschirme befragten. Dabei wurde deutlich, dass die Passant*innen die
529 auf das jeweilige ›Fenster‹ blickten.[66] 462 Werte Privatsphäre, informierte Einwilligung und Sicherheit sehr hoch
530 [35]Zusätzlich untersuchten Friedman et al. die Interessen der indirekten 463 bewerteten. Mit dieser Vielfalt empirischer Methoden untersuchten die
531 Stakeholder – also der Passant*innen auf dem Platz vor dem Bürogebäude 464 Forscher*innen also, welche Werte für die verschiedenen betroffenen Akteur*innen
532 –, indem sie diese zu ihrer Einstellung zu Privatsphäre im öffentlichen 465 im Kontext der ›Virtuelles Fenster‹-Technologie wichtig sind. Dabei wurde
533 Raum allgemein und zur Live-Übertragung ihres Bildes auf die 466 deutlich, dass ein Wertkonflikt vorliegt: Während die Technologie die Werte der
534 Büro-Bildschirme befragten. Dabei wurde deutlich, dass die Passant*innen 467 direkten Stakeholder steigert – also Gesundheit, Wohlbefinden und Kreativität –,
535 die Werte Privatsphäre, informierte Einwilligung und Sicherheit sehr 468 gefährdet sie die Werte der indirekten Stakeholder – Privatsphäre, Sicherheit
536 hoch bewerteten. Mit dieser Vielfalt empirischer Methoden untersuchten 469 und informierte Einwilligung.[43]
537 die Forscher*innen also, welche Werte für die verschiedenen betroffenen 470 [27]Wie kann mit einem solchen
538 Akteur*innen im Kontext der ›Virtuelles Fenster‹-Technologie wichtig 471 Wertekonflikt umgegangen werden? In den technischen Investigationen empfehlen
539 sind. Dabei wurde deutlich, dass ein Wertkonflikt vorliegt: Während die 472 die Forscher*innen, Gebäude grundsätzlich mit Fenstern zu bauen, da der Blick
540 Technologie die Werte der direkten Stakeholder steigert – also 473 auf eine Natur-Szene die Werte der Büroangestellten fördert und durch ›virtuelle
541 Gesundheit, Wohlbefinden und Kreativität –, gefährdet sie die Werte der 474 Fenster‹ nur teilweise ersetzt werden kann.[44] Um im Falle von
542 indirekten Stakeholder – Privatsphäre, Sicherheit und informierte 475 Gebäuden, die nun mal bereits ohne Fenster gebaut wurden, dennoch einen
543 Einwilligung.[67] 476 positiven Effekt für Büroangestellte durch ›virtuelle Fenster‹ zu erzielen, ohne
544 [36]Wie kann mit einem solchen Wertekonflikt umgegangen werden? In den 477 die Werte von Passant*innen auf dem Platz vor dem Bürogebäude als indirekte
545 technischen Investigationen empfehlen die Forscher*innen, Gebäude 478 Stakeholder zu gefährden, könnte darüber hinaus eine Natur-Szene auf den
546 grundsätzlich mit Fenstern zu bauen, da der Blick auf eine Natur-Szene 479 Bildschirm übertragen werden, in der keine Menschen zu sehen sind.
547 die Werte der Büroangestellten fördert und durch ›virtuelle Fenster‹ nur 480
548 teilweise ersetzt werden kann.[68] Um im Falle von Gebäuden, die 481
549 nun mal bereits ohne Fenster gebaut wurden, dennoch einen positiven 482
550 Effekt für Büroangestellte durch ›virtuelle Fenster‹ zu erzielen, ohne
551 die Werte von Passant*innen auf dem Platz vor dem Bürogebäude als
552 indirekte Stakeholder zu gefährden, könnte darüber hinaus eine
553 Natur-Szene auf den Bildschirm übertragen werden, in der keine Menschen
554 zu sehen sind.
555 483
558 Abb. 2: Beispiel für eine Natur-Szene, 486 Abb. 2: Beispiel für eine Natur-Szene,
559 auf der keine Menschen abgebildet werden. Eignet sich auch für 487 auf der keine Menschen abgebildet werden. Eignet sich auch für ein kurzes
560 ein kurzes Experiment: Entspannt Sie der Anblick dieser 488 Experiment: Entspannt Sie der Anblick dieser Natur-Szene? [Free Fotos
561 Natur-Szene? [Free Fotos 2016] 489 2016]
562 490
563 [37]Das Beispiel macht deutlich, wie die drei Untersuchungsabschnitte des 491 [28]Das Beispiel zeigt, wie die drei
564 Value-Sensitive-Design-Ansatzes angewendet werden können und, dass das 492 Untersuchungs-Abschnitte des Value-Sensitive-Design-Ansatzes angewendet werden
565 Einbeziehen der indirekten Stakeholder und deren Interessen bedeutsame 493 können und, dass das Einbeziehen der indirekten Stakeholder und deren Interessen
566 Implikationen für das Design einer Technologie haben kann. 494 bedeutsame Implikationen für das Design einer Technologie haben kann.
567 Um noch stärker zu verdeutlichen, wie auf Basis von Value Sensitive 495
568 Design konkrete Design-Anforderungen für die Gestaltung einer 496
569 Technologie formuliert werden können, wird im Folgenden ein zweites 497
570 Beispiel skizziert. 498
571 499 5. Value Sensitive Design in
572 500 Digital-Humanities-Projekten
573 5.2.2 Die Groupware CodeCOOP für den Wissensaustausch in Unternehmen 501
574 502 [29]Der Value-Sensitive-Design-Ansatz wurde
575 503 seit seiner Entstehung vor über 30 Jahrenstetig weiterentwickelt und in
576 [38]Die Entwicklung und Umsetzung des Groupware-Systems CodeCOOP begleiteten Miller 504 unterschiedlichen Bereichen angewendet, u. a. in der Informationstechnologie,
577 et al. aus einer Value-Sensitive-Design-Perspektive. Das Groupware-System 505 der Informatik, der Philosophie, der Gesundheitstechnologie und der Pädagogik.[45] In den Digital Humanities ist der Ansatz aber bisher wenig
578 wurde mit dem Ziel entwickelt, den Austausch von Wissen unter den Mitarbeiter*innen 506 rezipiert worden. Im Folgenden soll daher vorgestellt werden, wie Value
579 507 Sensitive Design in unterschiedlichen DH-Projekten angewendet werden kann. Für
580 des Software-Unternehmens LEO-R zu fördern. Mitarbeiter*innen sollten Informationen 508 jede Spielart der DH nach Roth und Burghardt werden dazu Anknüpfungspunkte für
581 und Code einfach und effizient über die Groupware miteinander teilen können. 509 Value Sensitive Design aufgezeigt.
582 Zu den Features des Groupware-Systems gehören u. a. Diskussionsforen, eine 510
583 Volltext-Suche und ein »code repository«[69]. Um zu gewährleisten, dass 511
584 Mitarbeiter*innen das System nach seiner Einführung tatsächlich nutzen, sollten 512
585 Wertkonflikte dabei von Anfang an erkannt und gelöst werden.[70] 513
586 [39]In einem ersten Schritt untersuchten Miller et al. im Rahmen der konzeptionellen 514 5.1 Pre-Existing Bias in den
587 Investigationen, welche Stakeholder von dem Groupware-System betroffen sind. 515 Digitized Humanities abmindern
588 Direkte Stakeholder sind die Mitarbeiter*innen des Software-Unternehmens LEO-R, 516
589 die direkt mit dem System interagieren.[71] Als indirekte Stakeholder identifizierten 517 [30]Wie oben bereits ausgeführt, fasst
590 Miller et al. Manager*innen und Führungskräfte des Unternehmens. Anschließend 518 Roth unter Digitized Humanities die Aktivitäten, die digitale
591 untersuchten die Autor*innen der Studie, welche potentiellen Vorteile und Gefahren 519 Datensätze in den Geistes- und Sozialwissenschaften erstellen, kuratieren
592 520 und nutzen, indem Texte, Bilder und Multimedia-Artefakte digitalisiert,
593 das Groupware-System für jede Stakeholder-Gruppe mit sich bringt und welche Werte 521 verarbeitet, verknüpft, verfügbar gemacht und visualisiert werden,
594 522 beispielsweise in Digitalen Archiven.[46] Diese Aktivitäten haben
595 dies betrifft. Auf Basis von Forschungsliteratur zu vergleichbaren Groupware-Systemen 523 direkte und indirekte Auswirkungen auf verschiedene Interessensgruppen und
596 524 deren Werte: So zeigen ethische und wissenschaftstheoretische
597 und in Zusammenarbeit mit einer Expert*innen-Gruppe aus Unternehmens-Mitarbeiter*innen 525 Untersuchungen, »dass bereits im Prozess der Datenformatierung als auch der
598
599 stellten Miller et al. fest, dass vor allem Reputation, Zusammenarbeit, Privatsphäre,
600
601 Anonymität, Vertrauen, und »awareness«[72] im Kontext des Systems eine Rolle spielen.[73]
602 [40]Im zweiten Abschnitt, den empirischen Investigationen, führten Miller et al.
603 eine anonyme Online-Befragung mit den Mitarbeiter*innen des Software-Unternehmens
604
605 durch. Dabei wurden die Mitarbeiter*innen gefragt, wie sie die Vor- und Nachteile
606
607 der Groupware und die damit verbundenen Werte einschätzen und gewichten. Darüber
608 hinaus planten Miller et al., Manager*innen und Führungskräfte des Software-Unternehmens
609
610 zu ihren Interessen und Werten zu befragen; diese sagten ihre Teilnahme an
611 Interviews jedoch aus Zeitgründen ab.[74] Die Autor*innen der Studie bemängeln
612 daher das unzureichende Einbeziehen der indirekten Stakeholder in ihrer
613 Value-Sensitive-Design-Analyse.[75]
614 [41]In den technischen Investigationen, dem dritten Abschnitt der
615 Value-Sensitive-Design-Analyse, übersetzten Miller et al. die
616 Werte und Interessen der Stakeholder in Design-Anforderungen für
617 die Groupware. Dazu nutzten sie die Methode der Value Dams and
618 Flows. Die Methode sieht vor, technische Funktionen und Policies zu
619 vermeiden, wenn sie von einem Teil der Stakeholder als sehr
620 problematisch bewertet werden. Solche Funktionen und Policies
621 werden als Value Dams bezeichnet. Value Dams werden bereits dann
622 ausgesprochen, wenn ein geringer Anteil der Stakeholder eine bestimmte
623 Funktion oder Policy stark ablehnt. Als Value Flows werden hingegen
624 technische Funktionen und Policies bezeichnet, die ein großer Teil der
625 Stakeholder als wünschenswert beurteilt. Sie werden in die Gestaltung
626 des Systems aufgenommen. Zwischen den Value Dams und Flows können
627 Konflikte entstehen, die systematisch adressiert und gelöst werden müssen.[76]
628 [42]Für das Groupware-System CodeCOOP legten Miller et al. fest, dass Features,
629 die mehr als die Hälfte der Umfrage-Teilnehmer*innen als deutlichen Vorteil
630 bewerteten, als Value Flows eingeordnet werden. So war mehr als 50% der
631 System-Nutzer*innen wichtig, zu sehen, mit welcher Häufigkeit eigene
632 Inhalte von anderen Mitarbeiter*innen genutzt werden. Ähnlich wichtig
633 war den Nutzer*innen, dass angezeigt wird, wie andere Nutzer*innen einzelne
634 Posts bewerten bzw. ranken. Diese Features definierten Miller et al.
635 daher als Value Flows, die im Design der Groupware umgesetzt werden
636 sollen, um die »awareness«[77] der System-Nutzer*innen zu unterstützen.[78]
637 [43]Zugleich sahen mehr als 11% der Teilnehmer*innen der Online-Befragung
638 einen deutlichen Eingriff in ihre Privatsphäre, wenn geloggt wird,
639 welche Fragen sie in den Diskussionforen posten und welche Suchanfragen
640 sie stellen. Um die Privatsphäre der System-Nutzer*innen zu schützen,
641 legten Miller et al. das Loggen von Fragen und Suchanfragen als Value
642 Dams fest. Damit entsteht ein Konflikt zwischen der Förderung der
643 »awareness« der Mitarbeiter*innen und dem Schutz ihrer Privatsphäre.
644 Miller et al. formulierten daher die Designanforderung, dass zwar
645 angezeigt wird, wie oft einzelne Inhalte genutzt und wie sie gerankt
646 wurden; dass dabei aber nicht sichtbar ist, wer den Inhalt gesucht,
647 genutzt oder gerankt hat.[79]
648 [44]Schließlich formulierten Miller et al. auch für die Unternehmens-Policies
649 in Bezug auf das Groupware-System Value Dams und Flows, denn
650 »groupware systems do not exist independent of complex social systems«[80].
651 So gaben über 70% der Teilnehmer*innen der Online-Befragung an,
652 dass sie es als deutlichen Vorteil ansehen, wenn das Beantworten
653 von Fragen und Beitragen von Code ihre Reputation im Unternehmen
654 stärkt. Zugleich nahmen 13% der Befragten als Gefahr war, dass
655 sich ihre Reputation verschlechtern könnte, wenn sie inkorrekte
656 Antworten oder fehlerhaften Code in der Groupware posten. Diesen
657 Wertkonflikt lösten Miller et al., indem sie empfahlen, dass der
658 Beitrag zum Groupware-System ausschließlich dann in die jährliche
659 Evaluation der Mitarbeiter*innen einfließt, wenn die Bewertung
660 positiv ausfällt.[81]
661 [45]Das hier vorgestellte Groupware-System wurde zwar im Kontext
662 eines Unternehmens entwickelt; zugleich können Informationssysteme,
663 die den Austausch von Wissen, die Dokumentation von Code und die
664 Zusammenarbeit verschiedener Akteur*innen fördern, auch im Kontext
665 der Digital Humanities eine zentrale Rolle spielen.
666
667
668
669
670 6. Value Sensitive Design in Digital-Humanities-Projekten
671
672 [46]In den Digital Humanities
673 ist der Ansatz aber bisher nach Kenntnis der Autorin nicht rezipiert worden. Im Folgenden
674 soll daher
675 vorgestellt werden, wie Value Sensitive Design in unterschiedlichen
676 DH-Projekten angewendet werden kann. Für jede Spielart der DH nach Roth und
677 Burghardt werden dazu Anknüpfungspunkte für Value Sensitive Design
678 aufgezeigt.
679
680 6.1 Pre-Existing Bias in den Digitized Humanities abmindern
681
682 [47]Wie oben bereits ausgeführt, fasst Roth unter Digitized Humanities die
683 Aktivitäten, die digitale Datensätze in den Geistes- und
684 Sozialwissenschaften erstellen, kuratieren und nutzen, indem Texte,
685 Bilder und Multimedia-Artefakte digitalisiert, verarbeitet, verknüpft,
686 verfügbar gemacht und visualisiert werden, beispielsweise in digitalen
687 Archiven.[82] Diese Aktivitäten haben direkte und
688 indirekte Auswirkungen auf verschiedene Interessensgruppen und deren
689 Werte: So zeigen ethische und wissenschaftstheoretische Untersuchungen,
690 »dass bereits im Prozess der Datenformatierung als auch der
691 weiteren Verarbeitung von Daten und der aus ihnen gezogenen 526 weiteren Verarbeitung von Daten und der aus ihnen gezogenen
692 Schlussfolgerungen mannigfaltige Wertentscheidungen getroffen 527 Schlussfolgerungen mannigfaltige Wertentscheidungen getroffen werden«.[47] Der Value-Sensitive-Design-Ansatz kann in den Digitized
693 werden«.[83] 528 Humanities also genutzt werden, um bei der Zusammenstellung digitaler
694 [48]Direkte Stakeholder von Technologien, die in den Digitized Humanities 529 Datensätze und beim Aufbau Digitaler Archive und Infrastrukturen die
695 erstellt und genutzt werden, sind einerseits diejenigen, die an 530 Interessen aller betroffenen Stakeholder zu beachten.[48] Dadurch kann verhindert werden, dass Pre-Existing Bias
696 DH-Projekten und -Infrastrukturen mitwirken und diese gestalten, 531 reproduziert wird – oder sogar dazu beigetragen werden, diesen abzumindern.
697 beispielsweise DH-Forscher*innen, Bibliotheksmitarbeiter*innen und 532 Zur Verdeutlichung folgen einige Beispiele, wie Value Sensitive Design in
698 IT-Dienstleister*innen. Aber auch die Nutzer*innen von DH-Infrastrukturen 533 Digitized Humanities-Projekten dazu beitragen kann, Diskriminierung auf
699 sind direkte Stakeholder der Technologien in den Digitized Humanities, 534 Basis von kolonialen Machtstrukturen, binären Geschlechtszuschreibungen und
700 indem sie beispielsweise aus wissenschaftlichem oder privaten 535 körperlichen Fähigkeiten zu lindern.
701 Interesse die Inhalte nutzen, die digitale Archive und Bibliotheken 536
702 bereitstellen. Als indirekte Stakeholder der Technologien in den 537
703 Digitized Humanities können darüber hinaus all jene verstanden 538
704 werden, die in den Texten, Bildern und Multimedia-Artefakten der 539 5.1.1 Digitale Archive
705 DH-Projekte und -Infrastrukturen abgebildet werden – genauso 540 postkolonial gestalten
706 wie jene Gruppen, die in diesen Projekten und Infrastrukturen 541
707 eben nicht repräsentiert werden. Im Folgenden wird gezeigt, 542 [31]Digitale Archive können koloniale
708 dass die Werte, die in den Digitized Humanities eine Rolle 543 Machtstrukturen reproduzieren. Das macht Risam am Beispiel der Networked Infrastructure for
709 spielen, unter anderem Geschlechtergerechtigkeit, Barrierefreiheit, 544 Nineteenth-Century Electronic Scholarship (NINES) deutlich: Das
710 globale Gerechtigkeit im Sinne von Teilhabe und Freiheit von 545 Projekt dient der Vernetzung von DH-Projekten zum 19. Jahrhundert in den USA
711 Diskriminierung[84] umfassen. 546 und Großbritannien, indem es über 900.000 [49] Projekte,
712 547 Publikationen und digitale Sammlungen zusammenstellt, zentral durchsuchbar
713 [49]Der Value-Sensitive-Design-Ansatz 548 macht und Qualitätssicherung durch Peer Review anbietet. NINES ist damit
714 kann in den Digitized Humanities also genutzt werden, um bei der 549 eine bedeutende Infrastruktur in den Digital Humanities. Die Autor*innen,
715 Zusammenstellung digitaler Datensätze und beim Aufbau digitaler Archive 550 die in NINES zu finden sind, sind allerdings eine »narrowly prescribed group
716 und Infrastrukturen die Interessen aller betroffenen Stakeholder zu 551 of primarily white writers«.[50] Texte Schwarzer und indigener
717 beachten.[85] Dadurch kann verhindert 552 Autor*innen sind hingegen stark unterrepräsentiert. Zudem sind
718 werden, dass Pre-Existing Bias reproduziert wird – oder sogar dazu 553 englischsprachige Texte, die im 19. Jahrhundert in den von Großbritannien
719 beigetragen werden, diesen abzumindern. Zur Verdeutlichung folgen einige 554 kolonialisierten Gebieten entstanden sind, nicht zu finden. Thematisiert
720 Beispiele, wie Value Sensitive Design in Digitized Humanities-Projekten 555 wird dieser Mangel auf der Projektseite nicht. [51] NINES schreibt damit
721 dazu beitragen kann, Diskriminierung auf Basis von kolonialen 556 »colonial dynamics of knowledge production«[52] fort, durch die
722 Machtstrukturen, binären Geschlechtszuschreibungen und körperlichen 557 »colonial violence«[53] in der
723 Fähigkeiten zu lindern. 558 Digital-Humanities-Forschung reproduziert wird.
724 559 [32]Risam fordert daher, Digitale
725 6.1.1 Gender Bias ausgleichen 560 Archive postkolonial zu gestalten und koloniale Formen der Wissensproduktion
726 561 zu überwinden. Dafür kann Value Sensitive Design als Ausgangspunkt dienen:
727 [50]Digitale Datensätze, die in den DH erstellt, kuratiert und genutzt werden, 562 So sieht der Ansatz vor, bei der Identifikation der Stakeholder – also
728 entstehen meist auf Basis bereits vorhandener Sammlungen, beispielsweise 563 derjenigen, die direkt oder indirekt von einer Technologie betroffen sind –
729 von Bibliotheken und Archiven. Zentral ist daher für die ethische 564 besonders Individuen und Gruppen zu berücksichtigen, die von Diskriminierung
730 Gestaltung von Projekten in den Digitized Humanities, zu Beginn zu 565 betroffen sind.[54] Damit können
731 analysieren, inwiefern die Datenbasis des jeweiligen Projekts einen 566 die Interessen und Werte von Personen, die von rassistischer oder
732 Bias aufweist.[86] So weisen beispielsweise die Bestände von Archiven 567 (neo-)kolonialer Diskriminierung betroffen sind, im Rahmen von empirischen
733 meist einen Gender Bias auf. So konstatiert 568 Untersuchungen erhoben und aktiv in das Design von Digitalen Archiven und
734 Buettner für die Monacensia im Hildebrandhaus, 569 Infrastrukturen einbezogen werden.
735 dem Literaturarchiv der Stadtbibliothek München: 570
736 571
737 [51]»Mit einem Blick auf die Archivbestände der 572
573 5.1.2 Gender Bias ausgleichen
574
575
576 [33]Darüber hinaus weisen die Bestände
577 von Archiven – und damit die Basis für digitale Datensätze – meist einen
578 Gender Bias auf. So konstatiert Buettner für die Monacensia im Hildebrandhaus, dem
579 Literaturarchiv der Stadtbibliothek München:
580
581 »Mit einem Blick auf die Archivbestände der
738 Monacensia stellen wir fest, dass sich das literarische Gedächtnis 582 Monacensia stellen wir fest, dass sich das literarische Gedächtnis
739 bislang einseitig aus Erinnerungen von Männern 583 bislang einseitig aus Erinnerungen von Männern speist. Das
740 speist. Das künstlerische Werk von Frauen ist in der Vergangenheit 584 künstlerische Werk von Frauen ist in der Vergangenheit landauf landab
741 landauf landab als weniger relevant eingeschätzt worden. […] Das 585 als weniger relevant eingeschätzt worden. […] Das literarische
742 literarische Gedächtnis der Stadt München reproduziert so – genau 586 Gedächtnis der Stadt München reproduziert so – genau wie viele
743 wie viele Museumssammlungen, Theaterspielpläne, Verlags-, Radio- und 587 Museumssammlungen, Theaterspielpläne, Verlags-, Radio- und
744 Ausstellungsprogramm [sic!] – eine unvollständige 588 Ausstellungsprogramm [sic!] – eine unvollständige Wirklichkeit.«[55]
745 Wirklichkeit.«[87] 589
746 [52]Bei der Erstellung digitaler Datensätze und Archive gilt es also, diesen 590 [35]Bei der Erstellung digitaler
747 Pre-Existing Gender Bias so gut wie möglich auszugleichen. Auf Basis von 591 Datensätze und Archive gilt es also, diesen Pre-Existing Gender Bias so gut
748 Value Sensitive Design können bei der Erstellung digitaler Datensätze 592 wie möglich auszugleichen. Auf Basis von Value Sensitive Design können dabei
749 auf Basis von Archiven wie der Monacensia in einem ersten Schritt – 593 u. a. im Rahmen der technischen Investigationen Lösungsansätze gesucht
750 den konzeptionellen Überlegungen – die betroffenen Stakeholder und 594 werden, um Daten von und über Frauen in ausreichender Quantität und Qualität
751 Stakeholder-Gruppen identifiziert werden. Neben den Mitarbeiter*innen 595 in den Datensatz bzw. das Digitale Archiv aufzunehmen – oder, sollte dies
752 des Archivs bzw. des DH-Projekts können auch die Nutzer*innen der 596 nicht möglich sein, Frauen trotz der strukturellen Unterrepräsentation im
753 Monacensia als direkte Stakeholder begriffen werden. Eine bedeutende 597 Datensatz sichtbar zu machen. Die Monacensia im Hildebrandhaus rief
754 Gruppe indirekter Stakeholder sind hingegen Frauen im Allgemeinen und 598 beispielsweise das mehrjährige partizipative Kulturerbeprojekt
755 Akteurinnen des literarischen Lebens in München im Besonderen: Sie 599 #femaleheritage ins Leben, »um die literarischen Texte und
756 sind in den Beständen der Monacensia unterrepräsentiert, sodass ihre
757 Werte Teilhabe und Repräsentation gefährdet sind.
758
759 [53]In einem zweiten Schritt, den empirischen Investigationen, müsste
760 untersucht werden, welche Werte den verschiedenen Stakeholder-Gruppen
761 in Bezug auf das digitale Archiv tatsächlich wichtig sind. Dazu könnten
762 beispielsweise Akteurinnen des literarischen Lebens in München wie
763 Autorinnen und Literaturwissenschaftlerinnen im Rahmen von qualitativen
764 Interviews befragt werden. Auch die Werte der direkten Stakeholder-Gruppen,
765 also der Mitarbeiter*innen des Archivs bzw. des DH-Projekts und der
766 potentiellen Nutzer*innen des digitalen Archivs müssten im Rahmen
767 empirischer Untersuchungen erhoben werden, sodass potentiell auftretende
768 Wertkonflikte identifiziert werden können.
769
770 [54]Wie können die Werte Teilhabe und Repräsentation von Frauen gefördert werden,
771 wenn auf Basis von Archivbeständen mit Gender Bias ein digitaler Datensatz
772 oder ein digitales Archiv erstellt wird? Im Rahmen des dritten Analyseschritts,
773 den technischen Investigationen, werden Strategien entwickelt, um Daten von und über
774 Frauen in ausreichender Quantität und Qualität in den Datensatz bzw. das
775 digitale Archiv aufzunehmen – oder, sollte dies nicht möglich sein,
776 Frauen trotz der strukturellen Unterrepräsentation im Datensatz sichtbar
777 zu machen. Die Monacensia im Hildebrandhaus rief beispielsweise das
778 mehrjährige partizipative Kulturerbeprojekt #femaleheritage ins Leben, »um die literarischen Texte und
779 Dokumente von Frauen ins literarische Gedächtnis ein- bzw. 600 Dokumente von Frauen ins literarische Gedächtnis ein- bzw.
780 zurückzuschreiben«.[88] Das Projekt zeigt in Blogartikeln 601 zurückzuschreiben«.[56] Das Projekt zeigt in Blogartikeln und
781 und Sonderausstellungen Archivlücken und Forschungsdesiderate zu Frauen 602 Sonderausstellungen Archivlücken und Forschungsdesiderate zu Frauen in
782 in München auf, erstellte ein Online-Dossier mit Dokumentarfilmen und 603 München auf, erstellte ein Online-Dossier mit Dokumentarfilmen und Texten zu
783 Texten zu jüdischen Schriftstellerinnen und sammelte in einer Blogparade 604 jüdischen Schriftstellerinnen und sammelte in einer Blogparade über 200
784 über 200 Beiträge in Podcasts, Blogs und der Wikipedia, in denen Frauen 605 Beiträge in Podcasts, Blogs und der Wikipedia, in denen Frauen im Kontext
785 im Kontext von Literatur, Kultur, Politik und Gesellschaft gewürdigt 606 von Literatur, Kultur, Politik und Gesellschaft gewürdigt werden.[57]
786 werden.[89] 607
608
609
610
787 611
790 Zusammenstellung der knapp 200 Blogartikel, die im Kontext der 614 Zusammenstellung der knapp 200 Blogartikel, die im Kontext der
791 #femaleheritage-Blogparade entstanden sind. [Praske 615 #femaleheritage-Blogparade entstanden sind. [Praske 2021]
792 2021] 616
793 617 [36]Auch wenn die Moncacensia kein
794 [55]Das Beispiel zeigt, dass Value Sensitive Design dazu beitragen kann, 618 DH-Projekt ist, zeigt das Beispiel, dass digitale und analoge Archiv- und
795 Pre-Existing Bias in Archiv- und Datenbeständen zu ermitteln und Strategien zu entwickelt, 619 Datenbestände Pre-existing Bias aufweisen können – und dass (nicht nur, aber
796 620 auch auf Basis von Value Sensitive Design) Strategien entwickelt werden
797 um diesen Bias in digitalen Datensätzen und Archiven 621 können, um diesen abzumindern.
798 abzumindern. 622
799 623
800 624 5.1.3 Barrierefreiheit fördern
801 6.1.2 Digitale Archive postkolonial gestalten 625
802 626
803 [56]Darüber hinaus können digitale Archive koloniale Machtstrukturen 627 [37]Schließlich kann auf Basis des
804 reproduzieren. Das macht Risam am Beispiel der Networked Infrastructure for Nineteenth-Century Electronic 628 Value-Sensitive-Design-Ansatzes auch sichergestellt werden, dass Digitale
805 Scholarship (NINES) deutlich: Das Projekt dient der 629 Archive und Infrastrukturen möglichst barrierefrei sind. Ein bedeutender
806 Vernetzung von DH-Projekten zum 19. Jahrhundert in den USA und 630 Aspekt ist dabei die Gestaltung der Benutzeroberfläche: Diese sollte nach
807 Großbritannien, indem es über 900.000[90] Projekte, Publikationen und 631 den Prinzipien der Web
808 digitale Sammlungen zusammenstellt, zentral durchsuchbar macht und 632 Accessibility so gestaltet sein, dass auch Personen mit
809 Qualitätssicherung durch Peer Review anbietet. NINES ist damit eine 633 visuellen, auditiven und physischen Einschränkungen das Online-Angebot
810 bedeutende Infrastruktur in den Digital Humanities. Die Autor*innen, 634 nutzen können (ausführlicher hierzu Kapitel 5.4). Aber auch finanzielle Aspekte spielen für die
811 die in NINES zu finden sind, sind allerdings eine »narrowly 635 barrierearme Nutzung von und die Beteiligung an digitalen Archiven und
812 prescribed group of primarily white writers«[91]. Texte 636 Infrastrukturen eine Rolle: So macht Rojas Castro darauf aufmerksam, dass
813 Schwarzer und indigener Autor*innen sind hingegen stark 637 Institutionen mit geringen finanziellen Ressourcen keine eigenen
814 unterrepräsentiert. Zudem sind englischsprachige Texte, die im 19. 638 Digitalisate zu digitalen Infrastrukturen beitragen können, wenn sie ihre
815 Jahrhundert in den von Großbritannien kolonialisierten Gebieten 639 Dokumente dafür zwingend mit einem kostenpflichtigen Persistenten
816 entstanden sind, nicht zu finden. Thematisiert wird dieser Mangel 640 Identifikator wie DOI oder Handle versehen müssen. Dies führt
817 auf der Projektseite nicht.[92] NINES schreibt damit »colonial 641 wiederum zu weiteren Verzerrungen: Wenn beispielsweise ressourcenarme
818 dynamics of knowledge production«[93] fort, durch die »colonial 642 Institutionen im globalen Süden eigene Digitalisate in zentralen
819 violence«[94] in der 643 DH-Infrastrukturen aus finanziellen Gründen nicht beitragen können, entsteht
820 Digital-Humanities-Forschung reproduziert wird. 644 ein regionaler Bias.[58] Werden also
821 645 Value-Sensitive-Design-Überlegungen in die Gestaltung von digitalen
822 [57]Risam fordert daher, digitale Archive postkolonial zu gestalten und koloniale 646 Infrastrukturen und deren Policies einbezogen, fördert dies den Abbau von
823 Formen der Wissensproduktion zu überwinden. Dafür kann Value Sensitive 647 Barrieren, weil die Interessen von Stakeholdern mit geringen finanziellen
824 Design als Ausgangspunkt dienen: So sieht der Ansatz vor, bei der 648 Ressourcen oder verschiedenen physischen Beeinträchtigungen berücksichtigt
825 Identifikation der Stakeholder – also derjenigen, die direkt oder indirekt 649 werden.
826 von einer Technologie betroffen sind – besonders Individuen und Gruppen 650
827 zu berücksichtigen, die von Diskriminierung betroffen sind. Personen, 651
828 die von rassistischer und (neo-)kolonialer Diskriminierung betroffen 652 5.2 Design-Normen für
829 sind, können somit als Stakeholder von DH-Projekten wie NINES identifiziert 653 KI-Anwendungen in den Numerical Humanities
830 werden: Als Gruppe, die in den Inhalten der Infrastruktur NINES 654
831 unterrepräsentiert ist, sind sie indirekte Stakeholder. Als Mitarbeiter*innen 655 [38]Anders als die Digitized Humanities
832 oder Nutzer*innen von DH-Projekten wie NINES können sie zugleich aber auch 656 legt die Spielart der Numerical Humanities den Schwerpunkt darauf,
833 direkte Stakeholder sein. Mit Value Sensitive Design kann im Rahmen der
834 konzeptionellen und empirischen Untersuchungen zunächst geklärt werden,
835 welche verschiedenen Stakeholder-Gruppen konkret von der DH-Infrastruktur
836 betroffen sind, welche Werte die unterschiedlichen Stakeholdergruppen als
837 wichtig erachten und welche Wertkonflikte dabei entstehen. Auf Basis
838 dieser Analysen können die Werte von Stakeholder-Gruppen, die von
839 rassistischer und (neo-)kolonialer Diskriminierung betroffen sind,
840 aktiv in das Design von digitalen Archiven und Infrastrukturen
841 einbezogen werden.
842
843
844 6.1.3 Barrierefreiheit fördern
845
846 [58]Schließlich kann auf Basis des Value-Sensitive-Design-Ansatzes auch
847 sichergestellt werden, dass digitale Archive und Infrastrukturen
848 möglichst barrierefrei sind. Ein bedeutender Aspekt ist dabei die
849 Gestaltung der Benutzeroberfläche: Diese sollte nach den Prinzipien der
850 Web Accessibility so gestaltet sein, dass
851 auch Personen mit visuellen, auditiven und physischen Einschränkungen
852 das Online-Angebot nutzen können (ausführlicher hierzu Kapitel 6.4). Aber auch
853 finanzielle Aspekte spielen für die barrierearme Nutzung von und die
854 Beteiligung an digitalen Archiven und Infrastrukturen eine Rolle: So
855 macht Rojas Castro darauf aufmerksam, dass Institutionen mit geringen
856 finanziellen Ressourcen keine eigenen Digitalisate zu digitalen
857 Infrastrukturen beitragen können, wenn sie ihre Dokumente dafür zwingend
858 mit einem kostenpflichtigen Persistenten Identifikator wie DOI oder Handle versehen
859 müssen. Dies führt wiederum zu weiteren Verzerrungen: Wenn
860 beispielsweise ressourcenarme Institutionen im globalen Süden eigene
861 Digitalisate in zentralen DH-Infrastrukturen aus finanziellen Gründen
862 nicht beitragen können, entsteht ein regionaler Bias.[95]
863 [59]Auf Basis von Value Sensitive Design können Personen mit verschiedenen
864 physischen Einschränkungen genauso wie Institutionen mit geringen
865 finanziellen Ressourcen als Stakeholder von digitalen Archiven und
866 Infrastrukturen in den Fokus genommen werden. Im Rahmen empirischer
867 Untersuchungen kann erhoben werden, welche Interessen und Werte
868 diese Stakeholder-Gruppen haben – beispielsweise Barrierefreiheit,
869 Freiheit von Bias, Teilhabe und (Informations-)Gerechtigkeit –
870 und an welchen Stellen diese möglicherweise mit den Interessen
871 weiterer Stakeholder-Gruppen in Konflikt geraten. Darauf aufbauend
872 können im Rahmen der technischen Investigationen Strategien
873 entwickelt werden, um die Benutzeroberflächen und Policies der
874 DH-Projekte so zu gestalten, dass sie auch die Interessen von
875 Personen mit verschiedenen physischen Einschränkungen genauso
876 wie von Institutionen mit geringen finanziellen Ressourcen berücksichtigen.
877
878
879
880 6.2 Design-Normen für KI-Anwendungen in den Numerical Humanities
881
882
883
884 [60]Anders als die Digitized Humanities legt die Spielart der Numerical Humanities den
885 Schwerpunkt darauf,
886 formale Modelle zu erstellen und menschliches Verhalten mathematisch zu 657 formale Modelle zu erstellen und menschliches Verhalten mathematisch zu
887 abstrahieren. Hier kommen vor allem KI-Anwendungen wie Machine Learning 658 abstrahieren. Hier kommen vor allem KI-Anwendungen wie Machine Learning
888 Software zum Einsatz. Machine Learning Software zeichnet sich dadurch 659 Software zum Einsatz. Machine Learning Software zeichnet sich dadurch aus,
889 aus, dass sie sich autonom und adaptiv weiterentwickelt, indem sie mit 660 dass sie sich autonom und adaptiv weiterentwickelt, indem sie mit ihrem
890 ihrem Umfeld interagiert. Machine Learning Systeme können daher aus 661 Umfeld interagiert. Machine-Learning-Systeme können daher aus verschiedenen
891 verschiedenen Gründen Bias enthalten: Wenn die Trainingsdaten biased 662 Gründen Bias enthalten: Wenn die Trainingsdaten biased sind, wird dieser
892 sind, wird dieser Bias unweigerlich in die Machine Learning Software 663 Bias unweigerlich in die Machine Learning Software übertragen. Beispiel
893 übertragen. Beispiel hierfür ist die eingangs erwähnte 664 hierfür ist die eingangs erwähnte Gesichtserkennungssoftware, die bei
894 Gesichtserkennungssoftware, die bei Schwarzen Personen eine deutlich 665 Schwarzen Personen eine deutlich höhere Rate an falsch positiven Treffern
895 höhere Rate an falsch positiven Treffern aufweist als bei weißen Personen – weil die Trainingsdaten 666 aufweist als bei weißen Personen – weil die Trainingsdaten vorrangig
896 vorrangig Bilder weißer Personen enthielten. 667 Bilder weißer Personen enthielten. Mithilfe des
897 Mithilfe des Value-Sensitive-Design-Ansatzes kann also sichergestellt 668 Value-Sensitive-Design-Ansatzes kann also sichergestellt werden, dass der
898 werden, dass der Datensatz, auf dessen Basis eine 669 Datensatz, auf dessen Basis eine Machine Learning Software lernt, keinen
899 Machine Learning Software lernt, keinen Bias aufweist (vgl. auch Kapitel 6.1). 670 Bias aufweist (vgl. auch Kapitel
900 671 5.1).
901 [61]Machine Learning Systeme können aber auch bei unverzerrten Trainingsdaten 672 [39]Machine-Learning-Systeme können
902 einen Algorithmus hervorbringen, der »might conceivably be 673 aber auch bei unverzerrten Trainingsdaten einen Algorithmus hervorbringen,
903 described as following a rule that is somehow biased«.[96] Diese Form von Bias ist 674 der »might conceivably be described as following a rule that is somehow
904 »emergent und opaque«,[97] er ist also nicht 675 biased«.[59] Diese Form von
905 vorhersehbar und für Menschen schwer zu erkennen. Eine ethische 676 Bias ist »emergent und opaque«,[60] er ist also
906 Überprüfung von Machine Learning Technologien bringt daher besondere 677 nicht vorhersehbar und für Menschen schwer zu erkennen. Eine ethische
678 Überprüfung von Machine-Learning-Technologien bringt daher besondere
907 Herausforderungen mit sich. Umbrello und van de Poel schlagen vor, das 679 Herausforderungen mit sich. Umbrello und van de Poel schlagen vor, das
908 Value-Sensitive-Design-Framework für KI-Anwendungen weiterzuentwickeln 680 Value-Sensitive-Design-Framework für KI-Anwendungen weiterzuentwickeln und
909 und um ein »set of AI-specific design principles«[98] zu ergänzen. Drei Aspekte 681 um ein »set of AI-specific design principles«[61] zu
910 sind dabei zentral: 682 ergänzen. Drei Aspekte sind dabei zentral:
911 683 [40]1) Als Design-Vorgaben, die für
912 [62]1) Als Design-Vorgaben, die für alle KI-Anwendungen gelten, schlagen 684 alle KI-Anwendungen gelten, schlagen Umbrello und van de Poel die AI for
913 Umbrello und van de Poel die AI for Social Good-Prinzipien (AI4SG) vor. Diese spezifizieren die Prinzipien der EU High Level Expert Group on AI und übertragen 685 Social Good-Prinzipien (AI4SG) vor. Diese spezifizieren die
914 sie in sieben konkrete Anforderungen für das Design von KI-Anwendungen: 686 Prinzipien der EU High Level Expert Group
915 687 on AI und übertragen sie in sieben konkrete Anforderungen für das
688 Design von KI-Anwendungen:
916 689
918 Szenarien empirisch getestet; 691 Szenarien empirisch getestet;
919
920 die Designer*innen sichern die Anwendung gegen die Manipulation 692 die Designer*innen sichern die Anwendung gegen die Manipulation
921 der Datenbasis und die übermäßige Abhängigkeit von einzelnen 693 der Datenbasis und die übermäßige Abhängigkeit von einzelnen Variablen
922 Variablen ab; 694 ab;
923
924 die Nutzer*innen-Autonomie wird gestärkt, indem die User*innen 695 die Nutzer*innen-Autonomie wird gestärkt, indem die User*innen
925 verschieden Auswahlmöglichkeiten bekommen; 696 verschieden Auswahlmöglichkeiten bekommen;
926
927 die Anwendung ist transparent und wird angepasst an die jeweilige 697 die Anwendung ist transparent und wird angepasst an die jeweilige
928 Nutzer*innen-Gruppe erklärt; 698 Nutzer*innen-Gruppe erklärt;
929 699 die Privatsphäre von »data subjects«[62]
930 die Privatsphäre von »data subjects«[99] wird geschützt; 700 wird geschützt;
931
932 die Datenbasis, mit der die Anwendung lernt, muss frei von Bias 701 die Datenbasis, mit der die Anwendung lernt, muss frei von Bias
933 sein, v. a. bezüglich Kategorien wie Race, Gender und Altersklassen 702 sein, v. a. bezüglich Kategorien wie Race, Gender und Altersklassen und
934 und
935
936 die Zuschreibung von Bedeutung darf nicht willkürlich erfolgen und 703 die Zuschreibung von Bedeutung darf nicht willkürlich erfolgen und
937 nicht zu eng gefasst werden.[100] 704 nicht zu eng gefasst werden.[63]
938 705
939 [63]2) Die AI4SG-Prinzipien zielen jedoch vorrangig darauf ab, KI-Anwendungen 706 [41]2) Die AI4SG-Prinzipien zielen
940 so zu gestalten, dass sie keinen Schaden hervorrufen. Der 707 jedoch vorrangig darauf ab, KI-Anwendungen so zu gestalten, dass sie keinen
941 Value-Sensitive-Design-Ansatz sieht darüber hinaus aber auch vor, 708 Schaden hervorrufen. Der Value-Sensitive-Design-Ansatz sieht darüber hinaus
942 gesellschaftlich erwünschte Werte und Ziele aktiv zu fördern sowie die Werte aller 709 aber auch vor, gesellschaftlich erwünschte Werte und Ziele aktiv zu fördern.
943 beteiligten Stakeholder zu berücksichtigen. Umbrello 710 Umbrello und van de Poel schlagen daher vor, zwischen »values promoted by
944 und van de Poel schlagen daher vor, zwischen »values promoted by 711 design and values respected by design«[64] zu
945 design and values respected by design«[101] zu unterscheiden. Welche 712 unterscheiden. Welche Werte gesellschaftlich erwünscht sind und von
946 Werte gesellschaftlich erwünscht sind und von KI-Technologien gefördert 713 KI-Technologien gefördert werden sollen, kann beispielsweise anhand der
947 werden sollen, kann beispielsweise anhand der Sustainable Development Goals 714 Sustainable Development Goals (SDG) der UN abgeleitet werden, die
948 (SDG) der UN abgeleitet werden, die von den Vereinten Nationen 715 von den Vereinten Nationen erarbeitet und ihren 193 Mitgliedsstaaten
949 erarbeitet und ihren 193 Mitgliedsstaaten verabschiedet wurden.[102] Zu den Zielen, 716 verabschiedet wurden.[65] Zu den Zielen, die in den SDG
950 die in den SDG festgehalten sind, gehören u. a. 717 festgehalten sind, gehören u. a. Geschlechtergerechtigkeit, die Bekämpfung
951 Geschlechtergerechtigkeit, die Bekämpfung von Armut und der Zugang zu 718 von Armut und der Zugang zu Bildung.[66]
952 Bildung.[103] 719 [42]3) Schließlich schlagen die Autoren
953 [64]3) Schließlich schlagen die Autoren vor, dass die 720 vor, dass die Value-Sensitive-Design-Analyse den gesamten Lebenszyklus einer
954 Value-Sensitive-Design-Analyse den gesamten Lebenszyklus einer 721 KI-Anwendung begleitet. Sollten im Lauf der Anwendungszeit einer Technologie
955 KI-Anwendung begleitet. Sollten im Lauf der Anwendungszeit einer 722 Problematiken und Wertverletzungen auftauchen, kann sie so entsprechend
956 Technologie Problematiken und Wertverletzungen auftauchen, kann sie so 723 angepasst werden. Die Erweiterung des Value-Sensitive-Design-Frameworks
957 entsprechend angepasst werden. Die Erweiterung des 724 sieht daher vor, über den gesamten Lebenszyklus hinweg Prototypen der
958 Value-Sensitive-Design-Frameworks sieht daher vor, über den gesamten 725 KI-Anwendung zu erstellen und diese im jeweiligen Anwendungsfeld zu testen.
959 Lebenszyklus hinweg Prototypen der KI-Anwendung zu erstellen und diese 726 Dabei werden nicht nur die technischen Funktionen geprüft, sondern auch die
960 im jeweiligen Anwendungsfeld zu testen. Dabei werden nicht nur die 727 Auswirkungen der KI-Anwendung auf Werte und Gesellschaft. Diese Tests
961 technischen Funktionen geprüft, sondern auch die Auswirkungen der 728 sollten mit der Anwendung in kleinem Rahmen beginnen und dann sukzessive den
962 KI-Anwendung auf Werte und Gesellschaft. Diese Tests sollten mit der 729 Bezugsrahmen ausweiten.[67]
963 Anwendung in kleinem Rahmen beginnen und dann sukzessive den 730 [43]Auf Basis dieses erweiterten
964 Bezugsrahmen ausweiten.[104] 731 Frameworks kann Value Sensitive Design also auch in den Numerical Humanities
965 [65]Umbrello und van de Poel illustrieren den Ablauf einer Value-Sensitive-Design-Analyse 732 genutzt werden, um selbstlernenden Systeme wertebasiert zu gestalten oder
966 733 bereits existierende KI-Anwendungen informationsethisch zu überprüfen.
967 von KI-Anwendungen am Beispiel der Corona-Datenspende-App, die im 734
968 April 2020 vom Robert-Koch-Institut (RKI) vorgestellt wurde. Über die App 735
969 können Bürger*innen mit Fitnessarmbändern und Smartwatches dem RKI ihre 736
970 Gesundheitsdaten zur Verfügung stellen, um die Ausbreitung des COVID-19-Virus 737 5.3 Akteur*innen und ihre
971 nachvollziehbar zu machen. In drei Schritten analysieren Umbrello und 738 Interessen in den Humanities of the Digital analysieren
972 van de Poel die Werte, die bei der Entwicklung und dem Einsatz der Corona 739
973 Datenspende-App eine Rolle spielen: 740 [44]Als dritte Spielart der Digital
974 741 Humanities beschreibt Roth die Humanities of the Digital: Die
975 742 geisteswissenschaftliche Forschung zu »computermediated interactions and
976 Als gesellschaftlich erwünschten Wert, den die Anwendung 743 societies«,[68] also zu soziotechnischen
977 fördert (»Values promoted by design«[105]) identifizieren sie öffentliche 744 Systemen wie Online-Communities, Blogs, Sozialen Netzwerk-Seiten und
978 Gesundheit. Dieser Wert lässt sich dem dritten SDG, Gesundheit und
979 Wohlbefinden, zuordnen.
980
981 Darüber hinaus analysieren die Autoren, welche »values respected
982 by design«, also Design-Vorgaben, die für alle KI-Anwendungen gelten,
983 im Kontext der Corona-Datenspende-App besondere Bedeutung einnehmen. So spielt
984 zum Beispiel die Verhinderung von Schaden (»Nonmaleficence«[106]) eine hervorgehobene Rolle, vor allem
985 in Bezug auf Datensicherheit und Privatsphäre. Aber auch Erklärbarkeit
986 und Autonomie sind Werte, die beim Design der App beachtet werden müssen,
987 d. h. es muss eine »balance between human decision-making power and
988 its abdication to AI systems«[107] gewährleistet werden, die Funktionsweise
989 der App und des KI-Systems müssen verständlich sein und mindestens eine Person
990 muss für die Funktionsweise verantwortlich zeichnen.
991
992 Schließlich analysieren Umbrello und van de Poel, welche
993 Interessen und Werte die Stakeholder der Corona-Datenspende-App
994 haben. Dabei nehmen sie die Nutzer*innen der App als direkte Stakeholder
995 in den Fokus. So ist beispielsweise Freiwilligkeit entscheidend, also
996 dass das Nutzen der App nicht verpflichtend ist. Damit einher geht der
997 Wert Fairness, der gewährleistet, dass niemand stigmatisiert oder
998 diskriminiert wird, der*die die App nicht nutzt. Zudem könnte das
999 Tracing der Nutzer*innen über die App eine Gefahr für die Versammlungfreiheit
1000 darstellen, was die Autonomie der Nutzer*innen und die »Nonmaleficence«
1001 der KI-Anwendung gefährdet. Auch der Wert Gesundheit ist aus
1002 Nutzer*innen-Perspektive von besonderer Bedeutung: Wenn die App zu
1003 einem falschen Sicherheitsgefühl führt, könnten Nutzer*innen Gesundheitsrisiken
1004 eingehen.[108]
1005
1006
1007 [66]Anschließend zeigen Umbrello und van de Poel beispielhaft, wie die verschiedenen
1008 identifizierten Werte in Design-Anforderungen übersetzt werden können. Um den
1009 Wert Verhinderung von Schaden (»Nonmaleficence«[109]) zu unterstützen, müssen bei
1010 der Gestaltung der App vor allem der Schutz der Privatsphäre und informierte
1011 Einwilligung beachtet werden. Daraus ergibt sich erstens die Anforderung, dass
1012 die Nutzungsbedingungen der App verständlich formuliert werden müssen, und
1013 zweitens, dass die erhobenen Daten pseudonymisiert, lokal gespeichert und
1014 nach einem bestimmten Zeitraum wieder gelöscht werden müssen. Um den Wert
1015 der Erklärbarkeit zu unterstützen, muss für Nutzer*innen zudem transparent
1016 gemacht werden, welche Daten und Datensets gesammelt und erstellt werden, wie
1017 diese verwendet, gespeichert und gelöscht werden.[110] Abschließend empfehlen die
1018 Autoren die Erstellung eines Prototyps der Corona-Datenspende-App. Dieser
1019 soll zunächst mit einer limitierten Anzahl an Nutzer*innen getestet werden.
1020 Dabei sollen nicht nur die technischen Funktionen, sondern auch mögliche Auswirkungen
1021
1022 auf das Verhalten der Nutzer*innen, die Gesellschaft und die Werte der betroffenen
1023
1024 Stakeholder überprüft und das Design der App gegebenenfalls nachgebessert werden.[111]
1025 [67]Das erweiterte Framework von Value Sensitive Design für KI-Anwendungen kann
1026 auch in den Numerical Humanities genutzt werden, um selbstlernende
1027 Systeme wertebasiert zu gestalten oder bereits existierende
1028 KI-Anwendungen ethisch zu überprüfen. Zentral sind dabei neben
1029 den Werten der betroffenen Stakeholder auch die »values promoted
1030 by design and values respected by design«[112], also einerseits die
1031 in den Sustainable Development Goals formulierten Werte und Ziele
1032 und andererseits die Werte, die den AI for Social Good-Prinzipien
1033 (AI4SG) zugrunde liegen, also Freiheit von Bias, Autonomie,
1034 Privatsphäre und Transparenz.
1035
1036
1037 6.3 Akteur*innen und ihre Interessen in den Humanities of the Digital analysieren
1038
1039 [68]Als dritte Spielart der Digital Humanities beschreibt Roth die Humanities of the Digital:
1040 Die
1041 geisteswissenschaftliche Forschung zu »computermediated
1042 interactions and societies«,[113] also zu soziotechnischen Systemen wie
1043 Online-Communities, Blogs, Sozialen-Netzwerk-Seiten und
1044 Gaming-Plattformen. Hier geht es also weniger darum, Technologien zu 745 Gaming-Plattformen. Hier geht es also weniger darum, Technologien zu
1045 entwickeln und anzuwenden, sondern diese als Untersuchungsgegenstände in 746 entwickeln und anzuwenden, sondern diese als Untersuchungsgegenstände in den
1046 den Blick zu nehmen. Geschlechtergerechtigkeit sowie globale Gerechtigkeit 747 Blick zu nehmen.
1047 im Sinne von Teilhabe und Freiheit von Diskriminierung seien hier nur 748 [45]Value Sensitive Design kann dabei
1048 beispielhaft als Werte genannt, die dabei fokussiert werden können. 749 als theoretischer Ausgangspunkt dienen, um Online-Communities, Soziale
1049 750 Netzwerk-Seiten und Gaming-Plattformen aus einer informationsethischen
1050 [69]Value Sensitive Design kann dabei als theoretischer Ausgangspunkt dienen, 751 Perspektive zu untersuchen und sich unterschiedlichen Fragestellungen zu
1051 um Online-Communities, Soziale-Netzwerk-Seiten und Gaming-Plattformen 752 nähern: Welche direkten und indirekten Stakeholder hat eine Soziale
1052 aus einer ethischen Perspektive zu untersuchen und sich 753 Netzwerk-Seite wie Instagram, eine
1053 unterschiedlichen Fragestellungen zu nähern: Welche direkten und 754 Online-Community wie Wikipedia
1054 indirekten Stakeholder hat eine Soziale-Netzwerk-Seite wie Instagram, eine Online-Community wie Wikipedia oder eine Gaming-Plattform wie Steam? Welche Werte und wessen Interessen werden 755 oder eine Gaming-Plattform wie Steam? Welche Werte und wessen Interessen werden von den
1055 von den Nutzungsbedingungen, Policies und dem technischen Design 756 Nutzungsbedingungen, Policies und dem technischen Design gefördert bzw.
1056 gefördert bzw. behindert? Wie könnte die jeweilige Plattform oder 757 behindert? Wie könnte die jeweilige Plattform oder Community gestaltet sein,
1057 Community gestaltet sein, um die Werte und Interessen aller Stakeholder 758 um die Werte und Interessen aller Stakeholder zu beachten?
1058 zu beachten? 759 [46]Dass Online-Communities, Soziale
1059 760 Netzwerk-Seiten und Gaming-Plattformen die Interessen und Werte
1060 [70]Dass Online-Communities, Soziale-Netzwerk-Seiten und Gaming-Plattformen 761 verschiedener Stakeholder in unterschiedlichem Maß fördern oder behindern,
1061 die Interessen und Werte verschiedener Stakeholder in unterschiedlichem 762 wird anhand von Beispielen deutlich. So weist die Community-betriebene
1062 Maß fördern oder behindern, wird anhand von Beispielen deutlich. So 763 Online-Datenbank Wikidata einen Gender Bias auf: Von den 8,2 Millionen
1063 weist die Community-betriebene Online-Datenbank Wikidata einen Gender 764 Personen, die Wikidata verzeichnet, sind nur 23 Prozent Frauen.[69] Die
1064 Bias auf: Von den 8,2 Millionen Personen, die Wikidata verzeichnet, sind 765 mit Wikidata verknüpfte Enzyklopädie Wikipedia enthält zudem einen
1065 nur 23 Prozent Frauen.[114] Die mit 766 »Eurocentric bias«,[70] da historische Artikel in mehreren
1066 Wikidata verknüpfte Enzyklopädie Wikipedia enthält zudem einen 767 Sprachversionen der Wikipedia vor allem die Geschichte europäischer Länder
1067 »Eurocentric bias«,[115] da historische Artikel in mehreren 768 thematisieren.[71] Die Nutzungsbedingungen der Sozialen
1068 Sprachversionen der Wikipedia vor allem die Geschichte europäischer 769 Netzwerk-Seite Facebook erlauben Bilder nackter Oberkörper, die als
1069 Länder thematisieren.[116] Die Nutzungsbedingungen der 770 männlich gelesen werden, verbieten aber Bilder nackter Oberkörper, die als
1070 Sozialen-Netzwerk-Seite Facebook erlauben Bilder 771 weiblich gelesen werden. West beschreibt dies als »gendered policies on
1071 nackter Oberkörper, die als männlich gelesen werden, verbieten aber 772 images of female nudity«.[72] Eine umfassende
1072 Bilder nackter Oberkörper, die als weiblich gelesen werden. West 773 informationsethische Analyse der jeweiligen Communities und Sozialen
1073 beschreibt dies als »gendered policies on images of female 774 Netzwerk-Seiten, in der alle direkten und indirekten Stakeholder und ihre
1074 nudity«[117]. Eine umfassende ethische 775 Werte berücksichtigt werden, steht jedoch noch aus.
1075 Analyse der jeweiligen Communities und Sozialen-Netzwerk-Seiten, in der 776
1076 alle direkten und indirekten Stakeholder und ihre Werte berücksichtigt 777
1077 werden, steht jedoch noch aus. 778
1078 779 5.4 Mehr Barrierefreiheit in den
1079 [71]Wie könnte die Analyse einer Online-Community wie Wikipedia anhand von 780 Public Humanities schaffen
1080 Value Sensitive Design beispielsweise aussehen? Im Rahmen der 781
1081 konzeptionellen Untersuchungen werden zunächst der Kontext der 782 [47]Den drei von Roth beschriebenen
1082 Online-Community beschrieben und die betroffenen Stakeholder ausgemacht. 783 Teilbereichen der Digital Humanities fügt Burghardt eine vierte Spielart
1083 Die Online-Enzyklopädie Wikipedia zeichnet sich dadurch aus, dass sie 784 hinzu: Die Public Humanities, also die Themenfelder des digitalen
1084 alle Inhalte kostenfrei zur Verfügung stellt und es allen Nutzer*innen 785 Publizierens, der Wissenschaftskommunikation und des E-Learnings. Auch hier
1085 ermöglicht, die Inhalte des Lexikons zu bearbeiten.[118] Direkte Stakeholder sind dabei diejenigen, 786 gilt es, die Interessen unterschiedlicher Stakeholder zu berücksichtigen, um
1086 die selbst redaktionell an der Wikipedia mitarbeiten, genauso wie alle, 787 Bias und Diskriminierung zu vermeiden. Auf Basis von Value Sensitive Design
1087 die Inhalte der Online-Enzyklopädie rezipieren. Auch die Wikimedia Foundation, die als 788 kann beispielsweise sichergestellt werden, dass digitale Publikationen und
1088 Non-Profit-Organisation die Wikipedia trägt und finanziert,[119] kann als 789 E-Learning-Angebote möglichst barrierefrei gestaltet werden.
1089 direkter Stakeholder verstanden werden. Indirekte Stakeholder sind aber 790 Barrierefreiheit bezieht sich dabei auf Barrieren physischer Art, aber auch
1090 auch Individuen und Gruppen, die in den Artikeln und Inhalten der 791 finanzieller und sprachlicher Art.
1091 Wikipedia abgebildet werden, genau wie jene, die nicht repräsentiert 792 [48]Genau wie in den Digitized
1092 werden. Welche Werte diese unterschiedlichen Stakeholder-Gruppen 793 Humanities sollten Benutzeroberflächen und Formate von digitalen
1093 priorisieren und wo potentiell Wertkonflikte auftreten, muss im Rahmen 794 Publikationen und E-Learning-Angeboten nach den Prinzipien der Web
1094 von empirischen Investigationen untersucht werden, beispielsweise in 795 Accessibility gestaltet sein, sodass sie von Personen mit auditiven,
1095 Online-Befragungen oder qualitativen Interviews. Im dritten Schritt der 796 visuellen, körperlichen, kognitiven und sprachlichen Einschränkungen genutzt
1096 Analyse, den technischen Investigationen, wird analysiert, welche 797 werden können. Orientierung bieten dafür die Standards und Empfehlungen der
1097 technischen Features und organisatorischen Strukturen der 798 W3C Web Accessibility
1098 Online-Community Wikipedia die Interessen und Werte der verschiedenen 799 Initiative,[73] die
1099 Stakeholder-Gruppen fördern oder behindern. Eine
1100 Value-Sensitive-Design-Analyse ermöglicht damit ein Verständnis von
1101 Problematiken wie dem Eurocentric oder Gender Bias in der
1102 Online-Community Wikipedia, das neben verschiedenen
1103 Stakeholder-Interessen auch technische und organisatorische Aspekte
1104 einbezieht.
1105
1106
1107 6.4 Mehr Barrierefreiheit in den Public
1108 Humanities schaffen
1109
1110
1111 [72]Den drei von Roth beschriebenen Teilbereichen der Digital Humanities fügt
1112 Burghardt eine vierte Spielart hinzu: Die Public
1113 Humanities, also die Themenfelder des digitalen Publizierens,
1114 der Wissenschaftskommunikation und des E-Learnings. Auch hier gilt es,
1115 die Interessen unterschiedlicher Stakeholder zu berücksichtigen, um Bias
1116 und Diskriminierung zu vermeiden. Auf Basis von Value Sensitive Design
1117 kann beispielsweise sichergestellt werden, dass digitale Publikationen
1118 und E-Learning-Angebote möglichst barrierefrei gestaltet werden.
1119 Barrierefreiheit bezieht sich dabei auf Barrieren physischer Art, aber
1120 auch finanzieller und sprachlicher Art. Damit spielen in den Public
1121 Humanities neben Barrierefreiheit auch die in der Informationsethik
1122 zentralen Werte Informationsfreiheit und Informationsgerechtigkeit eine
1123 Rolle.[120]
1124 [73]Genau wie in den Digitized Humanities sollten Benutzeroberflächen und
1125 Formate von digitalen Publikationen und E-Learning-Angeboten nach den
1126 Prinzipien der Web Accessibility gestaltet sein, sodass sie von Personen
1127 mit auditiven, visuellen, körperlichen, kognitiven und sprachlichen
1128 Einschränkungen genutzt werden können. Orientierung bieten dafür die
1129 Standards und Empfehlungen der W3C Web Accessibility
1130 Initiative,[121] die
1131 beispielsweise vorsehen, Bilder mit einem Alternativtext zu versehen, 800 beispielsweise vorsehen, Bilder mit einem Alternativtext zu versehen,
1132 Audio-Inhalte und Videos mit Transkriptionen bzw. Untertiteln 801 Audio-Inhalte und Videos mit Transkriptionen bzw. Untertiteln auszustatten
1133 auszustatten und die Navigation auf Websites per Tastatur zu 802 und die Navigation auf Websites per Tastatur zu ermöglichen. Stakeholder,
1134 ermöglichen. Stakeholder, deren Interessen damit verfolgt werden, sind 803 deren Interessen damit verfolgt werden, sind dabei neben Menschen mit
1135 dabei neben Menschen mit Behinderung auch weitere Gruppen: Personen, 804 Behinderung auch weitere Gruppen: Personen, deren Fähigkeiten sich
1136 deren Fähigkeiten sich altersbedingt verändern; Nutzer*innen, die über 805 altersbedingt verändern; Nutzer*innen, die über eine langsame
1137 eine langsame Internetverbindung verfügen; und Personen, die sich in 806 Internet-Verbindung verfügen; und Personen, die sich in limitierenden
1138 limitierenden Situationen befinden, beispielsweise in einer Umgebung, in 807 Situationen befinden, beispielsweise in einer Umgebung, in der sie
1139 der sie Audio-Inhalte nicht anhören können oder hellem Sonnenlicht 808 Audio-Inhalte nicht anhören können oder hellem Sonnenlicht ausgesetzt sind.
1140 ausgesetzt sind. Die W3C Web Accessibility 809 Die W3C Web Accessibility Initiative empfiehlt, Aspekte der
1141 Initiative empfiehlt, Aspekte der Barrierefreiheit bereits zu 810 Barrierefreiheit bereits zu Beginn eines Projektes zu bedenken, um zu
1142 Beginn eines Projektes zu bedenken, um zu vermeiden, Designs und Inhalte 811 vermeiden, Designs und Inhalte noch einmal neu gestalten zu müssen.[74]
1143 noch einmal neu gestalten zu müssen.[122] 812 [49]Neben Empfehlungen für die
1144 [74]Neben Empfehlungen für die Gestaltung und Entwicklung von Websites und 813 Gestaltung und Entwicklung von Websites und Online-Publikationen weist die
1145 Online-Publikationen weist die W3C Web Accessibility Initiative auch 814 W3C Web Accessibility Initiative auch darauf hin, dass Texte klar, prägnant
1146 darauf hin, dass Texte klar, prägnant und in verständlicher Sprache 815 und in verständlicher Sprache formuliert werden sollen.[75] Auch
1147 formuliert werden sollen.[123] Auch Sprache 816 Sprache kann also eine Barriere sein, die es Stakeholdern schwierig bis
1148 kann also eine Barriere sein, die es Stakeholdern schwierig bis
1149 unmöglich macht, eine Ressource zu nutzen. Dabei spielen nicht nur die 817 unmöglich macht, eine Ressource zu nutzen. Dabei spielen nicht nur die
1150 Verständlichkeit von Texten, sondern auch Fremdsprachenkenntnisse eine 818 Verständlichkeit von Texten, sondern auch Fremdsprachenkenntnisse eine
1151 Rolle. Ein Beispiel: Die Website The Programming Historian publiziert Tutorials, »that help humanists learn a wide 819 Rolle. Ein Beispiel: Die Website The Programming Historian
1152 range of digital tools, techniques, and workflows«[124]. Die englischsprachige 820 publiziert Tutorials, »that help humanists learn a wide range of digital
1153 Version der Website ist im Directory of Open Access 821 tools, techniques, and workflows«.[76]Die
1154 Journals (DOAJ) verzeichnet. Das DOAJ lehnte es zunächst 822 englischsprachige Version der Website ist im Directory of Open Access Journals
1155 jedoch ab, auch die spanisch- und französischsprachigen Versionen der 823 (DOAJ) verzeichnet. Das DOAJ lehnte es zunächst jedoch ab, auch die
1156 Tutorials in ihr Verzeichnis aufzunehmen, da diese als nicht 824 spanisch- und französischsprachigen Versionen der Tutorials in ihr
1157 »original enough«[125] angesehen wurden. Für Personen, die über 825 Verzeichnis aufzunehmen, da diese als nicht »original enough«[77] angesehen
1158 geringe Englischkenntnisse verfügen und daher gezielt nach französisch- 826 wurden. Für Personen, die über geringe Englischkenntnisse verfügen und daher
1159 oder spanischsprachigen Ressourcen suchen, waren die entsprechenden 827 gezielt nach französisch- oder spanischsprachigen Ressourcen suchen, waren
1160 Tutorials von The Programming Historian über das DOAJ damit nicht 828 die entsprechenden Tutorials von The Programming Historian über das DOAJ
1161 auffindbar. Seit April 2021 verzeichnet das DOAJ aber alle drei 829 damit nicht auffindbar. Seit April 2021 verzeichnet das DOAJ aber alle drei
1162 Sprachversionen der Website und trägt damit zur barrierefreien 830 Sprachversionen der Website und trägt damit zur barrierefreien
1163 Auffindbarkeit der Tutorials von The Programming Historian für Personen 831 Auffindbarkeit der Tutorials von The Programming Historian für Personen ohne
1164 ohne oder mit geringen Englischkenntnissen bei.[126] 832 oder mit geringen Englischkenntnissen bei.[78]
1165 [75]Schließlich können auch finanzielle Aspekte ausschlaggebend dafür sein, 833 [50]Schließlich können auch finanzielle
1166 dass digitale Publikationen oder E-Learning-Ressourcen von bestimmten 834 Aspekte ausschlaggebend dafür sein, dass digitale Publikationen oder
1167 Individuen oder Gruppen nicht genutzt werden können. Der Zugang zu 835 E-Learning-Ressourcen von bestimmten Individuen oder Gruppen nicht genutzt
1168 wissenschaftlichen Zeitschriften, Monographien und Sammelbänden ist 836 werden können. Der Zugang zu wissenschaftlichen Zeitschriften, Monographien
1169 sowohl für Einzelpersonen als auch für Institutionen in der Regel mit 837 und Sammelbänden ist sowohl für Einzelpersonen als auch für Institutionen in
1170 Kosten verbunden – mit Ausnahme von Publikationen, die Open Access zur Verfügung gestellt werden. Aber auch hier 838 der Regel mit Kosten verbunden – mit Ausnahme von Publikationen, die Open Access zur Verfügung gestellt
1171 können finanzielle Barrieren entstehen, und zwar für die Autor*innen, 839 werden. Aber auch hier können finanzielle Barrieren entstehen, und zwar für
1172 die eigene Beiträge veröffentlichen wollen: Sogenannte Gold-Open-Access-Zeitschriften, die ihre Beiträge direkt bei 840 die Autor*innen, die eigene Beiträge veröffentlichen wollen: Sog. Gold-Open-Access-Zeitschriften, die
1173 der Veröffentlichung für Leser*innen kostenfrei zur Verfügung stellen, 841 ihre Beiträge direkt bei der Veröffentlichung für Leser*innen kostenfrei zur
1174 erheben teilweise Article Processing Charges 842 Verfügung stellen, erheben teilweise Article
1175 (APCs) – also Gebühren, die Autor*innen für die Veröffentlichung ihres 843 Processing Charges (APCs) – also Gebühren, die
1176 Beitrages entrichten müssen.[127] Für Wissenschaftler*innen, die 844 Autor*innen für die Veröffentlichung ihres Beitrages entrichten müssen.[79] Für Wissenschaftler*innen, die an weniger ressourcenstarken
1177 an weniger ressourcenstarken Institutionen affiliiert sind, hat dies zur 845 Institutionen affiliiert sind, hat dies zur Folge, dass sie ihre Beiträge
1178 Folge, dass sie ihre Beiträge nur in einem Teil der entsprechenden 846 nur in einem Teil der entsprechenden Journals publizieren können, die in
1179 Journals publizieren können, die in ihrem jeweiligen Fachbereich eine 847 ihrem jeweiligen Fachbereich eine Rolle spielen – nämlich denjenigen ohne
1180 Rolle spielen – nämlich denjenigen ohne APCs. Damit sind ihre 848 APCs. Damit sind ihre Möglichkeiten, am wissenschaftlichen Diskurs
1181 Möglichkeiten, am wissenschaftlichen Diskurs teilzunehmen, 849 teilzunehmen, eingeschränkt.
1182 eingeschränkt. 850 [51]Der Value-Sensitive-Design-Ansatz
1183 851 kann damit auch in den Public Humanities dazu beitragen, die Policies und
1184 [76]Wie also können digitale Publikationen auf Basis von Value Sensitiv 852 das technische Design von digitalen Publikationen und E-Learning-Ressourcen
1185 Design wertebasiert gestaltet werden? Zunächst wird im Rahmen der 853 so zu gestalten, dass Barrieren finanzieller, sprachlicher und physischer
1186 konzeptionellen Überlegungen untersucht, welche Stakeholdergruppen 854 Art abgebaut werden, indem die Interessen und Werte unterschiedlicher
1187 im Kontext digitaler Publikationen eine Rolle spielen. Zu den 855 Stakeholder berücksichtigt werden. Zu diesen Stakeholdern gehören u. a.
1188 direkten Stakeholdern gehören neben den Autor*innen und Leser*innen 856 Wissenschaftler*innen, die an ressourcenarmen Institutionen affiliiert sind,
1189 wissenschaftlicher Texte auch die Organisationen, die digitale 857 Personen mit geringen Englischkenntnissen, Nutzer*innen, die über eine
1190 Publikationen bereitstellen, und ihre Mitarbeiter*innen. Diese 858 langsame Internet-Verbindung verfügen und Menschen mit auditiven, visuellen
1191 Stakeholder-Gruppen müssen in weitere Untergruppen ausdifferenziert 859 oder körperlichen Einschränkungen.
1192 werden, deren Interessen bei der Gestaltung von digitalen 860
1193 Publikationen und ihren Policies besonderer Berücksichtigung 861
1194 bedürfen. Zu Stakeholdergruppen mit spezifischen Interessen 862
1195 gehören beispielsweise Wissenschaftler*innen, die an ressourcenarmen 863 5.5 Menschenrechte und
1196 Institutionen affiliiert sind, aber auch Personen mit geringen 864 Umweltschutz in allen DH-Spielarten fördern
1197 Englischkenntnissen und Nutzer*innen, die über eine langsame 865
1198 Internetverbindung verfügen sowie Menschen mit auditiven, 866 [52]In den bisherigen Abschnitten wurde
1199 visuellen oder körperlichen Einschränkungen. 867 gezeigt, wie Value Sensitive Design in den vier von Roth und Burghardt
1200 868 benannten Spielarten der DH angewendet werden kann, um Bias und
1201 [77]In einem zweiten Schritt, den empirischen Untersuchungen, muss erhoben 869 Diskriminierung zu vermeiden. Abschließend soll hier auf eine Problematik
1202 werden, welche Interessen und Werte die verschiedenen 870 eingegangen werden, die alle DH-Projekte unabhängig von ihrer Spielart
1203 Stakeholder-Gruppen als wichtig bewerten, beispielsweise im Rahmen von 871 aufwerfen. Noble ruft Akteur*innen in den DH dazu auf, sich die »materiality
1204 Interviews oder Online-Befragungen. Vor allem in Bezug auf Open Access 872 of the digital humanities and its impact in the world«[80] stärker
1205 ist dabei wahrscheinlich, dass Werte wie Informationsfreiheit und 873 bewusst zu machen. So führt der Abbau von Mineralien, die für die
1206 Informationsgerechtigkeit, die Autor*innen und Leser*innen wichtig sind, 874 Herstellung digitaler Technologien benötigt werden, in Regionen des globalen
1207 in Konflikt mit den wirtschaftlichen Interessen der Organisationen 875 Südens zu Konflikten und Ausbeutung, während Nutzer*innen im globalen Norden
1208 stehen, die digitale Publikationen bereitstellen, vor allem wenn diese 876 die Profiteur*innen dieser Technologien sind. Zudem entstehen sowohl bei der
1209 in privatwirtschaftlichen Strukturen organisiert sind.[128] Dieser 877 Produktion, als auch bei der meist unsachgemäßen Entsorgung von Hardware
1210 Interessenskonflikt kann zugunsten der Autor*innen, Leser*innen und 878 Umweltschäden. Noble fordert daher: Die DH-Community sollte nicht nur
1211 Wissenschaftler*innen, die an ressourcenarmen Institutionen affiliiert 879 reflektieren, wie sie zu einer gerechteren Verteilung von IT-Infrastrukturen
1212 sind, gelöst werden, indem Fachcommunities eigene Publikationsorgane 880 weltweit beitragen kann, sondern auch »design against – or outright resist –
1213 anbieten, die nicht privatwirtschaftlich, sondern community-basiert 881 the exploitive forms of labor and hazardous environmental practices in which
1214 organisiert sind. Ein Beispiel ist die Zeitschrift für 882 information and communication technologies are implicated«.[81] Auch
1215 digitale Geisteswissenschaften (ZfdG), die vom Forschungsverbund Marbach Weimar Wolfenbüttel und
1216 dem DHd-Verband (Digital Humanities im
1217 deutschsprachigen Raum) herausgegeben wird: [129] Alle Artikel der
1218 Zeitschrift erscheinen Open Access, ohne dass Autor*innen für die
1219 Veröffentlichung ihrer Texte Gebühren entrichten müssen. [130]
1220 [78]Um darüber hinaus auch die Interessen von Stakeholder-Gruppen wie Personen
1221 mit geringen Englischkenntnissen, Nutzer*innen, die über eine langsame
1222 Internetverbindung verfügen und Menschen mit auditiven, visuellen
1223 oder körperlichen Einschränkungen in das Design von digitalen Publikationen
1224 einzubeziehen, sind weitere empirische und technische Investigationen
1225 nötig, die hier nicht ausgeführt werden können. Deutlich wurde aber,
1226 dass der Value-Sensitive-Design-Ansatz auch in den Public Humanities
1227 dazu beitragen kann die Policies und das technische Design von
1228 digitalen Publikationen und E-Learning-Ressourcen so zu gestalten, dass
1229 Barrieren finanzieller, sprachlicher und physischer Art abgebaut werden,
1230 indem die Interessen und Werte unterschiedlicher Stakeholder
1231 berücksichtigt werden.
1232
1233
1234 6.5 Menschenrechte und Umweltschutz in allen DH-Spielarten
1235 fördern
1236
1237
1238 [79]In den bisherigen Abschnitten wurde gezeigt, wie Value Sensitive Design
1239 in den vier von Roth und Burghardt benannten Spielarten der DH
1240 angewendet werden kann, um Bias und Diskriminierung zu vermeiden.
1241 Abschließend soll hier auf eine Problematik eingegangen werden, die alle
1242 DH-Projekte unabhängig von ihrer Spielart aufwerfen. Noble ruft
1243 Akteur*innen in den DH dazu auf, sich die »materiality of the
1244 digital humanities and its impact in the world«[131] stärker bewusst zu machen. So führt
1245 der Abbau von Mineralien, die für die Herstellung digitaler Technologien
1246 benötigt werden, in Regionen des globalen Südens zu Konflikten und
1247 Ausbeutung, während Nutzer*innen im globalen Norden die Profiteur*innen
1248 dieser Technologien sind. Zudem entstehen sowohl bei der Produktion, als
1249 auch bei der meist unsachgemäßen Entsorgung von Hardware Umweltschäden.
1250 Noble fordert daher: Die DH-Community sollte nicht nur reflektieren, wie
1251 sie zu einer gerechteren Verteilung von IT-Infrastrukturen weltweit
1252 beitragen kann, sondern auch »design against – or outright resist
1253 – the exploitive forms of labor and hazardous environmental
1254 practices in which information and communication technologies are
1255 implicated«[132]. Auch
1256 das Manifest Digital Humanities and the Climate Crisis, das im Sommer 883 das Manifest Digital Humanities and the Climate Crisis, das im Sommer
1257 2021 von einem internationalen Zusammenschluss DH-Forschender 884 2021 von einem internationalen Zusammenschluss DH-Forschender veröffentlicht
1258 veröffentlicht wurde, ruft Akteur*innen in den DH dazu auf, die 885 wurde, ruft Akteur*innen in den DH dazu auf, die ökologischen und sozialen
1259 ökologischen und sozialen Auswirkungen ihres Handelns zu prüfen.[133] 886 Auswirkungen ihres Handelns zu prüfen.[82]
1260 [80]Auch hier kann Value Sensitive Design als Ausgangspunkt dienen, um Werte 887 [53]Auch hier kann Value Sensitive
1261 wie Umweltschutz und ökologische Nachhaltigkeit, globale Gerechtigkeit 888 Design als Ausgangspunkt dienen, um Menschenrechte und Umweltschutz beim
1262 und Gesundheit beim Design von Projekten und Technologien in den DH 889 Design von Projekten und Technologien in den DH mitzudenken. So können die
1263 mitzudenken. So können die Personen, die am Herstellungsprozess von 890 Personen, die am Herstellungsprozess von Hardware und IT-Technologien
1264 Hardware und IT-Technologien beteiligt sind, genauso als indirekte 891 beteiligt sind, genauso als indirekte Stakeholder eines jeden DH-Projektes
1265 Stakeholder eines jeden DH-Projektes begriffen werden wie diejenigen, 892 begriffen werden wie diejenigen, die von den Umweltschäden durch
1266 die von den Umweltschäden durch unsachgemäße Hardware-Entsorgung 893 unsachgemäße Hardware-Entsorgung betroffen sind. Wie können die Werte und
1267 betroffen sind. Wie können die Werte und Interessen dieser Stakeholder 894 Interessen dieser Stakeholder also im Design berücksichtigt werden? Dies
1268 also im Design berücksichtigt werden? Dies gilt es, mit empirischen 895 gilt es, mit empirischen Untersuchungen und technischen Investigationen zu
1269 Untersuchungen und technischen Investigationen zu erforschen. Hier zwei 896 erforschen. Hier zwei Ideen: DH-Projekte könnten sich grundsätzlich zum Ziel
1270 Ideen: DH-Projekte könnten sich grundsätzlich zum Ziel setzen, Software 897 setzen, Software und Infrastrukturen so zu entwickeln, dass sie möglichst
1271 und Infrastrukturen so zu entwickeln, dass sie möglichst wenig 898 wenig (Hardware-)Ressourcen in Anspruch nehmen, wie es zum Beispiel die 2014
1272 (Hardware-)Ressourcen in Anspruch nehmen, wie es zum Beispiel die 2014 899 gegründete Arbeitsgruppe Minimal
1273 gegründete Arbeitsgruppe Minimal Computing der 900 Computing der Global Outlook
1274 Global Outlook DH propagiert.[134] Bei 901 DH-Initiative propagiert.[83] Bei der Beschaffung von
1275 der Beschaffung von Hardware sollte zudem darauf geachtet werden, dass 902 Hardware sollte zudem darauf geachtet werden, dass diese sozial- und
1276 diese sozial- und umweltverträglich hergestellt wurde. Orientierung 903 umweltverträglich hergestellt wurde. Orientierung bieten dabei Label wie
1277 bieten dabei Label wie TCO Certified für soziale 904 TCO Certified für soziale
1278 Kriterien oder der Blaue Engel, das EU-Ecolabel und das Nordic 905 Kriterien oder der Blaue Engel,
1279 Ecolabel für ökologische Aspekte.[135] Wie öffentliche 906 das EU-Ecolabel und das Nordic Ecolabel für ökologische
1280 Einrichtungen soziale und ökologische Kriterien in Vergabeverfahren 907 Aspekte.[84] Wie
1281 verankern können, verdeutlichen u. a. die Fachkonferenzen für sozial verantwortliche IT-Beschaffung und 908 öffentliche Einrichtungen soziale und ökologische Kriterien in
1282 die Nichtregierungsorganisation Electronics Watch 909 Vergabeverfahren verankern können, verdeutlichen u. a. die Fachkonferenzen für sozial verantwortliche
1283 auf ihren Websites.[136] Darüber hinaus könnten Menschenrechts- und 910 IT-Beschaffung und die Nichtregierungsorganisation Electronics Watch auf ihren
911 Websites.[85] Darüber hinaus könnten Menschenrechts- und
1284 Umweltschutz-Aspekte nicht nur bei der Beschaffung von Hardware, sondern 912 Umweltschutz-Aspekte nicht nur bei der Beschaffung von Hardware, sondern
1285 auch bei der Organisation von Konferenzen und Dienstreisen im Rahmen von 913 auch bei der Organisation von Konferenzen und Dienstreisen im Rahmen von
1286 DH-Projekten handlungsleitend sein, beispielsweise indem bei Tagungen 914 DH-Projekten handlungsleitend sein, beispielsweise indem bei Tagungen fair
1287 fair gehandelte und ökologisch erzeugte Verpflegung angeboten und auf 915 gehandelte und ökologisch erzeugte Verpflegung angeboten und auf Flugreisen
1288 Flugreisen so weit wie möglich verzichtet wird. 916 so weit wie möglich verzichtet wird.
1289 917
1290 918
1291 919
1292 7. Zusammenfassung, Limitationen und Ausblick 920 6. Zusammenfassung, Limitationen und
1293 921 Ausblick
1294 [81]Dieser Beitrag zeigt auf, dass Technologien nicht neutral sind, sondern immer 922
1295 bestimmte Werte fördern oder behindern. Zugleich werden in jedem 923 [54]Dieser Beitrag zeigt auf, dass
1296 Digital-Humanities-Projekt Technologien angewendet oder entwickelt. Um zu 924 Technologien nicht neutral sind, sondern immer bestimmte Werte fördern oder
1297 verhindern, dass diese Technologien Bias reproduzieren oder hervorbringen, 925 behindern. Zugleich werden in jedem Digital-Humanities-Projekt Technologien
1298 schlägt dieser Beitrag die Anwendung von Value Sensitive Design vor: Dieses 926 angewendet oder entwickelt. Um zu verhindern, dass diese Technologien Bias
1299 theoretische und methodische Framework bietet eine dreiteilige 927 reproduzieren oder hervorbringen, schlägt dieser Beitrag die Anwendung von Value
1300 Vorgehensweise, um die Werte aller betroffenen Stakeholder einer Technologie 928 Sensitive Design vor: Dieses theoretische und methodische Framework bietet eine
1301 im gesamten Design-Prozess zu berücksichtigen. Anhand der vier von Roth und 929 dreiteilige Vorgehensweise, um die Werte aller betroffenen Stakeholder einer
1302 Burghardt geprägten Spielarten von DH wurden verschiedene Anknüpfungspunkte 930 Technologie im gesamten Design-Prozess zu berücksichtigen. Anhand der vier von
1303 und Anwendungsbeispiele aufgezeigt, wie Value Sensitive Design in 931 Roth und Burghardt geprägten Spielarten von DH wurden verschiedene
1304 DH-Projekten gewinnbringend eingesetzt werden kann. 932 Anknüpfungspunkte und Anwendungsbeispiele aufgezeigt, wie Value Sensitive Design
1305 933 in DH-Projekten gewinnbringend eingesetzt werden kann.
1306 [82]Dabei unterliegen sowohl dieser Beitrag, als auch der 934 [55]Dabei unterliegen sowohl dieser
1307 Value-Sensitive-Design-Ansatz verschiedenen Limitationen. So können 935 Beitrag, als auch der Value-Sensitive-Design-Ansatz verschiedenen Limitationen.
1308 Technologien, Datensätze und Forschungsprojekte auch Verzerrungen aufweisen, 936 So können Technologien, Datensätze und Forschungsprojekte auch Verzerrungen
1309 die keine systematische und unfaire Diskriminierung hervorrufen. Solche 937 aufweisen, die keine systematische und unfaire Diskriminierung hervorrufen.
1310 Verzerrungen werden zwar nicht als Bias im Sinne von Nissenbaum und Friedman 938 Solche Verzerrungen werden zwar nicht als Bias im Sinne von Nissenbaum und
1311 verstanden,[137] 939 Friedman verstanden,[86] sind aber trotzdem
1312 sind aber trotzdem problematisch, da sie zu verzerrten Forschungsergebnissen 940 problematisch, da sie zu verzerrten Forschungsergebnissen führen. Um diese Art
1313 führen. Um diese Art von Bias zu verhindern, ist Value Sensitive Design 941 von Bias zu verhindern, ist Value Sensitive Design weniger geeignet; mögliche
1314 weniger geeignet; mögliche Strategien zur Vermeidung solcher Verzerrungen 942 Strategien zur Vermeidung solcher Verzerrungen sind vielmehr Methodenvielfalt,
1315 sind vielmehr Methodenvielfalt, Triangulation und unterschiedliche 943 Triangulation und unterschiedliche experimentelle Settings.
1316 experimentelle Settings. 944 [56]Darüber hinaus ließen sich sicherlich
1317 945 noch weitere Aspekte und Beispiele finden, wie Value Sensitive Design in
1318 [83]Darüber hinaus ließen sich sicherlich noch weitere Aspekte und Beispiele 946 DH-Projekten genutzt werden kann. Gleichermaßen gibt es neben Value Sensitive
1319 finden, wie Value Sensitive Design in DH-Projekten genutzt werden kann. 947 Design weitere Methoden und Frameworks, die die ethische Gestaltung von
1320 Gleichermaßen gibt es wie in Kapitel 4 beschrieben neben Value Sensitive Design weitere Methoden und 948 Projekten und Technologien unterstützen, beispielsweise Embedded Ethics oder Partizipatives Design.[87] Kern des Embedded-Ethics-Ansatzes ist es, eine oder mehrere
1321 Frameworks, die die ethische Gestaltung von Projekten und Technologien 949 Ethiker*innen an allen Entscheidungen im gesamten Verlauf eines Projektes zu
1322 unterstützen, wie Embedded Ethics oder 950 beteiligen.[88] Das Konzept des Partizipativen
1323 Partizipatives Design. In beiden Ansätzen hängt die ethische 951 Designs legt hingegen den Fokus darauf, potentielle Nutzer*innen in den
1324 Bewertung und Gestaltung aber stärker von wenigen, 952 Design-Prozess einzubinden.[89] Damit hängt die ethische Bewertung und Gestaltung in beiden
1325 ausgewählten Akteur*innen ab: im Falle von Embedded Ethics von den Werten 953 Ansätzen stärker von wenigen, ausgewählten Akteur*innen ab: im Falle von
1326 und Perspektiven der Ethiker*innen im jeweiligen Projekt; bei Partizipativem 954 Embedded Ethics von den Werten und Perspektiven der Ethiker*innen im jeweiligen
1327 Design von den Werten und Perspektiven ausgewählter Nutzer*innen. Aus meiner 955 Projekt; bei Partizipativem Design von den Werten und Perspektiven ausgewählter
1328 Sicht hat Value Sensitive Design demgegenüber den entscheidenden Vorteil, 956 Nutzer*innen. Aus meiner Sicht hat Value Sensitive Design demgegenüber den
1329 die Perspektiven, Werte und Ziele verschiedener direkt und indirekt 957 entscheidenden Vorteil, die Perspektiven, Werte und Ziele verschiedener direkt
1330 beteiligter Akteur*innen einzubeziehen und diese systematisch zu 958 und indirekt beteiligter Akteur*innen einzubeziehen und diese systematisch zu
1331 analysieren. Dieser Beitrag erhebt aber keinerlei Anspruch auf 959 analysieren. Dieser Beitrag erhebt aber keinerlei Anspruch auf Vollständigkeit
1332 Vollständigkeit möglicher ethischer Ansätze, sondern zeigt Ideen und 960 möglicher ethischer Ansätze, sondern zeigt Ideen und Anregungen auf, wie
1333 Anregungen auf, wie DH-Projekte in der Praxis ethisch überprüft 961 DH-Projekte in der Praxis informationsethisch überprüft und wertebasiert
1334 und wertebasiert gestaltet werden können. Eine Diskussion und Ergänzung der 962 gestaltet werden können. Eine Diskussion und Ergänzung der hier vorgestellten
1335 hier vorgestellten Aspekte sind daher wünschenswert. 963 Aspekte sind daher wünschenswert.
1336 964 [57]Um ein DH-Projekt auf Basis von Value
1337 [84]Um ein DH-Projekt auf Basis von Value Sensitive Design zu gestalten, sind je 965 Sensitive Design zu gestalten, sind je nach Projekt und Kontext zusätzliche
1338 nach Projekt und Kontext zusätzliche zeitliche, finanzielle und personelle 966 zeitliche, finanzielle und personelle Ressourcen notwendig. Diese müssen bei der
1339 Ressourcen notwendig. Diese müssen bei der Planung von Projekten und der 967 Planung von Projekten und der Beantragung von Mitteln eingeplant werden. Darüber
1340 Beantragung von Mitteln eingeplant werden. Darüber hinaus muss entweder 968 hinaus muss entweder innerhalb des Projektes oder an zentraler Stelle Expertise
1341 innerhalb des Projektes oder an zentraler Stelle Expertise zur theoretischen 969 zur theoretischen und praktischen Umsetzung von Value Sensitive Design vorhanden
1342 und praktischen Umsetzung von Value Sensitive Design vorhanden sein. Drei 970 sein. Zwei Ideen, um dies für jedes DH-Projekt zu gewährleisten: In den
1343 Ideen, um dies für jedes DH-Projekt zu gewährleisten: In den Curricula von 971 Curricula von DH-Studiengängen könnten Technik- und Informationsethik sowie
1344 DH-Studiengängen könnten Technik- und Informationsethik sowie konkrete 972 konkrete methodische Ansätze wie Value Sensitive Design verpflichtend verankert
1345 methodische Ansätze wie Value Sensitive Design verpflichtend verankert 973 werden, sodass möglichst viele zukünftige Akteur*innen in den DH die Grundlagen
1346 werden, sodass möglichst viele zukünftige Akteur*innen in den DH die 974 wertebasierten Projekt- und Technologie-Designs kennen. Auch die Idee der Data Stewards, also von Expert*innen,
1347 Grundlagen wertebasierten Projekt- und Technologie-Designs kennen. Auch die 975 die Forschende beim Management von Forschungsdaten unterstützen,[90] kann als
1348 Idee der Data Stewards, also von Expert*innen, die 976 Anregung dienen: So sind parallel dazu Value
1349 Forschende beim Management von Forschungsdaten unterstützen,[138] kann als Anregung 977 Stewards oder Ethic
1350 dienen: So sind parallel dazu Value Stewards oder 978 Stewards denkbar, die DH-Forschende bei der
1351 Ethic Stewards denkbar, die DH-Forschende bei der 979 informationsethischen Überprüfung und wertebasierten Gestaltung ihrer Projekte
1352 ethischen Überprüfung und wertebasierten Gestaltung ihrer 980 und Technologien beraten.
1353 Projekte und Technologien beraten. Ähnlich wie in den Bereichen 981 [58]Darüber hinaus ist es auch mithilfe von
1354 Forschungsdatenmanagement oder Open Access könnten auch 982 Value Sensitive Design nicht möglich, Bias vollständig auszuschließen. Wie genau
1355 Forschungsförderinstitutionen eine entscheidende Rolle einnehmen: 983 eine Value-Sensitive-Design-Analyse durchgeführt wird, welche Stakeholder
1356 In ihren Förderrichtlinien könnten sie von Forscher*innen fordern, 984 einbezogen, welche empirischen Erhebungen durchgeführt und wie darauf aufbauend
1357 eine Strategie zu entwickeln, um ihr Projekt ethisch zu reflektieren 985 das technische Design und Policies konkret umgesetzt werden, unterscheidet sich
1358 und zu gestalten – und diese Strategie bereits in ihrem Förderantrag zu skizzieren. 986 mit großer Wahrscheinlichkeit von Forscher*in zu Forscher*in: Eigene Werte,
1359 987 Erfahrungen und Interessen fließen immer bewusst oder unbewusst in die Anwendung
1360 [85]Darüber hinaus ist es auch mithilfe von Value Sensitive Design nicht möglich, 988 des Value-Sensitive-Design-Frameworks ein. Dies ist nicht nur unvermeidlich,
1361 Bias vollständig auszuschließen. Wie genau eine 989 sondern auch in Ordnung: Friedman und Hendry resümieren, »we need not require
1362 Value-Sensitive-Design-Analyse durchgeführt wird, welche Stakeholder 990 perfection, but commitment to practice – and through practice, progress«.[91] Value Sensitive Design
1363 einbezogen, welche empirischen Erhebungen durchgeführt und wie darauf 991 garantiert also keine ›ethisch perfekten‹ Technologien – aber das Framework
1364 aufbauend das technische Design und Policies konkret umgesetzt werden, 992 bietet Unterstützung dabei, Bias so gut wie möglich zu vermeiden und die
1365 unterscheidet sich mit großer Wahrscheinlichkeit von Forscher*in zu 993 Auswirkungen von Technologien auf die Gesellschaft zu bedenken, offenzulegen und
1366 Forscher*in: Eigene Werte, Erfahrungen und Interessen fließen immer bewusst 994 zu diskutieren. Zudem ermöglicht Value Sensitive Design, Technologien nicht nur
1367 oder unbewusst in die Anwendung des Value-Sensitive-Design-Frameworks ein. 995 nach klassischen Kriterien wie Effektivität oder Robustheit zu bewerten –
1368 Dies ist nicht nur unvermeidlich, sondern auch in Ordnung: Friedman und 996 sondern auch nach den Werten, die sie fördern. Das ist ein guter Start, um
1369 Hendry resümieren, »we need not require perfection, but commitment to 997 Technologien und Projekte so zu gestalten, dass sie nicht nur die Digital
1370 practice – and through practice, progress«.[139] Value Sensitive Design garantiert also 998 Humanities, sondern auch die Welt ein wenig besser machen.
1371 keine ›ethisch perfekten‹ Technologien – aber das Framework bietet 999
1372 Unterstützung dabei, Bias so gut wie möglich zu vermeiden und die
1373 Auswirkungen von Technologien auf die Gesellschaft zu bedenken, offenzulegen
1374 und zu diskutieren. Zudem ermöglicht Value Sensitive Design, Technologien
1375 nicht nur nach klassischen Kriterien wie Effektivität oder Robustheit zu
1376 bewerten – sondern auch nach den Werten, die sie fördern. Das ist ein guter
1377 Start, um Technologien und Projekte so zu gestalten, dass sie nicht nur die
1378 Digital Humanities, sondern auch die Welt ein wenig besser machen.
1379 1000
1387 [1] 1008 [1]
1388 1009 Vgl. Gierlinger 2020; Kretschmar 2020.
1389 Vgl. 1010
1390 Gierlinger 2020; Kretschmar 2020.
1391 1011
1393 [2] 1013 [2]
1394 1014 Vgl. Holland 2018.
1395 Vgl. Holland 1015
1396 2018.
1397 1016
1399 [3] 1018 [3]
1400 1019 Vgl. Holland 2021.
1401 1020
1402 Vgl. Holland
1403 2021.
1404 1021
1406 [4] 1023 [4]
1407 1024 Friedman / Nissenbaum 1996, S. 332; Hervorhebungen im
1408 Friedman / 1025 Original.
1409 Nissenbaum 1996, S. 332; Hervorhebungen im Original. 1026
1410 1027
1412 [5] 1029 [5]
1413 1030 Die Erkenntnis, dass Technologien nicht neutral,
1414 Die Erkenntnis, dass Technologien 1031 sondern von ihren gesellschaftlichen Rahmenbedingungen geprägt sind, ist
1415 nicht neutral, sondern von ihren gesellschaftlichen Rahmenbedingungen 1032 dabei nicht neu. Bereits in den 1990er-Jahren thematisierten
1416 geprägt sind, ist dabei nicht neu. Bereits in den 1990er-Jahren 1033 verschiedene techniksoziologische Ansätze, dass soziale, politische,
1417 thematisierten verschiedene techniksoziologische Ansätze, dass soziale, 1034 technische und ökonomische Faktoren die Gestaltung von Technologien
1418 politische, technische und ökonomische Faktoren die Gestaltung von 1035 maßgeblich beeinflussen, u. a. Social Construction of Technology (SCOT)
1419 Technologien maßgeblich beeinflussen, u. a. Social Construction of 1036 und Social Shaping of Technology (SST; vgl. Häußling 2019, S. 198–206).
1420 Technology (SCOT) und Social Shaping of Technology (SST; vgl. Häußling 2019, S. 198–206). 1037
1421 1038
1423 [6] 1040 [6]
1424 1041 Vgl. Roth 2019.
1425 Vgl. Roth 1042
1426 2019.
1427 1043
1429 [7] 1045 [7]
1430
1431 Vgl. Burghardt 2020. 1046 Vgl. Burghardt 2020.
1433 1048
1049
1434 [8] 1050 [8]
1435 1051 Vgl. Rojas Castro 2020; Noble 2019. Warum spielen ethische Aspekte in DH-Projekten
1436 Vgl. Rojas Castro 2020; 1052 bislang kaum eine Rolle? Noble schreibt in Bezug auf die Reproduktion
1437 Noble 2019. Warum spielen ethische 1053 kolonialer Machtverhältnisse in den Digital Humanities, dass sich die DH
1438 Aspekte in DH-Projekten bislang kaum eine Rolle? Dazu gibt es nach Kenntnis der Autorin 1054 als »neutral« und damit »noncolonial«verstehen – dies aber nicht sind
1439 keine 1055 (Noble 2019, S. 28f.). Ein Grund könnte also sein, dass die
1440 umfassende Untersuchung. Daher kann hier nur ein Erklärungsansatz angeboten werden, 1056 ethische Bedeutung und Auswirkung von DH-Projekten den Forschenden nicht
1441 der 1057 oder kaum bewusst sind. Zudem beschreibt Noble eine Art Teufelskreis:
1442 sich auf einzelne ethische Aspekte in den DH bezieht: Noble schreibt in Bezug 1058 Weil sich die DH nicht eindeutig gegen rassistische und sexistische
1443 auf die Reproduktion kolonialer Machtverhältnisse in den Digital 1059 Gewalt positionieren, verlassen Frauen und Schwarze Menschen das
1444 Humanities, dass sich die DH als »neutral« und damit 1060 Forschungsfeld (Noble 2019, S. 29f.). Dies könnte wiederum zur Folge haben,
1445 »noncolonial«verstehen – dies aber nicht sind (Noble 2019, S. 28f.). Ein Grund könnte
1446 also sein, dass die ethische Bedeutung und Auswirkung von DH-Projekten
1447 den Forschenden nicht oder kaum bewusst sind. Zudem beschreibt Noble
1448 eine Art Teufelskreis: Weil sich die DH nicht eindeutig gegen
1449 rassistische und sexistische Gewalt positionieren, verlassen Frauen und
1450 Schwarze Menschen das Forschungsfeld (Noble 2019, S. 29f.). Dies könnte wiederum zur Folge haben,
1451 dass ethische Aspekte im Kontext von Rassismus und Sexismus noch weniger 1061 dass ethische Aspekte im Kontext von Rassismus und Sexismus noch weniger
1452 Beachtung finden. 1062 Beachtung finden. Eine umfassende Untersuchung der Gründe, aus denen
1063 ethische Aspekte in DH-Projekten kaum eine Rolle spielen, steht jedoch
1064 noch aus.
1065
1453 1066
1455 [9] 1068 [9]
1456 1069 Vgl. Deutsche Forschungsgemeinschaft (Hg.) 2019, Leitlinie 10.
1457 Vgl. 1070
1458 Deutsche Forschungsgemeinschaft (Hg.) 2019,
1459 Leitlinie 10.
1460 1071
1462 [10] 1073 [10]
1463 1074 Für eine ausführliche Zusammenstellung bisheriger
1464 Für eine ausführliche 1075 Anwendungsbeispiele vgl. Friedman / Hendry 2019 und Winkler / Spiekermann 2018.
1465 Zusammenstellung bisheriger Anwendungsbeispiele vgl. 1076
1466 Friedman / Hendry 2019 und Winkler / Spiekermann 2018.
1467 1077
1469 [11] 1079 [11]
1470 1080 Vgl. Friedmann / Nissenbaum 1996.
1471 Vgl. Friedmann / 1081
1472 Nissenbaum 1996. 1082
1473 1083
1474 [12] 1084 [12]
1475
1476 Vgl. Wachter-Boettcher 2017, S. 6. 1085 Vgl. Wachter-Boettcher 2017, S. 6.
1478 1087
1088
1479 [13] 1089 [13]
1480 1090 Vgl. Holland 2018.
1481 Vgl. Holland 1091
1482 2018.
1483 1092
1485 [14] 1094 [14]
1486 1095 Friedman / Nissenbaum 1996, S. 334.
1487 Friedman / 1096
1488 Nissenbaum 1996, S. 334.
1489 1097
1491 [15] 1099 [15]
1492 1100 Friedman / Nissenbaum 1996, S. 334.
1493 Friedman / 1101
1494 Nissenbaum 1996, S. 334.
1495 1102
1497 [16] 1104 [16]
1498
1499 Vgl. Wachter-Boettcher 2018, S. 119–129. 1105 Vgl. Wachter-Boettcher 2018, S. 119–129.
1501 1107
1108
1502 [17] 1109 [17]
1503 1110 Friedman / Nissenbaum 1996, S. 335.
1504 Friedman / 1111
1505 Nissenbaum 1996, S. 335.
1506 1112
1508 [18] 1114 [18]
1509 1115 Vgl. Friedman / Nissenbaum 1996, S. 335.
1510 Vgl. Friedman / 1116
1511 Nissenbaum 1996, S. 335.
1512 1117
1514 [19] 1119 [19]
1515 1120 Friedman / Hendry 2019, S. 19.
1516 Friedman / Hendry 1121
1517 2019, S. 19.
1518 1122
1520 [20] 1124 [20]
1521 1125 Friedman / Hendry 2019, S. 20.
1522 Friedman / Hendry 1126
1523 2019, S. 20.
1524 1127
1526 [21] 1129 [21]
1527 1130 Vgl. Friedman / Hendry 2019, S. 19f.
1528 Vgl. Friedman / Hendry 1131
1529 2019, S. 19f.
1530 1132
1532 [22] 1134 [22]
1533 1135 Vgl. Roth 2019; Burghardt 2020. Die Spielarten von Roth und Burghardt werden in
1534 Vgl. Roth 2019; 1136 diesem Beitrag als Grundlage gewählt, da sie u. a. auf Basis einer
1535 Burghardt 2020. Die Spielarten von Roth und Burghardt werden in diesem 1137 empirischen Untersuchung von Zeitschriftenartikeln und
1536 Beitrag als Grundlage gewählt, da sie u. a. auf Basis einer empirischen 1138 Konferenzbeiträgen einen aktuelleren Überblick über die verschiedenen
1537 Untersuchung von Zeitschriftenartikeln und Konferenzbeiträgen einen 1139 Teilbereiche der DH-Forschung geben als Standardwerke wie Jannidis et al. (Hg.) 2017 oder Schreibman et al. (Hg.) 2015.
1538 aktuelleren Überblick über die verschiedenen Teilbereiche der 1140
1539 DH-Forschung geben als Standardwerke wie Jannidis et al. (Hg.)
1540 2017 oder Schreibman et al. (Hg.)
1541 2015.
1542 1141
1544 [23] 1143 [23]
1545 1144 Roth 2019, S. 616.
1546 Roth 2019, 1145
1547 S. 616.
1548 1146
1550 [24] 1148 [24]
1551 1149 Roth 2019, S. 616.
1552 Roth 2019, 1150
1553 S. 616.
1554 1151
1556 [25] 1153 [25]
1557 1154 Roth 2019, S. 618.
1558 Roth 2019, 1155
1559 S. 618.
1560 1156
1562 [26] 1158 [26]
1563 1159 Roth 2019, S. 618.
1564 Roth 2019, 1160
1565 S. 618.
1566 1161
1568 [27] 1163 [27]
1569
1570 Vgl. Roth 2019, S. 623–625. 1164 Vgl. Roth 2019, S. 623–625.
1572 1166
1167
1573 [28] 1168 [28]
1574 1169 Vgl. Burghardt
1575 Vgl. Burghardt 2020. 1170 2020.
1171
1576 1172
1578 [29] 1174 [29]
1579 1175 Vgl. Friedman 1996.
1580 An dieser Stelle herzlichen Dank an Frauke Schade, 1176
1581 die als eine der Reviewerinnen dieses Textes ein Kapitel zu Informationsethik angeregt
1582 hat.
1583 1177
1585 [30] 1179 [30]
1586 1180 Friedman / Hendry 2019, S. 2.
1587 Rösch 2021, S. 3. 1181
1588 1182
1590 [31] 1184 [31]
1591 1185 Friedman et al. 2008, S. 69.
1592 Vgl. Rösch 2021, S. 33. 1186
1593 1187
1595 [32] 1189 [32]
1596 1190 Vgl. Friedman / Hendry 2019, S. 35–44.
1597 Vgl. 1191
1598 Burgess et al. 2019, S. 3.
1599 1192
1601 [33] 1194 [33]
1602 1195 Friedman et al. 2008, S. 70.
1603 1196
1604 Heesen 2016, S. 2.
1605 1197
1607 [34] 1199 [34]
1608 1200 Vgl. Friedman et al. 2008, S. 72.
1609 Vgl. Rösch 2021, S. 58. 1201
1610 1202
1612 [35] 1204 [35]
1613 1205 Vgl. Friedman / Hendry 2019, S. 22–29.
1614 Vgl. Rösch 2021, S. 55. 1206
1615 1207
1617 [36] 1209 [36]
1618 1210 Vgl. Friedman et al. 2008, S. 73.
1619 Grunwald / Hillerbrand 2021, S. 5. 1211
1620 1212
1622 [37] 1214 [37]
1623 1215 Friedman / Hendry 2019, S. 20.
1624 Grunwald / Hillerbrand 2021, S. 5. 1216
1625 1217
1627 [38] 1219 [38]
1628 1220 Winkler / Spiekermann 2018, S. 3.
1629 Vgl. van de Poel 2021, S. 129. 1221
1630 1222
1632 [39] 1224 [39]
1633 1225 Friedman et al. 2008, S. 75–80.
1634 Vgl. Ernst 2021, S. 110. 1226
1635 1227
1637 [40] 1229 [40]
1638 1230 Friedman et al. beziehen sich hier auf Ulrich 1984 und Ulrich 1993 sowie auf Kahn 1999.
1639 Eine 1231
1640 Übersicht über Ansätze, die Werte beim Design von Technologien einbeziehen, findet
1641 sich z. B. bei Simon 2016
1642 und bei Friedman / Hendry 2019, S.15f.
1643 1232
1645 [41] 1234 [41]
1646 1235 Vgl. Friedman et al. 2008, S. 75–80.
1647 Vgl. MacLennan et al. 2020. 1236
1648 1237
1650 [42] 1239 [42]
1651 1240 Vgl. Friedman et al. 2008, S. 75–80.
1652 Vgl. Simonsen / Robertson (Hg.) 2013. 1241
1653 1242
1655 [43] 1244 [43]
1656 1245 Vgl. Friedman et al. 2008, S. 75–80.
1657 Vgl. Grunwald / Hillerbrand 2021, S. 469. 1246
1658 1247
1660 [44] 1249 [44]
1661 1250 Vgl. Friedman et al. 2008, S. 75–80.
1662 Vgl. Friedman 1251
1663 1996.
1664 1252
1666 [45] 1254 [45]
1667 1255 Eine ausführliche Zusammenstellung bisheriger
1668 1256 Anwendungsbeispiele vgl. Friedman / Hendry 2019 und Winkler / Spiekermann 2018.
1669 So wird der Ansatz sowohl in Handbüchern für Technikethik (Vgl. z. B. Grunwald / Hillerbrand 2021), 1257
1670 als auch in Handbüchern für Informationsethik vorgestellt (Vgl. z. B.
1671 Heesen 2016).
1672 1258
1674 [46] 1260 [46]
1675 1261 Vgl. Roth 2019, S. 616.
1676 Vgl. 1262
1677 Friedman et al.
1678 2008, S. 69f.
1679 1263
1681 [47] 1265 [47]
1682 1266 Simon 2016, S. 363.
1683 Friedman et al. 1267
1684 2008, S. 70.
1685 1268
1687 [48] 1270 [48]
1688 1271 Zu den direkten Stakeholder gehören dabei diejenigen,
1689 Vgl. 1272 die Digitale Archive und Infrastrukturen erstellen und nutzen. Indirekte
1690 Friedman et al. 1273 Stakeholder sind hingegen diejenigen, die in den Digitalen Archive und
1691 2008, S. 69. 1274 Infrastrukturen abgebildet oder repräsentiert werden (wollen).
1275
1692 1276
1694 [49] 1278 [49]
1695 1279 Vgl. NINES (Hg.) 2021.
1696 Rösch 2021, S. 14. 1280
1697 1281
1699 [50] 1283 [50]
1700 1284 Risam 2019, S. 51.
1701 Für eine ausführliche Zusammenstellung bisheriger 1285
1702 Anwendungsbeispiele vgl. Friedman / Hendry
1703 2019 und Winkler /
1704 Spiekermann 2018.
1705 1286
1707 [51] 1288 [51]
1708 1289 Vgl. NINES (Hg.) 2021.
1709 Vgl. Friedman / Hendry 2019, 1290
1710 S. 35–44.
1711 1291
1713 [52] 1293 [52]
1714 1294 Risam 2019, S. 51.
1715 Friedman et 1295
1716 al. 2008, S. 70.
1717 1296
1719 [53] 1298 [53]
1720 1299 Risam 2019, S. 51.
1721 Vgl. Friedman et 1300
1722 al. 2008, S. 72.
1723 1301
1725 [54] 1303 [54]
1726 1304 Vgl. Friedman / Henry 2019, S. 42.
1727 Vgl. Friedman / Hendry 2019, S. 22-29. 1305
1728 1306
1730 [55] 1308 [55]
1731 1309 Buettner 2020, Hervorhebung im Original.
1732 Alle Friedman / Hendry 2019, S. 28. 1310
1733 1311
1735 [56] 1313 [56]
1736 1314 Buettner 2020.
1737 Friedman / Hendry 2019, S. 28. 1315
1738 1316
1740 [57] 1318 [57]
1741 1319 Buettner 2021.
1742 1320
1743 Vgl. Friedman et
1744 al. 2008, S. 90f.
1745 1321
1747 [58] 1323 [58]
1748 1324 Rojas Castro 2020.
1749 1325
1750 Vgl. Friedman et
1751 al. 2008, S. 72.
1752 1326
1754 [59] 1328 [59]
1755 1329 Umbrello / van de Poel 2021, S. 4.
1756 1330
1757 Vgl. Vereinte Nationen Generalversammlung 2014,
1758 S. 8.
1759 1331
1761 [60] 1333 [60]
1762 1334 Umbrello / van de Poel 2021, S. 4.
1763 Vgl. Friedman et 1335
1764 al. 2008, S. 73.
1765 1336
1767 [61] 1338 [61]
1768 1339 Umbrello / van de Poel 2021, S. 2.
1769 Friedman / 1340
1770 Hendry 2019, S. 20.
1771 1341
1773 [62] 1343 [62]
1774 1344 Umbrello / van de Poel 2021, S. 5.
1775 Winkler / 1345
1776 Spiekermann 2018, S. 3.
1777 1346
1779 [63] 1348 [63]
1780 1349 Vgl. Umbrello / van de Poel 2021, S. 4–6.
1781 Friedman et 1350
1782 al. 2008, S. 75–80.
1783 1351
1785 [64] 1353 [64]
1786 1354 Umbrello / van de Poel 2021, S. 6.
1787 Friedman et al. beziehen 1355
1788 sich hier auf Ulrich 1984 und Ulrich 1993 sowie auf Kahn 1999.
1789 1356
1791 [65] 1358 [65]
1792 1359 Vgl. Beisheim 2015.
1793 Vgl. Friedman et 1360
1794 al. 2008, S. 75–80.
1795 1361
1797 [66] 1363 [66]
1798 1364 Vgl. Umbrello / van de Poel 2021, S. 6f.
1799 Vgl. Friedman et 1365
1800 al. 2008, S. 75–80.
1801 1366
1803 [67] 1368 [67]
1804 1369 Vgl. Umbrello / van de Poel 2021, S. 6.
1805 Vgl. Friedman et 1370
1806 al. 2008, S. 75–80.
1807 1371
1809 [68] 1373 [68]
1810 1374 Roth 2019, S. 623.
1811 Vgl. Friedman et 1375
1812 al. 2008, S. 75–80.
1813 1376
1815 [69] 1378 [69]
1816 1379 Vgl. Denelezh (Hg.) 2020.
1817 Miller et al. 2007 1380
1818 , S. 282.
1819 1381
1821 [70] 1383 [70]
1822 1384 Samoilenko 2017.
1823 Vgl. Miller et al. 2007 1385
1824 , S. 281f.
1825 1386
1828 1389
1829 Vgl. Miller et al. 2007 1390 Samoilenko 2017
1830 , S. 283f. 1391
1392
1831 1393
1833 [72] 1395 [72]
1834 1396 West 2017, S. 31.
1835 Miller et al. 2007 1397
1836 , S. 284.
1837 1398
1839 [73] 1400 [73]
1840 1401 Vgl. W3C Web Accessibility Initiative, Henry 2021.
1841 Vgl. Miller et al. 2007 1402
1842 , S. 284.
1843 1403
1845 [74] 1405 [74]
1846 1406 Vgl. W3C Web Accessibility Initiative, Henry 2019.
1847 Vgl. Miller et al. 2007 1407
1848 , S. 284.
1849 1408
1851 [75] 1410 [75]
1852 1411 Vgl. W3C Web Accessibility Initiative, White 2020.
1853 Vgl. Miller et al. 2007 1412
1854 , S. 290.
1855 1413
1857 [76] 1415 [76]
1858 1416 The Programming Historian (Hg.) 2008-2021.
1859 Vgl. Miller et al. 2007 1417
1860 , S. 284.
1861 1418
1863 [77] 1420 [77]
1864 1421 Rojas Castro 2020.
1865 Miller et al. 2007 1422
1866 , S. 284.
1867 1423
1869 [78] 1425 [78]
1870 1426 Vgl. Directory of Open Access Journals (Hg.) 2021.
1871 Vgl. Miller et al. 2007 1427
1872 , S. 284f.
1873 1428
1875 [79] 1430 [79]
1876 1431 Vgl. Frick / Kaier 2020.
1877 Vgl. Miller et al. 2007 1432
1878 , S. 285.
1879 1433
1881 [80] 1435 [80]
1882 1436 Noble 2019, S. 32.
1883 Miller et al. 2007 1437
1884 , S. 286.
1885 1438
1887 [81] 1440 [81]
1888 1441 Noble 2019, S. 30.
1889 Vgl. Miller et al. 2007 1442
1890 , S. 285f.
1891 1443
1893 [82] 1445 [82]
1894 1446 Baillot 2021.
1895 Vgl. Roth 1447
1896 2019, S. 616.
1897 1448
1899 [83] 1450 [83]
1900 1451 Vgl. Minimal Computing (Hg.).
1901 Simon 1452
1902 2016, S. 363.
1903 1453
1905 [84] 1455 [84]
1906 1456 Vgl. Rat für Nachhaltige Entwicklung (Hg.) 2019.
1907 Vgl. 1457
1908 Vereinte Nationen Generalversammlung 2014
1909 , S. 8.
1910 1458
1912 [85] 1460 [85]
1913
1914 Zu den direkten Stakeholder gehören
1915 dabei diejenigen, die digitale Archive und Infrastrukturen erstellen
1916 und nutzen. Indirekte Stakeholder sind hingegen diejenigen, die in
1917 den digitalen Archive und Infrastrukturen abgebildet oder
1918 repräsentiert werden (wollen).
1919
1920
1921 [86]
1922
1923 Herzlichen Dank an Swantje Dogunke,
1924 eine der Reviewerin dieses Aufsatzes, für diesen wichtigen Hinweis.
1925
1926
1927
1928 [87]
1929
1930 Buettner 2020, Hervorhebung im Original.
1931
1932
1933 [88]
1934
1935 Buettner 2020.
1936
1937
1938 [89]
1939
1940 Buettner
1941 2021.
1942
1943
1944 [90]
1945
1946 Vgl.
1947 NINES
1948 (Hg.) 2021.
1949
1950
1951 [91]
1952
1953 Risam 2019, S. 51.
1954
1955
1956 [92]
1957
1958 Vgl. NINES (Hg.)
1959 2021.
1960
1961
1962 [93]
1963
1964 Risam
1965 2019, S. 51.
1966
1967
1968 [94]
1969
1970 Risam
1971 2019, S. 51.
1972
1973
1974 [95]
1975
1976 Rojas Castro
1977 2020.
1978
1979
1980 [96]
1981
1982 Umbrello /
1983 van de Poel 2021, S. 4.
1984
1985
1986 [97]
1987
1988 Umbrello /
1989 van de Poel 2021, S. 4.
1990
1991
1992 [98]
1993
1994 Umbrello /
1995 van de Poel 2021, S. 2.
1996
1997
1998 [99]
1999
2000 Umbrello
2001 / van de Poel 2021, S. 5.
2002
2003
2004 [100]
2005
2006 Vgl. Umbrello /
2007 van de Poel 2021, S. 4–6.
2008
2009
2010 [101]
2011
2012 Umbrello /
2013 van de Poel 2021, S. 6.
2014
2015
2016 [102]
2017
2018 Vgl.
2019 Beisheim 2015.
2020
2021
2022 [103]
2023
2024 Vgl.
2025 Umbrello / van de Poel 2021, S. 6f.
2026
2027
2028 [104]
2029
2030 Vgl. Umbrello / van
2031 de Poel 2021, S. 6.
2032
2033
2034 [105]
2035
2036 Umbrello / van
2037 de Poel 2021, S. 9.
2038
2039
2040 [106]
2041
2042 Umbrello / van
2043 de Poel 2021, S. 10.
2044
2045
2046 [107]
2047
2048 Umbrello / van
2049 de Poel 2021, S. 9.
2050
2051
2052 [108]
2053
2054 Vgl. Umbrello / van
2055 de Poel 2021, S. 8-10.
2056
2057
2058 [109]
2059
2060 Umbrello / van
2061 de Poel 2021, S. 10.
2062
2063
2064 [110]
2065
2066 Vgl. Umbrello / van
2067 de Poel 2021, S. 10-11.
2068
2069
2070 [111]
2071
2072 Vgl. Umbrello / van
2073 de Poel 2021, S. 12.
2074
2075
2076 [112]
2077
2078 Vgl. Umbrello / van
2079 de Poel 2021, S. 6.
2080
2081
2082 [113]
2083
2084 Roth
2085 2019, S. 623.
2086
2087
2088 [114]
2089
2090 Vgl.
2091 Denelezh (Hg.) 2020.
2092
2093
2094 [115]
2095
2096 Samoilenko
2097 2017.
2098
2099
2100 [116]
2101
2102 Samoilenko 2017
2103
2104 [117]
2105
2106 West
2107 2017, S. 31.
2108
2109
2110 [118]
2111
2112 Vgl. Greb
2113 2021.
2114
2115
2116 [119]
2117
2118 Vgl. Liao 2015, S. 38.
2119
2120
2121 [120]
2122
2123 Vgl. Rösch 2021, S. 74, 87.
2124
2125
2126 [121]
2127
2128 Vgl. W3C Web
2129 Accessibility Initiative, Henry 2021.
2130
2131
2132 [122]
2133
2134 Vgl. W3C Web
2135 Accessibility Initiative, Henry 2019.
2136
2137
2138 [123]
2139
2140 Vgl. W3C Web
2141 Accessibility Initiative, White 2020.
2142
2143
2144 [124]
2145
2146 The
2147 Programming Historian (Hg.) 2008-2021.
2148
2149
2150 [125]
2151
2152 Rojas Castro
2153 2020.
2154
2155
2156 [126]
2157
2158
2159 Vgl. Directory of
2160 Open Access Journals (Hg.) 2021.
2161
2162
2163 [127]
2164
2165 Vgl. Frick / Kaier 2020.
2166
2167
2168 [128]
2169
2170 Vgl. Rösch 2021, S. 147.
2171
2172
2173 [129]
2174
2175 Vgl. ZfdG 2021a.
2176
2177
2178 [130]
2179
2180 Vgl. ZfdG 2021b.
2181
2182
2183 [131]
2184
2185 Noble
2186 2019, S. 32.
2187
2188
2189 [132]
2190
2191 Noble 2019, S. 30.
2192
2193
2194 [133]
2195
2196 Baillot
2197 2021.
2198
2199
2200 [134]
2201
2202 Vgl. Minimal Computing (Hg.).
2203
2204
2205 [135]
2206
2207 Vgl.
2208 Rat für
2209 Nachhaltige Entwicklung (Hg.) 2019.
2210
2211
2212 [136]
2213
2214 Vgl. Electronics Watch (Hg.) [2020]; Konferenzen für sozial verantwortliche IT-Beschaffung (Hg.) 1461 Vgl. Electronics Watch (Hg.) [2020]; Konferenzen für sozial verantwortliche IT-Beschaffung (Hg.)
2217 1464
2218 [137] 1465
2219 1466 [86]
2220 Vgl. Friedman / Nissenbaum 1996, S. 332. 1467 Vgl. Friedman / Nissenbaum 1996, S. 332.
2222 1469
2223 [138] 1470
2224 1471 [87]
1472 Eine Übersicht über Ansätze, die Werte beim Design
1473 von Technologien einbeziehen, findet sich z. B. bei Simon 2016 und bei Friedman / Hendry 2019, S.15f.
1474
1475
1476
1477 [88]
1478 MacLennan et al. 2020.
1479
1480
1481
1482 [89]
1483 Vgl. Routledge international handbook of
1484 participatory design, Simonsen / Robertson (Hg.) 2013.
1485
1486
1487
1488 [90]
2225 Vgl. Fdm:nrw (Hg.) 2020. 1489 Vgl. Fdm:nrw (Hg.) 2020.
2227 1491
2228 [139] 1492
2229 1493 [91]
2230 Friedman / Hendry 1494 Friedman / Hendry 2019, S. 180.
2231 2019, S. 180. 1495
2232 1496
2233 1497
2234 1498
2235 1499
2236 1500
2237 1501
2238 Bibliografische Angaben 1502
2239 1503
2240 1504
2241 Anne Baillot: »Digital Humanities und die Klimakrise« – ein Manifest. In: Digital 1505 Bibliographische Angaben
2242 Intellectuals. Hg. von Anne Baillot. Blogbeitrag vom 24.08.2021. [online]. 1506
2243 Marianne Beisheim: Die ›Agenda 2030 für nachhaltige Entwicklung‹. In: 1507
2244 Zeitschrift für die Vereinten Nationen und ihre Sonderorganisationen 63 (2015), H. 1508 Anne Baillot: »Digital
2245 6, S. 255–260. [online] [Nachweis im GVK] 1509 Humanities und die Klimakrise« – ein Manifest. In: Digital Intellectuals.
1510 Hg. von Anne Baillot. Blogbeitrag vom 24.08.2021. [online].
1511
1512 Marianne Beisheim: Die ›Agenda 2030
1513 für nachhaltige Entwicklung‹. In: Zeitschrift für die Vereinten Nationen und
1514 ihre Sonderorganisationen 63 (2015), H. 6, S. 255–260. [online] [Nachweis im GVK]
1515
2246 Anke Buettner: Gedächtnis mit 1516 Anke Buettner: Gedächtnis mit
2248 Stadtbibliothek. Blog. Blogbeitrag vom 11.11.2020. [online] 1518 Stadtbibliothek. Blog. Blogbeitrag vom 11.11.2020. [online]
2249 Anke Buettner: Kulturerbe-Projekt 1519
2250 #femaleheritage: Vom Spuren legen und Fährten lesen – Ausblick & 1520 Anke Buettner:
2251 Nachlese der Blogparade. In: Münchner Stadtbibliothek. Blog. Blogbeitrag vom 1521 Kulturerbe-Projekt #femaleheritage: Vom Spuren legen und Fährten lesen –
2252 08.03.2021. [online] 1522 Ausblick & Nachlese der Blogparade. In: Münchner Stadtbibliothek. Blog.
2253 John T. F. Burgess / Emily Knox / Robert Hauptman: Foundations of information ethics. 1523 Blogbeitrag vom 08.03.2021. [online]
2254 Chicago 2019. [Nachweis im GVK] 1524
2255 Manuel Burghardt: Theorie und Digital Humanities – 1525 Manuel Burghardt: Theorie und
2256 Eine Bestandsaufnahme. In: Digital Humanities Theorie. Hg. von AG Digital Humanities 1526 Digital Humanities – Eine Bestandsaufnahme. In: Digital Humanities Theorie.
2257 Theorie. Blogbeitrag vom 15.05.2020. [online] 1527 Hg. von AG Digital Humanities Theorie. Blogbeitrag vom 15.05.2020. [online]
2258 Gender Gap in Wikidata. Hg. von Denelezh. In: denelezh.wmcloud.org/gender-gap. Analyse-Tool 1528
2259 abgerufen am 21.09.2020. [online] 1529 Gender Gap in Wikidata. Hg. von
2260 Leitlinien zur Sicherung guter wissenschaftlicher Praxis. Kodex. Hg. von Deutsche 1530 Denelezh. In: denelezh.wmcloud.org/gender-gap. Analyse-Tool abgerufen am
2261 Forschungsgemeinschaft. Bonn 2019. 1531 21.09.2020. [online]
2262 In: zenodo.org/record/3923602. Version 1.0 vom 15.09.2019. DOI: 10.5281/zenodo.3923602Directory of Open Access Journals. Hg. von DOAJ. 1532
2263 [online] 1533 Leitlinien zur Sicherung guter
2264 Werkzeugsammlung Öffentliche 1534 wissenschaftlicher Praxis. Kodex. Hg. von Deutsche Forschungsgemeinschaft.
2265 Beschaffung. Hg. von Electronics Watch. In: electronicswatch.org. Amsterdam. 1535 Bonn 2019. In: zenodo.org/record/3923602. Version 1.0 vom 15.09.2019. DOI:
2266 [online] 1536 10.5281/zenodo.3923602
2267 Waltraud Ernst: Feministische Technikphilosophie. 1537
2268 In: Handbuch Technikethik. Hg. von Armin Grunwald und Rafaela Hillebrand. Stuttgart 1538 Directory of Open Access Journals. Hg.
2269 2021, S. 114–118. [Nachweis im GVK] 1539 von DOAJ. [online]
2270 Dokumentation vom 04.09.2020. Hg. von 1540
2271 Fachkonferenzen für sozial verantwortliche IT-Beschaffung. In: 1541 Werkzeugsammlung
1542 Öffentliche Beschaffung. Hg. von Electronics Watch. In:
1543 electronicswatch.org. Amsterdam. [online]
1544
1545 Dokumentation vom 04.09.2020.
1546 Hg. von Fachkonferenzen für sozial verantwortliche IT-Beschaffung. In:
2272 faire-beschaffung.de. Wustermark 2020. [online] 1547 faire-beschaffung.de. Wustermark 2020. [online]
2273 Claudia Frick / Christian Kaier: 1548
2274 Publikationskosten für Zeitschriftenartikel abseits von 1549 Claudia Frick / Christian
1550 Kaier: Publikationskosten für Zeitschriftenartikel abseits von
2275 Open-Access-Publikationsfonds – Lost in Transformation? In: o-bib. Das 1551 Open-Access-Publikationsfonds – Lost in Transformation? In: o-bib. Das
2276 offene Bibliotheksjournal 7 (2020), H. 2, S. 1–15. Artikel vom 05.05.2020. 1552 offene Bibliotheksjournal 7 (2020), H. 2, S. 1–15. Artikel vom 05.05.2020.
2277 DOI: 10.5282/O-BIB/5586Batya Friedman: Value-sensitive design. In: 1553 DOI: 10.5282/O-BIB/5586
2278 Interactions 3 (1996), H. 6, S. 16–23. [Nachweis im GVK] 1554
1555 Batya Friedman: Value-sensitive
1556 design. In: Interactions 3 (1996), H. 6, S. 16–23. [Nachweis im GVK]
1557
2279 Batya Friedman / David Hendry: Value 1558 Batya Friedman / David Hendry: Value
2281 a. 2019. [Nachweis im GVK] 1560 a. 2019. [Nachweis im GVK]
2282 Batya Friedman / Peter Kahn / Alan Borning: 1561
2283 Value Sensitive Design and Information Systems. In: The handbook of 1562 Batya Friedman / Peter Kahn / Alan
2284 information and computer ethics. Hg. von Kenneth Einar Himma / Herman T. 1563 Borning: Value Sensitive Design and Information Systems. In: The
2285 Tavani. Hoboken, NJ 2008, S. 69–101. [Nachweis im GVK] 1564 handbook of information and computer ethics. Hg. von Kenneth Einar Himma /
2286 Batya Friedman / Helen Nissenbaum: Bias in 1565 Herman T. Tavani. Hoboken, NJ 2008, S. 69–101. [Nachweis im GVK]
2287 computer systems. In: ACM Transactions on Information Systems 14 (1996), H. 1566
2288 3, S. 330–347. PDF. [online] [Nachweis im GVK] 1567 Batya Friedman / Helen Nissenbaum:
1568 Bias in computer systems. In: ACM Transactions on Information Systems 14
1569 (1996), H. 3, S. 330–347. PDF. [online] [Nachweis im GVK]
1570
2289 Marisa Gierlinger: Warum 1571 Marisa Gierlinger: Warum
2291 Artikel vom 12.06.2020. [online] 1573 Artikel vom 12.06.2020. [online]
2292 Minimal Computing: About. Hg. von GO::DH 1574
2293 Minimal Computing Working Group. In: go-dh.github.io. [online] 1575 Minimal Computing: About. Hg. von
2294 Verena Greb: 20 Jahre Wikipedia. Acht Dinge, 1576 GO::DH Minimal Computing Working Group. In: go-dh.github.io. [online]
2295 die es zu wissen lohnt. In: Deutsche Welle vom 15.01.2021. [online] 1577
2296 Handbuch Technikethik. Hg. v. Armin Grunwald und Rafaela Hillerbrand. 2. Auflage.
2297 Stuttgart 2021.
2298 Roger Häußling: 1578 Roger Häußling:
2300 Auflage. Opladen u. a. 2019. [Nachweis im GVK] 1580 Auflage. Opladen u. a. 2019. [Nachweis im GVK]
2301 Shawn Lawton Henry: Introduction to Web 1581
2302 Accessibility. Hg. von W3C Web Accessibility Initiative. In: 1582 Shawn Lawton Henry: Introduction
1583 to Web Accessibility. Hg. von W3C Web Accessibility Initiative. In:
2303 w3.org/WAI/standards-guidelines vom 11.07.2019. Website. [online] 1584 w3.org/WAI/standards-guidelines vom 11.07.2019. Website. [online]
2304 Shawn Lawton Henry: W3C Accessibility Standards 1585
2305 Overview. Hg. von W3C Web Accessibility Initiative. In: 1586 Shawn Lawton Henry: W3C Accessibility
1587 Standards Overview. Hg. von W3C Web Accessibility Initiative. In:
2306 w3.org/WAI/standards-guidelines vom 30.04.2021. [online] 1588 w3.org/WAI/standards-guidelines vom 30.04.2021. [online]
2307 Handbuch Medien- und Informationsethik. Hg. v. Jessica Heesen, Stuttgart 2016. [Nachweis im GVK] 1589
2308 Martin Holland: Amazon: KI zur 1590 Martin Holland: Amazon: KI zur
2310 11.10.2018. [online] 1592 11.10.2018. [online]
2311 Martin Holland: Analyse: KI-Sprachmodell 1593
2312 GPT-3 hegt tief verankerte Vorurteile gegen Muslime. In: Heise Online vom 1594 Martin Holland: Analyse:
2313 25.01.2021. [online] 1595 KI-Sprachmodell GPT-3 hegt tief verankerte Vorurteile gegen Muslime. In:
2314 Digital Humanities: Eine Einführung. Hg. von Fotis Jannidis / Hubertus Kohle / 1596 Heise Online vom 25.01.2021. [online]
2315 Malte Rehbein. Stuttgart 2017 [Nachweis im GVK] 1597
2316 Peter H. Kahn: The human relationship with nature. Development and 1598 Digital Humanities: Eine
2317 culture. Cambridge, MA. 1999. [Nachweis im GVK] 1599 Einführung. Hg. von Fotis Jannidis / Hubertus Kohle / Malte Rehbein.
2318 Daniél Kretschmar: Rassismus in 1600 Stuttgart 2017 [Nachweis im GVK]
2319 Algorithmen. Gesichtserkennung für die Tonne. In: taz.de. Artikel vom 1601
1602 Peter H. Kahn: The human
1603 relationship with nature. Development and culture. Cambridge, MA. 1999. [Nachweis im GVK]
1604
1605 Daniél Kretschmar: Rassismus
1606 in Algorithmen. Gesichtserkennung für die Tonne. In: taz.de. Artikel vom
2320 01.07.2020. [online] 1607 01.07.2020. [online]
2321 Data Stewardship. Hg. von Landesinitiative für 1608
2322 Forschungsdatenmanagement. In: fdm.nrw. Duisburg-Essen 2020. [online] 1609 Data Stewardship. Hg. von
2323 Han-Teng Liao: Harnessing the power of collaborative 1610 Landesinitiative für Forschungsdatenmanagement. In: fdm.nrw. Duisburg-Essen
2324 filtering. In: China Perspectives (2015), H. 4, S. 35–49. [Nachweis im GVK] 1611 2020. [online]
2325 Stuart McLennan / Amelia Fiske / Leo Anthony 1612
2326 Celi / Ruth Müller / Jan Harder / Konstantin Ritt / Sami Haddadin / Alena 1613 Stuart McLennan / Amelia Fiske /
2327 Buyx: An embedded ethics approach for AI development. In: Nature Machine 1614 Leo Anthony Celi / Ruth Müller / Jan Harder / Konstantin Ritt / Sami
2328 Intelligence 2 (2020), H. 9, S. 488–490. [Nachweis im GVK] 1615 Haddadin / Alena Buyx: An embedded ethics approach for AI development. In:
2329 Jessica K. Miller, Batya Friedman, Gavin Jancke: 1616 Nature Machine Intelligence 2 (2020), H. 9, S. 488–490. [Nachweis im GVK]
2330 Value tensions in design. The Value Sensitive Design, development and appropriation 1617
2331 1618 What is NINES? Hg. von NINES
2332 of a corproation's groupware system, in: Proceedings of the 2007 International 1619 Nineteenth-century Scholarship Online. In: nines.org/about. [online]
2333 ACM Conference on Supporting Group Work, S. 281–290. DOI: 10.1145/1316624.1316668What is NINES? Hg. von NINES Nineteenth-century 1620
2334 Scholarship Online. In: nines.org/about. [online] 1621 Safiya Umoja Noble: Toward a
2335 Safiya Umoja Noble: Toward a Critical Black Digital Humanities. In: 1622 Critical Black Digital Humanities. In: Debates in the Digital Humanities.
2336 Debates in the Digital Humanities. Hg. von Matthew K. Gold, Lauren F. Klein. 1623 Hg. von Matthew K. Gold, Lauren F. Klein. Minneapolis, MN 2019, S. 27–35.
2337 Minneapolis, MN 2019, S. 27–35. [Nachweis im GVK] 1624 [Nachweis im GVK]
2338 Ibo van de Poel: Werthaltigkeit der Technik. 1625
2339 In: Handbuch Technikethik. Hg. von Armin Grunwald und Rafaela Hillebrand. Stuttgart 1626 Tanja Praske: Blogparade »Frauen
2340 2021, S. 132–136. [Nachweis im GVK] 1627 und Erinnerungskultur #femaleheritage« der Monacensia (11.11.–09.12) mit
2341 Tanja Praske: Blogparade »Frauen und
2342 Erinnerungskultur #femaleheritage« der Monacensia (11.11.–09.12) mit
2343 Nachklapp. In: pearltrees.com. Inhalt vom 16.02.2021. [online] 1628 Nachklapp. In: pearltrees.com. Inhalt vom 16.02.2021. [online]
2344 The Programming Historian. Hg. von The Programming Historian. 2008–2021. [online] 1629
2345 1630 The Programming Historian.
2346 Wie die Beschaffung fairer IT-Hardware 1631 Hg. von The Programming Historian. 2008–2021. [online]
2347 gelingt. Hg. von Rat für Nachhaltige Entwicklung. In: 1632
1633 Wie die Beschaffung fairer
1634 IT-Hardware gelingt. Hg. von Rat für Nachhaltige Entwicklung. In:
2348 nachhaltigkeitsrat.de/aktuelles. Artikel vom 25.06.2019. [online] 1635 nachhaltigkeitsrat.de/aktuelles. Artikel vom 25.06.2019. [online]
2349 Roopika Risam: New digital worlds. Postcolonial 1636
2350 digital humanities in theory, praxis, and pedagogy. Evanston, IL 2019. [Nachweis im GVK] 1637 Roopika Risam: New digital worlds.
2351 Hermann Rösch: Informationsethik und Bibliotheksethik. Grundlagen und Praxis. Berlin, 1638 Postcolonial digital humanities in theory, praxis, and pedagogy. Evanston,
2352 Boston 2021. [Nachweis im GVK] 1639 IL 2019. [Nachweis im GVK]
2353 Antonio Rojas Castro: FAIR enough? Building DH 1640
2354 resources in an unequal world. (Digital Humanities Kolloquium, BBAW, 1641 Antonio Rojas Castro: FAIR enough?
2355 07.08.2020). In: vimeo.com/445147368. Video. [online] 1642 Building DH resources in an unequal world. (Digital Humanities Kolloquium,
2356 Camille Roth: Digital, digitized, and 1643 BBAW, 07.08.2020). In: vimeo.com/445147368. Video. [online]
2357 numerical humanities. In: Digital Scholarship in the Humanities 34 (2019), 1644
2358 H. 3, S. 616–632. Artikel vom 05.11.2018. DOI: 10.1093/llc/fqy057 [Nachweis im GVK] 1645 Camille Roth: Digital, digitized,
1646 and numerical humanities. In: Digital Scholarship in the Humanities 34
1647 (2019), H. 3, S. 616–632. Artikel vom 05.11.2018. DOI: 10.1093/llc/fqy057 [Nachweis im GVK]
1648
2359 Anna Samoilenko: Multilingual 1649 Anna Samoilenko: Multilingual
2360 historical narratives on Wikipedia. 2017. In: GESIS Data Archive. Datensatz. 1650 historical narratives on Wikipedia. 2017. In: GESIS Data Archive. Datensatz.
2361 Version 1. DOI: 10.7802/1411Judith Simon: Values in Design. In: Handbuch 1651 Version 1. DOI: 10.7802/1411
2362 Medien- und Informationsethik. Hg. von Jessica Heesen. Stuttgart 2016, 1652
2363 S. 357–364. [Nachweis im GVK] 1653 Judith Simon: Values in Design.
2364 Routledge international handbook of participatory design. Hg. von Jesper 1654 In: Handbuch Medien- und Informationsethik. Hg. von Jessica Heesen.
2365 Simonsen / Toni Robertson. New York, NY u. a. 2013. [Nachweis im GVK] 1655 Stuttgart 2016, S. 357–364. [Nachweis im GVK]
2366 Roger S. Ulrich: Biophilia, biophobia, and natural landscapes. In: The 1656
2367 biophilia hypothesis. Hg. von Stephen R. Kellert. Washington, DC u. a. 1993, S. 1657 Routledge international handbook
2368 73–137. [Nachweis im GVK] 1658 of participatory design. Hg. von Jesper Simonsen / Toni Robertson. New York,
2369 Roger S. Ulrich: View through a window may influence recovery from 1659 NY u. a. 2013. [Nachweis im GVK]
2370 surgery. In: Science 224 (1984), H. 4647, S. 420–421. [Nachweis im GVK] 1660
2371 Steven Umbrello / Ibo van de Poel: Mapping 1661 Roger S. Ulrich: Biophilia,
2372 Value Sensitive Design onto AI for social good principles. In: AI and Ethics 1662 biophobia, and natural landscapes. In: The biophilia hypothesis. Hg. von
2373 (2021). Artikel vom 01.02.2021. DOI: 10.1007/s43681-021-00038-3 [Nachweis im GVK] 1663 Stephen R. Kellert. Washington, DC u. a. 1993, S. 73–137. [Nachweis im GVK]
2374 A new companion to digital humanities. 1664
2375 Hg. von Susan Schreibman / Ray Siemens / John Unsworth. Chichester u. a. 2016. [Nachweis im GVK] 1665 Roger S. Ulrich: View through a window
2376 Sara Wachter-Boettcher: Technically wrong. 1666 may influence recovery from surgery. In: Science 224 (1984), H. 4647, S.
2377 Sexist apps, biased algorithms, and other threats of toxic tech. New York, 1667 420–421. [Nachweis im GVK]
2378 NY u. a. 2017. [Nachweis im GVK] 1668
2379 Vereinte Nationen Generalversammlung: 1669 Steven Umbrello / Ibo van de Poel:
2380 Aktivitätenprogramm für die Durchführung der Internationalen Dekade 1670 Mapping Value Sensitive Design onto AI for social good principles. In: AI
2381 der Menschen afrikanischer Abstammung. Resolution der Generalversammlung, 1671 and Ethics (2021). Artikel vom 01.02.2021. DOI: 10.1007/s43681-021-00038-3 [Nachweis im GVK]
2382 verabschiedet am 18. November 2014. 1672
2383 Sarah Myers West: Raging Against the Machine: 1673 A new companion to digital
2384 Network Gatekeeping and Collective Action on Social Media Platforms. In: 1674 humanities. Hg. von Susan Schreibman / Ray Siemens / John Unsworth.
2385 Mobile Media and Communication 5 (2017), H. 3, S. 28–36. DOI: 10.17645/mac.v5i3.989 [Nachweis im GVK] 1675 Chichester u. a. 2016. [Nachweis im GVK]
2386 Kevin White / Shadi Abou-Zahra / Shawn Lawton 1676
2387 Henry: Writing for Web Accessibility – Tips for Getting Started. Hg. von W3C 1677 Sara Wachter-Boettcher: Technically
2388 Web Accessibility Initiative. In: w3.org/WAI/tips/writing/ vom 01.12.2020. 1678 wrong. Sexist apps, biased algorithms, and other threats of toxic tech. New
2389 [online] 1679 York, NY u. a. 2017. [Nachweis im GVK]
2390 1680
2391 Till Winkler / Sarah Spiekermann: Twenty years 1681 Sarah Myers West: Raging Against the
2392 of Value Sensitive Design: a review of methodological practices in VSD 1682 Machine: Network Gatekeeping and Collective Action on Social Media
2393 projects. In: Ethics and Information Technology 23 (2021), S. 17–21. Artikel 1683 Platforms. In: Mobile Media and Communication 5 (2017), H. 3, S. 28–36.
2394 vom 21.08.2018. DOI: 10.1007/s10676-018-9476-2 [Nachweis im GVK] 1684 DOI: 10.17645/mac.v5i3.989 [Nachweis im GVK]
2395 ZfdG (2021a): I wie Impressum. In: Zeitschrift 1685
2396 für digitale Geisteswissenschaften. 2021. [online] 1686 Kevin White / Shadi Abou-Zahra /
2397 ZfdG (2021b): P wie Publizieren. In: Zeitschrift 1687 Shawn Lawton Henry: Writing for Web Accessibility – Tips for Getting
2398 für digitale Geisteswissenschaften. 2021. [online] 1688 Started. Hg. von W3C Web Accessibility Initiative. In:
1689 w3.org/WAI/tips/writing/ vom 01.12.2020. [online]
1690
1691 Till Winkler / Sarah Spiekermann:
1692 Twenty years of Value Sensitive Design: a review of methodological practices
1693 in VSD projects. In: Ethics and Information Technology 23 (2021), S. 17–21.
1694 Artikel vom 21.08.2018. DOI: 10.1007/s10676-018-9476-2 [Nachweis im GVK]
1695
1696
1697
1698
1699
2399 1700
2406 1707
2407 Abb. 1: Die drei Untersuchungsschritte von 1708 Abb. 1: Die drei
2408 Value-Sensitive-Design-Analysen. [Leyrer 2021]. 1709 Untersuchungsschritte von Value-Sensitive-Design-Analysen. [Leyrer 2021].
2409 1710
2410 1711
2411 Abb. 2: Beispiel für eine Natur-Szene, auf der keine 1712 Abb. 2: Beispiel für eine
2412 Menschen abgebildet werden. Eignet sich auch für ein kurzes Experiment: 1713 Natur-Szene, auf der keine Menschen abgebildet werden. Eignet sich auch für
2413 Entspannt Sie der Anblick dieser Natur-Szene? [Wasserfall, Tal, Berge, 1714 ein kurzes Experiment: Entspannt Sie der Anblick dieser Natur-Szene?
2414 Landschaft, Wald, Bachlauf. Hg. von Free Fotos. In: pixabay.com. Bild vom 1715 [Wasserfall, Tal, Berge, Landschaft, Wald, Bachlauf. Hg. von Free Fotos. In:
2415 08.01.2016]. [online] 1716 pixabay.com. Bild vom 08.01.2016]. [online]
2416 1717
2417 1718
2418 Abb. 3: Ausschnitt aus einer Zusammenstellung der knapp 1719 Abb. 3: Ausschnitt aus einer
2419 200 Blogartikel, die im Kontext der #femaleheritage-Blogparade entstanden sind. 1720 Zusammenstellung der knapp 200 Blogartikel, die im Kontext der
2420 [Praske 1721 #femaleheritage-Blogparade entstanden sind. [Praske 2021]
2421 2021] 1722
1723
2422 1724