115 | [2]Warum ist das für die Digital Humanities von Bedeutung? Jedes
| 168 | [2]Warum ist das für die Digital Humanities von
|
---|
116 | Digital-Humanities-Projekt hat in irgendeiner Weise mit Technologien zu tun,
| 169 | Bedeutung? Jedes Digital-Humanities-Projekt hat in irgendeiner Weise mit
|
---|
117 | z. B. wenn Akteur*innen digitale Datensätze erstellen, kuratieren und
| 170 | Technologien zu tun, z. B. wenn Akteur*innen digitale Datensätze erstellen,
|
---|
118 | nutzen, Tools und Analyseverfahren entwickeln und anwenden,
| 171 | kuratieren und nutzen, Tools und Analyseverfahren entwickeln und anwenden,
|
---|
119 | Online-Communities und computervermittelte Interaktionen
| 172 | Online-Communities und computervermittelte Interaktionen geisteswissenschaftlich
|
---|
120 | geisteswissenschaftlich untersuchen[6] oder digitale Publikationen und E-Learning-Angebote
| 173 | untersuchen[6]
|
---|
121 | realisieren.[7] Diese Technologien
| 174 | oder digitale Publikationen und E-Learning-Angebote realisieren.[7] Diese Technologien
|
---|
122 | können – wie alle anderen auch – Bias aufweisen. Aktuell finden ethische
| 175 | können – wie alle anderen auch – Bias aufweisen. Aktuell finden ethische Aspekte bei
|
---|
123 | Aspekte bei der Konzeption und Realisierung von
| 176 | der Konzeption und Realisierung von Digital-Humanities-Projekten, -Technologien und
|
---|
124 | Digital-Humanities-Projekten, -Technologien und -Infrastrukturen jedoch
| 177 | -Infrastrukturen jedoch wenig Beachtung.[8] Für die gute wissenschaftliche Praxis, wie sie beispielsweise die DFG
|
---|
125 | wenig Beachtung.[8] Für die gute wissenschaftliche Praxis, wie sie
| 178 | in ihren Leitlinien festschreibt, ist eine ethische Überprüfung von
|
---|
126 | beispielsweise die DFG in ihren Leitlinien festschreibt, ist eine ethische
| 179 | Forschungsvorhaben zugleich unabdingbar.[9]
|
---|
127 | Überprüfung von Forschungsvorhaben zugleich unabdingbar.[9]
| 180 | [3]Dieser Beitrag geht daher der Frage nach, wie
|
---|
128 | [3]Dieser Beitrag geht daher der Frage nach, wie Technologien, die in den
| 181 | Technologien, die in den Digital Humanities entwickelt und genutzt werden,
|
---|
129 | Digital Humanities entwickelt und genutzt werden, ethisch
| 182 | informationsethisch überprüft und wertebasiert gestaltet werden können. Zunächst
|
---|
130 | überprüft und wertebasiert gestaltet werden können. Ziel des Beitrages ist es,
| 183 | wird beschrieben, welche verschiedenen Formen von Bias Technologien aufweisen
|
---|
131 | zu zeigen, wie Digital Humanities-Projekte auf Basis des Value-Sensitive-Design-Ansatzes
| 184 | können. Zudem wird skizziert, welche Technologien in den Digital Humanities eine
|
---|
| | 185 | Rolle spielen. Anschließend wird der Value-Sensitive-Design-Ansatz vorgestellt, mit
|
---|
| | 186 | dem Technologien wertebasiert analysiert und entwickelt werden können. Obwohl der
|
---|
| | 187 | Ansatz in Feldern wie der Informationstechnologie, dem Bauingenieurswesen und der
|
---|
| | 188 | Gesundheitstechnologie bereits etabliert ist, hat die Anwendung von Value Sensitive
|
---|
| | 189 | Design in den Digital Humanities experimentellen Charakter.[10] Daher wird in Kapitel 5
|
---|
| | 190 | anhand konkreter Beispiele vorgestellt, wie Value Sensitive Design in den
|
---|
| | 191 | verschiedenen Teilbereichen der Digital Humanities angewendet werden kann.
|
---|
133 | aus einer ethischen Perspektive reflektiert und so gestaltet werden können, dass
| 193 | 2. Wie kommt der Bias in die
|
---|
134 | sie die Werte aller beteiligten Akteur*innen berücksichtigen.
| 194 | Technologie?
|
---|
| | 195 |
|
---|
| | 196 | [4]Nach Friedman und Nissenbaum kann Bias in
|
---|
| | 197 | technischen Systemen auf drei unterschiedliche Weisen entstehen.[11] Sie
|
---|
| | 198 | unterscheiden Pre-Existing Bias,
|
---|
| | 199 | Technical Bias und Emergent Bias. Mit Pre-Existing Bias
|
---|
| | 200 | sind Verzerrungen gemeint, die bereits vor der Entwicklung der Technologie
|
---|
| | 201 | existieren: Die Designer*innen oder Auftraggeber*innen schreiben – bewusst oder
|
---|
| | 202 | unbewusst – bereits existierende persönliche oder gesellschaftliche Vorurteile in
|
---|
| | 203 | das System ein. Ein Beispiel: Die automatische Zugangskontrolle zu den
|
---|
| | 204 | Umkleideräumen eines Fitnessstudios in London ordnete Personen mit einem Doktortitel
|
---|
| | 205 | automatisch als männlich ein und verwehrte ihnen den Zugang zu den Damenumkleiden –
|
---|
| | 206 | weil die Designer*innen des Systems davon ausgegangen waren, dass nur Männer einen
|
---|
| | 207 | Doktortitel haben können.[12] Auch die oben bereits
|
---|
| | 208 | erwähnte Software, die Amazon zur
|
---|
| | 209 | Vorauswahl von Bewerber*innen einsetzte, hat einen Pre-Existing Bias: Da das
|
---|
| | 210 | Unternehmen bislang vor allem Männer eingestellt hatte, ging das selbstlernende
|
---|
| | 211 | System davon aus, dass Frauen weniger geeignet für eine Einstellung bei Amazon
|
---|
| | 212 | seien.[13]
|
---|
| | 213 | [5]Technical Bias entsteht hingegen bei
|
---|
| | 214 | der »resolution of issues in the technical design«,[14]
|
---|
| | 215 | beispielsweise durch Limitationen der Hard- und Software oder wenn Algorithmen
|
---|
| | 216 | bestimmte Akteur*innen bevorzugen und andere benachteiligen. So führt die
|
---|
| | 217 | beschränkte Größe von Bildschirmen beispielsweise dazu, dass die Ergebnisliste von
|
---|
| | 218 | Suchmaschinen in verschiedene ›Seiten‹ aufgeteilt wird, die nur nacheinander auf dem
|
---|
| | 219 | entsprechenden Bildschirm angezeigt werden können. Suchergebnisse, die auf der
|
---|
| | 220 | zweiten Seite angezeigt werden, werden jedoch weniger oft angeklickt. Bevorzugt der
|
---|
| | 221 | Algorithmus der Suchmaschine zusätzlich bestimmte Websites und zeigt diese ganz oben
|
---|
| | 222 | in der Ergebnisliste an, werden diese also deutlich öfter angeklickt – es liegt eine
|
---|
| | 223 | unfaire, systematische Diskriminierung vor. Technical Bias kann aber auch
|
---|
| | 224 | entstehen, wenn »Human Constructs«[15] wie Urteile, Diskurse
|
---|
| | 225 | oder Institutionen formalisiert und quantifiziert werden. Dies passiert
|
---|
| | 226 | beispielsweise in Software, die voraussagt, wie hoch die Wahrscheinlichkeit ist,
|
---|
| | 227 | dass ein*e Straftäter*in wiederholt delinquent wird.[16]
|
---|
| | 228 | [6]Emergent Bias entsteht hingegen erst
|
---|
| | 229 | im Anwendungskontext der Technologie, also wenn Personen die Technologie nutzen.
|
---|
| | 230 | Gründe für Emergent Bias können sein, dass »new knowledge in society«[17] nicht in die Technologie aufgenommen wird oder die Nutzer*innen der
|
---|
| | 231 | Technologie andere Fähigkeiten und Werte haben als die Nutzer*innengruppe, für
|
---|
| | 232 | welche die Technologie ursprünglich designt wurde. Wenn beispielsweise ein
|
---|
| | 233 | Geldautomat, der v. a. schriftbasiert mit Nutzer*innen kommuniziert (z. B. ›Geben
|
---|
| | 234 | Sie unten links Ihre Karte ein‹) in einer Gegend aufgestellt wird, in der viele
|
---|
| | 235 | Analphabet*innen wohnen, entsteht ein Emergent Bias: Die tatsächlichen Nutzer*innen
|
---|
| | 236 | unterscheiden sich in ihren Fähigkeiten von den angenommenen Nutzer*innen der
|
---|
| | 237 | Technologie. Vor allem Benutzeroberflächen weisen oft Emergent Bias auf, da sie mit
|
---|
| | 238 | Blick auf die Fähigkeiten und Gewohnheiten bestimmter Zielgruppen gestaltet werden.
|
---|
| | 239 | Diese können sich jedoch im Lauf der Zeit verändern.[18]
|
---|
141 | und Technikethik anknüpfen können, werden daraufhin diese beiden Bereichsethiken kurz
| 245 | [7]Technologien können also auf unterschiedliche
|
---|
142 | umrissen.
| 246 | Weise Bias hervorbringen. Was bedeutet das für die Digital Humanities?
|
---|
143 | Anschließend wird der Value-Sensitive-Design-Ansatz
| 247 | [8]Nach Friedman und Hendry umfassen Technologische Systeme sowohl Werkzeuge und Technologien, als auch Infrastrukturen und Policies. Unter Werkzeugen verstehen sie dabei
|
---|
144 | vorgestellt, mit dem Technologien wertebasiert analysiert und entwickelt
| 248 | »physical artifacts that augment human activity«[19] wie z. B. eine
|
---|
145 | werden können. Obwohl der Ansatz in Feldern wie der Informationstechnologie,
| 249 | Steinaxt oder ein Messer. Wenn darüber hinaus wissenschaftliche Erkenntnisse
|
---|
146 | dem Bauingenieurswesen und der Gesundheitstechnologie bereits etabliert ist,
| 250 | angewandt werden, um praktische Probleme zu lösen (beispielsweise bei Traktoren und
|
---|
147 | hat die Anwendung von Value Sensitive Design in den Digital Humanities
| 251 | Computern), sprechen Friedman und Hendry von Technologien – wobei die
|
---|
148 | experimentellen Charakter.[10] Daher
| 252 | Übergänge zwischen Werkzeugen und Technologien fließend sind. Infrastrukturen
|
---|
149 | wird in
| 253 | beschreiben schließlich alle Einrichtungen und Strukturen, die nötig sind, um ein
|
---|
150 | Kapitel 5 anhand konkreter Beispiele vorgestellt,
| 254 | Vorhaben oder gesellschaftliche Aktivitäten zu realisieren, beispielsweise Straßen
|
---|
151 | wie Value Sensitive Design in den verschiedenen Teilbereichen der Digital
| 255 | und Energieversorgung. Werkzeuge, Technologien und Infrastrukturen stehen dabei in
|
---|
152 | Humanities angewendet werden kann.
| 256 | wechselseitiger Abhängigkeit und ergeben in ihrem Zusammenspiel sog.
|
---|
153 |
| 257 | Technologische Systeme. Im Folgenden wird der Begriff Technologien
|
---|
154 |
| 258 | als Kurzform für Technologische Systeme genutzt und beschreibt dabei Werkzeuge,
|
---|
155 | 2. Wie kommt der Bias in die Technologie?
| 259 | Technologien und Infrastrukturen genauso wie deren Zusammenspiel. Schließlich fassen
|
---|
156 |
| 260 | Friedman und Hendry auch Policies, also Regelwerke oder Strategien, unter den
|
---|
157 | [5]Nach Friedman und Nissenbaum kann Bias in technischen Systemen auf drei
| 261 | Technologie-Begriff, da Policies als »some combination of tool and infrastructure«[20] verstanden werden und menschliches Handeln ebenfalls prägen.[21]
|
---|
158 | unterschiedliche Weisen entstehen.[11] Sie unterscheiden Pre-Existing Bias, Technical Bias und Emergent
| 262 | [9]Welche Technologien werden in den DH also
|
---|
159 | Bias. Mit Pre-Existing Bias sind
| 263 | genutzt und angewendet? Eine systematische Orientierung bieten dabei die Spielarten
|
---|
160 | Verzerrungen gemeint, die bereits vor der Entwicklung der Technologie
| 264 | der DH, die Roth und Burghardt unterscheiden: Digitized Humanities, Numerical Humanities, Humanities of the Digital und Public Humanities.[22]
|
---|
161 | existieren: Die Designer*innen oder Auftraggeber*innen schreiben – bewusst
| 265 | [10]Mit dem Begriff Digitized Humanities
|
---|
162 | oder unbewusst – bereits existierende persönliche oder gesellschaftliche
| 266 | beschreibt Roth »the creation, curation, and use of digitized data sets«[23] in
|
---|
163 | Vorurteile in das System ein. Ein Beispiel: Die automatische
| 267 | den Geistes- und Sozialwissenschaften. Akteur*innen in den Digitized Humanities
|
---|
164 | Zugangskontrolle zu den Umkleideräumen eines Fitnessstudios in London
| 268 | »digitize, store, process, gather, connect, manage, make available, mine and
|
---|
165 | ordnete Personen mit einem Doktortitel automatisch als männlich ein und
| 269 | visualize«[24] Texte, Bilder und Multimedia-Artefakte. Dafür entwickeln und nutzen
|
---|
166 | verwehrte ihnen den Zugang zu den Damenumkleiden – weil die Designer*innen
| 270 | sie Software. In dieser Spielart der DH sind also beispielsweise Datenmanagement-
|
---|
167 | des Systems davon ausgegangen waren, dass nur Männer einen Doktortitel haben
| 271 | und Datenspeichersysteme, aber auch Visualisierungs-, Analyse-, Scraping- und
|
---|
168 | können.[12] Auch
| 272 | OCR-Tools sowie Benutzeroberflächen von Bedeutung. Darüber hinaus spielen Digitale
|
---|
169 | die oben bereits erwähnte Software, die Amazon zur
| 273 | Bibliotheken und Archive als Infrastrukturen eine Rolle, genauso wie Policies für
|
---|
170 | Vorauswahl von Bewerber*innen einsetzte, hat einen Pre-Existing Bias: Da das Unternehmen
| 274 | die Erhebung, Kuratierung, Archivierung und Verfügbarmachung von Datensätzen.
|
---|
171 | bislang vor allem Männer
| 275 | [11]In der Kategorie der Numerical
|
---|
172 | eingestellt hatte, ging das selbstlernende System davon aus, dass Frauen
| 276 | Humanities geht es hingegen darum, soziale Prozesse zu formalisieren, indem
|
---|
173 | weniger geeignet für eine Einstellung bei Amazon seien.[13]
| 277 | mathematisch abstrahierte Modelle erstellt werden. Ziel ist dabei, »to capture the
|
---|
174 | [6]
| 278 | possibly general mechanisms at the root of the observed data«.[25] Prozesse
|
---|
175 | Technical Bias entsteht hingegen bei der
| 279 | softwaregestützt zu realisieren, die andernfalls langwierig oder schwierig umsetzbar
|
---|
176 | »resolution of issues in the technical design«[14], beispielsweise durch
| 280 | sind – wie beispielsweise bei OCR oder statistischen Analysen – versteht Roth dabei
|
---|
177 | Limitationen der Hard- und Software oder wenn Algorithmen bestimmte
| 281 | nicht als Numerical Humanities; vielmehr zeichnet sich diese Spielart dadurch aus,
|
---|
178 | Akteur*innen bevorzugen und andere benachteiligen. So führt die beschränkte
| 282 | dass »numerical models of human or social behavior per se«[26] entwickelt werden. Hier
|
---|
179 | Größe von Bildschirmen beispielsweise dazu, dass die Ergebnisliste von
| 283 | kommen vor allem selbstlernende Systeme zum Einsatz, beispielsweise
|
---|
180 | Suchmaschinen in verschiedene ›Seiten‹ aufgeteilt wird, die nur nacheinander
| 284 | Mustererkennungssoftware, die nach Gesetzmäßigkeiten in bestimmten Datensätzen
|
---|
181 | auf dem entsprechenden Bildschirm angezeigt werden können. Suchergebnisse,
| 285 | sucht.
|
---|
182 | die auf der zweiten Seite angezeigt werden, werden jedoch weniger oft
| 286 | [12]Schließlich beschreibt Roth die
|
---|
183 | angeklickt. Bevorzugt der Algorithmus der Suchmaschine zusätzlich bestimmte
| 287 | Humanities of the Digital als weitere Spielart der DH und meint damit die
|
---|
184 | Websites und zeigt diese ganz oben in der Ergebnisliste an, werden diese
| 288 | geisteswissenschaftliche Forschung zu computervermittelter Kommunikation,
|
---|
185 | also deutlich öfter angeklickt – es liegt eine unfaire, systematische
| 289 | Mensch-Maschine-Interaktion und Online-Gemeinschaften. Online-Communities werden als
|
---|
186 | Diskriminierung vor. Technical Bias kann aber auch
| 290 | sozio-technische Systeme verstanden, die sich durch eigene Regeln und Settings
|
---|
187 | entstehen, wenn »Human Constructs«[15] wie Urteile, Diskurse oder
| 291 | auszeichnen und die es zu untersuchen gilt. So gehören neben Studien zur Rolle von
|
---|
188 | Institutionen formalisiert und quantifiziert werden. Dies passiert
| 292 | digitaler Kommunikation im Alltag auch Untersuchungen zu Wikipedia, Blogs, sozialen Netzwerkseiten
|
---|
189 | beispielsweise in Software, die voraussagt, wie hoch die Wahrscheinlichkeit
| 293 | und Gaming-Plattformen zu den Humanities of the Digital.[27] In
|
---|
190 | ist, dass ein*e Straftäter*in wiederholt delinquent wird.[16]
| 294 | dieser Spielart geht es – anders als in den Digitized Humanities und den Numerical
|
---|
191 | [7]
| | |
---|
192 | Emergent Bias entsteht hingegen erst im
| | |
---|
193 | Anwendungskontext der Technologie, also wenn Personen die Technologie
| | |
---|
194 | nutzen. Gründe für Emergent Bias können sein, dass »new knowledge in
| | |
---|
195 | society«[17] nicht in die Technologie
| | |
---|
196 | aufgenommen wird oder die Nutzer*innen der Technologie andere Fähigkeiten
| | |
---|
197 | und Werte haben als die Nutzer*innengruppe, für welche die Technologie
| | |
---|
198 | ursprünglich designt wurde. Wenn beispielsweise ein Geldautomat, der v. a.
| | |
---|
199 | schriftbasiert mit Nutzer*innen kommuniziert (z. B. ›Geben Sie unten links
| | |
---|
200 | Ihre Karte ein‹) in einer Gegend aufgestellt wird, in der viele
| | |
---|
201 | Analphabet*innen wohnen, entsteht ein Emergent Bias: Die tatsächlichen
| | |
---|
202 | Nutzer*innen unterscheiden sich in ihren Fähigkeiten von den angenommenen
| | |
---|
203 | Nutzer*innen der Technologie. Vor allem Benutzeroberflächen weisen oft
| | |
---|
204 | Emergent Bias auf, da sie mit Blick auf die Fähigkeiten und Gewohnheiten
| | |
---|
205 | bestimmter Zielgruppen gestaltet werden. Diese können sich jedoch im Lauf
| | |
---|
206 | der Zeit verändern.[18]
| | |
---|
207 |
| | |
---|
208 | 3. Technologien in den Digital Humanities
| | |
---|
209 |
| | |
---|
210 | [8]Technologien können also auf unterschiedliche Weise Bias hervorbringen. Was
| | |
---|
211 | bedeutet das für die Digital Humanities?
| | |
---|
212 |
| | |
---|
213 | [9]Nach Friedman und Hendry umfassen Technologische Systeme
| | |
---|
214 | sowohl Werkzeuge und Technologien, als auch Infrastrukturen
| | |
---|
215 | und Policies. Unter Werkzeugen
| | |
---|
216 | verstehen sie dabei »physical artifacts that augment human
| | |
---|
217 | activity«[19] wie z. B. eine Steinaxt oder ein Messer.
| | |
---|
218 | Wenn darüber hinaus wissenschaftliche Erkenntnisse angewandt werden, um
| | |
---|
219 | praktische Probleme zu lösen (beispielsweise bei Traktoren und Computern),
| | |
---|
220 | sprechen Friedman und Hendry von Technologien – wobei
| | |
---|
221 | die Übergänge zwischen Werkzeugen und Technologien fließend sind. Infrastrukturen
| | |
---|
222 | beschreiben schließlich alle
| | |
---|
223 | Einrichtungen und Strukturen, die nötig sind, um ein Vorhaben oder
| | |
---|
224 | gesellschaftliche Aktivitäten zu realisieren, beispielsweise Straßen und
| | |
---|
225 | Energieversorgung. Werkzeuge, Technologien und Infrastrukturen stehen dabei
| | |
---|
226 | in wechselseitiger Abhängigkeit und ergeben in ihrem Zusammenspiel sogenannte Technologische
| | |
---|
227 | Systeme. Im Folgenden wird der Begriff
| | |
---|
228 | Technologien als Kurzform für Technologische
| | |
---|
229 | Systeme genutzt und beschreibt dabei Werkzeuge, Technologien und
| | |
---|
230 | Infrastrukturen genauso wie deren Zusammenspiel. Schließlich fassen Friedman
| | |
---|
231 | und Hendry auch Policies, also Regelwerke oder
| | |
---|
232 | Strategien, unter den Technologie-Begriff, da Policies als »some
| | |
---|
233 | combination of tool and infrastructure«[20] verstanden werden und menschliches Handeln
| | |
---|
234 | ebenfalls prägen.[21]
| | |
---|
235 | [10]Welche Technologien werden in den DH also genutzt und angewendet? Eine
| | |
---|
236 | systematische Orientierung bieten dabei die Spielarten der DH, die Roth und
| | |
---|
237 | Burghardt unterscheiden: Digitized Humanities,
| | |
---|
238 | Numerical Humanities,
| | |
---|
239 | Humanities of the Digital und Public
| | |
---|
240 | Humanities.[22]
| | |
---|
241 | [11]Mit dem Begriff Digitized Humanities beschreibt Roth
| | |
---|
242 | »the creation, curation, and use of digitized data
| | |
---|
243 | sets«[23] in den Geistes- und Sozialwissenschaften. Akteur*innen in
| | |
---|
244 | den Digitized Humanities »digitize, store, process, gather, connect,
| | |
---|
245 | manage, make available, mine and visualize«[24] Texte, Bilder und Multimedia-Artefakte. Dafür entwickeln
| | |
---|
246 | und nutzen sie Software. In dieser Spielart der DH sind also beispielsweise
| | |
---|
247 | Datenmanagement- und Datenspeichersysteme, aber auch Visualisierungs-,
| | |
---|
248 | Analyse-, Scraping- und Optical Character Recognition (OCR)-Tools sowie Benutzeroberflächen
| | |
---|
249 | von Bedeutung.
| | |
---|
250 | Darüber hinaus spielen digitale Bibliotheken und Archive als Infrastrukturen
| | |
---|
251 | eine Rolle, genauso wie Policies für die Erhebung, Kuratierung, Archivierung
| | |
---|
252 | und Verfügbarmachung von Datensätzen.
| | |
---|
253 |
| | |
---|
254 | [12]In der Kategorie der Numerical Humanities geht es
| | |
---|
255 | hingegen darum, soziale Prozesse zu formalisieren, indem mathematisch
| | |
---|
256 | abstrahierte Modelle erstellt werden. Ziel ist dabei, »to capture the
| | |
---|
257 | possibly general mechanisms at the root of the observed
| | |
---|
258 | data«[25]. Prozesse softwaregestützt zu realisieren, die andernfalls
| | |
---|
259 | langwierig oder schwierig umsetzbar sind – wie beispielsweise bei OCR oder
| | |
---|
260 | statistischen Analysen – versteht Roth dabei nicht als Numerical Humanities;
| | |
---|
261 | vielmehr zeichnet sich diese Spielart dadurch aus, dass »numerical
| | |
---|
262 | models of human or social behavior per se«[26] entwickelt werden. Hier kommen vor allem selbstlernende
| | |
---|
263 | Systeme zum Einsatz, beispielsweise Mustererkennungssoftware, die nach
| | |
---|
264 | Gesetzmäßigkeiten in bestimmten Datensätzen sucht.
| | |
---|
265 |
| | |
---|
266 | [13]Schließlich beschreibt Roth die Humanities of the Digital als weitere
| | |
---|
267 | Spielart der DH und meint damit die geisteswissenschaftliche Forschung zu
| | |
---|
268 | computervermittelter Kommunikation, Mensch-Maschine-Interaktion und
| | |
---|
269 | Online-Gemeinschaften. Online-Communities werden als sozio-technische
| | |
---|
270 | Systeme verstanden, die sich durch eigene Regeln und Settings auszeichnen
| | |
---|
271 | und die es zu untersuchen gilt. So gehören neben Studien zur Rolle von
| | |
---|
272 | digitaler Kommunikation im Alltag auch Untersuchungen zu Wikipedia, Blogs,
| | |
---|
273 | Sozialen-Netzwerk-Seiten und Gaming-Plattformen zu den Humanities of the
| | |
---|
274 | Digital. [27] In dieser
| | |
---|
275 | Spielart geht es – anders als in den Digitized Humanities und den Numerical
| | |
---|
292 | [15]Bisher wurde also deutlich, dass in Digital-Humanities-Projekten
| 310 | [14]Bisher wurde also deutlich, dass in
|
---|
293 | verschiedenste Technologien eine Rolle spielen und dass jede Technologie
| 311 | Digital-Humanities-Projekten verschiedenste Technologien eine Rolle spielen und dass
|
---|
294 | verschiedene Formen von Bias enthalten kann. Damit kann auch jede
| 312 | jede Technologie verschiedene Formen von Bias enthalten kann. Damit kann auch jede
|
---|
295 | Technologie, die in DH-Projekten entwickelt oder angewendet wird, biased sein und bedarf einer ethischen Überprüfung. Wie aber können wir
| 313 | Technologie, die in DH-Projekten entwickelt oder angewendet wird, biased
|
---|
296 | den ethischen Herausforderungen begegnen, die sich aus den verschiedenen
| 314 | sein. Wie aber können wir verhindern, dass Technologien in DH-Projekten Bias
|
---|
297 | Technologien in den Digital Humanities ergeben?[29]
| 315 | beinhalten, hervorrufen oder verstärken?
|
---|
298 | [16]Allgemein versucht Ethik die Frage zu beantworten, »wie menschliches Handeln möglich wird, das als gut,
| 316 | [15]Ein Ansatz dazu ist Value Sensitive Design.
|
---|
299 | richtig und wünschenswert empfunden werden kann«[30].
| 317 | Er wurde von Batya Friedman bereits in den 1990er-Jahren entwickelt[29] und zeichnet sich –
|
---|
300 | Dabei gibt es Handlungsbereiche, die spezifische
| 318 | im Gegensatz zu anderen Ansätzen wie z. B. ›Social Shaping of Technology‹ – dadurch
|
---|
301 | ethische Probleme hervorbringen, welche nur in ihrem jeweiligen konkreten Kontext
| 319 | aus, dass er Technologien nicht nur analysiert und kritisiert. Vielmehr legt das
|
---|
302 | gelöst werden können.
| 320 | Value Sensitive Design den Fokus darauf, wie Technologien »in moral and ethic
|
---|
303 | Um diese Probleme zu adressieren, haben sich verschiedene Bereichsethiken entwickelt,
| 321 | ways«[30] konzipiert und umgesetzt
|
---|
304 | beispielsweise die
| 322 | werden können. Auf Basis von Value Sensitive Design kann also einerseits
|
---|
305 | Informations-, die Technik-, die Medien- und die Computerethik. Diese Bereichsethiken
| 323 | systematisch analysiert werden, welche Werte in eine bestimmte Technologie
|
---|
306 | sind nicht scharf
| 324 | eingeschrieben sind. Andererseits bietet der Ansatz darüber hinaus aber auch ein
|
---|
307 | voneinander abgrenzbar und haben viele Berührungspunkte.[31]
| 325 | »overarching theoretical and methodological framework«,[31] um Technologien
|
---|
308 | [17]Um ethische Probleme in den Digital Humanities zu diskutieren, kann vor allem an Ansätze
| 326 | wertesensitiv zu entwickeln, also die Werte aller betroffenen Akteur*innen im
|
---|
309 | der Informations-
| 327 | gesamten Design-Prozess zu reflektieren und zu berücksichtigen. Dazu sieht Value
|
---|
310 | und Technikethik angeknüpft werden. Die Informationsethik befasst sich mit ethischen
| | |
---|
311 | Fragestellungen,
| | |
---|
312 | die im Zusammenhang mit Informations- und Kommunikationstechnologien[32] und »aus den Anwendungen des Internets,
| | |
---|
313 | des Informationsmanagements und der Computernutzung insgesamt hervorgehen«[33] – und damit also mit den
| | |
---|
314 | Technologien, die in den DH genutzt und entwickelt werden (vgl. Kapitel 3). Im Fokus steht dabei, wie
| | |
---|
315 | sich Informations- und Kommunikationstechnologien auf Umwelt und Gesellschaft auswirken.[34]
| | |
---|
316 | Als zentrale Grundwerte der Informationsethik identifiziert Rösch Informationsfreiheit,
| | |
---|
317 | Informationsgerechtigkeit,
| | |
---|
318 | Privatheit, Geistiges Eigentum, Informationsqualität und Informationsökologie.[35]
| | |
---|
319 | [18]Darüber hinaus sind in den Digital Humanities auch ethische Aspekte von Bedeutung,
| | |
---|
320 |
| | |
---|
321 | die im Zusammenhang mit der sozialen Praxis, der Genese und der Einbettung von
| | |
---|
322 | Technologien entstehen. Diese sind Gegenstand der Technikethik:
| | |
---|
323 | Deren Aufgabe ist es, ethische Aspekte, die durch technische Innovationen
| | |
---|
324 | und den »wissenschaftlich-technischen Fortschritt[…]«[36] entstehen, zu
| | |
---|
325 | reflektieren und Entscheidungen über Technik auf Basis ethischer Argumente
| | |
---|
326 | zu ermöglichen. Technikethik beschäftigt sich auch mit der »sozialen Praxis
| | |
---|
327 | der Technik und ihrer Einbettung, der Praxis der Genese technischer Produkte
| | |
---|
328 | und Technologien«[37]. Anders als bei der Informationsethik gehen die zentralen
| | |
---|
329 | Werte der Technikethik dabei deutlich über den Bezugsrahmen der Technik selbst
| | |
---|
330 | hinaus und umfassen neben Effektivität, Effizienz und Sicherheit auch Gesundheit,
| | |
---|
331 |
| | |
---|
332 | menschliches Wohlbefinden, (ökologische) Nachhaltigkeit, Gerechtigkeit, Demokratie,
| | |
---|
333 |
| | |
---|
334 | Inklusivität[38] und
| | |
---|
335 | Geschlechtergerechtigkeit.[39]
| | |
---|
336 | [19]In der Informations-, der Technik- und der Computerethik haben sich verschiedene Methoden
| | |
---|
337 | und
| | |
---|
338 | Frameworks entwickelt, um die ethische Gestaltung von Projekten und Technologien zu
| | |
---|
339 | unterstützen,
| | |
---|
340 | beispielsweise Embedded Ethics oder Partizipatives Design.[40] Kern
| | |
---|
341 | des Embedded-Ethics-Ansatzes ist es, eine oder mehrere Ethiker*innen an allen Entscheidungen
| | |
---|
342 | im
| | |
---|
343 | gesamten Verlauf eines Projektes zu beteiligen.[41] Das Konzept des Partizipativen Designs legt hingegen den Fokus darauf, potentielle
| | |
---|
344 |
| | |
---|
345 | Nutzer*innen in den Design-Prozess einzubinden.[42]
| | |
---|
346 | [20]Einen Schwerpunkt auf Informations- und Kommunikationstechnologien legt der Ansatz
| | |
---|
347 |
| | |
---|
348 | des Value Sensitive Design,[43] der von Batya Friedman bereits in den 1990er-Jahren
| | |
---|
349 | entwickelt wurde[44] und sowohl in der Technik-,
| | |
---|
350 | als auch in der Informationsethik eine bedeutende Rolle spielt.[45] Friedman et al.
| | |
---|
351 | kritisierten, dass die Forschung zur ethischen Gestaltung von Technologien bislang
| | |
---|
352 | lediglich
| | |
---|
353 | einzelne Werte wie Privatsphäre, Autonomie oder informierte Einwilligung in den
| | |
---|
354 | Blick genommen hatte.[46] Daher schlagen sie mit Value Sensitive Design ein »overarching
| | |
---|
355 | theoretical and methodological framework«[47] vor, mit dem einerseits systematisch
| | |
---|
356 | analysiert werden kann, welche Werte in eine bestimmte Technologie eingeschrieben
| | |
---|
357 |
| | |
---|
358 | sind. Zugleich ermöglicht das Framework,
| | |
---|
359 | Technologien wertesensitiv zu entwickeln, indem die Werte aller betroffenen
| | |
---|
360 | Akteur*innen im gesamten Design-Prozess reflektiert und berücksichtigt werden.[48]
| | |
---|
361 | [21]Mit Value Sensitive Design können Forscher*innen Technologien und ihre Anwendung also
| | |
---|
362 |
| | |
---|
363 | nicht nur ethisch reflektieren, sondern auch im Sinne normativer Ethik »verändernd,
| | |
---|
364 | regulierend«[49]
| | |
---|
365 | auf die Entwicklung von Technologien und deren Rahmenbedingungen einwirken.
| | |
---|
366 | Seit seiner Entstehung vor über 30 Jahren wurde der Value-Sensitive-Design-Ansatz
| | |
---|
367 |
| | |
---|
368 | stetig weiterentwickelt und in unterschiedlichen Bereichen angewendet, u. a. in
| | |
---|
369 | der Informationstechnologie, der Informatik, der Philosophie, der Gesundheitstechnologie
| | |
---|
370 |
| | |
---|
371 | und der Pädagogik.[50]
| | |
---|
372 |
| | |
---|
373 | 5. Value Sensitive Design: Grundlagen und methodisches Vorgehen
| | |
---|
374 |
| | |
---|
375 | [22]Um Technologien wertebasiert zu entwickeln sieht Value
| | |
---|
396 | [24]Zentral ist im Value Sensitive Design dabei der Stakeholder-Begriff: Dieser bezieht – anders als der Begriff
| 348 | [17]Besonders am
|
---|
397 | User – auch diejenigen Akteur*innen mit ein,
| 349 | Value-Sensitive-Design-Ansatz ist dabei der Stakeholder-Begriff: Dieser bezieht – anders als der
|
---|
398 | die zwar nicht direkt mit der Technologie interagieren, auf die sich die
| 350 | Begriff User – auch diejenigen
|
---|
399 | Technologie aber dennoch auswirkt: die sogenannten indirekten
| 351 | Akteur*innen mit ein, die zwar nicht direkt mit der Technologie interagieren,
|
---|
400 | Stakeholder. Akteur*innen, die direkt mit der jeweiligen
| 352 | auf die sich die Technologie aber dennoch auswirkt: die sog. indirekten Stakeholder. Akteur*innen,
|
---|
401 | Technologie interagieren, werden dagegen als direkte
| 353 | die direkt mit der jeweiligen Technologie interagieren, werden dagegen als direkte Stakeholder verstanden.
|
---|
402 | Stakeholder verstanden. Stakeholder können dabei sowohl
| 354 | Stakeholder können dabei sowohl Individuen, Gruppen, Organisationen und
|
---|
403 | Individuen, Gruppen, Organisationen und Gesellschaften als auch
| 355 | Gesellschaften als auch zukünftige Generationen sein. In den konzeptionellen
|
---|
404 | zukünftige Generationen sein. In den konzeptionellen Überlegungen wird
| 356 | Überlegungen wird also analysiert, welche Stakeholder direkt oder indirekt von
|
---|
405 | also analysiert, welche Stakeholder direkt oder indirekt von der
| 357 | der jeweiligen Technologie betroffen sind und auf welche Weise.[32]
|
---|
406 | jeweiligen Technologie betroffen sind und auf welche Weise.[51]
| 358 | [18]Auch die Werte und Wertkonflikte, die
|
---|
407 | [25]Auch die Werte und Wertkonflikte, die im Kontext der Technologie eine
| 359 | im Kontext der Technologie eine Rolle spielen, werden im Rahmen der
|
---|
408 | Rolle spielen, werden im Rahmen der konzeptionellen Untersuchungen
| 360 | konzeptionellen Untersuchungen expliziert und konkret beschrieben. Ein Wert ist
|
---|
409 | expliziert und konkret beschrieben. Ein Wert ist dabei, »what a
| 361 | dabei, »what a person or group of people consider important in life«.[33] Da der Value-Sensitive-Design-Ansatz den Werte-Begriff damit sehr
|
---|
410 | person or group of people consider important in life«[52]. Da der
| 362 | weit fasst, sieht er vor, auf Basis von Literatur und bisheriger Forschung zu
|
---|
411 | Value-Sensitive-Design-Ansatz den Werte-Begriff damit sehr weit fasst,
| 363 | spezifizieren, was genau unter einem bestimmten Wert im jeweiligen Kontext
|
---|
412 | sieht er vor, auf Basis von Literatur und bisheriger Forschung zu
| 364 | verstanden wird.[34] Als Ausgangspunkt
|
---|
413 | spezifizieren, was genau unter einem bestimmten Wert im jeweiligen
| 365 | bieten Friedman und Hendry hierfür eine Liste mit 13 Werten, die beim Design
|
---|
414 | Kontext verstanden wird.[53] Als Ausgangspunkt bieten Friedman
| 366 | technischer Systeme oft eine Rolle spielen und von ethischer Bedeutung sind:
|
---|
415 | und Hendry hierfür eine Liste mit 13 Werten, die beim Design technischer
| | |
---|
416 | Systeme oft eine Rolle spielen und von ethischer Bedeutung sind.
| | |
---|
417 | Die Autor*innen weisen aber ausdrücklich darauf hin, dass diese
| | |
---|
418 | Liste nicht vollständig ist.[54] Die Liste umfasst:
| | |
---|
494 | [32]In dem Projekt ›Room with a view‹ ging es darum, in fensterlosen Büroräumen Bildschirme
| 420 | 4.2 Anwendung von Value Sensitive
|
---|
495 | aufzustellen, auf denen
| 421 | Design am Beispiel ›Room with a view‹
|
---|
496 | eine Live-Übertragung des Platzes vor dem Bürogebäude zu sehen war. Friedman et al.
| 422 |
|
---|
497 | begleiteten das
| 423 | [23]So weit, so theoretisch: Wie aber sieht
|
---|
498 | Projekt mit Value Sensitive Design.[63]
| 424 | eine Value-Sensitive-Design-Analyse in der Praxis aus? Um dies zu zeigen, wird
|
---|
499 | [33]In den konzeptionellen Überlegungen stellten Friedman et al. die These
| 425 | im Folgenden vorgestellt, wie Friedman et al. das Projekt ›Room with a view‹ mit
|
---|
500 | auf, dass der Blick auf ein ›virtuelles Fenster‹ – also die
| 426 | Value Sensitive Design begleiteten. In dem Projekt ging es darum, in
|
---|
501 | Live-Übertragung einer Straßenszene auf Plasma-Bildschirme – die
| 427 | fensterlosen Büroräumen Bildschirme aufzustellen, auf denen eine
|
---|
502 | Gesundheit, das Wohlbefinden und die Kreativität der Beschäftigten
| 428 | Live-Übertragung des Platzes vor dem Bürogebäude zu sehen war.[39]
|
---|
503 | steigert. Basis dafür waren verschiedene psychologische Studien, die
| 429 | [24]In den konzeptionellen Überlegungen
|
---|
504 | zeigen, dass der Blick auf Natur-Szenen positive physiologische und
| 430 | stellten Friedman et al. die These auf, dass der Blick auf ein ›virtuelles
|
---|
505 | psychologische Auswirkungen hat und beispielsweise Stress und
| 431 | Fenster‹ – also die Live-Übertragung einer Straßenszene auf Plasma-Bildschirme –
|
---|
506 | Krankheiten reduziert.[64] Direkte Stakeholder
| 432 | die Gesundheit, das Wohlbefinden und die Kreativität der Beschäftigten steigert.
|
---|
507 | der Technologie sind also die Beschäftigten in den fensterlosen
| 433 | Basis dafür waren verschiedene psychologische Studien, die zeigen, dass der
|
---|
508 | Büroräumen, deren Werte Gesundheit und Kreativität gefördert werden
| 434 | Blick auf Natur-Szenen positive physiologische und psychologische Auswirkungen
|
---|
509 | sollen. Die ›virtuellen‹ Fenster haben aber auch Auswirkungen auf
| 435 | hat und beispielsweise Stress und Krankheiten reduziert.[40] Direkte Stakeholder der Technologie sind also die Beschäftigten in
|
---|
510 | Personen, die sich auf dem Platz vor dem Bürogebäude aufhalten: Sie
| 436 | den fensterlosen Büroräumen, deren Werte Gesundheit und Kreativität gefördert
|
---|
511 | werden gefilmt und auf den Bildschirmen in den Büros abgebildet. Sie
| 437 | werden sollen. Die ›virtuellen‹ Fenster haben aber auch Auswirkungen auf
|
---|
512 | sind damit indirekte Stakeholder der Technologie. Die Live-Übertragung
| 438 | Personen, die sich auf dem Platz vor dem Bürogebäude aufhalten: Sie werden
|
---|
513 | des Platzes auf Bildschirme in den Bürogebäuden könnte damit die
| 439 | gefilmt und auf den Bildschirmen in den Büros abgebildet. Sie sind damit
|
---|
514 | Gefährdung der Privatsphäre der indirekten Stakeholder mit sich
| 440 | indirekte Stakeholder der Technologie. Die Live-Übertragung des Platzes auf
|
---|
515 | bringen.[65]
| 441 | Bildschirme in den Bürogebäuden könnte damit die Gefährdung der Privatsphäre der
|
---|
516 | [34]Ausgehend von diesen konzeptionellen Überlegungen führten Friedman et al.
| 442 | indirekten Stakeholder mit sich bringen.[41]
|
---|
517 | verschiedene empirische Untersuchungen durch, um zu prüfen, inwiefern
| 443 | [25]Ausgehend von diesen konzeptionellen
|
---|
518 | die Technologie der ›virtuellen Fenster‹ die unterschiedlichen Werte der
| 444 | Überlegungen führten Friedman et al. verschiedene empirische Untersuchungen
|
---|
519 | direkten und indirekten Stakeholder tatsächlich fördert oder behindert.
| 445 | durch, um zu prüfen, inwiefern die Technologie der ›virtuellen Fenster‹ die
|
---|
520 | So untersuchten sie zunächst in einem experimentellen Setting, welche
| 446 | unterschiedlichen Werte der direkten und indirekten Stakeholder tatsächlich
|
---|
521 | Effekte ein Bildschirm, auf dem eine Straßenszene vor dem Bürogebäude
| 447 | fördert oder behindert. So untersuchten sie zunächst in einem experimentellen
|
---|
522 | live übertragen wird, auf die Büroangestellten hat. Hierzu erhoben die
| 448 | Setting, welche Effekte ein Bildschirm, auf dem eine Straßenszene vor dem
|
---|
523 | Forscher*innen verschiedene Parameter wie die Blickrichtung, den Puls
| 449 | Bürogebäude live übertragen wird, auf die Büroangestellten hat. Hierzu erhoben
|
---|
524 | und verschiedene Leistungsdaten der Büroangestellten und führten
| 450 | die Forscher*innen verschiedene Parameter wie die Blickrichtung, den Puls und
|
---|
525 | anschließend qualitative Interviews. Dabei kamen sie zu dem Ergebnis,
| 451 | verschiedene Leistungsdaten der Büroangestellten und führten anschließend
|
---|
526 | dass die Live-Übertragung auf dem Bildschirm eine ähnlich erholsame
| 452 | qualitative Interviews. Dabei kamen sie zu dem Ergebnis, dass die
|
---|
527 | Wirkung hat wie ein echtes Fenster. Einen größeren physiologischen
| 453 | Live-Übertragung auf dem Bildschirm eine ähnlich erholsame Wirkung hat wie ein
|
---|
528 | Erholungseffekt wiesen echte Fenster im Vergleich zu ›virtuellen
| 454 | echtes Fenster. Einen größeren physiologischen Erholungseffekt wiesen echte
|
---|
529 | Fenstern‹ nur dann auf, wenn die Teilnehmenden länger als 30 Sekunden
| 455 | Fenster im Vergleich zu ›virtuellen Fenstern‹ nur dann auf, wenn die
|
---|
530 | auf das jeweilige ›Fenster‹ blickten.[66]
| 456 | Teilnehmenden länger als 30 Sekunden auf das jeweilige ›Fenster‹ blickten.[42]
|
---|
531 | [35]Zusätzlich untersuchten Friedman et al. die Interessen der indirekten
| 457 | [26]Zusätzlich untersuchten Friedman et al.
|
---|
532 | Stakeholder – also der Passant*innen auf dem Platz vor dem Bürogebäude
| 458 | die Interessen der indirekten Stakeholder – also der Passant*innen auf dem Platz
|
---|
533 | –, indem sie diese zu ihrer Einstellung zu Privatsphäre im öffentlichen
| 459 | vor dem Bürogebäude –, indem sie diese zu ihrer Einstellung zu Privatsphäre im
|
---|
534 | Raum allgemein und zur Live-Übertragung ihres Bildes auf die
| 460 | öffentlichen Raum allgemein und zur Live-Übertragung ihres Bildes auf die
|
---|
535 | Büro-Bildschirme befragten. Dabei wurde deutlich, dass die Passant*innen
| 461 | Büro-Bildschirme befragten. Dabei wurde deutlich, dass die Passant*innen die
|
---|
536 | die Werte Privatsphäre, informierte Einwilligung und Sicherheit sehr
| 462 | Werte Privatsphäre, informierte Einwilligung und Sicherheit sehr hoch
|
---|
537 | hoch bewerteten. Mit dieser Vielfalt empirischer Methoden untersuchten
| 463 | bewerteten. Mit dieser Vielfalt empirischer Methoden untersuchten die
|
---|
538 | die Forscher*innen also, welche Werte für die verschiedenen betroffenen
| 464 | Forscher*innen also, welche Werte für die verschiedenen betroffenen Akteur*innen
|
---|
539 | Akteur*innen im Kontext der ›Virtuelles Fenster‹-Technologie wichtig
| 465 | im Kontext der ›Virtuelles Fenster‹-Technologie wichtig sind. Dabei wurde
|
---|
540 | sind. Dabei wurde deutlich, dass ein Wertkonflikt vorliegt: Während die
| 466 | deutlich, dass ein Wertkonflikt vorliegt: Während die Technologie die Werte der
|
---|
541 | Technologie die Werte der direkten Stakeholder steigert – also
| 467 | direkten Stakeholder steigert – also Gesundheit, Wohlbefinden und Kreativität –,
|
---|
542 | Gesundheit, Wohlbefinden und Kreativität –, gefährdet sie die Werte der
| 468 | gefährdet sie die Werte der indirekten Stakeholder – Privatsphäre, Sicherheit
|
---|
543 | indirekten Stakeholder – Privatsphäre, Sicherheit und informierte
| 469 | und informierte Einwilligung.[43]
|
---|
544 | Einwilligung.[67]
| 470 | [27]Wie kann mit einem solchen
|
---|
545 | [36]Wie kann mit einem solchen Wertekonflikt umgegangen werden? In den
| 471 | Wertekonflikt umgegangen werden? In den technischen Investigationen empfehlen
|
---|
546 | technischen Investigationen empfehlen die Forscher*innen, Gebäude
| 472 | die Forscher*innen, Gebäude grundsätzlich mit Fenstern zu bauen, da der Blick
|
---|
547 | grundsätzlich mit Fenstern zu bauen, da der Blick auf eine Natur-Szene
| 473 | auf eine Natur-Szene die Werte der Büroangestellten fördert und durch ›virtuelle
|
---|
548 | die Werte der Büroangestellten fördert und durch ›virtuelle Fenster‹ nur
| 474 | Fenster‹ nur teilweise ersetzt werden kann.[44] Um im Falle von
|
---|
549 | teilweise ersetzt werden kann.[68] Um im Falle von Gebäuden, die
| 475 | Gebäuden, die nun mal bereits ohne Fenster gebaut wurden, dennoch einen
|
---|
550 | nun mal bereits ohne Fenster gebaut wurden, dennoch einen positiven
| 476 | positiven Effekt für Büroangestellte durch ›virtuelle Fenster‹ zu erzielen, ohne
|
---|
551 | Effekt für Büroangestellte durch ›virtuelle Fenster‹ zu erzielen, ohne
| 477 | die Werte von Passant*innen auf dem Platz vor dem Bürogebäude als indirekte
|
---|
552 | die Werte von Passant*innen auf dem Platz vor dem Bürogebäude als
| 478 | Stakeholder zu gefährden, könnte darüber hinaus eine Natur-Szene auf den
|
---|
553 | indirekte Stakeholder zu gefährden, könnte darüber hinaus eine
| 479 | Bildschirm übertragen werden, in der keine Menschen zu sehen sind.
|
---|
554 | Natur-Szene auf den Bildschirm übertragen werden, in der keine Menschen
| 480 |
|
---|
555 | zu sehen sind.
| 481 |
|
---|
| | 482 |
|
---|
564 | [37]Das Beispiel macht deutlich, wie die drei Untersuchungsabschnitte des
| 491 | [28]Das Beispiel zeigt, wie die drei
|
---|
565 | Value-Sensitive-Design-Ansatzes angewendet werden können und, dass das
| 492 | Untersuchungs-Abschnitte des Value-Sensitive-Design-Ansatzes angewendet werden
|
---|
566 | Einbeziehen der indirekten Stakeholder und deren Interessen bedeutsame
| 493 | können und, dass das Einbeziehen der indirekten Stakeholder und deren Interessen
|
---|
567 | Implikationen für das Design einer Technologie haben kann.
| 494 | bedeutsame Implikationen für das Design einer Technologie haben kann.
|
---|
568 | Um noch stärker zu verdeutlichen, wie auf Basis von Value Sensitive
| | |
---|
569 | Design konkrete Design-Anforderungen für die Gestaltung einer
| | |
---|
570 | Technologie formuliert werden können, wird im Folgenden ein zweites
| | |
---|
571 | Beispiel skizziert.
| | |
---|
572 |
| | |
---|
573 |
| | |
---|
574 | 5.2.2 Die Groupware CodeCOOP für den Wissensaustausch in Unternehmen
| | |
---|
575 |
| | |
---|
576 |
| | |
---|
577 | [38]Die Entwicklung und Umsetzung des Groupware-Systems CodeCOOP begleiteten Miller
| | |
---|
578 | et al. aus einer Value-Sensitive-Design-Perspektive. Das Groupware-System
| | |
---|
579 | wurde mit dem Ziel entwickelt, den Austausch von Wissen unter den Mitarbeiter*innen
| | |
---|
580 |
| | |
---|
581 | des Software-Unternehmens LEO-R zu fördern. Mitarbeiter*innen sollten Informationen
| | |
---|
582 | und Code einfach und effizient über die Groupware miteinander teilen können.
| | |
---|
583 | Zu den Features des Groupware-Systems gehören u. a. Diskussionsforen, eine
| | |
---|
584 | Volltext-Suche und ein »code repository«[69]. Um zu gewährleisten, dass
| | |
---|
585 | Mitarbeiter*innen das System nach seiner Einführung tatsächlich nutzen, sollten
| | |
---|
586 | Wertkonflikte dabei von Anfang an erkannt und gelöst werden.[70]
| | |
---|
587 | [39]In einem ersten Schritt untersuchten Miller et al. im Rahmen der konzeptionellen
| | |
---|
588 | Investigationen, welche Stakeholder von dem Groupware-System betroffen sind.
| | |
---|
589 | Direkte Stakeholder sind die Mitarbeiter*innen des Software-Unternehmens LEO-R,
| | |
---|
590 | die direkt mit dem System interagieren.[71] Als indirekte Stakeholder identifizierten
| | |
---|
591 | Miller et al. Manager*innen und Führungskräfte des Unternehmens. Anschließend
| | |
---|
592 | untersuchten die Autor*innen der Studie, welche potentiellen Vorteile und Gefahren
| | |
---|
593 |
| | |
---|
594 | das Groupware-System für jede Stakeholder-Gruppe mit sich bringt und welche Werte
| | |
---|
595 |
| | |
---|
596 | dies betrifft. Auf Basis von Forschungsliteratur zu vergleichbaren Groupware-Systemen
| | |
---|
597 |
| | |
---|
598 | und in Zusammenarbeit mit einer Expert*innen-Gruppe aus Unternehmens-Mitarbeiter*innen
| | |
---|
599 |
| | |
---|
600 | stellten Miller et al. fest, dass vor allem Reputation, Zusammenarbeit, Privatsphäre,
| | |
---|
601 |
| | |
---|
602 | Anonymität, Vertrauen, und »awareness«[72] im Kontext des Systems eine Rolle spielen.[73]
| | |
---|
603 | [40]Im zweiten Abschnitt, den empirischen Investigationen, führten Miller et al.
| | |
---|
604 | eine anonyme Online-Befragung mit den Mitarbeiter*innen des Software-Unternehmens
| | |
---|
605 |
| | |
---|
606 | durch. Dabei wurden die Mitarbeiter*innen gefragt, wie sie die Vor- und Nachteile
| | |
---|
607 |
| | |
---|
608 | der Groupware und die damit verbundenen Werte einschätzen und gewichten. Darüber
| | |
---|
609 | hinaus planten Miller et al., Manager*innen und Führungskräfte des Software-Unternehmens
| | |
---|
610 |
| | |
---|
611 | zu ihren Interessen und Werten zu befragen; diese sagten ihre Teilnahme an
| | |
---|
612 | Interviews jedoch aus Zeitgründen ab.[74] Die Autor*innen der Studie bemängeln
| | |
---|
613 | daher das unzureichende Einbeziehen der indirekten Stakeholder in ihrer
| | |
---|
614 | Value-Sensitive-Design-Analyse.[75]
| | |
---|
615 | [41]In den technischen Investigationen, dem dritten Abschnitt der
| | |
---|
616 | Value-Sensitive-Design-Analyse, übersetzten Miller et al. die
| | |
---|
617 | Werte und Interessen der Stakeholder in Design-Anforderungen für
| | |
---|
618 | die Groupware. Dazu nutzten sie die Methode der Value Dams and
| | |
---|
619 | Flows. Die Methode sieht vor, technische Funktionen und Policies zu
| | |
---|
620 | vermeiden, wenn sie von einem Teil der Stakeholder als sehr
| | |
---|
621 | problematisch bewertet werden. Solche Funktionen und Policies
| | |
---|
622 | werden als Value Dams bezeichnet. Value Dams werden bereits dann
| | |
---|
623 | ausgesprochen, wenn ein geringer Anteil der Stakeholder eine bestimmte
| | |
---|
624 | Funktion oder Policy stark ablehnt. Als Value Flows werden hingegen
| | |
---|
625 | technische Funktionen und Policies bezeichnet, die ein großer Teil der
| | |
---|
626 | Stakeholder als wünschenswert beurteilt. Sie werden in die Gestaltung
| | |
---|
627 | des Systems aufgenommen. Zwischen den Value Dams und Flows können
| | |
---|
628 | Konflikte entstehen, die systematisch adressiert und gelöst werden müssen.[76]
| | |
---|
629 | [42]Für das Groupware-System CodeCOOP legten Miller et al. fest, dass Features,
| | |
---|
630 | die mehr als die Hälfte der Umfrage-Teilnehmer*innen als deutlichen Vorteil
| | |
---|
631 | bewerteten, als Value Flows eingeordnet werden. So war mehr als 50% der
| | |
---|
632 | System-Nutzer*innen wichtig, zu sehen, mit welcher Häufigkeit eigene
| | |
---|
633 | Inhalte von anderen Mitarbeiter*innen genutzt werden. Ähnlich wichtig
| | |
---|
634 | war den Nutzer*innen, dass angezeigt wird, wie andere Nutzer*innen einzelne
| | |
---|
635 | Posts bewerten bzw. ranken. Diese Features definierten Miller et al.
| | |
---|
636 | daher als Value Flows, die im Design der Groupware umgesetzt werden
| | |
---|
637 | sollen, um die »awareness«[77] der System-Nutzer*innen zu unterstützen.[78]
| | |
---|
638 | [43]Zugleich sahen mehr als 11% der Teilnehmer*innen der Online-Befragung
| | |
---|
639 | einen deutlichen Eingriff in ihre Privatsphäre, wenn geloggt wird,
| | |
---|
640 | welche Fragen sie in den Diskussionforen posten und welche Suchanfragen
| | |
---|
641 | sie stellen. Um die Privatsphäre der System-Nutzer*innen zu schützen,
| | |
---|
642 | legten Miller et al. das Loggen von Fragen und Suchanfragen als Value
| | |
---|
643 | Dams fest. Damit entsteht ein Konflikt zwischen der Förderung der
| | |
---|
644 | »awareness« der Mitarbeiter*innen und dem Schutz ihrer Privatsphäre.
| | |
---|
645 | Miller et al. formulierten daher die Designanforderung, dass zwar
| | |
---|
646 | angezeigt wird, wie oft einzelne Inhalte genutzt und wie sie gerankt
| | |
---|
647 | wurden; dass dabei aber nicht sichtbar ist, wer den Inhalt gesucht,
| | |
---|
648 | genutzt oder gerankt hat.[79]
| | |
---|
649 | [44]Schließlich formulierten Miller et al. auch für die Unternehmens-Policies
| | |
---|
650 | in Bezug auf das Groupware-System Value Dams und Flows, denn
| | |
---|
651 | »groupware systems do not exist independent of complex social systems«[80].
| | |
---|
652 | So gaben über 70% der Teilnehmer*innen der Online-Befragung an,
| | |
---|
653 | dass sie es als deutlichen Vorteil ansehen, wenn das Beantworten
| | |
---|
654 | von Fragen und Beitragen von Code ihre Reputation im Unternehmen
| | |
---|
655 | stärkt. Zugleich nahmen 13% der Befragten als Gefahr war, dass
| | |
---|
656 | sich ihre Reputation verschlechtern könnte, wenn sie inkorrekte
| | |
---|
657 | Antworten oder fehlerhaften Code in der Groupware posten. Diesen
| | |
---|
658 | Wertkonflikt lösten Miller et al., indem sie empfahlen, dass der
| | |
---|
659 | Beitrag zum Groupware-System ausschließlich dann in die jährliche
| | |
---|
660 | Evaluation der Mitarbeiter*innen einfließt, wenn die Bewertung
| | |
---|
661 | positiv ausfällt.[81]
| | |
---|
662 | [45]Das hier vorgestellte Groupware-System wurde zwar im Kontext
| | |
---|
663 | eines Unternehmens entwickelt; zugleich können Informationssysteme,
| | |
---|
664 | die den Austausch von Wissen, die Dokumentation von Code und die
| | |
---|
665 | Zusammenarbeit verschiedener Akteur*innen fördern, auch im Kontext
| | |
---|
666 | der Digital Humanities eine zentrale Rolle spielen.
| | |
---|
847 | [58]Schließlich kann auf Basis des Value-Sensitive-Design-Ansatzes auch
| 651 |
|
---|
848 | sichergestellt werden, dass digitale Archive und Infrastrukturen
| 652 | 5.2 Design-Normen für
|
---|
849 | möglichst barrierefrei sind. Ein bedeutender Aspekt ist dabei die
| 653 | KI-Anwendungen in den Numerical Humanities
|
---|
850 | Gestaltung der Benutzeroberfläche: Diese sollte nach den Prinzipien der
| 654 |
|
---|
851 | Web Accessibility so gestaltet sein, dass
| 655 | [38]Anders als die Digitized Humanities
|
---|
852 | auch Personen mit visuellen, auditiven und physischen Einschränkungen
| 656 | legt die Spielart der Numerical Humanities den Schwerpunkt darauf,
|
---|
853 | das Online-Angebot nutzen können (ausführlicher hierzu Kapitel 6.4). Aber auch
| 657 | formale Modelle zu erstellen und menschliches Verhalten mathematisch zu
|
---|
854 | finanzielle Aspekte spielen für die barrierearme Nutzung von und die
| 658 | abstrahieren. Hier kommen vor allem KI-Anwendungen wie Machine Learning
|
---|
855 | Beteiligung an digitalen Archiven und Infrastrukturen eine Rolle: So
| 659 | Software zum Einsatz. Machine Learning Software zeichnet sich dadurch aus,
|
---|
856 | macht Rojas Castro darauf aufmerksam, dass Institutionen mit geringen
| 660 | dass sie sich autonom und adaptiv weiterentwickelt, indem sie mit ihrem
|
---|
857 | finanziellen Ressourcen keine eigenen Digitalisate zu digitalen
| 661 | Umfeld interagiert. Machine-Learning-Systeme können daher aus verschiedenen
|
---|
858 | Infrastrukturen beitragen können, wenn sie ihre Dokumente dafür zwingend
| 662 | Gründen Bias enthalten: Wenn die Trainingsdaten biased sind, wird dieser
|
---|
859 | mit einem kostenpflichtigen Persistenten Identifikator wie DOI oder Handle versehen
| 663 | Bias unweigerlich in die Machine Learning Software übertragen. Beispiel
|
---|
860 | müssen. Dies führt wiederum zu weiteren Verzerrungen: Wenn
| 664 | hierfür ist die eingangs erwähnte Gesichtserkennungssoftware, die bei
|
---|
861 | beispielsweise ressourcenarme Institutionen im globalen Süden eigene
| 665 | Schwarzen Personen eine deutlich höhere Rate an falsch positiven Treffern
|
---|
862 | Digitalisate in zentralen DH-Infrastrukturen aus finanziellen Gründen
| 666 | aufweist als bei weißen Personen – weil die Trainingsdaten vorrangig
|
---|
863 | nicht beitragen können, entsteht ein regionaler Bias.[95]
| 667 | Bilder weißer Personen enthielten. Mithilfe des
|
---|
864 | [59]Auf Basis von Value Sensitive Design können Personen mit verschiedenen
| 668 | Value-Sensitive-Design-Ansatzes kann also sichergestellt werden, dass der
|
---|
865 | physischen Einschränkungen genauso wie Institutionen mit geringen
| 669 | Datensatz, auf dessen Basis eine Machine Learning Software lernt, keinen
|
---|
866 | finanziellen Ressourcen als Stakeholder von digitalen Archiven und
| 670 | Bias aufweist (vgl. auch Kapitel
|
---|
867 | Infrastrukturen in den Fokus genommen werden. Im Rahmen empirischer
| 671 | 5.1).
|
---|
868 | Untersuchungen kann erhoben werden, welche Interessen und Werte
| 672 | [39]Machine-Learning-Systeme können
|
---|
869 | diese Stakeholder-Gruppen haben – beispielsweise Barrierefreiheit,
| 673 | aber auch bei unverzerrten Trainingsdaten einen Algorithmus hervorbringen,
|
---|
870 | Freiheit von Bias, Teilhabe und (Informations-)Gerechtigkeit –
| 674 | der »might conceivably be described as following a rule that is somehow
|
---|
871 | und an welchen Stellen diese möglicherweise mit den Interessen
| 675 | biased«.[59] Diese Form von
|
---|
872 | weiterer Stakeholder-Gruppen in Konflikt geraten. Darauf aufbauend
| 676 | Bias ist »emergent und opaque«,[60] er ist also
|
---|
873 | können im Rahmen der technischen Investigationen Strategien
| 677 | nicht vorhersehbar und für Menschen schwer zu erkennen. Eine ethische
|
---|
874 | entwickelt werden, um die Benutzeroberflächen und Policies der
| 678 | Überprüfung von Machine-Learning-Technologien bringt daher besondere
|
---|
875 | DH-Projekte so zu gestalten, dass sie auch die Interessen von
| 679 | Herausforderungen mit sich. Umbrello und van de Poel schlagen vor, das
|
---|
876 | Personen mit verschiedenen physischen Einschränkungen genauso
| 680 | Value-Sensitive-Design-Framework für KI-Anwendungen weiterzuentwickeln und
|
---|
877 | wie von Institutionen mit geringen finanziellen Ressourcen berücksichtigen.
| 681 | um ein »set of AI-specific design principles«[61] zu
|
---|
| | 682 | ergänzen. Drei Aspekte sind dabei zentral:
|
---|
| | 683 | [40]1) Als Design-Vorgaben, die für
|
---|
| | 684 | alle KI-Anwendungen gelten, schlagen Umbrello und van de Poel die AI for
|
---|
| | 685 | Social Good-Prinzipien (AI4SG) vor. Diese spezifizieren die
|
---|
| | 686 | Prinzipien der EU High Level Expert Group
|
---|
| | 687 | on AI und übertragen sie in sieben konkrete Anforderungen für das
|
---|
| | 688 | Design von KI-Anwendungen:
|
---|
| | 689 |
|
---|
| | 690 | Die Anwendung wird kontinuierlich und zunächst in kleineren
|
---|
| | 691 | Szenarien empirisch getestet;
|
---|
| | 692 | die Designer*innen sichern die Anwendung gegen die Manipulation
|
---|
| | 693 | der Datenbasis und die übermäßige Abhängigkeit von einzelnen Variablen
|
---|
| | 694 | ab;
|
---|
| | 695 | die Nutzer*innen-Autonomie wird gestärkt, indem die User*innen
|
---|
| | 696 | verschieden Auswahlmöglichkeiten bekommen;
|
---|
| | 697 | die Anwendung ist transparent und wird angepasst an die jeweilige
|
---|
| | 698 | Nutzer*innen-Gruppe erklärt;
|
---|
| | 699 | die Privatsphäre von »data subjects«[62]
|
---|
| | 700 | wird geschützt;
|
---|
| | 701 | die Datenbasis, mit der die Anwendung lernt, muss frei von Bias
|
---|
| | 702 | sein, v. a. bezüglich Kategorien wie Race, Gender und Altersklassen und
|
---|
| | 703 | die Zuschreibung von Bedeutung darf nicht willkürlich erfolgen und
|
---|
| | 704 | nicht zu eng gefasst werden.[63]
|
---|
| | 705 |
|
---|
| | 706 | [41]2) Die AI4SG-Prinzipien zielen
|
---|
| | 707 | jedoch vorrangig darauf ab, KI-Anwendungen so zu gestalten, dass sie keinen
|
---|
| | 708 | Schaden hervorrufen. Der Value-Sensitive-Design-Ansatz sieht darüber hinaus
|
---|
| | 709 | aber auch vor, gesellschaftlich erwünschte Werte und Ziele aktiv zu fördern.
|
---|
| | 710 | Umbrello und van de Poel schlagen daher vor, zwischen »values promoted by
|
---|
| | 711 | design and values respected by design«[64] zu
|
---|
| | 712 | unterscheiden. Welche Werte gesellschaftlich erwünscht sind und von
|
---|
| | 713 | KI-Technologien gefördert werden sollen, kann beispielsweise anhand der
|
---|
| | 714 | Sustainable Development Goals (SDG) der UN abgeleitet werden, die
|
---|
| | 715 | von den Vereinten Nationen erarbeitet und ihren 193 Mitgliedsstaaten
|
---|
| | 716 | verabschiedet wurden.[65] Zu den Zielen, die in den SDG
|
---|
| | 717 | festgehalten sind, gehören u. a. Geschlechtergerechtigkeit, die Bekämpfung
|
---|
| | 718 | von Armut und der Zugang zu Bildung.[66]
|
---|
| | 719 | [42]3) Schließlich schlagen die Autoren
|
---|
| | 720 | vor, dass die Value-Sensitive-Design-Analyse den gesamten Lebenszyklus einer
|
---|
| | 721 | KI-Anwendung begleitet. Sollten im Lauf der Anwendungszeit einer Technologie
|
---|
| | 722 | Problematiken und Wertverletzungen auftauchen, kann sie so entsprechend
|
---|
| | 723 | angepasst werden. Die Erweiterung des Value-Sensitive-Design-Frameworks
|
---|
| | 724 | sieht daher vor, über den gesamten Lebenszyklus hinweg Prototypen der
|
---|
| | 725 | KI-Anwendung zu erstellen und diese im jeweiligen Anwendungsfeld zu testen.
|
---|
| | 726 | Dabei werden nicht nur die technischen Funktionen geprüft, sondern auch die
|
---|
| | 727 | Auswirkungen der KI-Anwendung auf Werte und Gesellschaft. Diese Tests
|
---|
| | 728 | sollten mit der Anwendung in kleinem Rahmen beginnen und dann sukzessive den
|
---|
| | 729 | Bezugsrahmen ausweiten.[67]
|
---|
| | 730 | [43]Auf Basis dieses erweiterten
|
---|
| | 731 | Frameworks kann Value Sensitive Design also auch in den Numerical Humanities
|
---|
| | 732 | genutzt werden, um selbstlernenden Systeme wertebasiert zu gestalten oder
|
---|
| | 733 | bereits existierende KI-Anwendungen informationsethisch zu überprüfen.
|
---|
902 | [61]Machine Learning Systeme können aber auch bei unverzerrten Trainingsdaten
| 782 | [47]Den drei von Roth beschriebenen
|
---|
903 | einen Algorithmus hervorbringen, der »might conceivably be
| 783 | Teilbereichen der Digital Humanities fügt Burghardt eine vierte Spielart
|
---|
904 | described as following a rule that is somehow biased«.[96] Diese Form von Bias ist
| 784 | hinzu: Die Public Humanities, also die Themenfelder des digitalen
|
---|
905 | »emergent und opaque«,[97] er ist also nicht
| 785 | Publizierens, der Wissenschaftskommunikation und des E-Learnings. Auch hier
|
---|
906 | vorhersehbar und für Menschen schwer zu erkennen. Eine ethische
| 786 | gilt es, die Interessen unterschiedlicher Stakeholder zu berücksichtigen, um
|
---|
907 | Überprüfung von Machine Learning Technologien bringt daher besondere
| 787 | Bias und Diskriminierung zu vermeiden. Auf Basis von Value Sensitive Design
|
---|
908 | Herausforderungen mit sich. Umbrello und van de Poel schlagen vor, das
| 788 | kann beispielsweise sichergestellt werden, dass digitale Publikationen und
|
---|
909 | Value-Sensitive-Design-Framework für KI-Anwendungen weiterzuentwickeln
| 789 | E-Learning-Angebote möglichst barrierefrei gestaltet werden.
|
---|
910 | und um ein »set of AI-specific design principles«[98] zu ergänzen. Drei Aspekte
| 790 | Barrierefreiheit bezieht sich dabei auf Barrieren physischer Art, aber auch
|
---|
911 | sind dabei zentral:
| 791 | finanzieller und sprachlicher Art.
|
---|
912 |
| 792 | [48]Genau wie in den Digitized
|
---|
913 | [62]1) Als Design-Vorgaben, die für alle KI-Anwendungen gelten, schlagen
| 793 | Humanities sollten Benutzeroberflächen und Formate von digitalen
|
---|
914 | Umbrello und van de Poel die AI for Social Good-Prinzipien (AI4SG) vor. Diese spezifizieren die Prinzipien der EU High Level Expert Group on AI und übertragen
| 794 | Publikationen und E-Learning-Angeboten nach den Prinzipien der Web
|
---|
915 | sie in sieben konkrete Anforderungen für das Design von KI-Anwendungen:
| 795 | Accessibility gestaltet sein, sodass sie von Personen mit auditiven,
|
---|
916 |
| 796 | visuellen, körperlichen, kognitiven und sprachlichen Einschränkungen genutzt
|
---|
917 |
| 797 | werden können. Orientierung bieten dafür die Standards und Empfehlungen der
|
---|
918 | Die Anwendung wird kontinuierlich und zunächst in kleineren
| 798 | W3C Web Accessibility
|
---|
919 | Szenarien empirisch getestet;
| 799 | Initiative,[73] die
|
---|
920 |
| | |
---|
921 | die Designer*innen sichern die Anwendung gegen die Manipulation
| | |
---|
922 | der Datenbasis und die übermäßige Abhängigkeit von einzelnen
| | |
---|
923 | Variablen ab;
| | |
---|
924 |
| | |
---|
925 | die Nutzer*innen-Autonomie wird gestärkt, indem die User*innen
| | |
---|
926 | verschieden Auswahlmöglichkeiten bekommen;
| | |
---|
927 |
| | |
---|
928 | die Anwendung ist transparent und wird angepasst an die jeweilige
| | |
---|
929 | Nutzer*innen-Gruppe erklärt;
| | |
---|
930 |
| | |
---|
931 | die Privatsphäre von »data subjects«[99] wird geschützt;
| | |
---|
932 |
| | |
---|
933 | die Datenbasis, mit der die Anwendung lernt, muss frei von Bias
| | |
---|
934 | sein, v. a. bezüglich Kategorien wie Race, Gender und Altersklassen
| | |
---|
935 | und
| | |
---|
936 |
| | |
---|
937 | die Zuschreibung von Bedeutung darf nicht willkürlich erfolgen und
| | |
---|
938 | nicht zu eng gefasst werden.[100]
| | |
---|
939 |
| | |
---|
940 | [63]2) Die AI4SG-Prinzipien zielen jedoch vorrangig darauf ab, KI-Anwendungen
| | |
---|
941 | so zu gestalten, dass sie keinen Schaden hervorrufen. Der
| | |
---|
942 | Value-Sensitive-Design-Ansatz sieht darüber hinaus aber auch vor,
| | |
---|
943 | gesellschaftlich erwünschte Werte und Ziele aktiv zu fördern sowie die Werte aller
| | |
---|
944 | beteiligten Stakeholder zu berücksichtigen. Umbrello
| | |
---|
945 | und van de Poel schlagen daher vor, zwischen »values promoted by
| | |
---|
946 | design and values respected by design«[101] zu unterscheiden. Welche
| | |
---|
947 | Werte gesellschaftlich erwünscht sind und von KI-Technologien gefördert
| | |
---|
948 | werden sollen, kann beispielsweise anhand der Sustainable Development Goals
| | |
---|
949 | (SDG) der UN abgeleitet werden, die von den Vereinten Nationen
| | |
---|
950 | erarbeitet und ihren 193 Mitgliedsstaaten verabschiedet wurden.[102] Zu den Zielen,
| | |
---|
951 | die in den SDG festgehalten sind, gehören u. a.
| | |
---|
952 | Geschlechtergerechtigkeit, die Bekämpfung von Armut und der Zugang zu
| | |
---|
953 | Bildung.[103]
| | |
---|
954 | [64]3) Schließlich schlagen die Autoren vor, dass die
| | |
---|
955 | Value-Sensitive-Design-Analyse den gesamten Lebenszyklus einer
| | |
---|
956 | KI-Anwendung begleitet. Sollten im Lauf der Anwendungszeit einer
| | |
---|
957 | Technologie Problematiken und Wertverletzungen auftauchen, kann sie so
| | |
---|
958 | entsprechend angepasst werden. Die Erweiterung des
| | |
---|
959 | Value-Sensitive-Design-Frameworks sieht daher vor, über den gesamten
| | |
---|
960 | Lebenszyklus hinweg Prototypen der KI-Anwendung zu erstellen und diese
| | |
---|
961 | im jeweiligen Anwendungsfeld zu testen. Dabei werden nicht nur die
| | |
---|
962 | technischen Funktionen geprüft, sondern auch die Auswirkungen der
| | |
---|
963 | KI-Anwendung auf Werte und Gesellschaft. Diese Tests sollten mit der
| | |
---|
964 | Anwendung in kleinem Rahmen beginnen und dann sukzessive den
| | |
---|
965 | Bezugsrahmen ausweiten.[104]
| | |
---|
966 | [65]Umbrello und van de Poel illustrieren den Ablauf einer Value-Sensitive-Design-Analyse
| | |
---|
967 |
| | |
---|
968 | von KI-Anwendungen am Beispiel der Corona-Datenspende-App, die im
| | |
---|
969 | April 2020 vom Robert-Koch-Institut (RKI) vorgestellt wurde. Über die App
| | |
---|
970 | können Bürger*innen mit Fitnessarmbändern und Smartwatches dem RKI ihre
| | |
---|
971 | Gesundheitsdaten zur Verfügung stellen, um die Ausbreitung des COVID-19-Virus
| | |
---|
972 | nachvollziehbar zu machen. In drei Schritten analysieren Umbrello und
| | |
---|
973 | van de Poel die Werte, die bei der Entwicklung und dem Einsatz der Corona
| | |
---|
974 | Datenspende-App eine Rolle spielen:
| | |
---|
975 |
| | |
---|
976 |
| | |
---|
977 | Als gesellschaftlich erwünschten Wert, den die Anwendung
| | |
---|
978 | fördert (»Values promoted by design«[105]) identifizieren sie öffentliche
| | |
---|
979 | Gesundheit. Dieser Wert lässt sich dem dritten SDG, Gesundheit und
| | |
---|
980 | Wohlbefinden, zuordnen.
| | |
---|
981 |
| | |
---|
982 | Darüber hinaus analysieren die Autoren, welche »values respected
| | |
---|
983 | by design«, also Design-Vorgaben, die für alle KI-Anwendungen gelten,
| | |
---|
984 | im Kontext der Corona-Datenspende-App besondere Bedeutung einnehmen. So spielt
| | |
---|
985 | zum Beispiel die Verhinderung von Schaden (»Nonmaleficence«[106]) eine hervorgehobene Rolle, vor allem
| | |
---|
986 | in Bezug auf Datensicherheit und Privatsphäre. Aber auch Erklärbarkeit
| | |
---|
987 | und Autonomie sind Werte, die beim Design der App beachtet werden müssen,
| | |
---|
988 | d. h. es muss eine »balance between human decision-making power and
| | |
---|
989 | its abdication to AI systems«[107] gewährleistet werden, die Funktionsweise
| | |
---|
990 | der App und des KI-Systems müssen verständlich sein und mindestens eine Person
| | |
---|
991 | muss für die Funktionsweise verantwortlich zeichnen.
| | |
---|
992 |
| | |
---|
993 | Schließlich analysieren Umbrello und van de Poel, welche
| | |
---|
994 | Interessen und Werte die Stakeholder der Corona-Datenspende-App
| | |
---|
995 | haben. Dabei nehmen sie die Nutzer*innen der App als direkte Stakeholder
| | |
---|
996 | in den Fokus. So ist beispielsweise Freiwilligkeit entscheidend, also
| | |
---|
997 | dass das Nutzen der App nicht verpflichtend ist. Damit einher geht der
| | |
---|
998 | Wert Fairness, der gewährleistet, dass niemand stigmatisiert oder
| | |
---|
999 | diskriminiert wird, der*die die App nicht nutzt. Zudem könnte das
| | |
---|
1000 | Tracing der Nutzer*innen über die App eine Gefahr für die Versammlungfreiheit
| | |
---|
1001 | darstellen, was die Autonomie der Nutzer*innen und die »Nonmaleficence«
| | |
---|
1002 | der KI-Anwendung gefährdet. Auch der Wert Gesundheit ist aus
| | |
---|
1003 | Nutzer*innen-Perspektive von besonderer Bedeutung: Wenn die App zu
| | |
---|
1004 | einem falschen Sicherheitsgefühl führt, könnten Nutzer*innen Gesundheitsrisiken
| | |
---|
1005 | eingehen.[108]
| | |
---|
1006 |
| | |
---|
1007 |
| | |
---|
1008 | [66]Anschließend zeigen Umbrello und van de Poel beispielhaft, wie die verschiedenen
| | |
---|
1009 | identifizierten Werte in Design-Anforderungen übersetzt werden können. Um den
| | |
---|
1010 | Wert Verhinderung von Schaden (»Nonmaleficence«[109]) zu unterstützen, müssen bei
| | |
---|
1011 | der Gestaltung der App vor allem der Schutz der Privatsphäre und informierte
| | |
---|
1012 | Einwilligung beachtet werden. Daraus ergibt sich erstens die Anforderung, dass
| | |
---|
1013 | die Nutzungsbedingungen der App verständlich formuliert werden müssen, und
| | |
---|
1014 | zweitens, dass die erhobenen Daten pseudonymisiert, lokal gespeichert und
| | |
---|
1015 | nach einem bestimmten Zeitraum wieder gelöscht werden müssen. Um den Wert
| | |
---|
1016 | der Erklärbarkeit zu unterstützen, muss für Nutzer*innen zudem transparent
| | |
---|
1017 | gemacht werden, welche Daten und Datensets gesammelt und erstellt werden, wie
| | |
---|
1018 | diese verwendet, gespeichert und gelöscht werden.[110] Abschließend empfehlen die
| | |
---|
1019 | Autoren die Erstellung eines Prototyps der Corona-Datenspende-App. Dieser
| | |
---|
1020 | soll zunächst mit einer limitierten Anzahl an Nutzer*innen getestet werden.
| | |
---|
1021 | Dabei sollen nicht nur die technischen Funktionen, sondern auch mögliche Auswirkungen
| | |
---|
1022 |
| | |
---|
1023 | auf das Verhalten der Nutzer*innen, die Gesellschaft und die Werte der betroffenen
| | |
---|
1024 |
| | |
---|
1025 | Stakeholder überprüft und das Design der App gegebenenfalls nachgebessert werden.[111]
| | |
---|
1026 | [67]Das erweiterte Framework von Value Sensitive Design für KI-Anwendungen kann
| | |
---|
1027 | auch in den Numerical Humanities genutzt werden, um selbstlernende
| | |
---|
1028 | Systeme wertebasiert zu gestalten oder bereits existierende
| | |
---|
1029 | KI-Anwendungen ethisch zu überprüfen. Zentral sind dabei neben
| | |
---|
1030 | den Werten der betroffenen Stakeholder auch die »values promoted
| | |
---|
1031 | by design and values respected by design«[112], also einerseits die
| | |
---|
1032 | in den Sustainable Development Goals formulierten Werte und Ziele
| | |
---|
1033 | und andererseits die Werte, die den AI for Social Good-Prinzipien
| | |
---|
1034 | (AI4SG) zugrunde liegen, also Freiheit von Bias, Autonomie,
| | |
---|
1035 | Privatsphäre und Transparenz.
| | |
---|
1036 |
| | |
---|
1037 |
| | |
---|
1038 | 6.3 Akteur*innen und ihre Interessen in den Humanities of the Digital analysieren
| | |
---|
1039 |
| | |
---|
1040 | [68]Als dritte Spielart der Digital Humanities beschreibt Roth die Humanities of the Digital:
| | |
---|
1041 | Die
| | |
---|
1042 | geisteswissenschaftliche Forschung zu »computermediated
| | |
---|
1043 | interactions and societies«,[113] also zu soziotechnischen Systemen wie
| | |
---|
1044 | Online-Communities, Blogs, Sozialen-Netzwerk-Seiten und
| | |
---|
1045 | Gaming-Plattformen. Hier geht es also weniger darum, Technologien zu
| | |
---|
1046 | entwickeln und anzuwenden, sondern diese als Untersuchungsgegenstände in
| | |
---|
1047 | den Blick zu nehmen. Geschlechtergerechtigkeit sowie globale Gerechtigkeit
| | |
---|
1048 | im Sinne von Teilhabe und Freiheit von Diskriminierung seien hier nur
| | |
---|
1049 | beispielhaft als Werte genannt, die dabei fokussiert werden können.
| | |
---|
1050 |
| | |
---|
1051 | [69]Value Sensitive Design kann dabei als theoretischer Ausgangspunkt dienen,
| | |
---|
1052 | um Online-Communities, Soziale-Netzwerk-Seiten und Gaming-Plattformen
| | |
---|
1053 | aus einer ethischen Perspektive zu untersuchen und sich
| | |
---|
1054 | unterschiedlichen Fragestellungen zu nähern: Welche direkten und
| | |
---|
1055 | indirekten Stakeholder hat eine Soziale-Netzwerk-Seite wie Instagram, eine Online-Community wie Wikipedia oder eine Gaming-Plattform wie Steam? Welche Werte und wessen Interessen werden
| | |
---|
1056 | von den Nutzungsbedingungen, Policies und dem technischen Design
| | |
---|
1057 | gefördert bzw. behindert? Wie könnte die jeweilige Plattform oder
| | |
---|
1058 | Community gestaltet sein, um die Werte und Interessen aller Stakeholder
| | |
---|
1059 | zu beachten?
| | |
---|
1060 |
| | |
---|
1061 | [70]Dass Online-Communities, Soziale-Netzwerk-Seiten und Gaming-Plattformen
| | |
---|
1062 | die Interessen und Werte verschiedener Stakeholder in unterschiedlichem
| | |
---|
1063 | Maß fördern oder behindern, wird anhand von Beispielen deutlich. So
| | |
---|
1064 | weist die Community-betriebene Online-Datenbank Wikidata einen Gender
| | |
---|
1065 | Bias auf: Von den 8,2 Millionen Personen, die Wikidata verzeichnet, sind
| | |
---|
1066 | nur 23 Prozent Frauen.[114] Die mit
| | |
---|
1067 | Wikidata verknüpfte Enzyklopädie Wikipedia enthält zudem einen
| | |
---|
1068 | »Eurocentric bias«,[115] da historische Artikel in mehreren
| | |
---|
1069 | Sprachversionen der Wikipedia vor allem die Geschichte europäischer
| | |
---|
1070 | Länder thematisieren.[116] Die Nutzungsbedingungen der
| | |
---|
1071 | Sozialen-Netzwerk-Seite Facebook erlauben Bilder
| | |
---|
1072 | nackter Oberkörper, die als männlich gelesen werden, verbieten aber
| | |
---|
1073 | Bilder nackter Oberkörper, die als weiblich gelesen werden. West
| | |
---|
1074 | beschreibt dies als »gendered policies on images of female
| | |
---|
1075 | nudity«[117]. Eine umfassende ethische
| | |
---|
1076 | Analyse der jeweiligen Communities und Sozialen-Netzwerk-Seiten, in der
| | |
---|
1077 | alle direkten und indirekten Stakeholder und ihre Werte berücksichtigt
| | |
---|
1078 | werden, steht jedoch noch aus.
| | |
---|
1079 |
| | |
---|
1080 | [71]Wie könnte die Analyse einer Online-Community wie Wikipedia anhand von
| | |
---|
1081 | Value Sensitive Design beispielsweise aussehen? Im Rahmen der
| | |
---|
1082 | konzeptionellen Untersuchungen werden zunächst der Kontext der
| | |
---|
1083 | Online-Community beschrieben und die betroffenen Stakeholder ausgemacht.
| | |
---|
1084 | Die Online-Enzyklopädie Wikipedia zeichnet sich dadurch aus, dass sie
| | |
---|
1085 | alle Inhalte kostenfrei zur Verfügung stellt und es allen Nutzer*innen
| | |
---|
1086 | ermöglicht, die Inhalte des Lexikons zu bearbeiten.[118] Direkte Stakeholder sind dabei diejenigen,
| | |
---|
1087 | die selbst redaktionell an der Wikipedia mitarbeiten, genauso wie alle,
| | |
---|
1088 | die Inhalte der Online-Enzyklopädie rezipieren. Auch die Wikimedia Foundation, die als
| | |
---|
1089 | Non-Profit-Organisation die Wikipedia trägt und finanziert,[119] kann als
| | |
---|
1090 | direkter Stakeholder verstanden werden. Indirekte Stakeholder sind aber
| | |
---|
1091 | auch Individuen und Gruppen, die in den Artikeln und Inhalten der
| | |
---|
1092 | Wikipedia abgebildet werden, genau wie jene, die nicht repräsentiert
| | |
---|
1093 | werden. Welche Werte diese unterschiedlichen Stakeholder-Gruppen
| | |
---|
1094 | priorisieren und wo potentiell Wertkonflikte auftreten, muss im Rahmen
| | |
---|
1095 | von empirischen Investigationen untersucht werden, beispielsweise in
| | |
---|
1096 | Online-Befragungen oder qualitativen Interviews. Im dritten Schritt der
| | |
---|
1097 | Analyse, den technischen Investigationen, wird analysiert, welche
| | |
---|
1098 | technischen Features und organisatorischen Strukturen der
| | |
---|
1099 | Online-Community Wikipedia die Interessen und Werte der verschiedenen
| | |
---|
1100 | Stakeholder-Gruppen fördern oder behindern. Eine
| | |
---|
1101 | Value-Sensitive-Design-Analyse ermöglicht damit ein Verständnis von
| | |
---|
1102 | Problematiken wie dem Eurocentric oder Gender Bias in der
| | |
---|
1103 | Online-Community Wikipedia, das neben verschiedenen
| | |
---|
1104 | Stakeholder-Interessen auch technische und organisatorische Aspekte
| | |
---|
1105 | einbezieht.
| | |
---|
1106 |
| | |
---|
1107 |
| | |
---|
1108 | 6.4 Mehr Barrierefreiheit in den Public
| | |
---|
1109 | Humanities schaffen
| | |
---|
1110 |
| | |
---|
1111 |
| | |
---|
1112 | [72]Den drei von Roth beschriebenen Teilbereichen der Digital Humanities fügt
| | |
---|
1113 | Burghardt eine vierte Spielart hinzu: Die Public
| | |
---|
1114 | Humanities, also die Themenfelder des digitalen Publizierens,
| | |
---|
1115 | der Wissenschaftskommunikation und des E-Learnings. Auch hier gilt es,
| | |
---|
1116 | die Interessen unterschiedlicher Stakeholder zu berücksichtigen, um Bias
| | |
---|
1117 | und Diskriminierung zu vermeiden. Auf Basis von Value Sensitive Design
| | |
---|
1118 | kann beispielsweise sichergestellt werden, dass digitale Publikationen
| | |
---|
1119 | und E-Learning-Angebote möglichst barrierefrei gestaltet werden.
| | |
---|
1120 | Barrierefreiheit bezieht sich dabei auf Barrieren physischer Art, aber
| | |
---|
1121 | auch finanzieller und sprachlicher Art. Damit spielen in den Public
| | |
---|
1122 | Humanities neben Barrierefreiheit auch die in der Informationsethik
| | |
---|
1123 | zentralen Werte Informationsfreiheit und Informationsgerechtigkeit eine
| | |
---|
1124 | Rolle.[120]
| | |
---|
1125 | [73]Genau wie in den Digitized Humanities sollten Benutzeroberflächen und
| | |
---|
1126 | Formate von digitalen Publikationen und E-Learning-Angeboten nach den
| | |
---|
1127 | Prinzipien der Web Accessibility gestaltet sein, sodass sie von Personen
| | |
---|
1128 | mit auditiven, visuellen, körperlichen, kognitiven und sprachlichen
| | |
---|
1129 | Einschränkungen genutzt werden können. Orientierung bieten dafür die
| | |
---|
1130 | Standards und Empfehlungen der W3C Web Accessibility
| | |
---|
1131 | Initiative,[121] die
| | |
---|
1164 | Auffindbarkeit der Tutorials von The Programming Historian für Personen
| 831 | Auffindbarkeit der Tutorials von The Programming Historian für Personen ohne
|
---|
1165 | ohne oder mit geringen Englischkenntnissen bei.[126]
| 832 | oder mit geringen Englischkenntnissen bei.[78]
|
---|
1166 | [75]Schließlich können auch finanzielle Aspekte ausschlaggebend dafür sein,
| 833 | [50]Schließlich können auch finanzielle
|
---|
1167 | dass digitale Publikationen oder E-Learning-Ressourcen von bestimmten
| 834 | Aspekte ausschlaggebend dafür sein, dass digitale Publikationen oder
|
---|
1168 | Individuen oder Gruppen nicht genutzt werden können. Der Zugang zu
| 835 | E-Learning-Ressourcen von bestimmten Individuen oder Gruppen nicht genutzt
|
---|
1169 | wissenschaftlichen Zeitschriften, Monographien und Sammelbänden ist
| 836 | werden können. Der Zugang zu wissenschaftlichen Zeitschriften, Monographien
|
---|
1170 | sowohl für Einzelpersonen als auch für Institutionen in der Regel mit
| 837 | und Sammelbänden ist sowohl für Einzelpersonen als auch für Institutionen in
|
---|
1171 | Kosten verbunden – mit Ausnahme von Publikationen, die Open Access zur Verfügung gestellt werden. Aber auch hier
| 838 | der Regel mit Kosten verbunden – mit Ausnahme von Publikationen, die Open Access zur Verfügung gestellt
|
---|
1172 | können finanzielle Barrieren entstehen, und zwar für die Autor*innen,
| 839 | werden. Aber auch hier können finanzielle Barrieren entstehen, und zwar für
|
---|
1173 | die eigene Beiträge veröffentlichen wollen: Sogenannte Gold-Open-Access-Zeitschriften, die ihre Beiträge direkt bei
| 840 | die Autor*innen, die eigene Beiträge veröffentlichen wollen: Sog. Gold-Open-Access-Zeitschriften, die
|
---|
1174 | der Veröffentlichung für Leser*innen kostenfrei zur Verfügung stellen,
| 841 | ihre Beiträge direkt bei der Veröffentlichung für Leser*innen kostenfrei zur
|
---|
1175 | erheben teilweise Article Processing Charges
| 842 | Verfügung stellen, erheben teilweise Article
|
---|
1176 | (APCs) – also Gebühren, die Autor*innen für die Veröffentlichung ihres
| 843 | Processing Charges (APCs) – also Gebühren, die
|
---|
1177 | Beitrages entrichten müssen.[127] Für Wissenschaftler*innen, die
| 844 | Autor*innen für die Veröffentlichung ihres Beitrages entrichten müssen.[79] Für Wissenschaftler*innen, die an weniger ressourcenstarken
|
---|
1178 | an weniger ressourcenstarken Institutionen affiliiert sind, hat dies zur
| 845 | Institutionen affiliiert sind, hat dies zur Folge, dass sie ihre Beiträge
|
---|
1179 | Folge, dass sie ihre Beiträge nur in einem Teil der entsprechenden
| 846 | nur in einem Teil der entsprechenden Journals publizieren können, die in
|
---|
1180 | Journals publizieren können, die in ihrem jeweiligen Fachbereich eine
| 847 | ihrem jeweiligen Fachbereich eine Rolle spielen – nämlich denjenigen ohne
|
---|
1181 | Rolle spielen – nämlich denjenigen ohne APCs. Damit sind ihre
| 848 | APCs. Damit sind ihre Möglichkeiten, am wissenschaftlichen Diskurs
|
---|
1182 | Möglichkeiten, am wissenschaftlichen Diskurs teilzunehmen,
| 849 | teilzunehmen, eingeschränkt.
|
---|
1183 | eingeschränkt.
| 850 | [51]Der Value-Sensitive-Design-Ansatz
|
---|
1184 |
| 851 | kann damit auch in den Public Humanities dazu beitragen, die Policies und
|
---|
1185 | [76]Wie also können digitale Publikationen auf Basis von Value Sensitiv
| 852 | das technische Design von digitalen Publikationen und E-Learning-Ressourcen
|
---|
1186 | Design wertebasiert gestaltet werden? Zunächst wird im Rahmen der
| 853 | so zu gestalten, dass Barrieren finanzieller, sprachlicher und physischer
|
---|
1187 | konzeptionellen Überlegungen untersucht, welche Stakeholdergruppen
| 854 | Art abgebaut werden, indem die Interessen und Werte unterschiedlicher
|
---|
1188 | im Kontext digitaler Publikationen eine Rolle spielen. Zu den
| 855 | Stakeholder berücksichtigt werden. Zu diesen Stakeholdern gehören u. a.
|
---|
1189 | direkten Stakeholdern gehören neben den Autor*innen und Leser*innen
| 856 | Wissenschaftler*innen, die an ressourcenarmen Institutionen affiliiert sind,
|
---|
1190 | wissenschaftlicher Texte auch die Organisationen, die digitale
| 857 | Personen mit geringen Englischkenntnissen, Nutzer*innen, die über eine
|
---|
1191 | Publikationen bereitstellen, und ihre Mitarbeiter*innen. Diese
| 858 | langsame Internet-Verbindung verfügen und Menschen mit auditiven, visuellen
|
---|
1192 | Stakeholder-Gruppen müssen in weitere Untergruppen ausdifferenziert
| 859 | oder körperlichen Einschränkungen.
|
---|
1193 | werden, deren Interessen bei der Gestaltung von digitalen
| | |
---|
1194 | Publikationen und ihren Policies besonderer Berücksichtigung
| | |
---|
1195 | bedürfen. Zu Stakeholdergruppen mit spezifischen Interessen
| | |
---|
1196 | gehören beispielsweise Wissenschaftler*innen, die an ressourcenarmen
| | |
---|
1197 | Institutionen affiliiert sind, aber auch Personen mit geringen
| | |
---|
1198 | Englischkenntnissen und Nutzer*innen, die über eine langsame
| | |
---|
1199 | Internetverbindung verfügen sowie Menschen mit auditiven,
| | |
---|
1200 | visuellen oder körperlichen Einschränkungen.
| | |
---|
1201 |
| | |
---|
1202 | [77]In einem zweiten Schritt, den empirischen Untersuchungen, muss erhoben
| | |
---|
1203 | werden, welche Interessen und Werte die verschiedenen
| | |
---|
1204 | Stakeholder-Gruppen als wichtig bewerten, beispielsweise im Rahmen von
| | |
---|
1205 | Interviews oder Online-Befragungen. Vor allem in Bezug auf Open Access
| | |
---|
1206 | ist dabei wahrscheinlich, dass Werte wie Informationsfreiheit und
| | |
---|
1207 | Informationsgerechtigkeit, die Autor*innen und Leser*innen wichtig sind,
| | |
---|
1208 | in Konflikt mit den wirtschaftlichen Interessen der Organisationen
| | |
---|
1209 | stehen, die digitale Publikationen bereitstellen, vor allem wenn diese
| | |
---|
1210 | in privatwirtschaftlichen Strukturen organisiert sind.[128] Dieser
| | |
---|
1211 | Interessenskonflikt kann zugunsten der Autor*innen, Leser*innen und
| | |
---|
1212 | Wissenschaftler*innen, die an ressourcenarmen Institutionen affiliiert
| | |
---|
1213 | sind, gelöst werden, indem Fachcommunities eigene Publikationsorgane
| | |
---|
1214 | anbieten, die nicht privatwirtschaftlich, sondern community-basiert
| | |
---|
1215 | organisiert sind. Ein Beispiel ist die Zeitschrift für
| | |
---|
1216 | digitale Geisteswissenschaften (ZfdG), die vom Forschungsverbund Marbach Weimar Wolfenbüttel und
| | |
---|
1217 | dem DHd-Verband (Digital Humanities im
| | |
---|
1218 | deutschsprachigen Raum) herausgegeben wird: [129] Alle Artikel der
| | |
---|
1219 | Zeitschrift erscheinen Open Access, ohne dass Autor*innen für die
| | |
---|
1220 | Veröffentlichung ihrer Texte Gebühren entrichten müssen. [130]
| | |
---|
1221 | [78]Um darüber hinaus auch die Interessen von Stakeholder-Gruppen wie Personen
| | |
---|
1222 | mit geringen Englischkenntnissen, Nutzer*innen, die über eine langsame
| | |
---|
1223 | Internetverbindung verfügen und Menschen mit auditiven, visuellen
| | |
---|
1224 | oder körperlichen Einschränkungen in das Design von digitalen Publikationen
| | |
---|
1225 | einzubeziehen, sind weitere empirische und technische Investigationen
| | |
---|
1226 | nötig, die hier nicht ausgeführt werden können. Deutlich wurde aber,
| | |
---|
1227 | dass der Value-Sensitive-Design-Ansatz auch in den Public Humanities
| | |
---|
1228 | dazu beitragen kann die Policies und das technische Design von
| | |
---|
1229 | digitalen Publikationen und E-Learning-Ressourcen so zu gestalten, dass
| | |
---|
1230 | Barrieren finanzieller, sprachlicher und physischer Art abgebaut werden,
| | |
---|
1231 | indem die Interessen und Werte unterschiedlicher Stakeholder
| | |
---|
1232 | berücksichtigt werden.
| | |
---|
1233 |
| | |
---|
1234 |
| | |
---|
1235 | 6.5 Menschenrechte und Umweltschutz in allen DH-Spielarten
| | |
---|
1236 | fördern
| | |
---|
1237 |
| | |
---|
1238 |
| | |
---|
1239 | [79]In den bisherigen Abschnitten wurde gezeigt, wie Value Sensitive Design
| | |
---|
1240 | in den vier von Roth und Burghardt benannten Spielarten der DH
| | |
---|
1241 | angewendet werden kann, um Bias und Diskriminierung zu vermeiden.
| | |
---|
1242 | Abschließend soll hier auf eine Problematik eingegangen werden, die alle
| | |
---|
1243 | DH-Projekte unabhängig von ihrer Spielart aufwerfen. Noble ruft
| | |
---|
1244 | Akteur*innen in den DH dazu auf, sich die »materiality of the
| | |
---|
1245 | digital humanities and its impact in the world«[131] stärker bewusst zu machen. So führt
| | |
---|
1246 | der Abbau von Mineralien, die für die Herstellung digitaler Technologien
| | |
---|
1247 | benötigt werden, in Regionen des globalen Südens zu Konflikten und
| | |
---|
1248 | Ausbeutung, während Nutzer*innen im globalen Norden die Profiteur*innen
| | |
---|
1249 | dieser Technologien sind. Zudem entstehen sowohl bei der Produktion, als
| | |
---|
1250 | auch bei der meist unsachgemäßen Entsorgung von Hardware Umweltschäden.
| | |
---|
1251 | Noble fordert daher: Die DH-Community sollte nicht nur reflektieren, wie
| | |
---|
1252 | sie zu einer gerechteren Verteilung von IT-Infrastrukturen weltweit
| | |
---|
1253 | beitragen kann, sondern auch »design against – or outright resist
| | |
---|
1254 | – the exploitive forms of labor and hazardous environmental
| | |
---|
1255 | practices in which information and communication technologies are
| | |
---|
1256 | implicated«[132]. Auch
| | |
---|
1257 | das Manifest Digital Humanities and the Climate Crisis, das im Sommer
| | |
---|
1258 | 2021 von einem internationalen Zusammenschluss DH-Forschender
| | |
---|
1259 | veröffentlicht wurde, ruft Akteur*innen in den DH dazu auf, die
| | |
---|
1260 | ökologischen und sozialen Auswirkungen ihres Handelns zu prüfen.[133]
| | |
---|
1261 | [80]Auch hier kann Value Sensitive Design als Ausgangspunkt dienen, um Werte
| | |
---|
1262 | wie Umweltschutz und ökologische Nachhaltigkeit, globale Gerechtigkeit
| | |
---|
1263 | und Gesundheit beim Design von Projekten und Technologien in den DH
| | |
---|
1264 | mitzudenken. So können die Personen, die am Herstellungsprozess von
| | |
---|
1265 | Hardware und IT-Technologien beteiligt sind, genauso als indirekte
| | |
---|
1266 | Stakeholder eines jeden DH-Projektes begriffen werden wie diejenigen,
| | |
---|
1267 | die von den Umweltschäden durch unsachgemäße Hardware-Entsorgung
| | |
---|
1268 | betroffen sind. Wie können die Werte und Interessen dieser Stakeholder
| | |
---|
1269 | also im Design berücksichtigt werden? Dies gilt es, mit empirischen
| | |
---|
1270 | Untersuchungen und technischen Investigationen zu erforschen. Hier zwei
| | |
---|
1271 | Ideen: DH-Projekte könnten sich grundsätzlich zum Ziel setzen, Software
| | |
---|
1272 | und Infrastrukturen so zu entwickeln, dass sie möglichst wenig
| | |
---|
1273 | (Hardware-)Ressourcen in Anspruch nehmen, wie es zum Beispiel die 2014
| | |
---|
1274 | gegründete Arbeitsgruppe Minimal Computing der
| | |
---|
1275 | Global Outlook DH propagiert.[134] Bei
| | |
---|
1276 | der Beschaffung von Hardware sollte zudem darauf geachtet werden, dass
| | |
---|
1277 | diese sozial- und umweltverträglich hergestellt wurde. Orientierung
| | |
---|
1278 | bieten dabei Label wie TCO Certified für soziale
| | |
---|
1279 | Kriterien oder der Blaue Engel, das EU-Ecolabel und das Nordic
| | |
---|
1280 | Ecolabel für ökologische Aspekte.[135] Wie öffentliche
| | |
---|
1281 | Einrichtungen soziale und ökologische Kriterien in Vergabeverfahren
| | |
---|
1282 | verankern können, verdeutlichen u. a. die Fachkonferenzen für sozial verantwortliche IT-Beschaffung und
| | |
---|
1283 | die Nichtregierungsorganisation Electronics Watch
| | |
---|
1284 | auf ihren Websites.[136] Darüber hinaus könnten Menschenrechts- und
| | |
---|
1285 | Umweltschutz-Aspekte nicht nur bei der Beschaffung von Hardware, sondern
| | |
---|
1286 | auch bei der Organisation von Konferenzen und Dienstreisen im Rahmen von
| | |
---|
1287 | DH-Projekten handlungsleitend sein, beispielsweise indem bei Tagungen
| | |
---|
1288 | fair gehandelte und ökologisch erzeugte Verpflegung angeboten und auf
| | |
---|
1289 | Flugreisen so weit wie möglich verzichtet wird.
| | |
---|
1295 | [81]Dieser Beitrag zeigt auf, dass Technologien nicht neutral sind, sondern immer
| 866 | [52]In den bisherigen Abschnitten wurde
|
---|
1296 | bestimmte Werte fördern oder behindern. Zugleich werden in jedem
| 867 | gezeigt, wie Value Sensitive Design in den vier von Roth und Burghardt
|
---|
1297 | Digital-Humanities-Projekt Technologien angewendet oder entwickelt. Um zu
| 868 | benannten Spielarten der DH angewendet werden kann, um Bias und
|
---|
1298 | verhindern, dass diese Technologien Bias reproduzieren oder hervorbringen,
| 869 | Diskriminierung zu vermeiden. Abschließend soll hier auf eine Problematik
|
---|
1299 | schlägt dieser Beitrag die Anwendung von Value Sensitive Design vor: Dieses
| 870 | eingegangen werden, die alle DH-Projekte unabhängig von ihrer Spielart
|
---|
1300 | theoretische und methodische Framework bietet eine dreiteilige
| 871 | aufwerfen. Noble ruft Akteur*innen in den DH dazu auf, sich die »materiality
|
---|
1301 | Vorgehensweise, um die Werte aller betroffenen Stakeholder einer Technologie
| 872 | of the digital humanities and its impact in the world«[80] stärker
|
---|
1302 | im gesamten Design-Prozess zu berücksichtigen. Anhand der vier von Roth und
| 873 | bewusst zu machen. So führt der Abbau von Mineralien, die für die
|
---|
1303 | Burghardt geprägten Spielarten von DH wurden verschiedene Anknüpfungspunkte
| 874 | Herstellung digitaler Technologien benötigt werden, in Regionen des globalen
|
---|
1304 | und Anwendungsbeispiele aufgezeigt, wie Value Sensitive Design in
| 875 | Südens zu Konflikten und Ausbeutung, während Nutzer*innen im globalen Norden
|
---|
1305 | DH-Projekten gewinnbringend eingesetzt werden kann.
| 876 | die Profiteur*innen dieser Technologien sind. Zudem entstehen sowohl bei der
|
---|
| | 877 | Produktion, als auch bei der meist unsachgemäßen Entsorgung von Hardware
|
---|
| | 878 | Umweltschäden. Noble fordert daher: Die DH-Community sollte nicht nur
|
---|
| | 879 | reflektieren, wie sie zu einer gerechteren Verteilung von IT-Infrastrukturen
|
---|
| | 880 | weltweit beitragen kann, sondern auch »design against – or outright resist –
|
---|
| | 881 | the exploitive forms of labor and hazardous environmental practices in which
|
---|
| | 882 | information and communication technologies are implicated«.[81] Auch
|
---|
| | 883 | das Manifest Digital Humanities and the Climate Crisis, das im Sommer
|
---|
| | 884 | 2021 von einem internationalen Zusammenschluss DH-Forschender veröffentlicht
|
---|
| | 885 | wurde, ruft Akteur*innen in den DH dazu auf, die ökologischen und sozialen
|
---|
| | 886 | Auswirkungen ihres Handelns zu prüfen.[82]
|
---|
| | 887 | [53]Auch hier kann Value Sensitive
|
---|
| | 888 | Design als Ausgangspunkt dienen, um Menschenrechte und Umweltschutz beim
|
---|
| | 889 | Design von Projekten und Technologien in den DH mitzudenken. So können die
|
---|
| | 890 | Personen, die am Herstellungsprozess von Hardware und IT-Technologien
|
---|
| | 891 | beteiligt sind, genauso als indirekte Stakeholder eines jeden DH-Projektes
|
---|
| | 892 | begriffen werden wie diejenigen, die von den Umweltschäden durch
|
---|
| | 893 | unsachgemäße Hardware-Entsorgung betroffen sind. Wie können die Werte und
|
---|
| | 894 | Interessen dieser Stakeholder also im Design berücksichtigt werden? Dies
|
---|
| | 895 | gilt es, mit empirischen Untersuchungen und technischen Investigationen zu
|
---|
| | 896 | erforschen. Hier zwei Ideen: DH-Projekte könnten sich grundsätzlich zum Ziel
|
---|
| | 897 | setzen, Software und Infrastrukturen so zu entwickeln, dass sie möglichst
|
---|
| | 898 | wenig (Hardware-)Ressourcen in Anspruch nehmen, wie es zum Beispiel die 2014
|
---|
| | 899 | gegründete Arbeitsgruppe Minimal
|
---|
| | 900 | Computing der Global Outlook
|
---|
| | 901 | DH-Initiative propagiert.[83] Bei der Beschaffung von
|
---|
| | 902 | Hardware sollte zudem darauf geachtet werden, dass diese sozial- und
|
---|
| | 903 | umweltverträglich hergestellt wurde. Orientierung bieten dabei Label wie
|
---|
| | 904 | TCO Certified für soziale
|
---|
| | 905 | Kriterien oder der Blaue Engel,
|
---|
| | 906 | das EU-Ecolabel und das Nordic Ecolabel für ökologische
|
---|
| | 907 | Aspekte.[84] Wie
|
---|
| | 908 | öffentliche Einrichtungen soziale und ökologische Kriterien in
|
---|
| | 909 | Vergabeverfahren verankern können, verdeutlichen u. a. die Fachkonferenzen für sozial verantwortliche
|
---|
| | 910 | IT-Beschaffung und die Nichtregierungsorganisation Electronics Watch auf ihren
|
---|
| | 911 | Websites.[85] Darüber hinaus könnten Menschenrechts- und
|
---|
| | 912 | Umweltschutz-Aspekte nicht nur bei der Beschaffung von Hardware, sondern
|
---|
| | 913 | auch bei der Organisation von Konferenzen und Dienstreisen im Rahmen von
|
---|
| | 914 | DH-Projekten handlungsleitend sein, beispielsweise indem bei Tagungen fair
|
---|
| | 915 | gehandelte und ökologisch erzeugte Verpflegung angeboten und auf Flugreisen
|
---|
| | 916 | so weit wie möglich verzichtet wird.
|
---|
1361 | [85]Darüber hinaus ist es auch mithilfe von Value Sensitive Design nicht möglich,
| 923 | [54]Dieser Beitrag zeigt auf, dass
|
---|
1362 | Bias vollständig auszuschließen. Wie genau eine
| 924 | Technologien nicht neutral sind, sondern immer bestimmte Werte fördern oder
|
---|
1363 | Value-Sensitive-Design-Analyse durchgeführt wird, welche Stakeholder
| 925 | behindern. Zugleich werden in jedem Digital-Humanities-Projekt Technologien
|
---|
1364 | einbezogen, welche empirischen Erhebungen durchgeführt und wie darauf
| 926 | angewendet oder entwickelt. Um zu verhindern, dass diese Technologien Bias
|
---|
1365 | aufbauend das technische Design und Policies konkret umgesetzt werden,
| 927 | reproduzieren oder hervorbringen, schlägt dieser Beitrag die Anwendung von Value
|
---|
1366 | unterscheidet sich mit großer Wahrscheinlichkeit von Forscher*in zu
| 928 | Sensitive Design vor: Dieses theoretische und methodische Framework bietet eine
|
---|
1367 | Forscher*in: Eigene Werte, Erfahrungen und Interessen fließen immer bewusst
| 929 | dreiteilige Vorgehensweise, um die Werte aller betroffenen Stakeholder einer
|
---|
1368 | oder unbewusst in die Anwendung des Value-Sensitive-Design-Frameworks ein.
| 930 | Technologie im gesamten Design-Prozess zu berücksichtigen. Anhand der vier von
|
---|
1369 | Dies ist nicht nur unvermeidlich, sondern auch in Ordnung: Friedman und
| 931 | Roth und Burghardt geprägten Spielarten von DH wurden verschiedene
|
---|
1370 | Hendry resümieren, »we need not require perfection, but commitment to
| 932 | Anknüpfungspunkte und Anwendungsbeispiele aufgezeigt, wie Value Sensitive Design
|
---|
1371 | practice – and through practice, progress«.[139] Value Sensitive Design garantiert also
| 933 | in DH-Projekten gewinnbringend eingesetzt werden kann.
|
---|
1372 | keine ›ethisch perfekten‹ Technologien – aber das Framework bietet
| 934 | [55]Dabei unterliegen sowohl dieser
|
---|
1373 | Unterstützung dabei, Bias so gut wie möglich zu vermeiden und die
| 935 | Beitrag, als auch der Value-Sensitive-Design-Ansatz verschiedenen Limitationen.
|
---|
1374 | Auswirkungen von Technologien auf die Gesellschaft zu bedenken, offenzulegen
| 936 | So können Technologien, Datensätze und Forschungsprojekte auch Verzerrungen
|
---|
1375 | und zu diskutieren. Zudem ermöglicht Value Sensitive Design, Technologien
| 937 | aufweisen, die keine systematische und unfaire Diskriminierung hervorrufen.
|
---|
1376 | nicht nur nach klassischen Kriterien wie Effektivität oder Robustheit zu
| 938 | Solche Verzerrungen werden zwar nicht als Bias im Sinne von Nissenbaum und
|
---|
1377 | bewerten – sondern auch nach den Werten, die sie fördern. Das ist ein guter
| 939 | Friedman verstanden,[86] sind aber trotzdem
|
---|
1378 | Start, um Technologien und Projekte so zu gestalten, dass sie nicht nur die
| 940 | problematisch, da sie zu verzerrten Forschungsergebnissen führen. Um diese Art
|
---|
1379 | Digital Humanities, sondern auch die Welt ein wenig besser machen.
| 941 | von Bias zu verhindern, ist Value Sensitive Design weniger geeignet; mögliche
|
---|
| | 942 | Strategien zur Vermeidung solcher Verzerrungen sind vielmehr Methodenvielfalt,
|
---|
| | 943 | Triangulation und unterschiedliche experimentelle Settings.
|
---|
| | 944 | [56]Darüber hinaus ließen sich sicherlich
|
---|
| | 945 | noch weitere Aspekte und Beispiele finden, wie Value Sensitive Design in
|
---|
| | 946 | DH-Projekten genutzt werden kann. Gleichermaßen gibt es neben Value Sensitive
|
---|
| | 947 | Design weitere Methoden und Frameworks, die die ethische Gestaltung von
|
---|
| | 948 | Projekten und Technologien unterstützen, beispielsweise Embedded Ethics oder Partizipatives Design.[87] Kern des Embedded-Ethics-Ansatzes ist es, eine oder mehrere
|
---|
| | 949 | Ethiker*innen an allen Entscheidungen im gesamten Verlauf eines Projektes zu
|
---|
| | 950 | beteiligen.[88] Das Konzept des Partizipativen
|
---|
| | 951 | Designs legt hingegen den Fokus darauf, potentielle Nutzer*innen in den
|
---|
| | 952 | Design-Prozess einzubinden.[89] Damit hängt die ethische Bewertung und Gestaltung in beiden
|
---|
| | 953 | Ansätzen stärker von wenigen, ausgewählten Akteur*innen ab: im Falle von
|
---|
| | 954 | Embedded Ethics von den Werten und Perspektiven der Ethiker*innen im jeweiligen
|
---|
| | 955 | Projekt; bei Partizipativem Design von den Werten und Perspektiven ausgewählter
|
---|
| | 956 | Nutzer*innen. Aus meiner Sicht hat Value Sensitive Design demgegenüber den
|
---|
| | 957 | entscheidenden Vorteil, die Perspektiven, Werte und Ziele verschiedener direkt
|
---|
| | 958 | und indirekt beteiligter Akteur*innen einzubeziehen und diese systematisch zu
|
---|
| | 959 | analysieren. Dieser Beitrag erhebt aber keinerlei Anspruch auf Vollständigkeit
|
---|
| | 960 | möglicher ethischer Ansätze, sondern zeigt Ideen und Anregungen auf, wie
|
---|
| | 961 | DH-Projekte in der Praxis informationsethisch überprüft und wertebasiert
|
---|
| | 962 | gestaltet werden können. Eine Diskussion und Ergänzung der hier vorgestellten
|
---|
| | 963 | Aspekte sind daher wünschenswert.
|
---|
| | 964 | [57]Um ein DH-Projekt auf Basis von Value
|
---|
| | 965 | Sensitive Design zu gestalten, sind je nach Projekt und Kontext zusätzliche
|
---|
| | 966 | zeitliche, finanzielle und personelle Ressourcen notwendig. Diese müssen bei der
|
---|
| | 967 | Planung von Projekten und der Beantragung von Mitteln eingeplant werden. Darüber
|
---|
| | 968 | hinaus muss entweder innerhalb des Projektes oder an zentraler Stelle Expertise
|
---|
| | 969 | zur theoretischen und praktischen Umsetzung von Value Sensitive Design vorhanden
|
---|
| | 970 | sein. Zwei Ideen, um dies für jedes DH-Projekt zu gewährleisten: In den
|
---|
| | 971 | Curricula von DH-Studiengängen könnten Technik- und Informationsethik sowie
|
---|
| | 972 | konkrete methodische Ansätze wie Value Sensitive Design verpflichtend verankert
|
---|
| | 973 | werden, sodass möglichst viele zukünftige Akteur*innen in den DH die Grundlagen
|
---|
| | 974 | wertebasierten Projekt- und Technologie-Designs kennen. Auch die Idee der Data Stewards, also von Expert*innen,
|
---|
| | 975 | die Forschende beim Management von Forschungsdaten unterstützen,[90] kann als
|
---|
| | 976 | Anregung dienen: So sind parallel dazu Value
|
---|
| | 977 | Stewards oder Ethic
|
---|
| | 978 | Stewards denkbar, die DH-Forschende bei der
|
---|
| | 979 | informationsethischen Überprüfung und wertebasierten Gestaltung ihrer Projekte
|
---|
| | 980 | und Technologien beraten.
|
---|
| | 981 | [58]Darüber hinaus ist es auch mithilfe von
|
---|
| | 982 | Value Sensitive Design nicht möglich, Bias vollständig auszuschließen. Wie genau
|
---|
| | 983 | eine Value-Sensitive-Design-Analyse durchgeführt wird, welche Stakeholder
|
---|
| | 984 | einbezogen, welche empirischen Erhebungen durchgeführt und wie darauf aufbauend
|
---|
| | 985 | das technische Design und Policies konkret umgesetzt werden, unterscheidet sich
|
---|
| | 986 | mit großer Wahrscheinlichkeit von Forscher*in zu Forscher*in: Eigene Werte,
|
---|
| | 987 | Erfahrungen und Interessen fließen immer bewusst oder unbewusst in die Anwendung
|
---|
| | 988 | des Value-Sensitive-Design-Frameworks ein. Dies ist nicht nur unvermeidlich,
|
---|
| | 989 | sondern auch in Ordnung: Friedman und Hendry resümieren, »we need not require
|
---|
| | 990 | perfection, but commitment to practice – and through practice, progress«.[91] Value Sensitive Design
|
---|
| | 991 | garantiert also keine ›ethisch perfekten‹ Technologien – aber das Framework
|
---|
| | 992 | bietet Unterstützung dabei, Bias so gut wie möglich zu vermeiden und die
|
---|
| | 993 | Auswirkungen von Technologien auf die Gesellschaft zu bedenken, offenzulegen und
|
---|
| | 994 | zu diskutieren. Zudem ermöglicht Value Sensitive Design, Technologien nicht nur
|
---|
| | 995 | nach klassischen Kriterien wie Effektivität oder Robustheit zu bewerten –
|
---|
| | 996 | sondern auch nach den Werten, die sie fördern. Das ist ein guter Start, um
|
---|
| | 997 | Technologien und Projekte so zu gestalten, dass sie nicht nur die Digital
|
---|
| | 998 | Humanities, sondern auch die Welt ein wenig besser machen.
|
---|
| | 999 |
|
---|