Operationalisierung

Views
435
Downloads
2
Open Public Peer Review
Kategorie
Working Paper
Version
1.0
Benjamin Krautter Autor*inneninformationen
Axel Pichler Autor*inneninformationen
Nils Reiter Autor*inneninformationen

DOI: 10.17175/wp_2023_010

Nachweis im OPAC der Herzog August Bibliothek: 183976709X

Erstveröffentlichung: 25.05.2023

Lizenz: Sofern nicht anders angegeben Creative Commons Lizenzvertrag

Medienlizenzen: Medienrechte liegen bei den Autor*innen

Letzte Überprüfung aller Verweise: 26.04.2023

GND-Verschlagwortung: Empirie | Forschungsmethode | Terminologie | Wissenschaftstheorie | 

Empfohlene Zitierweise: Benjamin Krautter / Axel Pichler / Nils Reiter: Operationalisierung. In: AG Digital Humanities Theorie des Verbandes Digital Humanities im deutschsprachigen Raum e. V. (Hg.): Begriffe der Digital Humanities. Ein diskursives Glossar (= Zeitschrift für digitale Geisteswissenschaften / Working Papers, 2). Wolfenbüttel 2023. 25.05.2023. HTML / XML / PDF. DOI: 10.17175/wp_2023_010


[1]Synonyme und ähnliche Begriffe: Definition | Messvorschrift | operationale Analyse | Operationalismus
Pendants in kontrollierten Vokabularen: Wikidata: Q286017 | TaDiRAH: –

1. Begriffsdefinition

[2]Operationalisierung bezeichnet die Entwicklung von Verfahren, mithilfe derer die Instanzen, Realisierungen oder Indikatoren eines (→ theoretischen) Begriffes oder Konzeptes anhand von eindeutig abgegrenzten, beobachtbaren Phänomenen identifiziert werden können. Entsprechend ermöglichen die so entwickelten Erkennungs- bzw. Messvorschriften die anschließende Quantifizierung, manuelle Überprüfung und nachgelagerte Verarbeitung (der Instanzen) des besagten Begriffes.

2. Begriffs- / Ideengeschichte

[3]Der Begriff der Operationalisierung lässt sich auf Percy Bridgmans Monographie The Logic of Modern Physics (1927) zurückführen. Dort bestimmt er die operationale Definition von Begriffen als Grundlage jeglicher physikalischen Forschung. Bridgman bezeichnet diese neue Haltung entweder als »operational point of view«[1] oder, vor allem in späteren Beiträgen, als »operational analysis«.[2] Die Bedeutung von Begriffen ist dabei durch die Abfolge einzelner Operationen bestimmt, die man zu ihrer Identifikation bzw. Messung ausführt: »In general, we mean by any concept nothing more than a set of operations; the concept is synonymous with the corresponding set of operations[3] Er reagiert damit auf Albert Einsteins Erkenntnis, dass die Bewertung der Gleichzeitigkeit zweier Ereignisse, die räumlich getrennt voneinander geschehen, nach anderen Operationen verlangt als die Beurteilung der Gleichzeitigkeit zweier am selben Ort stattfindenden Ereignisse.[4] Für Bridgman folgt daraus, dass auch klassische und breit akzeptierte physikalische Konzepte einem Mangel an operationaler Schärfe unterliegen können. Physiker*innen dürften deshalb keine Grundsätze a priori anerkennen.

[4]Bridgman exemplifiziert seine Überlegungen an verschiedenen (physikalischen) Konzepten wie Raum, Zeit oder Geschwindigkeit. Sein Paradebeispiel ist das der Längenmessung. Hieran verdeutlicht er den Unterschied zwischen Konzepten, die sich durch direkte Messoperationen bestimmen lassen – etwa wenn man die Grundfläche eines Hauses mit Hilfe eines genormten Messstabs misst – und durch indirekte Messoperationen, wenn beispielsweise der Abstand der Erde zu anderen Himmelskörpern über die Zeitdauer inferiert wird, die Lichtstrahlen auf ihrem Weg benötigen. Da sich die Operationen des Messvorgangs unterscheiden, hätten sich nach Bridgmans Ansicht auch die Begriffe zu unterscheiden. Er differenziert deshalb zwischen taktiler und optischer Länge.[5]

[5]In späteren Arbeiten weicht Bridgman diese starke Variante der Operationalisierung zunehmend auf. In einem Beitrag von 1932 ergänzt er seine operationale Perspektive um geistige Operationen.[6] 1938 setzt er Operationen mit Aktivitäten gleich, um seine bis dahin vor allem auf physikalische Konzepte beschränkte Perspektive zu erweitern.[7] Zudem präzisiert er seine Definition von Begriffen, indem er zwischen notwendigen und hinreichenden Bedingungen unterscheidet. Die Analyse der Operationen bzw. Aktivitäten, die den Begriffsgebrauch anleiten, ist weiterhin notwendig, um die Bedeutung des Begriffs zu bestimmen. Sie ist aber nicht hinreichend, wie die Formulierung in The Logic of Modern Physics noch annehmen ließ.[8]

3. Der Begriff in verschiedenen Disziplinen

[6]In der Geschichte der Philosophie bzw. Wissenschaftstheorie gilt Bridgmans Operationalismus als eine mögliche Antwort auf die Frage nach der empirischen Signifikanz theoretischer Begriffe. Dabei handelt es sich um die Frage, woher theoretische Begriffe ihre Bedeutung haben. Insbesondere für an den Naturwissenschaften orientierte Erkenntnistheorien wie den Phänomenalismus, eine Form des Empirismus, in dem als Quelle der erfahrungswissenschaftlichen Erkenntnis die (stets subjektive) Sinneswahrnehmung erachtet wird, stellt diese Frage ein Problem dar. Denn hier sind die Extensionen derartiger Begriffe der direkten Beobachtung nicht zugänglich. Wie bereits dargelegt, löst Bridgman dieses Problem, indem er die Begriffe durch Operationen mit der Welt zusammenführt. Die Implikationen von Bridgmans operationaler Analyse führen jedoch zu neuen Problemen, die früh in der philosophischen Debatte aufgegriffen wurden:[9] Das gilt insbesondere für die in Bridgmans The Logic of Modern Physics nahegelegte Gleichsetzung von Bedeutung mit den sie bestimmenden Operationen. Auf Basis einer derartigen Bedeutungskonzeption ist es nicht mehr möglich, die Validität von Messoperationen zu überprüfen, bestimmen diese Operationen doch die Bedeutung der in ihrem Vollzug angewandten theoretischen Begriffe. Hinzu kommt, dass Messoperationen stets in einem bestimmten Kontext erfolgen. Auf Basis von Bridgmans früher Konzeption kann dementsprechend immer nur eine Bedeutungsdimension eines Begriffes bestimmt werden bzw. – so wurde Bridgman auch verstanden – je nach Messkontext und -praxis werden alternative Begriffe bestimmt (siehe die Unterscheidung von taktiler und optischer Länge). Nicht zuletzt aufgrund dieser Kritikpunkte[10] hat die philosophische Wissenschaftstheorie im 20. Jahrhundert zahlreiche Alternativen zur operationalistischen Konzeption der empirischen Signifikanz entwickelt – zum Beispiel die Zuordnungsregeln von Hans Reichenbach[11] oder Rudolf Carnaps Reduktionssätze[12] – und Bridgmans Konzeption in den fünfziger Jahren endgültig fallen gelassen. Resultat der an die alternativen Vorschläge anknüpfenden Debatten war und ist eine Verschiebung in Hinblick auf die Gewichtung dessen, was für den empirischen Gehalt theoretischer Begriffe ausschlaggebend sei. An die Stelle der vollständigen Rückführung theoretischer Begriffe auf Beobachtbares trat dabei die Voraussagerelevanz beobachtbarer Vorgänge durch ein theoretisches System und seine Begriffe. Bezüglich der Letzteren wird dabei die Auffassung vertreten, dass diese nur mehr partiell auf Beobachtbares zurückgeführt werden können müssen, um so die empirische Deutung des theoretischen Systems und die Relevanz der Voraussagen, die auf Basis dieses Systems getätigt werden, zu sichern.[13] Daneben gibt es jedoch in den letzten Jahren Bemühungen, den operationalistischen Ansatz, insbesondere die Rolle von Messverfahren für und bei der Begriffsbestimmung, im Rahmen eines neuen empirischen Realismus wiederzubeleben.[14]

[7]In der Soziologie kommt der Begriff der Operationalisierung hingegen immer noch zum Einsatz, insbesondere in zweierlei Hinsicht: Einerseits bezeichnet er in den empirisch orientierten, quantitativen Sozialwissenschaften – wie auch schon bei Bridgman – die Praxis der Rückführung theoretischer Begriffe auf phänomenale Instantiierungen derselben: »Die ›Operationalisierung‹ eines theoretischen Begriffes besteht aus der Angabe einer Anweisung, wie Objekten mit Eigenschaften (Merkmalen), die der theoretische Begriff bezeichnet, beobachtbare Sachverhalte zugeordnet werden können«.[15] Andererseits dient er zur wissenschaftstheoretischen Ausdifferenzierung unterschiedlicher soziologischer Forschungsansätze. Schnell et al. stellen den operationalistischen Ansatz in diesem Kontext dem typologisch-induktiven sowie dem kausal-analytischen Ansatz gegenüber.[16]

[8]Die u. a. von Norbert Groeben und Siegfried J. Schmidt vertretene empirische Literaturwissenschaft der 1970er und 1980er Jahre nimmt Bezug auf die empirisch orientierten Sozialwissenschaften und setzt sich für eine methodische Objektivierung des Faches ein. Grundlage dafür ist der idealerweise von so vielen Rezipient*innen wie möglich verstandene literarische Text.[17] Denn für die empirische Literaturwissenschaft wird eine strikte Trennung von Rezeption und Interpretation basierend auf einer Trennung von Leser*in und Forscher*in eingefordert: Die »Interpretation als Konstruktion eines Werksinns stellt singuläre Deutungshypothesen auf, die anhand von Rezeptionsdaten (Konkretisationen) empirisch zu validieren sind«.[18] Dazu gelte es, theoretisch fundierte Hypothesen geeignet zu operationalisieren. Deshalb werden messbare Indikatoren benötigt, die die für den Untersuchungszweck relevanten Phänomene festlegen. Aus diesen Phänomenen werden wiederum Begriffe gebildet, aus denen sich der zu operationalisierende theoretische Begriff, der Teil der Hypothese ist, zusammensetzt.[19] Operationalisierungen werden somit als Regeln verstanden, die spezifische wissenschaftliche Handlungen im Sinne operationaler Definitionen anleiten, um den Bedeutungsgehalt theoretischer Begriffe derart abzustecken, dass innerhalb dieses Anwendungsbereichs Messungen möglich werden.[20] Zentral sei dabei, »daß man plausibel machen kann, wie die Operationalisierungen mit den theoretischen Konstrukten zusammenhängen.«[21]

[9]Die Computerlinguistik (CL) beschäftigt sich seit ihrer Entstehung mit der Operationalisierung von textorientierten theoretischen Konzepten, ohne dafür den Begriff der Operationalisierung explizit zu verwenden. Dabei handelte es sich zunächst um Konzepte aus der Linguistik (z. B. Unterscheidung von Wortarten) oder solche, die in Anwendungen für Endnutzer*innen relevant sind (z. B. bei Übersetzungen). Methodisch lassen sich mehrere Phasen unterscheiden: Zunächst wurden regelbasierte Verfahren verwendet, die dann durch statistische Informationen erweitert wurden. Seit den 1990er Jahren kamen dann Feature-basierte maschinelle Lernverfahren zum Einsatz, die seit 2015 zunehmend durch neuronale Netze abgelöst wurden. In den Operationalisierungsbemühungen der CL werden regelmäßig pragmatische Entscheidungen getroffen, so dass die linguistisch definierten theoretischen Konzepte und die durch das jeweilige Verfahren identifizierten Instanzen teilweise in einem losen Verhältnis stehen.

[10]Franco Moretti hat Begriff und Idee der Operationalisierung schließlich in die Digital Humanities eingeführt und damit die Bezeichnung der definitorischen Praxis, die oft unter den in den Digital Humanities allgegenwärtigen → Modellbegriff fielen, terminologisch präzisiert. Als Operationalisierung versteht Moretti mit Blick auf Bridgmans The Logic of Modern Physics die konkrete Verbindung von literaturtheoretischen Konzepten mit literarischen Texten durch das Messen bestimmter Textphänomene. Hierfür greift er auf die Metapher des Brückenbaus zurück.[22] In seinen Beispielanalysen wird jedoch deutlich, dass die Richtung der Verbindung nicht eindeutig ist, da theoretische Begriffe und messbare Phänomene in seinen Beispielen ohne tiefgreifende semantische Analysen parallelisiert werden. Das hat zur Folge, dass die Rückbindung an die etablierte literaturtheoretische Terminologie häufig offenbleibt bzw. misslingen muss. Die Operationalisierung mündet stattdessen in operationale Neudefinitionen der Begriffe.

[11]Im Anschluss an Morettis Essay wird die Operationalisierung aus verschiedenen Perspektiven heraus immer wieder als eine Kernaufgabe der Digital Humanities beschrieben.[23] Die an Bridgman anschließende wissenschaftstheoretische Debatte wird dabei aber größtenteils ausgeklammert.

4. Erläuterung

[12]Operationalisierung bezeichnet den Prozess, ein Erkennungs- oder Messverfahren[24] für ein theoretisches Konzept zu entwickeln.[25] Das Verfahren erlaubt es, innerhalb einer größeren Sammlung von Daten die Extension des Konzeptes, also die Menge seiner Instanzen, praktisch zu ermitteln und ermöglicht damit weiterführende Analysen.

[13]Ein wichtiger Bestandteil einer Operationalisierung ist die eindeutige und exakte Bestimmung des zu operationalisierenden Konzeptes. Bei der Operationalisierung von theoretischen Konzepten macht man sich im Regelfall andere, bereits operationalisierte Konzepte zunutze, die dann entweder als Basiseinheit zur Vorauswahl verwendet werden oder die Funktion von Kriterien zur Bestimmung des eigentlichen Zielbegriffs übernehmen können. Mit diesen untergeordneten Konzepten ergibt sich eine Hierarchie von Messverfahren, die in ›direkt ablesbaren‹ Eigenschaften der Daten verankert ist, die entweder keiner weiteren Operationalisierung mehr bedürfen oder deren Operationalisierung trivial ist.[26] In der Praxis sind viele Messverfahren lediglich Annäherungen an das Zielkonzept. Es ist daher unerlässlich, eine methodisch saubere und aussagekräftige Evaluation des Messverfahrens durchzuführen, etwa mit repräsentativen Referenzdaten.

[14]Wie der Operationalisierungsprozess in der Praxis konkret durchgeführt wird, hängt von einer Vielzahl von Faktoren ab, etwa der Frage, wie voraussetzungsreich das theoretische Konzept ist. Zentral ist zudem, ob das Messverfahren automatisch oder manuell durchgeführt werden soll. Eine manuelle Anwendung des Messverfahrens entspricht einer auf Annotationsrichtlinien basierenden → Annotation. Die Richtlinien in ihrer Gesamtheit stellen dabei die Erkennungs- bzw. Messregeln dar, das angenommene ›normale‹ sprachliche Verständnis der Annotierenden die nicht weiter zu operationalisierenden Basiskonzepte. Der Operationalisierungsprozess ist dann derjenige, der zur Erstellung von Annotationsrichtlinien verwendet wird. Dieser enthält typischerweise eine Reihe von testweisen Anwendungen des Messverfahrens. Ein etablierter Weg, um die Reliabilität eines solchen Messverfahrens zu ermitteln, ist die Berechnung des Inter-Annotator-Agreements, also der Übereinstimmung zwischen den Annotierenden.

[15]Bei einer automatischen Erkennung bzw. Messung kann weiter differenziert werden, etwa zwischen regelbasierten Systemen und maschinellen Lernverfahren. Bei ersteren wird versucht, die (theoretisch definierten) Regeln mehr oder weniger direkt in einen Algorithmus zu überführen. Bei zweiterem wird versucht, einem passenden maschinellen Lernverfahren die Möglichkeit zu geben, die wichtigen Erkennungsregeln selbst zu ›lernen‹. Die Gesamtheit der erlernten ›Regeln‹ wird in diesem Kontext dann als Modell bezeichnet. Während regelbasierte Systeme (bei einer überschaubaren Anzahl und Komplexität der Regeln) eine gewisse Interpretierbarkeit der Modelle erlauben, kann bei maschinellen Lernverfahren keine Interpretierbarkeit vorausgesetzt werden.[27] In diesem Fall können Einschätzungen über die Qualität des Messverfahrens ausschließlich empirisch anhand von Testdaten erfolgen.

5. Kontroversen und Diskussionen

[16]Die Operationalisierung theoretischer Konzepte aus den Geisteswissenschaften ist komplex und herausfordernd. Die Erkennungs- oder Messmethode sollte nicht ohne gründliche Reflexion eingesetzt werden, da praktisch jedes Analyseverfahren durch Vorannahmen in Hinblick auf jene Daten gekennzeichnet ist, für die es entwickelt wurde. Im Zuge einer solchen Reflexion ist idealiter das Gesamtverfahren zu betrachten, also sämtliche Erkennungs- oder Messverfahren, die in der Hierarchie von Messverfahren eine Rolle spielen. Bereits eine minimale Verletzung dieser Annahmen führt dazu, dass die Ergebnisse des Verfahrens nicht mehr in der gleichen Weise zuverlässig sind. Dies ist in den Ergebnissen womöglich nicht direkt offensichtlich. Bei der Veröffentlichung und Beschreibung solcher Verfahren sollte also auch darauf geachtet werden, die zugrundeliegenden Annahmen transparent zu machen.

[17]Vor diesem Hintergrund mag es verwundern, dass bis dato – zumindest in den deutschsprachigen Digital Humanities – keine Debatte darüber geführt wird, ob die verschiedenen Praktiken, die als Operationalisierung bezeichnet werden, diesem Etikett entsprechen bzw. ob es notwendig und auch möglich ist, Kriterien für die zentralen Kennzeichen einer Operationalisierung zu bestimmen. Eine derartige Debatte wäre wünschenswert, da nicht nur die Rückführung von theoretischen Begriffen auf ihre Instantiierungen, also das, was Bridgman operationale Definition nannte, als Operationalisierung bezeichnet wird. Auch Verfahren, die von technisch gegebenen Mess- bzw. Analyseverfahren auf theoretische Begriffe rückschließen, werden als Operationalisierung verstanden, obwohl die Verfahren nicht primär mit Blick auf diese Begriffe entwickelt wurden. Ein solches Vorgehen kehrt also die Operationalisierungs-›Richtung‹ insofern um, als dass es nicht bei dem theoretischen Konzept einsetzt und diesem adäquate Messtechniken entwickelt. Stattdessen werden Messtechniken aus einem Theoriekontext in einen anderen überführt und so auf Konzepte des alternativen Theoriekontextes rückgeschlossen.[28] Als Beispiel für diese unterschiedlichen Praktiken sei hier Morettis Umgang mit dem Konzept der Hauptfigur genannt. Auf Basis einer Netzwerkanalyse von Shakespeares Hamlet fordert Moretti eine Neukonzeptualisierung von literarischen Figuren und ihrer Hierarchisierung. Denn die Werte der Netzwerkmetriken würden nicht mit dem etablierten literaturwissenschaftlichen Umgang mit den Konzepten von Haupt- und Nebenfiguren kongruieren.[29]

[18]Letztlich münden derart divergierende Praktiken in die Frage, ob nur manuell erstellte bzw. überwachte Lern- und Analyseverfahren oder auch ihre unüberwachten Pendants als Operationalisierungen bezeichnet werden können. Diesbezüglich wäre in jedem Einzelfall zu klären, in welchem Verhältnis die semantischen Vorannahmen des zu operationalisierenden Begriffes und dieser selbst zu den digitalen Techniken seiner Analyse stehen. So ist zum Beispiel auf den ersten Blick keineswegs klar, ob die distributionellen Annahmen eines Latent Dirichlet Allocation Algorithm mit den semantischen Annahmen eines literaturwissenschaftlichen Begriffes wie zum Beispiel dem ›Sujet‹ oder dem ›Topos‹ korrelieren.[30]

[19]Dieser Fragenkomplex steht wiederum in unmittelbarem Zusammenhang mit laufenden wissenschaftstheoretischen Debatten über den Status theoretischer Begriffe.


Fußnoten


Bibliografische Angaben

  • Percy Williams Bridgman: The Logic of Modern Physics. New York 1927. [Nachweis im GVK]

  • Percy Williams Bridgman: The Concept of Time. In: The Scientific Monthly 35 (1932), H. 2, S. 97–100. [Nachweis im GVK]

  • Percy Williams Bridgman: Operational Analysis. In: Philosophy of Science 5 (1938), H. 2, S. 114–131. [Nachweis im GVK]

  • Herman Cappelen / Josh Dever: Making AI Intelligible. Philosophical Foundations. Oxford 2021. PDF. [online]

  • Rudolf Carnap: Testability and Meaning. In: Philosophy of Science 3 (1936), H. 4, S. 419–471.

  • Hasok Chang: Operationalism: Old Lessons and New Challenges. In: Reasoning in Measurement. Hg. von Nicola Mößner / Alfred Nordmann. New York 2017, S. 25–38. [Nachweis im GVK]

  • Hasok Chang: Operationalism. In: The Stanford Encyclopedia of Philosophy. Hg. von Edward Nouri Zalta. Stanford 2021. HTML. [online] [Nachweis im GVK]

  • Evelyn Gius: Computationelle Textanalysen als fünfdimensionales Problem: Ein Modell zur Beschreibung von Komplexität. 2019 (= Digital Humanities Cooperation LitLab Pamphlet, 8). PDF. [online]

  • Norbert Groeben: Rezeptionsforschung als empirische Literaturwissenschaft. Paradigma- durch Methodendiskussion an Untersuchungsbeispielen. Kronberg / Taunus 1977. [Nachweis im GVK]

  • Helmut Hauptmeier / Siegfried J. Schmidt: Einführung in die empirische Literaturwissenschaft. Braunschweig u. a. 1985. [Nachweis im GVK]

  • Carl Gustav Hempel: Philosophy of Natural Science. Englewood Cliffs, NJ 1966. [Nachweis im GVK]

  • Benjamin Krautter: Die Operationalisierung als interdisziplinäre Schnittstelle der Digital Humanities. In: Scientia Poetica 26 (2022), S. 215–244. DOI: 10.1515/scipo-2022-009

  • Benjamin Krautter / Janis Pagel / Nils Reiter / Marcus Willand: »[E]in Vater, dächte ich, ist doch immer ein Vater«. Figurentypen und ihre Operationalisierung. In: Zeitschrift für digitale Geisteswissenschaften (2020). DOI: 10.17175/2020_007

  • Jonas Kuhn: Einleitung. In: Reflektierte Algorithmische Textanalyse. Interdisziplinäre(s) Arbeiten in der CRETA-Werkstatt. Hg. von Nils Reiter / Axel Pichler / Jonas Kuhn. Berlin u. a. 2020, S. 9–40. [Nachweis im GVK]

  • Zachary Chase Lipton: The Mythos of Model Interpretability. 2016. PDF. [online]

  • Franco Moretti: Network Theory, Plot Analysis. Stanford 2011 (= Literary Lab Pamphlet, 2). PDF. [online]

  • Franco Moretti: »Operationalizing«: or, the Function of Measurement in Modern Literary Theory. Stanford 2013 (= Literary Lab Pamphlet, 6). PDF. [online]

  • Axel Pichler / Nils Reiter: Zur Operationalisierung literaturwissenschaftlicher Begriffe in der algorithmischen Textanalyse. In: Journal of Literary Theory 15 (2021), S. 1–29. [Nachweis im GVK]

  • Axel Pichler / Nils Reiter: From Concepts to Texts and Back: Operationalization as a Core Activity of Digital Humanities. In: Journal of Cultural Analytics 7 (2022), H. 4. DOI: 10.22148/001c.57195

  • Hans Reichenbach: Philosophie der Raum-Zeit-Lehre. Berlin u. a. 1928. [Nachweis im GVK]

  • Rainer Schnell / Paul Bernhard Hill / Elke Esser: Methoden der empirischen Sozialforschung. 11. Auflage. Berlin u. a. 2018. [Nachweis im GVK]

  • Julian Schröter / Keli Du: Validating Topic Modeling as a Method of Analyzing Sujet and Theme. In: Journal of Computational Literary Studies 1 (2022), H. 1. [online]

  • Wolfgang Stegmüller: Hauptströmungen der Gegenwartsphilosophie. Eine kritische Einführung. 4 Bde., Bd. 1. 7. Auflage. Stuttgart 1989. [Nachweis im GVK]

  • Thomas Weitin: Thinking Slowly. Literatur lesen unter dem Eindruck von Big Data. 2015 (= Digital Humanities Cooperation LitLab Pamphlet, 1). PDF. [online]