Available at https://www.zfdg.de
Sofern nicht anders angegeben
Available at https://www.zfdg.de; (c) Forschungsverbund MWW
Einreichung als Fachartikel in der ZfdG durch die Autor*innen
Medienrechte liegen bei den Autor*innen
Transformation der WORD-Vorlage nach XML/TEI-P5 durch TEI-Oxgarage und XSLT-Skripten
Lektorat des Textes durch die Redaktion in Person von
All links checked
Es wurden folgende Änderungen vorgenommen: Inhaltliche Anpassungen, wie sie von den Gutachter*innen und Kommentator*innen angemerkt worden sind. Aktualisierung und Ergänzung der Fußnoten und der bibliografischen Angaben. Formale Korrekturen.
Digitales Publizieren hat sich in den Geisteswissenschaften zu einem etablierten und breit genutzten Bestandteil der Wissenschaftskommunikation entwickelt. Neben eher konventionellen, an die Printkultur angelehnte Verfahren entwickelt sich zunehmend eine eigene, an festen Konventionen orientierte digitale Publikationskultur. Doch längst sind nicht alle Fragen zum digitalen Publizieren geklärt und es existieren noch viele experimentelle Ansätze. Das vorliegende
Digital publishing in the humanities has become an established and widely used component of scholarly communication. A digital publishing culture has become an integral part of scientific work. However, not all questions about digital publishing have been answered and many experimental approaches still exist. This
Seit ihrer Gründung im Jahr 2015 widmet sich die AG Digitales Publizieren des Verbandes Digital Humanities im deutschsprachigen Raum (DHd) Fragen und Diskussionen rund um das Thema des digitalen Publizierens und der digitalen Publikation. Der Fokus liegt dabei auf dem Publikationswesen in den (digitalen) Geisteswissenschaften und hier insbesondere auf den textorientierten Disziplinen.
Ein zentraler Aspekt war stets die Frage, wie eine digitale wissenschaftliche Publikation unter den gewandelten Medienbedingungen aussehen sollte und welche Anforderungen sich daraus an Urheber*innen, Intermediäre und Rezipient*innen ergeben. Aus diesem Anliegen heraus entstand 2016 ein erstes Working Paper »Digitales Publizieren«
Aus neuen Entwicklungen und veränderten Rahmenbedingungen ergab sich ein Bedarf, das
Die Literatur zu dem nicht kontinuierlich gepflegt und gibt lediglich den Stand zum Zeitpunkt der Publikation des Papers wieder.
Digitale wissenschaftliche Publikationen zeichnen sich durch die Möglichkeiten des Mediums, wie Maschinenlesbarkeit, Multimedialität, Veränderbarkeit, leichte Kopierbarkeit, Vernetzbarkeit, etc. aus und erweitern methodisch die Verfahren wissenschaftlicher Ergebnissicherung. Die neuen digitalen Möglichkeiten haben den Begriff der Publikation erweitert, der die ehemals etablierten Publikationswege über das klassische Verlagsmodell nur als eine von mehreren Optionen der Veröffentlichung versteht. Der folgende Abriss geht daher von einem weiten Publikationsbegriff aus. Dazu zählen ohne Anspruch auf Vollständigkeit:
Der wissenschaftliche Qualitätsanspruch der digitalen Publikation ist derselbe wie bei gedruckten Publikationen. Nachprüfbarkeit, logischer Aufbau, klar formulierte Fragestellungen, kritische Auseinandersetzung mit den bisherigen Forschungsergebnissen, Reflexion von Methoden, sprachliche und strukturelle Exaktheit und schließlich die Erwähnung von den eigenen Schlüssen zuwiderlaufenden Fakten sind selbstverständlich auch Basis digitalen wissenschaftlichen Publizierens.
Bei der Publikation digitaler Ressourcen spielt die Möglichkeit zur maschinellen Verarbeitung beziehungsweise Prozessierbarkeit die entscheidende Rolle und kann als konstitutiv auch für den Begriff einer idealtypischen digitalen Publikation angesehen werden. Dabei müssen allerdings das Ziel, auf das hin die digitale Aufbereitung erfolgen soll, sowie die Form der Prozessierung mitbedacht werden. Digitale Ressourcen, wenn sie unter dem Gesichtspunkt ihrer Maschinenlesbarkeit betrachtet werden, lassen sich auch als Forschungsdaten bezeichnen und sind insofern auch nach Maßgabe der bekannten FAIR-Prinzipien
In diesem Sinne digital re-kodierte oder direkt erzeugte Ressourcen bieten einen Mehrwert, weil sie vermittels geeigneter Algorithmen Gegenstand von Forschungsfragen werden können, die sich digitaler Methoden bedienen. So kann z. B. die zum Zweck der digitalen Verarbeitbarkeit modellierte Textstruktur mit einem variablen Layout ausgestattet, dynamisch modifiziert, in verschiedene Forschungskontexte eingebettet, im Hypertext referenziert oder mit einem Interface versehen werden, das für die jeweiligen Anforderungen passende spezifische Abfragen und Ansichten ermöglicht. Mit
Bislang gibt es in den Geisteswissenschaften keine etablierten Verfahren, die wie in der Printkultur, wo die Form des Titels, des Inhaltsverzeichnisses, der Textgliederung, der Register, des Zitationssystems usw. weitgehend festgelegt ist, verbindlich vorschreiben, wie eine Publikation von in diesem Sinne verstandenen digitalen Dokumenten beziehungsweise Forschungsdaten aussieht. Immerhin zeichnet sich ab, dass in technischer Hinsicht mittlerweile gut eingeführte offene Standards für Daten und Metadaten insbesondere auf Grundlage der
Auch wenn Kommunikationsmedien wie Blogs und soziale Netzwerke eine zunehmend wichtigere Rolle spielen, ist der nach wie vor häufigste Fall digitalen Publizierens im geisteswissenschaftlichen Feld die Publikationen eines längeren Textes (Monografie, Artikel). Da die Transformation der jeweiligen Ressource in eine maschinenlesbare und damit prozessierbare Form, d. h. die Umwandlung einer Ressource zu Forschungsdaten, Voraussetzung für deren Nutzung im Kontext der Digital Humanities (DH) ist, müssen auch Monografien oder Artikel nach Maßgabe der jeweiligen Forschungsfrage so aufbereitet werden, dass sie diesen neuen Nutzungszusammenhängen genügen. Texte werden nicht mehr nur gelesen, sondern auch gerechnet
, wie Gerhard Lauer einmal pointiert formulierte.Bedeutung durch die Einbringung von inhaltlichem (deskriptivem beziehungsweise semantischem) Markup explizit und damit prozessierbar gemacht wird.
Wenn der kodierte Text sich je nach Kontext oder nach Wunsch der Nutzenden in unterschiedlichen Viewport- oder Layoutformen präsentieren lässt, verwandelt sich die sichtbare Oberfläche und ist nur noch ein dynamisches und volatiles Produkt unsichtbarer, aber werkkonstitutiver Grundstrukturen, auf die Algorithmen angewendet werden. Der Text ist damit prinzipiell anders zu bewerten als die starre und unveränderbare Oberfläche zweidimensionaler gedruckter Publikationen, die bedeutungstragendes Markup im Layout kodieren (etwa: kleine Zahl unten ist eine Fußnote, kleine Zahl über dem Textblock ist eine Seitenzahl etc.).
Einen Text unter solchen Bedingungen zu ›schreiben‹ heißt daher, seine Nutzung in einem digitalen Kontext zu antizipieren und analytische Auswertungs- sowie Darstellungsmöglichkeiten mit zu bedenken. Von besonderer Wichtigkeit ist die Kodierung der Bedeutung des Textes durch sachgerechtes und standardkonformes Markup. Bedeutung heißt hier nicht, dass der Text hermeneutisch vollständig durch Markup zu beschreiben wäre, sondern dass vor allem generische Textstrukturen (Einleitung, Haupttext, Fußnoten, Inhaltsverzeichnis, Register, Bibliografie u. ä.) und typische Entitäten (Personen, Orte, Körperschaften, Zeitbegriffe, Zitate, etc.) kodiert werden. Disziplinen- und gattungsspezifische Anpassungen sind durchaus sinnvoll (z. B. nach dem in den Naturwissenschaften typischen
Grundsätzlich ist es am besten, wenn die Wissenschaftlerin oder der Wissenschaftler den von ihm oder ihr geschriebenen oder sonst erzeugten Text selbst auszeichnet, weil er oder sie den Text sowie die zugrundeliegende Fragestellung am besten kennt. Dafür stehen den Wissenschaftler*innen heute technisch ausgereifte Werkzeuge zur Verfügung, die gleichwohl abhängig von der technischen Affinität der Geisteswissenschaftler*innen als unterschiedlich anspruchsvoll wahrgenommen und benutzt oder eben auch ignoriert werden. Die Auszeichnung durch externe Dienstleister wie beispielsweise das jeweilige Publikationsorgan ist immer nur die zweitbeste Lösung. In jedem Fall ist es unverzichtbar, dass die in den Text hineinkodierten Strukturen allen an der Textherstellung beteiligten Personen bekannt sind, weil sie einen wesentlichen Teil des digitalen Textes bilden und ihn ebenso charakterisieren wie die in ihm enthaltenen Worte und Formulierungen. Die Auszeichnung beschränkt sich nicht nur auf Text (als schriftlichen Ausdruck), sondern erstreckt sich auch auf nicht-textliche Daten wie Abbildungen, Videos oder Programmcode.
Ein markantes Kennzeichen digitaler Texte ist ihre Veränderbarkeit und prinzipielle Offenheit. Sie können nach der (Erst-)Publikation fortgeschrieben werden. Vor diesem Hintergrund zeichnet sich ein Trend von der Ergebnis- zur Prozesspublikation ab. Ob dies in allen Fällen klug und geraten ist, kann hier nicht entschieden werden, wenn aber von dieser Möglichkeit Gebrauch gemacht wird, sollte eine digitale Publikation Auskunft über ihren Status geben, indem für sie entweder technisch Versionierungsverfahren angeboten werden oder sie mit einer Erklärung über ihren jeweiligen Zustand sowie mit einer Erläuterung zur Nachvollziehbarkeit der Entwicklungsschritte ausgestattet wird. Gerade in diesem Moment unterscheidet sich eine digitale Publikation deutlich von ihrem gedruckten Pendant, das solche Prozesse nur in verschiedenen Auflagen zu realisieren vermag.
Darüber hinaus sind digitale Texte vor allem auch Knoten in Netzwerken. Ein Buch öffnet das andere, wie ein altes Sprichwort sagt. Die Vernetzungsfähigkeit, also die medienintegrale Verknüpfung von Dokumenten und Gegenständen, ist eines der wichtigsten Eigenschaften des digitalen Textes (
Zur Nutzung im Netz gehört auch die weltweit eindeutige und verlässliche Referenzierbarkeit und Langzeitverfügbarkeit von Dokumenten. Während Zitierformen für elektronische Texte unterhalb der Dokumentebene noch ungenügend standardisiert sind (der Wegfall der physikalischen Seitenreferenz erzwingt neue Zitierformen), haben sich für die Dokumentebene eine Reihe von Services etabliert, die ein persistentes Zitieren erlauben (-Ebene weitgehend gelöst, die komplexe Ebene der
Der Übergang vom Wissen kompilierenden ›Gelehrten‹ zum forschungsbasierten ›Wissenschaftler‹ um 1800 hatte auch zur Folge, dass wissenschaftliche Erkenntnisprozesse fortan in abgeschlossene Monografien und Aufsätze mündeten, die über die Zuschreibung einer individuellen Autorschaft verifiziert wurden. Dieses Vorgehen ist in digitalen wissenschaftlichen Veröffentlichungen weiterhin möglich, wenn man beispielsweise die Monografie eines*einer Autor*in als
Die Potenziale des digitalen Medienwandels werden für eine bessere geisteswissenschaftliche Praxis jedoch erst wirklich genutzt, wenn Erkenntnisprozesse stärker kollaborativ betrieben und als dynamisch verstanden und entsprechend transparent abgebildet werden. Es ist gerade ein Vorzug digital gestützter Erkenntnisprozesse, dass sich Wissenschaftler*innen auf verfügbare Texte und Ressourcen beziehen und diese in einem andauernden Prozess kommentieren, modifizieren und verbessern können. Hierzu bieten sich ›flüssige‹ Formate wie beispielsweise Wikis, Living Books, Open-Review-Plattformen oder Weblogs an.
Auf einer theoretischen Ebene folgt daraus eine Relativierung der tradierten starken Autorschaftsmodelle, die bis heute in akademischen Qualifikationsprozessen und Berufungsverfahren eine bedeutende Rolle spielen. In digitalen akademischen Schreibprozessen können in noch größerem Maße verschiedene Autorschafts- und Beiträger*innenrollen zu verschiedenen Zeitpunkten der Produktion, Distribution oder produktiven Nutzung einer Ressource ausgewiesen werden. Dies setzt aber voraus, dass sie zunächst definiert werden. Eine solche Ausdifferenzierung der Rollen und Verantwortlichkeiten macht nur offensichtlicher, dass auch gedruckte wissenschaftliche Veröffentlichungen in verschiedenem Maße kollaborativ entstanden sind.
Jenseits dieser kritischen historischen Begriffs- und Analysearbeit bleiben jedoch auch pragmatische Autorschaftszuschreibungen unabdingbar, die differenziert und flexibilisiert werden müssen. Der bisherige reduktionistische Lösungsansatz, in kollaborativen Schreibverfahren durch die Reihenfolge von Namen eine eindeutige Hierarchie der Autor*innen zu suggerieren, bleibt der Grundidee von klar bestimm- und hierarchisierbaren Einzelautorschaften verhaftet. Die bloße alphabetische Listung von Namen ist zwar egalitär, lässt die konkrete Beiträgerschaft jedoch ebenfalls im Dunkeln. Demgegenüber wäre es sinnvoller, die komplexen Autorschaftsrollen in den digitalen Geisteswissenschaften unter Zuweisung konkreter Beitragsformen zu differenzieren sowie eine entsprechende Zuschreibungskultur institutionell zu etablieren.
Zu den möglichen nennenswerten Rollen digitaler wissenschaftlicher Autorschaft oder Beiträger*innenrollen gehören:
Diese Rollen, die darüber hinaus nach verschiedenen Graden abgestuft werden können, sollten im Kontext des jeweiligen wissenschaftlichen Beitrags differenziert und zugeschrieben werden. Dynamische Projekte sollten zudem in klar referenzierbare Versionen aufgeteilt werden. Dies ermöglicht die persistente Markierung, auf welche aktuelle oder frühere Version eines Textes oder einer Datenbank sich die jeweilige Mitarbeit in einer entsprechenden Rolle bezieht. Auf diese Weise kann zudem der Impact einer spezifischen wissenschaftlichen Tätigkeit noch genauer bestimmt werden, wobei es empfehlenswert ist, die aktuell zentrale Zitationsform ›Autor*in Jahr‹ (z. B. Schmidt 2010) bei dynamischen und sozialen Veröffentlichungen auf ›Kurztitel / Version‹ (z. B. DHd-Publ / 01) umzustellen. Eine solchermaßen geänderte Zitationsweise wäre nicht nur wissenschaftlich präziser, sie würde zugleich die Relativierung der Autor*inneninstanz für die Verifikation des jeweiligen Erkenntnisprozesses durch eine stärkere Konzentration auf die Dynamik und Kollaborativität der Schreibverfahren selbst abbilden.
In der digitalen Wissensproduktion werden Begriffe wie
Unter anderem kann es aus institutionellen Gründen mitunter sinnvoll und im Sinne einer besseren wissenschaftlichen Praxis sein, wenn Beiträger*innen im Wissenschaftsbereich anonyme oder pseudonyme Autorschaften nutzen, die sich beispielsweise auf ›digitale Identitäten‹ beziehen. Solche Autorschaftsnamen oder die Kollektivautorschaft als Schwarm ist in den digitalen Geisteswissenschaften jedoch nur produktiv, wenn sie innerhalb einer Community genutzt werden, die ihren Erkenntnisprozess durch klare Methoden, Kategorien und Regeln definiert hat, und in Projektkontexten, die offen zugänglich und inhaltlich nachprüfbar sind.
Die Potenziale der kollaborativen Zusammenarbeit sollten in Forschung, Lehre und Veröffentlichungen der DH-Community intensiv genutzt werden. Daher ist es für die digitalen Geisteswissenschaften unerlässlich, dass starke Autorschaftsmodelle problematisiert werden, dass sich ein bewusster Umgang mit kollaborativen Autorschaften und Beiträger*innenrollen etabliert und – aus pragmatischen Gründen – die jeweiligen Rollen differenziert, klar und persistent zugewiesen werden.
Daneben ist es eine wissenschaftspolitische Aufgabe der DH-Organisationen und ihrer Vertreter*innen, auch in der politischen Öffentlichkeit und in den akademischen Institutionen diese Formen einer kollaborativen (und gegebenenfalls auch anonymen oder pseudonymen) Autorschaft als Teil einer besseren wissenschaftlichen Praxis zu legitimieren und zu etablieren. Dies bedeutet zum einen eine kompetente Hilfestellung bei der Aufbereitung der zu berücksichtigenden Rollen, Kompetenzen und Zuweisungen und zum anderen die Einrichtung von wissenschaftlichen Organen zur selbständigen Evaluierung solcher Rollen im Kontext der einschlägigen Online-Ressourcen.
Wissenschaftliche Förderinstitutionen entscheiden sich bei der Vergabe von Forschungsmitteln im Regelfall auch für die Förderung eines spezifischen Autor*innenprofils. Feste Stellen an Universitäten werden gerade auch auf Basis individueller Schriftenverzeichnisse (Monografien und Aufsätze mit Einzelautorschaft) vergeben. Für die Stellenprofile in den (nicht nur digitalen) Geisteswissenschaften ist allerdings eine Vielzahl von methodologischen, analytischen, informationellen und gestalterischen Fertigkeiten wichtig, die im Regelfall in kollaborativen Projektzusammenhängen erworben werden. Daher sollten geisteswissenschaftliche Institutionen Verfahren entwickeln, wie sie differenzierte Autorschafts- und Beiträger*innenrollen als Teil ihrer Vergabepraxen nutzen können.
Zudem ist es wichtig, dass in den Digital Humanities noch stärker interdisziplinär, historisch und kritisch zu Fragen des geisteswissenschaftlichen Autorschaftsbegriffs, zur Geschichte des kollaborativen Schreibens und Arbeitens sowie zur Wissenschaftlichkeit verschiedener Textformate geforscht wird.
Digitale wissenschaftliche Publikationen spielen weit mehr als ihre analogen Vorbilder auch in die nicht-wissenschaftliche Öffentlichkeit hinein und können gerade durch ihre Transparenz und soziale Medialität in einen offenen Diskurs mit anderen gesellschaftlichen Gruppen treten. Die Bedeutung einer solchen Popularisierung des wissenschaftlichen Wissens für seine gesellschaftliche Verbreitung und Nutzung sollte innerhalb der akademischen Institutionen aufgewertet werden, zumal die Digital Humanities auf diese Weise besser zur kritischen Reflektion der digitalen Gesellschaft beitragen können. Auch spezifisch digitale Veröffentlichungsformen wie Blogpostings und die intensive Nutzung sozialer Medien zur Wissenschaftskommunikation oder die Mitarbeit an Datenbanken und virtuellen Forschungsumgebungen sollten als wichtiger und innovativer Teil des wissenschaftlichen Publizierens berücksichtigt und angemessen kreditiert werden.
Medien, Politik, Universitäten und Schulen sollten eine Kultur vertreten, in der die mediale Konstellation einer Interaktion zwischen wissenschaftlichen Autor*innen und sogenannten ›Lai*innen‹ produktiver gemacht werden kann. Die in solchen digitalen Öffentlichkeiten notwendigen Medienkompetenzen sollten deshalb wesentlich stärker in der akademischen und schulischen Lehre verbreitet werden.
Bei der Veröffentlichung digitaler wissenschaftlicher Publikationen im deutschsprachigen Raum können Autor*innen auf verschiedene Infrastrukturen zurückgreifen. Neben wissenschaftlichen Bibliotheken bieten zunehmend auch unabhängige Verlage oder Plattformen mit niedrigschwelligen Angeboten eine Alternative zu den etablierten Modellen der Veröffentlichung an. Im Folgenden sollen diese Publikationsinfrastrukturen skizziert werden.
Vor dem Hintergrund schnell wachsender Bestände haben Bibliotheken früh die elektronische Publikation als Alternative zum gedruckten Werk in Betracht gezogen.
Im Bereich der
Speziell bezogen auf die Gründung eines Journals verfügen viele Bibliotheken mit dem Zeitschriften-Redaktionssystem OJS über eine Open-Source-Software und das notwendige Fachwissen, um Studierende und Forschende im Prozess des Publizierens wissenschaftlicher Zeitschriften zu unterstützen. Mit Hilfe von OJS können vom Redaktionsprozess bis zur Publikation der Zeitschrift alle Arbeitsschritte an die Bedürfnisse der Herausgeber*innen angepasst werden. Neben der Veröffentlichung von digitalen Publikationen auf universitätseigenen Servern und der Beratung zur Platzierung von Artikeln bei einem digitalen Verlag oder einer (kommerziellen) Plattform wie JSTOR wird demnach die Veröffentlichung eigener E-Journals auf struktureller Ebene unterstützt.
Insgesamt ist anzumerken, das OJS zwar eine Lösung zur Verfügung stellt, die technische und redaktionelle Betreuung der Plattform und der Autor*innen jedoch von der jeweiligen Institution getragen und damit in personelle Strukturen überführt werden muss.
Neben wissenschaftlichen Bibliotheken und Forschungseinrichtungen haben sich im Rahmen der Open-Access-Bewegung andere, unabhängig agierende Publikationsinfrastrukturen wie die Open Library of Humanities (OLH) etabliert. Als eine Non-Profit-Organisation setzt sich die OLH für die kostenneutrale Veröffentlichung wissenschaftlicher Artikel ein, mit dem Ziel, insbesondere OA-Publikationen in den Geistes- und Sozialwissenschaften zu fördern. Ein umfassendes Angebot an Dienstleistungen bietet auch das akademische Publikationsportal OpenEdition an, das mit
Das Projekt DEAL zeigt beispielhaft den Wandel, in dem sich das wissenschaftliche Verlagssystem befindet. Vorangetrieben werden Initiativen zur Veränderung einerseits über die Finanzierung von Open-Access-Publikationen, wie sie die Deutsche Forschungsgemeinschaft (DFG) maßgeblich unterstützt. Andererseits bilden nationale Kontaktpunkte wie OA2020-DE einen strategischen Ansatz mit dem Ziel, Voraussetzungen und Strukturen für eine großflächige Open-Access-Transformation zu schaffen. Die genannten Beispiele zeigen, dass von Seiten der etablierten Verlage einerseits Zugeständnisse z. B. bei der Verteilung einstehender Kosten gemacht werden, andererseits entdecken gerade die großen Verlage Open Access als neues Geschäftsfeld für sich und passen ihre Publish-and-Read-Modelle (PAR-Modelle) und Kosten entsprechend an. Insgesamt stellen die genannten Transformationsverträge für alle Seiten nur einen Zwischenschritt dar, erste Anzeichen der Veränderung sind jedoch auszumachen. Diese Entwicklung im Verlagswesen wird auch weitreichende Folgen für die Publikationsinfrastrukturen haben. So wäre eine engere Kooperation zwischen Verlagen und den bereits existierenden Strukturen der
In dem Pilotprojekt OPEN Library Politikwissenschaft werden in Kooperation mit dem Verlag transcript, dem FID Politikwissenschaft und der Staats- und Universitätsbibliothek Bremen sowie
Der Aufbau von dauerhaften und vor allem verlässlichen Finanzierungsstrukturen ist aktuell noch in Diskussion. Die DFG unterstützt Hochschulen bei der Einrichtung von Publikationsfonds, die sich derzeit aus einem Eigenanteil und Bezuschussung zusammensetzen. Zu diesem Punkt siehe ausführlich das Kapitel 6 Open-Access-Publizieren.
Um die Qualität der Veröffentlichungen im Bereich des digitalen Publizierens zu gewährleisten, werden im Folgenden verschiedene Kriterien für eine digitale Veröffentlichung vorgestellt. Die Auflistung soll hierfür Anregungen geben, ein Anspruch auf Vollständigkeit wird hingegen nicht erhoben.
Bei einer digitalen wissenschaftlichen Publikation sind folgende Punkte zu beachten:
Die Dateien-Erstellung sollte nach internationalen Standards erfolgen (vgl. Kapitel 1). Nicht jedes Dateiformat eignet sich für die Online-Veröffentlichung sowie die langfristige Archivierung. Für die Veröffentlichung auf einem Publikationsserver werden daher von vielen Hochschulen Dateien im
Das DINI-Zertifikat für Open-Access-Publikationsdienste, insbesondere der entwickelte Kriterienkatalog, sollte beachtet werden.
Das Thema des Open-Access-Publizierens wird in Deutschland zwar von vielen Hochschul- und Institutsbibliotheken aufgegriffen, die entwickelten Dienstleistungen sind jedoch unterschiedlich weit ausgereift. Die folgende Liste zeigt daher eine Auswahl an Standorten mit OA-Dienstleistungen als Orientierungshilfe auf:
Der Ausbau der Dienstleistungen im Open-Access-Publizieren zur Unterstützung der Wissenschaftler*innen ist unabdingbar. Wissenschaftliche Bibliotheken spielen beim Aufbau dieser Strukturen eine zentrale Rolle, indem Sie Infrastrukturen bereitstellen und die entsprechenden Kompetenzen vermitteln. Um den Anforderungen des digitalen Publizierens gerecht zu werden, sollte die Vermittlung von Informationskompetenzen
Die Nutzung bestehender Strukturen wie beispielsweise der Fachinformationsdienste oder nationaler und internationaler Hostingdienste sollte vor dem Aufsetzen von ›Insellösungen‹ geprüft werden. Bestehende Softwarelösungen zum Aufbau und Betrieb eines institutionellen Repositoriums, wie z. B. DSpace, MyCoRe oder EPrints
bieten für unterschiedliche Anforderungen skalierbare Werkzeuge an. Mit dem Aufbau kollaborativer Strukturen, wie z. B. Forschungsverbünden oder Universitätskooperationen können beispielsweise Hosting-Kosten oder redaktionelle Workflows geteilt werden. Auch können entsprechende Kompetenzen über Fort- und Weiterbildungsangebote in den Institutionen erlangt oder Stellen für neue Berufsgruppen wie digitale Redakteur*innen geschaffen werden.
Standardisierte Begutachtungsverfahren, in den Peer-Review-Verfahren in gesondertem Maß als Garant für eine umfassende Qualitätskontrolle. Denn diese belegen nicht nur die Seriosität des wissenschaftlichen Werks, das bewertet wird, sondern stärken zugleich auch die Legitimität der digitalen wissenschaftlichen Plattform, auf der publiziert wird. Beides dient nicht zuletzt auch einer Sicherung des Vertrauens in die Wissenschaft. Auch Fördermittel vergebende Institutionen setzen zunehmend voraus, dass Forschungsergebnisse in digitalen Publikationsumgebungen mit einem nachgewiesenen Review-Verfahren veröffentlicht werden. Etabliert ist in diesem Zusammenhang das sogenannte
Dies birgt jedoch bereits Setzungen, die vom Wissenschaftsbetrieb nicht unkritisch gesehen werden. Denn viele Faktoren beeinflussen den Begutachtungsprozess und prägen die Begutachtungskultur, angefangen von der Auswahl der Begutachtenden bis hin zu Verfahren der Kommunikation über die Entscheidungsfindung. Zudem ist aus dem einstigen Kampf um den begrenzten Raum in einer Printpublikation, die eine Begutachtung und Vorauswahl eingereichter Texte notwendig machte, in der potenziell unbegrenzten digitalen Umgebung ein Kampf um die Veröffentlichung in möglichst etablierten Publikationsumgebungen (mit einer entsprechend hohen Ablehnungsrate) geworden.
Diese kurze Bestandsaufnahme zeigt bereits, dass ein einheitliches Bild einer Begutachtungskultur nicht zu erhalten ist. Begutachtungskulturen spiegeln vielmehr ein Verständnis der Wissenskultur wider, aus der sie stammen, die sie begleiten und bewerten. Für das digitale Publizieren können die (Print-)Konventionen des Peer-Reviews grundsätzlich überdacht werden, da es im digitalen Raum andere Möglichkeiten und noch keine etablierten oder normierten Verfahren gibt, Begutachtungsprozesse als Bestandteil eines Werks abzubilden, um Transparenz einerseits, aber auch die Anerkennung der Leistung von Gutachter*innen andererseits zu fördern. Automatisierungen ermöglichen auch neue Optionen für die Blind-Review-Verfahren, so dass sich hier anders gelagerte Begutachtungskulturen ausprägen können.
Digitale Begutachtungen lassen sich grundsätzlich zu zwei unterschiedlichen Zeitpunkten im Veröffentlichungsprozess ansetzen.Pre-Publication-Review), als auch eine Begutachtung nach der Veröffentlichung eines Werkes anzusetzen, was gegebenenfalls zur Revision eines Werkes führt (Post-Publication-Review). In Zusammenhang mit einer Post-Publication-Begutachtung wird mitunter kritisiert, dass hierbei vorläufige Versionen und nicht qualitätsgesicherte Inhalte veröffentlicht werden können.
Pre- wie Post-Publication-Review haben in ihren möglichen Ausformungen große Schnittmengen. Blind-Review-Verfahren stehen dabei solchen gegenüber, die eine maximale Offenlegung und Transparenz im Sinne eines Open-Reviews anstreben. Es ergibt sich jedoch auch eine Vielzahl an Mischformen, in denen z. B. nur Gutachten, nicht aber die Gutachter*innen selbst intern (Pre-) oder extern (Post-) bekannt gemacht werden. Im Folgenden geben wir einen Überblick über die Grundsatzverfahren. Unterschiedliche Spielarten und Varianten sind je nach Publikationsprojekt und -umgebung denkbar.
Ein redaktionsinternes Vorab-Review (Editorial-Pre-Review), etwa durch Reihenherausgeber*innen oder Zeitschriftenredakteur*innen, das die formalen Eigenschaften prüft, reguliert und gegebenenfalls zur Nachbesserung auffordert, unter Umständen aber auch schon eine inhaltliche Vorsortierung vornimmt, wird traditionell in den meisten Fällen eingesetzt. Bei Post-Publication-Review-Verfahren ist dieser Prozess die Voraussetzung für eine formale Qualitätssicherung, denn kein Publikationsformat kann eine Veröffentlichung von unsauberen Texten befürworten, die den Regelstandards der Grammatik und Orthografie sowie den Styleguide-Vorgaben oder dem Profil des Publikationsmediums nicht entsprechen.
Peer-Review ist als Form der Qualitätssicherung wissenschaftlicher Texte – ausgehend von den Naturwissenschaften – das inzwischen am weitesten verbreitete Verfahren und hat sich auch in den Geisteswissenschaften zunehmend etabliert. Single Blind bedeutet hier, dass der*die Autor*in des Textes zwar dem*der Gutachter*in bekannt ist, umgekehrt der*die Autor*in aber nicht weiß, wer den Text begutachtet. Diese Intransparenz gibt häufig Anlass zur Kritik, da sie Verzerrungen im Prozess der Begutachtung aus persönlichen Motiven heraus begünstigt.
Bei dem bereits seit langem anerkannten und weit verbreiteten Double-Blind-Verfahren sind sowohl Begutachtende als auch Beitragende anonymisiert. Moderiert wird das Verfahren von einer dritten Instanz, in der Regel der Redaktion oder dem*der Herausgeber*in. Double-Blind-Reviews sind in aller Regel transparent für die Redaktion, die die Anonymisierung durchführt und den Begutachtungsprozess begleitet, wobei diese vor allem in kleinen oder sehr spezifischen Fachgebieten oder innerhalb eines kleineren Sprachraums kaum gewahrt werden kann. Dies stellt auch im Redaktionsalltag ein großes Problem dar, da in kleinen Forschungsfeldern viele Personen aufgrund von Befangenheit bereits als potenzielle Begutachtende wegfallen. Darüber hinaus stehen auch die Double-Blind-Verfahren wegen der Intransparenz der Entscheidungsprozesse häufig in der Kritik. Sowohl beim Single- als auch beim Double-Blind-Verfahren kommt es (dies zeigen Vergleiche mit den Ergebnissen aus Triple-Blind-Verfahren) zur Bevorzugung anerkannter Thesen und Wissenschaftler*innen.
In Triple-Blind-Verfahren sind nicht nur Gutachter*innen und Autor*innen einander unbekannt, auch der Redaktion gegenüber erscheint der*die Autor*in nur anonymisiert. Dieses Verfahren kommt bisher wenig zum Einsatz, digitale Publikationsmedien bieten hier das Potenzial, dies sinnvoll zu nutzen: In digitalen Umgebungen kann das Review-Verfahren soweit automatisiert werden, dass Beiträge in einem Portal eingereicht, ohne personellen Zugriff anonymisiert und qua selektierter Schlagwörter wiederum automatisiert Gutachter*innen zugewiesen werden, deren Klarnamen der Redaktion nicht bekannt sind. So ließe sich eine relativ sichere, in dieser Form nur in digitalen Umgebungen umsetzbare Anonymität im Begutachtungsprozess erreichen.
Open-(Peer-)Review-Verfahren können ebenfalls Pre- oder Post-Publication durchgeführt werden und gelten als Alternative zu den oben beschriebenen, etablierten Blind-Peer-Review-Verfahren. Im Vergleich zu Letzteren sind sie noch wenig standardisiert und umfassen verschiedene Verfahren offener Begutachtung.Begleittexte einer Publikation mit ein. Eine Option, die noch darüber hinausgeht, ist die Veröffentlichung auch abgelehnter Einreichungen mitsamt der Gutachten, die zu dieser Entscheidung geführt haben. Attraktiv kann es aber auch sein, Texte zunächst als eine Art Preprint zu veröffentlichen, um diese dann offen von der entsprechenden Fachcommunity begutachten zu lassen, bevor Autor*innen den Text gegebenenfalls erneut überarbeiten und die korrigierte Fassung zur Veröffentlichung freigegeben wird. Zur Begutachtung kann entweder jede*r oder auch nur eine vordefinierte Peer-Group zugelassen werden. Über interaktive Elemente ist es darüber hinaus möglich, dass Autor*innen und Begutachtende in einen Dialog miteinander treten. In offenen digitalen Verfahren besteht die Möglichkeit, zeilen- oder absatzpräzise zu kommentieren und dies entsprechend zu visualisieren. Ein großer Vorteil dieser Arbeitsweise ist neben der angestrebten Transparenz, dass wissenschaftliche Ergebnisse schnell und direkt in der Fachcommunity verbreitet und diskutiert werden können sowie ein ebenso schnelles Feedback erhalten werden kann. Dies sollte allerdings moderiert werden, um sicherzustellen, dass die Regeln guter wissenschaftlicher Praxis beachtet werden. Erfahrungen in dem Bereich zeigen, dass es mitunter schwer ist, eine stabile und vielstimmige Community für eine solche offene Kommentierung zu gewinnen — mindestens im selben Ausmaß wie für traditionelle Begutachtungstätigkeiten stellt sich hier die Herausforderung, den mit einer solchen fachlichen Kommentierung verbundenen (Zeit-)Aufwand als Forschungsleistung anzuerkennen, wenn diese in wenig formalisierter Weise passiert. In der geisteswissenschaftlichen Praxis wird das Verfahren bislang unterschiedlich gut angenommen, was auf eine fehlende Innovationsbereitschaft in den verschiedenen Fachdisziplinen einerseits, aber auch auf eine große Unsicherheit in der Umsetzung andererseits schließen lässt. Digitale Publikationsumgebungen bieten in Hinblick auf offene Review-Verfahren viel Spielraum in der Ausgestaltung und können von Programmierseite auch auf eine sukzessive Offenlegung hin angelegt sein. Ebenso können sie schrittweise angepasst werden oder für Beitragende wie Begutachtende Optionen bereithalten, selbst über den Status der Offenlegung zu entscheiden (Gutachter*in möchte öffentlich genannt werden oder nicht, Gutachten können öffentlich eingesehen werden oder nicht). Grundlage hierfür ist eine sehr transparente und konsistente Versionierung(shistorie) (z. B. mit
Beispiele für Open-Peer-Review-Ansätze:
Mit der steigenden Nutzung digitaler Publikationsformen (beispielsweise digitaler Editionen oder Wörterbücher) verändern sich zunehmend die Anforderungen an Gutachter*innen, da sich die Begutachtung nicht mehr nur auf Inhalte, sondern auch auf die technische Umsetzung beziehen kann. Eine nach der Veröffentlichung durchzuführende, technische Begutachtung könnte beispielsweise die Präsentationsformen,
Der grundsätzliche Einsatz von Review-Verfahren vor oder nach der Veröffentlichung in digitalen Publikationsumgebungen erscheint sinnvoll, da dadurch die Qualität digitaler Publikationen moderiert gestärkt wird und dies zur Konsolidierung des WWW als verlässlichem Publikationsort und vertrauenswürdiges ›Archiv‹ wissenschaftlicher Arbeiten insgesamt beitragen kann. Die vielfältigen operativen Optionen im Review-Verfahren zeigen, dass es eine breite Palette an Gestaltungsmöglichkeiten gibt, die es im jeweiligen Einzelfall zu prüfen sowie für den jeweiligen Einsatz abzuwägen gilt und die in digitalen Umgebungen an das Profil und die Bedingungen der spezifischen Form der Publikation angepasst werden können. Der DHd empfiehlt, dabei solche Verfahren umzusetzen, die einer Öffnung von Wissens- und Wissenschaftsdiskursen Rechnung tragen: Begutachtungsverfahren, die die Transparenz von Ideen fördern, sind daher exklusiven Verfahren vorzuziehen. Abzuwägen bleibt, inwiefern Blind-Verfahren hermetisch organisiert sein müssen, denn auch hier bieten sich Möglichkeiten der Offenlegung. DHd befürwortet digitale Publikationen, die ihr Peer-Review-Verfahren klar benennen und deren Bedingungen und Richtlinien transparent und offen darlegen.
Das Rückgrat jeder digitalen Publikation im wissenschaftlichen Kontext bilden die Zitierfähigkeit und die Stabilität des Textes. Ohne die Möglichkeit von zuverlässigen und beständigen Identifizierungen sind wissenschaftliche Texte in digitaler Form nur eingeschränkt nutzbar und Potenziale des digitalen Publizierens bleiben ungenutzt. Während im modernen Druck der Buchtitel in Verbindung mit Seitenzahlen oder Zeilenzählungen die Grundlage für wissenschaftliches Arbeiten dadurch schuf, dass Aussagen durch Zitate verlässlich überprüft werden konnten, müssen für elektronische Medien Mechanismen geschaffen werden, die Ähnliches leisten. Anders als im Druck können aber nicht mehr physische, materialgebundene Einheiten wie Seitenzahlen verwendet werden, sondern es bedarf spezieller Identifier, die idealerweise weltweit eindeutig sind und die so verlässliche Zugriffsmöglichkeiten auf die Dokumente bieten. Die
Auch besteht bei digitalen Publikationen die Möglichkeit, eine feinere Granularität bei den Referenzierungen zu erreichen. In digitalen Volltexten ist theoretisch jeder Buchstabe gesondert zitierbar und neben den technischen Möglichkeiten, die sogenannte
Ein weiteres Motiv, das in der Entwicklung digitaler Zitationen eine Rolle spielt, ist die Möglichkeit, die Zitationen selbst als Daten zu behandeln. Durch die Verwendung eindeutiger Identifier lassen sich über verschiedene Zitierstile hinweg Referenzen identifizieren und es gibt Repositorien solcher Zitationsdaten, die zu verschiedensten Zwecken ausgewertet werden.
Persistente Identifikatoren liefern folgende Vorteile, mit denen sie die Qualität des wissenschaftlichen Diskurses steigern und das Vertrauen der Wissenschaft in digitale Publikation fördern:
Das Verfahren der persistenten Identifikation wird über sogenannte Persistent Identifier (PID) realisiert. PID trennen anders als die 10.5281/ZENODO.31780) nicht durch das HTTP-Protokoll aufgelöst werden kann, sondern eines dazwischenliegenden Mechanismus bedarf, um auf die zum Objekt gehörende Adresse beziehungsweise https://doi.org/… erreichbaren Dienst), sodass für die Verwendung von PID auch aufgrund ihrer Langfristigkeit eine institutionelle Unterstützung notwendig ist. Da diese Infrastruktur in vielen Fällen nicht die Ressource selbst speichert, sondern nur eine stabile und zuverlässig aktualisierte Assoziation eines eindeutigen und langfristig reservierten Identifiers mit einer ›beweglichen‹, anderweitig gespeicherten Ressource darstellt, ist die Gefahr, die Ressource möglicherweise nicht mehr auffinden und herunterladen zu können, noch nicht gebannt.
Besonderes Augenmerk sollte aber auf das Zusammenspiel von PID-Mechanismus und dem Repositorium gelegt werden, in dem die publizierte Ressource langfristig archiviert werden soll: Oft übernehmen mit langfristiger Datenhaltung betraute Institutionen wie Bibliotheken sowohl die Speicherung als auch die Vergabe von Identifiern und betreuen ›ihre‹ Identifier bei den Resolving-Diensten, d. h. sie aktualisieren die entsprechenden Verweise, wenn die Adresse des Archivals sich doch einmal ändern sollte.
Welche Technik das jeweilige (trusted) Repository für die persistente Identifikation verwendet, ist grundsätzlich abhängig vom vorliegenden Material und dem Verwendungszweck. Daher – und weil verschiedene Disziplinen und Publikationsformen je anderen Gepflogenheiten unterliegen und verschiedene Autor*innen auf je andere institutionelle Angebote zurückgreifen können – kann in diesem Rahmen keine eindeutige Empfehlung ausgesprochen werden. Als ein wesentlicher Vorteil von Digital Objekt Identifier (
Für die Durchsetzung einer persistenten Identifikation sollte der Vorgang der Registrierung einer digitalen Publikation entweder für den*die Autor*in intuitiv und mit wenig Aufwand möglich sein und / oder als Dienstleistung von Forschungseinrichtungen angeboten werden. Die Verpflichtung einer dauerhaften verbindlichen
Da eine der wesentlichen Eigenschaften digitaler Texte ihre Veränderbarkeit ist, ist eine persistente Identifikation alleine jedoch nicht ausreichend, um eine wissenschaftliche Zitierfähigkeit zu gewährleisten. Zusätzlich bedarf es einer Versionierung des Textes mit der Angabe der Versionsunterschiede. Denn es soll ja in der Regel möglich sein, eine Ressource im Zuge weiterer wissenschaftlicher Arbeiten und Erkenntnisse zu aktualisieren, oder umgekehrt, zu erkennen, ob für ein gegebenes – etwa über einen Persistent Identifier aufgefundenes – Dokument die aktuellste oder eine veraltete / historische Fassung vorliegt. Die verschiedenen Fassungen des Dokuments müssen dabei jederzeit wiederherstellbar sein, was eine verlässliche Archivierung erfordert. Durch ein Versionierungssystem werden die Faktoren der Textstabilität und der Modifizierbarkeit von Texten verein- und abbildbar. Ähnlich wie bei Wikipedia ließen sich so frühere Zustände leicht rekonstruieren. Um Möglichkeiten zu schaffen, Texte auch nach deren verbindlicher Veröffentlichung zu bearbeiten, sollten Anbieter*innen von Publikationsumgebungen daher ein Versionierungssystem (z. B. git) anbieten. Grundvoraussetzung für die Wahl eines geeigneten Versionssystems ist wiederum die öffentliche Zugänglichkeit der Texte und die Vergabe von freien Lizenzen.
Vor dem Hintergrund erprobter Web-Technologien und aus technischer Sicht erscheint
Das Verhältnis solcher Strategien zu Persistent Identifiern ist im Übrigen noch klärungsbedürftig, sind doch die im
In den hier vorherrschenden Diskussionen liegt der Schwerpunkt auf dem Zitieren der Texte ›an sich‹, ihrer Passagen und Fragmente sowie ihrer Überarbeitungsstadien. Im digitalen wissenschaftlichen Arbeiten werden Einsichten allerdings zunehmend auch aus gleichsam ›ephemeren‹ Konstellationen gewonnen, die auf der Grundlage von solchen Texten oder Datenbanken und von Benutzer*innen-Interaktionen dynamisch erzeugt werden: Textfragmente werden durch Filter neu zusammengestellt,nur die Oberfläche und nicht ohne Weiteres die zugrundeliegenden Daten erfassen). Diese Fragen werden sicherlich in der zukünftigen AG-Arbeit eine wichtige Rolle einnehmen.
Bei der Verwendung von Persistent Identifiern sind zwei Anwendungsszenarien zu unterscheiden: Während für die maschinelle Weiterverarbeitung die Angabe des Persistent Identifiers vollkommen ausreichend ist, benötigen Forscher*innen zusätzlich weiterhin die gewohnten bibliografischen Angaben. In diesem Bereich existieren eine Reihe von etablierten Zitierrichtlinien, die sich bei den einzelnen Fachdisziplinen unterschiedlicher Beliebtheit erfreuen. Eine Festlegung auf einen Standard erscheint aufgrund der diversen Zitiertraditionen als nicht aussichtsreich. Als gemeinsamer Standard würde jedoch die ISO-Norm 690:2010
Unabhängig von der gewählten Zitierrichtlinie sollte beachtet werden, dass die verwendete Zitierweise obligatorische Angaben für digitale Ressourcen standardisiert berücksichtigt:
Ein Beispiel dafür wäre folgende Zitation:
Katja Kwastek: Vom Bild zum Bild – Digital Humanities jenseits des Textes. In: Grenzen und Möglichkeiten der Digital Humanities. Hg. von Constanze Baum / Thomas Stäcker. 2015 (= Zeitschrift für digitale Geisteswissenschaften / Sonderbände, 1). text / html Format. DOI: 10.17175/sb001_002
Durch diese Angabe würden die bisher üblichen Angaben der URL und des Zugriffszeitpunktes obsolet werden. Denn diese Praxis ist derart unsicher, dass sie nur als temporär befristetes Phänomen gelten kann.
Forscher*innen sollten bei der Zitierung von wissenschaftlichen Texten auf die Angabe der
Für das Zitieren von anderen Datensichten oder für die besonders auf die Oberflächen (https://web.archive.org/web/20200814074420/https://dig-hum.de/ (mit Datum und Original-URL) zur Verfügung stellt. Diese Adresse sollte – natürlich mit weiteren Angaben zur zitierten Ressource sowie mit der Original-Web-Adresse – in Zitationen angegeben werden. Bei der Publikation von Web-Ressourcen sollte darauf geachtet werden, dass alle relevanten Informationen zum Erzeugen einer jeden Ansicht als Parameter in der Adresse enthalten sind, so dass die Kopie des Webarchivs unter der angegebenen Adresse auch tatsächlich die gewünschte Ansicht speichert.
Wie am Beispiel des Internet Archive deutlich wird, ist die Voraussetzung für eine solche nachhaltige Publikations- und Zitationspraxis, dass die Anbieter*innen von Publikationsplattformen neben der Vergabe von PID auch die langfristige Sicherung und die Versionierung der Texte unterstützen. Da dies eine Zusicherung erfordert, die möglicherweise über die eigene Aktivität und Existenz hinausreicht, sollte eine Teilnahme an konsortialen Programmen wie
Diese Punkte sollten bei Projektanträgen auch von den Förderorganisationen als fester Bestandteil gefordert werden.
Open Access, der freie Zugang zu wissenschaftlicher Information
,allen Menschen Wissen ohne finanzielle, technische und rechtliche Barrieren im Internet zur Verfügung
steht.
In der Satzung der DHd heißt es, dass der Verband danach strebt, den freien Zugang und die freie Nutzung von Wissensbeständen und Verfahren (Open Access, Open Source) zu fördern.
Das Prinzip der Offenheit dient vor allem zwei Hauptanliegen der Wissenschaft und damit auch der Digital Humanities.
Man unterscheidet für Open-Access-Veröffentlichungen zwei grundlegende Publikationsstrategien:
Zu den Unterzeichner*innen der
Die DFG verpflichtet ihre Bewilligungsempfänger*innen nicht zur Veröffentlichung der Projektergebnisse in Open Access, spricht aber eine Empfehlung dazu aus. Als Wege der Publikation werden sowohl der grüne als auch der goldene Weg genannt und für Zweitveröffentlichungen besonders auf Repositorien verwiesen.
Die Fördernehmer*innen des FWF sind zur Open-Access-Publikation verpflichtet.[f]ür Forschungsdaten, die den wissenschaftlichen Publikationen des Projekts zugrunde liegen, ist der offene Zugang verpflichtend
.
Der SNF verpflichtet seine Beitragsempfänger*innen ebenfalls grundsätzlich dazu ihre Forschungsergebnisse in Open Access zu veröffentlichen. Dabei gilt die Open-Access-Verpflichtung sowohl bei einer Publikation über den goldenen als auch über den grünen Weg als erfüllt, wenn die Bücher oder Aufsätze spätestens 12 Monate nach der Verlagspublikation frei zugänglich sind.
Da Open-Access-Publikationen zwar nicht auf der Rezeptionsseite, aber sehr wohl auf der Produktions- und Angebotsseite mit Kosten verbunden sind, werden verschiedene Finanzierungs- beziehungsweise Geschäftsmodelle unterschieden. Beispielsweise werden beim
Open-Access-Publikationen sind an rechtliche Rahmenbedingungen gebunden, die im deutschsprachigen Raum vor allem durch das jeweils geltende Urheberrechtsgesetz vorgegeben werden.
Für Open-Access-Publikationen kann eine Spezifizierung der Nutzungs- beziehungsweise Verwertungsrechte mit Hilfe von
Für die Open-Access-Veröffentlichung ihrer Forschungsergebnisse können Autor*innen mittlerweile aus einer großen Anzahl von Publikationsplattformen und Infrastrukturen wählen.
Einen Überblick darüber, welche Verlage Open-Access-Publikationsmöglichkeiten bieten, gibt das Mitgliederverzeichnis der Open Access Scholarly Publishers Association (OASPA), wobei nach Open-Access-Monografien und -Sammelwerken beispielsweise im Directory of Open Access Books und Open-Access-Editionen im Catalogue of Digital Editions recherchiert werden kann. Reine Open-Access-Journals (d. h. keine Hybrid- Open-Access-Zeitschriften) finden sich im Directory of Open Access Journals. Open-Access-Repositorien werden im OpenDOAR – Directory of Open Access Repositories, Forschungsdatenrepositorien im re3data – Registry of Research Data Repositories verzeichnet.
Autor*innen sollten sich der Bandbreite der möglichen Publikationsstrategien sowie ihrer Spielräume bei der Aushandlung von Verlagsverträgen (z. B. Vertragszusätze) bewusst sein und Verlagen die Verwertungsrechte an ihren Publikationen nicht exklusiv übertragen.
Wenn Autor*innen die entsprechenden Verwertungsrechte an den Verlag übertragen haben, sollten sie jedenfalls von ihrem Zweitveröffentlichungsrecht / Zweitverwertungsrecht Gebrauch machen und die jeweils erlaubte Fassung ihrer Verlagspublikationen als Open-Access-Publikation zur Verfügung stellen.
Es wird ein aktives Open-Access-Publizieren einschließlich offener Forschungsdaten etc. empfohlen. Die Entscheidung für / gegen den grünen oder goldenen Weg sowie Open-(Research-)Data etc. sollten die Autor*innen allerdings immer abhängig von den jeweiligen ethischen, rechtlichen und finanziellen Rahmenbedingungen in jedem Einzelfall treffen.
Die Möglichkeiten der (Nach-)Nutzung von Publikationen, Forschungsdaten etc. sollten über urheberrechtliche Regelungen hinaus durch Open-Content-Lizenzen explizit gemacht werden. Die Spezifizierung von Open-Content-Lizenzen sollten möglichst wenig restriktiv sein, sondern so frei und offen wie möglich (z. B. CC BY).
Wissenschaftler*innen sollten ihrerseits Open-Content-Angebote (z. B. Open Research Data, Open Supplementary Material, Open Source) nachnutzen.
Autor*innen sollten insbesondere bei Open-Access-Veröffentlichungen prüfen, ob der in Frage stehende Verlag als vertrauenswürdig angesehen werden kann, da einige betrügerische Anbieter Open-Access-Geschäftsmodelle (aus-)nutzen.
Der Standardfall bei der Rechteübertragung an Verlage sollte nicht mehr in einer automatischen Übertragung von ausschließlichen, sondern lediglich in einer von einfachen Nutzungsrechten bestehen.
Mit der Einführung einer Bildungs- und Wissenschaftsschranke (in Deutschland), beziehungsweise freien Werknutzung (in Österreich) im Rahmen des Urheberrechts sollten auch Möglichkeiten für einen freien Zugang zu möglichst allen unterschiedlichen Publikationsformen und zu deren Nachnutzung – vergleichbar der
Das bestehende Zitatrecht insbesondere für Lichtbilder beziehungsweise Lichtbildwerke sowie Ton- beziehungsweise Filmaufnahmen sollte wissenschaftsfreundlich erweitert werden.
Das bestehende Zweitveröffentlichungsrecht / Zweitverwertungsrecht sollte im Sinne der Autor*innen weiter liberalisiert werden, sodass zukünftig beispielsweise auch Buchkapitel und Beiträge in Sammelbänden oder ganze Bücher im Zuge einer Zweitveröffentlichung rechtssicher Open Access verfügbar gemacht werden können.
Die Grundausrichtung einer offenen Wissenschaft (Open Science / Open Scholarship) sollte über den Beschluss entsprechender Positionspapiere und Absichtserklärungen hinaus nachhaltig gefördert werden.
Die wissenschaftspolitischen Vorgaben und Empfehlungen hinsichtlich einer offenen Wissenschaft (Open Science / Open Scholarship) sollten konsequenter gefördert und umgesetzt werden.
Open-Access-Publikationen (einschließlich offener Forschungsdaten etc.) von Autor*innen sollten in der Forschungsbewertung besonders honoriert werden.
Für Bibliotheken sollte eine sukzessive anteilige Umwidmung von Erwerbungsmitteln zur Finanzierung offener digitaler Publikationen, Infrastrukturen und Services vorgesehen sein.
Institutionelle Publikationsfonds zur Finanzierung der Gebühren von Open-Access-Publikationen sollten langfristig abgesichert werden.
Es sollten fachspezifische Kriterien und Anreizsysteme für den Aufbau und die Förderung von Open-Science-Infrastrukturen und -Services entwickelt werden, insbesondere Prozesse zur Standardisierung beziehungsweise Interoperabilität.
Infrastrukturleistungen (z. B. Aufbau, Betrieb und Weiterentwicklung von Open-Science-Infrastrukturen, Programmieren von Softwareanwendungen) sollten mehr Anerkennung finden und bei der Kreditierung entsprechend berücksichtigt werden.
Verlage sollten zeitgemäße und möglichst modularisierte Dienstleistungen für digitale Publikationen entwickeln und anbieten.
Open-Access-Angebote von Verlagen sollten nicht nur auf den Zugang (Leserecht) beschränkt bleiben, sondern möglichst offene Lizenzen bieten, die auch das Recht auf Vervielfältigung, Weiterbearbeitung und Langzeitarchivierung einschließen.
Die hier vorliegende überarbeitete Version des
Digitales Publizieren bleibt ein Feld mit noch nicht ausgeschöpftem Potenzial und viel Experimentierfreude. Dies drückt sich nicht zuletzt in einer verstärkten Zuwendung zu Open-Peer-Review-Verfahren und dem Einsatz communitybasierter Qualitätssicherungsmaßnahmen aus – auch dieses
Die Herausgeber*innen und Autor*innen sind für alle Verbesserungsvorschläge und Hinweise für eine weitere Überarbeitung des Papers dankbar, dafür kann gerne die Mailadresse t.steyer@tu-braunschweig.de genutzt werden. Alle Links und Verweise wurden letztmalig am 7. September 2020 überprüft.
Folgende Autor*innen waren an der ersten und zweiten Version des
Kapitel 1
Kapitel 2
Kapitel 3
Kapitel 4
Kapitel 5
Kapitel 6