DHd-Arbeitsgruppe "Digitales Publizieren"

1. Was sind digitale wissenschaftliche Publikationen und welche Möglichkeiten bieten sie?

vorgelegt von Christian Schwaderer (Universität Tübingen), (Thomas Stäcker (Herzog August Bibliothek Wolfenbüttel) und Niels Oliver Walkowski (Berlin-Brandenburgische Akademie der Wissenschaften / KU Leuven)

Digitale wissenschaftliche Publikationen zeichnen sich durch die Möglichkeiten des Mediums aus und erweitern methodisch die Verfahren wissenschaftlicher Ergebnissicherung. Durch die neuen Möglichkeiten des Internets wird zugleich eine Begriffsbestimmung, was eine Publikation sei, schwerer. Vor allem die Unterscheidung von Kommunikation und Publikation ist kaum noch möglich und beide Welten durchdringen einander. Der folgende Abriss geht daher von einem eher weiten Publikationsbegriff aus. Dazu zählen ohne Anspruch auf Vollständigkeit:

  • Digitale Texte in traditionellen Formen: Monografien, Aufsätze, Rezensionen, Editionen, Kommentare    

  • Visualisierungen, Bilder, multimediale Inhalte

  • Forschungsdaten

  • Tools, Software und Algorithmen

  • Wissenschaftskommunikation in sozialen Medien (Blogposts, Tweets u.ä)

Der wissenschaftliche Qualitätsanspruch der digitalen Publikation ist derselbe wie bei gedruckten Publikationen. Nachprüfbarkeit, logischer Aufbau, klar formulierte Fragestellungen, kritische Auseinandersetzung mit den bisherigen Forschungsergebnissen, Reflexion von Methoden, sprachliche und strukturelle Exaktheit und schließlich die Erwähnung von den eigenen Schlüssen zuwider laufenden Fakten sind selbstverständlich auch Basis digitalen wissenschaftlichen Arbeitens.

Bei der Bereitstellung digitaler Ressourcen spielt die Möglichkeit zur maschinellen Verarbeitung bzw. Prozessierbarkeit die entscheidende Rolle und kann als konstitutiv für den Begriff der digitalen Publikation angesehen werden. Dabei muss allerdings das Ziel, auf das hin die digitale Aufbereitung erfolgen soll und die Form der Prozessierung, mitbedacht werden.  Digitale Ressourcen werden in dieser Funktion oft auch als Forschungsdaten bezeichnet. Zu diesen zählen alle strukturierten oder semistrukturierten Datenobjekte, wie z.B Datenbanken, RDF triple oder mit Markup ausgezeichnete Volltexte, aber auch Images und andere multimedialen Objekte, sofern sie Gegenstand eines Algorithmus werden können. Zu den Forschungsdaten gehören auch alle Daten, die die Hypertextualität des Objektes ermöglichen.

In diesem Sinne digital re-kodierte oder direkt erzeugte Ressourcen bieten insofern einen Mehrwert, als sie vermittels geeigneter Algorithmen Gegenstand von Forschungsfragen werden können, die sich digitaler Methoden bedienen. So kann z.B. die zum Zwecke der digitalen Verarbeitbarkeit modellierte Textstruktur mit einem variablen Layout versehen, dynamisch modifiziert, in verschiedene Forschungskontexte eingebettet, im Hypertext referenziert oder mit einem Interface versehen werden, das für den an den Daten Interessierten passende spezifische Abfragen und Ansichten ermöglicht. Mit Text-Mining-Techniken sind z.B. Aussagen über den Urheber (Stilometrie) oder automatische Identifikation von Themen (Topic Modelling) möglich. Digitale Publikationen können auch selbst Gegenstand von Forschungsfragen sein, funktional also zu Forschungsdaten werden. Diese Prozesse werden unter Begriffen wie Data Lifecycle u.ä. diskutiert. Ein solches Publikationsdesign bzw. –modell erfordert konzeptionelle Arbeit, ist integraler Bestandteil und Ergebnis geisteswissenschaftlicher Forschung und keine technisch-abstrakte Routine.  

Bislang gibt es in den Geisteswissenschaften jedoch keine etablierten Verfahren, die ähnlich wie in der Printkultur vorschreiben, wie eine Publikation von in diesem Sinne verstandener Forschungsdaten technisch und organisatorisch erfolgen soll. Immerhin zeichnet sich ab, dass in technischer Hinsicht auf eingeführte offene Standards für Daten und Metadaten wie XML (konkret: Schemata wie TEI, MEI, etc.) für strukturierte Volltexte, METS, EAD, LIDO für Metadaten, RDF für semantische Daten und REST, SPARQL o.ä. für Schnittstellen oder Abfragemöglichkeiten zurückgegriffen werden sollte. Nicht-strukturierte Dateiformate für Texte wie z.B. PDF sind demgegenüber zu vermeiden und allenfalls als Lesederivate oder Simulacra für den Druck nützlich.

Auch wenn Kommunikationsmedien wie Blogs und soziale Netzwerke eine zunehmend wichtigere Rolle spielen, ist der nach wie vor häuftigste Fall digitalen Publizierens im geisteswissenschaftlichen Feld die Publikationen eines längeren Textes (Monografie, Artikel). Da die Transformation der jeweiligen Ressource in eine maschienenlesbare und damit prozessierbare Form, d.h. die Umwandlung einer Ressource zu Forschungsdaten, Voraussetzung für deren Nutzung im Kontext der Digital Humanities ist, muss auch die Monografie oder der Artikel in Anmessung an die jeweilige Forschungsfrage so aufbereitet werden, dass er diesen neuen Nutzungszusammenhängen genügt. Texte werden nicht mehr nur gelesen, sondern auch gerechnet. Hier muss es also darum gehen, die Struktur und Bedeutung des Textes so zu modellieren, dass er Gegenstand algorithmischer Auswertungs- und Visualisierungsprozesse werden kann. Typischerweise erfolgt dies mit deskriptiven Markup (im Unterschied zu prozeduralem Markup)[1] in XML nach dem OHCO-Modell, auch wenn letzteres mit Blick auf überlappendes Markup immer wieder in die Kritik geraten ist und auch grundsätzliche Kritik an der Adäquatheit des OHCO Models zur Abbildung sprachlicher und begrifflicher Phänomene geäußert wurde. Damit soll erreicht werden, dass ein digitaler Text (im weitesten Sinne) nicht nur auf der Grundlage von Wörtern und Sätzen analysiert werden kann, sondern auch, dass seine Bedeutung durch die Einbringung von inhaltlichen (deskriptiven bzw. semantischen) Markup explizit und damit prozessierbar gemacht wird.

Wenn der kodierte Text sich je nach Kontext oder nach Wunsch des Nutzers/der Nutzerin in unterschiedlichen Viewport- oder Layoutformen präsentieren lässt, verwandelt sich die sichtbare Oberfläche und ist nur noch ein dynamisches und volatiles Produkt unsichtbarer, aber werkkonstitutiver Grundstrukturen, auf die Algorithmen angewendet werden. Er ist damit prinzipiell anders zu bewerten als die starre und unveränderbare Oberfläche zweidimensionaler gedruckter Publikationen, die bedeutungstragendes Markup im Layout kodieren (etwa: kleine Zahl unten ist eine Fußnote, kleine Zahl über dem Textblock ist eine Seitenzahl etc.).

Einen solchen Grundtext schreiben heißt daher, seine Nutzung in einem digitalen Kontext zu antizipieren und analytische Auswertungsmöglchkeiten wie Darstellungsmöglichkeiten mit zu konzipieren. Wichtiger als die typografische Ausgestaltung ist daher die Kodierung der Bedeutung des Textes durch sachgerechtes und standardkonformes Markup.

Mit deskriptivem Markup versehene Texte müssen, um in vollem Sinne für DH-Anwendungen nachnutzbar zu sein, auch Auskunft über ihren Dokumenteninhalt und Kodierungspraxis geben. Mit anderen Worten, maschinenlesbare bibliographische, strukturelle, administrative und technische Metadaten und die Kodierungsvorschriften müssen bekannt sein. Insofern ist die Beigabe und Bereitstellung von Metadaten sowie Schemadateien, die Inhalt und Struktur des deskriptiv kodierten Textes dokumentieren, essentiell.

An dieser Stelle muss offen bleiben, wie die „Semantik” praktisch in den Text kommt. Wünschbar wäre, dass das descriptive markup direkt durch den/die Wissenschaftler/Wissenschaftlerin erstellt wird. Dazu müssen jedoch leicht zu bediende Editoren und Tools entwickelt werden, um zu einer breiten Akzeptanz für diese Art zu schreiben zu kommen. Denkbar ist aber auch, dass diese Arbeit durch das jeweilige Publikationsorgan, die Plattform, die Online-Zeitschrift o.ä. übernommen wird. Wichtig ist, dass die in den Text hineinkodierten Strukturen allen an der Textherstellung beteiligten Personen bekannt sind, weil sie einen wesentlichen Teil des digitalen Textes bilden und ihn ebenso charakterisieren wie die in ihm enthaltenen Worte und Formulierungen. Das descriptive markup beschränkt sich nicht nur auf Text (als schriftlichen Ausdruck), sondern erstreckt sich auch auf nicht-textliche Daten wie Abbildungen, Videos oder Programmcode.

Ein markantes Kennzeichen digitaler Texte ist deren Veränderbarkeit und prinzipielle Offenheit. Sie können nach der (Erst)Publikationen fortgeschrieben werden. Vor diesem Hintergrund zeichnet sich ein Trend von der Ergebnispublikation zur Prozesspublikation ab. Ob dies in allen Fällen klug und geraten ist, kann hier nicht entschieden werden, wenn aber von dieser Möglichkeit Gebrauch gemacht wird, sollte eine digitale Publikation Auskunft über ihren Status geben, indem entweder technisch Versionierungsverfahren angeboten werden oder aber sie mit einer Erklärung über ihren jeweiligen Zustand sowie mit einer Erläuterung zur Nachvollziehbarkeit der Entwicklungsschritte ausgestattet wird. Gerade in diesem Moment unterscheidet sich eine digitale Publikation deutlich von ihrem gedruckten Pendant, das solche Prozesse nur in verschiedenen Auflagen zu realisieren vermochte.

Darüber hinaus sind digitale Texte vor allem auch Knoten in Netzwerken. Ein Buch öffnet das andere, wie ein altes Sprichwort sagt. Die Vernetzungfähigkeit ist eines der wichtigsten Eigenschaften des digitalen Textes (Hypertextualität). Genutzt wird heute vor allem die Möglichkeit, Quellen bzw. die Aussagen belegende Dokumente und Literatur einzubinden, so dass implizit ein Netz entsteht, das seinerseits Gegenstand der Analyse werden kann (Netzwerkforschung, Bibliometrie, Relevanzanaylse, citation index etc.). Über den klassischen Link hinaus gewinnt zunehmend auch das semantic web an Bedeutung. Hier werden Verknüpfungsinformationen in Gestalt von Linked Open Data (LOD) angeboten. Darin mitgedacht ist, dass digitale Texte soziale oder sozialisierbare Produkte sind, die Anknüpfungs- und Zielpunkt nicht nur der engeren wissenschaftlichen Interaktion und des Diskurses, sondern auch der breiteren Öffentlichkeit sind, der sich wieder in Texten (Annotationen, Blogs, Büchern, etc.) niederschlägt und neue Formen der Transparenz und Rückwirkung auf die wissenschaftliche Praxis und des wissenschaftlichen Erkenntnisprozesses mit sich bringt. Es geht also nicht nur um einen engeren vernetzten Dokumentenraum, sondern ein offenes Netz, in dem sich kommunikative mit literarisch-wissenschaftlichen Publikationsfomen mischen.

Zur Nutzung im Netz gehört auch die weltweit eindeutige und verlässliche Referenzierbarbeit und Langzeitverfügbarkeit von Dokumenten. Während Zitierformen für elektronische Texte unterhalb der Dokumentebene noch ungenügend standardisiert sind (der Wegfall der physikalischen Seitenreferenz erzwingt neue Zitierformen), haben sich für die Dokumentebene eine Reihe von Services etabliert, die ein persistentes Zitieren erlauben (DOI, URN, HANDLE und PURL sind die häufigsten). Die Frage der dauerhaften Verfügbarkeit und Archivierung der Dokumente ist auf der bitstream Ebene weitgehend gelöst, die komplexe Ebene der information representation  (nach der OAIS Formulierung) harrt jedoch weiterhin geeigneter Sicherungsverfahren und solte Gegenstand intensivierter Forschung der dokumentverwahrenden und - sicherenden Einrichtungen (Bibliotheken, Archive, Museen) werden. Die transparente Kodierung mit deskriptivem Markup kann ein wichtiger Schritt in diese Richtung sein.

Empfehlungen an

a. DH-Community

  • Nehmen Sie neue Publikationsformen ernst – sowohl aktiv-schreibend als auch passiv-rezipierend.

  • Publizieren Sie Forschungsergebnisse zusammen mit Forschungsdaten.

  • Berücksichtigen und kodieren Sie die semantische Struktur Ihrer Publikation, machen Sie Dokumente maschinenlesbar und prozessierbar. Daraus folgt: Nutzen Sie PDF nicht als primäres Publikationsformat (Kodierungsschicht), sondern, wenn überhaupt, als derivatives Lesefomat.

  • Sorgen Sie für die Vernetzung Ihrer Publikation.  

  • Sorgen Sie für persistentes Adressieren und Langzeitverfügbarkeit.

  • Bedenken Sie die Notwendigkeit der Versionierung Ihrer Dokumente.

  • Arbeiten Sie transparent durch Beigabe von Metadaten und Schemadateien und wirken Sie an der Gestaltung neuer Formen mit.

  • Nutzen Sie eingeführte Standards. Etwa XML-Standards wie TEI oder MEI oder Metadatenstandards wie METS, EAD oder LIDO sowie Normdaten zur Entitätenbeschreibung wie GND, Geonames oder TGN und Standards des semantic web wie RDF.

  • Arbeiten Sie kollaborativ und nutzen Sie Infrastrukturen, die Sie in der offenen Publikation (Open Access s. unten) und Archivierung unterstützen.

b. Politik/Förderinstitutionen/akademische Institutionen

  • Nehmen Sie die neuen Publikationsformen ernst. Fördern Sie eine neue Art der Anerkennungskultur für digitale Publikationen.

  • Fördern Sie Innovationen und bedenken Sie die Möglichkeiten des Scheiterns: Fördern Sie nicht nur Projekte, die sich auf ausgetretenen Pfaden bewegen und/oder bei denen sich ein Erfolg bereits abzeichnet.

  • Ermöglichen Sie durch Projektförderungen die Entwicklung passender Tools.

  • Fördern Sie die Neuentwicklung und den Umbau von Publikationsinfrastrukturen und den Aufbau neuer Dienstleistungsformen im Bereich der digitalen Publikation, z.B. durch die engere Verschränkung von Forschung und Forschungsinfrastrukturen (Bibliotheken, Archive, Museen etc.).

  • Fördern Sie Projekte, bei denen die Aufbereitung von Ergebnissen und Daten in einer digitalen Publikation integraler Bestandteil des Arbeitsplans ist. Vermeiden Sie die alleinige Förderung statischer Publikationsformen wie PDF.

  • Bringen Sie die Forderung nach dem Aufbau der „digitalen Gesellschaft“ in Einklang mit den Bedingungen der wissenschaftlichen Realität. Die Geisteswissenschaften verstehen sich als Spiegel der digitalen Gesellschaft und haben einen besonderen Bedarf an Anpassung der Rahmenbedingungen ihres Arbeitens und Schaffung von digitalen Infrastrukturen.

  • [1] descriptiv markup steht hier als Bezeichnung für eine von mehreren Varianten zur Bezeichnung der Kodierung von “Bedeutung”.

2. Was kennzeichnet die digitale wissenschaftliche Autorschaft?

vorgelegt von Anne Baillot (Centre Marc Bloch, Berlin/DARIAH-EU) und Thomas Ernst (Universität Duisburg-Essen)

2.1. Kollaborative Autorschaft in den digitalen Geisteswissenschaften

Der Übergang vom Wissen kompilierenden "Gelehrten" zum forschungsbasierten "Wissenschaftler" um 1800 hatte auch zur Folge, dass wissenschaftliche Erkenntnisprozesse fortan in abgeschlossene Monografien und Aufsätze mündeten, die über die Zuschreibung einer individuellen Autorschaft verifiziert wurden. Dieses Vorgehen ist in digitalen wissenschaftlichen Veröffentlichungen weiterhin möglich, wenn man beispielsweise die Monografie einer Autorin oder eines Autors als PDF veröffentlicht.

Die Potenziale des digitalen Medienwandels werden für eine bessere geisteswissenschaftliche Praxis jedoch erst wirklich genutzt, wenn Erkenntnisprozesse stärker kollaborativ betrieben und als dynamisch verstanden und entsprechend transparent abgebildet werden. Es ist gerade ein Vorzug digital gestützter Erkenntnisprozesse, dass sich Wissenschaftlerinnen und Wissenschaftler auf verfügbare Texte und Ressourcen beziehen und diese in einem andauernden Prozess kommentieren, modifizieren und verbessern können. Hierzu bieten sich "flüssige" Formate wie beispielsweise Wikis, Living Books, Open-Review-Plattformen oder Weblogs an.

Komplexe Autorschafts- und Beiträgerrollen und ihr Impact

In solchem Schreibprozessen müssen verschiedene Autorschafts- und Beiträgerrollen zu verschiedenen Zeitpunkten der Produktion, Distribution oder produktiven Rezeption/Nutzung einer Ressource ausgewiesen werden. Dies setzt aber voraus, dass sie zunächst definiert werden. Lässt man sich auf diese Ausdifferenzierung der Rollen und Verantwortlichkeiten ein, wird nur offensichtlicher, dass auch gedruckte wissenschaftliche Veröffentlichungen in verschiedenem Maße kollaborativ entstanden sind.

Der bisherige reduktionistische Lösungsansatz, in kollaborativen Schreibverfahren durch die Reihenfolge von Namen eine eindeutige Hierarchie der Autoren zu suggerieren, bleibt der Grundidee von klar bestimm- und hierarchisierbaren Einzelautorschaften verhaftet. Demgegenüber ist es notwendig, die komplexen Autorschaftsrollen in den digitalen Geisteswissenschaften explizit zu differenzieren und zu benennen sowie eine entsprechende Zuschreibungskultur institutionell zu etablieren.

Zu den möglichen nennenswerten Rollen einer digitalen wissenschaftlichen Autor- oder Beiträgerschaft gehören:

  • Hauptherausgeber/in, Nebenherausgeber/in, Kurator/in, Moderator/in;

  • Programmierer/in, Datendesigner/in, Kodierer/in, Datenanalyst/in;

  • Hauptautor/in, Nebenautor/in, Co-Autor/in,[2] Interviewer/in, Panelist/in, Mitdiskutant/in, Archivar/in, Annotator/in, Tagger/in;

  • Lektor/in, Kommentator/in, Redakteur/in, Textgestalter/in;

  • Rechercheur/in, wissenschaftliche Hilfskraft;

  • Lizensor/in, Rechtsberater/in;

  • Subkribent/in, Crowdfunder/in, Sponsor/in, Crowdsourcer/in.

Diese Rollen, die darüber hinaus nach verschiedenen Graden abgestuft werden können, sollten im Kontext des jeweiligen wissenschaftlichen Beitrags differenziert und klar zugeschrieben werden. Dynamische Projekte sollten zudem in klar referenzierbare Versionen aufgeteilt werden. Dies würde die persistente Markierung ermöglichen, auf welche aktuelle oder frühere Version eines Textes oder einer Datenbank sich die jeweilige Mitarbeit in einer entsprechenden Rolle bezieht. Auf diese Weise kann zudem der Impact einer spezifischen wissenschaftlichen Tätigkeit noch genauer bestimmt werden, wobei es empfehlenswert ist, die aktuell zentrale Zitationsform ‚Autor/Jahr’ (z.B. Schmidt 2010) bei dynamischen und sozialen Veröffentlichungen auf ‚Kurztitel/Version’ (DHd-Publ/01) umzustellen. Eine solchermaßen geänderte Zitationsweise wäre nicht nur wissenschaftlich präziser, sie würde zugleich die Relativierung der Autorinstanz für die Verifikation des jeweiligen Erkenntnisprozesses durch eine stärkere Konzentration auf die Dynamik und Kollaborativität der Schreibverfahren selbst abbilden.

Schwärme in und außerhalb der Wissenschaft und die anonyme bzw. pseudonyme wissenschaftliche Autorschaft

In der digitalen Wissensproduktion werden Begriffe wie "Schwarm" oder "Crowd" für eine große Masse genutzt, bei der die namentliche Differenzierung und Individualisierung kaum noch möglich oder sinnvoll ist. Dies gilt beispielsweise bei der Erstellung von großen Datenbanken, der Arbeit an freier Software oder auf Dokumentationsplattformen. Auch die neuen Partizipationsmöglichkeiten für Bürger , die zwar nicht in wissenschaftlichen Institutionen arbeiten, sich aber konstruktiv am wissenschaftlichen Diskurs beteiligen, können fruchtbar gemacht werden. Dies hilft der Wissenschaft doppelt: einerseits vergrößert sich die Zahl potenzieller Beiträger zum wissenschaftlichen Erkenntnisprozess, andererseits hilft diese Entwicklung bei der Dissemination wissenschaftlicher Erkenntnisse in die Gesellschaft.

Unter anderem aus institutionellen Gründen kann es mitunter sinnvoll und im Sinne einer besseren wissenschaftlichen Praxis sein, wenn Beiträger im Wissenschaftsbereich  anonyme oder pseudonyme Autorschaften nutzen, die sich beispielsweise auf "digitale Identitäten" beziehen. Solche Autorschaftsnamen oder die Kollektivautorschaft als "Schwarm" ist in den digitalen Geisteswissenschaften jedoch nur produktiv, wenn sie innerhalb einer Community genutzt werden, die ihren Erkenntnisprozess durch klare Methoden, Kategorien und Regeln definiert hat, und in Projektkontexten, die offen zugänglich und inhaltlich nachprüfbar sind.[3]

2.2. Best-Practice-Beispiele

Living Books, Open-Review-Bücher und Social Reading/Commenting

  • Kathleen Fitzpatrick: Planned Obsolescence. Publishing, Technology, and the Future of the Academy, Auf der Plattform: Media Commons Press. Open Scholarship in Open Formats. [online]

  • Matthew K. Gold: The Digital Humanities Moment. Die Expanded Open Access-Edition des Buches Debates in the Digital Humanities. [online]

  • Helene Hahn u.a.: DH Handbuch [online]

  • Nick Montfort / Patsy Baudoin / John Bell / Ian Bogost / Jeremy Douglass / Mark C. Marino / Michael Mateas / Casey Reas / Mark Sample / Noah Vawter: 10 PRINT CHR$(205.5+RND(1)); : GOTO 10. Cambridge; London 2013. [online]

  • Kodierung der Verantwortungszuordnung nach den Richtlinien der Text Encoding Initiative: Das Element <respStmts> [online]

Kollaborative Datenbanken und virtuelle Forschungsumgebungen

  • TextGrid. Virtuelle Forschungsumgebung für die Geisteswissenschaften [online]

  • CENDARI [online]

  • Kollaborative Transkriptionsplattformen: Transcribe Bentham [online], Old Weather: Whaling Logbooks [online], Annotate [online], Shakespeare’s World [online]

Wikis und kollaborative Dokumentationsplattformen

  • Diverse Autoren: GuttenPlag Wiki. [online]

  • Diverse Autoren: VroniPlag Wiki. [online]

  • Diverse Autoren: Wikipedia. [online]

Soziale Medien

  • Diverse Autoren: Twitter-Hashtag #dhd2014. [online]

Weblogs

  • de.hypotheses.org. Wissenschaftliche Blogs: Redaktion. [online]

  • Weblog mit eingebautem Peer-Reviewing /Annotationsoption: hypothes.is [online] nach den Prinzipien der Open Annotation [online]

2.3. Empfehlungen an a) DH-Community, b) Politik, c) Förderinstitutionen/akad. Institutionen

Empfehlungen an die DH-Community

Für die digitalen Geisteswissenschaften ist es unerlässlich, dass sich ein bewusster Umgang mit kollaborativen Autor- und Beiträgerschaften etabliert und die jeweiligen Rollen differenziert, klar und persistent zugewiesen werden.

Daneben ist es eine wissenschaftspolitische Aufgabe der DH-Organisationen und ihrer Vertreterinnen und Vertreter, auch in der politischen Öffentlichkeit und in den akademischen Institutionen diese Formen einer kollaborativen (und ggf. auch anonymen oder pseudonymen) Autorschaft als Teil einer besseren wissenschaftlichen Praxis zu legitimieren und zu etablieren. Dies bedeutet zum einen eine kompetente Hilfestellung bei der Aufbereitung der zu berücksichtigenden Rollen, Kompetenzen und Zuweisungen und zum anderen die Einrichtung von wissenschaftlichen Organen zur selbständigen Evaluierung solcher Rollen im Kontext der einschlägigen online-Ressourcen.

Empfehlungen für die Förderinstitutionen und akademische Institutionen

Wissenschaftliche Förderinstitutionen entscheiden sich bei der Vergabe von Forschungsmitteln im Regelfall auch für die Förderung eines spezifischen Autorprofils, feste Stellen an Universitäten werden gerade auch auf Basis individueller  Schriftenverzeichnisse (Monografien und Aufsätze mit Einzelautorschaft) vergeben. Für die Stellenprofile der digitalen Geisteswissenschaften ist allerdings eine Vielzahl von methodologischen, analytischen, informationellen und gestalterischen Fertigkeiten wichtig, die im Regelfall in kollaborativen Projektzusammenhängen erworben werden. Daher sollten diese Institutionen Verfahren entwickeln, wie sie differenzierte Autorschafts- und Beiträgerrollen als Teil ihrer Vergabepraxen nutzen können.

Zudem ist es wichtig, dass in den Digital Humanities noch stärker interdisziplinär, historisch und kritisch zu Fragen des geisteswissenschaftlichen Autorschaftsbegriffs, zur Geschichte des kollaborativen Schreibens und zur Wissenschaftlichkeit verschiedener Textformate geforscht wird.

Empfehlungen an die Öffentlichkeit und die Politik

Digitale wissenschaftliche Publikationen spielen weit mehr als ihre analogen Vorbilder auch in die nicht-wissenschaftliche Öffentlichkeit hinein und können gerade durch ihre Transparenz und soziale Medialität in einen offenen Diskurs mit anderen gesellschaftlichen Gruppen treten. Die Bedeutung einer solchen Popularisierung des wissenschaftlichen Wissens für seine gesellschaftliche Verbreitung und Nutzung sollte innerhalb der akademischen Institutionen aufgewertet werden, zumal die Digital Humanities auf diese Weise ihre Rolle als die eigentliche kritische Reflektorin der digitalen Gesellschaft stärken können. Auch spezifisch digitale Veröffentlichungsformen wie Blogpostings und die intensive Nutzung sozialer Medien zur Wissenschaftskommunikation oder die Mitarbeit an Datenbanken und virtuellen Forschungsumgebungen sollten als wichtiger und innovativer Teil des wissenschaftlichen Publizierens berücksichtigt werden.

Medien, Politik, Universitäten und Schulen sollten eine Kultur vertreten, in der die mediale Konstellation einer Interaktion zwischen wissenschaftlichen Autorinnen und Autoren und sogenannten "Laien" produktiver gemacht werden kann.  Die in solchen digitalen Öffentlichkeiten notwendigen Medienkompetenzen sollten deshalb wesentlich stärker in der akademischen und schulischen Lehre verbreitet werden.


  • [2] Es könnten natürlich auch mehrere Autor/innen als Haupt-, Neben- oder Co-Autor/innen auf derselben Ebene geführt werden.
  • [3] Der jeweilige Impact wird zunächst einer anonymen oder pseudonymen Autorschaft zugeschrieben, kann jedoch später auch auf einen anderen Autor- oder Beiträgernamen übertragen werden, wenn diese Verbindung von Beginn an bei einer dritten Stelle hinterlegt wurde und nachweisbar ist.

3. Peer Review-Verfahren und ihre Rahmenbedingungen

vorgelegt von Constanze Baum (Forschungsverbund MWW/HAB Wolfenbüttel) und Esther Chen (MPIWG Berlin)

1. Digitale Gutachterkulturen

Gutachterkulturen werden in zunehmendem Maß als relevant für wissenschaftliches Publizieren in den Geisteswissenschaften eingestuft. Für das digitale Publizieren gelten Peer Review-Verfahren dabei in gesondertem Maß als Garant für eine durchgeführte Qualitätskontrolle, die nicht nur die Seriosität des wissenschaftlichen Werks selbst belegt, das bewertet wird, sondern zugleich auch die Legitimität der digitalen Plattform stärkt, auf der publiziert wird. Fördergeber setzen zunehmend voraus, dass Forschungsergebnisse in digitalen Publikationsumgebungen mit einem nachgewiesenen Review-Verfahren veröffentlicht werden. Etabliert ist durch die Printmedien das sogenannte Peer Reviewing – oft fälschlicherweise synonym mit dem double-blind Verfahren gebraucht –, das als eine Form von Bewertung durch anerkannte Autoritäten im Fach verstanden wird. Dies birgt jedoch bereits Setzungen, die vom Wissenschaftsbetrieb nicht unkritisch gesehen werden. Denn viele Faktoren beeinflussen den Begutachtungsprozess und prägen die Gutachterkultur, angefangen von der Auswahl der Gutachter über Fragen der quantitativen Selektion eines Publikationsmediums bis hin zu Verfahren der Kommunikation über die Entscheidungsfindung. Je nach Betrachtungsweise lassen sich Gutachterverfahren demnach zwischen einer Unkultur von etablierten Seilschaften und Machtkonstellationen einerseits und der Vorstellung einer angenommenen Idealität wissenschaftlicher Fairness mit dem Ziel einer objektiven Beurteilung andererseits verorten. Faktoren, die den Begutachtungsprozess bestimmend lenken, betreffen darüber hinaus Fragen der Ökonomisierung, die mit einer Textvermarktung einhergehen (z.B "Author Pays"-Debatte). Es stellt sich zudem die Frage, ob die angestrebte Anonymität bei Review-Verfahren dem Prozess einer Öffnung von Wissenschaftskulturen im Sinne einer Open Science entgegensteht (Blind-Verfahren vs. Open Review).

Diese kurze Bestandsaufnahme zeigt bereits, dass ein einheitliches Bild einer Gutachterkultur nicht zu erhalten ist. Gutachterkulturen spiegeln vielmehr ein Verständnis der Wissenskultur wider, aus der sie stammen und die sie begleiten und bewerten. Für das digitale Publizieren können die Konventionen des Peer Review grundsätzlich überdacht werden, da es im digitalen Raum andere Möglichkeiten und noch keine ausgereiften Konventionen gibt, wie Begutachtungsprozesse als Bestandteil eines Werks abzubilden und ggf. sogar offenzulegen sind. Automatisierungen ermöglichen auch neue Optionen für die Blind-Verfahren, so dass sich hier anders gelagerte Gutacherkulturen ausprägen können.

2. Mögliche Review-Verfahren

Digitale Begutachtungen lassen sich grundsätzlich zu zwei unterschiedlichen Zeitpunkten im Veröffentlichungsprozess ansetzen.[4] Es ist sowohl möglich, die Begutachtung vor der Veröffentlichung eines Werks durchzuführen und diese ggf. sogar zu verhindern (Pre Publication Review), als auch eine Begutachtung nach der Veröffentlichung eines Werkes anzusetzen, was ggf. zur Revision eines Werkes führt (Post Publication Review).

Pre- wie Post Publication Review haben in ihren möglichen Ausformungen große Schnittmengen. Blind-Verfahren stehen dabei solchen gegenüber, die eine maximale Offenlegung und Transparenz im Sinne eines Open Review anstreben. Es ergeben sich jedoch auch eine Vielzahl an Mischformen, in denen z.B. nur Gutachten, nicht aber die Gutachter/innen selbst intern (Pre-) oder extern (Post-) bekannt gemacht werden. Im Folgenden geben wir einen Überblick über die Grundsatzverfahren. Spielarten und Varianten sind je nach Publikationsprojekt und -umgebung denkbar.

§ 1 Editorial Pre-Review

Ein redaktionsinterner Vorab-Review (Editorial Pre-Review), der die formalen Eigenschaften prüft, reguliert und ggf. zur Nachbesserung auffordert, ggf. aber auch schon eine inhaltliche Vorsortierung vornimmt, wird in den meisten Fällen eingesetzt. Bei Post Publication Review-Verfahren ist dieser Prozess die Voraussetzung für eine formale Qualitätssicherung, denn kein Publikationsformat kann eine Veröffentlichung von unsauberen Texten befürworten, die den Regelstandards der Grammatik und Orthographie sowie den Styleguide-Vorgaben oder dem Profil des Publikationsmediums nicht entspricht.

Projekte mit einem ausgewiesenen Editorial Pre-Review:

F1000 Research: Immediate & Transparent Publishing: http://f1000research.com/

ZfdG - Zeitschrift für digitale Geisteswissenschaften: http://www.zfdg.de (im Aufbau)

§ 2 Single Blind Peer Review

Peer Review ist als Form der Qualitätssicherung wissenschaftlicher Texte das inzwischen am weitesten verbreitete Verfahren. Single Blind bedeutet hier, dass der Autor/die Autorin des Textes zwar dem Gutachter/der Gutachterin bekannt ist, umgekehrt der Autor/die Autorin aber nicht weiß, wer seinen/ihren Text begutachtet. Diese Intransparenz gibt häufig Anlass zur Kritik, da sie Verzerrungen im Prozess der Begutachtung aus persönlichen Motiven heraus begünstigt.

§ 3 Double Blind Peer Review

Bei dem in den Printmedien  bereits seit langem anerkannten und weit verbreiteten Double Blind Verfahren sind sowohl Gutachter/in als auch Beiträger/in anonymisiert. Moderiert wird das Verfahren von einer dritten Instanz, in der Regel der Redaktion oder dem Herausgeber/der Herausgeberin. Double Blind Reviews sind in aller Regel transparent für die Moderation (Editor transparent), die die Anonymisierung durchführt und begleitet. Auch die Double Blind Verfahren stehen häufig in der Kritik intransparent zu sein. Sowohl beim Single als auch beim Double Blind Verfahren kommt es (dies zeigen Vergleiche mit den Ergebnissen aus Triple Blind Verfahren) zur Bevorzugung anerkannter Thesen und Wissenschaftler/innen. Eine Möglichkeit, die Transparenz in diesem Verfahren zu steigern, liegt in der nachträglichen Veröffentlichung der Gutachten. Auf diese Weise finden die Gutachten, die in der Regel mit viel Zeit und Mühe erstellt werden, Eingang in den Prozess der wissenschaftlichen Wertschöpfung und die Veröffentlichung beugt zudem den oben erwähnten Mechanismen der Verzerrung vor.

Peer-Review process: http://www.edition-open-sources.org/eos/instructions.html#peerreview

§ 4 Triple Blind Peer Review

In Triple Blind Verfahren sind nicht nur Gutachter/in und Autor/in einander unbekannt, auch der Moderation gegenüber erscheint der Autor/die Autorin nur anonymisiert. Dieses Verfahren kommt derzeit noch wenig zum Einsatz, digitale Publikationsumgebungen bieten hier das Potential, dies sinnvoll zu nutzen: In digitalen Umgebungen kann das Review-Verfahren soweit automatisiert werden, dass Beiträge in einem Portal eingereicht und ohne personellen Zugriff anonymisiert und qua selektierter Schlagwörter wiederum automatisiert Gutachtern/Gutachterinnen zugewiesen werden, deren Klarnamen der Moderation nicht bekannt sind. So ließe sich eine relativ sichere, in dieser Form nur in digitalen Umgebungen durchsetzbare Anonymität im Begutachtungsprozess erreichen.[5] Der Vorteil von Anonymität liegt vor allem darin, dass sie sozialen Verzerrungen im Begutachtungsprozess vorbeugt und weniger renommierten Wissenschaftlern/Wissenschaftlerinnen die Chance bietet, sich mit ihrer Veröffentlichung durchzusetzen.

ZfS - Zeitschrift für Soziologie, Hinweise für Autorinnen und Autoren: http://www.zfs-online.org/autoren/

§ 5 Open (Peer) Review

Open (Peer) Review-Verfahren gelten als Alternative zu den oben beschriebenen etablierten Blind Peer Review-Verfahren. Im Vergleich zu letzteren sind sie noch wenig standardisiert und umfassen verschiedene Verfahren offener Begutachtung. Die weitestgehende Öffnung liegt in diesem Verfahren vor, wenn sowohl Autor/innen- wie auch Gutachter/innen- und Gutachtentransparenz besteht. Offene Review-Verfahren schließen auch die Option einer nachträglichen Veröffentlichung des Begutachtungsverfahrens als ‘Begleittexte’ einer Publikation mit ein. Attraktiv kann es aber auch sein, Texte zunächst in einer Art Preprint zu veröffentlichen, um diese dann offen von der entsprechenden Forschungs-Community begutachten zu lassen, bevor ein/e Autor/in den Text ggf. erneut überarbeitet und zur Veröffentlichung freigibt. Zur Begutachtung kann entweder jeder oder eine vordefinierte Peer-Group zugelassen werden. Über interaktive Elemente ist es auch möglich, dass Autor/in und Gutachter/in in einen Dialog miteinander treten. In offenen digitalen Verfahren besteht die Möglichkeit zeilen- oder absatzpräzise zu kommentieren und dies entsprechend zu visualisieren. Ein großer Vorteil dieser Verfahren ist neben der angestrebten Transparenz, dass wissenschaftliche Ergebnisse schnell und direkt in der Forschungs-Community  verbreitet werden können und ein ebenso schnelles Feedback zu erhalten ist. In der Praxis wird das Verfahren bislang unterschiedlich gut angenommen, was auch auf eingefahrene Gewohnheiten in den unterschiedlichen Fachdisziplinen zurückzuführen ist. Digitale Publikationsumgebungen bieten in Hinblick auf offene Review-Verfahren viel Spielraum in der Ausgestaltung und können von Programmierseite auch auf eine sukzessive Offenlegung hin angelegt oder schrittweise angepasst werden oder für Beiträger/innen wie Gutachter/innen Optionen bereithalten, selbst über den Status der Offenlegung zu entscheiden (Gutachter/in möchte öffentlich genannt werden oder nicht, Gutachten können öffentlich eingesehen werden oder nicht).

Open Peer Reviewed-Projekte:

Immediate & Transparent Publishing - How it Works: http://f1000research.com/

Philica - The instant, open-access Journal of Everything: http://www.philica.com/

Kunstgeschichte - Open Peer Reviewed Journal: http://www.kunstgeschichte-ejournal.net/

Informationspraxis - Open-Access-Zeitschrift der Fachcommunity aus Bibliothek, Archiv und Informationswesen: http://informationspraxis.de/

ScienceOpen - research + publishing network: https://www.scienceopen.com/home

ZfdG - Zeitschrift für digitale Geisteswissenschaften: http://www.zfdg.de (im Aufbau)

3. Fazit und Empfehlungen

Der grundsätzliche Einsatz von Review-Verfahren in digitalen Publikationsumgebungen erscheint sinnvoll, da dadurch die Qualität digitaler Publikationen moderiert gestärkt wird und dies zur Konsolidierung des WWW als verlässlicher Publikationsort und -archiv wissenschaftlicher Arbeiten insgesamt beitragen kann. Die verschiedenen operativen Optionen im Review-Verfahren zeigen, dass es eine vielfältige Palette an möglichen Gestaltungen gibt, die es im jeweiligen Einzelfall zu prüfen und für den jeweiligen Einsatz abzuwägen gilt und die in digitalen Umgebungen an das Profil und die Bedingungen der spezifischen Form der Publikation binnendifferenziert angepasst werden können. Der DHd empfiehlt dabei solche Verfahren umzusetzen, die einer Liberalisierung von Wissens- und Wissenschaftsdiskursen Rechnung tragen: Verfahren, die eine Transparenz von Ideen fördern, sind daher Exklusionsmechanismen vorzuziehen. Abzuwägen bleibt, inwiefern Blind-Verfahren hermetisch organisiert sein müssen, denn auch hier bieten sich Möglichkeiten der Offenlegung. Dhd befürwortet digitale Publikationen, die ihr Peer Review-Verfahren klar benennen und deren Bedingungen und Richtlinien offen darlegen.

Literatur

Eva Amsen: What is open peer review? Blog-post, veröffentlicht 21.05.2014 http://blog.f1000research.com/2014/05/21/what-is-open-peer-review/.

Eva Amsen: What is post-publication peer review? Blog-post in: F1000research. Open Science news am 7. Juli 2014, http://blog.f1000research.com/2014/07/08/what-is-post-publication-peer-review/.

Andreas Fahrmeir: Bloggen und Open Peer Review in der Geschichtswissenschaft: Chance oder Sackgasse? In: historyblogosphere. Bloggen in den Geschichtswissenschaften, hg. von Peter Haber und Eva Pfanzelter, 2013, Abschnitt: Open Peer Review, http://historyblogosphere.oldenbourg-verlag.de/open-peer-review/fahrmeir/#17

Ulrich Herb: Offenheit und wissenschaftliche Werke: Open Access, Open Review, Open Metrics, Open Science & Open Knowledge. In: Open Initiatives: Offenheit in der digitalen Welt und Wissenschaft, hg. von Ulrich Herb, Saarbrücken 2012, S. 11-44,  http://scidok.sulb.uni-saarland.de/volltexte/2012/4866/pdf/Herb_mit_Deckblatt.pdf.

Stefan Hornbostel / Meike Olbrecht: Peer Review in der DFG: Die Fachkollegiaten. In: iFQ-Working Paper No.2 (November 2007), S. 5-10,http://www.forschungsinfo.de/publikationen/Download/working_paper_2_2007.pdf.

Susan van Rooyen / Fiona Godlee / Stephen Evans / Nick Black / Richard Smith: Effect of open peer review on quality of reviews and on reviewers’ recommendations: a randomised trial, in: British Medical Journal 318 (2. Januar 1999), S. 23–27, http://www.ncbi.nlm.nih.gov/pmc/articles/PMC27670/.

Steven W. Sowards: What is Peer Review, and Does it Have a Future? In: Bibliothek Forschung und Praxis 39 (Juni 2015), Heft 2, S. 200-205,  http://www.degruyter.com/view/j/bfup.2015.39.issue-2/bfp-2015-0024/bfp-2....



  • [4] In Printmedien ist dies formal getrennt in einen internen Peer Review und die von außen ansetzende Rezension, die der Publikation nachgeordnet ist.
  • [5] Anonymität von Einreichungen kann von Gutachterseite mittels einfacher, auch digitaler Verfahren allerdings unterlaufen werden, da spezifische Themen oft mit einer relativ leicht einzuschränkenden Forschergruppe identifiziert werden können. Die Tilgung von Namen reicht oft nicht aus, um eine Identifizierung von Autoren/innen oder Autorengruppen auszuschließen. Eine vollständige, ideal angenommene Anonymität kann es deshalb nicht geben. Eine Verpflichtung der Gutachter/innen zu wissenschaftlicher Fairness sollte deshalb jeden Review-Prozess begleiten.

4. Versionierung und Zitationsprozesse

vorgelegt von Timo Steyer (Forschungsverbund MWW/HAB Wolfenbüttel)

4.1. Zitationsprozesse

Das Rückgrat jeder digitalen Publikation im wissenschaftlichen Kontext bildet die Zitierfähigkeit und die Stabilität des Textes. Ohne die Möglichkeit von zuverlässigen und beständigen Identifizierungen  sind wissenschaftliche Texte in digitaler Form nur eingeschränkt nutzbar und Potentiale des digitalen Publizierens bleiben ungenutzt.  Während im Druck der Buchtitel in Verbindung mit Seitenzahlen oder Zeilenzählungen die Grundlage für wissenschaftliches Arbeiten dadurch schuf, dass Aussagen durch Zitate verlässlich überprüft werden konnten, müssen für elektronische Medien Mechanismen geschaffen werden, die Ähnliches leisten. Anders als im Druck können aber nicht mehr physische, materialgebundene Einheiten wie Seitenzahlen verwendet werden, sondern es bedarf spezieller Identifier, die idealerweise weltweit eindeutig sind und die so verlässliche Zugriffsmöglichkeiten auf die Dokumente bieten.[6]

Identifizierung findet in bisherigen digitalen Publikationsvorhaben meist nur auf der Ausgabenebene oder bei Digitalisaten nach Vorgabe der DFG-Praxisregeln auf der Seitenebene (Image) statt.[7] Mit der Etablierung elektronischer Volltexte eröffnen sich jedoch nun neue Möglichkeiten. Zitierbar ist hier theoretisch jeder Buchstabe, sofern sichergestellt ist, dass er im Gesamtsystem des oder der Texte einen eindeutigen Identifier trägt oder aber sich aus einer feststehenden Position im Text ergibt.

Diese feineren Granulierungen auf Wort- oder Buchstabenebene sind ohne Weiteres technisch möglich, aber bis auf exemplarische Einzelfälle noch nicht in einer Form umgesetzt, die ein standardisiertes Modell erkennen lässt.[8] Die derzeitige Schnelligkeit des technischen Wandels lässt aber die Durchsetzung feinerer Granulierungen als wahrscheinlich erachten.

Um die soeben skizzierten Ziele zu erreichen, sollten die Vorteile und die Notwendigkeit einer persistenten Adressierung stärker in den Fokus der digitalen Infrastrukturmaßnahmen rücken und auch als Best Practice beim wissenschaftlichen Arbeiten angesehen werden.

Vorteile der persistenten Adressierung

-        Dauerhafte Identifikation der publizierten Ressourcen,

-        gewährleistete Nachhaltigkeit der Texte,

-        Das Verlinken der Texte wird gefördert, was sich positiv auf die wissenschaftliche Reputation auswirkt,

-        Verfügbarkeit, Sichtbarkeit und Nachnutzbarkeit der Texte werden erhöht,

-        Einfache Zitation, bessere Nachvollziehbarkeit für die Forschung,

-        Nachweismöglichkeit des Impacts (Datenzitationsraten),

-        Semantische Interoperabilität der Publikation ist durch die Metadaten, die bei der Erhebung von persistenten Adressierungen anfallen, erhöht. Informationen über miteinander in Beziehung stehender Texte können so festgehalten werden.

Welche Technik das jeweilige (trusted) Repository für die persistente Adressierungen verwendet, ist zwar grundsätzlich abhängig vom vorliegenden Material und dem Verwendungszweck. Daher kann in diesem Rahmen keine eindeutige Empfehlung ausgesprochen werden. Allerdings sprechen mehrere Faktoren für die Verwendung von Digital Object Identifier (DOI) im Publikationskontext von Texten. Ein wesentlicher Vorteil von DOIs ist die Vergabe und Kontrolle durch eine Registrierungsagentur,[9] sowie die zusätzlich stattfindende Qualitätsprüfung und Langzeitarchivierung vergebener DOIs durch die DOI Foundation.[10] Zwar werden auch Uniform Resource  Names (URN) qualitätsgeprüft und unterliegen einer Langzeitarchivierung, allerdings können sie im Gegensatz zu DOIs nur auf Seiten der Vergabeeinrichtung aufgelöst werden. Handles sind dagegen eher für große Datenmengen (Big Data) geeignet, da sie aber durch keine übergeordnete Einrichtung geprüft werden, sind sie für wissenschaftliches Zitieren von Texten ungeeignet.

Varianten bei Zitierstilen

Bei der Verwendung von Persitent Identifier sind zwei Anwendungsszenarien zu unterscheiden, während für die maschinelle Weiterverarbeitung die Angabe des Principal Investigator vollkommen ausreichend ist, benötigen Forscher/innen zusätzlich weiterhin die Angabe der gewohnten bibliographischen Angaben. In diesem Bereich existieren eine Reihe von etablierten Zitierrichtlinien, die sich bei den einzelnen Fachdisziplinen unterschiedlicher Beliebtheit erfreuen. Eine Festlegung auf einen Standard erscheint aufgrund der diversen Zitiertraditionen als nicht aussichtsreich. Als gemeinsamer Standard würde jedoch die ISO-Norm 690:2010 am ehesten in Frage kommen. Unabhängig von der gewählten Zitierrichtlinie sollte beachtet werden, dass die verwendete Zitierweise obligatorische Angaben für digitale Ressourcen standardisiert:

     -        Persitent Identifizier,

     -        Versionnummer oder ID,

    -        Medien/Objekttyp verbunden mit einem kontrollierten Vokabular (z. B. text/html, XML/TEI-P5 usw.).

Durch diese Angabe würden die bisher üblichen Angaben der URL und des Zugriffzeitpunktes obsolet werden. Denn diese Praxis ist derart unsicher, dass sie nur als temporär befristetes Phänomen gelten kann. Die Variante Screenshots oder Snapshots von Webseiten zu machen, ist allein aufgrund der damit verbundenen Umständlichkeit realistisch nicht langfristig in der Wissenschaft zu etablieren. Jedoch ist diese Methode, z. B. über das Archiveren von Screenshots bei archive.org und die Angabe des generierten Permalinks in der Publikation, wesentlicher genauer als die reine Angabe des Zugriffpunktes verbunden mit der Zeitangabe.[11] Gerade im Bereich des Zitierens von komplexen Webansichten oder von Forschungsergebnissen, die über Tools generiert worden sind, stellt diese Methode die zurzeit einzige Möglichkeit dar. Gerade durch die Etablierung der Digital Humanities stellt sich in Zukunft die Frage, wie Forschungsdaten jenseits der Textebene zitiert werden sollen. Aber auch die gegenwärtige digitale Publikationspraxis jenseits von PDF wirft die Frage auf, welche Ebene zitiert werden soll: die Ebene der Webansicht oder die semantische Ebene, die dahinter legt? Denn nicht immer werden z. B. alle Auszeichnungen von XML-Dateien auf der Weboberfläche angezeigt, gleiches für den Bereich des Semantic Web.

In dem hier vorliegenden Rahmen liegt der Schwerpunkt auf dem Zitieren der Oberfläche der Texte, aber diese Fragen werden sicherlich in der zukünftigen AG-Arbeit eine wesentliche Rolle einnehmen.

Für das Ziterien der Oberflächen (HTML-Ansichten) von Texten können dagegen Best Practice-Empfehlungen ausgesprochen werden und natürlich ist dies der Bereich, welcher am dringensten Standardisierung benötigt. Hierfür kann folgendes Beispiel angeführt werden:

Katja Kwastek: Vom Bild zum Bild – Digital Humanities jenseits des Textes. In: Grenzen und Möglichkeiten der Digital Humanities. Hg. von Constanze Baum / Thomas Stäcker. 2015 (= Sonderband der Zeitschrift für digitale Geisteswissenschaften, 1). text/html Format. DOI: 10.17175/sb001_002

Für die Durchsetzung einer persistenten Adressierung sollte der Vorgang der Registrierung einer digitalen Publikationen entweder für den Autor/die Autorin intuitiv und mit wenig Aufwand möglich sein und/oder als Dienstleistung von Forschungseinrichtungen angeboten werden. Die Verpflichtung einer dauerhaften verbindlichen DOI-Registrierung sollte durch die Anbieter durch Absichts- und Garantieerklärungen deutlich gemacht werden, zu denen ergänzend auch eine Exit-Strategie gehört.

4.2. Versionierung

Eine persistente Adressierung alleine ist jedoch nicht ausreichend, um eine wissenschaftliche Zitierfähigkeit herzustellen. Zusätzlich bedarf es einer Versionierung des Textes mit der Angabe der Versionsunterschiede. Die jeweilige Version des Textes muss dabei jederzeit wiederherstellbar sein, was eine verlässliche Archivierung bedingt. Durch ein Versionierungssystem werden die im Druck unvereinheitlichten Faktoren der Textstabilität und der Modifizierbarkeit von Texten vereinbar und abbildbar. Ähnlich wie bei Wikipedia ließen sich so frühere Zustände leicht rekonstruieren. Um Möglichkeiten zu schaffen, Texte auch nach deren verbindlicher Veröffentlichung zu bearbeiten, sollten Anbieter von Publikationsumgebungen daher ein Versionierungsystem (z.B. SVN) anbieten. Grundvoraussetzung für die Wahl eines geeigneten Versionssystems ist wiederum die öffentliche Zugänglichkeit der Texte und die Vergabe von freien Lizenzen.

Darüber hinaus sollten die Betreiber der Publikationsplattformen auf eine schnelle und nutzerfreundliche Auffindbarkeit der Texte achten. Die Mechanismen der Versionierung und Identifikation von digitalen Publikationen können nur dann ihre Wirkung entfalten, wenn die entsprechenden Veröffentlichungen im Nachweissystem recherchierbar und somit leicht auffindbar sind. Anstatt Texte also in geschlossenen Systemen zu publizieren, sollten wissenschaftliche Arbeiten in Open-Access-Repositorien und -Publikations­diensten, die standardisierte Publikationsformate unterstützen, veröffentlicht werden.[12]

4.3. Fazit und Empfehlungen:

Forscher/innen sollten bei der Zitierung von wissenschaftlichen Texten auf die Angabe der Principal Investigator achten und bei eigenen Publikationsvorhaben Umgebungen bevorzugen, die die Vergabe von Principal Investigators anbieten. Voraussetzung dafür ist aber, dass die Anbieter von Publikationsformen neben der Vergabe von Principal Investigators auch die Versionierung der Texte unterstützen. Des Weiteren sollten sie über die Nutzungsbedinungen der Publikationsumgebung ausreichend informiert werden.[13]

Diese Punkte sollten bei Projektanträgen auch von den Förderinstitutionen als fester Bestandteil gefordert werden. Zusätzlich sollten Fördereinrichtungen die Qualität von Publikationsinfrastrukturen durch die Vergabe von Zertifikaten und durch das Werben für Open-Access-Repositorien und -Publikations­diensten fördern.[14]

Pflege und Wartung der Publikationssysteme verbunden mit der Vergabe von Principal Investigators erzeugen erhöhte Betriebskosten, so dass die Publikationsumgebungen auf eine beständige Mittelzuweisung angewiesen sind. Die Fördereinrichtungen sollten daher bedenken, dass eine zuverlässige wissenschaftliche Publikation auch im OPEN ACCESS-Bereich Kosten verursacht.


5. Open-Access-Publizieren

vorgelegt von Ben Kaden (Humboldt-Universität zu Berlin) und Michael Kleineberg (Humbolt-Universität zu Berlin)

Das Prinzip der Offenheit

In der Satzung des DHd heißt es, dass der Verband danach strebt “den freien Zugang und die freie Nutzung von Wissensbeständen und Verfahren (Open Access, Open Source) zu fördern”.[15] Mit diesem Bekenntnis zum Open-Access-Gedanken wird das Prinzip der Offenheit in einem weiten Sinne verstanden, wie es die wissenschaftspolitische Forderung einer Offenen Wissenschaft (Open Science bzw. Open Scholarship) ausdrückt.[16] Dies meint nicht nur den freien Zugang, sondern auch das Recht auf Vervielfältigung, Nachnutzung und Weiterverarbeitung von Inhalten. Dabei sollen diese Rechte nicht auf publizierte Forschungsergebnisse beschränkt bleiben, sondern prinzipiell auch für zu Grunde liegende Forschungsdaten (Open Research Data), Zusatzmaterialien (Open Extra Material), Softwareanwendungen (Open Source) sowie für in der Lehre eingesetzte Bildungsressourcen (Open Educational Resources) gelten. Darüber hinaus sollen Offenheit und Transparenz auch für Begutachtungsverfahren (Open Review) sowie Evaluations- und Kreditierungsverfahren (Open Metrics) gefördert werden.

Das Prinzip der Offenheit dient vor allem zwei Hauptanliegen der Wissenschaft im Allgemeinen und der Digital Humanities im Besonderen. Einerseits soll der Nachvollzug von Forschungsergebnissen gewährleistet werden, weshalb nicht nur die Ergebnisse, sondern auch die Prozesse der Forschung transparent sein sollten einschließlich der Forschungsdaten (z.B. Textkorpora) und Softwareanwendungen (z.B. Algorithmen für Textmining) sowie entsprechender Qualitätssicherungsverfahren. Andererseits soll die (Nach-)Nutzung von Wissensbeständen und Verfahren sowohl innerhalb als auch außerhalb der Wissenschaft möglichst effektiv und effizient gestaltet und mögliche Mehrfachfinanzierungen vermieden werden.

Open-Access-Strategien

Man unterscheidet für Open-Access-Veröffentlichungen zwei grundlegende Publikationsstrategien.[17] Erstens den “goldenen Weg” im Sinne einer Erstveröffentlichung bei einem Open-Access-Verlag beispielsweise als Artikel in einer Open-Access-Zeitschrift, als Open-Access-Monografie oder als Beitrag in einem Open-Access-Sammelwerk und zweitens den “grünen Weg” im Sinne einer Zweit- bzw. Parallelveröffentlichung (Preprint, Postprint) von Verlagsveröffentlichungen. Diese Form der Selbstarchivierung findet zumeist auf einem institutionellen oder disziplinären Open-Access-Repositorium statt, mitunter jedoch auch auf der eigenen Homepage, der Projektwebsite oder in sozialen Wissenschaftsnetzwerken. Vielfach wird zudem von einem so genannten “grauen Weg” gesprochen, bei dem verlagsunabhängig und in der Regel ohne ein Qualitätssicherungsverfahren auf einem Open-Access-Repositorium erstveröffentlicht wird, wobei der Status als Veröffentlichung analog zu dem der so genannten “grauen Literatur” umstritten bleibt. Desweiteren verfolgen einige Institutionen die Strategie, den “goldenen Weg” unabhängig von kommerziellen Verlagen gewissermaßen in Eigenregie (z.B. durch Verlagsgründung) bzw. mittels Dienstleistungen von Drittanbietern (z.B. alternative Publikationsplattformen) umzusetzen wie zum Beispiel die Open Library of Humanities. Während beim “goldenen Weg” die Nutzungs- bzw. Verwertungsrechte zumeist durch einen Verlagsvertrag geregelt sind und gegebenenfalls durch die Autorinnen und Autoren mit Hilfe expliziter Lizenzierungsformen (z.B. Creative Commons, Open Data Commons) spezifiziert werden können, bleibt bei dem “grünen Weg” eine Zweitveröffentlichung in der Regel von der Genehmigung des Verlages abhängig (zur Regelung des Zweitveröffentlichungsrechtes siehe unten).[18] Bei Forschungsdaten und Zusatzmaterialien, die auch unabhängig von der eigentlichen Ergebnis- oder Schlusspublikationen veröffentlicht werden können, bieten sich vor allem spezielle Open-Access-Forschungsdatenrepositorien an, die eigenständige persistente Indentifikatoren (z.B. DOI, URN) vergeben sowie die Möglichkeit entsprechende Lizenzierungen zu spezifizieren.[19]

Finanzierungs- bzw. Geschäftsmodelle

Da Open-Access-Publikationen zwar nicht auf der Rezeptionsseite, aber sehr wohl auf der Produktions- und Angebotsseite mit Kosten verbunden sind, werden verschiedene Finanzierungs- bzw. Geschäftsmodelle unterschieden.[20] Beispielsweise werden bei dem Author-Pays-Modell die Kosten von den Autorinnen und Autoren bzw. mittelbar von ihren jeweiligen Institutionen getragen durch eine Publikationsgebühr (Article Processing Charge) analog zu den traditionellen Druckkostenzuschüssen. Spezielle Publikationsfonds, bei denen die Autoren die Beteiligung an Publikationskosten beantragen können, sind eine Möglichkeit, die Übernahme der APCs institutionell zu regeln. Teilweise übernehmen Institutionen oder Verbände auch die Gesamtkosten pauschal. Ein umstrittenes Finanzierungsmodell stellt das so genannte Hybrid-Open-Access dar, bei dem ein einzelner Artikel einer Closed-Access-Zeitschrift mit einer Gebühr “frei gekauft” wird. Kritiker weisen darauf hin, dass in diesem Fall eine Mehrfachfinanzierung (Double Dipping) durch die öffentliche Hand droht, da einerseits die Open-Access-Gebühr anfällt und andererseits die ohnehin zumeist von Bibliotheken getragene Subskription der Zeitschrift, die in der Regel in sogenannten Paketen erfolgt, so dass eine selektive Abbestellung entsprechender Titel nicht möglich ist. Desweiteren gibt es das sogenannte Freemium-Modell, bei dem die Grundversion einer Publikationen Open Access erscheint und bei Bedarf eine kostenpflichtige Version mit Zusatzfunktionen bzw. Zusatzmaterial zur Verfügung steht.

Rechtliche Rahmenbedingungen

Open-Access-Publikationen sind an rechtliche Rahmenbedingungen gebunden, die im deutschsprachigen Raum vor allem durch das jeweilige deutsche, österreichische bzw. schweizerische Urheberrechtsgesetz vorgegeben werden.[21] Während das Urheberrecht selbst unveräußerlich ist, können einfache oder ausschließliche Nutzungsrechte übertragen werden. Üblicherweise werden bei Verlagsverträgen exklusive Rechte übertragen, was einer zusätzlichen Open-Access-Publikation im Sinne des “grünen Weges” entgegensteht. Daher empfiehlt die Scholarly Publishing and Academic Resources Coalition (SPARC) bei Verlagsverhandlungen einen Zusatz auszuhandeln, der weitere Verwertungsoptionen sowie etwaige Sperrfristen regelt.[22] Weitere Einschränkungen des Urheberrechtes sind durch das Zitatrecht, das Zweitveröffentlichungsrecht sowie die im Zusammenhang mit der deutschen Urheberrechtsreform diskutierte Bildungs- und Wissenschaftsschranke möglich. Allerdings gelten diese Regelungen eher als restriktiv. So ist zum Beispiel das Zitatrecht bei Texten auf einen geringen prozentualen Anteil limitiert und bei Bildern (Lichtbilder bzw. Lichtbildwerke) ebenfalls stark eingeschränkt, insbesondere für eine mögliche Weiterverarbeitung und Vervielfältigung im Sinne von Open-Access-Publikationen. Auch das Zweitveröffentlichungsrecht, das als ein Instrument zur Förderung des “grünen Weges” von Open-Access-Publikationen angesehen werden kann, bleibt deutlich hinter den Erwartungen der Autorinnen und Autoren zurück.[23]

Lizenzierungsformen

Für Open-Access-Publikationen kann eine Spezifizierung der Nutzungs- bzw. Verwertungsrechte mit Hilfe von Open-Content-Lizenzen vorgenommen werden wie beispielsweise der Creative-Commons-Lizenz (CC), der Free Documentation Licence der GNU-Initiative (GFDL), den Digital Peer Publishing Lizenzen oder der Open-Data-Commons-Lizenz.[24] Die Rechteinhaber/innen sind damit in der Lage die komplizierten und international nicht einheitlichen Regelungen des Urheberrechtes bzw. Copyright Laws durch eine leicht handhabbare, transparente und allgemein verständliche Vergabe von Rechten und Pflichten zu ersetzen. Ein Beispiel für Open-Content-Lizenzierungsformen bieten die weitverbreiteten Creative Commons:[25]

BY             Namensnennung

BYND         Namensnennung-KeineBearbeitung

BYNC         Namensnennung-NichtKommerziell

BYNCND     Namensnennung-NichtKommerziell-KeineBearbeitung

BYNCSA     Namensnennung-NichtKommerziell-Weitergabe unter gleichen Bedingungen

BYSA         Namensnennung-Weitergabe unter gleichen Bedingungen

Best-Practice-Beispiele

Open-Access-Sammelwerk:

Open-Access-Journals:

Open-Access-Verlag für Monografien:

Open-Access-Publikationsplattformen:

Open-Access-Repositorien:

Open-Access-Textkorpus:

Open-Access-Edition:

  • Kaufmann, Thomas: Kritische Gesamtausgabe der Schriften und Briefe Andreas Bodensteins von Karlstadt, Teil I (1507-1518). Editiones Electronicae Guelferbytanae. Wolfenbüttel 2012 (http://diglib.hab.de/edoc/ed000216/start.htm).

Empfehlungen

DH-Community:

  • Autorinnen und Autoren sollten sich über die Bandbreite der möglichen Publikationsstrategien sowie über ihre Spielräume bei der Aushandlung von Verlagsverträgen (z.B. Vertragszusätze) bewusst sein.

  • Es wird ein aktives Open-Access-Publizieren einschließlich offener Forschungsdaten empfohlen.

  • Die Möglichkeiten der (Nach-)Nutzung von Publikationen und Forschungsdaten sollten über urheberrechtliche Regelungen hinaus durch Open-Content-Lizenzen explizit gemacht werden.

  • Die Spezifizierung von Open-Content-Lizenzen sollten möglichst wenig restriktiv sein, sondern so frei und offen wie möglich (z.B. CC-BY oder CC-BY-SA).

  • Autorinnen und Autoren sollten im Rahmen des Zweitveröffentlichungsrechtes ihre Verlagspublikationen zusätzlich als Open-Access-Publikation zur Verfügung stellen.

  • Wissenschaftlerinnen und Wissenschaftler sollten ihrerseits Open-Content-Angebote (z.B. Open Research Data, Open Extra Material, Open Source) nachnutzen.

  • Für die Akzeptanz von Open-Access-Publikationsstrategien sollten hohe Standards für Qualitätssicherungsverfahren etabliert werden.

  • Autorinnen und Autoren sollten für Open-Access-Publikationen kreditiert werden.

Politik:

  • Der Normalfall bei der Rechteübertragung an Verlage sollte nicht mehr in einer automatischen Übertragung von ausschließlichen, sondern von einfachen Nutzungsrechten bestehen.

  • Mit der Einführung einer Bildungs- und Wissenschaftsschranke des Urheberrechts sollten auch Möglichkeiten für einen freien Zugang vergleichbar der Fair-Use-Regelung des US Copyright Law entwickelt werden.

  • Das bestehende (deutsche) Zitatrecht insbesondere für Lichtbilder bzw. Lichtbildwerke sowie Ton- bzw. Filmaufnahmen sollte wissenschaftsfreundlich erweitert werden.

  • Das bestehende (deutsche) Zweitveröffentlichungsrecht sollte im Sinne der Autorinnen und Autoren liberalisiert werden.

  • Die Grundausrichtung einer offenen Wissenschaft (Open Science/Open Scholarship) sollten nachhaltig gefördert werden.

Förderinstitutionen und Forschungseinrichtungen:

  • Die wissenschaftspolitischen Vorgaben und Empfehlungen hinsichtlich einer offenen Wissenschaft (Open Science/Open Scholarship) sollte konsequenter gefördert und umgesetzt werden.

  • Für Bibliotheken sollte eine anteilige Umwidmung von Erwerbungsmitteln zur Finanzierung offener digitaler Publikationen möglich sein.

  • Die Etablierung von institutionellen Publikationsfonds zur Finanzierung der Autorengebühren von Open-Access-Publikationen sollte gefördert werden.

  • Es sollten fachkulturelle Anreizsystemen für Open-Access-Infrastrukturen entwickelt werden, insbesondere Prozesse zur Standardisierung bzw. Interoperabilität.

  • Infrastrukturleistungen (z.B. Aufbau eines Open Journal System; Programmieren von Softwareanwendungen) sollten mehr Anerkennung finden und bei der Kreditieren entsprechend berücksichtigt werden.

Verlage:

  • Verlage sollten zeitgemäße und möglichst modularisierte Dienstleistungen für digitale Publikationen entwickeln und anbieten.

  • Open-Access-Angebote von Verlagen sollten nicht nur auf den Zugang (Leserecht) beschränkt bleiben, sondern auch das Recht auf Vervielfältigung, Weiterbearbeitung und Langzeitarchivierung einschließen.

  • Kommerzielle Geschäftsmodelle sollten Mehrfachfinanzierungen (Double Dipping) durch die öffentliche Hand verhindern.


Kommentare

Fussnote 16 fehlt, Anker ist ausgelegt, es fehlt etwas, aber was ?

Vielen Dank für den Hinweis, der Fussnotentext ist nun ergänzt.