DHd Newsfeed

Wie es Euch gefällt? Perspektiven wissenschaftsgeleiteter Organisationsformen des Datenmanagements für die Geisteswissenschaften (Bericht vom Panel der AG Datenzentren während der DHd 2019, Mainz & Frankfurt am Main)

dhd-blog - Do, 06/20/2019 - 18:43
Hintergrund des Panels

Am 27. März 2019 hielt die DHd-AG Datenzentren im Rahmen der DHd 2019 Mainz & Frankfurt am Main (multimedial & multimodal, 25.-29.03.2019, Johannes-Gutenberg Universität Mainz, Akademie der Wissenschaften und Literatur, Mainz, Goethe-Universität, Frankfurt am Main) ein Panel unter dem Titel “Wie es Euch gefällt? Perspektiven wissenschaftsgeleiteter Organisationsformen des Datenmanagements für die Geisteswissenschaften” ab (Link zum Book of Abstract auf Zenodo, dort S. 75-78: http://doi.org/10.5281/zenodo.2600812). Organisiert wurde das Panel von Ulrike Wuttke (Stellvertretende Vorsitzende der AG Datenzentren des DHd, Fachhochschule Potsdam, RDMO), Patrick Helling und Jonathan Blumtritt (beide Data Center for the Humanities, Universität zu Köln). Neben Kai Wörner (Vorsitzender der AG Datenzentren des DHd, Zentrum für Nachhaltiges Forschungsdatenmanagement, Universität Hamburg) als zweitem Moderator, nahmen die folgenden Expert*innen als Panelteilnehmer*innen teil: Alexander Czmiel, Berlin-Brandenburgische Akademie der Wissenschaften (BBAW), Katrin Moeller, Historisches Datenzentrum Sachsen-Anhalt (Hist-Data), Peter Gietz, DAASI & DARIAH-DE, Cosima Wagner, Universitätsbibliothek/Campusbibliothek der Freien Universität Berlin, Barbara Ebert, Leiterin der Göttinger Geschäftsstelle des Rats für Informationsinfrastrukturen (RfII).

Jetzt im Panel der #DHdDatenzentren #dhd2019
Ich bin gespannt, wie es [uns denn] gefällt. pic.twitter.com/M0fHJRgiHY

— Melanie S. (@msiemund) March 27, 2019

Im Mittelpunkt des Panels standen die Perspektiven wissenschaftsgeleiteter Organisationsformen des Datenmanagements für die Geisteswissenschaften vor dem Hintergrund der Anforderungen aus der Praxis, insbesondere den Digital Humanities, und den aktuellen Entwicklungen zum Aufbau einer Nationalen Forschungsdateninfrastruktur (NFDI). Einen der Hintergründe des Panels bildete neben den verschiedenen aktuellen Entwicklungen auf dem Weg zur NFDI, insbesondere aus den verschiedenen Workshops der Stakeholder im Bereich der Geisteswissenschaften, der Vorschlag der AG Datenzentren für ein geisteswissenschaftliches Gesamtkonsortium (Link zu einer Sammlung der Positionspapiere). Inzwischen hat sich auch das Geisteswissenschaftliche Forum NFDI mit dem Ziel des Austauschs zwischen den geisteswissenschaftlichen Fachverbänden gegründet. Im Vorfeld des Panels hatten die Organisator*innen über das DHdBlog einen Diskussionsaufruf an die Community gestartet und die Leitfragen des Panels einer breiteren Öffentlichkeit zur Diskussion gestellt. Zentral standen die Rolle von disziplinären Grenzen und disziplinspezifischen Fragestellungen im Spannungsfeld zwischen der Adressierung der Bedarfe kleiner Fächer und den Anforderungen interdisziplinärer Forschung. Auch wenn die “Ausbeute” auf den öffentlichen Diskussionsaufruf zum Panel zahlenmäßig etwas mager war (was vielleicht Mareike Königs Feststellung während ihres Beitrags bei der DHd bestätigt, dass relativ wenig Kommentare zu Blogbeiträgen geschrieben werden), war der Versuch aus Sicht der Organisator*innen die Mühe wert und brachte mit Frederik Elwerts Beitrag einige interessante Erkenntnisse, die er sogar persönlich während des Panels näher beleuchten konnte (mehr dazu weiter unten). 

Eingeleitet wurde die Paneldiskussion von der Vorstellung des Stands des Projekts “Dienstekatalog der AG Datenzentren” durch Patrick Helling.

Vorstellung des Stands des Projekts “Dienstekatalog der AG Datenzentren”

Mittlerweile verfügt die AG Datenzentren über insgesamt 25 Mitgliedsinstitutionen aus Deutschland, Österreich und der Schweiz, wovon 18 Einrichtungen mit Infrastrukturen ausgestattet sind. Das Angebot aller Datenzentren der AG in ihrer Gesamtheit weist eine hohe fachliche und institutionelle Diversität auf. Die einzelnen AG-Mitglieder verfügen über unterschiedliche Expertisen in speziellen Forschungsdatenmanagementbereichen und sind in institutionellen oder fachspezifischen Kontexten verortet. Dabei sind sie entweder lokal in einer Institution verankert, agieren auf regionaler oder Verbundsebene oder sind national ausgerichtet.

Vorstellung Projekt "Dienstekatalog", Erhebung per Interviews unter 25 Partner der AG #dhddate
nzentren pic.twitter.com/2z35FO69l6

— Dr. Anne Klammt (@archaeoklammt) March 27, 2019

Mit dem Projekt „Dienstekatalog“ möchte die AG ein gemeinsames FDM-Diensteportfolio entwickeln, welches online zugänglich und entsprechend durchsuchbar sein soll. Auf diese Weise soll das Diensteangebot der einzelnen Zentren gebündelt zugänglich gemacht werden. Zu diesem Zweck wurden semistrukturierte Interviews per Skype oder Telefon durchgeführt (bisher befragte Zentren: 16). Der Fragebogen orientiert sich dabei an einer bereits im Vorfeld durchgeführten, internen Umfrage der AG, sowie an bereits existierenden FDM-Diensteportfolios. Nachdem Katrin Moeller vom Historischen Datenzentrum Sachsen-Anhalt (Hist-Data) auf der DHd 2018 in Köln im Panel der AG Datenzentren „Die Summe geisteswissenschaftlicher Methoden? Fachspezifisches Datenmanagement als Voraussetzung zukunftsorientierten Forschens?“ die speziellen Dienste und Expertisen der einzelnen Mitgliedsinstitutionen präsentiert hat, lag der Fokus in diesem Jahr auf der Breite der generischen Dienste innerhalb der AG.

Im Rahmen der Umfrage wurden insgesamt acht Servicebereiche geisteswissenschaftlicher Datenzentren identifiziert:

1.   Beratungsangebote → Klärung von allgemeinen FDM-Fragen

2.   Technische Infrastrukturen → Bereitstellung/Vermittlung von Servern, Netzwerken und virtuellen Maschinen

3.   Konsolidierung von Services → Service-Level-Agreements, Dokumentationsprozesse und Kuratierungsplanung

4.   Speicherung und Archivierung → Langzeitarchivierung von Forschungsdaten

5.   Repositoriums-Lösungen → generische/fachspezifische Lösungen

6.   Datenkuration → bspw. persistente Identifier, Metadaten, Versionierung

7.   Softwarekuratierung → Pflege und Betrieb lebender Systeme

8.   Softwareentwicklung → Entwicklung von Tools

Der Auswertung der geführten Interview-Protokolle folgend bieten nahezu alle befragten Datenzentren Beratung zu FDM-Fragen in der Breite an. Insbesondere bei rechtlichen Fragestellungen vermitteln jedoch viele Einrichtungen Forscher*innen an entsprechende Anlaufstellen, da in diesem Bereich häufig keine rechtsverbindliche Expertise vorhanden ist.

Technische Infrastrukturen werden von 15 Datenzentren angeboten, allerdings gab über die Hälfte an, Infrastrukturen nicht selbst zu betreiben. In der Regel wird IT-Infrastruktur von zentralen Einrichtungen wie beispielsweise universitären Rechenzentren vermittelt und auch für eigene Zwecke in Anspruch genommen.

Im Bereich der Übernahmeprozesse und Dokumentation befinden sich viele Datenzentren noch in einer Entwicklungsphase. Service-Level-Agreements und Verträge werden lediglich von neun Zentren, Kuratierungsplanung von 10 Zentren angeboten. Allgemeinere Dokumentationsprozesse werden von 12 Einrichtungen gepflegt.

Ein wichtiger Kern geisteswissenschaftlichen Forschungsdatenmanagements, die Speicherung von Forschungsdaten, wird von allen befragten Datenzentren der AG angeboten. 12 Befragte gaben an, eine Langzeitarchivierung von 10 Jahren und/oder darüber hinaus gewährleisten zu können. Aktuell werden von den Mitgliedern der AG Datenzentren 16 Repositorien betrieben, wovon 11 fachspezifisch und 5 generisch ausgerichtet sind. Insgesamt vier der Repositorien sind aktuell zertifiziert, alle anderen streben eine Zertifizierung an.

Alle Datenzentren bieten die langfristige Kuratierung von Forschungsdaten an. Der jeweilige Umfang der Kuratierung unterscheidet sich allerdings zwischen den verschiedenen Zentren: Beispielsweise bieten nur acht Zentren eine Versionierung an und 10 Einrichtungen gaben an, die Anlage bzw. Extraktion von Metadaten zu übernehmen. 12 der Befragten vergeben persistente Identifier.

Die Entwicklung von Services im Bereich der Softwarekuratierung ist in den meisten Zentren noch nicht umfassend entwickelt. Lediglich ein Zentrum gab an, lebende Systeme zu hosten und/oder in den Dauerbetrieb zu übernehmen. Neun weitere Einrichtungen würden dies lediglich für eigene, oder für mit der eigenen Infrastruktur kompatible lebende Systeme anbieten.

Mit der Softwareentwicklung unterstützen einige Datenzentren direkt digitale geisteswissenschaftliche Forschung: 11 der Befragten gaben an, Tools für die Forschung zu entwickeln. Jeweils neun Zentren arbeiten an der Entwicklung von Schnittstellen und Portalen. Eine der befragten Einrichtungen gab an, Repositorien für Forscher*innen aufsetzen und einrichten zu können.

Die AG funktioniert als etablierter, kollaborativer und forschungsnaher Verbund geisteswissenschaftlicher Datenzentren. An den unterschiedlichen Standorten decken die einzelnen Datenzentren der AG in unterschiedlichsten Ausprägungen geisteswissenschaftliche FDM-Bedarfe in der Breite ab. Zusammen mit den jeweiligen Schwerpunktbereichen in Forschung und Services stellt die AG auf Zentrumsebene die Gesamtheit notwendiger Service- und Dienstestrukturen, auch oder gerade insbesondere im Hinblick auf die Entwicklungen einer Nationalen Forschungsdateninfrastruktur (NFDI) zur Verfügung.

Die Zusammenführung der gewonnenen Informationen aus den geführten Interviews ist aktuell weiter im Prozess und soll bis Ende 2019 in einem Online-Format präsentiert werden.

Paneldiskussion

Mit kurzen Referaten von jeweils 4 Minuten und den jeweils anschließenden Gelegenheiten zur direkten Nachfragen und Kommentaren stellten die Panelisten ihre Sicht auf Organisationsformen des Datenmanagements dar. Als Impuls hatten die Einreichenden folgende Leitfragen formuliert:

  • Welche Rollen spielen disziplinäre Grenzen und disziplinspezifische Fragestellungen für die Etablierung einer Forschungsdatenkultur und ihre Organisationsform in den Geistes- und Kulturwissenschaften?
  • Welche Auswirkungen hat die jeweilige Organisationsform des Datenmanagements auf multimediale, interdisziplinäre Forschungsprojekte? Welche besonderen Herausforderungen und Bedarfe stellen sich hier?
  • Wie können wir sicherstellen, dass auch kleinere Fachdisziplinen beteiligt und ihre Bedarfe adressiert werden?
  • Wie erreichen wir, dass wir uns nicht zu weit vom Forschungsalltag der Wissenschaftler*innen entfernen?
  • Wo sind spezifische Angebote notwendig, wo reichen generische Dienste?
  • Was können wir von anderen Disziplinen lernen, in denen sich schon eine gemeinsame Forschungsdatenkultur etabliert hat?

Alexander Czmiel, Leiter Informationstechnologie und Digital Humanities an der BBAW, machte sich mit seinem Beitrag stark dafür, Digital Humanities und Forschungsdatenmanagement nicht getrennt zu denken. In einer wissenschaftsgeleiteten Infrastruktur müsse die (nur digital zu beantwortende) Forschungsfrage vor der Entwicklung von Forschungssoftware stehen, nicht umgekehrt.

.@alexczmiel: Digital Humanities sind eigentlich Forschungsdatenmanagement, Fragen und Methoden müssen aus den Fächern kommen. Digitales Arbeiten kann man nicht outsourcen, sondern muss man verinnerlichen. #dhd2019

— Frederik Elwert (@felwert) March 27, 2019

Die notwendigen Konzepte, Standards und die entsprechenden Datenzentren existierten bereits weitgehend, allerdings fehle es an verbindlichen Richtlinien, Standards, Werkzeugen und Technologien. Die Aufgabe der DH sei es, Standards und Methoden in die Fächer zu diffundieren, während die Fachwissenschaftler*innen die Bedarfe zur Beantwortung ihrer Forschungsfragen klar formulieren müssten. Alexander Czmiel machte auf die Frage der Qualifikation und der Personalentwicklung im Bereich der dringend benötigten Fachkräfte, wissenschaftliche Softwareentwickler (Research Software Engineers), aufmerksam. Es sei zum einen schwer, qualifiziertes Personal zu finden, auf der anderen Seite bestünden kaum etablierte Karrierewege für Entwickler*innen im Wissenschaftsbetrieb, noch sei eine dauerhafte Finanzierung der Stellen gegeben.

Katrin Moeller vom Historisches Datenzentrum Sachsen-Anhalt (Hist-Data) in Halle betonte die Unterschiede in der Digitalität der Arbeitsweise, die häufig noch zwischen Digital Humanities und Fachwissenschaften – hier vor allem im Bereich der Geisteswissenschaften –  bestünden. Während in den Digital Humanities in der Regel die Forschungsfragen auf einer bestehenden Datengrundlage aufgebaut werden, müssten in den Fachwissenschaften die Forschungsdaten zur Beantwortung aktueller Forschungsfragen erst noch generiert werden. Der zusätzliche Aufwand, der durch Anforderungen des Forschungsdatenmanagement in den Fachwissenschaften entstünde, könne aber nicht unendlich ausgedehnt werden.

Eine „Datenkultur“ müsse langsam von unten und gemeinsam mit den Fachdisziplinen und Bibliotheken aufgebaut werden. Im Aufbau einer Datenkultur sei ein disziplinärer Ansatz wichtig. Bislang mangele es vor allem an Infrastrukturen und Ressourcen, insbesondere an qualifizierten Datenkurator*innen.

Datenkultur muss entwickelt werden – Katrin Moeller #dhd2019 #datamanagement

— Julia Rössel (@JuliaR2Punkt0) March 27, 2019

Peter Gietz, Geschäftsführer der DAASI International GmbH, Partner in der DARIAH-DE Betriebskooperation und Mitglied im DHd-Vorstand, kommentierte den Prozess hin zu einer NFDI mit Rückblick auf vorangegangene durch das BMBF geförderte Initiativen in den Digital Humanities (DARIAH, CLARIN, eHumanities-Zentren, …). Trotz guter Ansätze in den vergangenen Jahren, hätten diese jedoch keine Lösung der Nachhaltigkeitsproblematik herbeiführen können, da diese nur politisch bzw. förderpolitisch erreicht werden könne. Auf diesem Hintergrund mahnte er an, die NFDI nicht in den Formen klassischer “Projektforschungsförderungstrukturen” zu gestalten und zu begreifen. Kritisch betrachtete er auch die sich abzeichnende Ausbildung verschiedener Konsortien in den Geisteswissenschaften begünstigt durch das kompetitive Verfahren. Peter Gietz stellte die Frage, ob diese Struktur geeignet sei, das bisher Erreichte und zukünftige Entwicklungen den Geisteswissenschaften in der Breite zu Gute kommen zu lassen. Ideal wäre, wenn alle Institutionen, die über wichtige geisteswissenschaftliche Forschungsdaten oder entsprechende Dienste verfügen, am NFDI-Prozess – ob mit oder ohne Finanzierung – beteiligt werden könnten. Weiterhin appellierte er an die im Prozess beteiligten Vertreter der Geisteswissenschaften, ihre Probleme nicht isoliert zu betrachten, sondern geschlossen zu agieren und betonte die Rolle, die die DHd und das Forum “geisteswissenschaftliche NFDI” der DHd bei der Vernetzung spielen könne.

Cosima Wagner[vertrat auf dem Panel die Perspektive von Regionalstudienfächern (hier: Ostasienwissenschaften) und anderen Fächern, die auf der Basis von Quellen in nicht-lateinischen Schriften (NLS) forschen, lehren und publizieren sowie durch eine große Bandbreite an Methoden und Gegenständen gekennzeichnet sind. Obwohl diese Fächer einen wichtigen Beitrag zur Internationalisierung der Forschung in Deutschland leisteten, seien ihre Bedürfnisse bislang in den lokalen ebenso wie den überregionalen Infrastrukturen systematisch unterrepräsentiert. Zwar könnten Forschungsdaten in NLS in den meisten Repositorien gesichert, jedoch nicht in den Metadaten in NLS beschrieben werden. Ebenso mangele es an multilingual optimierten FD-Discovery-Systemen, so dass Forschungsdaten in NLS bislang nicht aufgefunden werden könnten. Hier wäre eine Unterstützung durch die DHd AG Datenzentren wünschenswert (Multilingualität als Teil eines DINI-Zertifikats!).

Für die Ausgestaltung der NFDI aus der Sicht dieser Fächer sei die Formulierung von NLS Daten-use cases und ein offenes Auge für internationale Kooperationen (FDM best practices in NLS Ländern) grundlegend.

Cosima Wagner betont die besonderen Anforderungen nicht-lateinischer Schriften, die auch im Jahr 2019(!) noch nicht selbstverständlich von #FDM-Tools unterstützt werden. #dhd2019

— Frederik Elwert (@felwert) March 27, 2019

Barbara Ebert berichtete über den NFDI-Prozess aus der Perspektive der Geschäftsstelle des RfII. Die NFDI sei als übergreifende Struktur ausgelegt, die nicht zentralistisch oder direktiv Formen vorgeben solle, sondern die Gelegenheit biete, Gewachsenes zu ordnen und zu konsolidieren und für eine nationale Nutzung geeignete Modelle auszuwählen. Die Basis hierfür bilden Partnerschaften zwischen wissenschaftlichen Communities und Diensteanbietern. Mit einer langen Planungs- bzw. Einstiegsphase, einem nicht primär kompetitiv angelegten Verfahren und der auf 10 Jahre angelegten Förderperiode wird das Ziel verfolgt, alle Akteure einzubinden und die Bedingungen für auf Dauer angelegte Lösungen jenseits projektförmiger Infrastrukturförderung zu schaffen. Gleichzeitig sei die NFDI jedoch ein “Realexperiment”, der gewählte Ansatz müsse sich zunächst bewähren. Bund und Länder hätten die Finanzierung daher zunächst auf 10 Jahre vereinbart. Die GWK wolle die NFDI vor Ablauf dieser Zeit evaluieren, um über eine Weiterfinanzierung zu entscheiden.

B. Ebert entwickelt für #rfii Bild von NFDI als Partnerschaft zw. Communities & Dienstanbieter pic.twitter.com/axrTxQS8iu

— Dr. Anne Klammt (@archaeoklammt) March 27, 2019 Zusammenfassung und Ausblick

Die Diskussion mit allen Teilnehmer*innen wurde von einer näheren Erläuterung von Frederik Elwert zu seinem Kommentar zum Diskussionsaufruf zum Panel im DHd-Blog eingeläutet (in voller Länge hier nachzulesen). Er skizzierte aus Sicht der Religionswissenschaft einige Bedenken zu einer “Sortierung” der NFDI nach Materialsorten, eine Option, die im Vorfeld verschiedentlich aufgetaucht war. Er betonte die Wichtigkeit vernetzter Organisationskriterien, die gerade für interdisziplinäre Forschung sehr wichtig ist. Außerdem thematisierte er, dass es für kleinere Fächer nicht einfach ist, sich für eines der Konsortien zu entscheiden, dass sie am besten vertritt. Dieser Punkt wurde dann in der weiteren Diskussion unter anderem unter dem Gesichtspunkt aufgenommen, wie es sichergestellt werden kann, dass die kleineren Fächer zu Wort kommen, ob in mehreren geisteswissenschaftlichen NFDI-Konsortien oder einem geisteswissenschaftlichen Gesamtkonsortium.

Insgesamt wurde der NFDI-Prozess in der Diskussion positiv bewertet, weil hierdurch ein Prozess zur lange notwendigen Konsolidierung in Gang gesetzt wurde, um einen Weg zu verlässlichen Infrastrukturen zu finden, da diese für die Wissenschaft unerlässlich sind. Es wurde auch deutlich, dass man irgendwo anfangen muss und die NFDI durchaus als eine Art “Realexperiment” betrachtet werden muss. Zum einen, weil sich erst zeigen muss, welche Lösung mehrheitlich praktikabel erscheint und zum anderen sich diese dann auch in der Praxis behaupten muss. Bei allen Diskussionen um mögliche Konsortien sollte auch nicht vergessen werden, dass es im Endeffekt um EINE NFDI geht, deren Konsortien gut untereinander vernetzt sein sollen. Im Rahmen dieses Prozesses müssen Governance- und Kommunikationsstrukturen entwickelt werden, um eine gute Balance zwischen den Bedarfen großer Fächer bzw. generischen Diensten, die vielen etwas nützen, und “exotischen” Bedarfen, wie die im Panel mehrmals thematisierten nicht-lateinischen Schriften, zu finden.  

Informationen zur DHd-AG Datenzentren:

Convenorin: Katrin Moeller (katrin.moeller[@]geschichte.uni-halle.de)

Stellvertreterin: Ulrike Wuttke (ulrike.wuttke[@]gmx.net)

AG-Webseite: http://dig-hum.de/ag-datenzentren

BBAW sucht: 2 studentische Mitarbeiter*innen (m/w/d) für den Bereich Historische Korpora

dhd-blog - Do, 06/20/2019 - 11:42

An der Berlin-Brandenburgischen Akademie der Wissenschaften (BBAW) sind momentan zwei Stellen für studentische Mitarbeiter*innen (m/w/d) ausgeschrieben, u. a. mit Aufgaben im Bereich des Aufbaus und der Pflege historischer Korpora. Projektkontexte sind die BMBF-geförderten Projekte „Zentrum für digitale Lexikographie der deutschen Sprache – Aufbauphase“ (ZDL) sowie CLARIAH-DE.

  • SHK im Umfang von 41 Stunden/Monat,
  • zunächst befristet für mindestens sechs Monate,
  • die Vergütung erfolgt nach TV Stud II Berlin,
  • der Dienstort ist Berlin

Den Link zur Stellenausschreibung finden Sie unter:
http://www.bbaw.de/stellenangebote/ausschreibungen-2019/IAG-04-2019_ZDL_CLARIAH-DE_ 2 Stellen_SHK_PR2.pdf

Bewerbungsschluss ist der 30. Juni 2019. Bewerbungen unter der Kennziffer „IAG/04/2019“ bitte an personalstelle@bbaw.de.

Inhaltliche Fragen zu den Aufgaben und den in der Ausschreibung beschriebenen Anforderungen gerne an Christian Thomas, thomas@bbaw.de.

Bitte leiten Sie die Ausschreibung ggf. an potentiell Interessierte weiter – herzlichen Dank!

DARIAH Code Sprint 2019, Berlin 24.-26.9.2019: Registration open

dhd-blog - Do, 06/20/2019 - 10:23

You are invited to join the DARIAH Code Sprint 2019! It is an opportunity to bring together interested developers and DH-affiliated people, not only from the wide DARIAH community. For this purpose we would like to cordially invite you to spend three days in Berlin working on topics related to bibliographical metadata. The registration is now open and can be found here.

Although this is already our second DARIAH code sprint it is not exclusively addressed to participants of the first code sprint. Everyone is welcome! An affiliation to coding in the Digital Humanities or general in technological discussions would although be helpful.

The code sprint will take place from September 24th to September 26th 2019 in Berlin in a relaxed and productive environment. The exact location will be announced on the code sprint page.

We will have three tracks approaching the wider topic of bibliographical metadata from three angles: extraction of data from PDFs (GROBID), the import and processing of data applying Bibsonomy and the visualisation of this data.

The code sprint is organised by the DESIR project (DARIAH ERIC Sustainability Refined), an offspring of DARIAH-EU.

Wie prototypisch sind die Digital Humanities?

dhd-blog - Mi, 06/19/2019 - 23:51

Erfahrungsbericht über Softwareprototypen auf der DHd 2019
von Rabea Kleymann (Universität Hamburg) erschienen.

Der ganze Beitrag findet sich auf dem CLARIN-Blog: https://t.co/h8D6rZBXbf

Call for Applications for the third Distant Reading Training School: Budapest, 23-25 September 2019

dhd-blog - Mi, 06/19/2019 - 17:23

The COST Action Distant Reading for European Literary History is issuing a Call for Applications for its third Training School, hosted by the Centre for Digital Humanities – Eötvös Loránd University in Budapest from September 23 to 25, and co-located with the DH_Budapest 2019 conference.

Note that participation is free of charge! Applicants may apply for one of the grants for participation in one of the 3 parallel tracks:

  • TRACK 1: Corpus design and text contribution for ELTeC
  • TRACK 2: Natural Language Processing for Distant Reading
  • TRACK 3: Canonization in Distant Reading Research

To apply, please see the information and instructions in the full Call for Applications. Applications will be sent to Roxana Patras (roxanapatras82@gmail.com) and Christof Schöch (schoech@uni-trier.de) before June 25th, 2019. In case you have questions regarding the call, the application process or the Training School, please contact Roxana Patras, the Action’s Training School Coordinator (roxanapatras82@gmail.com).

Beside the participation in one of the 3 parallel tracks, there are also opportunities for all Training School participants to register for and participate in the DH_BUDAPEST 2019 conference, held in Budapest and directly following the Training School, from September 25 to 27, 2019! Information will be available on the conference page.

More details regarding the programme of the Training School are forthcoming. Please watch the page dedicated to the Training School on the Action’s website at: https://www.distant-reading.net/events/budapest-training/.

Early Career Investigators (ECI) from Inclusiveness Target Countries (ITC) (see: http://www.cost.eu/about_cost/strategy/excellence-inclusiveness) are strongly encouraged to apply!

Please feel free to disseminate this message within your own research communities.

 

RIDE 10 veröffentlicht – Rezensionen digitaler Briefeditionen

dhd-blog - Mi, 06/19/2019 - 13:09

Wir freuen uns, die zehnte Ausgabe des Rezensionsjournal RIDE, das seit 2014 vom Institut für Dokumentologie und Editorik (IDE) herausgegeben wird, ankündigen zu können. Die aktuelle Ausgabe widmet sich einem Editionstyp, der sich in den letzten beiden Jahrzehntenstetig wachsender Beliebtheit erfreut: der digitalen Briefedition.

Band 10 enthält folgende fünf Rezensionen (zwei auf Englisch, drei auf Deutsch):

Alle Rezensionen sind abrufbar unter http://ride.i-d-e.de/issue-10. Herausgeber dieser Ausgabe ist Stefan Dumont.

Der Schwerpunkt “Digitale Briefedition” wird mit einer weiteren Ausgabe von RIDE, die voraussichtlich im Herbst/Winter dieses Jahres erscheinen wird, fortgesetzt.

Wissenschaftlichen Mitarbeiter (w/m/d) befristet für die Dauer von vier Jahren

dhd-blog - Mo, 06/17/2019 - 17:44

Als moderne Dienstleistungseinrichtung für Öffentlichkeit, Forschung und Verwaltung sichert das Bundesarchiv Zeugnisse zur neueren und neuesten Geschichte als Archivgut und macht sie zugänglich. Weitere Informationen erhalten Sie im Internet unter www.bundesarchiv.de.        

Im Referat GW 4 (Kabinettsprotokolle der Bundesregierung, Kabinettsausschüsse) am Dienstort Koblenz sucht das Bundesarchiv für die Einführung eines Redaktionssystems sowie einer neuen Online-Präsentation für die Editionen des Bundesarchivs in Zusammenarbeit mit einem externen Kooperationspartner zum nächstmöglichen Zeitpunkt einen

Wissenschaftlichen Mitarbeiter (w/m/d)

befristet für die Dauer von vier Jahren

Zu den Aufgaben zählen – in enger Abstimmung mit dem Kooperationspartner – insbesondere:

  • Mitarbeit bei der Erarbeitung eines Feinkonzepts für das neue System
  • Mitarbeit bei der Entwicklung eines Datenmodells für die Editionen des Bundesarchivs
  • fachliche Begleitung der Anpassungsarbeiten einschließlich der Konvertierung der Altdaten der Kabinettsprotokolle
  • Zusammenarbeit mit den für IT-Steuerung und Ressourcenplanung im Bundesarchiv zuständigen Referaten
  • Begleitung der Einführung des neuen Systems in den Echtbetrieb einschließlich der Schulung von Editionsmitarbeitern
  • Konzeption einer Präsentationsumgebung sowie Planung und Organisation der Integration weiterer Editionen

Anforderungen:

  • eine mindestens mit der Gesamtnote „gut“ abgeschlossene wissenschaftliche Hochschulausbildung (gemäß § 7 EntgO Bund) im Fach Digital Humanities, Historische Fachinformatik, Informationswissenschaft bzw. Computerlinguistik

oder

  • eine mindestens mit der Gesamtnote „gut“ abgeschlossene wissenschaftliche Hochschulausbildung  (gemäß § 7 EntgO Bund) der Geschichtswissenschaften

sowie

  • nachgewiesene fundierte Kenntnisse auf dem Gebiet der Datenmodellierung und -verarbeitung mit XML und XSLT
  • substantielle Kenntnisse internationaler Standards in der Auszeichnung von (Meta)Daten, z. B. TEI
  • substantielle Kenntnisse einer Programmiersprache, z. B. Java
  • nachgewiesene Erfahrungen in Projektarbeit
  • gutes mündliches und schriftliches Ausdrucksvermögen

Für die Stellenbesetzung wird eine überdurchschnittlich engagierte, fachlich qualifizierte, tatkräftige und ideenreiche Persönlichkeit gesucht. Es werden ein hohes Maß an Leistungsbereitschaft, Zuverlässigkeit, Entscheidungsfähigkeit und Organisationskompetenz sowie die Fähigkeit zur interdisziplinären Zusammenarbeit und eine ausgeprägte Teamfähigkeit erwartet.

Die Tätigkeiten sind der Entgeltgruppe 13 TVöD zugeordnet.

Die Ausübung einer Teilzeitbeschäftigung ist grundsätzlich möglich.

Das Bundesarchiv hat sich die berufliche Gleichstellung von Frauen und Männern zum Ziel gesetzt. Bei gleicher Eignung werden Frauen nach dem Bundesgleichstellungsgesetz, schwerbehinderte Menschen nach Maßgabe des SGB IX besonders berücksichtigt.

Die Bewerbung von Menschen aller Nationalitäten wird begrüßt.

Sofern Sie einen ausländischen Studienabschluss erworben haben, möchten wir Sie darauf hinweisen, dass dieser nur berücksichtigt werden kann, wenn nachgewiesen wird, dass der Abschluss dem deutschen Hochschulabschluss gleichgestellt ist. Eine entsprechende Einstufung „Gleichwertig“ kann grundsätzlich durch die Datenbank ANABIN ( www.anabin.de ) festgestellt werden. Besteht keine ordentliche Zuordnung, können Sie einen Nachweis bei der Zentralstelle für ausländisches Bildungswesen (ZAB) beantragen.

Wir bitten Sie, die geforderten Nachweise samt einer Übersetzung des ausländischen Abschlusszeugnisses (inkl. Note) Ihrer Bewerbung beizufügen.

Sofern für  Ihren  Abschluss  eine  Akkreditierung  vorliegt,  bitten  wir  die  entsprechenden  Nachweise  Ihrer Bewerbung beizufügen.

Fehlende Unterlagen (Lebenslauf, Abschlusszeugnisse inkl. Abschlussnote, Arbeitszeugnisse sowie in der Stellenausschreibung geforderte Nachweise) gelten als unvollständige Bewerbungsunterlagen und können keine weitere Berücksichtigung finden.

Bewerben Sie  sich bitte mit vollständigen Bewerbungsunterlagen (insbesondere Ausbildungsabschlusszeugnis mit Abschlussnote)  bis zum 05.07.2019  online unter www.interamt.de mit der Stellen ID: 518254.

CFP: Workshop: Forschungsdatenmanagement praktikabel gestalten, Herder-Institut für historische Ostmitteleuropaforschung (Marburg)

dhd-blog - Fr, 06/14/2019 - 16:28

Seit 2017 führen wir am Herder-Institut für historische Ostmitteleuropaforschung ein BMBF-gefördertes Projekt zur Weiterentwicklung unseres institutionellen Forschungsdatenmanagements (FDM) durch. Nun wollen wir am 20./21. August 2019 in einem Workshop in Marburg unsere Erkenntnisse mit der Fachcommunity teilen. Ähnlich wie vermutlich viele von Ihnen standen und stehen wir vor der Frage, wie wir an einem geisteswissenschaftlichen, vorrangig qualitativ arbeitenden Institut ein sinnvolles Forschungsdatenmanagement einführen können und die Entwicklung einer Nationalen Forschungsdateninfrastruktur nutzen und mitgestalten können. Während in manchen Disziplinen die Standardisierung weiter vorangeschritten scheint, mangelt es in der Geschichte und Kunstgeschichte weitgehend an FDM-Standards und eingespielten Workflows.

Wir haben in den letzten zwei Jahren den FDM-Bedarf im Haus erfasst, laufende Forschungsvorhaben und Projektentwicklungen exemplarisch in Fragen des FDM unterstützt und einen Maßnahmenkatalog erarbeitet, mit dem wir das FDM nachhaltig im Haus verankern wollen. Wir möchten unsere Projektergebnisse gerne diskutieren und erfahren, wo ähnlich arbeitende Institutionen im Bereich des FDM stehen und wie wir ggf. voneinander lernen und miteinander aktiv werden können:

Welche Maßnahmen zur Verbesserung des institutionellen FDM haben Sie bereits ergriffen?
Neben der Erarbeitung von Policies und Konzepten interessieren uns dabei vor allem die ganz praktischen Schritte der Umsetzung.

Welche konkreten Maßnahmen z. B. bzgl. des Datenmanagements, der Einführung oder Anbindung an Repositorien und Archive, der Einführung von Workflows in Projektberatung (von der Entwicklung bis über den Abschluss hinaus), der Klärung und Dokumentation von Rechten und der Durchführung von Qualifizierungsageboten haben sich als gut umsetzbar erwiesen?

Wir wollen Beitragende einladen, zu diesen und weiteren hier nicht aufgeführten Themen vorzutragen, wobei vor allem Praxiserfahrungen im FDM und den damit verbundenen Veränderungen für individuelle Arbeitsweisen und institutionelle Prozesse interessieren. Insbesondere willkommen sind Beiträge, die speziell geisteswissenschaftliche Belange und das FDM an außeruniversitären Forschungsinstituten betreffen. Die Beiträge sollten sich im Rahmen von 5-15 Minuten bewegen. Pro Person können auch mehrere Beiträge eingereicht werden.
Bitte melden Sie sich bei Interesse bis zum 16.06.2019 mit einem informellen Abstract (ca. 60-120 Wörter) und einem Titelvorschlag bei uns über das Anmeldeformular an: https://www.herder-institut.de/htdocs/limesurvey/index.php/767865
Rückfragen können Sie an fdm@herder-institut.de richten.

Sie sind auch willkommen, wenn Sie den Workshop „nur“ für den eigenen Erkenntnisgewinn und den Austausch mit Kolleg/innen nutzen möchten.
Um das Interesse einschätzen zu können, bitten wir auch hier bis zum 16.06.2019 um eine informelle Meldung unter https://www.herder-institut.de/htdocs/limesurvey/index.php/767865, falls Sie am Workshop teilnehmen möchten.

Kontakt

Bibliothekar (m/w/d), unter anderem zur Mitarbeit bei der Erschließung von Retro-Digitalisaten und Born-digital-Objekten in der Digitalen Sammlung der Hochschule für Musik und Theater München (HMTM)

dhd-blog - Di, 06/11/2019 - 14:29

Die Hochschule für Musik und Theater München (HMTM) zählt zu den bedeutendsten und vielfältigsten Ausbildungsstätten für Musik‐, Tanz‐ und Theaterberufe in Europa.

Zum 15. Oktober 2019 ist zunächst für die Dauer der Mutterschutzfrist befristet, mit der Option der Verlängerung für die Dauer der Elternzeit, folgende Stelle zu besetzen:

Zum 15. Oktober 2019 ist zunächst für die Dauer der Mutterschutzfrist befristet, mit der Option der Verlängerung für die Dauer der Elternzeit, folgende Stelle zu besetzen:

Bibliothekar (m/w/d)
Ihre Aufgaben
  • Betreuung der Zeitschriftenabteilung (Akzessionierung, Lokaldatenpflege in der ZDB und dem angeschlossenem Lokalsystem OCLC-SISIS)
  • Formal- und Sacherschließung von Musikalien und AV-Daten nach den RDA im Bayerischen Verbundkatalog sowie Lokaldatenerfassung im angeschlossenem Lokalsystem OCLC-SISIS
  • Mitarbeit im Benutzungsbereich der Bibliothek (Ausleihe/Fachauskunft)
  • Mitarbeit bei der Erschließung von Retro-Digitalisaten und Born-digital-Objekten in der Digitalen Sammlung der HMTM
Ihr Profil
  • Ein abgeschlossenes Studium im Bereich Bibliotheks- und Informationsmanagement (Diplom, Bachelor, Master oder gleichwertige Qualifikation)
  • Ein musikbibliothekarisches Zusatzstudium oder Zusatzqualifikationen im Bereich Musikinformationsmanagement, mindestens jedoch Erfahrungen in der Nutzung bibliographischer Fachdatenbanken und Normdaten
  • Sichere Kenntnis des internationalen Standards RDA
  • Praktische Erfahrungen in der Verbundkatalogisierung, vorzugsweise Exlibris-Aleph (BVB) und WinIBW (ZDB)
  • Sichere Beherrschung der gängigen MS-Office-Anwendungen
  • Selbstständige und präzise Arbeitsweise sowie flexible Einsatzbereitschaft
  • Gute Kommunikations- und Teamfähigkeit
  • Ausgeprägte Kunden- und Dienstleistungsorientierung
Wir bieten
  • Vergütung bis zur Entgeltgruppe 9 TV-L mit einer wöchentlichen Arbeitszeit von 40,1 Stunden
  • Die Mitarbeit in einem engagierten Team und einem lebendigen künstlerischen Umfeld
  • Schwerbehinderte werden bei ansonsten im Wesentlichen gleicher Eignung bevorzugt berücksichtigt. 

Bitte reichen Sie Ihre Bewerbung über unser Online-Portal bis spätestens 30. Juni 2019 ein.

Die Hochschule übernimmt keine Reisekosten im Rahmen des Vorstellungsverfahrens.

International Survey of the Time Machine CSA: What are next priorities in the field of digital technologies for cultural heritage and humanities?

dhd-blog - Di, 06/04/2019 - 16:20

Dear colleagues,

we would highly appreciate if you could spend some minutes of your valuable time to complete a survey to identify research priorities, stakeholders and best practices in the field of digital technologies for cultural heritage in for elaborating a research agenda for a large scale research initiative. We are writing to you since you have contributed to major international workshops and conferences in the field of digital cultural heritage.

This survey has 6 questions only. You should be able to complete it within 5-10 minutes.
Please follow: https://ww3.unipark.de/uc/time_machine_survey/

Time Machine (TM) is a large-scale research initiative aiming to develop the big data of the past by designing and implementing advanced new digitisation and Artificial Intelligence (AI) technologies to mine Europe’s vast cultural heritage. The European Commission has chosen Time Machine (https://timemachine.eu/) as one of the six CSA proposals retained for preparing large scale research initiatives in the next decade (call FETFLAG-01-2018). With your participation and support, we intend to review and examine needs and procedures that are of high relevance for elaborating a research agenda to approach funding bodies such as the European Commission and national ministries.

We highly appreciate your willingness to participate and value your feedback.

On behalf of the Time Machine
Sander Münster

IIIF-Jahreskonferenz 2019 in Göttingen: Vollständiges Programm verfügbar

dhd-blog - Mo, 06/03/2019 - 11:21

Vom 24. Bis 28. Juni findet die International Image Interoperability Framework (IIIF) Conference 2019 in Göttingen statt. Sie wird von der Niedersächsischen Staats- und Universitätsbibliothek Göttingen ausgerichtet. Im DHd-Blog wurde die Konferenz bereits angekündigt.

Auf der Konferenzseite ist nun das vollständige Programm abrufbar. Neben einem Überblick werden detaillierte Ablaufpläne für sämtliche Tage bereitgestellt.

Insbesondere Newcomern möchten wir den deutschsprachigen Workshop „IIIF für Einsteiger, eine deutschsprachige Einführung“ am 25. Juni empfehlen. Der Workshop ist eigens dafür eingerichtet, allen TeilnehmerInnen mit wenig oder keiner Erfahrung mit IIIF den Einstieg in die Community zu erleichtern. Die Teilnahme daran kann separat und zu dem reduzierten Beitrag von 70€ gebucht werden.

Die Registrierung ist hier möglich: https://www.eventbrite.co.uk/e/2019-iiif-annual-conference-tickets-58796011453

Informationen zu Anreise, Übernachtung und Veranstaltungsort sind hier zu finden: https://iiif.io/event/2019/goettingen/#logistics

Fragen können gerne an iiif2019@sub.uni-goettingen.de gerichtet werden.

Aktionstag Forschungsdaten an der Johannes Gutenberg-Universität Mainz

dhd-blog - Mi, 05/29/2019 - 11:07

Am 26. Juni 2019 werden an der Universität Mainz wieder praktische Aspekte des Forschungsdatenmanagements in den Fokus genommen. Von 9:30 bis 14:30 Uhr geht es in Vorträgen  und Diskussionen um Themen die Forschende, Data Curators und Data Managers in der Praxis beschäftigen. Wie z.B. Fragen des Datenschutzes oder Datenmanagementpläne sowie die technische Organisation von Daten in Verbundprojekten.

Für die Digital Humanities unmittelbar interessant werden sein:

9:40 – 9:50 Impuls: „Nationale Forschungsdateninfrastruktur (NFDI) -Status Quo“ von Prof. Dr. Kai-Christian Bruhn, Mainzer Zentrum für Digitalität in den Geistes-und Kulturwissen-schaften -mainzed

10:10 – 10:20 Impuls: „Datenschutzrechtliche Fragen beim Umgang mit Forschungsdaten“ von Dr. Sebastian Golla, Rechtswissenschaften, Johannes Gutenberg-Universität Mainz

Im Anschluss an diese und weitere Impulsvorträge wird es Thementische geben, an denen man sich konkret informieren kann und seine eigenen Fragen in kleiner Runde anbringen kann.

Vollständiges Programm als PDF https://www.forschungsdaten.uni-mainz.de/files/2019/04/Aktionstag_Forschungsdaten_Programm_2019-1.pdf



Deadline verlängert! CfP: Wozu digitale Geisteswissenschaften? Innovationen, Revisionen, Binnenkonflikte (Leuphana Universität Lüneburg)

dhd-blog - Di, 05/28/2019 - 08:26

Wir haben unseren Einsendeschluss verlängert!
Bewerbungen für das Symposium „Wozu digitale Geisteswissenschaften? Innovationen, Revisionen, Binnenkonflikte“ (20. bis 22. November 2019) werden noch bis zum 15. Juni 2019 angenommen.

Infos unter: www.digitalitaet-geisteswissenschaften.de
Bewerbung an: digitalitaet.dfg@uni-bayreuth.de (Ansprechpartnerin: Julia Menzel)

DH-Kolloquium @BBAW, 7.6.2019 / Gregor Middell: „Das Suchportal Arno Schmidt – Zur digitalen Erschließung der Bargfelder Ausgabe”

dhd-blog - Mo, 05/27/2019 - 16:21

Im Rahmen des DH-Kolloquiums an der Berlin-Brandenburgischen Akademie der Wissenschaften möchten wir Sie herzlich zum nächsten Termin am Freitag, den 7. Juni 2019, 17 Uhr s.t. bis 19 Uhr (Konferenzraum 1) einladen.

Gregor Middell (pagina Publikationstechnologien, Tübingen)
„Das Suchportal Arno Schmidt – Zur digitalen Erschließung der Bargfelder Ausgabe”.

Zum 105. Geburtstag ihres Autors veröffentlichte die Arno-Schmidt-Stiftung im Januar dieses Jahres ein web-basiertes Findmittel, mit dem die gesamte Bargfelder Ausgabe der Werke Schmidts online durchsucht werden kann (https://www.arno-schmidt-stiftung.de/eba/). Das Suchportal löst damit die „Bargfelder Ausgabe auf CD-ROM” aus dem Jahr 1998 ab. Wie die CD-ROM-Version erlaubt auch das neue Portal die Volltextrecherche im über 9.900 Seiten umfassenden Bestand und berücksichtigt Schmidts teils unkonventionelle Orthographie. Anders als die Vorgängerversion basiert sie nicht nur auf einem Volltextindex mit absatzweisen Referenzen zu den entsprechenden Seiten der Ausgabe. Neben dem Index für die Recherche im Text stützt sich das Portal bei der Präsentation der Suchergebnisse auf ein automatisch erzeugtes, zeilenweises Referenzsystem zwischen dem Volltext und entsprechenden Ausschnitten („snippets”) digitaler Reproduktionen aller Buchseiten. Das System ermöglicht somit Ergebnisdarstellungen, wie man sie von Google Books kennt und die, wegen der formalen Besonderheiten (Marginalien, mehrspaltiger Text) gerade im Spätwerk Schmidts, die Erschließung desselben erleichtern sollen.

Zur Erzeugung des Referenzsystems zwischen Text (vorliegend im Microsoft-Word-Format) und den digitalen Reproduktionen einzelner Buchseiten dienten neben OCR-Verfahren solche des computergestützten Textvergleichs. Ihr Einsatz sowie die besonderen Herausforderungen bei der Aufbereitung der Eingangsdaten, etwa der Umgang mit OCR-Fehlern oder mit Umstellungen in der Reihenfolge von Volltext und OCR-Ergebnis, bilden neben einer Einführung in die Softwarearchitektur des Portals den Gegenstand des Vortrags.

Die Veranstaltung findet im Konferenzraum 1 der Berlin-Brandenburgischen Akademie der Wissenschaften, Jägerstr. 22/23, 10117 Berlin statt. Da die Teilnehmerzahl begrenzt ist, bitten wir Sie um Anmeldung per E-Mail an: DH-Kolloquium@bbaw.de



Ausschreibung: CRETA-Coaching

dhd-blog - Mo, 05/27/2019 - 07:38

Das Zentrum für Reflektierte Textanalyse (CRETA, Universität Stuttgart) bietet 2019 erstmals ein spezielles Coaching an, das sich an Nachwuchswissenschaftlerinnen und -wissenschaftler aus den Geistes- und Sozialwissenschaften richtet. Ziel des Coachings ist es einerseits, Grundlagen der maschinellen Textanalyse zu vermitteln, andererseits sollen konkrete Operationalisierungsmöglichkeiten für die vorliegenden Forschungsfragen gemeinsam erarbeitet werden, insbesondere im Hinblick auf die Kombination maschineller und manueller Textanalyse.
Zum Coaching gehört die Teilnahme an mehreren Veranstaltungen, die zwischen dem 9. und 17. September 2019 in Stuttgart stattfinden, sowie eine Beihilfe zu den Reisekosten.

Bewerbungen werden bis zum 15. Juni erbeten.

Weitere Informationen finden sich auf der Webseite https://www.creta.uni-stuttgart.de/coaching/, Rückfragen können auch gerne direkt an nils.reiter@ims.uni-stuttgart.de gerichtet werden.

CfP: 26. Jahrestagung der International TUSTEP User Group (ITUG), 25.-27.9.19, Trier

dhd-blog - Do, 05/23/2019 - 23:41

Vom 25. bis 27. September 2019 findet in Trier die 26. Jahrestagung der International TUSTEP User Group (ITUG) statt.

Gastgeber der Tagung sind das Cusanus-Institut und das Trier Center for Digital Humanities.

Organisatorisches

Anmeldung

Ihre Referatsvorschläge und Anmeldungen senden Sie bitte an Alexandra Geissler (geissler@uni-trier.de).

Reisestipendien für Studierende

Wie üblich stiftet die ITUG Reisekostenzuschüsse für Studierende, die an der Jahrestagung teilnehmen möchten. Erwartet wird eine aussagekräftige Bewerbung bis 1. September 2019 an Ute Recker-Hamm (recker@uni-trier.de). BewerberInnen, die einen aktiven Beitrag zur Tagung leisten, werden bevorzugt berücksichtigt.

Organisation vor Ort und inhaltliche Fragen:

Alexandra Geissler (Telefon: Mo-Mi +49 651-14551-19; E-Mail: geissler@uni-trier.de)

Weitere Informationen: http://itug.de/ITUG2019.html 

Tagungsbericht „Annotationen in Edition und Forschung. Funktionsbestimmung, Differenzierung und Systematisierung“ (von Lisa Eggert, Maximilian Lippert, Fabian Etling)

dhd-blog - Do, 05/23/2019 - 08:29

Der Terminus „Annotation“ gewinnt mit der fortschreitenden Verankerung der Digital Humanities innerhalb der akademischen Landschaft immer stärker an Bedeutung. Gleichzeitig steht er in den Geistes- und Informationswissenschaften für jeweils unterschiedliche Konzepte, welche zwar in Umfang, Einsatz und Zielausrichtung variieren, aber auch konzeptuelle Parallelen aufweisen. Vor dem Hintergrund der Zusammenarbeit der verschiedenen Wissenschaftsdisziplinen scheint es daher geboten, verschiedene Annotationspraxen und die mit ihnen verbundenen Konzepte von Annotationen zu reflektieren und diskutieren, ins Verhältnis zueinander zu setzen sowie Gemeinsamkeiten und Unterschiedlichkeiten zu systematisieren. Hierfür luden Julia Nantke und Frederik Schlupkothen (beide Bergische Universität Wuppertal) vom Graduiertenkolleg „Dokument – Text – Edition. Bedingungen und Formen ihrer Transformation und Modellierung in transdisziplinärer Perspektive“ zur interdisziplinär angelegte Tagung „Annotationen in Edition und Forschung. Funktionsbestimmung, Differenzierung und Systematisierung“ (https://www.editionen.uni-wuppertal.de/de/veranstaltungen/tagungen/annotation.html) vom 20. bis zum 22. Februar 2019 an die Bergische Universität Wuppertal ein. Wissenschaftler*innen aus verschiedenen Ländern und Fachbereichen berichteten in fünf Sektionen über ihre Forschungsprojekte und -ergebnisse zu Annotationen, deren unterschiedlichen Erscheinungsformen und Funktionsweisen sowie zu verschiedenen terminologischen, methodischen und technischen Fragestellungen. Der Annotationsbegriff wurde hierbei bewusst weit gefasst und sowohl auf digitale und analoge sowie manuelle und automatisierte Annotationsprozesse in unterschiedlichen Medien bezogen.

Die Tagung eröffnete Key-Note-Speaker Willard McCarty (King’s College London) mit seinem Vortrag Making notes, reading annotations: Thoughts on a coupling, with examples, in dem er grundsätzliche Überlegungen zum Beschriften von beliebigen Objekten anstellte. Das Beschriften von Gegenständen in der Welt, also Annotation in einem weiten Sinne, diene dem Bewahren und Abrufen von Gedanken und könne nicht ohne die es bedingenden Umstände sowie das erforderliche Wissen über die jeweiligen Medien verstanden werden. Dieses Annotieren sei außerdem immer auch eine temporäre kognitive Verbindung zwischen Annotator*in und (physischem) annotiertem Objekt, wobei vorläufige Überlegungen erarbeitet, sprachlich ausgedrückt und angeordnet werden. McCarty plädierte dafür, dass eine Auseinandersetzung mit Annotationen auch immer jenes „Coupling“ und die damit einhergehenden kognitiven Prozesse der Annotator*innen mit in den Blick nehmen sollte. Hierfür beschrieb er exemplarisch Vorgehensweisen des Notizenmachens in der Auseinandersetzung mit einem wissenschaftlichen Gegenstand, angelehnt an die lexikographische Methode von James Murray, und machte deutlich, dass auch moderne computergestützte Formen des Annotierens im Hinblick auf das Coupling genauso funktionieren wie traditionellere Arten des Beschriftens, Markierens oder Notizenmachens. Im Anschluss zeigte er anhand von drei weiteren beispielhaften Annotationsformen – mittelalterliche Glossen für spätere Leser desselben Buches, Notizen eines Wissenschaftlers zu einem Experiment und schließlich ein politisches Graffito in Belfast –, wie die Gedanken des Beschriftenden in Bezug auf das beschriftete Objekt von Dritten wahrgenommen werden und wie sie dort funktionieren. So wurde klar, dass der Begriff „Annotieren“ im Sinne von Coupling sehr weit gefasst sein und auf viele verschiedene Praktiken des Beschriftens referieren kann. An allen jenen Praktiken sowie den jeweils voneinander abweichenden Bedürfnissen auf Rezipient*innenseite müssen sich laut McCarty schließlich auch Entwickler*innen von Annotationstools orientieren.

Den Auftakt innerhalb der ersten Sektion „Form von Annotationen“ machte mit Mark Hall (Martin-Luther-Universität Halle-Wittenberg) ein Informatiker. In seinem Vortrag Annotations are Not Just for Writing fokussierte er auf die eben angesprochene Rezipient*innenseite des Annotierens sowie die hier virulenten Anforderungen bei der Programmierung eines Annotationstools. Tools, die für die Text Encoding Initiative (TEI) entwickelt werden, konzentrieren sich hauptsächlich auf das Erstellen, Kodieren, Kommentieren und Verarbeiten von Text. Leider gerate laut Hall dabei das langfristige Ziel von Annotationen, der Transfer von Wissen, das mit einem bestimmten Text verknüpft ist, oftmals aus dem Fokus und werde von aktuellen Tools nicht ausreichend berücksichtigt. Vor diesem Hintergrund stellte er den selbstentwickelten Digital Edition Reader, eine datenagnostische JavaScript-Komponente, welche eine digitale Leseumgebung mit angenehmer Leseatmosphäre bietet, anhand einer eigens erstellten Faust-Edition vor. Um im digitalisierten kommentierten Text Orientierung zu finden, wurden Standards bezüglich gängiger physischer Texte auf den Digital Edition Reader übertragen. Diese betreffen die Repräsentation der Annotationen sowie eine Instanz zur Navigation im annotierten Text. Der Reader bietet zwei Darstellungsmodi an, um verschiedene Nutzerbedürfnisse zu befriedigen, wobei der Haupttext stets zentral ist. Im ersten Modus steht dieser in der Mitte, während ein Panel links davon via Inhaltsverzeichnis, Index und Suchfeld die Navigation ermöglicht sowie ein Panel rechts die Annotationen abbilden soll. Im Haupttext werden die kommentierten Textpassagen in Abhängigkeit von den Designvorgaben der Edition entweder mithilfe von Standard-Web-Links oder durch das Hinzufügen von Fußnoten am Ende der Passage hervorgehoben. Der zweite Darstellungsmodus fokussiert stärker auf die Rezeption des Haupttextes, wobei Benutzer*innen durch einen Klick auf Markierungen im Text auf einzelne Annotationen zugreifen können. Die Anmerkungen erscheinen nun in einem Blockbereich am unteren Rand des Bildschirms, wobei die Repräsentation an die Fußnoten eines Buches angelehnt ist.

Im Anschluss fragte Manuel Bamert (ETH Zürich) in seinem Vortrag „Aha!“ – Wissenstheoretische Perspektiven auf Stiftspuren in Privatbibliotheken nach dem literaturwissenschaftlichen Erkenntnispotential von Lese- und Stiftspuren in Thomas Manns Privatbibliothek und wie derlei handschriftliche Annotationen in einem digitalen Textkorpus be- und verarbeitet werden können. Dies ist auch das erklärte Vorhaben des im Vortrag vorgestellten vom Schweizerischen Nationalfonds geförderten Forschungsprojektes „Produktive Lektüre. Thomas Manns Nachlassbibliothek“ (http://www.lit.ethz.ch/forschung/laufende‑drittmittelprojekte/thomas‑manns‑nachlassbibliothek.html) an der ETH Zürich. Hier soll erstmals systematisch der gesamte Bestand von Thomas Manns Privatbibliothek auf Stiftspuren untersucht und vollständig digitalisiert werden. Ziel ist die Erstellung eines digitalen Recherchetools, mit dem man systematisch nach den Stiftspuren suchen kann. Bamert erörterte in seinem Vortrag vor allem die terminologischen, epistemologischen und praxeologischen Fragestellungen und Probleme, welche im kulturhistorisch-philologischen Spannungsfeld der sogenannten Lesespurenforschung auftreten können. So gebe es für die Erschließung und Erforschung von Privatbibliotheken sowie die dort vorzufindenden Lesespuren keine terminologischen Standards. Diese Arten von Annotationen lassen sich schließlich nicht über ihre jeweils spezifische Funktionalität definieren, sondern vielmehr über ihre Materialität. Dabei können Stiftspuren wie Unter-, An- und Durchstreichungen, die also selbst nicht als Schrift zu bezeichnen sind, ebenso relevant sein wie Randbemerkungen – so etwa das titelgebende „Aha!“. Barmert fragte vor diesem Hintergrund, wie sich der Begriff der Annotation für derlei Lesepuren verwenden lasse und wo seine Grenzen seien. Weiterhin sei zu klären, welche Art von Lesespuren überhaupt digital erfasst werden und wie diese später per Recherchetool aufsuchbar sein sollen. Als Forschungsdesiderat markierte er zum Schluss zudem das Fehlen einer Praxistheorie des Annotierens, die neben den kulturellen und historischen Bedingungen auch die körperlichen und situationellen Aspekte von Annotationen miteinbezieht.

Joseph S. Freedman (Alabama State University Montgomery) nahm in seinem Vortrag Footnotes in Historical Context, Their Usefulness for Multiple Narratives, and their Sometimes Contested Use into the 21st Century eine weitere, ganz spezielle Art von Annotationen in den Fokus: die Anmerkungsform der Fußnote. Im Hinblick darauf, dass ein Blick auf historische Praktiken oftmals hilft, nützliches Wissen für die heutige Zeit zu generieren, befasste er sich mit dem ersten Gebrauch von Fußnoten in Zentraleuropa ab der Mitte des 17. Jahrhunderts. Diese Form der Anmerkungen sei von wissenschaftlichen Autoren auf unterschiedliche und stets innovative Weisen verwendet worden. Als Beispiel dienten Freedman Veröffentlichungen von Johannes Theill, der ab 1642 die ersten bekannten Fußnoten gebrauchte. Dabei nutzte er zur Sequenzierung zumeist das griechische Alphabet sowie verschiedene Ziffern. Die Fußnoten enthielten kommentierenden Text oder Zitate; manchmal wurden sie von Marginalien ergänzt. Mit der rasanten Zunahme wissenschaftlicher Publikationen in der zweiten Hälfte des 17. Jahrhunderts stiege auch der Bedarf nach ordnenden Verweistechniken, was an der Fußnotenverwendung von Adam Rechenberg deutlich wurde. Dessen innovative Verwendung von Fußnoten, welche teilweise längeren Text enthalten, mit verschiedenen Symbolen eingeleitet oder auch mit Klammern links und rechts eingeschlossen werden, wurden im Vortrag anhand einschlägiger Textstellen demonstriert. Ein Blick auf jene damals neuartige Verwendung von Anmerkungen, die aus spezifischen Gründen erfolgte und bestimmte Funktionen übernahm, könne laut Freedman auch heute noch die Entwicklung neuer Paradigmen anregen. Anschließend daran diskutierte er die Möglichkeit, dass die Digital Humanities Brücken zwischen verschiedenen wissenschaftlichen Disziplinen bauen und Studierende zudem eine Perspektive in der sich digitalisierenden Wirtschaftswelt eröffnen können.

Als Auftakt des zweiten Tages warf Georg Rehm (Speech and Language Technology Lab, DFKI, Berlin) mit seinem Keynote-Vortrag Observations on Annotations – From Computational Linguistics and the World Wide Web to Artificial Intelligence and back again aus den Perspektiven verschiedener Forschungsfelder heraus einen Blick auf Annotationen als wissenschaftliche Methode und technisches Hilfsmittel entlang verschiedener Dimensionen und Merkmale. Dabei bezog er sich sowohl auf Grundlagenforschung als auch auf die angewandte Entwicklung von Technologien, sowohl auf Annotationen die von einer kleinen Zahl hochspezialisierter Forscher*innen vorgenommen, als auch auf solche, die potenziell von Millionen von Nutzer*innen verwendet oder erstellt werden können. Einleitend führte Rehm einflussreiche W3C-Standards auf, wobei er insbesondere auf den W3C-Web-Annotations-Standard und dessen Implementierung in das Tool Hypothes.is (https://web.hypothes.is/) einging. Anschließend beleuchtete er mit einigen Beispielen den Einsatz von Annotationen in den Gebieten der künstlichen Intelligenz, der Computerlinguistik sowie der Sprachtechnologie und diskutierte die Frage nach den Möglichkeiten der Evaluierung und Verifizierung von annotativen Inhalten, welchen er im Hinblick auf den Einsatz in Open-Science-Szenarios eine entscheidende Rolle zuschreibt. Interessant schien besonders die Überlegung, mithilfe von webbasierten Annotationen gegen die Verbreitung sogenannter Fake News im Internet vorzugehen. Rehm schloss seinen Vortrag mit Betrachtungen zur Komplexität, Wirkkraft und Bedeutung von Annotationen in einer digitalen Welt, welche immer stärker von Werkzeugen und Technologien bestimmt wird, die aus den Bereichen des Machine Learning und der Künstlichen Intelligenz stammen.

Die zweite Sektion „Annotation als individuelles Werkzeug“ leitete Patrick Helling (Universität zu Köln) mit seinem Vortrag Geisteswissenschaftliche Forschungspraxis – Empirische Nutzerstudie zum Annotationsverhalten bei analogen und digitalen Textmaterialien ein. Da Geisteswissenschaftler*innen für ihre Arbeit zunehmend digitale Werkzeuge benutzen und vor allem das digitale Annotieren von digitalem Text eine zunehmende Relevanz für Forscher*innen erfährt, wurde eine Nutzer*innenstudie als Online-Umfrage mit 35 Fragen erstellt, um zu ergründen, welches Verhalten Nutzer*innen beim Annotieren von analogen und digitalen Textmaterialien an den Tag legen. So bildete den Kern der Umfrage jeweils ein Fragenblock zur Arbeit mit analogen bzw. digitalen textbasierten Materialien und entsprechendem Annotationsverhalten. Von insgesamt 125 Teilnehmer*innen schlossen 90 den Fragebogen auswertbar ab. Dabei stellte sich heraus, dass die Nutzung von digitalen Materialien unter Forscher*innen zwar verbreitet ist, diese Materialien aber häufig ausgedruckt und anschließend analog annotiert werden. Die Möglichkeit des digitalen Annotierens stelle demnach meist keine Überführung von analogen Arbeitsschritten in den digitalen Raum dar. Im Rahmen der Studie wurde auch nach der beruflichen Position der annotierenden Personen gefragt, wodurch sich Aussagen über altersspezifische Unterschiede hinsichtlich der Annotationspraxis treffen ließen. Erstaunlicherweise sinke gerade mit dem Alter – also hauptsächlich in der Riege der Professor*innen – die Nutzung des analogen Annotierens. Dieses Umfrageergebnis könnte mit dem Wissenshorizont der Befragten zusammenhängen, durch welchen die Annotationspraxis möglicherweise an Relevanz verliert. Der noch ausstehende zweite Teil der Studie, in welchem Tiefeninterviews einiger bereits befragter Personen erfolgen werden, werde vermutlich weiterführende Erkenntnisse zu dieser und weiteren Fragen liefern.

In seinem Vortrag Annotationen im Schreibprozess. Ein Beitrag zu einer empirisch fundierten Spezifikation für digitale Annotationsumgebungen in den Geisteswissenschaften skizzierte Felix Lange (Max-Planck-Institut für Wissenschaftsgeschichte, Berlin) einleitend die idealtypische Konzeption von Annotationssystemen im Kontext eines „Scholarly Web“. Hierbei führte er Pundit (http://www-old.thepund.it/) als beispielhaftes Tool an, stellte aber auch fest, dass sich bis jetzt keines der existierenden webbasierten Systeme in den Digital Humanities habe durchsetzen können. Ausgehend von einer Arbeitsdefinition des Begriffs „Annotation“ – hier bildete er drei Klassen: 1. editorische Auszeichnungen im Editionsprojekt, 2. serielle Auszeichnungen für die qualitative sowie quantitative Datenanalyse und 3. „Notiz-Annotationen“ als individuelle Hinzufügungen durch Leser*innen im Prozess des Lesens – legte Lange den Fokus auf die empirische Untersuchung der Funktion von Notiz-Annotationen im Forschungsprozess, des Verhältnisses der Eigenschaften webbasierter Annotationssysteme zu den Nutzungsgewohnheiten und Anforderungen in den Geisteswissenschaften sowie der Frage der Weiternutzung von Annotationen. Aus den Untersuchungsergebnissen folgerte er die Notwendigkeit einer Anpassung des Software-Designs, wobei er insbesondere die Wichtigkeit folgender Punkte herausstellte: Integration von proprietärer Offline-Standard-Software (wie z.B. Office-Anwendungen), eine nicht-zentralistische Architektur sowie ein minimales Datenmodell bei maximaler Interoperabilität (z.B. W3C-Web-Annotationen).

Den Abschluss der Sektion machte Jan Horstmann (Universität Hamburg) mit seinem Vortrag Undogmatisches literaturwissenschaftliches Annotieren mit CATMA: manuell, halb-automatisch und automatisiert. In diesem stellte er das Annotationstool CATMA (http://catma.de/) vor, das seit zehn Jahren in Hamburg mit dem Ziel entwickelt wird, literaturwissenschaftliche Arbeit mit digitalen Mitteln zu unterstützen, ohne dass vertiefte technische Fähigkeiten nötig sind. Den größeren Projektkontext, in welchem CATMA verortet werden kann, bildet wiederum die Forschungsumgebung forText (https://fortext.net/). Dieses Projekt setzt sich zum Ziel, Methoden der digitalen Literaturwissenschaft für traditionelle Literaturwissenschaftler*innen zugänglich zu machen, indem neben Tools wie CATMA auch Lehrmodule und Lerneinheiten sowie Online-Ressourcen zur Verfügung gestellt werden. Horstmann betonte, dass die Mitarbeiter*innen von forText keinen Paradigmenwechsel von analoger zu digitaler Geisteswissenschaft fordern, sondern es um literaturwissenschaftliche Erkenntnisarbeit mit digitalen Mitteln gehe. Hierbei verwies er mit Claudine Moulin darauf, dass die Annotation generell – die analoge wie digitale – eine kulturelle Praxis sei. Daran anschließend stellte er linguistische und literaturwissenschaftliche Annotationspraxen einander gegenüber und vermutete hier ein Problem vieler Tools, die rein an den Bedürfnissen linguistischer Annotation orientiert sind. Im Anschluss an weitere begriffliche und methodologische Überlegungen zum Annotieren stellte er CATMA „live“ vor. Hierbei bewies sich, dass CATMA ein sehr robustes Online-Tool ist, mit welchem sowohl manuelle als auch halb-automatische und vollständig automatisierte Annotationen zügig und ohne großes technisches Vorwissen vorgenommen werden können.

Sarah Lang (Karl-Franzens-Universität Graz) eröffnete die dritte Sektion „Methodischer Einsatz von Annotationen“ mit ihrem Vortrag Die Allegoriae, mit welchen die Sapientes des Mysterium unserer secretae Philosophiae occultirt haben / werden uns als den offenbar / und nit mehr verborgen seyn. Zu Herausforderungen und Nutzen der digitalen Annotation alchemischer Decknamen. In ihrem Dissertationsprojekt untersucht sie alchemistische Texte mit dem Ziel, die „alchemische Sprache“ zu dekodieren. Die hierbei zu Grunde liegende These ist, dass es ein Analogieverhältnis zwischen alchemistischen Symbolnamen und den chemischen Elementen und Prozessen gebe. Am Beispiel des „Mercurius“ machte Lang die Disparatheit der hinter einzelnen Symbolnamen verborgenen Konzepten deutlich. Der zweite Teil ihres Vortrags befasste sich mit der technischen Dimension ihres Projektes. So sollen die Texte mit einem Stand-off-Thesaurus – momentan noch in SKOS (http://skos.um.es/unescothes/) kodiert – annotiert werden. Die Anforderungen an die Methode seien einerseits, dass hier ein Zugang gefunden werden soll, der auf alle Texte übertragbar ist, und dass andererseits dennoch implizites Wissen explizit gemacht werden kann. Das Ziel sei eine möglichst komplette Automatisierung. Die Modellierung sei dabei – angelehnt an die Überlegungen von Key-Note-Speaker Willard McCarty – ein iterativer Prozess, der in Langs Projekt seinen Ausgang in Michael Maiers alchemistischen Indices nimmt und von dort aus auf weitere Texte übertragen werde. Die Referentin stellte explizit die Wahl eines Kodierungsstandards (RDFS, SKOS oder eine eigene Kodierung) zur Diskussion. Ferner wurden neben dem Problem, die Subjektivität von Texten auch in maschineller Verarbeitung zu erhalten, ebenfalls besondere Schwierigkeiten des Korpus wie die Vieldeutigkeit und der Vorrang sinnlicher Eigenschaften vor der Bedeutung der Sprache diskutiert.

Im Anschluss stellten Lina Franken und Evelyn Gius (beide Universität Hamburg) in ihrem Vortrag Annotation als Instrument der Strukturierung die Arbeit des interdisziplinär angelegten Projektes hermA (https://www.herma.uni-hamburg.de/) vor. Gius begann dazu den Vortrag mit einigen grundsätzlichen Überlegungen zur Frage: „Wie kann man auf Annotationen schauen?“. Zur Beantwortung dieser Frage schlug sie ein Ordnungssystem von verschiedenen Forschungslogiken, unterteilt in deduktive, induktive sowie abduktive, vor. Denn die Hypothesenbildung und damit das Verhältnis von Annotation zu Daten unterscheide sich je nachdem, welcher Forschungslogik man folgt. Diesen Ansatz illustrierten die beiden Referentinnen im Folgenden durch die Vorstellung zweier Teilprojekte aus dem Verbundprojekt hermA. Gius stellte ihre literaturwissenschaftliche Forschung zu genderspezifischen Unterschieden in der Beschreibung von Krankheiten vor. Das Untersuchungskorpus, das als Teilkorpus des von Berenike Herrmann und Gerhard Lauer erstellten KOLIMO (https://kolimo.uni-goettingen.de/index.html) Prosatexte zwischen 1870 und 1920 verzeichnet, wurde zunächst manuell – mit CATMA und dem Stuttgarter Tool CorefAnnotator (https://www.ims.uni‑stuttgart.de/forschung/ressourcen/werkzeuge/CorefAnnotator.html) – annotiert. Dabei wandelte sich die Forschungslogik im Laufe des Projektes von einem deduktiven Ansatz, der Regeln der Figurenanalyse appliziert, zu einem induktiven, da nun die durch die Annotation strukturierten Daten daraufhin befragt werden, wie Krankheitskonzepte in den Textphänomenen definiert werden. Einen anderen Ansatz, nämlich einen abduktiven, verfolgt das von Franken vorgestellte kulturanthropologische Projekt zur Telemedizin. Hierbei handelt es sich um ein emergentes Feld, das von kontinuierlicher Entwicklung und daraus resultierenden Aushandlungsprozessen geprägt ist. Methodisch schließt das Projekt an Grounded-Theory-Ansätze an und erschließt so den Gegenstand – hier anhand von Bundestagsdebatten beispielhaft dargeboten – zunächst induktiv und versucht im Anschluss abduktiv eine Theorie aus den Daten heraus zu bilden. Der Annotation, die mit MAXQDA (https://www.maxqda.de) vorgenommen wird, kommt dabei die Rolle der Kategorisierung und Strukturierung einerseits sowie der Filterung andererseits zu. Auch hier werden Annotation und Modellierung als iterative Prozesse verstanden.

Mit ihrem Vortrag Makrogenetisches Mark-Up für Musil leiteten Katharina Godler und Walter Fanta (beide Alpen-Adria-Universität Klagenfurt) den Sektions- und damit Tagesabschluss ein. Das vorgestellte Forschungsvorhaben, dessen Ziel es ist, den Schreibprozess als denkendes Schreiben sowie als schreibendes Denken zu verstehen, steht im Zusammenhang mit der Online-Edition von Robert Musils „Der Mann ohne Eigenschaften“ (http://musilonline.at/). Hierzu sollen Annotationen der Spuren des Schreibprozesses im Text und nicht des Schreibprozesses selbst vorgenommen werden. Um den Nachlass Musils, der sehr viele unterschiedliche Arten von Manuskripten enthält, strukturieren zu können, schließen Godler und Fanta theoretisch an die Schreibszenenkonzeption von Rüdiger Nutt-Kofoth an und unterscheiden zwischen einer Mikro-, Meso- und Makroebene der Textgenese. So konnten sie sechs Manuskripttypen ausmachen, die sich hinsichtlich ihres zeitlichen Bezugs zueinander, ihrer Linearität bzw. Nicht-Linearität und ihrer Funktion für den Schreibprozess unterscheiden. Die technische Herausforderung des Projektes bestehe nun darin, die Bausteine im Schreibprozess maschinengestützt nachvollziehbar zu machen und diese im User-Interface zu visualisieren. Dabei könne auf ein TEI-Schema für die Mikrogenese (Streichungen einzelner Wörter, kleinere Revisionen) zurückgegriffen werden. Mit der Frage, wie eine Annotation für die Makrogenese, die neben intertextuellen vor allem auf intratextuellen Verweisen beruht, aussehen könnte, wurde in die Diskussion übergeleitet. Als mögliche Lösung wurde eine Superstruktur vorgeschlagen, also eine leere Textstruktur, aus der auf die verschiedenen Zeugen, die selbst erhalten bleiben, verwiesen werden kann. Die Verweise selbst könnten dann nach TEI kodiert sein. Darüber hinaus wurde darauf hingewiesen, dass die verschiedenen Probleme auf der Makroebene segmentiert werden können und sich so jeweils einzelne Lösungen finden ließen.

Angelika Zirkers Vortrag Challenges of Automation: Some Theoretical Considerations about Explanatory Annotation in Literary Studies, der die vierte Sektion „Differenzierung von Annotationsebenen“ eröffnete, fokussierte auf die hermeneutische Annotation als kontextualisierende, erklärende Hinzufügungen zu einem bestehenden Text im Sinne einer Anreicherung durch Informationen, die das Verstehen des Textes beeinflussen. Ausgehend vom Annotationsprojekt „Tübingen Explanatory Annotation System“ (TEASys – http://www.annotation.es.uni-tuebingen.de/) stellte Zirker einige theoretische Überlegungen an, inwieweit solche hermeneutisch-erklärenden Annotationen automatisiert werden können. Dabei zeigte sie besonders die möglichen Herausforderungen und Grenzen der automatischen Annotation auf, welche sie anhand einiger exemplarischer Problemfelder darstellte. Das erste Feld betraf das generelle Problem der Ambiguitätserkennung, welches bei einer automatischen Annotation im Besonderen evident werde. Ambiguitäten können beispielsweise disambiguiert werden, wodurch etwa die besondere Qualität des literarischen Werks außer Acht gelassen werden könne. Dass Ambiguitäten oft abhängig von der Gesamtinterpretation eines Textes sind, führte zum zweiten Problemfeld, der Verankerung von Annotationen im Text und das Verhältnis von Textteil und Textganzem. Hier bestehe die hermeneutische Herausforderung in der Annotation von (metaphorischen) Bedeutungen, die lokal im Wechselspiel mit dem Gesamttext stehen. Fraglich sei, wo derartige Annotationen vorzunehmen seien. Diese Frage stelle sich auch besonders für formale Aspekte, die von einem bestimmten Muster abweichen. Ein weiteres Problemfeld bezog sich auf intertextuelle Verweise sowie ein letztes auf die Frage nach individuellen Leserbedürfnissen: Für wen werden die jeweiligen Annotationen verfasst? In TEASys wurden für derartige Probleme drei verschiedene Komplexitätsebenen eingeführt, welche neben Basisinformationen für das Verstehen des Textes schließlich auch komplexere Informationen bis hin zu Diskussionen der Sekundärliteratur enthalten. Die genannten Herausforderungen und mögliche computerphilologische Lösungen zeigte Zirker schließlich anhand einiger beispielhafter literarischer Textstellen auf.

Der darauf folgenden Vortrag von Tamara Drummond und Janina Wildfeuer (beide Universität Bremen) The Multimodal Annotation of TV Series. Combining qualitative questions and quantitative results veranschaulichte die Möglichkeit der Verbindung von qualitativen und quantitativen Ansätzen für die Analyse von audiovisuellen Daten. Dabei zeigten die Referentinnen auf, wie sich das Annotationstool ELAN (https://tla.mpi.nl/tools/tla-tools/elan) für die semantische Analyse der multimodalen Darstellung geschlechtsspezifischer Unterschiede in TV-Serien fruchtbar machen lässt. Hierzu wurden die Ergebnisse eines empirischen Masterarbeitsprojekts zu den Anfangssequenzen zeitgenössischer TV-Serien präsentiert, in welchen jeweils Teams von weiblichen und männlichen Hauptfiguren eingeführt werden. Anhand des Materials ließ sich die Konstruktion bestimmter geschlechtsspezifische Unterschiede feststellen, die mit einem multimodalen Rahmen analysiert werden können. In diesem Zusammenhang ergaben sich sowohl theoretische als auch methodologische Fragen zur multimodalen Analyse und Annotation von TV-Serien. Der von Drummond und Wildfeuer verwendete systemisch-funktionale Ansatz ermögliche es, die Interaktionstypen weiblicher und männlicher Hauptpersonen mit anderen Charakteren während ihrer Einführung in die Serie zu analysieren. Annotationen auf jeweils separaten Ebenen lassen dabei multiple Fragestellungen zu. Abschließend wurden die verwendeten analytischen Einheiten anhand der TV-Serie „Blindshot“ und ihrer Hauptcharaktere im Hinblick auf geschlechtsspezifische Unterschiede in der Inszenierung der Charaktere präsentiert (z.B. Toneinstellungen, Kamerawinkel und Zoom-Einstellungen).

Es folgte Christian Lücks (FernUniversität in Hagen) Vortrag Beispiele annotieren: Manuelle Annotationen im Spannungsfeld zwischen Interpretation, formalem Schema und maschineller Auswertung. Dieser stellte die Annotationspraxis im DFG-Projekt „Das Beispiel im Wissen der Ästhetik (1750-1850). Erforschung und Archivierung einer diskursiven Praxis“ (http://gepris.dfg.de/gepris/projekt/327259109) vor, in welchem Beispiele in Texten der philosophischen Ästhetik annotiert werden. Zur Erfassung von Beispielen lassen sich gängige Standardabkürzungen wie „z.B.“ oder „e.g.“ als Marker verwenden, aber auch syntaktische sowie vielfältige semantische Merkmale. Geplant sind digitale Annotationen als externes Markup zu Quelldokumenten, welche in einem Standardformat, etwa TEI-XML, vorliegen. So lassen sich Annotationen kollaborativ herstellen und Kontrollannotationen desselben Texts durch einen weiteren Annotator realisieren. Perspektivisch soll jedoch an einer automatisierten Annotation von Beispielen gearbeitet werden. Hierfür müsse man jedoch computerlinguistisch erzeugte Daten wie Segmentierungen in Token und Sentences, grammatische Grundformen, Part-Of-Speech-Tags oder Tree-Banks, wie sie vom WebLicht-Service (https://weblicht.sfs.uni-tuebingen.de/WaaS/)oder von NLP-Bibliotheken für Eingabedokumente zurückgeliefert werden, auswerten. Dabei werden technische Probleme virulent, etwa die Frage, wie man die unterschiedlichen Typen von Markup aufeinander bezieht. Doch auch für die manuelle Annotationspraxis haben Überlegungen, welche Art von Beispielen überhaupt durch einen Algorithmus erfasst werden können, Auswirkungen. Auf diese Weise ergeben sich Spannungen in einem Dreieck aus interpretativer Arbeit am philosophischen Text, Ausdrucksmächtigkeit des Annotationsschemas und künftigem Algorithmus.

Mit ihrem Vortrag Facilitating reusable third-party annotations in the digital edition eröffneten Peter Boot und Marijn Koolen die letzte Sektion der Tagung „Annotation und Ontologie“ und diskutierten zum einen den Umgang mit der Annotationen von Dritten. Im Fokus standen dabei Anmerkungen zu einer digitalen Edition, die von Forscher*innen gemacht wurde, die selbst nicht an dem Editionsprojekt beteiligt gewesen sind. Diese Anmerkungen fungieren als Beiträge zu den auf der Website bereits vorhandenen Erklärungsmaterialien. Zum anderen wurde die technische Frage behandelt, wie sich solche Annotationen an einem bestimmten Ort in der digitalen Ausgabe leichter verankern lassen. Die Annotation soll sich dabei für die verschiedenen Komponenten der digitalen Edition (z.B. Scan des Originals, Transkript, edierter Text) realisieren lassen und in unterschiedlichen Versionen (bspw. auch Übersetzungen) fest verankert bleiben. RDFa biete hier eine geeignete Technologie zum Einbetten der erforderlichen Informationen in die HTML-Seiten der Edition. Boot und Koolen stellten einen Open-Source-Prototyp eines Annotations-Tools vor, das in den kommenden Jahren für den Einsatz in mehreren Bereichen in der niederländischen Infrastruktur CLARIAH (Common Lab Research Infrastructure for the Arts and Humanities – https://www.clariah.nl/) entwickelt werden soll. Mithilfe dieses Tools wurde eine Ausgabe der Briefe von Vincent van Gogh vorgestellt. Die Edition der Briefe verfügt dabei über vier Darstellungsmodi des Objektes: eine zeilenweise (diplomatische) Transkription, ein laufender (kritischer) Text, eine Übersetzung ins Englische sowie ein Faksimile. Die Annotationen können entweder in allen Darstellungsmodi oder nur in einem bestimmten angezeigt werden. Außerdem ist eine Unterscheidung von privaten, mit bestimmten Nutzer*innen geteilten sowie öffentlichen Annotationen möglich. Abschließend wurden die potenziellen Auswirkungen derartiger Annotationen von Dritten auf die Praxis der Geisteswissenschaften diskutiert. So biete etwa die Möglichkeit, Anmerkungen verschiedener Art digital zu erstellen, zu organisieren und auszutauschen, leichten Zugang zu den Interpretationen anderer Forscher*innen.

Den Abschluss der Sektion bildete Evelyn Gius’ (Universität Würzburg) und Nils Reiters (Universität Stuttgart) Vortrag zu Shared Tasks zur Entwicklung von Annotationsrichtlinien in den Digital Humanities. Bei einem Shared Task befassen sich mehrere Teams mit der Lösung derselben Aufgabe. Nach der Arbeitsphase werden die Resultate aller Teams verglichen und ausgewertet. Derartige Shared Tasks sollen sich laut den Vortragenden insbesondere dann als Verfahren für die Digital Humanities anbieten, wenn computergestützte Verfahren auf geisteswissenschaftliche Konzepte treffen und diese in einem intersubjektiven Aushandlungsprozess operationalisiert werden sollen. Der hier vorgestellte Shared Task bestand in der Erstellung einer Guideline für die Annotation von Erzählebenen (wie Rahmen- und Binnenerzählungen etc.) mit dem Ziel, eine solche Annotation später automatisieren zu können. Acht Teams beteiligten sich an diesem kompetitiven Verfahren. In einem Workshop wurden die Vorschläge entlang eines Sets von drei Kriterien – konzeptionelle Angemessenheit, Anwendbarkeit sowie Benutzbarkeit – miteinander verglichen. Aus diesen drei Kriterien ergebe sich allerdings ein Trilemma: Man könne keine der drei Dimensionen optimieren, ohne zumindest eine der anderen zu verschlechtern. Daraus folgte für die Bewertung der Vorschläge, dass über einen Fragebogen und Annotationstestläufe sowie mittels eines speziellen Bepunktungssystems der Sieger ermittelt wurde. Reiter wies noch einmal nachdrücklich darauf hin, dass bei solch komplexeren Konzepten häufig die Fehleinschätzung vorherrsche, diese müssen für den Computer vereinfacht werden. Doch Computer seien nicht das Problem, sondern die Übereinstimmung der Forscher*innen sowie die Verfügbarkeit von annotierten Daten, an denen die Computer trainiert werden können.

In der von Julia Nantke und Frederik Schlupkothen geleiteten Abschlussdiskussion ließen die Teilnehmer*innen der Konferenz alle Vorträge noch einmal Revue passieren. So hatte es sowohl Makro- als auch Mikroperspektiven auf Annotationen gegeben und der Fokus war dabei manchmal auf die Nutzer*innen, manchmal auf die Annotator*innen gelegt worden. Die sektionenübergreifend aufgeworfene Frage danach, wie viel Interpretation in einer Annotation stecke, wurde ebenso resümiert wie die Frage nach dem Status von Annotationen als Daten im Sinne eines analytischen Mittels. Künftig ist außerdem ein Tagungsband geplant, welcher die einzelnen Beiträge noch einmal jeweils in Aufsatzform gebündelt präsentieren soll. Im Hinblick darauf diskutierte man abschließend, wie sich eine interaktive Annotationspraxis im Rahmen einer derartigen Publikation fruchtbar machen ließe, was in Anbetracht der sich weiterentwickelnden Möglichkeiten (digitaler) wissenschaftlicher Publikationen freilich keineswegs Spekulation bleiben muss.

Stellenausschreibung: wissenschaftliche*r Mitarbeiter*in (Vollzeit) zur Entwicklung digitaler Tools der Schulbuchanalyse am Georg-Eckert-Institut – Leibniz-Institut für internationale Schulbuchforschung (GEI)

dhd-blog - Mi, 05/15/2019 - 15:41

Am Georg-Eckert-Institut – Leibniz-Institut für internationale Schulbuchforschung (GEI) ist zum 15. Juni 2019 eine wissenschaftliche Mitarbeiter*instelle (Vollzeit) zu besetzen.

Das GEI ist eine außeruniversitäre Forschungseinrichtung der Leibniz-Gemeinschaft, das Forschung, Forschungsinfrastrukturleistungen und Wissenstransfer im Bereich kulturwissenschaftlich-historischer
Bildungsmedienanalyse und -dokumentation eng miteinander verbindet und in hohem Maße international tätig ist.

Zu Ihren Aufgaben gehören:

  • die Konzeption und Entwicklung von digitalen Tools zur Schulbuchanalyse in Arabisch, Deutsch und Englisch
  • Datenaufbereitung auf der Basis arabischsprachiger Schulbücher
  • Mitarbeit bei der Erstellung eines englischsprachigen Projektberichtes
  • intensive Zusammenarbeit im Projektteam insbesondere mit geisteswissenschaftlich Forschenden

Die Stelle wird nach Entgeltgruppe 13 des Tarifvertrages der Länder (TV-L)
vergütet und ist nach den Möglichkeiten des Wissenschaftszeitvertragsgesetzes auf 13 Monate befristet. Die Beschäftigung erfolgt vorbehaltlich der Bewilligung durch den Zuwendungsgeber. Wir ermöglichen eine flexible Gestaltung der Arbeitszeit unter Berücksichtigung der jeweiligen arbeitsorganisatorischen Situation. Das GEI versteht sich als familienfreundliche Einrichtung und fördert die berufliche Gleichstellung aller Personen. Bewerbungen von Menschen aller Nationalitäten sowie von Personen mit Zuwanderungsgeschichte werden ausdrücklich begrüßt. Bei gleicher Eignung erhalten Schwerbehinderte den Vorzug.

Die Bewerbungsfirst endet am 19.05.2019.

Den vollständigen Ausschreibungstext finden Sie unter:
http://www.gei.de/stellenangebote/stelle-details/news/detail/News/wissenschaftlicher-mitarbeiterin-vollzeit-2.html

ÖNB Labs: Symposium und Workshop

dhd-blog - Di, 05/14/2019 - 11:31

Mitgeteilt von Sophie-Carolin Wagner

Die ÖNB Labs sind eine Webplattform zum Forschen, Experimentieren und kreativen Arbeiten mit digitalen Beständen und Metadaten der Österreichischen Nationalbibliothek.

Die Veranstaltung besteht aus einem Workshop mit Gene Kogan und Sofia Crespo am 12.6. (nachmittags, 15:00-18:00 Uhr) und 13.6. (vormittags, 10:00-13:00 Uhr) und einem Labs-Symposium am 13.6. nachmittags, im Anschluss an den Workshop (14:30-18:30 Uhr).

Beim Workshop können TeilnehmerInnen Machine Learning-basierte Techniken erlernen und ausprobieren, um Datensets der ÖNB Labs zu synthetisieren, transferieren und zu remixen. Die Teilnahme ist frei, allerdings ist die TeilnehmerInnenanzahl auf 25 begrenzt. Der Workshop wird in Englisch abgehalten und erstreckt sich über beide Termine. Zum Workshop können Sie sich hier anmelden, wobei wir Sie bitten sich für beide Termine anzumelden wenn Sie teilnehmen wollen.

Das Symposium setzt die Präsentation neuer Services der ÖNB Labs und konkreter Projekte, die mit Daten der Österreichischen Nationalbibliothek arbeiten mit digitalen Strategien im Bereich der Kulturdaten in Beziehung. Das Programm und die Möglichkeit zur Anmeldung finden Sie hier.

Wir freuen uns auf eine spannende Veranstaltung!

Termine:

  • Mittwoch, 12.6.2019, 15:00-18:00 Uhr Workshop
  • Donnersatg, 13.6.2019, 10:00-13:00 Uhr Workshop
  • Donnersatg, 13.6.2019, 14:30-18:30 Uhr Symposium

Links:

Stellenausschreibung: zwei Wissenschaftliche Mitarbeiterstellen am Cologne Center for eHumanities

dhd-blog - Fr, 05/10/2019 - 14:24

Am Cologne Center for eHumanities (CCeH) sind ab sofort zwei Wissenschaftliche Mitarbeiterstellen zu besetzen.

Das CCeH ist ein Lehr- und Forschungszentrum der Philosophischen Fakultät der Universität zu Köln. Es ist zunächst ein Zusammenschluss von ForscherInnen, die sich für den Einsatz von digitalen Methoden und Technologien in der Forschung und der Lehre in den Geisteswissenschaften interessieren. Als international anerkanntes Digital Humanities-Kompetenzzentrum ist es an einer Vielzahl von interdisziplinären Forschungskooperationen und -projekten beteiligt und nimmt die Aufgabe einer „Koordinierungsstelle DH“ für die Nordrhein-Westfälische Akademie der Wissenschaften und der Künste wahr.

Die Stellen umfassen zwei Schwerpunkte:

  • Schwerpunkt CCeH
  • Schwerpunkt „Koordinierungsstelle DH“

Die Stellen sind ab sofort in Vollzeit zu besetzen. Sie sind zunächst auf zwei Jahre befristet. Eine Entfristung ist möglich. Sofern die entsprechenden tariflichen und persönlichen Voraussetzungen vorliegen, richtet sich die Vergütung nach der Entgeltgruppe 13/14 TV-L. Die Universität zu Köln fördert auch in ihren Beschäftigungsverhältnissen Chancengerechtigkeit und Vielfalt. Frauen werden ausdrücklich zur Bewerbung eingeladen und nach Maßgabe des LGG NRW bevorzugt berücksichtigt. Bewerbungen von Menschen mit Schwerbehinderung und ihnen Gleichgestellte sind herzlich willkommen. Sie werden bei entsprechender Eignung bevorzugt berücksichtigt.

Den vollständigen Ausschreibungstext finden Sie unter: http://cceh.uni-koeln.de/wp-content/uploads/2019/05/CCeH-Ausschreibung_2019-05-05.pdf

Die Bewerbungsfirst endet am 31. 05. 2019.

Seiten

Workingpapers DHd-Arbeitsgruppen Aggregator abonnieren