dhd-blog

dhd-blog Feed abonnieren
Digital Humanities im deutschsprachigen Raum
Aktualisiert: vor 1 Stunde 30 Minuten

Die IT der Deutschen Nationalbibliothek sucht Verstärkung

Di, 06/16/2020 - 20:16

Die Deutsche Nationalbibliothek sucht mehrere Informationswissenschaftler mit technischem Hintergrund/ Informatiker/ Data-Scientists (m, w, d).
Dabei geht es u. a. um folgende Bereiche und Aufgaben:

  • Linked-Data-Dienst:
      – Formatmodellierung,
      – Datenkonversion
      – Konzeption von Anwendungen, Modellierung von Geschäftsprozessen,
      – Produkt- und Projektmanagement

  • Ausbau und Pflege der IT-Verfahren zur Erschließung mit dem Schwerpunkt Gemeinsame Normdatei:
      – Konzeption von Anwendungen
      – Modellierung von Geschäftsprozessen
      – Produkt- und Projektmanagement

  • Massenimport von digitalen Objekten (insbesondere der Musik):
      – Entwicklung und Einführung von Prozessen im Tätigkeitsbereich
      – Konzeption von Anwendungen, Modellierung von Geschäftsprozessen
      – Produkt- und Projektmanagement

  • Datenanalyse und Datenvernetzung, Text- und Datamining:
      – Softwareentwicklung

  • Systemadministrator Windows-Systeme:
      – Aufrechterhaltung und Weiterentwicklung der eingesetzten Systeme unter VMware
      – Konzeption und Weiterentwicklung der in den Lesesälen eingesetzten Infrastruktur
      – Verantwortliche Mitarbeit in referatsübergreifenden IT-Projekten

  • Anwendungsentwickler
      – Durchführen von Anforderungs- und Fehleranalysen
      – Entwicklung und Fehlerbehebung
      – Test und Dokumentation
      – Third-Level Support für betreute Anwendungen

  • Senior-Entwickler und Softwarearchitekt:
      – Entwicklung, Test und Dokumentation von komplexen IT-Anwendungen und Systemen
      – Erstellen von anspruchsvollen Softwarealgorithmen zur Lösung von Anwenderforderungen,
      – Entwurf von Architekturen für Software-Systeme und Anwendungen

Die passende Stellenausschreibung gibt es hier: https://www.dnb.de/DE/Ueber-uns/Beruf-Karriere/Stellen

SHK-Stelle im Akademienvorhaben „Alexander von Humboldt auf Reisen – Wissenschaft aus der Bewegung“, Berlin-Brandenburgische Akademie der Wissenschaften

Mo, 06/15/2020 - 10:40

Die Berlin-Brandenburgische Akademie der Wissenschaften (BBAW) ist eine Körperschaft des öffentlichen Rechts mit Sitz in Berlin. Ihr wissenschaftliches Profil ist vor allem geprägt durch langfristig orientierte Grundlagenforschung der Geistes- und Kulturwissenschaften. Die Akademie beschäftigt etwa 350 Mitarbeiter/innen, ihr Jahresbudget beträgt rund 25 Mio. Euro. Die Akademie sucht für das Akademienvorhaben „Alexander von Humboldt auf Reisen – Wissenschaft aus der Bewegung (AvH-R)“ zum 15. Juli 2020
eine studentische Hilfskraft (m/w/d) im Umfang von 41 Stunden/Monat, befristet für mindestens 6 Monate.

Aufgaben:

  • Pflege und Redaktion der Forschungsdaten und Editionsrichtlinien der edition humboldt digital
  • Konvertierung bzw. Transformation von XML-kodierten Texten
  • Mitarbeit bei der Koordination des Vorhabens (Recherche, Organisation)
  • Mitarbeit in der Öffentlichkeitsarbeit (Projekt-Webseite und HumboldtPortal/http://www.avhumboldt.de/)

Voraussetzungen:

  • Studium im Bereich der Geisteswissenschaften (Literatur- und Sprachwissenschaften, z.B. AVL/Germanistik/Romanistik/Slavistik/Linguistik; Geschichte. z.B. Wissenschaftsgeschichte, Kulturgeschichte, Digital History)
  • akribische, selbstständige und teamorientierte Arbeitsweise
  • ausgeprägtes Interesse an der Recherche historischer Forschungsdaten im Kontext der Alexander von Humboldt-Forschung
  • hohe Bereitschaft zum Selbststudium im Bereich der Digitalen Geisteswissenschaften
  • Erfahrung im Umgang mit XML oder anderen Auszeichnungssprachen wie HTML, LaTeX usw.

Erwünscht sind:

  • Fremdsprachenkenntnisse (insbesondere Spanisch, Französisch, Russisch)
  • Kenntnisse in der Lesung historischer Handschriften
  • Kenntnisse der XML-Subsets TEI–XML, DITA
  • vertrauter Umgang mit X-Technologien (XQuery, XSLT, XPath) oder vergleichbaren Abfragesprachen (z.B. Regex).

Die Vergütung erfolgt nach TV Stud II unter Einhaltung des Berliner Mindestlohns.
Der Dienstort ist Berlin. Die Berlin-Brandenburgische Akademie der Wissenschaften ist bestrebt, den Anteil von Frauen in Bereichen, in denen sie unterrepräsentiert sind, nach Maßgabe des Landesgleichstellungsgesetzes und des Frauenförderplanes zu erhöhen, daher sind Bewerbungen von Frauen ausdrücklich erwünscht. Bewerbungen von Personen mit Migrationshintergrund sind ausdrücklich erwünscht. Bewerbungen von Schwerbehinderten werden bei gleicher Eignung vorrangig berücksichtigt. Ihre aussagekräftigen schriftlichen Bewerbungsunterlagen richten Sie bitte möglichst elektronisch in einer PDF-Datei (max. 5 MB) bis zum 28.06.2020 unter der Kennziffer „AV/06/2020“ an:

Berlin-Brandenburgische Akademie der Wissenschaften
Referat Personal und Recht
Frau Ines Hanke
Jägerstr. 22/23
10117 Berlin
personalstelle@bbaw.de

Aus Kostengründen können Bewerbungsunterlagen nur zurückgeschickt werden, wenn ein frankierter Rückumschlag beigefügt wird.

— 
Zur Ausschreibung auf den Seiten der BBAW: https://www.bbaw.de/stellenangebote/stellenausschreibung-studentische-hilfskraft-m-w-d-1; als PDF-Datei: https://www.bbaw.de/files-bbaw/stellenangebote/ausschreibungen-2020/_AV_06_2020_AvH-R_SHK_PR.pdf.

Virtueller CLS-Workshop zum Thema „Annotationen“

Mi, 06/10/2020 - 15:29

Das DFG-Schwerpunktproramm Computational Literary Studies veranstaltet einen virtuellen Workshop mit dem Thema „Annotationen“, der in zwei Sitzungen am

Freitag, dem 19.06.2020, 14-16 Uhr und

Donnerstag, dem 25.06.2020, 10-12 Uhr

via Zoom stattfinden wird.

Beteiligt an der Organisation und inhaltlichen Gestaltung sind Kerstin Jung (Uni Stuttgart), Jonas Kuhn (Uni Stuttgart), Patrick Helling (Uni Köln) , Nils Reiter (Uni Köln/Uni Stuttgart), Steffen Pielström (Uni Würzburg) und Evelyn Gius (TU Darmstadt). 

Die Veranstaltung soll sowohl eine grundlegende Einführung in die Problematik der Annotation literarischer Texte in den Digital Humanities als auch eine Plattform für die Diskussion über diese Problematik bieten. Hierbei stehen zunächst vor allem Konzepte im Vordergrund, nicht die Vermittlung eines bestimmten Annotationstools. Der Workshop beginnt mit Live-Vorträgen und anschließender Diskussion. Danach werden die Teilnehmer*innen selbst an einer Annotationsaufgabe arbeiten, und anschließend ihre Ergebnisse in Diskussionsgruppen vergleichen.

Im Rahmen des Workshops werden wir natürlich alle Materialien auch zum Download zur Verfügung stellen, so dass es möglich ist auch nur an einer der beiden Sitzungen teilzunehmen. Desweiteren stellen wir bei großem Interesse an einer Vertiefung bestimmter Themen auch gerne einen Folgeworkshop in Aussicht.

Der Workshop steht auch Forschenden außerhalb des SPP zur Teilnahme offen. Wir bitten um Verständnis dafür, dass wir aus organisatorisch-technischen Gründen die Zahl der Teilnehmer*innen begrenzen müssen. Wenn nötig, wird die Platzvergabe nach der Reihenfolge der Anmeldungen erfolgen.

Anmeldungen für den Workshop werden per Email unter

pielstroem@biozentrum.uni-wuerzburg.de

entgegen genommen.

DARIAH Annual Report 2019 veröffentlicht

Mo, 06/08/2020 - 10:47

Der DARIAH 2019 Annual Report wurde veröffentlicht! Er gibt Auskunft über die Arbeiten und Ergebnisse von DARIAH-EU als geisteswissenschaftlicher Forschungsinfrastruktur für die Community in 2019.

Eliza Papaki auf DARIAH-EU dazu: 

More than at any other point in our annual calendar, the creation of this document each year gives us a chance to reflect on our achievements as an infrastructure, and, in particular, on the question of how we have made a difference for researchers in Europe.

2019 was a busy and colourful year, full of events all around Europe and beyond, impact and strategic decisions with the publication of the 7-year Strategic Plan, growth with two new countries joining as full members and several institutions joining as cooperating partners, research results delivered back to the community from the DARIAH funding schemes and various ongoing projects (DESIR & SSHOC among others). Enjoy!

TextGrid Repository erhält das Core Trust Seal

Mo, 06/08/2020 - 09:59
Warum Repositorien für Forschungsdaten zertifizieren lassen?

Für geisteswissenschaftliche Projekte  ist es äußerst wichtig, Forschungsdaten in vertrauenswürdigen Repositorien archivieren zu können. Forschende müssen sicher sein, dass die in Repositoriengespeicherten Daten auch in Zukunft auffindbar, interoperabel zugänglich und nachnutzbar sein werden, wie es die FAIR-Prinzipien empfehlen.  Auch die Förderorganisationen verlangen die möglichst wiederbenutzbaren Bereitstellung von Daten, die aus den von ihnen geförderten Projekten hervorgehen und machen dies zu einem wichtigen Element ihrer Datenmanagementpläne (hier als Beispiel die DFG-Richtlinien für Forschungsdatenmanagement). Mit einer Zertifizierung können Repositorien sowohl ihren Nutzern als auch ihren Förderern gegenüber nachweisen, dass sie von einer unabhängigen Institution bewertet wurde.

Das ist auch von großer Bedeutung für die virtuelle Forschungsumgebung TextGrid, die seit seit Jahren eine wichtige Rolle für Forschende einnimmt, die mit digitalen Editionen, Korpora und Texten arbeiten, sowohl mit einem breiten Portfolio von Werkzeugen im TextGridLab  als auch mit seinem Repositorium für die Langzeitarchivierung, TextGridRep.   

Es ist nun  besonders erfreulich, dass mit dem CoreTrustSeal die Datenqualität des TextGrid-Repositorys auch von einer unabhängigen Organisation bestätigt wurde.

Die Core Trust Seal-Zertifizierung und ihre Bedeutung  für TextGrid

CoreTrustSeal  ist eine internationale, community-basierte, nichtstaatliche und gemeinnützige Organisation, die die Nachhaltigkeit und Vertrauenswürdigkeit von Forschungsdatenrepositorien zertifiziert. Mit ihrem Siegel bietet die Organisation jedem Datenrepositorium eine Zertifizierung auf der Grundlage des DSA-WDS-Katalogs von Core Trustworthy Data Repositories Requirements an.

Der  Zertifizierungsprozess war Anlass für die TextGrid Stakeholders, noch einmal eine detaillierte Analyse und Dokumentation des Repositoriums durchzuführen, um seine Nachhaltigkeit und Vertrauenswürdigkeit nachzuweisen. Die Durchführung dieser internen Selbstbewertung im kontinuierlichen Austausch mit der Peer-Community hat dazu beigetragen, die Qualität und Transparenz der Prozesse zu verbessern und die Einhaltung etablierter Standards zu konsolidieren. Auch die technischen Abläufe und die Dokumentation des Repositoriums wurden von externen Expertinnen und Experten unter Berücksichtigung bewertet Dadurch erhielt das Repositorium unabhängiges Feedback darüber, wie es sich weiterentwickeln und verbessern kann. 

Die CTS-Zertifizierung von TextGrid Repository zwischen Vergangenheit und Zukunft

Das TextGrid Repository ist ein Ergebnis des Community-getriebenen Projekts TextGrid, das von 2006 bis 2015 eine virtuelle Forschungsumgebung für die kollaborative Erstellung, Analyse und Veröffentlichung von Texten und Bildern entwickelte. Die TextGrid-Community besteht aus Forschenden der Geisteswissenschaften, Bibliotheken und Rechenzentren, die etablierte Standards und Best Practices in die virtuelle Forschungsumgebung von TextGrid  integrierten und ständig weiterentwickeln.

Im Jahr 2016 wurde das TextGrid Repository und seine virtuelle Forschungsumgebung TextGridLab Teil der Forschungsinfrastruktur DARIAH-DE, die verschiedene digitale Werkzeuge und Dienste für die geisteswissenschaftliche Forschung in einem breiteren Kontext anbietet. Als Teil der DARIAH-DE-Forschungsinfrastruktur und Bestandteil der virtuellen Forschungsumgebung TextGrid ist das TextGridRep speziell für Forschende aus den Geistes- und Kulturwissenschaften sowie für Disziplinen konzipiert, die sich mit kunst- und kulturwissenschaftlicher und textbasierter Forschung befassen. TextGridRep ist insbesondere  für die Datenformate TEI und XML optimiert, die sich als internationale Standards für die texttechnologische Erschließung geisteswissenschaftlicher Inhalte, insbesondere der Sprachwissenschaft und Editionsphilologie, etabliert haben.

Workflow und Anwendungen in der Virtuellen Forschungsumgebung TextGrid

Das TextGrid Repository definiert sich aufgrund seiner Community und Geschichte als Langzeitarchiv, das besonders für digitale Editionen und weitere textbasierte Forschungsdaten geeignet ist. Mehrere kooperierende Forschungsprojekte nutzen die virtuelle Forschungsumgebung von TextGrid für ihre Forschungsarbeiten, verwalten ihre Daten in ihren eigenen geschützten Bereichen des Repositoriums und veröffentlichen die Ergebnisse schließlich in seinem öffentlichen Speicher. Folgende Disziplinen sind zur Zeit in TextGrid vertreten: Allgemeine Literaturwissenschaft, Komparatistik, Deutsche Philologie, Slavistik, Judaistik, Hispanistik, Altamerikanistik, Theologie, Philosophie, Ethnologie, Geschichtswissenschaft, Rechtsgeschichte, Kunstgeschichte, Musikwissenschaft.

TextGridRep ist ein Open-Access-Repository. Der Zugang zu den dort publizierten Daten ist frei und die Daten sind öffentlich zugänglich.

Wollen Sie TextGridRep und die Werkzeuge des TextGridLab für Ihre Forschungsprojekt nutzen oder einfach kennenlernen? Dann schreiben Sie an anfragen@textgrid.de oder besuchen www.textgrid.de und www.textgridrep.org.

Weiterführende Ressourcen zu TextGrid

Dank einer aktiven Community und einer langjährigen Förderung (2006-2015) durch das BMBF und die Fortführung in DARIAH-DE  gibt es zahlreiche Möglichkeiten, um sich noch genauer über TextGrid und dessen Funktionen zu informieren. Insbesondere die folgenden Hinweise sind zu empfehlen:

— Auf textgrid.de und im öffentlichen TextGrid Wiki finden Sie Tutorials, die Nutzerdokumentation und die technische Dokumentation zu TextGridLab und TextGridRep.

— Eine ausführliche Dokumentation der CoreTrustSeal-Anforderungen finden Sie auf der Seite von CoreTrustSeal unter Organisational Infrastructure, Data Policies und Digital Object Management.

— Die folgende beim Univerlag Göttingen im Open Access erschienene Monographie bietet eine umfassende Darstellung der virtuellen Forschungsumgebung, ihrer Geschichte, Werkzeuge und möglichen Anwendungen: Heike Neuroth / Andrea Rapp / Sibylle Söring (Hrsg.): TextGrid: Von der Community — für die Community. Eine Virtuelle Forschungsumgebung für die Geisteswissenschaften. Universitätsverlag Göttingen, Verlag Werner Hülsbusch, Glückstadt, 2015.

— Empfehlenswert ist auch die folgende Forschungsarbeit von einem der TextGrid-Entwickler, Stefan Funk: Elektronisches Publizieren von Digitalen Forschungsdaten am Beispiel des TextGrid Repositorys Umsetzung von Digitalen Publikationsworkflows für die eHumanities, Köln 2018

— Dieser DHd-Blog-Beitrag, der im Rahmen einer DARIAH-DE Initiative an der Universität Göttingen realisiert wurde, bietet Studierenden einen schnellen Einstieg in den virtuellen Forschungsumgebung von TextGrid.

Stellenangebot: Digital Scout (m/w/d), Hessisches Landesmuseum Darmstadt (HLMD)

Fr, 06/05/2020 - 09:57

Im Hessischen Landesmuseum Darmstadt (HLMD) ist zum nächstmöglichen Zeitpunkt die Stelle eines

Digital Scout (m/w/d)

(Entgeltgruppe 13 TV-H) unbefristet zu besetzen.

Das Hessische Landesmuseum Darmstadt (HLMD) ist eines der wenigen Museen in Deutschland, in dem Kunst- und Kulturgeschichte sowie Naturgeschichte unter einem Dach vereint sind.

Das HLMD sucht eine Mitarbeiterin / einen Mitarbeiter, die/der für die Konzeption und Umsetzung der digitalen Strategie verantwortlich ist und die Einsatzmöglichkeiten digitaler Technologien in den Sammlungen und Ausstellungen weiterentwickelt.

Das Aufgabengebiet umfasst:

  • Erstellung eines grundlegenden Digitalisierungskonzepts und aktive Begleitung und Beförderung dieses Prozesses in Abstimmung mit der Dienststellenleitung
  • Übernahme von Steuerungsaufgaben im Bereich der Digitalisierungsstrategie nach Absprache und die Vertretung der Interessen in entsprechenden Gremien des Mandanten Historisches Erbe
  • Weiterentwicklung und Umsetzung neuer Angebote zur digitalen Bewahrung, Verwaltung, Dokumentation und Nutzung aller digitalen kulturellen Inhalte und Objekte des Museums
  • Neudefinition des digitalen Raums und dessen Nutzungsmöglichkeit als Plattform für die kuratorische Arbeit
  • eigenverantwortliche Entwicklung und Umsetzung von digitalen Projekten in Absprache mit der Direktion und in Zusammenarbeit mit den Fachabteilungen
  • Aufbau und Pflege von nationalen und internationalen Kooperationen mit Museen, Universitäten, Institutionen sowie Ausbau des digitalen Netzwerks
  • Koordination der digitalen Sammlungserfassung und Datenhomogenisierung
  • konzeptionelle Weiterentwicklung und Verknüpfung der vorhandenen Datenbanken mit dem Ziel, Teile der Sammlungen online verfügbar zu machen

Bewerbungsvoraussetzungen sind:

  • abgeschlossenes wissenschaftliches Hochschulstudium in einem Fach der Museologie, Digital Humanities oder Informatik, bzw. einem kommunikations-, medienwissenschaftlichen oder vergleichbaren Studiengang mit IT-Bezug
  • alternativ ein abgeschlossenes Hochschulstudium der Kultur- oder Naturwissenschaften und nachweisbare Kenntnisse in den oben aufgeführten Fachrichtungen der Informationswissenschaft und Informationstechnologie
  • mehrjährige Erfahrungen bei der Umsetzung digitaler Konzepte und Projekte in Museen
  • die Bereitschaft zu erfolgsorientierter Team- und Projektarbeit mit den Beschäftigten sowie externen IT-Dienstleistern
  • Erfahrung bei der Entwicklung und Umsetzung von Präsentationen im digitalen Raum
  • Hohe Affinität und ausgeprägtes Interesse zu digitalen Techniken und Programmen
  • Erfahrung im selbständigen Projektmanagement sowie fundierte Kenntnisse in IT-relevanten Themen und Anwendungen
  • grundlegende Kenntnis der inhaltlichen Anforderung einer musealen Sammlungsdatenbank
  • Erfahrungen mit MuseumPlus oder einem anderen Access-basierten System zur Inventarisierung und Objektverwaltung
  • Erfahrungen mit SQL-, Linux-, Windows-Servern, Cumulus o.ä.
  • Kenntnisse von html, php, MySQL, Java-Script

Ebenfalls vorausgesetzt werden Kooperationsbereitschaft, eine schnelle Auffassungsgabe, eine systematische und selbständige Arbeitsweise, Flexibilität, Aufgeschlossenheit und eine hohe Zuverlässigkeit.

Das HLMD strebt die Erhöhung des Frauenanteils in allen Bereichen und Positionen an, in denen Frauen unterrepräsentiert sind. Qualifizierte Frauen werden deshalb nachdrücklich aufgefordert, sich zu bewerben. Bewerbungen von Menschen mit Behinderung werden bei gleicher Eignung und Qualifikation bevorzugt berücksichtigt. Die Stelle ist grundsätzlich teilbar.

Bitte richten Sie Ihre aussagekräftige Bewerbung unter dem Stichwort
HLMD Digital Scout
bis zum 30.06.2020 an:

Bewerbung.ccp@hmwk.hessen.de

Bitte reichen Sie uns Ihre Bewerbungsunterlagen nur in Kopie ein, da diese nach Abschluss des Auswahlverfahrens unter Beachtung datenschutzrechtlicher Bestimmungen vernichtet werden.

Für Fragen zur Tätigkeit steht Ihnen Herr Dr. Sandrock, Hessisches Landesmuseum Darmstadt,
Tel. 06151-1657062, zur Verfügung.

Call for Papers »Digitale Verfahren in der Literaturwissenschaft« (Sonderband Textpraxis)

Mi, 06/03/2020 - 14:18

In einem Sonderband der Open-Access-Zeitschrift »Textpraxis. Digitales Journal für Philologie« (Erscheinungsdatum Mai 2022), herausgegeben von Jan Horstmann und Frank Fischer, sollen verschiedene digitale Verfahren der zeitgenössischen Literaturwissenschaft diskutiert, theoretisch reflektiert und in ihrem epistemischen Gehalt in Bezug auf literaturwissenschaftliche Fragestellungen bewertet werden.

Jeder Beitrag soll dabei den Theoriebezug der jeweiligen Methode stark machen. Im Zentrum sollen der Dialog mit den traditionelleren Literaturwissenschaften und literaturwissenschaftlichen Theorien stehen sowie Fragen nach Anknüpfungspunkten und Kompatibilität zu literaturwissenschaftlichem Erkenntnisinteresse. Damit möchte der Sonderband auf eine aktuelle Entwicklung in den Digital Humanities reagieren, die als Ruf nach mehr Theorie und Theoretisierung bezeichnet werden könnte (u.a. Gründung der AG »Theorie Digital Humanities« auf der DHd-Tagung in Paderborn im März 2020). Fragen, die uns dabei besonders interessieren, sind etwa: Wo eigentlich beginnt die digitale Literaturwissenschaft? Ab wann ist eine Methode digital? Gibt es einen Unterschied zwischen digitalen und computationellen oder zwischen quantitativen und digitalen Methoden? Und was sind eigentlich literaturwissenschaftliche Daten? Gibt es einen Unterschied zwischen Literatur-Daten und literaturwissenschaftlichen Daten und wenn ja, wo verläuft die Grenze und wie verhalten sie sich zueinander?

Themen möglicher Beiträge wären u.a.:

Literaturwissenschaft und Digitalität

  • Was trennt und was vereint bibliothekarische Sammlungen und (digital beforschbare) Korpora; wie ist das Verhältnis von Digitalität und Genre?
  • Was sind literaturwissenschaftliche Daten (Theorie, Formate etc.)?
  • Wie verändert sich das Lesen im digitalen Kontext (Stavanger-Erklärung etc.)?

Methoden der computationellen Literaturwissenschaft

  • Wie verändert sich die Annotation durch Digitalität und welche theoretischen Implikationen haben manuelle, kollaborative, freie oder taxonomiebasierte Annotation?
  • Was bedeutet es, textliche Relationen oder Relationen in Texten quantitativ zu modellieren (z.B. im Topic Modeling, der Stilometrie oder der Netzwerkanalyse)?
  • Wie lassen sich dekontextualisierende automatische Extraktionsverfahren literaturwissenschaftlich fruchtbar machen (z.B. in der Named Entity Recognition und der Sentiment Analysis)?
  • Wie literaturwissenschaftlich sind Verfahren des tiefen Lernens (Machine Learning, Word Embeddings/word2vec, künstliche neuronale Netze)?

Publikation und Vermittlung

  • Was sind geeignete Repositorien für literaturwissenschaftliche Daten und welche Rolle spielen die FAIR-Prinzipien? Was sind die neuen »Daten deutscher Dichtung«?
  • Gehören digitale Verfahren in literaturwissenschaftliche Einführungsveranstaltungen? Wie lassen sich digitale Verfahren in Forschung und Lehre vermitteln?
  • Wie verhalten sich literaturwissenschaftliches Erkenntnisinteresse und Visualisierung zueinander?
  • Welche Rolle spielen Social Media in der Vermittlung literaturwissenschaftlicher Methoden und Erkenntnisse?

Bitte reichen Sie Ihren Beitragsvorschlag in Form eines Abstracts (max. 500 Wörter) bis spätestens 31. Dezember 2020 an jan.horstmann@mww-forschung.de ein. Die Herausgeber Jan Horstmann (Forschungsverbund Marbach Weimar Wolfenbüttel) und Frank Fischer (Higher School of Economics, Moskau, und DARIAH-EU) werden Ihnen bis zum 1. Februar 2021 eine Rückmeldung geben, ob Ihr Beitrag angenommen wurde. Die vollständigen Artikel sind bis zum 30. September 2021 einzureichen und werden anschließend in einem offenen Verfahren begutachtet. Geplante Veröffentlichung des Bandes ist der 1. Mai 2022.

ACDH-CH Tool Gallery 6.1 XML, MEI: Einfuhrung und Praxis, Online, 24 Juni

Mi, 06/03/2020 - 13:04

Digitale Formen der Edition von Musiknotation, Quellen- und Werkverzeichnissen werden in den nächsten Jahren die herkömmlichen, gedruckten Publikationsformen mehr und mehr ablösen. Das auf XML basierende Kodierungsverfahren der Music Encoding Initiative (MEI) (https://music-encoding.org/) konnte sich mittlerweile als Standard etablieren. Die Vorteile einer nativ digitalen Musikedition sind zum einen die Möglichkeit der Darstellung von Varianten oder Entwicklungsstadien von Kompositionen und die Implementierung des kritischen Berichts. Zum anderen kann die Musik in einem plattformunabhängigen, digitalen Format konserviert werden. Dieses Format ermöglicht auch eine computergestützte Weiterverarbeitung der Musikdaten (z.B. Musik- oder Repertoireanalysen). Die Zusatzqualifikation „Digital Musicology“ wird in absehbarer Zeit Voraussetzung für viele musikwissenschaftliche Berufe sein. Fundierte Kenntnisse in diesem Bereich können die Anstellungschancen deutlich erhöhen. Im Webinar werden die grundlegenden Schritte vorgestellt, die für eine digitale Edition mit MEI notwendig sind (inkl. XML-Grundlagen). Das Webinar ist für Anfänger in der digitalen Musikedition ausgelegt.

VORRAUSSETZUNG UND REGISTRIERUNG

Die Teilnahme an der Tool Gallery ist gratis, die Teilnehmer*innenzahl ist allerdings auf 20 beschränkt. Wir bitten daher um Registrierung:

REGISTRIERUNG

PROGRAMM

08.30                Begrüßung: Karlheinz Mörth, stellvertretender Leiter des ACDH-CH

08:45                Einführungsvortrag: Johannes Kepper, MEI Vorstandsmitglied
                          und tech. co-Vorsitzender

09:15                XML Basics: Von der „Anarchie“ zum Regelwerk

10:00                Hands on: erste Kodierungen mit dem Oxygen-Editor

10:45-11:00      Pause

11:00-12:30      Grundlagen der MEI-Kodierung I. mit Übungsaufgaben

12:30-13:15      Mittagspause

13:15-14:45      Grundlagen der MEI-Kodierung II. mit Übungsaufgaben

14:45-15:00      Pause

15:00-16.15      Hands on: Kodierung einer Beethoven-Sonate

16:15-16:30      Vorstellung von MEI-Projekten und Tools

ACDH-CH Lecture 6.1 – The TEI Guidelines: Born to be Open, Laurent Romary (Inria), Online, 10 June 2020

Mi, 06/03/2020 - 13:01

The first ACDH-CH lecture of 2020 is moving online! We make the best of the situation and continue the series online this year with Laurent Romary, Inria (France), introducing us to the topic “TEI guidelines: born to be open”.

Open science has never been so high on the research agendas, and this is true in all fields, ranging from so-called hard sciences to the humanities. In this respect, those who have been dealing with the TEI guidelines for years, whether as users or designers of the standard, have experienced an environment which has always been open by construction and fostering openness for projects based upon its principles.

In the ACDH-CH lecture 6.1 Laurent Romary will outline the main issues related to open science in the current scholarly landscape, whether political or technical. The presentation will show the various aspects where the TEI environment has been seminal in setting up an open agenda that may enlightened the humanities at large in terms of good practices, for, e.g., managing, documenting or disseminating scholarly sources and methods.

Laurent Romary is Directeur de Recherche at Inria (France), within the team ALMAnaCH, and former director general of the European infrastructure DARIAH. He carries out research on the modelling of semi-structured documents, with a specific emphasis on texts, lexica and linguistic resources. He has been active in standardization activities within ISO committee TC 37 and the Text Encoding Initiative. He has also been working since many years on the advancement of open access.

ACDH-CH Lectures are free and open to all. Please register here:

REGISTRATION

 

[Webinar] TextGrid: Einführung

Mi, 06/03/2020 - 10:44
Termin: 8. Juni 2020, 14 Uhr bis 17:00 Uhr
Ort: https://meet.gwdg.de/b/mat-u6k-7ma

Die Session wird aufgezeichnet.
Es ist keine Anmeldung erforderlich.

Die Virtuelle Forschungsumgebung TextGrid stellt Werkzeuge zur Erstellung Digitaler Editionen bereit und ist darauf ausgelegt XML-Dokumente (vorzugsweise TEI) und zugehörige Faksimiles zu verarbeiten. Sie bietet eine Plattform zur kollaborativen Bearbeitung der Dokumente – das TextGrid Laboratory – und zur Veröffentlichung und dauerhaften Speicherung der Editionen – das TextGrid Repository.

Das Laboratory ermöglicht gemeinsames Arbeiten an den Daten: vom Import über die Metadatenerfassung bis zur Validierung und Veröffentlichung stehen fertige Softwarekomponenten bereit.

Das Repository dient der Präsentation, dem Durchsuchen und dauerhaften Speichern und Verfügbarmachen der Dokumente.

Im Webinar gehen wir von bestehenden TEI-Dokumenten aus, die in das System importiert und anschließend im Repository veröffentlicht werden. Es wird ein Überblick über die wichtigsten Werkzeuge und Vorgehensweisen im Umgang mit TextGrid vermittelt und dazu alle Schritte durchlaufen, die für das Starten eigener Projekte notwendig sind und jeweilige Hintergründe erläutert.

Ablauf:

  1. Überblick zu TextGrid

  2. DARIAH-Account

  3. TextGrid Laboratoy: Installation

  4. Login und Benutzerrechte

  5. Anlegen eines Projektes

  6. Import eigener Dokumente

  7. Organisation der Dokumente (TextGrid Metadatenschema)

  8. Publikation: Anforderungen

  9. Publikation: Durchführung

  10. Präsentation der Daten im TextGrid Repository

Die Aufzeichnung steht ab dem 9. Juni bereit. Wer nur passiv teilnimmt (Video und Mikrofon abgeschaltet), wird in der Aufzeichnung nicht zu sehen sein.

Maschinelles Lernen als Interpretationsgrundlage!? – Ein Erfahrungsbericht zur DHd 2020

Di, 06/02/2020 - 10:10

Vom 03. bis 06. März 2020 habe ich an der DHd 2020 in Paderborn teilgenommen. Im Folgenden möchte ich einen thematischen Schwerpunkt näher beleuchten, der mich als Teilnehmer besonders interessiert hat.

Das Thema, an dem ich auch persönlich forsche und das ich daher auf der diesjährigen DHd besonders gesucht und verfolgt habe, ist die Frage, wie und inwieweit Maschinelles Lernen (ML) genutzt werden kann, um geisteswissenschaftliche (und insbesondere literaturwissenschaftliche) Fragestellungen zu beantworten (oder zumindest neue Einsichten zu erzeugen).

Maschinelles Lernen bezeichnet eine Methode, bei der mittels statistischer Algorithmen und Daten Modelle erzeugt werden, die aus den gesehenen Daten (statistische) Verallgemeinerungen ziehen und somit auf neue und vorher ungesehene Daten angewendet werden können. Die Fülle an vorhandenen Algorithmen und Verfahren ist groß; eine ML-Familie ist unter dem Namen “Deep Learning” bekannt geworden und bedient sich vor allem Künstlicher Neuronaler Netze. Diese Netze waren, auch unter Verwendung von immer stärker werdenden Rechnerresourcen, in bestimmten Gebieten wie Automatische Bilderkennung oder Automatische Spracherkennung, so erfolgreich, dass sie bald zugleich für andere Gebiete im großen Stil eingesetzt wurden; darunter für Textverarbeitung.

Maschinelles Lernen und Deep Learning (DL) nehmen in den DH eine interessante Rolle ein, da sie für einige Bereiche sehr gewinnbringend eingesetzt werden können (siehe OCR etc.) und für andere Bereiche auf eher größere Hürden stoßen. Einer dieser Bereiche, die Nutzbarmachung von ML für die Interpretation von literaturwissenschaftlichen Fragestellungen, fand sich auch auf der diesjährigen DHd. Ein kurzer Blick zurück: Die DHd 2019 in Mainz/Frankfurt am Main beherbergte ein Panel mit dem Titel “Deep Learning als Herausforderung für die digitale Literaturwissenschaft”. Auf der diesjährigen DHd konnte ein Panel mit dem Titel “Maschinelles Lernen in den Geisteswissenschaften” besucht werden.1 Das Auftreten dieser Themen in aufeinanderfolgenden Jahren legt den Schluss nahe, dass das Thema Maschinelles Lernen in den deutschsprachigen Digital Humanities immer mehr an Fahrt aufnimmt.

Das diesjährige Panel bestand aus verschiedenen Aspekten, die, neben einem allgemeinen Einblick dazu, was ML eigentlich ist, zusammengefasst werden können mit: 1. Vorhandene Verwendung von ML in den DH, 2. Nutzen von ML und 3. epistemologische Herausforderungen bei der Anwendung von ML. Insbesondere wurde dafür plädiert, sich zu trauen, Maschinelles Lernen produktiv in die eigene Forschung einzubauen.

Zu der Frage danach, was ML epistemologisch bedeutet, passt die Einführung einer Arbeitsgruppe auf der diesjährigen DHd mit dem Ziel, Theorien in den DH zu beleuchten und der Frage nachzugehen, welche Theoriebegriffe die DH überhaupt bereitstellen.2 Auch der Einsatz von ML in den DH kann meiner Ansicht nach von solchen Bestrebungen profitieren, da klarer wird, was für Erkenntnisgewinne durch die Anwendung von ML überhaupt grundsätzlich möglich sind.

Ein weiterer wichtiger Aspekt, der durch Wortmeldung aus dem Publikum eingebracht wurde, war die Frage danach, inwieweit die DH dazu beitragen können, Biases, also Verzerrungen, im Maschinellen Lernen und insbesondere in Word Embeddings, also numerischen Darstellungen von Wörtern, zu untersuchen. Das Thema “Bias in ML und DL” ist ein großes Thema, das momentan von vielen verschiedenen Forschungsfeldern bespielt wird. Es scheint mir offensichtlich, dass die DH mit ihrem inbegriffenen geisteswissenschaftlichen Bezug hier wichtige Beiträge leisten können. Der andere Aspekt, der eher inwendig gerichtet ist und für den ich hier gerne werben möchte, ist der bereits angesprochene Aspekt der Nutzbarmachung von ML-Methoden, um Erkenntnisse zu geisteswissenschaftlichen Fragestellungen zu gewinnen.

Ein wichtiger Teil davon ist die Frage nach der Operationalisierung von literaturwissenschaftlichen Phänomenen, d.h. komplexe Phänomene in Teilphänomene herunterzubrechen um sie z.B. mit Computerprogrammen modellieren und untersuchen zu können. Hierzu gab es verschiedene Workshops, an denen ich teilweise mitgewirkt habe: Zum einen ein “Hackatorial”, das der Frage nachging, wie die Ergebnisse Maschinellen Lernens genutzt werden können, um neue Fragestellungen zu entwickeln und neue Einsichten zu gewinnen, z.B. über gezielte Fehleranalyse und Auswahl von geeigneten Features. Hierbei lag der Fokus auf dem Erkennen von Personen-, Organisations- und Ortsreferenzen.3 Ein weiterer Workshop behandelte die gezielte Operationalisierung von komplexen literaturwissenschaftlichen Phänomenen. Hierbei wurden Texte annotiert, was zugleich erlaubte, interessante Einzelfälle ausfindig zu machen, etwa bei der Frage von Textklassifizierung oder Erzählebenenerkennung. Maschinelles Lernen kann anschließend auf die erstellten Daten angewendet werden, um zu ermitteln, wo Modelle unvorhergesehene Entscheidungen treffen. Diese Entscheidungen können ein Auslöser dafür sein, sich die entsprechenden Textstellen genauer anzuschauen und eventuell Aspekte in den Texten zu entdecken, die sonst übersehen worden wären.4

Die finale Keynote am Freitag von Alan Liu beschäftigte sich ebenfalls ganz konkret mit dem Thema und trug den Titel “Humans in the Loop: Humanities Hermeneutics and Machine Learning”. Liu schlägt ein festgelegtes Protokoll vor, nach dem verschiedene Ebenen des Lernens von ML durchlaufen werden können und macht dies am Beispiel von Topic Modeling deutlich. Geisteswissenschaftliche Herangehensweisen und Erkenntnisse aus den speziellen Gegebenheiten des ML beeinflussen sich hier gegenseitig.

Was also bleibt nach dieser DHd an neuen Eindrücken zum Thema “ML in den DH”? Ich denke, es lässt sich auf zwei wesentliche Aspekte zusammen fassen: das Interesse an der Nutzbarmachung von ML zum besseren und neuen Verständnis der geisteswissenschaftlichen Gegenstände wächst immer weiter und gleichzeitig ist der Weg noch lang zu einer routinierten Integration von ML in die DH-Alltagspraxis.

1 Panel “Maschinelles Lernen in den Geisteswissenschaften”, Donnerstag, 05.03.2020, 9:00-10:30, Tobias Hodel, Nasrin Saef, Christof Schöch, Ulrike Henny-Krahmer

2 Link zum Blog der AG: https://dhtheorien.hypotheses.org

3 Workshop “Maschinelles Lernen lernen: Ein CRETA-Hackatorial zur reflektierten automatischen Textanalyse”, Dienstag, 03.03.2020, 9:00-12:30, Gerhard Kremer, Kerstin Jung

4 Workshop “Vom Phänomen zur Analyse – ein CRETA-Workshop zur reflektierten Operationalisierung in den DH”, Dienstag, 03.03.2020, 13:30-17:00, Nora Ketschik, Benjamin Krautter, Sandra Murr, Janis Pagel, Nils Reiter

What’s in it for you? How the SSH Open Marketplace will be populated with content

Do, 05/28/2020 - 07:48

This is the second in a series of posts we are publishing to keep you informed and involved in the development of the SSH Open Marketplace. We want to ensure that the service is useful for the community, and that we receive the feedback necessary to improve it. 

In our last post we provided an overview of the SSH Open Marketplace and development timeline, and we stressed why we need your participation in its creation. In this post, we focus on the main concern of a user entering any marketplace: Will I discover what I am looking for? And we pose an important question: What content do you want to see included in the SSH Open Marketplace?

 

What do we mean by content?

By content we do not refer exclusively to tools or web services, as is often the case, but also to data sets, tutorials, training materials, articles or even other types of material. Content can be anything that contributes to or is part of a research process in the Social Sciences and Humanities. The format or type does not matter, as long as it is digitally available. We are aware that this is an ambitious definition.

Initial and upcoming content

As the marketplace is intended to meet user needs, an important aspect of the design phase was the exchange with researchers and research support staff from the Social Sciences and Humanities. From that we  compiled a prioritised content population plan with three main phases:

Initial onboarding phase

Between project initiation and the Alpha release in June 2020 we will primarily ingest  well-known content collections. Some 1,500 individual resources have so far been selected and will constitute  the minimum viable product. The most important sources are TAPoR, Programming Historian and the Standardization Survival Kit (SSK) from the PARTHENOS project. 

TAPoR, led by Geoffrey Rockwell, is a well-recognised and fairly comprehensive registry of the digital humanities tools . In 2018, data from the DiRT directory were integrated and include a curated list of research tools for studying texts and a discovery interface. 

From the Programming Historian, we present content as tutorials accompanied by contextualised content. We define contextualised content as supporting information such as software tutorials, related academic articles, and other useful resources. We adopt the same approach for the Standardization Survival Kit,  a collection presented as research scenarios. 

Extended population phase

Community feedback received during the Alpha release will inform our efforts to add further content to the Marketplace. We will also build on the experience of the initial onboarding phase to develop tools and strategies to handle as many sources as possible. Nevertheless, we expect many challenges particularly as regards “not- so- obvious sources” where only parts of the content are relevant to our users.

High quality source metadata and standardised vocabularies to tag the content (such as TaDiRAH) will allow for seamless integration. The application of the FAIR data principles at the source is therefore a helpful pre-condition for us. 

Equally, as long as there are well-documented data models and machine-readable APIs (that also offer readability of the scheme in use) at hand, regular and automatic content updates will be possible. Otherwise, a very detailed analysis process will need to be initiated, and the content mapped to the data model manually. As the aim is not only to have much content present but also to connect the elements to provide context, population from new sources will need to include associated background information on digital research methods and approaches. For this we will rely heavily on the support of the Social Sciences and Humanities research communities.

Community supported phase

Once the Marketplace has reached a certain maturity and uptake by the users, we intend to include the community substantially in the curation and enhancement of the content.

Community curation might be as simple as a suggested correction or a comment to a specific item, but could take more advanced shapes.

One pillar of a successful platform is the availability of powerful curation workflows and tools that help to improve the quality of the data, thus enriching the content and helping users gain new perspectives. In this regard, the development of curation tools will be a major focus of this phase.

Offering a wide selection of useful material is key to attracting an open and active community. We believe our curated, context-driven approach will help researchers gain new ideas, useful documents, exciting tools to try -out, and recommendations by peers from different research communities, institutions and countries.

We envision a lively community boosting the SSH Open Marketplace not only for the benefit of the SSH domain but also as an integral part of the larger European Open Science Cloud where it will dovetail with many other disciplines. 

If you want to participate in one of the opportunities outlined below, please email us at info@sshopencloud.eu or even register for our community of testers at https://www.sshopencloud.eu/form/ssh-open-marketplace-join-community-testers

Your Contribution

When and how can you be involved in the creation of the SSH Open Marketplace?

  • As an Alpha or Beta tester: right now, if you follow the different upcoming events by subscribing to the SSHOC newsletter following the SSHOC Twitter account and by registering as a SSHOC user.
  • As a contributor: from December 2020 on you’ll be able to suggest new content in the portal and/or to enrich existing items.
  • As a member of the editorial team: between December 2020 and December 2021 an editorial team will be created. Its composition and mission still need to be refined, but we’ll probably have a mix of people suggested by the institutions engaged in the sustainability of the Marketplace and an open call for participation. The most active contributors could also become members of the editorial team.

All users involved in the SSH Open Marketplace as testers, contributors or members of the editorial team will be acknowledged and cited for their contribution and, when possible, other rewarding models will be considered.

Authors: Klaus Illmayer, Stefan Buddenbohm, Raisa Barthauer
Editors: Tracey Biller, Friedel Grant, Eliza Papaki

DHd2021 Call for Papers

Mi, 05/27/2020 - 13:11
Die 8. Jahrestagung des Verbands »Digital Humanities im deutschsprachigen Raum e.V.« wird vom 15. bis 19. März 2021 an der Universität Potsdam und der Fachhochschule Potsdam unter dem Thema »Kulturen des digitalen Gedächtnisses« stattfinden.

Die Frist für die Einreichung von Proposals für die DHd2021 ist auf den 30.09.2020, 23:59 Uhr (MESZ), festgelegt und wird nicht verlängert. Wir bitten um Einreichungen von Proposals in den Kategorien »Vortrag« , »Panel« , »Poster« und »Workshop« via Conftool.
Weitere Informationen zum CfP DHd2021 gibt es hier: https://www.dhd2021.de/cfp/   Wir freuen uns auf viele Abstracts.   Herzliche Grüße,
Simone Kronenwett für den DHd __________________________________
Simone Kronenwett

Digital Humanities im deutschsprachigen Raum (DHd)
Communications Fellow
Email: info@dig-hum.de
Twitter: @DHDInfo
www.dig-hum.de

SSHOC Takes Over @DARIAHeu Twitter Account

Mi, 05/27/2020 - 12:27

 

Between 10:00 and 14:00 CEST on 17 June, SSHOC will take over the Twitter account of the partner organisation DARIAH-EU to promote the Alpha release of the SSH Open Marketplace. The release is scheduled for 30 June.

DARIAH’s Frank Fischer who is also Associate Professor for Digital Humanities at the Moscow Higher School of Economics and leads development of the SSH Marketplace with colleague Laure Barbot, will preside over the session to answer user questions about the resource.

The SSH Open Marketplace is a key deliverable from the SSHOC project and responds to a long-standing demand in the humanities and social sciences for an inclusive, curated, easily accessible overview of digital tools and services, training material, data and scientific papers. The aim of the developers is to gather existing resources from both disciplines, to pool and harmonise them, and then to enhance the offering with supporting contextual information. As well as making an important contribution to the SSH domain, the resulting resource will also be incorporated into the emerging European Open Science Cloud.

Participants in the Twitter Takeover will have the opportunity to:

  • Discover the precise nature of the SSH Open Marketplace and what resources will be available initially
  • Learn about the next steps in developing the Marketplace further and the plans to foster community-driven curation
  • Understand how the Marketplace will integrate with existing EOSC services
 

For the purpose of the Twitter Takeover the hashtag #SSHOCifyDARIAH has been created.

The broad plan for the roll out of the SSH Open Marketplace can be found in this article.

For more information see also the poster prepared for the recent EOSC-hub Week event.

So get your questions ready and join us on 17 June to follow the conversation!

Datenqualität und LOD in den Geisteswissenschaften

Di, 05/26/2020 - 15:33

Nachbericht zur Session 1.1 des Barcamp „Vermittlung von Data Literacy in den Geisteswissenschaften“ auf der DHd 2020 in Paderborn.

Autor*innen:
Jonathan Geiger, Digitale Akademie, Akademie der Wissenschaften und der Literatur | Mainz
Thomas Skowronek, Leibniz-Institut für Geschichte und Kultur des östlichen Europa (GWZO), Leipzig 
Aline Deicke, Digitale Akademie, Akademie der Wissenschaften und der Literatur | Mainz

Pinnwand mit den Ergebnissen der Session (Aline Deicke, CC BY)

In der Session “Datenqualität und LOD in den Geisteswissenschaften” des Barcamps “Data Literacy”, organisiert von der DHd-AG Datenzentren auf der DHd-Konferenz 2020 in Paderborn, wurden die beiden Ausgangsfragen nach der Datenqualität in den Geisteswissenschaften und Linked Open Data in einer Trias „Datenqualität“, „Data Literacy“ und „LOD in den Geisteswissenschaften“ aufgespannt. Wie sich in der Diskussion der drei Themenfelder und ihrer Beziehung gezeigt hat, drehen sich Fragen der Qualität, Kompetenz und Standardisierung in den Geisteswissenschaften (und vermutlich nicht nur dort) einerseits um technische Entwicklungen, andererseits – und zu einem großen Teil – um Personen, Prozesse und Ressourcen.

Datenqualität und -standards

Besonders im Fokus stand dabei die Datenqualität. Es gibt einen breiten Konsens darüber, dass in der (geisteswissenschaftlichen) Forschung ein hohes Maß an Datenqualität herrschen und hergestellt werden muss. Datenqualität ist dabei ein komplexes, multidimensionales Gebilde – beispielsweise können eine technische, eine informationelle und eine didaktische Dimension unterschieden werden, die sich aber stets wechselseitig bedingen. Daten sind stets relativ zu ihren Herstellungs- und Verwendungskontexten zu betrachten, insbesondere im Hinblick auf Nachnutzungskontexte. Aufgrund dieser inhärenten Relativität und Multikontextualität sind allgemeingültige Standards in diesem Bereich problematisch, aber dennoch unumgänglich, wobei die Frage nach den Verantwortlichkeiten und Zuständigkeiten in zweifacher Hinsicht aufgeworfen wird: Einerseits „Wer legt die Standards fest?“ und andererseits „Wer kümmert sich um deren Einhaltung bzw. Durchsetzung?“. Die Frage nach der Standardsetzung scheint nur in einem dialogischen Prozess zwischen den Akteuren der allgemeinen Wissenschaftsverwaltung (z. B. der DFG, DARIAH, CLARIAH und perspektivisch der NFDI) und den einzelnen Fachcommunities beantwortet werden zu können. Was die Umsetzung der Standards angeht, so ist ein breiterer Wandel innerhalb der Fachkulturen erforderlich. Erst wenn produzierter Code, verwendete Algorithmen und Daten als eigenständige wissenschaftliche Publikationsleistung Anerkennung finden können, scheint die gewünschte Transparenz und Nachvollziehbarkeit der verwendeten Methoden, Tools und der mit ihnen erarbeiteten Ergebnisse in Aussicht zu stehen. 

Herausforderungen an das Wissenschaftssystem

Datenqualität hat also nicht nur mit Befugnissen und Verantwortlichkeiten zu tun, sondern erweist sich in zentralen Punkten als eine Ressourcenfrage. Deshalb kommt es darauf an, durch  ein effizientes wissenschaftsunterstützendes System mit entsprechenden Schulungen u. ä. die Belastung der Forschenden möglichst gering zu halten. Dazu gehört eine sorgfältige, möglichst zielgruppenspezifische und nachvollziehbare Planung sowie umfassende Kommunikation. Die Verantwortung für die eigenen Daten (FAIR, CARE) liegt zwar primär auf Seiten der Forschenden, ist mittels entsprechender Werkzeuge und Angebote aber auch durch das Wissenschaftssystem mitzutragen und herauszubilden. Ein Bewusstsein für den angemessenen Umgang mit Daten zu entwickeln, bedarf eines Lernprozesses und kollektiver Anstrengung mit Sensibilität für fach-, institutionen- und projektspezifische Anforderungen und Bedürfnisse. Der reflektierende und konsequente Blick auf Idiosynkrasien und kontextspezifische Unwägbarkeiten gilt nicht zuletzt auch dem gesamten Forschungsdatenmanagement in seiner historischen Veränderlichkeit und Unabgeschlossenheit. Trotz und wegen mancher Ungewissheit, welche Regelung im Einzelfall zutreffen mag, in welcher Bandbreite und Anwendungstiefe, trotz und wegen eventuell ungeregelter Zuständigkeiten und Finanzierungsmöglichkeiten, verlangt es eine Ermöglichungshaltung. Der sprichwörtliche Mut zur Lücke ist auch im Forschungsdatenmanagement gefragt und damit ein verständnisvolles, verantwortungsbewusstes und letztlich auch kreatives Handeln auf Seiten aller Beteiligten.   

Data Literacy als Datenbewusstsein

Data Literacy ist bei der Sicherstellung von Qualität ein essentieller Bestandteil, nicht nur in Bezug auf Forschungsdaten in den Geisteswissenschaften allgemein, sondern eben auch in Bezug auf Qualitätsstandards eben jener Daten. Vor den konkreten Data Literacy-Kompetenzen muss allerdings das Bewusstsein bzw. eine Sensibilisierung dafür hergestellt sein, wann, wo und wie man in einem Verhältnis zu Daten steht. Dies ist eine Bedingung der Möglichkeit von Data Literacy überhaupt und ermöglicht dadurch erst den verantwortungsvollen und aufgeklärten Umgang mit Daten. Die Kenntnisse von Kriterien und Metriken, die Datenqualität sicherstellen, sowie deren Anwendung und Umsetzung sind ebenfalls notwendig für ein erfolgreiches Datenqualitätsmanagement (wie z. B. bei KONDA).

Linked Open Data

Auch der Themenkomplex LOD bzw. Linked Open Data (also technisch in Beziehung gesetzte und öffentlich verfügbare Daten) ist eng mit den beiden anderen Säulen verknüpft. Die hierfür nötige Aufbereitung und Veröffentlichung von (Forschungs-)Daten stellt erneut eine Frage der Kompetenzen und zeitlicher Ressourcen dar, die beide im Forschungsprozess nicht einfach vorausgesetzt werden können und bisher noch selten berücksichtigt sind. Auch für die Transformation von Daten zu LOD sind bestimmte Kompetenzen aus dem Bereich Data Literacy gefragt, z. B. ein kompetenter Umgang mit kontrollierten Vokabularen und Ontologien (wie in den DH beispielsweise TaDiRAH). Umgekehrt können aber auch Lehrmaterialien zu Data Literacy als offene, verknüpfte Bildungsressourcen, d. h. Open Educational Resources (OER), zur Verfügung gestellt und verwendet werden. Eine Datenfeinerschließung in dem Sinne, dass konkrete Kompetenzen als eigene Ontologie abgebildet und in OER eingeschrieben werden können, steht allerdings noch aus. Auch sind Qualitätskriterien bzw. -metadaten für LOD an sich bisher noch nicht formalisiert, sondern existieren vor allem als implizites Wissen in der Community. Es stellt sich zudem die Frage, wie Datenqualitätsstandards nachträglich auf bereits publizierte LOD-Bestände angewandt werden können. In einer anderen Lesart wären hingegen als LOD formalisierte Daten zur Qualitätsbewertung anderer Daten sehr gut vorstellbar.

Wissenschaftsethos

Insgesamt lässt sich festhalten, dass jede Säule der Trias „Datenqualität“, „Data Literacy“ und „LOD“ eng mit den anderen verzahnt ist und dass es in jedem der drei Cluster auf einer Metaebene um die Struktur und Strukturierung von Daten und Informationen geht. Dies adressiert einerseits das individuelle Verantwortungsbewusstsein aller Forschenden und ist damit eine Frage des Wissenschaftsethos, andererseits ist für die individuelle Entsprechung dieses Ethos‘ auch der Zugang zu und die Kenntnis von entsprechenden Ressourcen notwendig. Eine Formalisierung der Prozesse und ethischen Prinzipien auf Datenseite (z. B. die FAIR– und CARE-Prinzipien) ermöglichen ressourcenschonendes Agieren und können es so den einzelnen Institutionen erleichtern, Forschenden Zeit, Schulungen und sonstige Formen der Unterstützung zur Verfügung zu stellen. Das konsensuale Fazit der Session war schließlich, dass letztendlich der Mensch und die durch ihn realisierten (Forschungs-)Prozesse sowie die hierauf wirkenden Rahmenbedingungen die indirekten Kondensationspunkte von Datenqualität sind. Damit ist es vor allem unser Handeln in Forschung, Wissenschaftsmanagement und den beteiligten Institutionen, das die Qualität unserer Forschungsdaten direkt und maßgeblich beeinflussen kann.

Referent/in für das europäische Infrastrukturprojekt OPERAS (Aktenzeichen: VN011/2020)

Mo, 05/25/2020 - 15:28

Die Max Weber Stiftung – Deutsche Geisteswissenschaftliche Institute im Ausland (MWS) sucht für ihre Geschäftsstelle in Bonn zum 1. September 2020 eine Referentin/Referenten (m/w/d) für das europäische Infrastrukturprojekt OPERAS

Die May Weber Stiftung ist eine Wissenschaftseinrichtung in der Form einer rechtsfähigen, bundesunmittelbaren Stiftung des öffentlichen Rechts. Sie unterhält in europäischen und außereuropäischen Gastländern zehn Forschungsinstitute und mehrere Außenstellen bzw. Projektbüros sowie in Bonn eine gemeinsame Geschäftsstelle. Weltweit werden über 300 Mitarbeiterinnen und Mitarbeiter beschäftigt.

Seit 2017 ist die MWS in führender Position bei der EU-geförderten Forschungsinfrastruktur OPERAS engagiert. Damit ist sie am Aufbau einer forschungsgetriebenen Infrastruktur für die Geistes- und Sozialwissenschaften im europäischen Forschungsraum beteiligt. Diese Aktivitäten bedürfen einer Anbindung an die sich derzeit sehr dynamisch entwickelnden Forschungsinfrastrukturen in Deutschland. Für eine stärkere Vernetzung der europäischen Infrastrukturen mit der deutschen Forschungslandschaft setzt sich das Projekt OPERAS-GER ein. Für die Wahrnehmung der hier anfallenden Aufgaben suchen wir vorbehaltlich der Projektbewilligung durch das BMBF eine Referentin/einen Referenten in der Geschäftsstelle der MWS in Bonn (TVÖD Entgeltgruppe 13, Projektbefristung auf drei Jahre).

Welche Aufgaben erwarten Sie?
  • Sie entwickeln eine Kommunikationsstrategie, um die Services in OPERAS der deutschen User Community nahezubringen, ein entsprechendes OPERAS-Netzwerk in Deutschland zu begründen und weitere Mitglieder für OPERAS zu gewinnen.
  • Sie identifizieren unterschiedliche Akteure und Anwendungsszenarien für die auf EU-Ebene entwickelten Dienste und kontaktieren sie.
  • Sie nehmen die Rückmeldungen und auch die Bedarfe aus der deutschen Forschungslandschaft auf und vermitteln Sie in die OPERAS-Community.
  • Sie organisieren Workshops und Webinare, um die Services bekannt zu machen.
  • Sie vertreten die auf EU-Ebene entwickelten Services auf Konferenzen und Workshops in Deutschland; komplementär dazu nehmen Sie für deutsche Belange an Veranstaltungen auf europäischer Ebene teil.
  • Sie dokumentieren Ihre Arbeit und reflektieren sie in Veröffentlichungen in diversen Formaten.
Ihr Profil Voraussetzungen:
  • ein überdurchschnittlicher wissenschaftlicher Abschluss (Master oder Promotion) in einem geistes-, sozial-, bibliotheks- oder informationswissenschaftlichem Fach (gerne mit Digital Humanities-Ausrichtung)
  • exzellente Kommunikationsfähigkeit, gute Ausdrucksfähigkeit im Deutschen, Präsentationserfahrung, Organisationsfähigkeit
  • Erfahrung in der Handhabung sozialer Medien im wissenschaftlichen Umfeld (Blogs, Twitter, Facebook)
  • gute Kenntnisse im Bereich der Bildbearbeitung und Layout, z.B. über Indesign, Photoshop oder Illustrator
  • gute Kenntnisse in den Methoden und Konzepten der Digital Humanities, besonders beim digitalen Publizieren, ebenso im Bereich Open Science
  • Bereitschaft zu häufigen Dienstreisen, v.a. in Deutschland, teilweise im europäischen Ausland
  • sichere Englischkenntnisse in Wort und Schrift, vergleichbar dem Niveau von C1.
Wünschenswert:
  • nachgewiesene Erfahrung im Management von Forschungs- oder Infrastrukturprojekten, möglichst mit Konzeptionierungs- und Koordinierungsaufgaben
  • Grundkenntnisse der IT, etwa in den Bereichen Webtechnologien, X-Technologien und Softwarearchitekturen
  • Grundkenntnisse in Bibliotheks- und Informationswissenschaften, etwa über Metadaten, Metriken, Retrieval- und Discovery-Systeme.
Was wir bieten:
  • Abwechslungsreiche, anspruchsvolle und eigenständige Tätigkeit in einem dynamischen und interdisziplinären Umfeld
  • Kollegiale Zusammenarbeit und Austausch in einem sympathischen Team
  • Möglichkeit zum Erwerb eines Jobtickets für den VRS
  • Möglichkeiten zur Weiterbildung

Die Stelle ist grundsätzlich teilzeitgeeignet. Die MWS fördert die Vereinbarkeit von Familie und Beruf. Schwerbehinderte Bewerber/innen werden bei gleicher Qualifikation bevorzugt berücksichtigt.

Die Vorstellungsgespräche werden voraussichtlich am 1. oder 2. Juli 2020 stattfinden, angesichts der pandemiebedingten Hygienemaßnahmen höchstwahrscheinlich mittels einer Videoschalte. Bei Verhinderung an diesen Terminen weisen Sie bitte schon in der Bewerbung darauf hin. Für weitere Auskünfte steht Ihnen Dr. Michael Kaiser (kaiser@maxweberstiftung.de und Tel. 0228/37786-24) zur Verfügung. Ihre Bewerbung reichen Sie bitte bis zum 22. Juni 2020 über unser Bewerbungsportal ein.

Wissenschaftliche Hilfskraft für das europäische Infrastrukturprojekt OPERAS (Aktenzeichen: VN012/2020)

Mo, 05/25/2020 - 15:22

Die Max Weber Stiftung – Deutsche Geisteswissenschaftliche Institute im Ausland (MWS) sucht für ihre Geschäftsstelle in Bonn zum 1. September 2020 eine wissenschaftliche Hilfskraft (m/w/d) für das europäische Infrastrukturprojekt OPERAS

Die Max Weber Stiftung unterhält zehn Forschungsinstitute und mehrere Außenstellen in 15 Ländern. Sitz der Stiftung ist Bonn. Weltweit werden über 300 Mitarbeiterinnen und Mitarbeiter beschäftigt und zahlreiche Stipendiatinnen und Stipendiaten gefördert.
Seit 2017 ist die MWS in führender Position bei der EU-geförderten Forschungsinfrastruktur OPERAS engagiert. Damit ist sie am Aufbau einer forschungsgetriebenen Infrastruktur für die Geistes- und Sozialwissenschaften im europäischen Forschungsraum beteiligt. Diese Aktivitäten bedürfen einer Anbindung an die sich derzeit sehr dynamisch entwickelnden Forschungsinfrastrukturen in Deutschland. Für eine stärkere Vernetzung der europäischen Infrastrukturen mit der deutschen Forschungslandschaft setzt sich das Projekt OPERAS-GER ein. Zur Unterstützung der Referent/in-Stelle in diesem Projekt suchen wir vorbehaltlich der Projektbewilligung durch das BMBF eine wissenschaftliche Hilfskraft in der Geschäftsstelle der MWS in Bonn (bis zu 19 Wochenstunden).

Welche Aufgaben erwarten Sie?
  • Sie sind bei der Entwicklung einer Kommunikationsstrategie beteiligt, die die Services in OPERAS der deutschen User Community nahebringt und ein entsprechendes OPERAS-Netzwerk in Deutschland begründet.
  • Sie pflegen die Social-Media-Auftritte von OPERAS-GER in enger Abstimmung mit dem/r zuständigen Referenten/in und den KollegInnen in OPERAS.
  • Sie kümmern sich um die Fortentwicklung und Bereitstellung von Kommunikationsmaterial für OPERAS-GER (virtuell und im Druck).
  • Sie unterstützen die Organisation von Workshops und Webinaren.
  • Sie dokumentieren die Arbeit in diesem Projekt.
Ihr Profil Voraussetzungen:
  • Studium eines Faches aus den Geistes-, Sozial-, Bibliotheks- oder Informationswissenschaften
  • Exzellente Kommunikationsfähigkeit und Organisationsfähigkeit
  • Versierter Umgang mit Textverarbeitungs- und Präsentationsprogrammen
  • Gute Kenntnisse in der Handhabung von Bildbearbeitungsprogrammen, idealerweise Indesign oder Photoshop
  • Erfahrung in der Handhabung sozialer Medien (Blogs, Twitter, Facebook, LinkedIn)
  • Sichere Englischkenntnisse in Wort und Schrift
Wünschenswert:
  • Kenntnisse in den Methoden und Konzepten der Digital Humanities, besonders in Bezug auf das digitale Publizieren
  • Einschlägige IT-Kompetenzen, etwa in den Bereichen Webtechnologien, X-Technologien und Softwarearchitekturen
  • Kenntnisse im Bereich Open Science
Was wir bieten:
  • Abwechslungsreiche Tätigkeit in einem dynamischen und interdisziplinären Umfeld
  • Kollegiale Zusammenarbeit und Austausch in einem sympathischen Team
  • Möglichkeit zum Erwerb eines Jobtickets für den VRS

Die MWS fördert die Vereinbarkeit von Familie und Beruf.

Schwerbehinderte Bewerber/innen werden bei gleicher Qualifikation bevorzugt berücksichtigt.

Die Vorstellungsgespräche werden voraussichtlich am 7. Juli stattfinden, angesichts der pandemiebedingten Hygienemaßnahmen höchstwahrscheinlich mittels einer Videoschalte. Bei Verhinderung an diesem Termin weisen Sie bitte schon in der Bewerbung darauf hin. Für weitere Auskünfte steht Ihnen Dr. Michael Kaiser (kaiser@maxweberstiftung.de und Tel. 0228/37786-24) zur Verfügung. Ihre Bewerbung reichen Sie bitte bis zum 22. Juni 2020 über unser Bewerbungsportal ein.

Digital Medievalists im deutschsprachigen Raum

Mo, 05/25/2020 - 10:00
Die Mediävistik und ihre digitalen Spielräume auf der #DHd2020

Der Mittelalterforschung wird auch heute noch nachgesagt, sie sei eher traditionell orientiert und zeige nur eine langsame Offenheit gegenüber der Anwendung neuer digitaler Methoden. Auf der diesjährigen Tagung des DHd (Paderborn 2.–6. März) zeigte die Mediävistik in der digitalen Geisteswissenschaft jedoch nicht nur eine breite wissenschaftliche Präsenz, sondern wusste auch beim Posterlam zu überzeugen. Als Stipendiatin des DHd und CLARIAH-DE,* war ich während der Tagung der digitalen Mediävistik auf der Spur, es folgt ein Überblick über die mediävistischen Beiträge auf der #DHd2020:[1]

*An dieser Stelle noch einmal herzlichen Dank für die Unterstützung!

Clemens Liedtke (Heidelberg) präsentierte im Beitrag DH’s Next Topmodel? Digitale Editionsentwicklung zwischen Best Practice und Innovation am Beispiel des „Corpus Masoreticum“ ein Beispiel aus den jüdischen Studien zur digitalen Transformation der Handschriftenforschung einer hebräischen Bibeledition. Er erläuterte, welchen Einfluss die Digitalisierung auf die Verfügbarkeit edierbarer Materialien hat und damit auf die Grundlagen textkritischer Editionen. Das Projekt widmet sich dem sogenannten masoretischen Text in mittelalterlichen Bibelcodizes des 12. Jahrhunderts. Am Beispiel der Langzeiteditionsvorhaben „Corpus Masoreticum“ der Hochschule für Jüdische Studien in Heidelberg wird ein Editionsmodell entwickelt, dass die Modellierung von vernetzten Texten und der in den Handschriften überlieferten internen Verweisstruktur ermöglicht. Diese besteht aus metatextuellen Elementen, wie Graphemen, grammatischen, syntaktischen und semantische Notizen, Referenzen und Verweisen. Die Forschungsdaten werden in einer Graphdatenbank modelliert. Ziel des Langzeitprojektes  ist, neben der Edition selbst, die Entwicklung einer hybriden Editionsumgebung.

Ein weiteres Editionsprojekt aus dem Bereich der Jüdischen Studien wurde von Paul Molitor et al. (Halle) im Rahmen der Postersession vorgestellt: Das DFG Projekt zur „Synoptischen Edition des kabbalistischen Traktats Keter Shem Tov mit englischer Übersetzung, Stellenkommentar und rezeptionsgeschichtlichen Studien“ ist an der Universität Halle angesiedelt. Zentraler Aspekt der Edition des Traktats aus dem 13. Jahrhundert ist der Umgang mit der Vielzahl überlieferter Textfassungen.

An der Schnittstelle zwischen Text- und Bildwissenschaft angesiedelt ist der Beitrag Erzählerische Spielräume. Medienübergreifende Erforschung von Narrativen im Mittelalter mit ONAMA von Isabella Nicka, Peter Hinkelmanns, Miriam Landkammer und Manuel Schwembacher (Salzburg). ONAMA – das Akronym steht für Ontology of the Narratives of the Middle Ages – ist eine Kooperation der beiden Langzeitvorhaben Mittelhochdeutschen Begriffsdatenbank (Universität Salzburg) und Bilddatenbank REALonline (Institut für Realienkunde des Mittelalters und der frühen Neuzeit, Krems/Salzburg). Das Projekt (Laufzeit März 2019 bis Februar 2021) erforscht die Modellierung von Narrativen auf (unbewegten) Bildern. Die im Projekt entwickelte Ontologie wird anhand von Beispielen aus deutschsprachigen Texten und mittelalterlichen Kunstwerken gespeist. Dabei entsteht ein intermediales Modell aus Handlung, Person, Objekt und Ort zur Erschließung mittelalterlicher Narrative mit dem Ziel der Überwindung fachlicher Grenzen zwischen bildlicher und textlicher Überlieferung. Das neue digitale Werkzeug ermöglicht die Annotation von Bild- und Textquellen, auf deren Basis dann Abfrageergebnisse zu Erzählkernen, Figurenkonstellationen, Handlungsmustern etc. ermöglicht werden. Im Vortrag wurden das eindrucksvolle Projekt sowie auch erste mit der Ontologie annotierten Ergebnisse vorgestellt.

Tolle Modellierung von Narrativen in #ONAMA. #DHd2020 pic.twitter.com/PflsnutN5s

— Frederik Elwert (@felwert) March 6, 2020

Erfreulich häufig tauchen im BoA die Begriffe Deep Learning und Machine Learning auf.[2] Auch hier fehlt es nicht an Beiträgen aus der (digitalen) Mediävistik. Für den Bereich der Anwendung von Deep Machine Learning in der Bildanalyse stellten Torsten Hiltmann (Berlin) und Benjamin Risse (Münster) in ihrem Beitrag Wappen und ihre Überlieferung als kulturhistorische Herausforderung Wappen als geeignete Bilddomäne für visuelle Objekterkennung mittels Deep Learning-Algorithmen vor. Der Fokus liegt auf der Detektion heraldischer Abbildungen in mittelalterlichen und frühneuzeitlichen Handschriften, wobei die Beschreibung der Entwicklung neuer Ressourcen und Methoden im Fokus des Vortrags standen. Für das Training einer Künstlichen Intelligenz zur Bilderkennung wird in der Regel auf bestehende Bilddatenbanken zurückgegriffen. Die dafür aufbereiteten Bilddaten decken dabei bisher in erster Linie zwei Extreme ab, nämlich ein stark eingegrenztes thematisches Feld, wie beispielsweise das MNIST Dataset handgeschriebener Ziffern, oder sehr komplexe und weitgefasste Bildinhalte wie Imagenet[3] zur Objekterkennung. Wappen bilden durch ihre große Überlieferungszahl, der Diversität der Gebrauchskontexte sowie der generellen Komplexität der Materie eine Herausforderung für die kulturhistorische Forschung. Der entscheidende Vorteil von Wappen als Bilddomäne ist ihre formalisierbare visuelle Struktur aus abstrakten Codes von Formen und Farben. Durch diese Eigenschaften, so die Hypothese, bilden sie jedoch eine Bilddomäne für Deep Learning-Algorithmen visueller Objekterkennung, die sich in ihrer Komplexität zwischen den beiden oben genannten Bildkorpora einordnen lässt. Dies bildet einen Spielraum für die Untersuchung der Funktionsweise der Algorithmen für verschiedene Bildabstraktionen; beispielweise Geometrie versus Textur, Form versus Farbe. Im Rahmen des Projektes soll ein ausreichend großes Datenset erstellt und zur Verfügung gestellt werden.

Keine DHd ohne Beiträge zu aktuellen Entwicklungen in der automatischen Handschriftenerkennung (HTR). Tobias Hodel (Bern) gab in seinem Beitrag Best-practices zur Erkennung alter Drucke und Handschriften. Die Nutzung von Transkribus large- und small-scale[4] einen Einblick in aktuelle Entwicklungen und das Potenzial der Nachnutzbarkeit für eigene Textkorpora. Dabei lag ein besonderer Fokus auf der Benutzerfreundlichkeit für Lai*innen sowie darauf, wie ein Neuronales Netz zur Handschriftenerkennung trainiert wird und welche Datenmengen dazu auf- und nachbereitet werden müssen.

Ein Spielraum der mediävistischen Musikwissenschaft wurde im Beitrag OMMR4all – ein semiautomatischer Online-Editor für mittelalterliche Musiknotationen vorgestellt. OMMR4all steht für Optical Medieval Music Recognition for all, wobei es sich um eine als Web-Applikation ausführbare open source Software handelt. Christoph Wick, Alexander Hartel und Frank Puppe (Würzburg) stellten eine quellenoffene Software zur semiautomatischen Neumenerkennung vor. Die Software basiert auf OMR (= Optical Music Recognition) und MEI (= Music Encoding Initiative) Recognition als Output. Die Software ermöglicht das Training für Notenlinien und Symboldetektoren, ein Overlayeditor erlaubt die manuelle Nachkorrektur. Durch den Output als MEI XML können die erfassten Neumennotationen maschinell nachgenutzt werden.

Abb. 1: Posterbeitrag Cooking Recipes of the Middle Ages

Das Projekt CoReMa, vorgestellt durch Beiträge von Christian Steiner et al. (in Abwesenheit, Graz), ist der Aufbereitung von Kochrezeptüberlieferungen aus Frankreich und dem deutschsprachigen Raum gewidmet. Das Korpus umfasst circa 80 Manuskripte mit einer Gesamtzahl von 8000 Kochrezepten. Die Aufbereitung erfolgt mit dem Ziel der qualitativen und quantitativen Analyse und möchte damit einen Beitrag zur Ernährungsgeschichte leisten. Die Handschriften werden transkribiert, philologisch-editorisch bearbeitet und semantisch angereichert. Dadurch wird ein Abgleich von Zutaten, Kochprozessen und Kochutensilien ermöglicht. Begleitet wurde der Vortrag Spielräume definieren: Cooking Recipies of the Middle Ages von einem Poster (siehe Abb. 1), dessen Fokus auf den nachnutzbaren Ressourcen zur Studie über Herkunft und die Bildung regionaler Küchen des Projektes liegt. Zeitgleich zur Konferenz wurde die Homepage des Projektes mit ersten Beispielen gelauncht. Darüber hinaus überzeugte CoReMa auch beim Posterslam und belegte den zweiten Platz.

Sarah Ihden (Hamburg) stellte während der Postersession das Projekt Mittelniederdeutsche Grammatik, Flexionsmorphologie (Laufzeit 2020–2023) zu einer modernen mittelniederdeutschen Grammatik vor, die den Open Science Gedanken und den FAIR Prinzipien folgt. Varianz, Ambiguität, Unsicherheit. Methodische Schlaglichter zur mittelniederdeutschen Grammatik.

Abb. 2: Digital Medievalist Postgraduate Subcommittee (Design: Tessa Gengnagel)

Gemeinsam mit Tessa Gengnagel (Köln) und Daniela Schulz (Wolfenbüttel/Wuppertal) stellte ich selbst im Rahmen der Postersession das 2019 gegründete Digital Medievalist Postgraduate Subcommittee, Teil der internationalen, webbasierten Interessengemeinschaft Digital Medievalist vor. Digital Medievalist wurde 2003 gegründet, um Wissenschaftler*innen zu vernetzen und den Austausch bezüglich der wachsenden Herausforderungen digitaler Projekte zu unterstützen.

Die digitalen Geisteswissenschaften und somit auch die Digitale Mediävistik sind ein relativ junger und sich in ständiger Weiterentwicklung befindender Bereich, der eine heterogene Gruppe junger Wissenschaftler*innen umfasst. Im Vergleich zu den etablierten geisteswissenschaftlichen Disziplinen zeichnet sich diese Gruppe im Besonderen durch ihre große Diversität an fachlichen Hintergründen und abweichende Karrierewege aus. Durch die allgemeine Interdisziplinarität der Digitalen Geisteswissenschaften, die sich auch in den überall aus dem Boden sprießenden DH-Center und Studiengängen widerspiegelt, fehlt es gerade jungen Wissenschaftler*innen häufig an direktem Anschluss innerhalb der eigenen Institutionen. Die Umstellung vom Zwei-Zyklus zum Drei-Zyklus System (Bachelor, Master, Doktorat) mit der Möglichkeit, in nicht konsekutiven Studiengängen neue Wege einzuschlagen und neue Schwerpunkte zu wählen, bringt bereits früh in der akademischen Laufbahn eine steigende Mobilität mit sich. Zwar bietet der Arbeitsmarkt für DH-Affine Berufseinsteiger*innen mitunter bessere Einstiegschancen,[5] jedoch gestalten häufigere Standortwechsel sowie die Eingliederung als Teilbereichsexpert*innen in interdisziplinäre Teams es schwieriger, ein lokales Netzwerk für die eigenen Forschungsschwerpunkte aufzubauen.

Das Digital Medievalist Postgraduate Subcommittee hat sich zum Ziel gesetzt, dem wissenschaftlichen Nachwuchs eine Plattform zu bieten, um zum einen den Austausch untereinander zu verbessern, und um zum anderen auf die speziellen Qualifikationen dieser Gruppe – zwischen Tradition und Innovation – aufmerksam zu machen. Zu den Herausforderungen, denen junge Wissenschaftler*innen in diesem Bereich gegenüberstehen, zählen beispielsweise die Anerkennung alternativer Publikationsformen (Datensets, Softwarecode, aber auch die Frage nach kumulativer Dissertation versus Monographie) sowie abweichende Karrierewege mit einer hohe Zahl an Quereinsteiger*innen in die beteiligten Disziplinen. Dabei geht es auch in besonderem Maße darum, die erworbenen Fähigkeiten aus dem Bereich der Digitalen Geisteswissenschaften, die von Vermittlungskompetenzen bis zur Coding Literacy reichen können, als gleichwertig mit der fachwissenschaftlichen Expertise im engeren Sinne anzusehen.

Unsere Teilnahme an der Postersession der DHd war von der Möglichkeit der Generierung von Sichtbarkeit unserer Initiative motiviert. Beim gemeinsamen Beitrag Early Stage Digital Medievalist Subcommittee. Vernetzen, entgrenzen, Spielräume schaffen standen zum einen die existierenden Kanäle des Digital Medievalist, wie Mailingliste, Journal und Social Media Kanäle, im Mittelpunkt zum anderen die sich in Vorbereitung befindenden Aktivitäten des Subcommittees. Im Laufe des Jahres ist der Launch eines Podcasts geplant, bei dem der Fokus auf Projekten und Initiativen junger Wissenschaftler*innen in der Digitalen Mediävistik liegen wird. Darüber hinaus gaben wir einen Ausblick auf die Planung gemeinsamer zukünftiger Konferenzaktivitäten (analog und virtuell), wie beispielsweise eines Panels im Rahmen des International Medieval Congress in Leeds.[6]

Abb. 3: Posterbeitrag Digital Medievalist Postgraduate Subcommittee

Die Teilnahme an der Tagung wurde nicht nur durch den Gewinn des Posterslams gekrönt, sondern auch durch die Möglichkeit, während der Postersession eine Anlaufstelle zu bieten, die es uns ermöglichte, mit verschiedensten Forschenden in Kontakt zu kommen, darunter nicht nur Mediävist*innen, sondern auch Personen aus den ‚erweiterten Zielgruppen‘, wie Koordinator*innen der DH Zentren und Studiengänge.

Hurray! Winner of the #DHd2020 poster slam: Early Stage Digital Medievalist's committee representatives Daniela Schulz @DelaLostinDH, Tessa Gengnagel @resonanzfilter & Hannah Busch @cesare_blanc! Congrats! So proud! So happy! So @digitalmedieval! Thank you @DHDInfo & @CLARIAHde! https://t.co/JrkSUeKr4H

— Digital Medievalist (@digitalmedieval) March 5, 2020

Der Beitrag hat keinen Anspruch auf Vollständigkeit, das BoA ist umfangreich, bei der Tagung mit ihren zahlreichen parallel laufenden Sessions fällt die Wahl häufig schwer. Sollte ich also einen Beitrag übersehen haben, der in dieser Auflistung jedoch dringend Brücksichtigung finden sollte, freue ich mich über eine Ergänzung in den Kommentaren.

Überblick zu den Beträgen im Book of Abstracts:

Vorträge:

Tobias Hodel, Best-practices zur Erkennung alter Drucke und Handschriften. Die Nutzung von Transkribus large- und small scale, S. 84–87.

Clemens Liedtke, DH’s Next Topmodel? Digitale Editionsentwicklung zwische Best Practice und Innovation am Beispiel des „Corpus Masoreticum“, S. 107–111.

Isabella Nicka et al., Erzählerische Spielräume. Medienübergreifende Erforschung von Narrativen im Mittelalter mit ONAMA, S. 131–135.

Torsten Hiltmann, Sebastian Thiele und Benjamin Risse, Friends with Benefits: Wie Deep-Learning basierte Bildanalyse und kulturhistorische Heraldik voneinander profitieren, S. 135–138.

Christoph Wick, Alexander Hartel und Frank Puppe, OMMR4all – ein semiautomatischer Online-Editor für mittelalterliche Musiknotationen, S. 171–174.

Christian Steiner und Helmut Klug, Spielräume definieren: Cooking Recipes of the Middle Ages, S. 205–207.

Poster:

Sarah Ihden, Varianz, Ambiguität, Unsicherheit, Methodische Schlaglichter zur mittelniederdeutschen Grammatikographie, S. 240–243.

Christian Steiner et al., Cooking Recipes of the Middle Ages: Nachnutzbare Ressourcen eines internationalen Forschungsprojekts, S. 286–288.

Hannah Busch, Tessa Gengnagel, Daniela Schulz, Early Stage Digital Medievalist Subcommittee. Vernetzen, entgrenzen, Spielräume schaffen, S. 313–314.

Paul Molitor et al., Keter Shem Tov – Prozessualisierung eines Editionsprojekts mit 100 Textzeugen, S. 330–331.

[1] Auf Grund von Überschneidungen und persönlicher Interessen konnte ich nicht bei allen Beiträgen anwesend sein, habe sie dennoch aus dem BoA aufgenommen.

[2] Da meine eigene Forschung selbst in diesem Bereich angesiedelt ist, erklärt sich diese positive Einschätzung.

[3] Sehr interessante Gedanken zum Thema Bias in Bilddatenbanken für maschinelles Lernen bot der Beitrag von Fabian Offert und Peter Bell, Critical Machine Vision nachzulesen im BoA (S. 98–101).

[4] Link zu den Beitragsfolien: https://www.slideshare.net/thfalcon/bestpractices-zur-erkennung-alter-drucke-und-handschriften-die-nutzung-von-transkribus-large-und-smallscale.

[5] Vgl.: Hannah Busch et al., Aktuelle Situation der RSEs: Karriere -welche Karriere?, in: DH-RSE, 20. August 2018, https://dh-rse.github.io/workshop/dhd2018/karriere/anerkennung/arbeitsbedingungen/2018/08/20/aktuelle-situation-der-rses-karriere-welche-karriere.html

[6] Die derzeitige globale Gesundheitskrise betrifft erwartungsgemäß auch unsere gemeinsamen Aktivitäten im Rahmen von größeren internationalen Konferenzen. Während wir unsere Zusammenarbeit im Committee voraussichtlich noch für einen längeren Zeitraum wie gehabt ausschließlich digital fortführen, arbeiten wir derzeit an virtuellen Alternativen. Dies hat zum einen den Vorteil, dass die Beteiligung einzelner nicht von Reisemitteln abhängig ist, ersetzen auf der anderen Seite jedoch nicht persönliche Treffen im Rahmen von mehrtägigen Konferenzen.

2 Stellenangebote zur Schaffung der Online Plattform Digital Benin

Fr, 05/22/2020 - 18:50

Das Museum am Rothenbaum in Hamburg sucht für die Schaffung der Online Plattform Digital Benin

– eine*n Data Engineer und – eine*n Forschungs- und Datenbankkoordinator*in   Weitere Informationen finden sich hier:  https://digitalbenin.org/jobs   Bewerbungsfrist: 24.06.2020   Das Museum am Rothenbaum fördert die Wertschätzung für Kulturen und Künste der Welt. Es befasst sich mit gesellschaftlichen Debatten der Gegenwart, in denen Themen wie koloniales Erbe, das Zusammenleben in einer globalisierten Gesellschaft und eine Öffnung der Museen für breitere Besucher*innenschichten eine zentrale Rolle spielen. Als Museum mit weltumspannenden Sammlungen und Wissensarchiven entwickelt es sich derzeit zu einem innovativen Ausstellungs-, Veranstaltungs- und Forschungszentrum der Verflechtungsgeschichten und transkulturellen Kreativität.    Im Rahmen des durch die Ernst von Siemens Kunststiftung finanzierten Projektes Digital Benin, Zusammenführung der königlichen Kunstschätze eröffnet das MARKK ein internationales Projektbüro zur digitalen Zusammenführung der weltweit zerstreuten Kunstwerke aus dem ehemaligen Königreich Benin. Als beispielloses Wissensforum wird Digital Benin innerhalb der nächsten zwei Jahre Objektdaten und zugehöriges Dokumentationsmaterial aus Sammlungen weltweit bündeln und somit den seit langem geforderten Überblick zu den im 19. Jh. geplünderten Hofkunstwerken ermöglichen. Ziel ist ein fundierter und nachhaltiger Bestandskatalog über Geschichte, kulturelle Bedeutung und Provenienz der Werke. Das Projekt deutscher, nigerianischer, europäischer und amerikanischer Expert*innen wird von der Ernst von Siemens Kunststiftung finanziert. Der Launch der Website ist im Jahr 2022 geplant.   Bei Rückfragen wenden Sie sich bitte an Dr. Anne Luther ——————————————————- Dr. Anne Luther
anneluther.info

Neue Blickwinkel durch die DHd2020

Fr, 05/22/2020 - 14:07

Drei Dinge, die ich durch die DHd2020 gelernt habe:

– Workshops sind schnell voll – man sollte sich also früh genug anmelden.

– Digital Humanities sind ein breiteres Feld, als ich vorher gedacht habe.

– Postersessions sind anstrengend, aber auch bereichernd. Die meisten Besucher*innen sind ehrlich interessiert und es macht mehr Spaß, als gedacht, die eigene Arbeit auf diese Weise vorzustellen.

 

Drei witzige Andersartigkeiten an Paderborn:

– Die Stromkästchen sind oft bemalt bzw. farbig gestaltet, statt nur grau.

– Bushäuschen befinden sich nicht direkt an der Bushaltestelle, sondern häufig etwas in eine Richtung versetz.

– Es gibt mehrere Straßen mit Schranken, die nur von berechtigten Fahrzeugen befahren werden können.

 

Drei Fakten aus der Stadtführung:

– Die Pader ist der kürzeste Fluss Deutschlands und circa zwölf Grad warm an der Quelle.

– Das älteste Gebäude in Paderborn ist nicht der Dom, sondern eine kleine Kapelle daneben, die sich sehr gut eignet, um darin zu singen.

– Es gibt nicht mehr viele Fachwerkhäuser in Paderborn, weil die meisten davon  Bombenangriffen in den letzten Tagen des 2. Weltkriegs zum Opfer gefallen sind.

 

Es bestand zunächst die Überlegung, diesen Blogartikel als Liste von Listen abzugeben, was ja durchaus eine Art ist, Daten darzustellen, aber ich möchte nun doch noch einen kurzen Fließtext anhängen, um meinen Blick auf die Digital Humanities etwas weiter auszuführen. So soll dieser Blogeintrag meine Verortung zwischen Informatik und Geisteswissenschaft darstellen.

Um das vorwegzunehmen: Mein Blickwinkel auf die Digital Humanities ist der einer Medieninformatikerin. Ich habe im Bachelorstudium zwar noch Spanisch als Nebenfach studiert, aber keine wissenschaftliche Arbeit in diesem Bereich verfasst. Als solche war ich wohl eher mit dem Bereich der Digital Humanities vertraut, der sich mit der Anwendung computergestützter Methoden in den Geisteswissenschaften befasst. Auch das von meiner Freundin Lydia Güntner und mir vorgestellte Poster zu BeyondTheNotes, einem von uns entwickelten Tool zur quantitativen Musikanalyse, gehört zu diesem Bereich.

Dass die DH nicht auf diesen Bereich beschränkt, sondern noch viel umfassender sind, kam in der Session V13 Text/Theorie in Vergangenheit und Zukunft zum Vorschein. Ich glaube, ich war in meiner gesamten Zeit an der Universität noch nie so verwirrt wie in diesen Vorträgen. Ich wurde im Nachhinein darauf aufmerksam gemacht, dass solche Theoriebeiträge nicht unbedingt typische Kost für eher anwendungsorientierte Disziplinen wie Medieninformatik sind, aber es war nichtsdestotrotz ein interessanter Einblick in eine andere Welt. Mir wurde dabei bewusst, dass die Beschäftigung mit sich selbst durchaus auch ein Teil der Digital Humanities ist.

Abgesehen davon, dass mir meine eigene Unwissenheit also vor Augen geführt wurde, habe ich es durchaus genossen, zum ersten Mal bei einer Tagung nur als Teilnehmerin und nicht gleichzeitig auch als Helferin aktiv zu sein und somit mehr Zeit zur Wissensaufnahme zu haben. Das Rahmenprogramm, wie der Besuch des Heinz-Nixdorf-Museumsforums, oder die Stadtführungen, haben für mich zu einem angenehmen Erlebnis beigetragen. Nicht zuletzt konnte ich meine Nervosität vor der Postersession ablegen. An alle Neulinge da draußen: Selbst, wenn eure Arbeit nicht perfekt ist, wird euch niemand zerreißen. Die Postersession ist eine gute Gelegenheit ins Gespräch zu kommen und neue Blickwinkel kennenzulernen. Und das war auch für mich eine gute Zusammenfassung zur DHd 2020: Ich habe neue Blickwinkel angenommen, ausprobiert und erlebt.

Seiten