DHd Newsfeed

Tagung ML-DSE: Programm & Anmeldung

dhd-blog - vor 4 Stunden 57 Minuten

Am 9. und 10. Juni 2022 findet an der Universität Rostock die Konferenz „Machine Learning and Data Mining for Digital Scholarly Editions“ statt. Ziel der Konferenz ist es, Forscher zu versammeln, die an der Schnittstelle der beiden Bereiche Digital Edition und Maschinelles Lernen/Data Mining arbeiten, und die Diskussion über die Anwendbarkeit von maschinellem Lernen und Data-Mining-Techniken im Bereich des digitalen wissenschaftlichen Editierens zu fördern.

Organisiert wird die Tagung vom Institut für Dokumentologie und Editorik, DH Rostock, dem Know Center und dem Centre for Information Modelling at the University of Graz. Sie wird von der Universität Rostock gefördert und von dem Projekt NEISS unterstützt.

Die Tagung findet in Rostock in Präsenz statt, kann aber auch virtuell besucht werden. Die Teilnahme ist kostenlos. Das vollständige Programm und Informationen zur Teilnahme finden Sie unter: https://www.i-d-e.de/ml-dse

Vier Stellenausschreibungen im Bereich Digital Humanities am Leopoldina-Zentrum für Wissenschaftsforschung Halle (Saale)

dhd-blog - Fr, 05/13/2022 - 12:20

Am Leopoldina-Zentrum für Wissenschaftsforschung in Halle (Saale) sind aktuell vier Stellen  im Bereich Digital Humanities ausgeschrieben. Die Bewerbungsfrist für alle Stellen ist der 06.06.2022.

Zum nächstmöglichen Zeitpunkt werden gesucht:

Zum 16.10.2022 werden gesucht:

Revolution der Literaturgeschichtsschreibung? Potential und Grenzen der derzeitigen Digital Humanities

dhd-blog - Do, 05/12/2022 - 10:45

„Kulturen beruhen auf Erinnerung, auf Praktiken der Speicherung und der Überlieferung“ – so heißt es zu Beginn der Beschreibung zur DHd2022-Tagung Kulturen des digitalen Gedächtnisses. Dies trifft auch auf die Literaturgeschichtsschreibung zu. Literatur als Teil von Kulturen beruht auf den Erinnerungen der Schreibenden und den Erinnerungen der Lesenden, sie muss gespeichert und überliefert werden, um nicht in Vergessenheit zu geraten. Literaturgeschichtsschreibung ist sowohl Teil als auch Resultat dieser Erinnerungs- und Gedächtnispraktiken, bestimmte Werke werden durch ihre Hervorhebung im kulturellen Gedächtnis gehalten, andere bleiben ungenannt.[1] Dieser Selektionsprozess entscheidet mit darüber, wie die Literatur der Vergangenheit gegenwärtig und zukünftig betrachtet wird.

Durch die technische Weiterentwicklung verändern sich die Gedächtnispraktiken. Digitalisate können einer Öffentlichkeit, die über eine funktionierende Internetverbindung verfügt, zu jeder Tages- und Nachtzeit zugänglich gemacht werden und mit digitalen Methoden kann auch in der Literaturwissenschaft quantitativ geforscht werden, sodass nicht länger auf einen Kanon zurückgegriffen werden müsste – so die große Hoffnung. Literaturgeschichte als (Re-)Konstruktion von Vergangenheit ist dabei wie jede Geschichtsschreibung von Bias und persönlichen Zielsetzungen beeinflusst, doch die Hoffnung besteht darin, diese durch digitale Methoden korrigieren und ein korrekteres Bild der literarischen Verhältnisse erzeugen zu können. Zugleich besteht die Gefahr, stattdessen einen zweiten ‚digitalen Kanon‘ zu schaffen, in dem sich gerade die Bias, die im analogen Literaturkanon bestehen, verfestigen und sie in der Literaturgeschichtsschreibung weiter fortzuschreiben.

Deshalb stellt sich die Frage, wie sich die derzeitigen DH in diesem Spannungsfeld bewegen. Welches Veränderungspotential bergen sie für die Literaturgeschichtsschreibung und an welchen Hürden scheitert dieses Potential aktuell? Dieser Text orientiert sich dabei an den Beiträgen, die bei der DHd2022 präsentiert und diskutiert wurden.[2]

Wie vielfältig eine Überprüfung der Literaturgeschichte mit digitalen Methoden aussehen kann, zeigen die präsentierten Projekte:

Dîlan Canan Çakir und Frank Fischer widmen sich dramatischen Einaktern von 1740–1850 – eine Literaturform, die aus dem Kanon und dem kulturellen Gedächtnis herausgefallen ist, obwohl sie zu ihrer Entstehungszeit durchaus beliebt waren. Dies trifft auf viele dramatische Werke zu, denn die Dramenforschung beschäftigt sich nur mit etwa zehn Prozent der Dramentexte aus dem letzten Drittel des 18. Jahrhunderts. Durch ihre Analyse konnten Çakir und Fischer u.a. nachweisen, dass es wesentlich mehr einaktige Tragödien gibt, als bislang in der Forschung angenommen wurde, und sie konnten unbekanntere Dramenautorinnen sichtbar machen (vgl. https://doi.org/10.5281/zenodo.6327977).  

Das von Julia Röttgermann, Anne Klee, Maria Hinzmann und Christof Schöch präsentierte Projekt Mining and Modeling Text bemüht sich um einen datenbasierten, wikifizierten Ansatz für die Literaturgeschichtsschreibung. Dafür extrahieren sie Topics aus 115 Texten der französischen Literatur des 18. Jahrhunderts und gleichen diese mit literaturhistoriographischen Aussagen aus bibliographischen Nachschlagewerken der 1970er Jahre ab. Über ein Linked-Open-Data-Wissensnetzwerk soll es schließlich möglich sein, auch weniger bekannte Werke zu bestimmten Topics zu finden (vgl. Vortrag https://doi.org/10.5281/zenodo.6328157; Poster 10.5281/zenodo.6322490). Aus dem Mensch-Maschine-Abgleich ergaben sich große Übereinstimmungen, die die bisherigen Themenangaben bestätigten. Anders als die sehr zeitaufwendige Erstellung der Bibliographien in den 70er Jahren und zuvor ließen sich die digitalen Ergebnisse schneller erzeugen und reprozieren. Zugleich bietet die digitale Aufarbeitung als Wissensnetzwerk eine bessere Übersichtlichkeit und Verfügbarkeit als die analoge Form. 

Speziell mit Genitivmetaphern in realistischen und modernen Gedichten um 1900 setzt sich der Beitrag des Projektes The beginnings of modern poetry – Modeling literary history with text similarities von Merten Kröncke, Leonard Konle, Fotis Jannidis und Simone Winko auseinander, wobei sie zum Teil konträre literarhistorische Forschungsthesen auf ihre Richtigkeit überprüfen. Auf Basis eines Korpus von 6249 kanonisierten und nicht-kanonisierten Texten konnte u.a. festgestellt werden, dass die Differenz zwischen beiden Epochen deutlich überbetont wurde und die Veränderungen der Genitivmetaphern, auf die die Unterscheidung zwischen realistischer und moderner Lyrik u.a. begründet wird, voraussichtlich auf eine semantische Weiterentwicklung zurückzuführen ist (vgl. https://doi.org/10.5281/zenodo.6328069).

Die quantitative Überprüfung etablierter Literaturgeschichte ist eines der Ziele von Judith Brottragers Dissertation Relating the Unread – Modellierungen der Literaturgeschichte. Mit ca. 1.200 kanonisierten und nicht-kanonisierten englisch- und deutschsprachigen Texten aus dem Zeitraum von 1688–1914 nimmt sie diachrone und synchrone Vergleiche vor, um Kanonisierungs- und Wertungsprozesse in der Literaturgeschichte herauszuarbeiten. Dabei soll auf einer textexternen Ebene für diese Texte die Wahrscheinlichkeitshöhe ihrer Kanonisierung bzw. der guten Rezeption zu ihrer Entstehungszeit über Scores operationalisiert angegeben werden, zudem wird verglichen, ob eine Überschneidung zwischen der Kanonisierung und textinternen Merkmalen besteht (vgl. https://doi.org/10.5281/zenodo.6327937). Nach jetzigem Stand der Daten ist nur eine schwach positive Korrelation zwischen einer auf textexternen Faktoren basierenden Kanonisierung und textinternen Merkmalen feststellbar.[3]

Doch nicht nur durch quantitative Untersuchungen nehmen die DH einen Einfluss auf die Literaturgeschichtsschreibung. Die Berücksichtigung von born-digital Texten in der Forschung stößt eine Debatte darüber an, was im digitalen Zeitalter als Literatur verstanden wird, und richtet den Blick auf neue Formen von Literatur, wie es zwei Poster-Beiträge auf der DHd2022 getan haben:

Zum einen zeigten André Blessing, Jan Hess, Kerstin Jung und Nicolas Schenk anhand literarischer Blogs Analysemöglichkeiten für born-digital Texte auf (vgl. 10.5281/zenodo.6322488). Ziel des Projektes SDC4Lit – Science Data Center for Literature, aus dem beispielhaft das Techniktagebuch präsentiert wurde, ist es, Analyse-Pipelines zu entwickeln, die sowohl für literarische Blogs als auch allgemein für Netzliteratur genutzt werden können. So soll ein vereinfachter Zugang zu dieser trotz ihrer Digitalität kaum in der Wissenschaft beachteten Literaturform geschaffen werden.

Der von Simon Meier-Vieracker und Elias Kreuzmair präsentierte Posterbeitrag aus dem Kontext des DFG-Projektes Schreibweisen der Gegenwart. Zeitreflexion und literarische Verfahren nach der Digitalisierung betrachtet zum anderen Kurztexte und gegenwartsliterarischen Diskurse auf 117 öffentlichen Twitter-Accounts aus dem Raum der deutschsprachigen Literaturszene und stellt spezifische Merkmale dieser Literaturform heraus (vgl. 10.5281/zenodo.6322528). Der Urheberrechtsstatus von Tweets ist allerdings noch unklar, weshalb sich Erforschung, Archivierung und Freigabe des Materials schwierig gestalten.

Die Beschäftigung mit born-digital Texten sowohl in der Forschung als auch in den Archiven liefert einen Impuls für eine Auseinandersetzung mit digitalen Texten als Literaturform. Born-digital Texte haben Bernhard Fetz und Sandra Richter ebenfalls bei dem Panel Digitale Archive für Literatur als digitale Sammelobjekte der Zukunft benannt, mit denen in den Archiven ein Umgang gefunden werden will (vgl. https://doi.org/10.5281/zenodo.6327943). Hier zeigte sich erneut die problematische Rechtslage, denn da der Urheberstatus dieser Werke häufig unklar oder ungeregelt ist, ist eine Archivierung derzeit kaum möglich.

Die DH sind auf eine umfassende Menge an Digitalisaten – born-digital oder retrodigitalisiert – angewiesen, um ihre digitalen Methoden zu vollem Potential nutzen zu können. Schon früh war es ein Ziel der DH durch quantitative Forschung stärker nicht-kanonisierte Werke mit einbeziehen zu können und so eine Revidierung der etablierten Literaturgeschichte vorzunehmen. Doch da nicht alle Artefakte in Bibliotheken, Archiven und Museen sofort (oder generell) digitalisiert werden können,[4] stellt der Digitalisierungsprozess eine Selektion der in diesen Institutionen bereits selektiert vorliegenden Artefakte dar. Welche Digitalisate wiederum frei verfügbar gemacht werden, unterliegt einer weiteren Selektion, weshalb es sich bei diesen Artefakten letztlich um das Ergebnis einer dritten Auslese handelt. Darauf wies Amalia Levi schon in der Eröffnungskeynote hin. Resultat ist eine ausgeprägte Unterrepräsentation von Frauen sowie von People of Color in den im Netz abrufbaren Digitalisaten (vgl. https://www.dhd2022.de/opening-keynote/).

Auf den Punkt der Selektion ging ebenfalls Gerben Zaagsma in seinem Vortrag The Digital Archive and the Politics of Digitization ein. Gerade bei der Tagung Kulturen des digitalen Gedächtnisses sollten Archive nicht in einer einfachen Übertragung als Gedächtnisorte verstanden werden, sondern sie sind Vermittler in der (Re-)Konstruktion der Vergangenheit. Genauso wie zuvor für die analogen Archive gilt für ihre digitalisierte Form: „the question of access has been key in determining who writes history“ (https://doi.org/10.5281/zenodo.6328223). Dementsprechend ist es relevant zu reflektieren, ob und was digitalisiert wird, denn dies entscheidet mit darüber, wie die Vergangenheit in Zukunft betrachtet wird.

In eine ähnliche Richtung ging der Workshop Repräsentativität in digitalen Archiven von Corinna Dziudzia und Mark Hall (https://doi.org/10.5281/zenodo.6328011). Dort wurde hinsichtlich der Selektion durch Digitalisierung ein Zirkelschluss beschrieben, der dazu führt, dass die Kanonisierung gerade nicht abgebaut, sondern verstärkt wird: Kanonisierte Werke werden häufiger digitalisiert, Wissenschaftler:innen der DH sind auf bestehende Digitalisate angewiesen, da weder Zeit noch Finanzierung für eine eigene Digitalisierung anderer Werke vorhanden ist, und greifen daher eher auf diese Werke zurück. Durch ihre Verwendung bestätigen sie scheinbar die Richtigkeit der Digitalisierung ebendieser Werke. Indem mit dem „Kanon eines Kanons“ gearbeitet wird, besteht die Gefahr, die im Kanon enthaltenen Bias weiterzutragen und durch die doppelte Selektion noch zu verstärken.

Aber nicht nur der Prozess der Digitalisierung an sich birgt Probleme, sondern auch die rechtliche Lage, in der sich die Akteure dabei bewegen. Das DARIAH–DE Stakeholdergremium „Wissenschaftliche Sammlungen“ hatte schon 2018 eine Anpassung des bestehenden Urheberrechts gefordert, „sodass ein freier Zugang für die Forschung zum kulturellen Erbe erfolgen kann“ (Klaffki/Schmunk/Stäcker 2018, 34). Dass die Urheberrechtslage zu Schwierigkeiten führt, wurde schon bei den born-digital Texten thematisiert. Für die Literatur des 20. und 21. Jahrhunderts verhindert das Urheberrecht zu großen Teilen eine digitale Erforschung, weshalb dieser Zeitraum durch die DH kaum berücksichtigt werden kann.

Wie in der Anschlussdiskussion zum Vortrag Die Aktualität des Unzeitgemäßen kurz angesprochen wurde, stellt jedoch nicht allein das Urheberrecht eine Hürde bei der Digitalisierung und Freigabe dar. Selbst wenn Werke urheberrechtlich frei sind, haben einige Archive aufgrund von institutionellen Nutzungsvereinbarungen Bedenken bei einer unbeschränkten Freigabe ihrer Digitalisate. Auch befürchten sie einen Bruch mit privaten Sammlungen und Bibliotheken, gerade bei der Freigabe seltener Werke, die nicht über andere Wege verfügbar sind. Daher schrecken sie von einer freien Verfügbarkeit zurück.

Selbst in dem Fall, dass Werke digitalisiert und online bereitgestellt wurden, kann eine digitale Erforschung schwierig sein. So wies der Bericht des DARIAH-DE Teams (2018, 18) darauf hin, dass Retrodigitalisate oftmals nicht ausreichend für eine Analyse mit DH-Methoden aufbereitet werden – eine Problematik, die auf der DHd2022 mehrfach angesprochen wurde. Bei dem Panel zu Digitaler Sammlungsforschung wurde eine einheitliche und für die digitale Forschung ausreichend hohe Datenqualität als Herausforderung hervorgehoben, der Workshop Manifest für digitale Editionen entstand aus dem „drängenden Bedarf, die besonderen Rahmenbedingungen für digitale Editionen und einige gegenwärtig unbefriedigende Aspekte der wissenschaftlichen Arbeit bei allen Stakeholdern deutlicher zu machen, um eine Verbesserung der Situation zu bewirken“ (https://doi.org/10.5281/zenodo.6327989). Das Manifest soll eine Grundlage liefern, bei der sowohl die benötigte Datenqualität als auch die FAIR-Prinzipien berücksichtigt werden – ohne dabei aus dem Blick zu verlieren, dass digitale Editionen im wissenschaftlichen Kontext zumeist in drittmittelgeförderten Projekten interdisziplinärer Teams entstehen.

Der Hinweis auf die FAIR-Prinzipien zeigt einen weiteren Problembereich auf, denn besonders in diesem Zusammenhang wurden während der Tagung zahlreiche Negativbeispiele genannt wie z.B. verschwundene Datenbanken wie DaSind oder aufwendige 3D-Digitalisate, die nach Programmupdates der bereitstellenden Institute online nicht mehr abrufbar waren.

Diese eingeschränkte Menge an maschinenlesbaren, urheberrechtsfreien Daten hat Folgen für die DH-Forschung. Bereits auf vorherigen DHd-Tagungen wurde kritisiert, dass die Forschung überwiegend auf einen eher kleinen, von Autoren dominierten „Kanon des Kanons“ beschränkt ist, da – meist zwangsläufig – auf bestehende Digitalisate zurückgegriffen wird (vgl. z.B. https://doi.org/10.5281/zenodo.3666690). Auswirkungen zeigten sich in der Studie von Mark Hall, der Vortrags- und Poster-Abstracts der DHd-Tagungen von 2016–2018 auf Gender, Sprache und Herkunftsland der explizit genannten, untersuchten Personen analysierte. Solche Personennennung traten in 104 der 342 Abstracts auf. Fielen die Ergebnisse der Länder- und Sprachanalysen positiv aus, galt dies nicht für das Gender: Während in 100 dieser Abstracts Männer genannt wurden, waren es bei Frauen 12, ausschließliche Nennung von Frauen als Studienziel oder alleiniges Beispiel traf nur auf 2 Abstracts zu (vgl. https://zenodo.org/record/2596095). Die Studie wies darüber hinaus darauf hin, dass Abstracts mit expliziter Personennennung nur einen Teil der DH-Forschung abbilden, die im Rahmen der DHd-Tagungen präsentiert wurden, dennoch zeige sich darin eine Tendenz. Aus aktueller Sicht lässt sich diese Tendenz voraussichtlich nicht auf einen expliziten Gender-Bias in den DH zurückführen, sondern sie ist ein Effekt eines wesentlich stärker wirkenden Kanon-Bias.[5] Daher ist es von großer Relevanz, in den vorgenommenen Untersuchungen zu reflektieren, auf welche Weise das jeweilige Korpus zustande gekommen ist und welche Werke es enthält bzw. nicht enthält.

Dass die DH generell das Potential haben, die etablierte Literaturgeschichtsschreibung zu revidieren, haben die angeführten Projekte gezeigt. Zumeist weisen diese sogar explizit darauf hin, kanonisierte und nicht kanonisierte Texte mit einzubeziehen oder sich speziell nicht kanonischer Formen zu widmen. Auffällig dabei ist, dass fünf der sechs vorgestellten Untersuchungen drittmittelfinanzierte Projekte sind, folglich eher die Option haben, selbstständig Digitalisierungen vorzunehmen – allerdings in der Regel ohne eine Perspektive auf Langzeitverfügbarkeit.

Zahlreiche Hürden verhindern jedoch, dass das mögliche Potenzial der DH zur vollständigen Anwendung kommt. Wie schon 2018 gefordert, bräuchte es für den Bildungs- und Wissenschaftsbereich eine Sonderregelung des Urheberrechts, um alle Zeiträume abdecken zu können. Aktuell sorgt es dafür, dass große Bereiche des 20. und 21. Jahrhunderts für die DH blinde Flecken sind.

Außerdem bräuchte es mehr maschinenlesbare Digitalisate und zugleich finanzierte Forschung, die sich diesen Digitalisaten widmen kann. Mehr Digitalisierung an sich würde die vorliegenden Problematiken nicht lösen, sondern die Daten nur von einem analogen in ein digitales Speichergedächtnis verschieben, ohne dass sie funktional genutzt werden. Beides erfordert Kenntnisse und eine wesentlich größere Finanzierung, als sie zurzeit stattfindet. Doch die Wichtigkeit dieser Fragen ist nicht zu unterschätzen, denn sie entscheiden darüber, wie Literatur langfristig betrachtet und erinnert werden wird.

Dieser Beitrag entstand im Rahmen des Reisestipendiums der DHd2022.

Zusätzliche Quellen:

Jannidis, Fotis: Literaturgeschichten. In: Handbuch Kanon und Wertung. Theorien, Instanzen, Geschichte. Herausgegeben von Gabriele Rippl und Simone Winko. Stuttgart: Metzler, 2013.

Klaffki, Lisa; Schmunk, Stefan; Stäcker, Thomas: Stand der Kulturgutdigitalisierung in Deutschland. Eine Analyse und Handlungsvorschläge des DARIAH–DE Stakeholdergremiums „Wissenschaftliche Sammlungen“. Göttingen: GOEDOC, 2018.

[1] An dieser Stelle ist darauf hinzuweisen, dass Literaturgeschichten im Kanonisierungskontext eine Sonderstellung einnehmen, da sie zentral für Kanonisierung und Kanonpflege sind, aber nicht den Kanon selbst bestimmen (vgl. Jannidis 2013, 159).

[2] Die folgenden Beiträge sind beispielhaft zu verstehen, da aufgrund der Beitragsmenge nicht alle Beiträge angeführt werden konnten.

[3] Für genauere Informationen siehe Brottrager/Stahl/Arslan: Predicting Canonization. Comparing Canonization Scores Based on Text-Extrinsic and -Intrinsic Features, http://ceur-ws.org/Vol-2989/short_paper21.pdf.

[4] Über den allgemeinen Stand und die Datenqualität der Kulturgutdigitalisierung in Deutschland gibt es keine valide Statistik. Für eine Analyse auf Basis der verfügbaren Daten siehe Klaffki/Schmunk/Stäcker (2018).

[5] Ich danke an dieser Stelle Mark Hall für die Rückmeldung.

Save the Date: Workshop „Korpora in Text+: Kennenlernen und nachhaltig nutzen“ am 13.07.22

dhd-blog - Mi, 05/11/2022 - 09:17

Text+ ist ein Konsortium der Nationalen Forschungsdateninfrastruktur (NFDI) und hat zum Ziel, sprach- und textbasierte Forschungsdaten langfristig zu erhalten und ihre Nutzung in der Wissenschaft zu ermöglichen.

Text+ ist daher Heimat zahlreicher textlicher Korpora. Einige von diesen sind bereits in weiten Wissenschaftskreisen bekannt, andere bedienen bislang nur ein Expertenpublikum. Aus diesem Grund veranstaltet die DNB am 13. Juli 2022 einen Präsenz-Workshop, um Korpora aus Text+ einer breiteren Wissenschaftsöffentlichkeit vor- und Möglichkeiten der Arbeit mit ihnen darzustellen.

In insgesamt vier 90-minütigen Workshopblöcken (Programm s.u.) zu linguistischen aufbereiteten und nicht aufbereiteten Korpora, historischen Korpora und computerphilologisch aufbereiteten Korpora werden diese vorgestellt, diskutiert, problematisiert und hands-on mit ihnen gearbeitet. Dabei wird immer ein Fokus auf die Aufbereitung sowie die unterschiedlichen Formate der Korpora gesetzt, im Mittelpunkt steht aber besonders auch die Frage, welche Forschungsfragen den Korpora zugrunde liegen. Alle Diskussionspunkte werden immer auch in gemeinsamer Perspektive in Text+ betrachtet. 

Programmüberblick:

Zeit

Titel

Vortragende

Moderation

09:00 – 09:10

Einführung: Das NFDI-Konsortium Text+

Lukas Weimer (SUB Göttingen)

 

09:10 – 10:35

Linguistisch und nicht linguistisch aufbereitete Korpora: Zeitungen und Zeitschriften

Marc Kupietz (IDS Mannheim), Lisa Landes (Deutsche Digitale Bibliothek), Peter Leinen (Deutsche Nationalbibliothek)

Christian Mair (Uni Freiburg)

10:55 – 12:15

Historische Korpora

Jörg Knappen (Uni Saarland), Magnus Huber (Uni Gießen)

Marie-Pauline Krielke (Uni Saarland)

13:10 – 14:30

Computerphilologisch aufbereitete Korpora

Ingo Börner (Uni Potsdam), Janis Pagel (Uni Köln)

Peter Leinen (Deutsche Nationalbibliothek)

14:50 – 16:00

Abschlussdiskussion

 

Andreas Witt (IDS Mannheim)

 

Die Registrierung ist ab dem 24. Mai unter https://events.gwdg.de/event/235/ möglich. Dort finden Sie auch weitere Informationen und das genaue Programm.

Die Teilnahmegebühr für die Veranstaltung beträgt inklusive Verpflegung 35€ pro Person.

Bei Fragen wenden Sie sich gerne an das Text+ Office.

Für das NFDI-Konsortium Text+ veranstaltet die DNB in ihren Räumen (Vortragssaal, Adickesallee 1, 60322 Frankfurt am Main) den Präsenz-Workshop. Organisiert wird der Workshop von der AG Dissemination der Text+ Task Area Collections.

Stellenausschreibung: Software-Entwickler*in für Digitale Edition

dhd-blog - Di, 05/10/2022 - 15:30
Blatt mit Illumination aus ÖNB Cod. 2759, fol. 119r
Bildrechte: Österreichische Nationalbibliothek

Software-Entwickler*in (m/w/d) (20 h/Woche) für das Projekt „Die Wenzelsbibel – Digitale Edition und Analyse“ Fachbereich Germanistik der Universität Salzburg / Abteilung für Forschung und Entwicklung der Österreichischen Nationalbibliothek Ab 1.7.2022, befristet bis 31.1.2024

Das vom Land Salzburg geförderte Projekt ist eine Kooperation der Paris Lodron Universität Salzburg und der Österreichischen Nationalbibliothek Wien. Es erarbeitet eine kommentierte digitale Teiledition und Analyse der für den böhmischen und deutschen König Wenzel IV. bzw. II. um 1390–1400 angelegten „ Wenzelsbibel“, einer der bedeutendsten Handschriften der Österreichischen Nationalbibliothek und Teil des Nationalen Dokumentenregisters „Memory of Austria“ des UNESCO „Memory of the World” Programms. Wir bieten Ihnen ein attraktives, innovatives und internationales Arbeitsumfeld, einen Arbeitsplatz wahlweise im historischen Zentrum von Salzburg oder Wien, flexible Arbeitszeiten und die Möglichkeit zum Remote-Arbeiten.

Aufgaben
  • Technische Entwicklung, technische Betreuung und Dokumentation der digitalen Edition der Wenzelsbibel in der nachhaltigen Infrastruktur für digitale Editionen an der Österreichischen Nationalbibliothek
  • Entwicklung von Features der digitalen Edition und deren Umsetzung für die Online-Präsentation
  • Kontinuierliche technische Begleitung des Editionsteams und konzeptionelle Beratung
  • Datenmodellierung und Entwicklung von automatischer XML-Datenprozessierung
  • Mitarbeit bei der Pflege und Weiterentwicklung der Software-Architektur der Infrastruktur für digitale Editionen
  • Teilnahme an Software-Entwicklungsmeetings, Sprint Plannings und Stakeholder-Meetings
  • Präsentation der Ergebnisse auf Fachkonferenzen
Anforderungen
  • Studium (BA, Mag., MA, DI) a) der Informatik, angrenzender Fächer, oder b) der Geistes- und Kulturwissenschaften mit nachgewiesener fundierter technologischer Ausbildung ist von Vorteil, alternativ ist eine Bewerbung auch mit einschlägiger Berufserfahrung möglich.
  • Mehrjährige praktische Erfahrung in der Software- und Webentwicklung
  • Fundierte Erfahrungen mit X-Technologien (XML, XSLT, XPath)
  • Nachgewiesene Kenntnisse und Erfahrungen aktueller Webtechnologien (HTML5, JavaScript, (S)CSS, Bootstrap)
  • Vertrautheit beim Arbeiten in Linux-Serverumgebungen und dem Software-Development mit Docker, Git
  • Hohe Kommunikationskompetenz, ausgeprägte Teamfähigkeit, Verlässlichkeit und Belastbarkeit in zeitkritischen Projektphasen
  • Sehr gute Deutsch- und Englischkenntnisse
Von Vorteil
  • Bereitschaft zur Auseinandersetzung mit editionswissenschaftlichen Fragestellungen sowie Kenntnis der Fragestellungen und Herausforderungen in den Digital Humanities
  • Vorerfahrungen mit TEI-XML, IIIF, RDF, SPARQL, Python, SQL und Normdatenbanken
  • Ausgeprägtes Verständnis für User Experience und User-centered Design
  • Erfahrung mit agilen Softwareentwicklungsprozessen und flüssiger Umgang mit Atlassian Jira/Confluence
  • Erfahrung mit der Repository Software Fedora, GitLab CI/CD, Elasticsearch
Bewerbung

Das Gehalt beträgt auf Basis einer 20h-Woche für Personen ohne MA/Master/DI-Abschluss € 1446,- brutto / Monat; für Personen mit MA/Master/DI € 2001,- brutto / Monat (14mal jährlich).

Wir freuen uns auf Ihre Bewerbung. Bitte senden Sie Ihr Motivationsschreiben und Ihren Lebenslauf inkl. Links zu Referenz-Softwareprojekten bzw. relevanten Code-Repositories zusammengefasst in einer PDF-Datei bis 23.5.2022 an Linda Beutel, MA, Fachbereich Germanistik der Universität Salzburg, linda.beutel@plus.ac.at.

Die Einreichung der Bewerbung stellt eine datenschutzrechtliche Einwilligung in die Verarbeitung Ihrer Bewerbungsdaten dar. Die von Ihnen zur Verfügung gestellten Daten zu Ihrer Person werden ausschließlich im Rahmen des Auswahlverfahrens verwendet. Ihre Bewerbungsunterlagen werden bis zum Abschluss des Auswahlverfahrens intern gespeichert und danach gelöscht.

Virtuelles DH-Kolloquium an der BBAW, 30.05.2022: „Fact, fiction or just claims? Modeling conflicting information as assertions in the RELEVEN project“

dhd-blog - Di, 05/10/2022 - 13:49

Im Rahmen des DH-Kolloquiums an der BBAW laden wir Sie herzlich zum nächsten Termin am Montag, den 30. Mai 2022, 16 Uhr c.t., ein (virtueller Raum: https://meet.gwdg.de/b/lou-eyn-nm6-t6b):

Tara Andrews (Universität Wien)
„Fact, fiction or just claims? Modeling conflicting information as assertions in the RELEVEN project“

The RELEVEN project seeks to cast a clearer light on the events of the „short eleventh century“ (c. 1030–1095) and specifically to get a better understanding of the ways in which the Christian world was perceived by its inhabitants at the time, particularly in the eastern half of Christendom but also to the north, where the faith had rapidly been expanding.

In order to do this we have to tackle two key challenges. The first is the historical challenge: we aim to re-evaluate the Christian world of the eleventh century and specifically to reorient the traditional western-focused narrative of the period by paying particular attention to events, movements, and trends in the eastern and northern parts of Christendom, as well as to their interconnectedness. This means that we encounter a whole range of contradictory opinions, uncertain facts and developing viewpoints that are crucial for reframing our understanding of the period.

This leads us to the digital challenge: we must find a way to link and connect large amounts of disparate sorts of data, and specifically we need a way to express our collected knowledge about the eleventh century that allows us to incorporate and model different, and even conflicting, perspectives about what we think we know. Within the project we do this by moving from a model of „linked open data“ to „linked open assertions“, in which we make sure that no data point is divorced from the context – source and/or scholarly authority – in which it was produced. For this task we have developed a data model for assertions known as the STAR model, which is implemented via CIDOC-CRM and OAI/ORE. In this talk I will discuss our STAR model and how it provides a means of expression for historical evidence that confronts the usual positivist orientation around ‘simple facts’. We put both scholarly interpretation and source provenance at the center of our approach to data construction by linking entire assertions, as well as their constituent subjects, predicates, objects, and claimants, to demonstrate corroboration, contradiction, and source dependency.

***

Die Veranstaltung findet virtuell statt; eine Anmeldung ist nicht notwendig. Zum Termin ist der virtuelle Konferenzrraum über den Link https://meet.gwdg.de/b/lou-eyn-nm6-t6b erreichbar. Wir möchten Sie bitten, bei Eintritt in den Raum Mikrofon und Kamera zu deaktivieren. Nach Beginn der Diskussion können Wortmeldungen durch das Aktivieren der Kamera signalisiert werden.

Der Fokus der Veranstaltung liegt sowohl auf praxisnahen Themen und konkreten Anwendungsbeispielen als auch auf der kritischen Reflexion digitaler geisteswissenschaftlicher Forschung. Weitere Informationen finden Sie auf der Website der BBAW.

Call for Papers: 2. Workshop on Computational Linguistics for Political and Social Sciences (CPSS 2022)

dhd-blog - Di, 05/10/2022 - 09:31

co-located with KONVENS 2022 in Potsdam, Germany

Workshop description

Recent years have seen more and more applications of computational methods to the analysis of political texts. This has led to the emergence of different communities (one with a background in political / social science and the other in the areas of NLP/computer science) which struggle to get awareness of the relevant work taking place in the respective other community.

The main goal of this workshop is to bridge this gap and bring together researchers and ideas from the different communities, to foster collaboration and catalyze further interdisciplinary research efforts.

Important Dates

Workshop papers due: 30.06.2022 Notification of acceptance: 10.08.2022 Camera-ready papers due: 01.09.2022 Workshop date: 12.09.2022

Submissions

We welcome submissions of long and short papers, posters, and demonstrations relating to any aspect of Political Text Analysis using computational methods. Our workshop will accept two types of submissions:
* archival papers describing original and unpublished work
* non-archival papers (abstracts) that present already published research or ongoing work.

The availability of both submission formats will meet the different needs of researchers from different communities, allowing them to come together and exchange ideas in an „get to know each other“ environment which is likely to foster future collaborations.


Special Theme and Panel

The workshop will host a panel with invited speakers from the different communities, with a focus on theory-driven modelling of complex political or socio-psychological constructs in text, such as populism, polarisation or political cynicism. The panel will discuss challenges for modelling such multifaceted concepts from a theoretical as well as from a machine learning point of view, and how such models can be evaluated in a meaningful way.

For more information, please refer to the workshop website and the call for papers.

If you have any questions, please feel free to contact the program co-chairs: ines@informatik.uni-mannheim.de

Organisers
* Ines Rehbein (U-Mannheim)
* Christopher Klamm (U-Mannheim)
* Gabriella Lapesa (U-Stuttgart)
* Simone Ponzetto (U-Mannheim)

Online-Veranstaltung: „Twitter Tools: Daten sammeln, aufbereiten & analysieren“ am 13. Mai 2022

dhd-blog - Do, 05/05/2022 - 17:30

Vortrags- und Diskussionsreihe: „Show & Tell – Social Media-Daten in der Forschungspraxis“

Kooperationsveranstaltung von NFDI4Culture, KonsortSWD und Text+ im Rahmen der Nationalen Forschungsdateninfrastruktur

 

Die Reihe „Show and Tell – Social Media-Daten in der Forschungspraxis“ widmet sich in kurzen Inputs den Tools im Feld der Social Media-Forschung. In je einer Zoom-Stunde möchte sie Best Practices und ausgewählte Forschungsprojekte beleuchten. Im Fokus stehen neben pragmatischen Lösungen und technischen Möglichkeiten (Software, Schnittstellen, Repositorien, Metadatenstandards, Interoperabilität…) u.a. die ethischen und rechtlichen Schranken (Persönlichkeits- und Urheberrechte) bei der Anlage und Auswertung von Datensets und Korpora sowie der nachhaltige, sichere und kritische Umgang damit (Code and Data Literacy, FAIR & CARE). Nicht zuletzt wollen wir dazu einladen, interdisziplinäre Forschungsansätze und Lehrmethoden zu diskutieren, die tradierte wie fachspezifische Rahmen und Werkzeuge strapazieren. Die Veranstaltungsreihe wird von einem Arbeitskreis ausgerichtet, der auf Initiative von NFDI4Culture gemeinsam mit KonsortSWD und Text+ im Rahmen der Nationalen Forschungsdateninfrastruktur betrieben wird. Wir treffen uns am 13. Mai zum Thema ‚Twitter Tools‘. Weitere Termine folgen am 10. Juni und 1. Juli.

 

Den Auftakt machen Carolin Gerlitz (Digital Media and Methods, Universität Siegen)

und Johannes Breuer (GESIS, Köln / CAIS, Bochum) mit dem Thema

„Twitter Tools: Daten sammeln, aufbereiten & analysieren“

am 13. Mai um 14:00 Uhr.

 

Anmeldungen für den Zoom-Raum bitte per Mail unter (der Link wird zeitnah vor der Veranstaltung an alle verschickt):

https://nfdi4culture.de/de/aktuelles/veranstaltungen/twitter-tools-daten-sammeln-aufbereiten-analysieren.html

Twitter als Quelle – Einige Beobachtungen zum Twitterarchiv der #DHd2022

dhd-blog - Mi, 05/04/2022 - 09:21
Abbildung 1 – Tweets pro Stunde während der Konferenztage

„Kulturen beruhen auf Erinnerung, auf Praktiken der Speicherung und der Überlieferung.“[1] Mit diesem Satz leitete der Verband der Digital Humanities im deutschsprachigen Raum seine 8. Jahrestagung ein, die eigentlich in Potsdam geplant, dann aber komplett virtuell ausgetragen wurde. Was heißt das für eine Tagung, die sich dem Einfluss der Digitalisierung auf unsere Kulturpraktiken widmen sollte? Welche Spuren im digitalen Raum hinterlässt die Tagung? Was davon wird wie gespeichert?

Native digitale Quellen werden in der Geschichtswissenschaft noch selten ausgewertet. Doch werden sie in der Zukunft eine immer größere Rolle spielen. Kathrin Passig stellte sich dieser Frage in der Closing Keynote: vom SciHub über das WebArchive bis zum deutschen Twitter Archiv, was gilt es zu archivieren und was brauchen wir dafür? Reicht uns ein Rucksack oder brauchen wir doch eher ein Rechenzentrum?

Für ein Twitter-Archiv der DHd 2022 braucht es wohl noch nicht einmal einen Rucksack, sondern es lässt sich problemlos auch auf einer MicroSD Karte speichern und ins Portemonnaie stecken. Die zusätzlichen 4,54 g der Karte fallen dort vermutlich überhaupt nicht auf und auch Micro-SD Karten gibt es bereits mit bis zu 1 TB Speicherplatz.[2] Das Problem wäre dabei viel eher, dass man die Karte verliert, denn im Gegensatz zu einem USB-Stick kann man an einer Micro-SD Karte noch nicht einmal ein Trageband anbringen. Mit seinen 2,7 MB passt das Twitter-Archiv der DHd 2022 aber auch auf eine gute alte Diskette. Nur dass die dann etwas mehr Platz einnimmt und ein paar Gramm mehr auf die Waage bringt.

Die von mir im Kontext der Tagung gesammelten Tweets mit dem Hashtag #dhd2022 erstrecken sich über einen Zeitraum von gut einem Monat: Der erste gespeicherte Tweet wurde am 17.02.2022 um 11:32 Uhr abgesetzt und der letzte am 18.03.2022 um 20:32 Uhr. Wie man vermutlich erwartet, steigert sich die Anzahl der Tweets während der Konferenztage: Vor Konferenzbeginn wurden durchschnittlich 18,5 Tweets pro Tag abgesetzt bei durchschnittlich 13,4 Nutzern:innen, jedoch mit leicht steigender Tendenz und starken Schwankungen[3]. Während der Konferenz waren es pro Tag durchschnittlich 701,75 und die durchschnittliche Anzahl an Tweets pro Nutzer pro Tag stieg auf 3,2 an. Es waren also nicht nur mehr Personen, die Tweets unter dem Tagungshashtag posteten, sondern die einzelnen Personen twitterten auch häufiger.

Die grundsätzliche Entwicklung während der Tagung wird wohl niemanden groß überraschen. Ein paar Beobachtungen sind aber doch erwähnenswert: Die meisten Tweets wurden Mittwoch, Donnerstag und Freitag abgesetzt. Vermutlich waren die meisten Teilnehmenden Montag und Dienstag zu sehr in den Workshops eingebunden, was kein Twittern nebenbei zuließ? Dass bei Vorträgen mehr getwittert wird, scheint die obige Abbildung zu bestätigen: Schaut man sich die Tweets von Dienstag an, so lassen sich mit Abstand die meisten Tweets pro Stunde zwischen 18 und 20 Uhr ausmachen: die Zeit der Opening Keynote von Amalia S. Levi.[4]

Am Freitag wurde der Höhepunkt der Woche mit 160 Tweets von 13 bis 14 Uhr und 106 von 14 bis 15 Uhr erreicht: vor und während der Abschlusskeynote von Kathrin Passig.[5] Im Anschluss nahmen die Tweetzahlen schnell ab (zwischen 16 und 17 Uhr waren es nur noch sechs Tweets).

Bei dieser Form der quantitativen Auswertung darf allerdings nicht die Reflexion der Quellengrundlage vergessen werden. „Digital born“-Quellen sind nicht immer uneingeschränkt zugänglich und es muss die Frage gestellt werden, wer diese Spuren überhaupt hinterlassen kann? Im Kontext einer Twitter-Auswertung sind dies erstmal die Nutzerinnen und Nutzer von Twitter. Auch ist das Quellen-Corpus durch die Formulierung der Filteranweisung begrenzt: Hier sind nur die Tweets mit einbegriffen, die in einer beliebigen Form das Hashtag #DHd2022 enthalten. Was bedeutet das für die Auswertung? Das Prinzip eines Hashtags ist, Aussagen zu einem Thema, einer Veranstaltung oder zu einem allgemeineren Kontext zu bündeln und Nutzende zu vernetzen. Wenn also die Tweets eines Hashtags gesammelt ausgewertet werden können, ist es möglich Rückschlüsse auf Inhalte des Diskurses und die Herkunft der Tweets zu ziehen.

Es lässt sich untersuchen, welche Nutzerinnen und Nutzer getweetet haben, teilweise auch von wo aus getwittert wurde und mit welchen Anwendungen die Tweets verschickt wurden. Im Tweet-Corpus der DHd2022 stammt der größte Teil aus der Twitter Web App (45 %). Zusammengerechnet mit den Tweets aus den Handy-Apps „Twitter for Android“ und „Twitter for iPhone“ (beides 13% der Tweets), kommt man auf 71 % aller Tweets. Zu fragen wäre, ob bei einer Präsenzkonferenz der Anteil der Nutzung mobiler Apps höher wäre, als wenn alle vor dem heimischen Rechner sitzen und der Tagung per Videokonferenz folgen. Ebenso wurden automatisierte Verfahren zum Senden der Tweets verwendet: 2 % wurden mit dem, von Jürgen Hermes und seinem Team entwickelten, Tool autoChirp[6] gepostet.

Auch die Nutzenden, die, während der DHd Tagung getweetet haben, sind in ihrer grundsätzlichen Twitter-Nutzung sehr verschieden (siehe Abb. 2): Während zwei Accounts bereits über 500.000 beziehungsweise mehr als 600.000 Tweets verschickt haben,[7] liegt der Durchschnitt bei knapp 13.000 Tweets pro Account. Ein ähnliches Bild zeichnet sich bei der durchschnittlichen Anzahl an Followern: Sie liegt bei knapp 1.300, während es zwei Accounts mit über 35.000 Followern gibt.

Abbildung 2 – Auswertung der Twitter-Nutzer:innen

Schon die alleinige Betrachtung der Tweets und Nutzerinnen und Nutzer im Umfeld der Jahrestagung ist sehr aufschlussreich: Tinghui Duan hat beispielsweise eine sehr spannende Netzwerkvisualisierung anhand der Twitter-Nutzerdaten durchgeführt und zeigt darin, wie diese während der Tagung in Beziehung zueinander standen.[8] Es darf in diesem Kontext jedoch nicht vergessen werden, dass hier lediglich Aussagen und Beobachtungen über Tweets mit dem hashtag DHd2022 gemacht werden können und andere Äußerungen, Akteurinnen und Akteure unsichtbar bleiben. Doch diese Tweets gehören zu dem, was uns in Zukunft von der Jahrestagung 2022 bleibt, wenn wir sie archivieren. Und vielleicht gibt es in den nächsten Jahren ähnliche Untersuchungen, die dann Vergleiche mit den hier gesammelten ermöglichen.

 

Die gesamte Auswertung mithilfe eines Jupyter-Notebooks befindet sich in einem GitHub-Repository.

[1] DHd2022 – Potsdam, https://web.archive.org/web/20220312030146/https://www.dhd2022.de/

[2] Als Beispiel: https://web.archive.org/web/20220131222055/https://www.westerndigital.com/de-de/products/memory-cards/sandisk-extreme-uhs-i-microsd#SDSQXA1-1T00-GN6MA

[3] Die Standardabweichung beträgt in den Tagen vor der Konferenz 15,96.

[4] Levi, Amalia S., “Filling the Gaps: Digital Humanities as Restorative Justice“. Opening Keynote auf der DHd 2022. 8. Tagung des Verbands Digital Humanities im deutschsprachigen Raum „Kulturen des digitalen Gedächtnisses“, Potsdam 2022. https://www.dhd2022.de/opening-keynote/

[5] Passig, Kathrin, „Rucksack oder Rechenzentrum“. Closing Keynote auf der DHd 2022. 8. Tagung des Verbands Digital Humanities im deutschsprachigen Raum „Kulturen des digitalen Gedächtnisses“, Potsdam 2022. https://www.dhd2022.de/closing-keynote/

[6] https://autochirp.spinfo.uni-koeln.de/home.

[7] Einer davon ist ein Bot.

[8] Für die Gephi-Datei siehe: https://github.com/t-duan/dhd2022

Mitarbeiterin / Mitarbeiters (m/w/d) im Bereich Software-Entwicklung, Anwendungsbetreuung und Datenmanagement

dhd-blog - Di, 05/03/2022 - 11:39

Am Deutschen Dokumentationszentrum für Kunstgeschichte – Bildarchiv Foto Marburg ist zum nächstmöglichen Zeitpunkt die unbefristete Vollzeitstelle einer/eines


Mitarbeiterin / Mitarbeiters (m/w/d) im Bereich Software-Entwicklung, Anwendungsbetreuung und Datenmanagement


zu besetzen. Die Eingruppierung erfolgt bei Erfüllung der tariflichen Voraussetzungen bis Entgeltgruppe 13 des Tarifvertrages des Landes Hessen.
Der Auftrag des Deutschen Dokumentationszentrums für Kunstgeschichte – Bildarchivs Foto Marburg um-fasst die Sammlung, Erschließung und Vermittlung von Fotografien zur Architektur und Kunst sowie die Erforschung der Geschichte, Praxis und Theorie der Überlieferung von visuellem Kulturgut. Wir bieten eine spannende Tätigkeit in kooperativen Strukturen (z. B. NFDI4Culture, deutsche Akademien der Wis-senschaften, Nationalbibliotheken) und einem stark vernetzten, kulturinformatischen Umfeld.
Zu Ihrem Tätigkeitsfeld gehören die verantwortliche und selbstständige Bearbeitung von informations-technischen Aufgaben im Bereich der Digital Humanities, die konzeptionelle Weiterentwicklung beste-hender IT-Anwendungen für die wissenschaftliche Dokumentation von Kulturgütern (Datenmodellierung, Workflow-Spezifikation, Anforderungs- und Konfigurationsmanagement) sowie die Tool- und Schnittstel-len-Entwicklung (Spezifikation und Implementierung) für Forschungsdateninfrastrukturen. Die Universi-tät erwartet von ihren Beschäftigten die Bereitschaft und Fähigkeit, sich ggf. in andere Aufgabenfelder einzuarbeiten und sie zu übernehmen.
Vorausgesetzt werden ein abgeschlossenes wissenschaftliches Hochschulstudium (Master oder vergleich-bar) im Bereich der Informatik oder Kultur-/Geisteswissenschaften sowie eine nachweisbare Expertise in dem jeweils anderen Gebiet. Erforderlich sind sehr gute Kenntnisse in XML-Technologien (XSLT, XQuery, XSD) und mindestens einer höheren Programmiersprache (z. B. Java, Python) sowie nachweis-bare Praxis in möglichst mehreren der folgenden Bereiche: Digital Humanities, Datenmodellierung und Anwendungsontologien auf Basis des CIDOC CRM, Datenbankmanagementsysteme (z. B. RDBMS, Triples-tores, Graphdatenbanken), Semantic-Web-Technologien (RDF, SPARQL, OWL), Datenaustauschformate (z. B. LIDO, JSON). Gute Deutsch- und Englischkenntnisse, kommunikative Fähigkeiten, Teamgeist und Eigeninitiative werden erwartet.
Für Fragen steht Ihnen Herr Dr. Christian Bracht unter bracht@fotomarburg.de oder 06421-28 23604 gerne zur Verfügung.
Wir fördern Frauen und fordern sie deshalb ausdrücklich zur Bewerbung auf. In Bereichen, in denen Frauen unterrepräsentiert sind, werden Frauen bei gleicher Eignung bevorzugt berücksichtigt. Personen mit Kindern sind willkommen – die Philipps-Universität bekennt sich zum Ziel der familienfreundlichen Hochschule. Eine Besetzung des Arbeitsplatzes in Teilzeit (§ 9 Abs. 2 Satz 1 HGlG) sowie eine Reduzie-rung der Arbeitszeit sind grundsätzlich möglich. Menschen mit Behinderung im Sinne des SGB IX (§ 2, Abs. 2, 3) werden bei gleicher Eignung bevorzugt. Bewerbungs- und Vorstellungskosten werden nicht erstattet.
Ihre Bewerbungsunterlagen senden Sie bitte bis zum 13.05.2022 unter Angabe der Kennziffer ZE-0054-bild-mad-2022 an den Direktor des Deutschen Dokumentationszentrums für Kunstgeschichte – Bildarchiv Foto Marburg, Herrn Dr. Christian Bracht, in einer PDF-Datei an bildarchiv@fotomarburg.de.

Call for Participation: Das SPK Lab sucht Partner*innen zur Mitgestaltung!

dhd-blog - Mo, 05/02/2022 - 11:58

Das SPK Lab ist auf der Suche nach Nutzer*innen von Kulturerbe-Daten, die uns helfen neue Formate zur Förderung der kreativen und (nicht-)wissenschaftlichen Nachnutzung unserer digitalen Bestände zu entwerfen und umzusetzen. Möchten Sie uns unterstützen, die besten Wege zur Bereitstellung unserer Daten zu finden? Wollen Sie sich für die Öffnung von Daten aus Kulturerbe-Sammlungen stark machen und das SPK Lab bei diesem Prozess mitgestalten? Dann sollten Sie sich bis zum 29. Mai 2022 als Mitglied des neuen Netzwerkes SPK Lab Partner bewerben!

  Logo des SPK Lab | CC BY-SA 4.0

Was ist das SPK Lab?

Das SPK Lab ist ein Projekt der Stiftung Preußischer Kulturbesitz in Berlin (SPK), die mit ihren Museen, Bibliotheken, Archiven und Forschungsinstituten eine der bedeutendsten Kultureinrichtung der Welt ist und vielfältige Sammlungen aus allen Epochen und Regionen der kulturellen Überlieferung beherbergt. Ziel ist es, die Daten aus den verschiedenen Einrichtungen so zur Verfügung zu stellen, dass sie einen möglichst großen Mehrwert und Nutzen für alle entfalten können. Wie das bereits etablierte SBB Lab wollen wir also die Sichtbarkeit und Zugänglichkeit der vielfältigen digitalen Schätze der gesamten SPK verbessern und dabei auch Beziehungen zu Ihnen als Datenspezialist*innen aufbauen. Und so laden wir Sie ganz herzlich ein, an den idealen Bedingungen und Möglichkeiten der Nachnutzung der digitalen Daten aus der SPK mitzuwirken.

Und wozu SPK Lab Partner?

Damit das SPK Lab ein Erfolg wird, wollen wir von Anfang an diejenigen mit einbeziehen, die sich in vielfältiger Weise für Kulturerbe-Daten interessieren. Wir wollen Ihre Ideen, Bedürfnisse und Wünsche als Nutzer:innen kennenlernen, um unsere Daten so benutzerfreundlich wie möglich zu veröffentlichen – und um sie für neue Szenarien anzureichern. Auch wenn wir vielleicht nicht alle Wünsche in diesem Projekt erfüllen können: Die SPK Lab Partner werden ein wichtiges Nutzer-Forum für alle fünf Einrichtungen der SPK sein.

Die SPK Lab Partner – eine Gruppe von ca. 15 Personen – werden das SPK Lab Projekt laufend begleiten. Kernpunkt sind dabei halbtägige, (virtuelle) Arbeitstreffen, die ab Mai 2022 alle zwei Monate geplant sind. In ihnen sollen Projektentwicklungen wie die Homepage diskutiert, interessante Datenbestände vorgestellt, Veranstaltungen wie Hackathons geplant und neue Formate der Nutzerbeteiligung entworfen werden. SPK Lab Partner werden also nicht nur auf Menschen treffen, die aktiv an der Digitalisierung von kulturellen Sammlungen arbeiten und diese mit anderen teilen möchten, sondern auch direkte Einblicke auf die z.T. noch verborgenen digitalen Daten der SPK erhalten.

Und wer sind Sie?

Wir suchen Menschen, die sich mit digitalen Sammlungen und Beständen des kulturellen Erbes beschäftigt haben, dazu eigene Erfahrungen und Ideen beisteuern und neue Daten nutzen wollen!
Egal, ob Sie archäologische Ressourcen für Ihre ehrenamtliche Arbeit auf Wikipedia nutzen, digitale Kunstwerke auf der Grundlage digitalisierter Gemälde erstellen, historische Quellen für Ihre Forschung im Bereich der digitalen Geisteswissenschaften auswerten oder spannende statistische Auswertung auf OCR-erschlossenen Texten durchführen – wir möchten von Ihnen hören! Für eine gute Mischung suchen wir Akteure aus diesen Bereichen:

Schule, Ausbildung & Studium – Digitale Kunst & Mixed Media – Open GLAM Organisationen – Mediengestaltung, Design & Visualisierung – Game Design & Vermittlung – Coding & App-Entwicklung – Open Data, Open Science & Citizen Science – Digital Humanities & Data Science

Aber auch wenn Sie sich nicht in diesen Kategorien wiederfinden, melden Sie sich einfach – wir sind an allen Personen gleichermaßen interessiert.

Wie Sie mitmachen können?

Die Teilnahme als SPK Lab Partner ist freiwillig und prinzipiell unentgeltlich. Um auch solchen Menschen, die diese ehrenamtliche Arbeit nicht aus eigenen Mitteln gegenfinanzieren können, eine Teilnahme in der Gruppe zu ermöglichen, werden wir als pauschale Aufwandsentschädigungen bis zu 5 Werkverträge in Höhe von je 1000 € vergeben. Auf diese Weise wollen wir sicherstellen, dass eine Vielfalt von Perspektiven in das SPK Lab eingebracht wird. Dafür können Sie sich bewerben, wenn Sie folgende Voraussetzungen erfüllen: die Bereitschaft zur Teilnahme an den Veranstaltungen des SPK Labs über die gesamte Dauer des Projekts und der Nachweis darüber, mit welchen Kompetenzen Sie das SPK Lab bereichern können.
Wenn Sie ein SPK Lab Partner werden und bei dem Projekt SPK Lab mitwirken wollen, senden Sie bitte eine Nachricht bis zum 29. Mai 2022  per E-Mail, nennen Ihre allgemeinen Kontaktdaten und beantworten bitte folgende Fragen in diesem Bewerbungsbogen:

  • Was ist Ihre Perspektive auf digitale Kulturerbe-Sammlungen?
  • Wie haben Sie bisher digitale Daten oder Bestände des kulturellen Erbes genutzt?
  • Warum wollen Sie ein SPK Lab Partner werden und welche Nutzergruppen vertreten Sie?

Bitte geben Sie zusätzlich an, ob Sie sich für einen Werkvertrag interessieren und ob ein solcher eine Voraussetzung für Ihre Mitarbeit wäre. Wenn mehr Bewerbungen als verfügbare Plätze eingehen, wird das Projektteam nach der Verteilung der o. g. Bereiche und nach Diversitätskriterien eine Auswahl treffen. Eine Entscheidung über Ihre Bewerbung wird Ihnen bis spätestens drei Wochen nach Fristablauf mitgeteilt; diese werden gegenüber den Bewerber*innen nicht im Einzelnen begründet werden.

Bewerben Sie sich per E-Mail oder kontaktieren Sie für weitere Auskünfte und individuelle Fragen Felix F. Schäfer per E-Mail oder telefonisch +49 151 11 606 406.
Wir sind gespannt auf Sie und freuen uns von Ihnen zu hören!

PDF-Dokumente des Calls und des Bewerbungsbogens auf der Webseite der Stiftung Preußischer Kulturbesitz in Berlin. Ein Dossier mit weiteren Informationen zu den beiden Datenlaboren in der SPK finden Sie hier.

Darmstadt, 31. Mai 2022 – Öffentliches Meeting des Schwerpunktprogramms „Computational Literary Studies“

dhd-blog - Fr, 04/29/2022 - 09:40

Das DFG Schwerpunkprogramm Computational Literary Studies veranstaltet am 31.05.2022 ein öffentliches General Meeting, in dem die beteiligten Projekte sich und ihre Arbeit vorstellen werden. Die Veranstaltung wird am Tag vor der 1st Annual Conference of Computational Literary Studies im Lichtenberghaus in Darmstadt statt finden. Die Beiträge werden in englischer Sprache präsentiert. Interessierte Zuhörer*innen sind herzlich eingeladen, die Vorträge anzuhören und sich an den Diskussionen zu beteiligen.

(vorläufiges) Programm 13:00 – 14:00 Session 1
  • Christof Schöch: Zeta and Company. Measures of Distinctiveness for Computational Literary Studies
  • Robert Jäschke, Steffen Martus: What matters? Key passages in literary works
  • Anke Holler, Caroline Sporleder, Benjamin Gittel: Structuring Literature: Variants and Functions of Reflective Passages in Narrative Fiction
14:30 – 15:30 Session 2
  • Nils Reiter: Quantitative Drama Analytics: Tracking Character Knowledge (Q:TRACK)
  • Christian Biemann, Evelyn Gius: Evaluating Events in Narrative Theory (EvENT)
  • Katrin Dennerlein, Christian Wolff: Emotions in Drama
16:00 – 17:00 Session 3
  • Arthur M. Jacobs, Gerhard Lauer, Berenike Herrmann, Jana Lüdtke: Advanced sentiment analysis for understanding affective-aesthetic responses to literary texts: A computational and experimental psychology approach to children’s literature
  • Fotis Jannidis, Simone Winko: The beginnings of modern poetry – Modeling literary history with text similarities
  • Joachim Denzler, Sophie Marshall: Anomaly-based large-scale analysis of style and genre reflected in the use of stylistic devices in medieval literature
17:30 – 18:10 Session 4
  • Janina Jacke, Jonas Kuhn: Computer-aided Analysis of Unreliability and Truth in Fiction – Interconnecting and Operationalizing Narratology (CAUTION)
  • Thomas Weitin, Ulrik Brandes: Relating the Unread. Network Models in Literary History
Anmeldung

Anmeldungen sind bis zum 20.05. per Email an SPP2207(at)uni-wuerzburg.de möglich.

OPERAS Open Chat am 19.05.2022 11 Uhr zu Mehrsprachigkeit in den Geistes- und Gesellschaftswissenschaften

dhd-blog - Di, 04/26/2022 - 21:19

Sehr geehrte Damen und Herren, liebe Kolleginnen und Kollegen,

nachdem wir uns im Rahmen unserer Veranstaltungsreihe „OPERAS Open Chats“ bereits mit verschiedenen Stakeholdern der Open Access und Open Science Transformation ausgetauscht haben, wollen wir im nächsten Schritt gezielt die Themen beleuchten, die für die Geistes- und Sozialwissenschaften und für die OPERAS Infrastruktur von besonderer Bedeutung sind.

Dabei werden wir einerseits die Angebote von OPERAS zu diesen Themen vorstellen und möchten andererseits Ihre Bedarfe in diesem Bereich mit aufnehmen.

Wir laden Sie daher herzlich zum nächsten Termin, via Zoom, am 19.05.2022 ein. Wir wollen uns dabei zum Thema Mehrsprachigkeit in den Geistes- und Gesellschaftswissenschaften austauschen und freuen uns über eine inhaltliche Einführung durch Pierre Mounier OPERAS Project Coordinator. Die Veranstaltung findet auf Deutsch und Englisch statt.

Sie können sich vorab unter https://operas-ger.hypotheses.org/operas-open-chats anmelden. Wir senden Ihnen dann die Zugangsdaten.

Bei Rückfragen kontaktieren Sie uns gerne unter operas-ger@maxwerberstiftung.de

Wir freuen uns auf den Austausch mit Ihnen!

Mit herzlichen Grüßen,

Larissa Saar und Pattrick Piel

Mitarbeiter*in für die Software- und Webentwicklung, E 13 TV-L

dhd-blog - Mo, 04/25/2022 - 11:26

An der Georg-August-Universität Göttingen Stiftung Öffentlichen Rechts – Niedersächsische Staats- und Universitätsbibliothek sind zum nächstmöglichen Zeitpunkt 3 Stellen als

Mitarbeiter*in für die Software- und Webentwicklung (w/m/d)
– Entgeltgruppe 13 TV-L –

zu besetzen. Die Stellen sind befristet bis 30.04.2025.

Die Niedersächsische Staats- und Universitätsbibliothek Göttingen (SUB Göttingen) sucht in Kooperation mit dem Institut für Geochemie und Isotopengeologie der Universität Göttingen mehrere Mitarbeiter*innen (E 13 TV-L im Umfang von 25% bis zu 100%) für die Softwareentwicklung in Drittmittelprojekten.

Die Positionen sind in einer projektübergreifenden Arbeitsgruppe an der SUB Göttingen eingebettet und bieten einen Einblick in verschiedene Themen, Forschungsdisziplinen und Technologien. Die SUB Göttingen kooperiert mit vielen Instituten am Standort und international. Eigeninitiative und (wissenschaftliche-/)
Weiterqualifikationen werden gerne gesehen und unterstützt.

A. Für die Softwareentwicklung in Drittmittelprojekten im Bereich Digitale Editionen (Webentwicklung) suchen wir zum nächstmöglichen Zeitpunkt

mehrere Mitarbeiter*innen (w/m/d)
(E 13 TV-L im Umfang von 25% bis zu 100%)

Die Stellen sind zunächst auf 3 Jahre befristet, eine Verlängerung wird angestrebt. Die Stellen sind teilzeitgeeignet.

Schwerpunkt Digitale Editionen (Webentwicklung)

Die SUB Göttingen ist eine der größten wissenschaftlichen Bibliotheken Deutschlands. Die Abteilung
Forschung und Entwicklung
 ist national und international an Projekten beteiligt, um neuartige wissenschaftliche Informations- und Forschungsinfrastrukturen zu entwickeln. Einen Schwerpunkt bilden digitale Editionsprojekte, die vielfach unter Einsatz der virtuellen Forschungsumgebung TextGrid entstehen, sowie Projekte zur Archivierung von digitalen Forschungsdaten.

Für die Mitarbeit in Drittmittelprojekten suchen wir Verstärkungen für unser Team. Wir bieten die Gelegenheit sich gemeinsam mit nationalen und internationalen Partner*innen mit neuen Technologien und Themen zu beschäftigen und fördern die eigene Weiterentwicklung. Die Abteilung Forschung & Entwicklung bietet dafür eine angenehme Arbeitsatmosphäre mit regem Austausch zwischen den unterschiedlichen Projekten und Vorhaben und die Möglichkeit einen Einblick in verschiedene Themen und Technologien zu erhalten.

Zu den Aufgaben gehören:

  • Konzeptionelle Begleitung von Portal-Entwicklungen
  • Softwareentwicklung in digitalen Projekten
  • In Editionsprojekten: Technische Umsetzung bzw. Weiterentwicklung von Portal-Angeboten, insbesondere Entwicklung eines IIIF-basierten Viewer-Frameworks
  • In Forschungsdatenprojekten: Technische Umsetzung bzw. Weiterentwicklung einer web application platform, insbesondere Entwicklung einer API zur Datenbankanbindung

Vorausgesetzt werden:

  • Abgeschlossenes wissenschaftliches Hochschulstudium in der Informatik (oder angrenzenden Bereichen) oder nachgewiesen mehrjährige Erfahrung im Bereich Informatik bzw. Softwareentwicklung
  • Hohe Kommunikationsfähigkeit, sehr gute Teamfähigkeit und gute Englisch- und Deutschkenntnisse
  • Sehr gute Kenntnisse mit Web Frontend-Entwicklung und APIs

Wünschenswert sind:

  • Sehr gute Kenntnisse in Java, idealerweise in Kombination mit Spring MVC
  • Gute Kenntnisse im Bereich DevOps und Webserver (Linux, Shell, SSH)
  • Gute Kenntnisse in Semantic-Web Technologien (RDF, SPARQL, Triplestores)

 

B. Für die Softwareentwicklung in Drittmittelprojekten im Bereich Geochemie (Datenbankentwicklung) suchen wir zum nächstmöglichen Zeitpunkt

einen*eine Mitarbeiter*in (w/m/d)
(E 13 TV-L Vollzeit)

Die Stelle ist zunächst auf 2,5 Jahre befristet, eine Verlängerung wird angestrebt. Die Stelle ist teilzeitgeeignet.

Die Stelle ist Teil der neuen Forschungsgruppe „Digitale Geochemische Dateninfrastruktur“ (DIGIS) an der Universität Göttingen, die durch ein Cluster von vier Forschungsprojekten unterstützt wird, die durch das DFG-Programm „Wissenschaftliche Bibliotheksdienste und Informationssysteme“ (LIS) finanziert werden.
Das Ziel von DIGIS ist es, die sehr erfolgreiche und gut etablierte geochemische Datenbank GEOROC weiterzuentwickeln und zu pflegen, neue Möglichkeiten der Datenerfassung und -eingabe
vorzubereiten sowie die webbasierte Anbindung an andere bestehende geochemische Datenbanken, wie zum Beispiel EarthChem der IEDA (Interdisciplinary Earth Data Alliance), zu stabilisieren. DIGIS ist auch ein integraler Bestandteil des derzeitigen NFDI4Earth Konsortiums.

Zu den Aufgaben gehören:

  • Implementierung und Anpassung eines bestehenden Datenmodells für die Dateneingabe und Kuratierung von geochemischen Daten für die GEOROC-Datenbank.
  • Entwicklung und Verwaltung einer neuen Web-Anwendungsplattform (unter Verwendung von OOP-PHP und DRUPAL) für GEOROC sowie die Entwicklung einer API, die die Datenbank mit unabhängig entwickelten Datenanalyse- und Visualisierungstools verbindet.
  • Mitarbeit an der Entwicklung eines digitalen Datenarchivierungssystems für Gesteinsproben, das über den Standard International Geo Sample Number (IGSN) mit GEOROC verbunden ist.

Vorausgesetzt werden:

  • Master-Abschluss (oder gleichwertige Berufserfahrung) in den Bereichen IT-Technologie, Informatik oder verwandten Bereichen.
  • Fortgeschrittene Erfahrungen und Programmierkenntnisse in einer höheren Programmiersprache (wie OOP-PHP und Ajax) sind unerlässlich.
  • Grundlegende Erfahrung mit Datenbanken und deren IT-Infrastruktur (SQL) ist erforderlich.
  • Hervorragende schriftliche und mündliche Kommunikationsfähigkeiten in englischer Sprache sowie eine aktive Teamfähigkeit werden vorausgesetzt.

Fragen zu den Aufgaben und Projekten beantworten Ihnen Herr Dr. Jan Brase (E-Mail) und Christoph Kudella (E-Mail).

Die Universität Göttingen strebt in den Bereichen, in denen Frauen unterrepräsentiert sind, eine Erhöhung des Frauenanteils an und fordert daher qualifizierte Frauen nachdrücklich zur Bewerbung auf. Sie versteht sich zudem als familienfreundliche Hochschule und fördert die Vereinbarkeit von
Wissenschaft/Beruf und Familie. Die Universität hat sich zum Ziel gesetzt, mehr schwerbehinderte Menschen zu beschäftigen. Bewerbungen Schwerbehinderter erhalten bei gleicher Qualifikation den Vorzug.

Bitte reichen Sie Ihre aussagekräftige Bewerbung mit allen wichtigen Unterlagen in einem Dokument zusammengefasst bis zum 16.05.2022 ausschließlich über das Bewerbungsportal ein. Auskunft erteilt Frau Ursula Gereke (E-Mail), +49 551 39-25216 (Tel.).

Die Stellenausschreibung auf den Seiten der SUB Göttingen: hier.

Mitarbeiter*in im Bereich Metadaten , E 13 TV-L

dhd-blog - Mo, 04/25/2022 - 09:20

An der Georg-August-Universität Göttingen Stiftung Öffentlichen Rechts – Niedersächsische Staats- und Universitätsbibliothek ist zum nächstmöglichen Zeitpunkt eine Stelle als

Mitarbeiter*in im Bereich Metadaten (w/m/d)
– Entgeltgruppe 13 TV-L –

in Teilzeit mit 65% der regelmäßigen wöchentlichen Arbeitszeit zu besetzen. Die Stelle ist befristet bis zum 30.04.2025.

Sie werden für die informationswissenschaftlichen, insbesondere auf das Metadatenmanagement bezogenen Arbeitspakete zweier geisteswissenschaflticher Forschungsprojekte zuständig sein, die wir gemeinsam mit Forschenden aus Israel durchführen.

Im Projekt „Networked Texts and Images in Early Modern Jewish Mystical Cosmographs“ werden kabbalistische Darstellungen der Welt und der Sphäre des Göttlichen (sog. Ilanot Sefirot) digital ediert. Diese Darstellungen verbinden diagrammhafte Wissensrepräsentation und diskursive Texte miteinander.

Aufbauend auf den Ergebnissen eines Projektes zu mittelalterlichen Vertretern dieser Gattung liegt ein besonderer Schwerpunkt in diesem Projekt auf der Erschließung topologischer, spatialer und direktionaler Aspekte der Ilanot, denen die frühneuzeitliche Kabbala seit Isaak Luria ein besonderes
Augenmerk widmet.

Das Projekt „The Star and its Universe: Franz Rosenzweig between Past and Future“ untersucht Aspekte der Intertextualität des Hauptwerks des deutsch-jüdischen Philosophen Franz Rosenzweig „Der Stern der Erlösung“ (1921) und erschließt diese in Form eines Wissensgraphen. Dieser Wissensgraph soll an bereits existierende externe Knowledge Graphen wie zum Beispiel Wikidata anschließen und so neue Zugänge zu Recherche und Wissensexploration ermöglichen.

Ihre Aufgaben:

  • Sie entwickeln projektspezifische Ontologien inklusive der zugehörigen Dokumentation und formulieren Validierungsvorgaben für die erfassten Daten.
  • Sie entwickeln Visualisierungskonzepte für die Darstellung und Navigation der edierten Materialien in einem Webportal.
  • Sie entwickeln Konzepte für ein übergreifendes Retrieval von Text- und Bildinhalten mit der besonderen Herausforderung der Indexierung von Texten in hebräischer und aramäischer Sprache.
  • Sie erstellen konzeptionelle Mappings zwischen verschiedenen Metadatenstandards bzw. -anwendungsprofilen.

Diese Aufgaben erfordern hohe Flexibilität bei der Einstellung auf wechselnde Anforderungen, gute Kommunikationsfähigkeit und die Bereitschaft, die genannten Aufgaben im Team und in ständigem Austausch mit externen, internationalen Partner*innen durchzuführen.

Erforderlich:

  • wissenschaftlicher Hochschulabschluss
  • nachgewiesene Kenntnisse im Bereich der Entwicklung von Datenmodellen und ihrer Darstellung in RDFs und OWL, sowie der Entwicklung und Dokumentation von Beschreibungsstandards und der Formulierung konzeptioneller Mappings
  • nachgewiesene umfassende Kenntnisse im Bereich Linked Open Data (RDF, SPARQL)
  • Kenntnisse einschlägiger Metadaten- und Beschreibungsstandards, unter anderem: Marc21, BIBFRAME, W3C Annotation Model, TEI
  • sehr gute Englischkenntnisse

Wünschenswert:

  • Erfahrungen in der Erstellung digitaler Editionen
  • Kenntnisse hinsichtlich der Validierung von RDF-Graphen unter Verwendung von SHACL oder ShEx
  • Grundkenntnisse des Hebräischen oder einer anderen semitischen Sprache

Die Universität Göttingen strebt in den Bereichen, in denen Frauen unterrepräsentiert sind, eine Erhöhung des Frauenanteils an und fordert daher qualifizierte Frauen nachdrücklich zur Bewerbung auf. Sie versteht sich zudem als familienfreundliche Hochschule und fördert die Vereinbarkeit von
Wissenschaft/Beruf und Familie. Die Universität hat sich zum Ziel gesetzt, mehr schwerbehinderte Menschen zu beschäftigen. Bewerbungen Schwerbehinderter erhalten bei gleicher Qualifikation den Vorzug.

Bitte reichen Sie Ihre aussagekräftige Bewerbung mit allen wichtigen Unterlagen in einem Dokument zusammengefasst bis zum 16.05.2022 ausschließlich über das Bewerbungsportal ein. Auskunft erteilt Herr Alexander Jahnke (E-Mail), +49 551 39-29869 (Tel.).

Zur Stellenausschreibung auf den Seiten der SUB Göttingen: hier.

Safe the Date: Day of DH 2022 (28.04.22)

dhd-blog - So, 04/24/2022 - 15:27

Am Donnerstag (28. April 2022) findet der Day of DH 2022 statt.
Das Thema des DH-Tages lautet „Diversity in DH“.

Wir vom DHd-Verband würden uns sehr freuen, wenn sich viele aus der DH-Community daran beteiligen. Weitere Informationen dazu gibt es hier: https://dhcenternet.org/initiatives/day-of-dh/2022.

Wenn Sie möchten, dann folgen Sie @dayofdh auf Instagram und Twitter, auch der DHd-Verband wird sich mit seinem Twitter-Account (@DHDinfo) unter den Hashtags #DayofDH2022 oder #DiversityinDH an dem Tag beteiligen.

Viele Grüße,
Ulrike Wutte und Christof Schöch für den DHd-Verband

Mitarbeiterin / Mitarbeiter (m/w/d) im Bereich Datenmanagement

dhd-blog - Do, 04/21/2022 - 09:39

Am Deutschen Dokumentationszentrum für Kunstgeschichte – Bildarchiv Foto Marburg ist zum nächstmöglichen Zeitpunkt zunächst befristet bis 31.12.2022 die drittmittelfinanzierte Teilzeitstelle (50 % der regelmäßigen Arbeitszeit) einer/eines

Mitarbeiterin / Mitarbeiters (m/w/d) im Bereich Datenmanagement

zu besetzen. Die Eingruppierung erfolgt je nach Qualifikation und Erfüllung der tariflichen Voraussetzungen bis Entgeltgruppe 13 des Tarifvertrages des Landes Hessen. Es handelt sich um eine Stelle im Rahmen der Kooperation mit der Deutschen Nationalbibliothek, zum Zweck der Datenlieferung von verschiedenen Datengebern aus dem Bereich der Denkmalpflege an die Deutsche Digitale Bibliothek (DDB).

Zu Ihren Aufgaben gehören die verantwortliche und selbstständige Vorbereitung und Durchführung des Datenimports für die DDB, insbesondere Qualitätsprüfung des Datenbestands, konzeptionelles Mapping, Konversion ins Zielformat (LIDO), Import und Bereitstellung im Testsystem sowie Validierung und Evaluierung. Zum Tätigkeitsfeld zählen zudem die Planung und Koordination der Abläufe in eigenständiger
Beratung mit den datenliefernden institutionellen Partnern im Bereich der Baudenkmalpflege.

Vorausgesetzt werden ein abgeschlossenes wissenschaftliches Hochschulstudium (Diplom, Master oder vergleichbar) im Bereich der Informatik oder Kultur-/Geisteswissenschaften sowie eine nachweisbare
Expertise in dem jeweils anderen Gebiet. Erforderlich sind gute Kenntnisse und nachweisbare Praxis in den Bereichen Datenmodellierung, -analyse und -transformation sowie in X-Technologien (XSLT, XQuery,
XSD). Erwünscht sind gute Kenntnisse in den relevanten Austauschformaten (z. B. LIDO, DenkXwebSchema), insbesondere im Bereich der kunsthistorischen Dokumentation und in einschlägigen Normdaten und Fachvokabularen (z. B. GND, AAT). Erwartet werden Erfahrung, Sicherheit und Eigenständigkeit im praktischen Einsatz informationstechnischer Werkzeuge sowie gute Deutsch- und Englischkenntnisse.
Eine ausgeprägte Kommunikationskompetenz an der Schnittstelle zwischen kulturwissenschaftlicher Dokumentation und Informatik ist von Vorteil.
Der Auftrag des Deutschen Dokumentationszentrums für Kunstgeschichte – Bildarchiv Foto Marburg umfasst die Sammlung, Erschließung und Vermittlung von Fotografien zur Architektur und Kunst sowie die
Erforschung der Geschichte, Praxis und Theorie der Überlieferung von visuellem Kulturgut. Wir bieten eine spannende Tätigkeit in kooperativen Strukturen (z. B. NFDI4Culture) und einem stark vernetzten
Umfeld.

Für Fragen steht Ihnen Herr Dr. Christian Bracht unter bracht@fotomarburg.de oder 06421-28 23604 gerne zur Verfügung.
Wir fördern Frauen und fordern sie deshalb ausdrücklich zur Bewerbung auf. In Bereichen, in denen Frauen unterrepräsentiert sind, werden Frauen bei gleicher Eignung bevorzugt berücksichtigt. Personen
mit Kindern sind willkommen – die Philipps-Universität bekennt sich zum Ziel der familienfreundlichen Hochschule. Eine Reduzierung der Arbeitszeit ist grundsätzlich möglich. Menschen mit Behinderung im Sinne des SGB IX (§ 2, Abs. 2, 3) werden bei gleicher Eignung bevorzugt. Bewerbungs- und Vorstellungskosten werden nicht erstattet.

Ihre Bewerbungsunterlagen senden Sie bitte bis zum 06.05.2022 unter Angabe der Kennziffer ZE-0065-bild-maz-2022 an den Direktor des Deutschen Dokumentationszentrums für Kunstgeschichte – Bildarchiv Foto Marburg, Herrn Dr. Christian Bracht, in einer PDF-Datei an
bildarchiv@fotomarburg.de.

Stellenangebot: Digitalmanager / Digital Scout (m/w/d) (Staatstheater Kassel)

dhd-blog - Fr, 04/15/2022 - 20:18

Am Staatstheater Kassel ist folgende Stelle ausgeschrieben:

Digitalmanager / Digital Scout (m/w/d)

Mehr Informationen und Kontaktdaten entnehmen Sie bitte der Stellenausschreibung:

https://cdn.staatstheater-kassel.de/Stellenausschreibung_Digitalmanager_5819592514.pdf

Bitte wegen der Bewerbungsfrist nachfragen, sie wird ggf. verlängert.

Stellenangebot: Wissenschaftlicher Volontär (m/w/d) beim LVR (Landschaftsverband Rheinland) – Verlängerung der Bewerbungsfrist

dhd-blog - Fr, 04/15/2022 - 14:02

Der Landschaftsverband Rheinland (LVR) arbeitet als Kommunalverband mit rund 20.000 Beschäftigten für die 9,7 Millionen Menschen im Rheinland. Mit seinen 41 Schulen, zehn Kliniken, 20 Museen und Kultureinrichtungen, vier Jugendhilfeeinrichtungen, dem Landesjugendamt sowie dem Verbund Heilpädagogischer Hilfen erfüllt er Aufgaben, die rheinlandweit wahrgenommen werden. Der LVR ist Deutschlands größter Leistungsträger für Menschen mit Behinderungen und engagiert sich für Inklusion in allen Lebensbereichen. „Qualität für Menschen“ ist sein Leitgedanke.

Der LVR hat die Bewerbungsfrist für folgende Stelle verlängert:

Wissenschaftliche Volontärin/ Wissenschaftlicher Volontär (m/w/d) für den LVR-Fachbereich Zentrale Dienste, strategische Steuerungs­unterstützung, Abteilung Digitales Kulturerbe LVR in Köln

NEUE BEWERBUNGSFRIST: 26.04.2022

Vollständige Stellenausschreibung: https://jobs.lvr.de/index.php?ac=jobad&id=2466

 

Virtuelles DH-Kolloquium an der BBAW, 25.04.2022: „Epistemological Issues in Digital Humanities“

dhd-blog - Do, 04/14/2022 - 10:39

Im Rahmen des DH-Kolloquiums an der BBAW laden wir Sie herzlich zum nächsten Termin am Montag, den 25. April 2022, 16 Uhr c.t., ein (virtueller Raum: https://meet.gwdg.de/b/lou-eyn-nm6-t6b):

Michael Piotrowski
(UNIL Lausanne)
„Epistemological Issues in Digital Humanities“
.

So far, digital humanities has largely contented itself with borrowing methods from other fields and has developed little methodology of its own. The almost exclusive focus on methods and tools represents a major obstacle towards the construction of computational models that could help us to obtain new insights into humanities research questions (which are ultimately qualitative, “why?” questions) rather than just automate primarily quantitative processing.

In the recently started SNSF-funded project “Towards Computational Historiographical Modeling: Corpora and Concepts” we therefore want to focus on two issues we have identified as particularly pressing, and which together constitute a critical research gap:

1. Regardless of the application domain, digital humanities research tends to rely heavily on corpora, i.e., curated collections of texts, images, music, or other types of data. However, the epistemological implications have so far been largely ignored. We propose to consider corpora as phenomenotechnical devices (Bachelard), like scientific instruments: corpora are, on the one hand, models of the phenomenon under study; on the other hand, the phenomenon is constructed through the corpus.

2. Models of complex phenomena generally rely heavily on numerous concepts, e.g., (in history) textuality, feudalism, state, class, etc. Such concepts are effectively references to “submodels,” which serve as building blocks for larger models. Traditionally, these models were largely implicit and not formalized. This becomes a serious epistemological problem in digital humanities, because these concepts are the foundation for selecting data and building corpora. The lack of a formalization of these concepts is currently a major weakness of computational research in the humanities: while the quantitative computational analyses are highly formalized, their qualitative foundations are shaky.

In this talk, I will discuss some of the background and motivations for this project and try to situate it in the larger context of theory formation in digital humanities.

***

Die Veranstaltung findet virtuell statt; eine Anmeldung ist nicht notwendig. Zum Termin ist der virtuelle Konferenzrraum über den Link https://meet.gwdg.de/b/lou-eyn-nm6-t6b erreichbar. Wir möchten Sie bitten, bei Eintritt in den Raum Mikrofon und Kamera zu deaktivieren. Nach Beginn der Diskussion können Wortmeldungen durch das Aktivieren der Kamera signalisiert werden.

Der Fokus der Veranstaltung liegt sowohl auf praxisnahen Themen und konkreten Anwendungsbeispielen als auch auf der kritischen Reflexion digitaler geisteswissenschaftlicher Forschung. Weitere Informationen finden Sie auf der Website der BBAW.

Seiten

Workingpapers DHd-Arbeitsgruppen Aggregator abonnieren