dhd-blog

dhd-blog Feed abonnieren
Digital Humanities im deutschsprachigen Raum
Aktualisiert: vor 50 Minuten 36 Sekunden

RIDE 9 veröffentlicht – Rezensionen digitaler Textsammlungen und Korpora

Do, 11/08/2018 - 16:29

Wir freuen uns, die neunte Ausgabe des Rezensionsjournal RIDE, das seit 2014 vom Institut für Dokumentologie und Editorik (IDE) herausgegeben wird, ankündigen zu können. Die aktuelle Ausgabe enthält fünf Rezensionen (zwei auf Englisch, drei auf Deutsch), in denen Digitale Textsammlungen und Korpora aus verschiedenen Teilbereichen der Digital Humanities kritisch besprochen werden. Darüber hinaus beleuchtet ein Editorial Inhalte und zentrale Aspekte der Rezensionen.

Folgende Beiträge sind in Band 9 enthalten:

Alle Rezensionen sind abrufbar unter: http://ride.i-d-e.de/issue-9

Die aktuelle Ausgabe stellt auch einen Meilenstein für RIDE insgesamt dar: Mit den fünf Rezensionen der aktuellen Ausgabe sind nun insgesamt 50 Rezensionen in RIDE verfügbar, davon 20 zu Digitalen Textsammlungen und 30 zu Digitalen Editionen. Wir möchten uns aus diesem Anlass noch einmal bei allen bisherigen Beteiligten für die gute Zusammenarbeit bedanken!

Auf weitere 50 Rezensionen!

Vorstellung der DARIAH DH-Award-PreisträgerInnen 2018: Gernot Howanitz

Do, 11/08/2018 - 12:10

Mit dem DARIAH-DE DH-Award wurde dieses Jahr Gernot Howanitz ausgezeichnet. Der DARIAH-DE DH-AWARD fördert NachwuchswissenschaftlerInnen, die in ihren Forschungsvorhaben innovative digitale Ansätze und Methoden einsetzen und so einen Beitrag zur Weiterentwicklung der Digital Humanities leisten. Im DHd-Blog stellen wir PreisträgerInnen und Projekte in den nächsten Wochen vor.

Gernot Howanitz hat russische Literaturwissenschaft und angewandte Informatik in Salzburg, Moskau und Prag studiert. 2017 promovierte er an der Universität Passau über (Selbst-)Inszenierungen russischer Autorinnen und Autoren im Internet; zur Zeit bereitet er ein Habilitationsprojekt über den polnischen Positivismus vor.Forschungsschwerpunkte sind russische, tschechische und polnische Literatur von 1850 bis heute, (Auto-)Biographietheorie, Erinnerungskulturen, Rezeptionstheorien, Neue Medien und Digital Humanities.

Worum geht es in Ihrem Projekt?

Meine Dissertation analysiert (auto-)biographische Praktiken russischer Autorinnen und Autoren im Web, um deren Strategien der (Selbst-)Inszenierung aufschlüsseln zu können.

Mit welchen Materialien und Daten arbeiten Sie?

37 Blogs und Social-Media-Profile von 31 bekannten russischen Autorinnen und Autoren, das sind 78.268 Texte  mit 17.816.195 Wörtern, gesammelt zwischen 16. Februar 2002 und 31. Dezember 2014.

Gibt es Methoden, Theorien und Tools, welche für diese Aufgabe besonders interessant sind?

Topic Modeling mit nachgeschalteten Clustering- und Visualisierungsverfahren, die mit ‚klassischem‘ close reading kombiniert werden; darüber hinaus qualitative Erfassung multimodaler Inhalte (Bilder, Videos)

Wie haben Sie begonnen, sich mit digitalen Geisteswissenschaften zu beschäftigen?

Ich habe an der Universität Salzburg sowohl Angewandte Informatik als auch Slawistik studiert, war also digitaler Humanist, bevor ich wusste, was das überhaupt ist.

Welche Angebote der digitalen Geisteswissenschaften fänden Sie für Ihre Forschungsprojekte in Zukunft besonders hilfreich?

Momentan arbeite ich mit Kolleginnen und Kollegen am Passauer Centre for eHumanities an Deep-Learning-Methoden, um Bilder, Videoclips und Spielfilme quantitativ erfassen zu können. Das ist zwar nicht ganz trivial, wird es in Zukunft aber erlauben, eine Vielzahl an kulturwissenschaftlichen Fragestellungen neu zu denken.

 

DARIAH-DE unterstützt mit digitalen Ressourcen und Methoden arbeitende Geistes- und KulturwissenschaftlerInnen in Forschung und Lehre. Dafür baut das Projekt eine digitale Forschungsinfrastruktur für Werkzeuge und Forschungsdaten auf und entwickelt Materialien für Lehre und Weiterbildung im Bereich der Digital Humanities (DH). DARIAH-DE ist der deutsche Beitrag von DARIAH-EU und arbeitet in diesem Kontext mit einer Vielzahl von europäischen Partnern und Projektverbündeten zusammen.

Wissenschaftliche Mitarbeiter/innen im SNF-Projekt «Online-Edition der Rezensionen und Briefe Albrecht von Hallers»

Mi, 11/07/2018 - 08:46

via Bernhard Metz

An der Universität Bern sind zum 1. Mai 2019 für die Dauer von bis zu fünf Jahren
zwei bis drei Stellen (40-80%-Anstellungsgrad)
als

wissenschaftliche/r Mitarbeiter/in im SNF-Projekt 10FE15_157963:
«Online-Edition der Rezensionen und Briefe Albrecht von Hallers.
Expertise und Kommunikation in der entstehenden Scientific Community»

zu besetzen. Als interdisziplinäres Forschungsprojekt verteilen sich diese auf das Historische Institut (Prof. Dr. André Holenstein), das Institut für Medizingeschichte (Prof. Dr. Hubert Steinke) und das Institut für Germanistik (Prof. Dr. Oliver Lubrich) der Universität Bern – in Kooperation mit der Burgerbibliothek sowie der Albrecht von Haller-Stiftung der Burgergemeinde Bern.

Die Mitarbeit im Editionsprojekt umfasst vorrangig die Transliteration und Transkription handschriftlicher Briefe von und an Albrecht von Haller sowie deren Kommentierung und Auszeichnung. Zudem werden Hallers rund 9’000 Rezensionen aus den «Göttingischen Gelehrten Anzeigen» im Projekt ediert. Vorausgesetzt werden gute Sprachkenntnisse in Deutsch, Französisch und Latein, davon in mindestens einer dieser drei Sprachen exzellente. Erforderlich sind zudem gute Handschriftenkenntnisse sowie Erfahrung mit bzw. zumindest ein belegbares Interesse an editionsphilologischen Fragestellungen und Methoden.

Die Gehaltsfestlegung erfolgt nach SNF-Vorgaben. Neben der Anstellung besteht die Möglichkeit zur wissenschaftlichen Weiterqualifikation in den Fächern Geschichte, Medizingeschichte oder Germanistik/Komparatistik entsprechend den beteiligten Instituten.

Die Bewerbungsunterlagen (Zeugnisse, Masterarbeit resp. Dissertation, Lebenslauf) sind bis zum 2. Dezember 2018 elektronisch (als eine einzige PDF-Datei) an die beiden unten aufgeführten eMail-Adressen zu senden. Weitere Informationen finden sich aufhttp://www.hist.unibe.ch/forschung/forschungsprojekte/online_edition_haller/index_ger.htmlund werden auch persönlich erteilt von den Projektleitern Dr. Martin Stuber (martin.stuber@hist.unibe.ch) oder Dr. Bernhard Metz (bernhard.metz@img.unibe.ch).

Universitaet Bern
Institut fuer Medizingeschichte der Universitaet Bern
Buehlstrasse 26

CH-3012 Bern

++41 31 631 84 51

bernhard.metz@img.unibe.ch

RIDE-Preis für die beste Rezension in Band 8

Fr, 11/02/2018 - 13:01

Das Institut für Dokumentologie und Editorik freut sich, die Gewinnerin des dritten RIDE-Preises für die beste Rezension in „RIDE 8 – Digital Text Collections“ bekannt zu geben (http://ride.i-d-e.de/issue-8/). Der Preis in Höhe von 250 Euro wird mit großzügiger Unterstützung der geisteswissenschaftlichen Fakultät der Universität Graz vergeben (mehr Informationen: http://ride.i-d-e.de/reviewers/ride-award-for-best-review/).

Die Jury der Preisvergabe, bestehend aus Peter Stadler (Universität Paderborn), Franz Fischer (Universität zu Köln), Roman Bleier (Universität Graz) und Philipp Steinkrüger (Ruhr-Universität Bochum) – verleiht den Preis diesmal an Susanne Haaf (Berlin-Brandenburgische Akademie der Wissenschaften) für die „Rezension der Deutschsprachigen Wikisource“ (https://ride.i-d-e.de/issue-8/wikisource/).

Begründung:

„The committee was especially impressed by Haaf’s familiarity with the material, which is evidenced in her review by meticulous attention to detail. Haaf’s overview and description of the project condenses the complexity of the material and organizing system in an exemplary way and allows the reader to readily comprehend the underlying ideas. This general picture is enriched by a closer inspection of several key aspects, such as Wikisource’s way of handling metadata, or the benefits and snares of a community edition. Finally, the pertinent and concise criticism Haaf provides, and the suggestions for improvement that accompany these criticisms underline the review’s excellence. As such, the committee entertains the hope that Haaf’s text will help to communicate the importance of reviewing to the scientific community.“

Wir wünschen der Gewinnerin viel Vergnügen mit dem Preis und freuen uns auf weitere spannende Rezensionen digitaler Ressourcen in den nächsten RIDE-Ausgaben.

Seitens des IDEs geht außerdem besonderer Dank an das externe Jurymitglied Peter Stadler für die gute Zusammenarbeit bei der Auswahl der Preisträgerin.

Vorstellung der DARIAH DH-Award-PreisträgerInnen 2018: Thomas Schmidt

Fr, 11/02/2018 - 09:45

Mit dem DARIAH-DE DH-Award wurde dieses Jahr Thomas Schmidt ausgezeichnet. Der DARIAH-DE DH-AWARD fördert NachwuchswissenschaftlerInnen, die in ihren Forschungsvorhaben innovative digitale Ansätze und Methoden einsetzen und so einen Beitrag zur Weiterentwicklung der Digital Humanities leisten. Im DHd-Blog stellen wir PreisträgerInnen und Projekte in den nächsten Wochen vor.

Thomas Schmidt hat einen Master of Science in Medieninformatik von der Universität Regensburg. Thema der Masterarbeit: „Gefühl ist alles; Name ist Schall und Rauch.“ – Der Einsatz von Sentiment Analysis in der quantitativen Dramenanalyse.Seit Ende 2017 arbeitet er am Lehrstuhl für Medieninformatik der Universität Regensburg als wissenschaftlicher Mitarbeiter. Seine Forschungsinteressen umfassen Digital Humanities, Information Behavior und Human Computer Interaction.

Worum geht es in Ihrer Arbeit?

In der Masterarbeit habe ich mich mit der Sentiment Analysis auf Dramentexten von G. E. Lessing befasst. Sentiment Analysis bezeichnet dabei eine Sammlung von Methoden zur computergestützten Analyse und Prädiktion von Emotionen, Sentiments und Meinungen. Sentiment Analysis ist insbesondere im Bereich Product Reviews und Social Media populär. Es ist jedoch klar, dass insbesondere die Analyse von literarischen Texten davon profitieren kann; beispielsweise um Emotionsverläufe zu untersuchen oder die Beziehung zwischen Figuren zu modellieren. In der Arbeit habe ich zunächst einen kleinen Teil von Repliken (also Sprechakten) aus den Dramen Lessings bezüglich dem Sentiment und den Emotionen annotieren lassen, um einen Gold Standard zu erstellen und das Annotationsverhalten zu untersuchen. Details zu dieser Annotationsstudie kann man hier einsehen.

Bezüglich des Gold Standard habe ich dann die Leistung verschiedener lexikon-basierter (oder auch regel-basierter) Verfahren aus der Sentiment Analysis in Kombination mit NLP-Methoden evaluiert. Die besondere Herausforderung ist dabei der Umgang mit der historischer und poetischen Sprache. Die Ergebnisse der Sentiment Analysis aus der Methodenkombination mit der besten Leistung habe ich in einem prototypischen Web-Tool zur interaktiven Visualisierung implementiert. Über das Tool kann man Polaritäts- und Emotionsverteilungen in den Dramen Lessings explorieren. Mehr dazu kann man hier nachlesen.

Betreut und begutachtet wurde die Masterarbeit von Jun.-Prof. Dr. Manuel Burghardt von der Universität Leipzig und Prof. Dr. Christian Wolff von der Universität Regensburg.

Mit welchen Materialien und Daten arbeiten Sie?

Für die Masterarbeit habe ich die Dramen von Lessing über die Plattform Textgrid und das Textgrid-Repository bezogen, da diese dort sehr gut als mit XML strukturierten und annotierten Dateien vorliegen. Für Textanalyse jenseits von dem was auf Textgrid verfügbar ist, nutze ich das bekannte Projekt Gutenberg.

Gibt es Methoden, Theorien und Tools, welche für diese Aufgabe besonders interessant sind?

Bezüglich der theoretischen Grundlage bezieht man sich in der Sentiment Analysis meist auf Liu (2016) der zu dem Konzept Sentiment Analysis ein differenziertes theoretisches Modell erstellt hat. Problem hierbei ist, dass dieses Modell vor allem für Product Reviews, Social Media und Meinungen optimiert ist. Narrative und literarische Texte stellen jedoch einen Sonderfall dar, da die emotionalen Repräsentationen oft sehr komplex sind oder auch die Bezugsebene nicht immer eindeutig zu identifizieren ist. Ich hoffe, dass wir mit unserer Forschung zum Annotationsverhalten von Literaturwissenschaftlern einen Beitrag zur Theoriebildung für die Sentiment Analysis auf literarischen Texten leisten.

Für die Durchführung der Sentiment Analysis habe ich etablierte deutschsprachige Sentiment-Lexika benutzt. Dabei handelt es sich um Listen oder Tabellen aus Wörtern, die bezüglich ihrem Sentiment auf unterschiedliche Art und Weise annotiert sind. Über Kalkulationen, basierend auf diesen Lexika, kann man dann Metriken für das Sentiment und Emotionen kalkulieren. Diese Methodik wird vor allem dann eingesetzt, wenn große annotierte Korpora der Anwendungsdomäne fehlen, um Techniken des maschinellen Lernens durchzuführen.

Im Bereich der allgemeinen Textverarbeitung und –analyse nutze ich verschiedene Python-Libraries wie das bekannte NLTK-package, textblob  aber auch Lemmatisierungstools wie TreeTagger. Bei der Visualisierung der Daten habe ich mich an anderen Textanalyse-Tools orientiert, wie zum Beispiel Voyant und nutze Datenvisualisierungs-Bibliotheken wie Google Charts und D3.js.

Um mit der historischen Sprache der Dramen zurecht zu kommen, habe ich ein Tool vom Deutschen Textarchiv genutzt  insbesondere ein Tool zur Erstellung historischer linguistischer Varianten von Jurish (2012).

Um fortgeschrittene Methoden, wie zum Beispiel Machine Learning für die Sentiment Analysis zu verfolgen sind Sentiment-annotierte Korpora notwendig, die jedoch für den Anwendungsbereich von historischen Dramen noch nicht ausreichend vorliegen. Zwar gibt es große und gut annotierte Korpora für andere Anwendungsbereiche (Product Reviews, Twitter), jedoch haben diese das Problem, dass es sich eben nicht um historische und poetische Sprache handelt. Auch haben wir festgestellt, dass Sentiment-Annotationen auf literarischen Texten detailliertere Annotationen benötigt, wie zum Beispiel die Angabe von Lügen, Ironie oder den tatsächlichen Sentiment-Zielen. Derartige Annotation sind selbst in etablierten Anwendungsgebieten nicht häufig. Diesbezüglich sind natürlich Annotations- und Crowdsourcing-Tools aus den Digital Humanities besonders interessant für uns, um größere Annotationsstudien durchzuführen und derartige Korpora zu generieren.

Wie haben Sie begonnen, sich mit digitalen Geisteswissenschaften zu beschäftigen?

Zum ersten Mal habe ich mich mit Digital Humanities (DH) im Rahmen des Master-Programms für den Master Medieninformatik an der Universität Regensburg befasst. DH ist dabei ein Wahlmodul, das man belegen kann. Als Projektarbeit war ich im Kurs dann an der Realisierung eines Tools zur quantitativen Dramenanalyse unter der Leitung von Jun.-Prof. Dr. Manuel Burghardt beteiligt. Dabei habe ich auch erste Erfahrungen zur Zusammenarbeit mit Geisteswissenschaftlern gesammelt, da wir in dem Projekt eng mit der Literaturwissenschaftlerin PD Dr. Katrin Dennerlein von der Universität Würzburg zusammen gearbeitet haben.

Im weiteren Studium habe ich dann immer mal wieder in Projektkursen an DH-Themen mitgewirkt, zum Beispiel bei der Digitalisierung einer Liedblattsammlung der Universität Regensburg. Für meine Masterarbeit habe ich mich dann entschlossen auf den bisherigen Arbeiten zur quantitativen Dramenanalyse aufzubauen und die Dramenanalyse um Techniken der Sentiment Analysis zu erweitern.

An den Digital Humanities interessiert mich vor allem die Vielfalt an Themen und die Zusammenarbeit mit Geisteswissenschaftlern. Des Weiteren finde ich die Zusammenführung von Geisteswissenschaften mit ihrer jahrhundertelangen Traditionen, Theorien und Ergebnissen und den Möglichkeiten der noch recht jungen Informatik sehr faszinierend und denke, dass sich beide Gebiete gegenseitig bereichern können.

Welche Angebote der digitalen Geisteswissenschaften fänden Sie für Ihre Forschungsprojekte in Zukunft besonders hilfreich?

In Zukunft planen wir unter anderem noch größere Annotationsstudien mit verschiedenen Nutzergruppen und differenzierteren Annotations-Schemata zur Sentiment Annotation auf literarischen Texten. Ziel ist die Analyse von Annotationsverhalten und die Erstellung von größeren Korpora zur Evaluation und zur Anwendung von Maschinellen Lernen. Dafür exploriere ich momentan den Einsatz und die Möglichkeiten von bekannten Annotationstools wie WebAnno sowie Optionen die Annotation über Crowdsourcing umzusetzen.

Um besser mit historischer und poetischer Sprache der Dramentexte zurecht zukommen, wären natürlich mehr digitale Wörterbücher oder gar Sentiment-Lexika für den jeweiligen historischen Kontext nützlich. Im Bereich der domänenspezifischen Sentiment Analysis gibt es auch semi-automatische Methoden für die Erstellung derartiger Lexika, die wir in Zukunft explorieren wollen.

Für die Weiterentwicklung der Dramenanalyse ist die Verknüpfung von quantitativen Metriken aus dem vergangenen Projekt zur quantitativen Dramenanalyse mit Ergebnissen der Sentiment Analysis sicherlich interessant. Auch die Verknüpfung und Integration von aktuell sehr populären Textanalyse-Methoden wie Topic Modelling mit der Sentiment Analysis

Weitere Informationen:

 

DARIAH-DE unterstützt mit digitalen Ressourcen und Methoden arbeitende Geistes- und KulturwissenschaftlerInnen in Forschung und Lehre. Dafür baut das Projekt eine digitale Forschungsinfrastruktur für Werkzeuge und Forschungsdaten auf und entwickelt Materialien für Lehre und Weiterbildung im Bereich der Digital Humanities (DH). DARIAH-DE ist der deutsche Beitrag von DARIAH-EU und arbeitet in diesem Kontext mit einer Vielzahl von europäischen Partnern und Projektverbündeten zusammen.

Stellenangebot: wiss. Mit. (E13) für digitale Edition „Kniffler-Briefe“, Ruhr-Universität Bochum

Mo, 10/29/2018 - 18:42

Die Ruhr-Universität Bochum (RUB) ist eine der führenden Forschungsuniversitäten in Deutschland. Als reformorientierte Campusuniversität vereint sie in einzigartiger Weise die gesamte Spannbreite der großen Wissenschaftsbereiche an einem Ort.
Das dynamische Miteinander von Fächern und Fächerkulturen bietet den Forschenden wie den Studierenden gleichermaßen besondere Chancen zur interdisziplinären Zusammenarbeit.

In der Fakultät für Ostasienwissenschaften der Ruhr-Universität Bochum, Sektion für Geschichte Japans, ist schnellstmöglich für die Laufzeit von einem Jahr eine Stelle als

Wissenschaftliche/r Mitarbeiter/in (39,83 Std./Woche) (E13 TVL)

zu besetzen.

https://www.stellenwerk-bochum.de/jobboerse/wissenschaftl-mitarbeiterin-wiss-mitarbeiterin-1-jahr-3983-stdwoche-bo-2018-10-16-213424

Die zukünftige Mitarbeiterin/der zukünftige Mitarbeiter wird für das Projekt “Digitale Edition der internationalen Geschäftskorrespondenz von L. Kniffler & Co., 1859 – 1876” beschäftigt, das vom Ministerium für Kultur und Wissenschaft des Landes Nordrhein-Westfalen gefördert wird. Die ausgeschriebene Stelle umfasst die Erstellung eines Webportals zur Präsentation der ca. 200 Briefe umfassenden Geschäftskorrespondenz (Digitalisate und Transkripte) im Internet. Dies geschieht in enger konzeptioneller und technischer Zusammenarbeit mit dem in der Sektion für Geschichte Japans angesiedelten fachwissenschaftlichen Team, das die inhaltliche Erschließung der Briefe leistet, mit dem IT-Beauftragten der Fakultät für Ostasienwissenschaften und mit der AG Forschungsdatenmanagement der Ruhr-Universität Bochum.

Aufgabengebiet:
Bereitstellung, Überwachung (Fehleranalyse und Beseitigung) und Optimierung der einzusetzenden Hardware- und Softwarekomponenten; Digital Asset Management, Archivierung und Kontrolle der digitalen Aufnahmen; Weiterentwicklung und Unterhalt der Datenbank(en) und der Website; Beratung und Unterstützung der Projektmitarbeiter; Mitarbeit an der Digitaledition.

Erfolgt die Finanzierung bei der Einstellung ausschließlich von externen Drittmittelgebern, besteht für die Beschäftigten keine Verpflichtung zur Übernahme von Lehrverpflichtung.

Einzureichende Bewerbungsunterlagen:

• Motivationsschreiben
• Lebenslauf (tabellarisch) und Nachweise über Studienabschlüsse

Bitte richten Sie Ihre Bewerbung ausschließlich in elektronischer Form (in einer einzelnen PDF-Datei) per E-Mail bis zum 13. Dezember 2018 an folgende Adresse: Katja.Schmidtpott@rub.de

Fahrtkosten, Übernachtungskosten und der Verdienstausfall für Vorstellungsgespräche werden leider nicht erstattet.

Wir wollen an der Ruhr-Universität Bochum besonders die Karrieren von Frauen in den Bereichen, in denen sie unterrepräsentiert sind, fördern und freuen uns daher sehr über Bewerberinnen. Auch die Bewerbungen geeigneter schwerbehinderter und gleichgestellter Bewerber und Bewerberinnen sind herzlich willkommen.

Anforderungsprofil

• Abschluss eines den Aufgaben entsprechenden Hochschulstudiums, d.h. der
Informatik und Geschichte bzw. Philologie bzw. Japanologie ODER der Informatik mit Berufserfahrung im geisteswissenschaftlichen Bereich ODER der Geschichte bzw. Philologie bzw. Japanologie mit Berufserfahrung im Informatikbereich

• Übergreifende Kenntnisse auf den unterschiedlichen Teilgebieten der IT-Systemtechnik;
sehr gute Fachkenntnisse in der Programmierung webbasierter Anwendungen
(moderne Webframeworks basierend auf  Python, Ruby on Rails,  JavaScript) in der EBV (Photoshop, GIMP etc.), in Markup-Sprachen (insbesondere XML/TEI) sowie in Kartographie/GIS-Software
Erwünscht:

– Erfahrung im Bereich der Entwicklung von Web-Anwendungen und –Plattformen, vorzugsweise im geisteswissenschaftlichen Umfeld

– Kenntnisse in oder Erfahrungen mit Digitalen Editionen

– Kenntnisse von Digitalisierungsworkflows und OCR-Verfahren

– Kreativität im Umgang mit herausfordernden Problemstellungen

– Gute organisatorische Fähigkeiten, gutes Zeitmanagement

– Kommunikations- und Teamfähigkeit

– sehr gute Englischkenntnisse

Art der Beschäftigung: Vollzeit
Vergütung: TVL E 12/13

Kontaktdaten
Ansprechpartner
Frau Prof. Dr. Katja Schmidtpott
Universitätsstrasse 134
44799 Bochum
Deutschland
Telefon +49 234 3228256
E-Mail: katja.schmidtpott@rub.de

Institut / Einrichtung
Fakultät für Ostasienwissenschaften/Sektion Geschichte Japans
Zeitraum der Beschäftigung
1 Jahr
Bewerbungsfristende
Dienstag, 13. November 2018 – 23:59

wissenschaftliche Koordinatorin/wissenschaftlicher Koordinator für DARIAH-DE an der SUB Göttingen

Mo, 10/29/2018 - 15:17

Das BMBF-geförderte Projekt DARIAH-DE ist ein Forschungsprojekt zur Entwicklung von nachhaltigen Forschungsinfrastrukturen für die Geistes- und Kulturwissenschaften. In enger Kooperation mit CLARIN-D arbeitet DARIAH-DE gemeinsam mit Wissenschaftlerinnen und Wissenschaftlern aus unterschiedlichen geistes- und kulturwissenschaftlichen Disziplinen, um digitale Forschungsmethoden zu entwickeln, Forschungsfragen auf neue Weise zu beantworten und neue Forschungsfragen zu etablieren.

Die Niedersächsische Staats- und Universitätsbibliothek Göttingen (SUB Göttingen) koordiniert den Forschungsverbund DARIAH-DE. Die SUB Göttingen ist eine der größten wissenschaftlichen Bibliotheken Deutschlands und engagiert sich seit Jahren in der Forschung und Entwicklung von digitalen Forschungsinfrastrukturen und Virtuellen Forschungsumgebungen.

Für das Projekt DARIAH-DE und dessen Weiterentwicklung im Projekt CLARIAH-DE suchen wir zum nächstmöglichen Zeitpunkt befristet bis 31.12.2021 eine / einen

wissenschaftliche Koordinatorin/wissenschaftlichen Koordinator
– Entgeltgruppe 14 TV-L, Vollzeit, befristet

Die Möglichkeit einer Verlängerung besteht. Die Stelle ist Teilzeit geeignet.

Ihre Aufgaben:
– fachwissenschaftliche Leitung des bundesweiten Verbundprojekts DARIAH-DE mit 19 Partnern sowie dessen Weiterentwicklung in CLARIAH-DE in enger Abstimmung mit dem DARIAH-DE Coordination Office in Göttingen und der CLARIN-D Geschäftsstelle in Tübingen
– wissenschaftliche und strategische Planung der Außendarstellung und Dokumentation der Forschungsergebnisse
– Leitung mehrerer Planungsgremien im Forschungsverbund sowie des DARIAH- Projektteam an der SUB Göttingen
– Beratung von Fachwissenschaftlerinnen und Fachwissenschaftlern und Forschungsvorhaben bezüglich der Einsatzmöglichkeiten von DARIAH-DE/CLARIAH-DE und digitalen Werkzeugen und Methoden
– Repräsentanz und Präsentation der Forschungsverbünde DARIAH-DE und CLARIAH-DE bei nationalen und internationalen Konferenzen
– Beteiligung an Drittmittelanträgen und Kooperationsgesprächen
– Konzeption und Durchführung von internationalen Workshops und Tagungen

Erforderlich:
– wissenschaftlicher Hochschulabschluss im Bereich Geisteswissenschaften, vorzugsweise mit Promotion oder vergleichbare Ausbildung und Erfahrung
– nachgewiesene Berufserfahrung und Forschungstätigkeit im Bereich Digital Humanities
– mehrjährige Berufserfahrung im Projektmanagement und mit administrativen Abläufen im Projektwesen
– sicherer Umgang mit digitalen Projektmanagement- und Kommunikationstools, z.B. Wiki, Social Media
– sehr hohe Kommunikationskompetenz und Teamfähigkeit sowie sehr gute organisatorische Fähigkeiten und ausgezeichnetes Zeitmanagement
– verhandlungssichere Sprachkenntnisse in Deutsch und Englisch

Wünschenswert:
– Kenntnisse und Erfahrungen im Bereich digitaler geisteswissenschaftlicher Forschungsinfrastrukturen
– Kenntnisse der nationalen / internationalen Förderlandschaft

Fragen zu diesem Projekt beantworten Ihnen Frau Dr. Mirjam Blümm, E-Mail: bluemm@sub.uni-goettingen.de und Frau Regine Stein, E-Mail: regine.stein@sub.uni-goettingen.de.

Die Universität Göttingen strebt in den Bereichen, in denen Frauen unterrepräsentiert sind, eine Erhöhung des Frauenanteils an und fordert daher qualifizierte Frauen nachdrücklich zur Bewerbung auf. Sie versteht sich zudem als familienfreundliche Hochschule und fördert die Vereinbarkeit von Wissenschaft / Beruf und Familie. Die Universität hat sich zum Ziel gesetzt, mehr schwerbehinderte Menschen zu beschäftigen. Bewerbungen Schwerbehinderter erhalten bei gleicher Qualifikation den Vorzug.

Bitte reichen Sie Ihre Bewerbung mit allen wichtigen Unterlagen in einem Dokument zusammengefasst bis zum 16.11.2018 ausschließlich über das Bewerbungsportal https://lotus2.gwdg.de/uni/uzdv/perso/knr_100444.nsfein.

Das Auswahlverfahren ist für die 48. Kalenderwoche 2018 in Göttingen geplant.

Im begründeten Ausnahmefall können Sie Ihre Unterlagen an die Direktion der Niedersächsischen Staats- und Universitätsbibliothek Göttingen, Platz der Göttinger Sieben 1, 37073 Göttingen senden.

Hinweis:
Wir weisen darauf hin, dass die Einreichung der Bewerbung eine datenschutzrechtliche Einwilligung in die Verarbeitung Ihrer Bewerberdaten durch uns darstellt. Näheres zur Rechtsgrundlage und Datenverwendung finden Sie im Hinweisblatt zur Datenschutzgrundverordnung (DSGVO)

Workshop-Bericht „Nicht-lateinische Schriften in multilingualen Umgebungen: Forschungsdaten und Digital Humanities in den Regionalstudien“

Mi, 10/24/2018 - 16:47

Welche Anforderungen und Bedarfe hinsichtlich der Ausgestaltung einer (nationalen) Forschungsdateninfrastruktur bestehen aus Sicht geisteswissenschaftlicher Fächer? Diese Frage wird derzeit – nicht zuletzt auf Initiative des DHd-Verbands –  intensiv diskutiert und in Positionspapieren dokumentiert.[i]

Ein vom BMBF-Forschungsprojekt FDM_OAS-Orient[ii] am 03.07.2018 an der Campusbibliothek der Freien Universität Berlin organisierter Workshop  nahm in diesem Zusammenhang das Thema „Nicht-lateinische Schriften in multilingualen Umgebungen: Forschungsdaten und Digital Humanities in den Regionalstudien“ in den Blick.  27 Wissenschaftlerinnen und Wissenschaftler, IT-/Daten-Expertinnen und Experten, Bibliothekarinnen und Bibliothekare kamen aus ganz Deutschland[iii] zusammen, um Herausforderungen und Bedarfe der Erstellung, Verarbeitung, Analyse, Archivierung und Nachnutzung von Forschungsdaten in nicht-lateinischen Schriften im allgemeinen sowie vor dem Hintergrund der im Entstehen begriffenen Nationalen Forschungsdateninfrastruktur (NFDI) im Besonderen zu diskutieren.

Hauptanliegen des Workshops war es, die verschiedenen Problemstellungen im Umgang mit Daten in nicht-lateinischen Schriften zusammenzutragen und diesbezügliche Bedarfe von Forschungsprojekten zu bündeln. Es gab Gelegenheit, bisherige Erfahrungen mit Software und Originalschrift / nicht-lateinischen Schriften zu teilen und gemeinsam mögliche Lösungsansätze zu skizzieren.

Nach einer kurzen Einführung in den wissenschaftspolitischen Kontext von Aufgabenstellungen des Forschungsdatenmanagements (DFG Anforderung bei Drittmittelprojekten, Anschreiben von DFG und RfII an die Fachgesellschaften, sich zum Thema “FDM” zu positionieren),  wurde die Frage “Was sind Forschungsdaten in den jeweiligen Arbeitsbereichen und welche Rolle spielt der Aspekt ‘Originalschrift’/nicht-lateinische Schriften?” anhand einiger Beispiele von Projektdaten der Teilnehmenden diskutiert. Im Anschluss gab die Workshop-Methode “Pro Action Café” am Nachmittag die Möglichkeit, an vier Arbeitstischen zu den Themen Infrastruktur, Digitale Werkzeuge, Technische Anforderungen und Lehre und Weiterbildung in drei Durchläufen tiefer in die jeweilige Thematik einzusteigen und gemeinsam Herausforderungen, Bedarfe und nächste Schritte zu formulieren.

Im Folgenden sind einige wichtige Diskussionsbefunde und -ergebnisse dieser gemeinsamen Arbeit zusammengefasst:

Grundtenor des Workshops war, dass die Diskussion um das Thema “Forschungsdaten in den Geistes- und Sozialwissenschaften” in den jeweils vertretenen Fachcommunities noch nicht oder nur in Ansätzen geführt wird, Positionspapiere wie beispielsweise vom Historiker-Verband noch nicht vorliegen – geschweige denn, in Arbeit sind. Ebenso wenig bestehe bereits ein gemeinsames Verständnis dessen, was in den jeweiligen Fachcommunities/Regionalstudienfächer unter dem Begriff “Forschungsdaten” zu verstehen sei.[iv] Der Aspekt “Originalschrift / nicht-lateinische Schriften” stelle jedoch eine grundlegende Klammer für die jeweiligen Anforderungen an ein fachspezifisches Datenmanagement dar.

Die Teilnehmenden erörterten anhand von Projektbeispielen die Schwierigkeiten des Managements von heterogenen Daten (Textkorpora, Archivmaterialien, audiovisuelle Daten, Metadaten etc.) im allgemeinen sowie bei der Verwendung nicht-lateinischer Schriften im Besonderen. Software, Informationssysteme und Informationsinfrastruktur seien in der Regel nicht oder nur bedingt für die Verwendung von Originalschrift ausgelegt und könnten diese zum einen nicht abbilden, z.B. nicht mit den verschiedenen Schreibrichtungen (links – rechts; rechts – links; oben – unten) umgehen oder zum anderen diese nicht auffinden (Discovery-Retrieval Problem), da Suchalgorithmen nicht für nicht-lateinische Sprachen optimiert seien (z.B. fehlendes Mapping zwischen verschiedenen Zeichensystemen, Transkriptionen, Einbezug von Schreibvarianten sowie Tokenisierung). Ebenso gebe es in den Ostasienwissenschaften, Orientwissenschaften und Altertumswissenschaften komplexe, bzw. sehr seltene Zeichen, die (bisher) nicht in Unicode enthalten sind. Selbst wenn Unicode verwendet werde, sei häufig nur die “Basic Multilingual Plane” eingebunden, die Ebene von Unicode, in der die meisten Zeichen moderner Sprachen codiert sind. Viele CJK-Zeichen befinden sich aber beispielsweise in der “Supplementary Ideographic Plane” und können nur abgebildet werden, wenn auch diese Ebene eingebunden wird.  Um Werkzeuge und Systeme mit nicht-lateinischen Schriften zu nutzen, müssten daher bislang häufig zeit- und kostenintensive Erweiterungen vorgenommen werden. Diese Anpassungen würden jedoch selten publiziert und seien dadurch nicht auffindbar bzw. nachnutzbar.

Weiterhin wurden Erfahrungen mit semantischen Kuratierungstechnologien wie Mustererkennung, Deep Learning, OCR und HTR erörtert, die in vielen Bereichen für Originalschrift noch gar nicht bzw. nicht gleichwertig weit entwickelt seien wie für lateinische Schriften. Druckqualität, Scanqualität und Mischung verschiedener Schriftsätze in einem Dokument minderten die OCR-Genauigkeit zusätzlich. Als ein wichtiges Desiderat wurde während des Workshops formuliert, dass zuständige IT-Mitarbeiter/innen auf die vielfältigen Herausforderungen aufmerksam gemacht werden (“raising awareness”), um existierende Werkzeuge, Infrastrukturen und Suchmaschinen zu optimieren und erarbeitete Erweiterungen und Optimierungen aktiv zu teilen. Außerdem könnten bei einer stärkeren Vernetzung von Digital-Humanities-Projekten untereinander Erfahrungswerte ausgetauscht und somit die Forschungsprozesse effizienter gestaltet werden. Diskutiert wurde in diesem Zusammenhang, ob und wie die FIDs (anwesend waren die Leiter der FIDs CrossAsia und Nahost-, Nordafrika- und Islamstudien) ein solcher Ort der “Vernetzung” bzw. zentralen Speicherung von Erkenntnissen und Tools für DH-Projekte und Originalschrift sein können.

Schließlich wurde eine mangelnde Standardisierung bei der Vergabe von Metadaten, der Verwendung/Programmierung von Schnittstellen sowie bei der Festlegung von Austauschformaten thematisiert, die bislang ebenfalls die Sichtbarkeit und Nachnutzbarkeit von Daten mindere. Einheitliche Metadatenelemente, die Mehrsprachigkeit kennzeichnen, sowie sprachliche Spezifika (z.B. verwendete Transkription) beschreibbar machen, wurden daher als genauso empfehlenswert wie standardisiertes Vokabular und Taxonomien zur inhaltlichen Beschreibung angesehen. Verwiesen wurde jedoch darauf, dass dabei nationale Standards (auch in den Regionen vor Ort, z.B. aus Japan, China, Deutschland) auf internationale Standards (wie ISO und Unicode) abgestimmt sein sollten.

Überhaupt war für die anwesenden Vertreter der Regionalstudienfächer (Ägyptologie, Altorientalistik, Japanologie, Judaistik, Sinologie), die häufig mit Partnern in und Daten aus den Regionen zusammenarbeiten, die internationale Interoperabilität ihrer Forschung(sdaten) eine Grundvoraussetzung, um einen wissenschaftlichen Diskurs mit der Fachcommunity zu führen. Multilinguale Normdaten und semantische Verknüpfung der Daten würden den Zugang zu und die Nachnutzung von Forschungsdaten in nicht-lateinischen Schriften verbessern bzw. insbesondere bei Forschungsprojekten mit Partnern in den Regionen erst ermöglichen. Angeregt wurde, verwendete Software, Packages und Workflows sowie das verwendete Metadatenschema zukünftig in den Metadaten zu dokumentieren, damit die Daten für Dritte verständlich und nachnutzbar seien. Eine diesbezügliche Leitlinie könne im Rahmen des NLS-Netzwerks erarbeitet und in die jeweiligen Fachcommunities zur weiteren Ausgestaltung getragen werden.

Wie auch die kurzen Vorstellungen der Projektdaten von den Teilnehmenden widerspiegelten, sind Forschungsdaten in den Regionalwissenschaften wegen der multi-disziplinären Ansätze (philologisch, empirisch, ethnologisch, medienwissenschaftlich, geschichtswissenschaftlich etc.) sehr heterogen. Dazu gehörten u.a. Digitalisate (z.B. von Archivmaterialien), Texte, Bilder, Filme, Audio-, Videospieledaten, dynamische Daten und Datenbanken. Insbesondere die Teilnehmenden aus den archäologischen Fächern betonten, dass viele ihrer digital erfassten Forschungsgegenstände einzige “Zeugen” von zum Teil zerstörten Kulturgütern seien und dauerhaft (über die in den Empfehlungen der guten wissenschaftlichen Praxis[v] empfohlenen 10 Jahre hinaus) als Quellen gesichert werden müssten. Langzeitarchivierung wird daher als ein wichtiger Faktor für ein qualitatives Forschungsdatenmanagement in diesen Disziplinen angesehen.

Aufgegriffen wurde zudem die Frage der “Anwendungskonservierung” von Forschungsdaten. Wie in anderen geistes- und sozialwissenschaftlichen Disziplinen entstehen auch in regionalwissenschaftlichen Forschungsprojekten nicht nur “statische” Daten, sondern nicht zuletzt dank der Zunahme an Digital Humanities Projekten auch Anwendungen wie z.B. Digitale Editionen. Diese “dynamischen” Daten könnten jedoch bislang in der Regel nicht in Repositorien an Hochschulen vor Ort gespeichert werden, daher es bedürfe neuer Lösungen für solche Anwendungskonservierungen. Hier wurde auf das Grundsatzpapier der AG Datenzentren des Verbands DHd verwiesen, in dem eine Bestandsaufnahme an derartigen, bereits bestehenden Datenzentren sowie Empfehlungen und Zukunftsperspektiven skizziert wurden.[vi]

Bezüglich des Themas Forschungsdaten-Repositorien wurde zudem festgestellt, dass die Mehrzahl von ihnen bislang noch nicht für nicht-lateinische Schriften ausgelegt sind. Eine Veröffentlichung der Daten ist i.d.R. möglich, wichtige Informationen können jedoch nicht in den vorgegebenen Metadaten abgebildet werden. Das schwerwiegendste Hindernis für die Auffindbarkeit von FD in nicht-lateinischen Schriften stellt jedoch die mangelnde multilinguale Anpassung von Suchalgorithmen in gängigen Suchmaschinen/Discovery-Systemen der Repositorien dar. Die Daten bleiben somit trotz Publikation “unsichtbar”. Dies mache die Nutzung derartiger (institutioneller) Repositorien für Forschende unattraktiv.

Schließlich wurden auch Lehre und Weiterbildung als wichtige Ansatzpunkte für die Veränderung der Forschungsdatenmanagementpraxis erörtert. Hierbei wurde festgestellt, dass die Methodenkompetenz Studierender im Bereich digitaler Werkzeuge bislang kaum vorhanden sei und FDM z.B. für Abschlussarbeiten / Promotionen wie in der Forschung auch in der Lehre bisher selten eine Rolle spiele. Ebenso bestünde ein hoher Bedarf an der Vermittlung von  Informationskompetenz und Suchstrategien im Zusammenhang mit nicht-lateinischen Schriften.

Zum Erwerb von Kompetenzen im Bereich “digitale Tools” / DH-Projekte wurde festgestellt, dass es aktuell eine Frage des persönlichen Engagements von befristet angestellten Wissenschaftlichen Mitarbeiter/innen sei, sich neben ihren eigentlichen Qualifizierungsaufgaben im Forschungsprojekt in digitale Grundlagen wie Programmiersprachen und digitale Methoden einzuarbeiten, sodass diese auch kompetent gelehrt bzw. angewendet werden können. Außerdem fehlten “safe spaces” mit restriktiven Zugangsrechten, in denen FD und digitale Werkzeuge Studierenden als “Trainingsmaterial” zur Verfügung gestellt werden können. Wünschenswert seien DH-Weiterbildungsprogramme für Fachwissenschaftler/innen, diese sollten institutionalisiert und kontinuierlich erweitert werden, um gezielt DH-Kompetenzen allgemein sowie mit Fokus auf DH-Werkzeuge für nicht-lateinischen Schriften zu erwerben. Des Weiteren wünschten sich Forschende Informationen und Beratung zu neuen Arten der Publikation von Forschungsergebnissen (enhanced publication, Open Access etc.).

Am Ende wurden Überlegungen geäußert, inwiefern Informatik-Methodenkompetenzen in den genannten Feldern bereits als fester Bestandteil von Bachelor- und Masterstudium-Curricula in den Geistes- und Sozialwissenschaften eingeführt werden können. Wichtige Inhalte wären hier: Informationskompetenz, Retrieval/Suchmethoden, Metadaten, Repositorien, TEI und digitale Werkzeuge.

Fazit

Die Teilnehmenden des Workshops waren sich einig, dass als ein wichtiger nächster Schritt eine stärkere Vernetzung untereinander erfolgen müsse, um den Wissensaustausch zu Spezifika des Managements von Daten in nicht-lateinischen Schriften und eine engere Zusammenarbeit bei der Erarbeitung von Lösungen zu fördern. Ein Format hierfür sollen weitere Workshops sein, aber auch eine Mailingliste, über die Erfahrungen mit Software und selbst entwickeltem Code oder fachspezifische Kurationsleitfäden geteilt werden können. Hierzu wurde die Mailingliste “nicht-lateinische Schriften” eingerichtet, die unter dem Link https://lists.fu-berlin.de/listinfo/nicht-lateinische-schriften allen am Netzwerk NLS Interessierten zum Abonnement offen steht.

Als eine weitere Möglichkeit, bestehende Lösungen sichtbar zu machen, ist der Aufbau einer kuratierten Webseite mit digitalen Werkzeugen und Software, die für die Arbeit mit nicht-lateinischen Schriften(weiter-) entwickelt wurden, angedacht.[vii] Eine zentrale Informationsstelle für DH-Werkzeuge und -Anwendungen würde nicht nur neue Forschungsmöglichkeiten sichtbar machen, es würde vor allem den Zeitaufwand, den Projekte bisher in der Planungsphase für Recherche nach möglicher Software und Lösungen für nicht-lateinische Schriften haben, stark reduzieren und Doppelentwicklungen vermeiden.

Es wäre außerdem denkbar, Handreichungen für die Forschungssoftwareentwicklung zu formulieren, in denen die speziellen technischen Herausforderungen, die im Zusammenhang mit nicht-lateinischen Schriften beachtet werden müssen, erläutert werden. Diese könnten durch generisch nachnutzbare Lösungen (wie z.B. Code-Segmente) ergänzt werden.

Solche Werkzeugsammlungen und Handreichungen könnten von den jeweiligen fachspezifischen Netzwerken im NLS-Netzwerk erarbeitet und von Institutionen, Fachgesellschaften und Fachinformationsdienste – z. B. auf den Portalen der beteiligten FIDs CrossAsia oder Nahost-, Nordafrika- und Islamstudien – verbreitet werden.

Schließlich sei eine Diskussion in den Fachgesellschaften über die Anerkennung der Produktion und Publikation von Software, Erweiterungen, Metadatenschemata, Mapping-Tabellen usw. als wissenschaftliche Leistung wünschenswert.

Aus dem Workshop gingen zwei Arbeitsgruppen hervor, von denen eine sich mit der Formulierung einer Vorlage für Positionspapiere von Fachgesellschaften befasst und die andere einen gemeinsamen Projektantrag im Rahmen der neuen Ausschreibung des BMBF,  Förderlinie zur “Förderung von Forschungsvorhaben zur Entwicklung und Erprobung von Kurationskriterien und Qualitätsstandards von Forschungsdaten im Zuge des digitalen Wandels im deutschen Wissenschaftssystem”, erarbeitet hat.

Als nächste Schritte sind ein weiterer Workshop im Frühsommer 2019 und ein Themenheft “Digital Humanities/ Forschungsdatenmanagement und nicht-lateinische Schriften” bei der Open Access Zeitschrift 027.7 Zeitschrift für Bibliothekskultur geplant.

Workshop-Leitung: Martin Lee

(Co-)Moderator/innen: Esther Asef, Dr. Andreas Gräff, Dr. Cosima Wagner

 

Kontakt für Interessierte am Netzwerk NLS:

Freie Universität Berlin

Campusbibliothek

E-Mail: fdm@campusbib.fu-berlin.de

Web: https://www.fu-berlin.de/sites/campusbib/bibliothek/Forschungsdatenmanagement

 

Mailingliste “nicht-lateinische Schriften”: https://lists.fu-berlin.de/listinfo/nicht-lateinische-schriften

 

Vertretene Sprachen/ Schriften (Stand: Juli 2018):

  • Akkadisch
  • Altägyptisch (alle Sprachstufen ohne Koptisch)
    • Hieratisch
    • Abnorm- oder Kursivhieratisch
    • Kursivhieroglyphen
    • Hieroglyphen
  • Arabisch
  • Bengali
  • Chinesisch (hant / traditional und hans / simplified)
  • Deutsch
  • Englisch
  • Französisch
  • Hattisch
  • Hebräisch
  • Hethitisch
  • Hindi
  • Hurritisch
  • Japanisch
  • Jiddisch
  • Koreanisch
  • Luwisch
  • Mandschu
  • /chem. Sonderzeichen
  • Nepali
  • Palaisch
  • Persisch
  • Russisch
  • Sanskrit
  • Turksprachen

Endnoten:

[i] Für einen Überblick zu vorliegenden FDM-Positionspapieren aus geisteswissenschaftlichen Fächern siehe https://forschungsinfrastrukturen.de/doku.php/positionspapiere

[ii] Förderkennzeichen: 16FDM022. Laufzeit: 1. April 2017 bis 30. September 2018. Fördermaßnahme „Erforschung des Managements von Forschungsdaten in ihrem Lebenszyklus an Hochschulen und außeruniversitären Forschungseinrichtungen“ https://www.bmbf.de/foerderungen/bekanntmachung-1233.html

Projektseite auf der Webseite der Campusbibliothek: https://www.fu-berlin.de/sites/campusbib/bibliothek/Forschungsdatenmanagement/16fdm022.html

[iii] Herkunftsorte der Teilnehmenden: Berlin, Essen, Erlangen, Frankfurt/Main, Halle, Hamburg, Heidelberg, Leipzig, Mainz, Potsdam, Tübingen, Würzburg.

[iv] Für eine kritische Analyse des Begriffs “Forschungsdaten” aus Sicht der Geisteswissenschaften siehe Fabian Cremer, Lisa Klaffki, & Timo Steyer (2018). Der Chimäre auf der Spur: Forschungsdaten in den Geisteswissenschaften. O-Bib. Das Offene Bibliotheksjournal / Herausgegeben Vom VDB, 5(2), 142-162 https://doi.org/10.5282/o-bib/2018H2S142-162

[v] Deutsche Forschungsgemeinschaft (2013): Sicherung guter wissenschaftlicher Praxis. Online verfügbar unter http://www.dfg.de/download/pdf/dfg_im_profil/reden_stellungnahmen/download/empfehlung_wiss_praxis_1310.pdf, zuletzt geprüft am 02.08.2018.

[vi] Siehe: DHd AG Datenzentren. Geisteswissenschaftliche Datenzentren im deutschsprachigen Raum – Grundsatzpapier zur Sicherung der langfristigen Verfügbarkeit von Forschungsdaten (Version 1.0). Zenodo, 03. 02. 2018. Link: http://doi.org/10.5281/zenodo.1134760

[vii] Eine beispielhafte Sammlung ist auf der Webseite der Campusbibliothek an der Freien Universität Berlin einsehbar: https://www.fu-berlin.de/sites/campusbib/bibliothek/Forschungsdatenmanagement/tools-os/index.html

DH-Kolloquium an der BBAW, 2.11.2018: Elli Bleeker: „Addressing Ancient Promises: Text Modelling and Alexandria“

Mi, 10/24/2018 - 07:35

Im Rahmen des DH-Kolloquiums an der BBAW möchten wir Sie herzlich zum nächsten Termin am Freitag, den 2. November 2018, 17 Uhr s.t. bis 19 Uhr (Konferenzraum 1), einladen:

Elli Bleeker (Research and Development – Humanities Cluster, Royal Dutch Academy of Arts and Sciences)
„Addressing Ancient Promises: Text Modelling and Alexandria“

The computer has come to play a transformative role in the ways we model, store, process and study text. Nevertheless, we cannot yet claim to have realised the promises of the digital medium: the organisation and dissemination of scholarly knowledge through the exchange, reuse and enrichment of data sets. Despite the acclaimed interdisciplinary nature of digital humanities, current digital research takes place in a closed environment and rarely surpasses the traditional boundaries of a field. Furthermore, it is worthwhile to continue questioning the models we use and whether they are actually suitable for our scholarly needs. There’s a risk that the affordances and limitations of a prevailing model may blind us to aspects it doesn’t support.

In her talk, Elli Bleeker discusses different technologies to model data with respect to their expressive power and their potential to address the needs of the scholarly community. Within this framework, she introduces a new data model for text, Text-As-Graph (TAG), and it’s reference implementation _Alexandria_, a text repository system. The TAG model allows researchers to store, query, and analyse text that is encoded from different perspectives. _Alexandria_ thus stimulates new ways of looking at textual objects, facilitates the exchange of information across disciplines, and secures textual knowledge for future endeavours. From a philosophical perspective, the TAG model and the workflow of _Alexandria_ raise compelling questions about our notions of textuality, and prompt us to reconsider how we can best model the variety of textual dimensions.

***

Im DH-Kolloquium an der BBAW werden aktuelle Themen der Digital Humanities praxisnah und anwendungsorientiert zur Diskussion gebracht, um Wissenschaftlerinnen und Wissenschaftler beim Einsatz digitaler Methoden in der geisteswissenschaftlichen Forschung zu unterstützen. Weitere Informationen finden Sie auf der Website der BBAW oder des if|DH|Berlin.

Die Veranstaltung findet im Konferenzraum 1 (1. Stock) der Berlin Brandenburgischen Akademie der Wissenschaften, Jägerstr. 22/23, 10117 Berlin statt.

Da die Teilnehmerzahl begrenzt ist, möchten wir Sie um Anmeldung per E-Mail unter DH-Kolloquium@bbaw.de bitten.

 

 

Projektmitarbeiterin/Projektmitarbeiter Entwicklung von Fachthesauri TIB Hannover

Di, 10/23/2018 - 10:04

via Martin Mehlberg, TIB Hannover

Als Deutsche Zentrale Fachbibliothek für Technik und Naturwissenschaften sichern wir mit unseren zukunftsweisenden Dienstleistungen die infrastrukturellen Voraussetzungen einer qualitativ hochwertigen Informations- und Literaturversorgung für Forschung in Wissenschaft und Industrie. Unsere Dienstleistungen als Universitätsbibliothek sichern die lokale Versorgung für die Leibniz Universität Hannover.

Die Technische Informationsbibliothek (TIB) – Leibniz-Informationszentrum Technik und Naturwissenschaften und Universitätsbibliothek Hannover befasst sich im Rahmen verschiedener Projekte unter anderem mit der Modellierung, Pflege und Integration fachspezifischer Vokabulare und Ontologien. Zusammen mit der Sächsischen Landesbibliothek – Staats- und Universitätsbibliothek Dresden wird aktuell z. B. ein von der Deutschen Forschungsgemeinschaft (DFG) geförderter Fachinformationsdienst im Bereich Mobilität und Verkehr aufgebaut, der einen Schwerpunkt auf die semantische Ausweitung des Suchraums durch Mapping von Fachvokabularen legt.

Für diesen Aufgabenbereich ist in der TIB, Programmbereich A, Bestandsentwicklung und Metadaten zum 01.01.2019 die Stelle einer / eines

Projektmitarbeiterin/Projektmitarbeiters Entwicklung von Fachthesauri (E 13 TV-L)

zu besetzen. Die Stelle ist zunächst auf zwei Jahre befristet, eine Weiterbeschäftigung wird angestrebt. Die reguläre Wochenarbeitszeit beträgt 39,8 Stunden (Vollzeit). Der Arbeitsplatz ist nur bedingt teilzeitgeeignet.

Aufgaben

  • Evaluierung relevanter Fachvokabulare und –thesauri
  • Evaluierung von Software-Tools zum Thesaurus-Matching
  • Durchführung und Auswertung von Daten-Matchings
  • Rückführung der Ergebnisse in die Gemeinsame Normdatei (GND)
  • Konzipierung einer Rechercheunterstützung durch Semantic-Web-fähige Thesauri für die Verkehrswissenschaften im Rahmen des Fachinformationsdienstes Mobilitäts- und Verkehrsforschung sowie weitere Fachgebiete
  • Konzipierung und Durchführung von zielgruppenspezifischen Ergebnispräsentationen in verkehrswissenschaftlichen Forschungseinrichtungen sowie Instituten

Anforderungen

  • abgeschlossenes wissenschaftliches Hochschulstudium (Master oder gleichwertiger Abschluss) in Computerlinguistik, Sprachwissenschaften, Informationswissenschaft oder verwandten Fachgebieten
  • Kenntnisse zu Information Retrieval, Wissensorganisationssystemen (KOS) und Semantic Web
  • selbstständige und strukturierte Arbeitsweise
  • ausgeprägte Kommunikations- und Kooperationsfähigkeit
  • sehr gute Englischkenntnisse

Interessentinnen und Interessenten können sich bei Frau Dr. Saemann telefonisch unter 0511 762-5295 oder per E-Mail unter hedda.saemann@tib.eu sowie bei Herrn Dr. Mehlberg telefonisch unter 0511 762-14231 oder per E-Mail unter martin.mehlberg@tib.eu näher über das jeweilige Arbeitsgebiet informieren.

Die TIB ist eine Stiftung öffentlichen Rechts des Landes Niedersachsen. Mit rund 500 Beschäftigten und einem Etat von circa 40 Millionen Euro ist sie eine der größten Informationsinfrastruktureinrichtungen in Deutschland.

Wir bieten Ihnen die Chance, in einem höchst dynamischen Umfeld zu arbeiten. Ein rasanter Anstieg wissenschaftlicher digitaler Information, die zunehmende Vielfalt von produzierten Medientypen und -formaten sowie die wachsenden Anforderungen und Bedarfe unserer Kundinnen und Kunden erfordern innovative Informationsdienste. Die TIB begegnet den neuen Anforderungen beispielsweise mit eigenen Forschungs- und Entwicklungsprojekten in internationalem Kontext, mit neuartigen Publikationsdiensten und der Förderung von wissenschaftlichen Kommunikationsprozessen. Damit tragen wir zur Weiterentwicklung einer modernen Gesellschaft bei, die auf Information und Wissen, Innovationen und Kreativität basiert.

Die TIB sorgt für optimale Arbeitsbedingungen, stellt Chancengleichheit sicher und baut Maßnahmen zur Vereinbarkeit von Beruf und Familie kontinuierlich aus. Bewerbungen von Menschen mit Schwerbehinderung werden bei gleicher Qualifikation bevorzugt berücksichtigt.

Wir freuen uns auf Ihre Bewerbung. Bitte geben Sie im Betreff Ihrer Bewerbung an, über welche Stellenbörse Sie auf unser Angebot aufmerksam geworden sind.

Senden Sie Ihre Bewerbungsunterlagen bitte unter Angabe der Ausschreibungsnummer 52/2018 bis zum 16.11.2018 an die

Technische Informationsbibliothek (TIB)
Personalservice
Herrn Daniel Eilers
Welfengarten 1 B
30167 Hannover

oder als PDF-Datei an bewerbung@tib.eu. Bei einer Bewerbung in digitalisierter Form bitten wir um Übersendung einer einzigen PDF-Datei.

Wir weisen darauf hin, dass Bewerbungsunterlagen grundsätzlich nicht zurückgesandt werden.

Diese Stellenausschreibung als PDF ansehen.

Vorstellung der DARIAH DH-Award-PreisträgerInnen 2018: quoteSalute

Mo, 10/22/2018 - 15:19

Mit einem DARIAH-DE DH-Award wurde dieses Jahr die Gruppe quoteSalute ausgezeichnet. Der DARIAH-DE DH-AWARD fördert NachwuchswissenschaftlerInnen, die in ihren Forschungsvorhaben innovative digitale Ansätze und Methoden einsetzen und so einen Beitrag zur Weiterentwicklung der Digital Humanities leisten. Im DHd-Blog stellen wir PreisträgerInnen und Projekte in den nächsten Wochen vor.

Foto: Dennis Aquila Beckmann

Worum geht es in Ihrem Projekt?

quoteSalute aggregiert Grußformeln aus verschiedenen frei verfügbaren digitalen Briefeditionen und stellt diese über eine Webseite bereit, von wo aus sie per Knopfdruck in eine E-Mail kopiert werden können. So können inspirierende Grußformeln von historisch interessanten Persönlichkeiten, wie zum Beispiel von Alexander von Humboldt, Fanny Lewald und Jean Paul, ganz einfach für die eigene Korrespondenz genutzt werden. Mit quoteSalutewird daher die editorische Arbeit an digitalen Briefeditionen über den wissenschaftlichen Diskurs hinaus spielerisch in den Alltagskontext des E-Mail-Schreibens integrierbar. Damit wollen wir auch die öffentliche Präsenz von digitalen Briefeditionen fördern. Außerdem möchten wir interessierte Editionsvorhaben dazu einladen, selbst Datensätze für quoteSalute beizusteuern. Daten, Code und Dokumentation stehen über ein GitHub-Repositorium unter freien Lizenzen bereit.

Mit welchen Materialien und Daten arbeiten Sie?

Wir arbeiten mit einem Korpus aus Grußformeln, die aus TEI-XML‑kodierten digitalen Briefeditionen extrahiert wurden. Dieses Korpus wird in einem manuellen Kuratierungsprozess von unpassenden Inhalten bereinigt und mit semantischer Information angereichert, sodass eine spätere Filterung in der Webanwendung nach beispielsweise Geschlecht von Empfänger*in und Absender*in, oder die Unterscheidung zwischen formell bzw. informell formulierten Grußformeln, ermöglicht wird.

Gibt es Methoden, Theorien und Tools, welche für diese Aufgabe besonders interessant sind?

Voraussetzung  für die Realisierung des Projektes ist zum einen, dass digitalen Briefeditionen ihre Daten unter freien Lizenzen zur Verfügung stellen. Zum anderen müssen diese Daten für den Extraktionsprozess der Grußformeln in TEI-XML kodiert sein, und zwar mit den in der TEI vorgesehenen briefspezifischen Elementen <salute> und/oder <closer>.  Sind diese beiden Voraussetzungen erfüllt, können wir Briefe aus verschiedenen Editionen beziehen und die Grußformeln einheitlich und automatisiert extrahieren.

Aus rein technischer Perspektive war außerdem bei der  Programmierung der Website die Verwendung des Frontend-Frameworks vue.js besonders hilfreich, da dadurch das dynamisch Laden von Inhalten ermöglicht wird, ohne dass die gesamte Seite neu geladen werden muss.

Wie haben Sie begonnen, sich mit digitalen Geisteswissenschaften zu beschäftigen?

Wir alle drei sind studentische Hilfskräfte bei der TELOTA-Initiative an der Berlin-Brandenburgischen Akademie der Wissenschaften und haben ganz unterschiedliche Zugänge zu den DH. Lou studiert europäische Ethnologie und entdeckte ihr Interesse für digitale Geisteswissenschaften über einen Kurs zu Webentwicklung an der Universität. Als studentische Hilfskraft im Projekt “Jean Paul – Sämtliche Briefe digital” vertiefte sie dieses Interesse und entdeckte bei der Arbeit mit der Korrespondenz, dass historische Grußformeln eine Bereicherung für heutige Kommunikation darstellen könnten. Luisa und Marvin studieren Medieninformatik und haben daher bereits technische Fertigkeiten während des Studiums erworben, die sie nun bei der TELOTA-Initiative einbringen.

Welche Angebote der digitalen Geisteswissenschaften fänden Sie für Ihre Forschungsprojekte in Zukunft besonders hilfreich?

Grundsätzlich würden wir uns wünschen, dass noch mehr digitale Briefeditionen neben dem freien Zugang zur Web-Edition, auch Zugang zu den Daten bieten und sie mit freien Lizenzen versehen. Derzeit gibt es sehr viele Briefeditionen im WWW, nur wenige stellen jedoch die zugrunde liegenden Daten zur Verfügung. Für die Zukunft wünschen wir uns also, dass sich die Mit-Veröffentlichung von Daten als best-practice im Feld der digitalen Briefeditionen etabliert, damit wir den Datenbestand von quoteSalute kontinuierlich erweitern können.

 

Lou Klappenbach studiert Europäische Ethnologie (M.A.) an der Humboldt-Universität zu Berlin. Bei TELOTA arbeitet sie als studentische Hilfskraft seit Januar 2017, vorrangig im Bereich Datenmodellierung und Webentwicklung.

Marvin Kullick studiert seit 2014 Medieninformatik (B.Sc.) an der Beuth-Hochschule für Technik. Seit Mitte Januar arbeitet er bei TELOTA als studentische Hilfskraft, vorrangig im Bereich Wartung und Webentwicklung.

Luisa Philippstudiert seit 2014 Medieninformatik (B.Sc.) an der Beuth-Hochschule für Technik. Sie schloss 2017 ein dreimonatiges Praktikum bei TELOTA ab und arbeitet dort seit Januar 2018 als studentische Hilfskraft vorrangig im Bereich Webentwicklung.

Weitere Informationen:

DARIAH-DE unterstützt mit digitalen Ressourcen und Methoden arbeitende Geistes- und KulturwissenschaftlerInnen in Forschung und Lehre. Dafür baut das Projekt eine digitale Forschungsinfrastruktur für Werkzeuge und Forschungsdaten auf und entwickelt Materialien für Lehre und Weiterbildung im Bereich der Digital Humanities (DH). DARIAH-DE ist der deutsche Beitrag von DARIAH-EU und arbeitet in diesem Kontext mit einer Vielzahl von europäischen Partnern und Projektverbündeten zusammen.

BBAW sucht eine/n wissenschaftliche/n Mitarbeiter/in „Dissemination“ (100%, TV-L E 13)

So, 10/21/2018 - 22:33

Im Zentrum Sprache der Berlin-Brandenburgischen Akademie der Wissenschaften sucht das „Zentrum für digitale Lexikographie“ zum 1. Januar 2019 eine/n Mitarbeiter/in für die Dissemination von Projektergebnissen und den Betrieb eines Helpdesks.

Weitere Informationen zum „Zentrum für digitale Lexikographie“ und zu der ausgeschriebenen Stelle finden Sie unter https://www.dwds.de/stellenausschreibungen.

Bewerbungsfrist ist der 2. November 2018.

correspSearch: Neue Tools, neue Daten – und eine Auszeichnung

Fr, 10/19/2018 - 14:20

Briefeditonen vernetzen – das geht nun noch leichter mit den neuen Tools von correspSearch: Das Javascript-Widget csLink vernetzt Briefeditionen auf ganz neue Art und Weise untereinander. Mit Hilfe des umfassend überarbeiteten CMIF Creator 2 lassen sich digitale Briefverzeichnisse gedruckter Editionen einfach und schnell erstellen. Und auch sonst hat sich bei correspSearch wieder einiges getan.

csLink: Erweiterten Korrespondenzkontext anzeigen

Screenshot der edition humboldt digital mit eingebautem Javascript-Widget csLink (oben rechts)

Das JavaScript-Widget csLink weist zu einem edierten Brief in der eigenen digitalen Edition auf zeitlich benachbarte Briefe der Korrespondenzpartner aus anderen Editionen hin. Dabei fragt das Widget automatisiert die correspSearch API auf Briefe aus demselben Zeitraum mit demselben Absender oder Empfänger ab. Letzteres geschieht unter Angabe einer Normdaten-ID, wie z.B. GND oder VIAF. Das Widget lässt sich konfigurieren, etwa wie groß der abgefragte Zeitraum sein soll oder wie viele Briefe maximal angezeigt werden sollen. Interessierte können sich  in der edition humboldt digital ein Bild von der Funktionsweise machen (z.B. beim Brief an Soemmerring vom 5.12.1793, Link “Briefnetz erkunden” oben rechts). Als Javascript-Widget und auf dem HMTL/CSS-Framework Bootstrap basierend lässt sich csLink mit wenigen Handgriffen in jede digitale Edition integrieren. Es steht frei lizenziert (LGPL) auf https://github.com/correspSearch zum Download und Nachnutzung zur Verfügung.

CMIF Creator 2: Digitale Briefverzeichnisse erstellen

Der CMIF Creator ermöglicht das bequeme, formularbasierte Erstellen von digitalen Briefverzeichnissen gedruckter Editionen im „Corresponence Metadata Interchange Format“ (CMIF) – auch ohne technische Kenntnisse. Der CMIF Creator liegt nun in einer komplett überarbeiteten Version 2 vor. Neben vielen kleineren Verbesserungen in der Oberfläche und einer optimierten Performance, wurden auch zwei größere Features neu hinzugefügt: Zum einen ist es nun möglich, direkt im Formular die zu einer Person oder Körperschaft passende ID aus der Gemeinsamen Normdatei auszuwählen. Hierbei greift der CMIF Creator 2 auf die von lobid.org bereitgestellte GND-API zurück. Zum anderen validiert der CMIF Creator 2 nun die Eingaben und gibt sowohl während der Eingabe als auch beim Speichern detaillierte Informationen zu Fehlern. Der CMIF Creator steht auf https://correspsearch.net/ zur sofortigen Verwendung bereit; dort findet sich auch eine ausführliche Schritt-für-Schritt-Anleitung.

Neue Daten

Neben den neuen Werkzeugen sind in den letzten Monaten auch viele neue Briefmetadaten von verschiedenen Editionsvorhaben und Institutionen als CMIF bereitgestellt und in correspSearch aggregiert worden: so z.B. die digitale Edition der Korrespondenz August Wilhelm Schlegels, die Briefe von Jean Paul oder Briefe aus der digitalen Quellenedition “DER STURM” – um nur einige zu nennen. Ganz neu hinzugekommen ist auch die Korrespondenz der norwegischen Schriftstellerin Camilla Collet zwischen 1841 und 1851. Das CMIF dieser Briefedition ist die erste Lieferung des Projekts “Norske Korrespondanser – Norwegian Correspondences” (NorKorr) das kürzlich an der Norwegischen Nationalbibliothek von Annika Rockenberger initiiert wurde und zum Ziel hat, norwegische Korrespondenzen zu erschließen.

Mittlerweile sind im Webservice über 44.500 edierte Briefe nachgewiesen. Der Webservice ist auf digitale Briefverzeichnisse angewiesen, daher sind neue Metadaten aus digitalen oder gedruckten Briefeditionen herzlich willkommen.

Last but not least: eine Auszeichnung

Auf der Konferenz der Text Encoding Initiative (TEI) in Tokio wurde im September der  Projektverbund von correspDesc, CMIF und correspSearch mit dem „Rahtz Prize for TEI Ingenuity 2018“ ausgezeichnet. Dieser wird – in Erinnerung an das TEI-Mitglied Sebastian Rahtz (1955–2016) – vom Konsortium der TEI verliehen und zeichnet Einzelpersonen oder Gruppen aus, die durch nichtkommerzielle und öffentlich zugängliche Projekte und Initiativen einen bedeutenden Beitrag zur TEI leisten.

Aus der Begründung der Jury: “Given the significance of letters as important historical sources for many disciplines, the work on correspDesc, CMIF & correspSearch has over the last couple of years contributed significantly to pushing forward the TEI regarding the encoding of letters, but also digital scholarly editing of primary sources in general. The project follows an open, standards-based, TEI-aware web development strategy, provides excellent documentation and has great potential for use in cultural heritage institutions, especially those with limited resources to spare on detailed descriptions of their primary sources.”

Das Projekt correspSearch freut sich – zusammen mit seinen Partnern – sehr über diese Auszeichnung!

Bildnachweis zum Teaserbild dieses Beitrags: „Sorting Mail in Front Royal“. USMC Archives, Quantico. CC BY 2.0 https://www.flickr.com/photos/usmcarchives/9524920862

Bericht: Workshop „Text Reuse und distributionelle Semantik“

Di, 10/16/2018 - 14:42

Am 16. Und 17. Juli 2018 fand im Kloster Jakobsberg bei Mainz ein Methodenworkshop zum Thema Text Reuse und distributionelle Semantik statt. Am Methodenworkshop nahmen Studierende des Masterstudiengangs „Digitale Methodik in den Geistes- und Kultuwissenschaften“ der Johannes Gutenberg-Universität Mainz, teil, um ihr Wissen im Bereich der NLP zu vertiefen. Der Schwerpunkt des 1,5-tägigen Workshops lag auf dem Ausprobieren und Vergleichen zweier textanalytischen Werkzeuge: TRACER (https://www.etrap.eu/research/tracer/) und DARIAH-DE Topics Explorer (https://dariah-de.github.io/TopicsExplorer/). TRACER ist ein textanalytisches Programm, entwickelt von Marco Büchler innerhalb des eTRAP-Projekts, das es ermöglicht die Verwendung von (auch paraphrasierten) Textpassagen/Sätzen in fremden Texten festzustellen. Das Programm Topics Explorer, das an der Universität Würzburg, Lehrstuhl für Computherphilogie im Rahmen des DARIAH-DE-Projekts entwickelt wurde, ist in der Lage die Themen innerhalb großer Textsammlungen zu bestimmen.

Studierende bereiteten im Voraus eigene Datensätze und dazu passende Fragestellungen vor, mit denen sie an die digitalen Werkzeuge herantraten. Wichtig war dabei, den vollständigen Prozess –angefangen von der Datenvorbereitung bis zur Anwendung der Programme – selbständig in Gruppen durchzuführen und abschließend in Kurzvorträgen vorzustellen.

Die Themen Text Reuse, Zipfisches Gesetz und das Funktionieren des Programms TRACER wurden von Marco Büchler vorgestellt und erläutert . Nach dem Installieren des Programms, der Überprüfung der aktuellen Java–Versions und der Normalisierung der Daten konnten Studierende eigene Analysen durchführen. Die sehr heterogenen Datengrundlagen reichten von modernen Song- bis zu Bibeltexten und so war es wichtig für jede Gruppe zu verstehen welche Einstellungen der Parameter die Textreuse Ergebnisse beeinflussen.

Steffen Pielström, Michael Huber und Stefan Krywinski stellten das Thema Topic Modeling und das dazugehörige Tool DARIAH-DE Topics Explorer vor. Der Topics Explorer ist ein Textmining Programm, das vorgegebene Anzahl der Themen innerhalb eines Textkorpus bestimmen kann. Auch beim Topics Explorer konnten Studierende die Stufen von der Datenvorbereitung hin zur Modellerstellung durchgehen und sich Visualisierungen der Themen in jeweiligen Textkorpora anzeigen lassen. In abschließenden Diskussionen wurde auch das Thema Tool Kritik angesprochen und die Stärken und Schwächen beider Verfahren abgewogen.

Vorstellung der DARIAH DH-Award-PreisträgerInnen 2018: Linda Brandt

Mo, 10/15/2018 - 09:02

Mit einem DARIAH-DE DH-Award wurde dieses Jahr Linda Brandt ausgezeichnet. Der DARIAH-DE DH-AWARD fördert NachwuchswissenschaftlerInnen, die in ihren Forschungsvorhaben innovative digitale Ansätze und Methoden einsetzen und so einen Beitrag zur Weiterentwicklung der Digital Humanities leisten. Im DHd-Blog stellen wir PreisträgerInnen und Projekte in den nächsten Wochen vor.

Quelle: privat

Linda Brandt begann nach ihrem Abitur zunächst ein Praktikum bei einem Zeitungsverlag in ihrer Heimatstadt und arbeitete später für diesen auf freier Basis redaktionell. Danach machte sie eine Ausbildung als PR-Diplom-Kauffrau in Düsseldorf und arbeitete für verschiedene Agenturen in Köln und Hamburg. Im Anschluss daran entschied sie sich an die Universität Göttingen zu gehen, um dort im Bachelor Deutsche Philologie und Geschichte zu studieren. Seit Februar 2018 ist sie Masterstudentin an der Universität Basel für „Sprache und Kommunikation“.

Worum geht es in Ihrer Arbeit?

In Zusammenarbeit mit der Informatik und hier mit Georg Roth-Kleyer haben wir Daten aus dem deutschen Psychologieforum erhoben, um mit dem sprachanalytischen Tool LIWC Indikatoren für Depressionen und deren Reliabilität zu finden. Unsere gewonnenen Kerndaten des Forums bestehen aus insgesamt 368.746 Beiträgen, wobei sich für die empirische Analyse der Arbeit auf den Thread Depressionen des Psychologieforums beschränkt werden musste, um das Verfahren LIWC anzuwenden.

Das Ziel der vorliegenden Bachelorarbeit war es, die wichtigsten linguistischen Konzepte (Demjén 2011/2014 und Pennebaker 2011/2014) zum Sprachgebrauch von psychischen Erkrankungen theoretisch einzuordnen und empirisch zu überprüfen. Wir möchten wissen: Welche sprachlichen Indikatoren gibt es für Depressionen? Ergänzend hierzu war es interessant zu beobachten, wer diese Foren nutzt, dort interagiert und was genau der sprachliche Inhalt der User ist. Die Ergebnisse bestätigen überwiegend die Annahmen von Pennebaker und Demjén. Es konnten Assoziationen zwischen dem Gebrauch von Pronomen und Depressionserkrankten teilweise bestätigt werden. Mithilfe der absoluten Worthäufigkeit konnte festgestellt werden, dass Funktionswörter („functions“) und Pronomen („pronouns“) sowie Personalpronomen („ppron“) häufiger vorkommen als alle anderen Wörter. Auch die 1. Person Plural („I“) kann einige Nennungen verzeichnen. Wie immer in den Wissenschaften sind Ergebnisse wie die mit einer gewissen Vor- und Umsicht zu betrachten.

Gibt es Methoden, Theorien und Tools, welche für diese Aufgabe besonders interessant sind?

Besonders interessante Methoden für diese Aufgabe ist die Sentimentanalyse, welche eine automatische Auswertung von Texten verfolgt mit dem Ziel, die Texte in positive oder negative Aussagen zu einzuteilen. Zumeist wird diese Forschung anhand von englischen Texten unternommen. Für eine solche Kategorisierung ist das Programm LIWC konzipiert, welches von dem amerikanischen Psychologen James W. Pennebaker und seinem Team entwickelt wurde.

LIWC kann Wörter in mehr als 80 Stimmungskategorien klassifizieren, welche zuvor von Psychologen in aufwändigen Testverfahren in positive und negative Wortlisten eingestuft wurden. Die deutsche Version hat der in Zürich ansässige Psychologe Markus Wolf entwickelt, der auch in das Projekt involviert ist. Daher sind außer den Arbeiten von James W. Pennebakers auch die von Markus Wolf und nicht zuletzt auch die von der Linguistin Zsofia Demjén für meine Arbeit von Bedeutung. Demjén arbeitet im Bereich der Medical Humanities, welches besonders im angelsächsischen Raum vertreten ist.

Darüber hinaus ist Machine Learning ein vielversprechendes Verfahren, um zum Beispiel einzelne, sehr aktive User über einen längeren Zeitraum zu betrachten. Daraus könnte ersichtlich werden, inwiefern sich dessen Sprache verändert. Ebenso interessant sind statistische Matchingverfahren, um über jede Variable Mittelwerte zu errechnen. Aber da sind wir noch in den Anfängen.

Wie haben Sie begonnen, sich mit digitalen Geisteswissenschaften zu beschäftigen?

Mein erster Kontakt mit den digitalen Geisteswissenschaften habe ich in einem frühen Stadium meines Bachelorstudiums erhalten. Ich war im dritten Semester und begann als Hilfskraft bei der jungen Forschungsgruppe eTRAP von Marco Büchler zu arbeiten. Gemeinsam haben wir insbesondere an dem Projekt „Brother Grimm“ gearbeitet. Anknüpfend an dieser Tätigkeit begann ich mich für Kurse im Bereich der digitalen Geisteswissenschaften an der Universität Göttingen zu interessieren und so wuchs auch mein Forschungsinteresse daran kontinuierlich. Danach habe ich gemeinsam mit der Literaturwissenschaftlerin Simone Winko an ihrem Lyrik Projekt „Emotionen in Lyrik-Anthologien um 1900“ gearbeitet. Für meinen Master bin ich an die Universität Basel gewechselt, weil es für ein solches Interesse dort ein besseres Angebot für mich gibt.

Welche Angebote der digitalen Geisteswissenschaften fänden Sie für Ihre Forschungsprojekte in Zukunft besonders hilfreich?

Ich glaube, dass es vor allem darum geht, sich besser untereinander zu vernetzten, sodass verschiedene Fachrichtungen zusammenarbeiten können. In meiner Vorstellung wären gemeinsame „Working Spaces“ an Universitäten eine ideale Basis, um sich austauschen zu können. Es wäre zudem hilfreich, wenn es an den Universitäten ein breiter aufgestelltes Lehrangebot seitens der Digital Humanities gibt. Vor allem fehlen Kurse für die Erlernung von (statistischen) Methoden, um digitale Projekte verwirklichen zu können. Auch wäre es großartig, wenn es unter (digitalen) StundentInnen eine bessere Vernetzung gäbe, sodass wir uns gegenseitig bei (technischen) Schwierigkeiten unterstützen können. Eine tolle Gelegenheit um solche Kontakte zu knüpfen ist beispielsweise die internationale Summer School in Leipzig, die es uns ermöglicht Menschen mit ähnlichen Interessen zu treffen und gemeinsam Neues zu lernen.

 

DARIAH-DE unterstützt mit digitalen Ressourcen und Methoden arbeitende Geistes- und KulturwissenschaftlerInnen in Forschung und Lehre. Dafür baut das Projekt eine digitale Forschungsinfrastruktur für Werkzeuge und Forschungsdaten auf und entwickelt Materialien für Lehre und Weiterbildung im Bereich der Digital Humanities (DH). DARIAH-DE ist der deutsche Beitrag von DARIAH-EU und arbeitet in diesem Kontext mit einer Vielzahl von europäischen Partnern und Projektverbündeten zusammen.

Postdoc-Stelle als wissenschaftliche/r Mitarbeiter/in für digitale historische Forschung am IEG Mainz

Fr, 10/12/2018 - 08:45

via Karin Droste, Leibniz-Institut für Europäische Geschichte Mainz

Das Leibniz-Institut für Europäische Geschichte (IEG) in Mainz ist ein außeruniversitäres Forschungsinstitut in der Leibniz-Gemeinschaft. Es betreibt Forschungen zu den religiösen, politischen, sozialen und kulturellen Grundlagen Europas in der Neuzeit und unterhält ein internationales Stipendienprogramm (http://www.ieg-mainz.de). Als Mitglied des Mainzer Zentrums für Digitalität in den Geistes- und Kulturwissenschaften (mainzed) setzt sich das IEG für Open-Access-Publikationen ein und beteiligt sich am Aufbau digitaler Forschungsinfrastrukturen. Für sein Digital Humanities Lab besetzt das IEG zum 1. Januar 2019 auf fünf Jahre befristet

1 Postdoc-Stelle als wissenschaftliche/r Mitarbeiter/in für digitale historische Forschung (100% TV-L EG 13).

Stellenprofil

  1. Der/die Stelleninhaber/in führt ein eigenes Forschungsprojekt durch, das eine Fragestellung des Forschungsprogramms des IEG zum »Umgang mit Differenz im Europa der Neuzeit« (https://tinyurl.com/yakktn2f) mit Methoden der Digital Humanities modellhaft bearbeitet.
  2. Mit seinem/ihrem Forschungsprojekt bringt sich der/die Stelleninhaber/in in einen der drei Forschungsbereiche des IEG ein und unterstützt die Forschenden (der Religionsgeschichte und der Geschichtswissenschaft) bei der Anwendung digitaler Werkzeuge und Verfahren.
  3. Im Digital Humanities Lab des IEG und im mainzed arbeitet der/die Stelleninhaber/in an der kooperativen Weiterentwicklung innovativer Verfahren zur formalen Modellierung geisteswissenschaftlicher Fragen mit und beteiligt sich aktiv am Mainzer Masterstudiengang »Digitale Methodik in den Geistes- und Kulturwissenschaften«.
  4. Der/die Stelleninhaber/in wirkt am Auf- und Ausbau digitaler Forschungsinfrastrukturen in regionalen, nationalen und europäischen Verbünden mit.

Einstellungsvoraussetzungen

  • abgeschlossenes Hochschulstudium der Digital Humanities oder der Informatik mit nachgewiesener geisteswissenschaftlicher (v.a. religionshistorischer oder geschichtswissenschaftlicher) Kompetenz
  • (bis zum Stellenantritt) abgeschlossene Promotion
  • durch Publikationen und Projekterfahrung nachgewiesene DH-Spezialkenntnisse in Natural Language Processing (mit Semantic Web-Technologien) oder Semantic Web-Technologien (mit Netzwerkanalysen) oder Historischen Geoinformationssystemen (GIS)
  • internationale Forschungsorientierung
  • nachgewiesene Kooperations- und Teamfähigkeit
  • gute Deutsch- und Englischkenntnisse, ggf. weitere projektbezogene Sprachkenntnisse

Das Institut fördert die berufliche Gleichstellung von Frauen und Männern und setzt sich für die Vereinbarkeit von Beruf und Familie ein. Deshalb werden Frauen besonders zur Bewerbung aufgefordert.

Die Stelle ist grundsätzlich teilbar. Schwerbehinderte werden bei gleicher Eignung bevorzugt berücksichtigt. Fragen richten Sie bitte an den Forschungskoordinator des IEG, Dr. Joachim Berger (berger@ieg-mainz.de).

Bewerbungen

Ihre Bewerbung (mit CV, Zeugnissen, einer 1-seitigen Projektskizze, Verzeichnis der Publikationen und Programmierleistungen) senden Sie bitte unter Angabe der Kenn.-Nr. WM-DHF-2019 bis zum 31.10.2018 per E-Mail an die Personalabteilung des Leibniz-Instituts für Europäische Geschichte bewerbung@ieg-mainz.de); bitte fassen Sie alle Unterlagen in einem PDF zusammen.

Data Science, Philology and Society

Do, 10/11/2018 - 17:38

Philology has always focused on textual evidence and is positioned to flourish in a world where the analysis of data plays a fundamental role. But if philologists have always been – and pride themselves on being – in some sense “data-driven”, the rise of quantitative methods challenges them to reimagine how they think and which skills they develop. Much of the most promising research over the coming generation will be built upon texts that have been automatically generated from images of writing. Billions and billions of words will be generated this way, making correction impossible. It is essential to understand what one can and cannot do with varying error rates in such texts. But even with traditional resources, such as critical editions, we need quantifiable measures about where, how often and how different versions of a text differ. This talk frames questions about how philology can move forward.

Gregory Ralph Crane is an American classical philologist and computer scientist. He completed his doctorate in classical philology at Harvard University and subsequently worked there as an assistant professor. For his work on Digital Humanities he has received many high-profile awards. In 2013, he was appointed Alexander von Humboldt Professor of Digital Humanities at the Institute of Computer Science at the University of Leipzig.

Der Vortrag findet am 16.10.2018, 18:00-20:00, in Berlin an der Berlin-Brandenburgischen Akademie der Wissenschaften, Einstein-Saal, Jägerstrasse 22/23, 10117 Berlin, statt.

Der Flyer zur Veranstaltung kann hier geladen werden: BBAW_Einladung_DataScience_Crane

Weitere Informationen und Möglichkeiten zur Anmeldung finden Sie hier: http://www.bbaw.de/veranstaltungen/2018/oktober/data-science-phlilology-and-society

BBAW sucht sechs wissenschaftliche Mitarbeiter/innen (100%, TV-L E 13)

Do, 10/11/2018 - 10:34

Im Zentrum Sprache der Berlin-Brandenburgischen Akademie der Wissenschaften suchen das „Digitale Wörterbuch der deutschen Sprache“ und das „Zentrum für digitale Lexikographie“ zum 1. Januar 2019 sechs Mitarbeiter/innen im Bereich der gegenwartssprachlichen Lexikographie des Deutschen.

Weitere Informationen zum „Zentrum für digitale Lexikographie“ und zu den ausgeschriebenen Stellen finden Sie auf der Webseite des „Digitalen Wörterbuchs der deutschen Sprache“ unter https://www.dwds.de/stellenausschreibungen.

Bewerbungsfrist ist der 29. Oktober 2018.

CfP: Wovon sprechen wir, wenn wir von Digitalisierung sprechen? Gehalte und Revisionen zentraler Begriffe des Digitalen

Do, 10/11/2018 - 10:30
  1. Allgemeine Informationen

Im Rahmen der DFG-geförderten Symposienreihe Digitalität in den Geisteswissenschaften findet vom 13. bis 15. Februar 2019 unter der Leitung von Prof. Dr. Martin Huber, Prof. Dr. Sybille Krämer und Prof. Dr. Claus Pias ein Symposium zum Thema „Begriffe“ an der Universität Bayreuth statt. Nach dem ersten Symposium im Mai 2016, das dem Status Quo der Digitalität in den einzelnen Fächern der Geisteswissenschaften gewidmet war (Ergebnisse unter digigeist.hypotheses.org), einem weiteren Workshop zu neuen Forschungsgegenständen und Methoden digitaler Geisteswissenschaften (Ergebnisse unter http://www.zfdg.de), sowie einem Symposium zu Infrastrukturen in den digitalen Geisteswissenschaften, ist nun ein viertes Symposion geplant, das sich in begriffskritischer Arbeit der Erörterung und Revision wichtiger Grundbegriffe des Digitalen sowie zentraler Termini innerhalb der Digitalen Geisteswissenschaften widmet.

Begriffe sind sprachlich benannte Konzepte, die unersetzliche Erkenntniswerkzeuge bilden, die über eine Geschichte verfügen und die sich zugleich – abhängig vom kulturhistorischen Wissensstand – beständig verändern. Die Frage, wie wir die gegenwärtig erlebten Veränderungen in verschiedensten Wissens- und Wissenschafts­bereichen erkennen können, beginnt bei den Begriffen, mit denen wir diese beschreiben und klassifizieren. Das Wortfeld des Digitalen ist besiedelt von Termini, die häufig gebraucht, ebenso häufig jedoch unklar und infolge technologischer Entwicklungen auch ‚in beständiger Bewegung‘ sind. Die infragestehenden Begriffe können grob in zwei Felder eingeteilt werden:

  • Einerseits sind dies Konzepte, die mit digitalen Kulturen grundlegend verbunden sind wie: Algorithmus, digital, Digitalisat, Code, Datum, Big Data, Dokument, Datenbank, Interface, Protokoll, Netzwerk, Maschinelles Lernen etc. Insofern die Geisteswissenschaften immer auch eine Selbstaufklärung der vergangenen, gegenwärtigen und zukünftigen Bedingungen von Kulturen anstreben, ist die kritische Verständigung über diese Begriffe von genereller geisteswissenschaftlicher Bedeutung.
  • Andererseits geht es um Begriffe, die sich auf Methoden, Formate und Praktiken beziehen, die für die Digitalen Geisteswissenschaften von Relevanz sind wie: Annotation, Digitale Modellierung, Markup Languages, Information Retrieval, Korpusbildung, Konkordanz, Semantic Web, Netzwerkanalyse, Text Encoding Initiative, Tagging, Transkription, Visual Analytics, Visual Literacy, Distant Reading, Text Mining oder Audio Mining.

Das Thema der Konferenz ist die kritische Erörterung und Revision bestehender Begriffe sowie der Entwurf und Ausarbeitung neuer Begriffe, die als angemessene Denkzeuge und Erkenntnismittel für die Beschreibung und das Verständnis digitaler Kulturen und ihrer historischen Wurzeln sowie für die Analyse der Forschungspraktiken digitaler Geisteswissenschaften dienen können. Dabei geht es um eine konzeptionelle – dadurch aber keineswegs geschichtsvergessene – Aufarbeitung begrifflicher Relationen zur Beschreibung der digitalen Gegenwart.

Durch die Erörterung einschlägiger Begriffe soll das Thema in drei Hinsichten entfaltet und diskutiert werden:

  1. Dynamiken: Welches sind zentrale Begriffe zur Beschreibung der epistemologischen Dynamiken, die durch Digitalität in den Geisteswissenschaften entstehen?
  2. Genese: Wie verändern sich tradierte Begriffe der Geistes­wissenschaften durch Digitalität und welche älteren Begriffe können erkenntnisfördernd reaktiviert werden?
  3. Konsequenzen: Welche methodologischen und wissenschaftspolitischen Konsequenzen entstehen durch die Wahl und Benutzung bestimmter Begriffe in den – nicht nur digitalen – Geistes­wissenschaften?

 

  1. Bewerbung

Bitte bewerben Sie sich mit einer Skizze Ihres Themenvorschlags in der Länge von max.  400 Wörtern (sowie einem CV) bis zum 10.12.2018 per Mail an digitalitaet.dfg@uni-bayreuth.de.

Der Themenvorschlag sollte sich mit mindestens einem der oben genannten Begriffe  beschäftigen, kann aber gerne weitere Begriffe diskutieren, die grundlegend im Zusammenhang mit den Veränderungen in Forschung und Lehre sind.

 

  1. Kontakt

Für weitere Informationen steht Dr. Julia Menzel gerne zur Verfügung:

Digitalität in den Geisteswissenschaften
Geschäftsstelle
Universität Bayreuth
Lehrstuhl für Neuere deutsche Literaturwissenschaft
Dr. Julia Menzel
GW I, Zi. 0.14
95447 Bayreuth

Tel.: 0921/55-3629
digitalitaet.dfg@uni-bayreuth.de

Bitte beachten Sie auch unsere Website digitalitaet-geisteswissenschaften.de sowie
den Online-Tagungsband zum ersten Symposium digigeist.hypotheses.org und das Sonderheft der Zeitschrift für Digitale Geisteswissenschaft (http://www.zfdg.de), in dem Beiträge der zweiten Veranstaltung publiziert sind.

Programm online: HAASDZ18 Workshop zur Analyse von Alten Schriften im Digitalen Zeitalter

Di, 10/09/2018 - 18:55

Am 29. & 30. Oktober findet in Heidelberg im Rahmen des Maßnahme 5.4. des Zukunftskonzepts der Exzellenzinitiative ein Workshop zu den

Herausforderungen bei der Analyse von Alten Schriften im Digitalen Zeitalter (HAASDZ18)

statt. Die Organisation erfolgt gemeinsam mit Christian M. Prager, Universität Bonn und Svenja A. Gülden, Universität Mainz. Die Anmeldung ist kostenlos und bis 15. Oktober möglich.

Das Programm ist ONLINE:

http://www.uni-heidelberg.de/haasdz18

Seiten