dhd-blog

dhd-blog Feed abonnieren
Digital Humanities im deutschsprachigen Raum
Aktualisiert: vor 1 Stunde 57 Minuten

Ausschreibung einer Stelle als Wissenschaftliche/r Mitarbeiter/in, Digital Humanities

Mi, 01/17/2018 - 16:15

17. Januar 2018

Ab dem nächstmöglichen Zeitpunkt ist vorbehaltlich der Bewilligung der Drittmittel in dem Projekt „Formulae – Litterae – Chartae. Neuedition der frühmittelalterlichen Formulae inklusive der Erschließung von frühmittelalterlichen Briefen und Urkunden im Abendland (ca. 500 – ca. 1000)“ die Stelle einer/eines wissenschaftlichen Mitarbeiterin/Mitarbeiters gemäß § 28 Abs. 3 HmbHG* zu besetzen. Die Vergütung erfolgt nach der Entgeltgruppe 13 TV-L. Die wöchentliche Arbeitszeit beträgt 39 Stunden. Die Befristung des Vertrages erfolgt auf der Grundlage von § 2 Wissenschaftszeitvertragsgesetz. Die Befristung ist vorgesehen bis zum 31.12.2019.

Die Universität strebt die Erhöhung des Anteils von Frauen am wissenschaftlichen Personal an und fordert deshalb qualifizierte Frauen nachdrücklich auf, sich zu bewerben. Frauen werden im Sinne des Hamburgischen Gleichstellungsgesetzes bei gleichwertiger Qualifikation vorrangig berücksichtigt.

Aufgaben:
Die Aufgaben umfassen wissenschaftliche Dienstleistungen im o. g. Projekt. Außerhalb der Dienstaufgaben besteht Gelegenheit zur wissenschaftlichen Weiterbildung.

Aufgabengebiet:
Ein Ziel des Langzeitvorhabens „Formulae-Litterae-Chartae“ ist die Erstellung einer Online-Edition der im Projekt bearbeiteten frühmittelalterlichen Brief- und Urkundenmuster mit integrierten Textanalysetools (siehe https://www.formulae.uni-hamburg.de/). Die Mitarbeiterin / der Mitarbeiter aus dem Bereich Digital Humanities ist für folgende Aufgaben zuständig: Entwicklung einer webbasierten Datenbank zur Volltextspeicherung (TEI/XML) mit Analysetools; entsprechende Aufbereitung von Textdateien (Format Classical Text Editor) für die Datenbank; automatisierte Analyse per Parser, Anreicherung der Dateien (Lemmatisierung); Entwicklung/Fortentwicklung von Tools zur Volltextanalyse und Datenabgleich. Bei positiver Evaluierung ist eine Verlängerung der auf die erste Phase des Projekts begrenzten Stelle möglich.

Einstellungsvoraussetzungen:
Abschluss eines den Aufgaben entsprechenden Hochschulstudiums. Folgende Kompetenzen werden vorausgesetzt: übergreifende Kenntnisse auf den unterschiedlichen Teilgebieten der IT-Systemtechnik; sehr gute Fachkenntnisse in PHP, MySQL, JavaScript, XML, TEI, Photoshop und/oder Gimp und Kartografie-Software; des Weiteren vorausgesetzt sind Eignung zur Teamarbeit und Zuverlässigkeit. Berufserfahrung im Bereich der Geisteswissenschaften oder der Digital Humanities bzw. ein abgeschlossenes Hochschulstudium mit Geschichte oder Philologie als Neben- oder Hauptfach sind erwünscht.

Schwerbehinderte haben Vorrang vor gesetzlich nicht bevorrechtigten Bewerberinnen/Bewerbern bei gleicher Eignung, Befähigung und fachlicher Leistung.
Für nähere Informationen steht Ihnen der Leiter Herr Prof. Dr. Philippe Depreux telefonisch unter 040/ 42838 4837 gerne zur Verfügung.
Bitte senden Sie Ihre Bewerbung mit den üblichen Unterlagen (Bewerbungsschreiben, tabellarischer Lebenslauf, Hochschulabschluss) 05.02.2018 an: philippe.depreux@uni-hamburg.de

Link zur Ausschreibung

* Hamburgisches Hochschulgesetz
** Die regelmäßige wöchentliche Arbeitszeit beträgt derzeit 39 Stunden

Workshop zu Word Embeddings und Distributionellen Modellen in den Geisteswissenschaften auf der DHd 2018

Mo, 01/15/2018 - 17:52

Im Rahmen der DHd 2018 in Köln veranstaltet die DARIAH-EU Working Group „Text and Data Analytics“ in Kooperation mit der Gruppe Digital Humanities Flanders (DHuF) am Dienstag dem 27. Februar 2018 einen ganztägigen Workshop unter dem Titel: „Embedded Humanities – The Use of Distributional Models in the Digital Humanities“. Organisiert wird die Veranstaltung von Mike Kestemont (Universität Antwerpen) und Fotis Jannids (Universität Würzburg).

In den vergangenen Jahren hat das Interesse an Methoden der distributionellen Semantik, wie z.B. LDA Topic Modeling und Word2Vec, in den Digital Humanities stetig zugenommen. Doch ungeachtet ihres Potentials sind viele Aspekte der Anwendung solcher Methoden bisher wenig untersucht worden. Thema des Workshops wird zum einen die Frage, wie distributionelle Modelle zur geisteswissenschaftlichen Forschung beitragen können, zum anderen aktuelle methodologische Fragen, wie z.B.

– der Umgang mit Polysemie in distributionellen Modellen;
– die Untersuchung diachroner Phänomene durch distributionelle Methoden;
– die Evaluierung distributioneller Modelle aus empirischer und aus hermeneutischer Sicht;
– die Modellierung der Rolle der Leserin / des Lesers;
– die Modellierung von Einheiten jenseits der Wortebene;
– oder das theoretische Verständnis von Word Embeddings.

Als Keynote Speaker wird David Bamman von der University of California (Berkeley) erwartet. Anmeldungen sind über das Conftool-Registrierungssystem der DHd 2018 möglich. Für alle, die auf dem Workshop selbst etwas präsentieren möchten, ist ein ausführlicher Call for Papers auf der Seite der DARIAH TDA Working Group veröffentlicht.

Bilddaten in den Digitalen Geistes- und Kulturwissenschaften – Interoperabilität und Retrieval

Mo, 01/15/2018 - 15:33

DARIAH-DE Cluster 6 Expertenworkshop und DARIAH-Methodenworkshop des Sonderforschungsbereichs 980 „Episteme in Bewegung“ am 05. und 06.10.2017

Bericht von Marc Adler

Im Rahmen des Workshops „Bilddaten in den Digitalen Geistes- und Kulturwissenschaften – Interoperabilität und Retrieval“ kamen am 05. und 06.10.2017 Expertinnen und Experten verschiedener Fachrichtungen am Institut für Sprach- und Literaturwissenschaft der TU Darmstadt zusammen. Aus unterschiedlichen fachlichen Perspektiven tauschte man sich hier in drei Themenblöcken über die Gewinnung, Verarbeitung und Nachnutzung von Bilddaten aus, um etwaige Herausforderungen zu identifizieren und Lösungsansätze zu formulieren.

Im ersten Themenblock, der fachwissenschaftliche Anforderungen definieren sollte, berichteten Mark Fichtner (Germanisches Nationalmuseum Nürnberg) und Canan Hastik (Technische Universität Darmstadt) über die Anforderungen und Möglichkeiten von WissKI sowie die Anknüpfungspunkte zu DARIAH-DE. Andreas Henrich (Universität Bamberg) stellte Ansätze und Problemfelder der inhaltsbasierten Bildsuche und Bilderschließung vor, während Torsten Schrade (Akademie der Wissenschaften und der Literatur | Mainz) einen Einblick in das interoperable Management von Bildmetadaten mittels XMP und Exiftool am Beispiel des Akademieprojekts „Corpus Vitrearum Medii Aevi“ gab. Philipp Hegel (Technische Universität Darmstadt) präsentierte Layoutanalysen und philosophiegeschichtliche Annotationen, und Svenja Gülden (Johannes Gutenberg-Universität Mainz) beschloss diesen Themenblock mit ihren Ausführungen zu den Problemen bei der Überführung von altägyptischen Kursivschriften in Datenbanken.

Der zweite Themenblock – Schnittstellen und Interoperabilität – wurde von Thorsten Wübbena (Deutsches Forum für Kunstgeschichte Paris) mit seinem Vortrag zu ConedaKOR in der kunsthistorischen Forschung eröffnet. Anschließend gab Harald Kosch (Universität Passau) eine Einführung in die Interoperabilität der Metadatenformate von Bilddaten. Markus Brantl und Johannes Baiter (beide Bayerische Staatsbibliothek München) stellten neue Möglichkeiten der Bildähnlichkeitssuche vor und wie der IIIF-Standard für interoperable Bildrepositorien an der BSB genutzt wird; der Themenblock endete mit einem Vortrag von Erik Radisch (Universität Passau) zu Distant Watching und einer Methode zur automatischen Inhaltsextraktion aus großen Korpora von Videos und Bildern mittels Objekterkennung.

Daniel Kaltenthaler und Johannes Lohrer (beide Ludwig-Maximilians-Universität München) begannen den dritten Themenblock zu Retrieval, Annotation und Objekterkennung mit der Darstellung des Information Management Systems ReMIS Cloud, das genutzt wird, um verteilte interdisziplinäre Daten zu verknüpfen und erschließbar zu machen. Es folgte Stefan Conrad (Heinrich-Heine-Universität Düsseldorf) mit einem Beitrag zu Automated Landmark Recognition in Images am Beispiel der Objekterkennung von Bergen und Gebirgen in Landschaftsaufnahmen. Schließlich referierten Simon Donig, Maria Christoforaki, Bernhard Bermeitinger und Siegfried Handschuh (alle Universität Passau) zu Interieurszenen des Klassizismus und gaben einen Einblick in die Erkennung von Objekten – diversen Möbelstücken – in eben diesen Szenen.

An die einzelnen Vorträge und zum Ende jedes Themenblocks schlossen sich Diskussionen an, in denen schnell deutlich wurde, dass viele der vorgestellten Projekte und Ansätze mit ähnlichen Problemen konfrontiert sind. So sind zwar teils große Datenmengen vorhanden, stellenweise werden diese aber nicht genutzt oder liegen in nicht oder nur schwer miteinander kompatiblen Formaten vor. Zudem werden Arbeit und Nachnutzung durch den individuellen und projektbezogenen Charakter vieler Modelle erschwert. Daten sind auf viele Datenbanken verteilt, die jeweils eigene Zugänge und Formate voraussetzen. Gerade bei der automatischen Objekterkennung zeigt sich, dass je nach Fragestellung aber immer wieder neue Datenmengen benötigt werden – vor allem, um sie als Trainingsdaten für das jeweilige Forschungsziel zu nutzen. Eine Bereitschaft zur ständigen Anpassung muss also in Zukunft vorausgesetzt werden. Dabei steht die Objekterkennung unter anderem vor dem Problem, so genannte false positives ausfindig zu machen. Es kann also noch nicht von rein automatischen Verfahren die Rede sein, da im Regelfall der Mensch interaktiv in diversen Feedback-Schleifen Fehler identifizieren und den Erkennungsprozess optimieren muss. Die komplexen Abläufe müssen also in teils automatische, semi-automatische und manuelle Prozesse getrennt werden, damit zuverlässige Ergebnisse generiert werden können.

Gleichfalls stellte sich in der Diskussion auch heraus, dass zwischen den einzelnen Projekten teilweise große Überschneidungen vorhanden sind und Synergieeffekte genutzt werden können. Die Methoden der Objekterkennung können sich beispielsweise dafür eignen, in semi-automatischen Verfahren zur Identifikation von Symbolen – etwa von Zeichen der altägyptischen Kursivschriften – genutzt zu werden, um hier bessere Ergebnisse zu erzielen. Ebenso sehen sich die unterschiedlichen Projekte, die sich mit der Objekterkennung bei verschiedensten Forschungsgegenständen befassen, mit ähnlichen technischen Problemen konfrontiert; eine gegenseitige Unterstützung erscheint also möglich und wünschenswert, das Vertrauen in andere Forschende und das Teilen von eigenen Inhalten müssen intensiviert werden.

Dies ist für einige Fachtraditionen eine größere Veränderung als für andere. Aber es zeigte sich auch, dass Erfolg beim Einsatz digitaler Methoden in geistes- und kulturwissenschaftlichen Projekten einen offenen und fächerübergreifenden Austausch voraussetzt, wie ihn dieser Workshop erlebbar machte.

DH-Kolloquium an der BBAW, 2.2.2018: „Rhythmicalizer. Ein digitales Werkzeug zur Prosodieerkennung in Hörgedichten“

Mo, 01/15/2018 - 14:04

Im Rahmen des DH-Kolloquiums an der BBAW möchten wir Sie herzlich zum nächsten Termin am Freitag, den 2. Februar 2018, 17 Uhr s.t. bis 19 Uhr (Raum 230), einladen:

Burkhard Meyer-Sickendiek und Hussein Hussein (beide FU Berlin) werden über „Rhythmicalizer. Ein digitales Werkzeug zur Prosodieerkennung in Hörgedichten“ referieren. Der Vortrag gibt zunächst einen Einblick in
die digitale Prosodie-Analyse mit Hilfe mehrerer Standardtools. Die kombinierten Tools werden zur manuellen bzw. teilautomatischen Klassifikation der akustischen bzw. textuellen Merkmale der Gedichte der Internetplattform Lyrikline genutzt. Im Beitrag wird dann diskutiert, wie mit Hilfe von Deep-Learning-Toolkits diese manuelle bzw. teilautomatische Klassifikation in eine automatische Klassifikation überführt werden kann. Insbesondere konzentriert sich der Vortrag auf
mögliche Anwendungen mit begrenzten Datensätzen und die Handhabung schwieriger Probleme im Rahmen des Verstärkungslernens. Ausführliche Informationen zum Vortrag finden Sie auf der Website des if|DH|Berlin.

Im DH-Kolloquium an der BBAW werden aktuelle Themen der Digital Humanities praxisnah und anwendungsorientiert zur Diskussion gebracht, um Wissenschaftlerinnen und Wissenschaftler beim Einsatz digitaler Methoden in der geisteswissenschaftlichen Forschung zu unterstützen. Weitere Informationen finden Sie auf der Website der BBAW oder des if|DH|Berlin.

Die Veranstaltung findet im Raum 230 der Berlin-Brandenburgischen Akademie der Wissenschaften, Jägerstr. 22/23, 10117 Berlin statt.

Da die Teilnehmerzahl begrenzt ist, möchten wir Sie um Anmeldung per E-Mail unter DH-Kolloquium@bbaw.de bitten.

Wir möchten Sie auch auf den sich anschließenden „Digital Humanities“-Stammtisch hinweisen, bei dem die hoffentlich fruchtbaren Diskussionen in formloser Atmosphäre fortgesetzt werden können.

ErKon3D: zwei TVL-E13 Stellen in Heidelberg zu 3D-Forensik im Corpus der minoischen und mykenischen Siegel (CMS)

Do, 01/11/2018 - 15:13

Für unser neues interdisziplinäres BMBF Projekt aus der eHeritage-Förderlinie suchen wir zwei Mitarbeiter, die sich von Seiten der Geisteswissenschaften (Post-Doc, klassische Archäologie bzw. Sphragistik) und der angewandten Informatik (Doktorand) mit der Analyse von Siegeln und Siegelabdrücken in den nächsten drei Jahren beschäftigen möchten. Details sind den den beiden verlinkten PDFs zu entnehmen. Um eine rasche Bewerbung wird gebeten, da das Projekt sehr bald starten wird.

Post-Doc im Institut für klassische Archäologie im Zentrum für Altertumswissenschaften (ZAW):
http://www.klassische-archaeologie.uni-hd.de/md/zaw/klarch/postdoc_fellowship.pdf

Doktorand im Forensic Computational Geometry Laboratory (FCGL) am Interdisziplinären Zentrum für wissenschaftliches Rechnen (IWR):
http://www.iwr.uni-heidelberg.de/groups/forensicgl/exchange/UniHeidelberg_ErKon3D_JobOffer_PhD_ComputerScience.pdf

DH- Workshops in Tübingen: Publishing Data und Topic Modeling

Mi, 01/10/2018 - 13:06

Am 8. und 9. Februar veranstaltet der Lehrstuhl für Romanische Philologie der Universität Tübingen zwei Workshops zum Thema „Publishing Data using GitHub“ von José Calvo Tello und „Einführung in Topic Modeling“ von Ulrike Henny-Krahmer (beide Universität Würzburg).

Die Teilnehmeranzahl ist beschränkt, um Anmeldung wird bis zum 1. Februar gebeten, per mail an Frau Ehrt: monika.ehrt@uni-tuebingen.de

„Publishing Data using GitHub“ (8.2.2018, 17-21 Uhr, Brechtbau, Raum 206)

GitHub has become a well established tool for versioning, sharing and publishing code and data. Once the basic work flow and concepts are understood, it is a straightforward and elegant tool, but the first steps can be a challenge. This first stage is the focus of this 3 hours workshop, in which we will have time to try and publish our own data or code. We will also explore some interesting functions like GitHub.io and its integration with the European archiving project Zenodo.

Prerequisites
Bring your own Laptop and take in consideration that although we can use GitHub in the different OS (Windows, Mac and Ubuntu), the majority of the documentation is thought for Mac or Ubuntu. Create your own account in https://github.com/. It is highly recommendable that you bring your own data (corpus, frequencies, database, edition…) to use it in the tests and have already your own repository published by the end of the workshop.

Contact: José Calvo Tello, jose.calvo@uni-wuerzburg.de

„Einführung in Topic Modeling“ (9.2.2018, 9-12 Uhr, Brechtbau, Raum 106)
Topic Modeling ist eine quantitative Methode für Textanalyse, mit der thematische Muster in großen Textsammlungen aufgedeckt werden können. Das Verfahren ist in den letzten Jahren auch vermehrt für geisteswissenschaftliche Fragestellungen eingesetzt worden (u.a. Rhody 2012, Jockers 2013, Schöch 2017 für literarische Texte, Blevins 2010, Kaufman 2015 für historische Analysen). Im Workshop wird ein Überblick über die Funktionsweise und die Anwendungsbereiche des Verfahrens gegeben. Anschließend können die Teilnehmer Topic Modeling mit dem Tool MALLET und Übungs-Korpora testen. Gemeinsam soll der Topic Modeling-Workflow von der Aufbereitung der Texte bis hin zur Auswertung von Ergebnissen diskutiert werden.

Literaturhinweise
Blevins, Cameron (2010): „Topic Modeling Martha Ballard’s Diary.“ Blog Posts. http://www.cameronblevins.org/posts/topic-modeling-martha-ballards-diary/

Jockers, Matthew L. (2013). Macroanalysis. Digital Methods & Literary History. Urbana, Chicago, and Springfield: University of Illinois Press.

Kaufman, Micki (2015): „Everything on Paper Will Be Used Against Me:“ Quantifying Kissinger. A Computational Analysis of the National Security Archive’s Kissinger Collection Memcons and Telcons. Blog Posts. http://blog.quantifyingkissinger.com/

McCallum, Andrew Kachites (2002). „Topic Modeling.“ MALLET. MAchine Learning for LanguagE Toolkit. http://mallet.cs.umass.edu/topics.php

Rhody, Lisa M. (2012): „Topic Modeling and Figurative Language.“ In: Journal of Digital Humanities, Vol. 2, No. 1. http://journalofdigitalhumanities.org/2-1/topic-modeling-and-figurative-language-by-lisa-m-rhody/

Schöch, Christof (2017): „Topic Modeling Genre: An Exploration of French Classical and Enlightenment Drama.“ In: Digital Humanities Quarterly, Vol. 11, No. 2. http://www.digitalhumanities.org/dhq/vol/11/2/000291/000291.html

Voraussetzungen
Bitte bringen Sie zum Workshop einen Laptop mit, auf dem MALLET bereits installiert ist. Hinweise zur Installation sind auf der MALLET-Webseite zu finden: http://mallet.cs.umass.edu/download.php. Relevant sind hier nur die Hinweise unter „Current release“ und „Windows installation“, nicht unter „Development release“. Es reicht aus, das MALLET-Verzeichnis herunterzuladen und zu entpacken, ohne weiteren Installationsvorgang. Voraussetzung dafür, dass MALLET läuft, ist außerdem eine Installation des Java Development Kit (JDK). Nähere Hinweise dazu, wie man Java und MALLET installieren kann, gibt es auch in folgendem Tutorial: https://programminghistorian.org/lessons/topic-modeling-and-mallet#installing-mallet. Bitte melden Sie sich vor der Veranstaltung, falls es Fragen zur Installation gibt.

Kontakt:
Ulrike Henny-Krahmer, ulrike.henny@uni-wuerzburg.de

Ringvorlesung Digital Humanities: „Von Nutzen und Nachteil einer Historie Digitaler Spiele: Geschichte, Politik und historische Authentizität – Eugen Pfister | Dienstag, 09.01.2018, 18 Uhr | HU Berlin

Fr, 01/05/2018 - 16:38

Am kommenden Dienstag, 9.1.2017, wird Dr. Eugen Pfister (ÖAW Wien) unter dem Titel „Von Nutzen und Nachteil einer Historie Digitaler Spiele: Geschichte, Politik und historische Authentiziät“ im Rahmen der wöchentlich an der Humboldt-Universität zu Berlin bzw. der Berlin-Brandenburgischen Akademie der Wissenschaften stattfindenden Ringvorlesung „Digital Humanities: Die digitale Transformation der Geisteswissenschaften“ sprechen. Die Veranstaltung findet von 18 bis 20 Uhr an der Berliner Humboldt-Universität, Hauptgebäude Unter den Linden 6, Hörsaal 2091/92 statt. Alle Gäste sind ohne Anmeldung willkommen, mit uns und dem Referenten über die Entwicklung der Digital Humanities in dieser Hinsicht zu diskutieren.

Diesen und die weiteren Termine der Ringvorlesung sowie eine Kurzbeschreibung der wesentlichen Ziele der Veranstaltungsreihe finden Sie unter http://www.ifdhberlin.de/lehre/ring-vl-digital-humanities-ws-201718/.

„Digital Humanities: Die digitale Transformation der Geisteswissenschaften“ (Berlin, WS 2017/18). Eine Ringvorlesung des Interdisziplinären Forschungsverbundes Digital Humanities in Berlin (if|DH|b). Organisiert in Zusammenarbeit mit dem Institut für Geschichtswissenschaften, Historische Fachinformatik der Humboldt-Universität zu Berlin.

Informationen zur Ringvorlesung Digital Humanities: Die digitale Transformation der Geisteswissenschaften (Berlin, WS 2017/18) finden Sie auch in AGNES, dem Kommentierten Vorlesungsverzeichnis der HU Berlin, unter https://hu.berlin/99832.

Bei Fragen zur Ringvorlesung wenden Sie sich bitte an:
Christian Thomas (BBAW), thomas(at)bbaw.de.

Plakat als Download hier verfügbar.

Umfrage zur Nutzung von TextGrid und anderen DARIAH-Werkzeugen

Mi, 01/03/2018 - 14:36

Die virtuelle Forschungsumgebung TextGrid wird bereits an mehreren Universitäten regelmäßig in der Lehre eingesetzt, die Nutzung weiterer von DARIAH-DE zur Verfügung gestellter Werkzeuge in Lehrveranstaltungen soll zunehmend ausgebaut werden. Um einen besseren Überblick über die Nutzung von TextGrid und anderen DARIAH-Werkzeugen in Forschung und Lehre zu erhalten, wurde von DARIAH-DE ein Fragebogen erstellt, dessen Beantwortung nur wenige Minuten dauert.

Die Ergebnisse fließen in die Planung weiterer unterstützender Maßnahmen für Lehrveranstaltungen in den Digital Humanities ein. Darüber hinaus werden die Inhalte der Workshops des elften TextGrid/DARIAH-Nutzertreffens zum Thema „TextGrid und andere DARIAH-Werkzeuge in der Lehre“ an die in der Umfrage geäußerten Bedarfe angepasst. Die Ergebnisse der Umfrage werden zudem im Rahmen der Vorträge auf dem Nutzertreffen vorgestellt. Vielen Dank im Voraus für Ihre Teilnahme an der Umfrage.

wiss. Mitarbeiter/in an der Professur für Germanistische Linguistik mit Schwerpunkt Pragmatik der Philosophischen Fakultät

Fr, 12/22/2017 - 21:55

via Roman Gerlach, Kontaktstelle Forschungsdatenmanagement

Ausschreibung Reg.-Nr. 373/2017, Fristende 22.01.2018

Zum 01.04.2018 ist an der

Professur für Germanistische Linguistik mit Schwerpunkt Pragmatik

der Philosophischen Fakultät / Kontaktstelle Forschungsdatenmanagement

die Stelle einer/s Wissenschaftlichen Mitarbeiterin/s (100%)

zu besetzen.

Qualifikationsanforderungen:

  • Abgeschlossenes Studium der Linguistik / Computerlinguistik / Informatik
  • Bereitschaft, sich mit Fragestellungen unterschiedlicher geisteswissenschaftlicher Ausrichtungen auseinander zu setzen
  • Erfahrungen im Forschungsdatenmanagement sind erwünscht
  • Kenntnisse in einer Programmiersprache (z.B. Java, Python) sind erwünscht
  • Kenntnisse in Statistik und gegebenenfalls maschinellem Lernen sind erwünscht

Schwerpunktaufgaben:

Die Stelle ist an der Kontaktstelle Forschungsdatenmanagement angesiedelt. Zentrale Aufgabe des/der erfolgreichen Kandidat/in ist die Unterstützung der geisteswissenschaftlichen Fächer in den Bereichen Forschungsdatenmanagement (z.B. Aufbereitung, Speicherung, Bereitstellung von Forschungsdaten) und innovativen Methoden der Datenverarbeitung (z.B. manuelle und automatisierte Annotationsverfahren von Text und Bild sowie gesprochener Sprache, moderne statistische Methoden der Datenauswertung, maschinelles Lernen).

Weitere Aufgaben umfassen die selbstständige Durchführung von Lehrveranstaltungen im Umfang von 2 SWS (z.B. Übungen, Proseminare, Workshops an der Graduiertenakademie der Universität Jena).

Die Möglichkeit zur wissenschaftlichen Weiterqualifizierung, z.B. einer Promotion, ist gegeben.

Die Stelle ist zunächst befristet für 3 Jahre; eine Verlängerung um weitere 2 Jahre ist möglich. Es handelt sich um eine volle Stelle. Die Vergütung richtet sich nach den Bestimmungen des Tarifvertrages für den öffentlichen Dienst der Länder (TV-L) entsprechend den persönlichen Voraussetzungen bis zur Entgeltgruppe E 13.

Schwerbehinderte Menschen werden bei gleicher Eignung, Befähigung und fachlicher Qualifikation bevorzugt berücksichtigt.

Bewerbungen mit vollständigen Bewerbungsunterlagen sind bis zum 22.01.2018 elektronisch zu richten an:

PD Dr. Pia Bergmann, Lehrstuhl für Germanistische Linguistik mit Schwerpunkt Pragmatik

pia.bergmann@uni-due.de

und

Roman Gerlach, Kontaktstelle Forschungsdatenmanagement

roman.gerlach@uni-jena.de

DFG-Projekt zur Weiterentwicklung von correspSearch gestartet

Fr, 12/22/2017 - 13:30

Vor kurzem ist das von der Deutschen Forschungsgemeinschaft (DFG) geförderte Projekt „correspSearch – Briefeditionen vernetzen“ gestartet. Im Rahmen des Projektes werden in den nächsten Jahren die Benutzeroberfläche, Suchfunktionalitäten und Schnittstellen des Webservices correspSearch weiterentwickelt und der Datenbestand erweitert.

Der Webservice correspSearch wird von der DH-Arbeitsgruppe TELOTA an der Berlin-Brandenburgischen Akademie der Wissenschaften (BBAW) seit 2015 entwickelt und betrieben. Wissenschaftler/-innen können mit Hilfe von correspSearch Verzeichnisse digitaler und gedruckter Briefeditionen nach Absender, Empfänger, Schreibort und Datum durchsuchen. Der Webservice aggregiert Dateien im Correspondence Metadata Interchange-Format (CMIF) der TEI Correspondence SIG und wertet diese aus. Die Personen- und Ortssuche basiert dabei auf IDs aus Normdateien, wie z. B. der Gemeinsamen Normdatei der Deutschen Nationalbibliothek. Auf Basis dieser Normdaten-IDs können Personen und Orte editionsübergreifend identifiziert werden.

Im Rahmen des nun gestarteten Projekts sollen insbesondere die Suchmöglichkeiten über die „Kopfdaten“ eines Briefes hinaus auf die Briefinhalte ausgeweitet werden. Ein weiterer Schwerpunkt des Projekts ist es, Tools zu entwickeln, die die Erfassung und Bereitstellung von Briefmetadaten durch Editionen und andere Projekte erleichtern. Darüber hinaus soll der Webservice noch stärker mit bestehenden Informationsinfrastrukturen vernetzt werden.

Das an der BBAW angesiedelte DFG-Projekt wird von der Mainzer Akademie der Wissenschaften und der Literatur, der Bayerischen Akademie der Wissenschaften, der Bibliothek für Bildungsgeschichtliche Forschung, dem Collegium Carolinum und dem Theodor-Fontane-Archiv unterstützt.

Inzwischen ist der aggregierte Bestand an Briefmetadaten in correspSearch auf über 26.000 edierte oder wissenschaftlich bearbeitete Briefe angewachsen. Vor kurzem wurden zum Beispiel mehrere Briefverzeichnisse aus den Forschungsprojekten „Bach-Repertorium“ und „Briefe und Akten zur Kirchenpolitik Friedrichs des Weisen und Johanns des Beständigen 1513 bis 1532“, die beide an der Sächsischen Akademie der Wissenschaft angesiedelt sind, hinzugefügt.

Weitere Briefmetadaten sind sehr willkommen – wie das geht, erfahren interessierte Wissenschaftler/-innen und Projekte unter dem Punkt „Mitmachen“ auf correspSearch.net.

Workshop on Distant Reading in Literary Texts

Do, 12/21/2017 - 15:17

by Thora Hagen, Michael Huber and Daniel Tepavac

On the 23rd and 24th of November the DARIAH-EU working Group “Text and Data Analysis“ and the Department of Literary Computing at the University of Würzburg hosted the workshop “Distant Reading in Literary Texts”. The aim of the event bringing together leading experts in computational analysis of literary texts to stimulate discussion about ongoing research projects and the current problems at the very frontier of this field of research. Speakers were encouraged to present yet unpublished work in progress and thereby gain feedback from colleagues early early on.

Thanks a staff exchange program with the University of Osaka in Japan that is funded by the DAAD, and a grant from the Dariah-EU Funding Scheme for Working Group Activities it was possible to assemble some of the most reputable international representatives of the field. An audience of around 40 students, research assistants and professors from the humanities and computer sciences followed the presentations and engaged vividly in the long discussions.

The program was started by Jan Rybicki (Pedagogical University of Kraków, Poland). In his presentation titled “Is Russian Literature Distant? Reading Russians with Networks” he presented a stylometric network analysis of classical Russian literature. With a focus on original Russian corpora, especially on differences in translation from foreign corpora. A reason behind the choice of using Russian as the main language for the comparative analyses is its easy uniformization and availability. The first comparison was focused on original Russian literature. Networks showed that there was a cultural and historical language change throughout time. With the aid of the most frequent words used in a corpus, the Russian corpora can be divided into different groups. When including translated corpora, the diagram changes and it is possible to see that foreign corpora do not mix with original Russian corpora. Because of the translation into Russian, the text dynamic changes. Hence, the translated texts built their own group.

In the second presentation, titled “Fifty Shades of Style”, Karina van Dalen-Oskam (University of Amsterdam, Netherlands) started with the question of what genre the book Fifty Shades of Grey is. One would think that this novel is classified as Romantic. But answering this question is not as easy when this novel is compared to other romantic novels. As a foundation serves a survey in which people have evaluated the quality and literariness of the most read and lent books in the Netherlands between 2010 and 2012. The fifty most literary and the fifty least literary books had been chosen for further investigations. When comparing both lists, it is possible to recognize that the list of the least literary books consists mostly of female authors known for writing in the ‘chick-lit’ and romantic genre. The most literary books are mostly written by male authors. Concerning Fifty Shades of Grey, the classification seems to be problematic. There is a consensus within those who evaluated the corpora that this novel has a low level of quality and literariness, but still stands out being compared to other novels with low quality and literariness. Hence, it can be seen as a romantic novel but is more similar to Dutch regional novels. (https://www.huygens.knaw.nl/the-riddle-of-literary-quality/?lang=en)

In his presentation „Distant Reading and the Problem of Perspective“, Ted Underwood (University of Illinois, USA) addressed the issue of the ongoing changes in perspective concerning different concepts, and his goal was to illustrate this phenomenon through digital means. Specifically, the meaning of the word genre certainly underwent some changes throughout history; genre adapts to time. He therefore tried to measure the distances of different perspectives on genre. He approached the problem by utilizing supervised learning algorithms. The idea is to apply a trained model of a first data set to a second data set (the two data sets covering different time periods each), and to measure the accuracy loss to define the distances between the data sets. A distance matrix could then be used to visualize all results. However, genre is always difficult to define, especially regarding the preparation of suitable data sets. Lastly, the question remains whether there exists any other way to measure the distance after applying the model. (https://tedunderwood.com/)

The presentation of the project “Scalable Reading – novella collections of the 19th century” by Thomas Weitin (University of Darmstadt, Germany) is, like the project itself, based on the “Novellenschatz”, a corpus of novellas from 1870 collected by Paul Heyse and Hermann Kurz. The project title “Reading at scale” tries to mirror a research approach which includes various techniques and methods from literature studies and digital humanities by “zooming” from close reading to distant reading. The “Novellenschatz” fits the requirements for this approach by being not too large to read by humans and not too small for quantitative analyses. Using the “similian backbone” algorithm, Thomas Weitin compares novellas by their delta distances to find out which texts are “centres” of the corpus and how the texts relate to each other. (http://www.digitalhumanitiescooperation.de/projects/reading-at-scale/)

In the presentation “Through different routes to the same landscape: What do text-clusterings tell us about style?”, Tomoji Tabata from the University of Osaka conducts a stylistic study of the British author Charles Dickens. The corpus of this study consists mainly out of texts from Dickens which are being compared to other texts from the 18th and 19th century but from different authors. Using several methods, including among others the classification task “random forest” and PCA, Tabata could detect that Dickens has an exceptional style and distinctive linguistic features. For example, Dickens uses the word “gentleman” more frequently, distinguishing him from authors of the same time period.

Christof Schöch’s (University of Trier, Germany) presentation “Burrows’ Zeta: Reimplementation and Extension” centres around the possibilities, strengths and weaknesses that come with zeta. In particular, he addressed how to mitigate certain weaknesses of zeta, for example how to deal with relative frequencies. Christof Schöch and his working group use the different zeta implementations on sets of french comedies and tragedies to highlight which modifications work, which do not work, and how said implementations influence a possible interpretation. (https://github.com/cligs/pyzeta)

Due to the recently started project, a cooperation between the Kalimachos project of the University of Würzburg and the University of Osaka, about complexity in literature
Finally, Fotis Jannidis (University of Würzburg) talked about various layers and forms of complexity and how to approach this topic. The topic of complexity stands in the focus of the current research activities in the context of both the Kallimachos project and the Osaka-Würzburg staff exchange program. Within the context of this workshop, such layers could be complexity based on style, aesthetics, the depicted world, symbolic elements or aspects of the fictional world or of intertextuality. A first approach is looking at lexical diversity as one aspect of text complexity. Interestingly, first results when comparing classical literature with light fiction did not show significant differences in lexical richness when using. One problem in many measures of lexical richness is their dependence on text length, a problem that has dominated the discourse among research in the past and led to the development of various mathematical procedures. Fotis Jannidis argued that rather than inventing ever more intricate measures to better overcome text length dependence, it is time now for the digital humanists to concentrate on understand what such measures tell about the text.

The workshop “Distant Reading in Literary Texts” turned out to be an educative exchange of methods and knowledge. In particular, the discussions following each talk served as a platform for exchanging ideas and new input. Being able to communicate face to face rather than via blogs or articles made getting new ideas across efficient and easy. For all listeners as well as speakers, this workshop turned out to be very informative, entertaining and inciting. We will hope for similar events in the future.

Stackoverflow für DH

Do, 12/21/2017 - 12:57

Auf der Incubator-Seite für neue Stackexchange-Seiten gibt es nun einen Vorschlag für eine Computation Social Sciences und DH Q&A-Seite. Der Vorschlag befindet sich noch in der Definitions-Phase und braucht den Input der DH-Community. Mit Beispielfragen, die Sie gerne auf einer solchen Seite stellen würden, und Ihren Votes, welche Fragen für eine solche Seite gut passen würden, können Sie jetzt die Entwicklung und Ausrichtung der Seite maßgeblich mitbestimmen.

Unter

https://area51.stackexchange.com/proposals/115242/computational-social-science-and-digital-humanities

können Sie dem Vorschlag folgen und Fragen stellen, kommentieren und up-voten.

Professur (W2) für Computerlinguistik an der Universität Trier

Mi, 12/20/2017 - 17:39

Am Fachbereich II Sprach-, Literatur- und Medienwissenschaften der Universität Trier ist zum  nächstmöglichen Zeitpunkt folgende Professur zu besetzen:

Professur (W2) für Computerlinguistik

Der/die künftige Stelleninhaber/in soll im Fachgebiet Computerlinguistik und Digital Humanities den Bereich der Computerlinguistik in Forschung und Lehre vertreten und sich in enger Zusammenarbeit mit den Digital Humanities und dem Fach Medienwissenschaft an der Entwicklung neuer Studiengänge beteiligen.

Vorausgesetzt wird ein Forschungsschwerpunkt aus dem Kernbereich der Computerlinguistik, bevorzugt aus den Gebieten Computational Semantics, Computational Discourse, sowie Machine Learning of Natural Language. Erwartet wird die Bereitschaft zur fächerübergreifenden Zusammenarbeit im Bereich der digitalen Geisteswissenschaften und zur Einwerbung von Drittmitteln. Erfahrung mit der Verarbeitung von Sprache auch jenseits des Englischen sowie Erfahrung mit Kooperationen mit Industriepartnern ist wünschenswert.

Die Einstellungsvoraussetzungen ergeben sich aus § 49 Hochschulgesetz Rheinland-Pfalz. Insbesondere sind pädagogische Eignung und hervorragende wissenschaftliche Leistungen nachzuweisen.

Das Land Rheinland-Pfalz und die Universität Trier vertreten ein Betreuungskonzept, bei dem eine hohe Präsenz der Lehrenden am Hochschulort erwartet wird.

Schwerbehinderte werden bei entsprechender Eignung bevorzugt eingestellt. Die Universität Trier ist bestrebt, die Zahl ihrer Professorinnen zu erhöhen und fordert Wissenschaftlerinnen nachdrücklich zu einer Bewerbung auf.

Bewerbungen mit Lebenslauf, Zeugniskopien, Schriftenverzeichnis, Auflistung der bisherigen Lehrveranstaltungen und Auflistung der fünf Publikationen, die die Bewerberin/der Bewerber für ihre/seine wichtigsten hält, sind bis zum 04.02.2018 in digitaler Form (in einer einzigen pdf-Datei) an den Dekan des Fachbereichs II der Universität Trier, Herrn Prof. Dr. Sebastian Hoffmann, 54286 Trier; E-Mail:dekanatfb2@uni-trier.de zu richten.

Ausschreibungstext: https://www.uni-trier.de/fileadmin/organisation/ABT3/Stellen_Professoren/P9_17__W2_Professur_Computerlinguistik.pdf

 

Am 19.12.2017 in der Ringvorlesung „Digital Humanities“ (Berlin, WS 2017/18): Angelika Storrer zu Textkorpora als Ressourcen für die Digital Humanities: Chancen, Herausforderungen, Perspektiven

Mo, 12/18/2017 - 13:58

Am kommenden Dienstag, 19.12.2017, wird Prof. Dr. Angelika Storrer (Mannheim) unter dem Titel „Textkorpora als Ressourcen für die Digital Humanities: Chancen, Herausforderungen, Perspektiven“ im Rahmen der wöchentlich an der Humboldt-Universität zu Berlin bzw. der Berlin-Brandenburgischen Akademie der Wissenschaften stattfindenden Ringvorlesung „Digital Humanities: Die digitale Transformation der Geisteswissenschaften“ sprechen. Die Veranstaltung findet von 18 bis 20 Uhr an der Berliner Humboldt-Universität, Hauptgebäude Unter den Linden 6, Hörsaal 2091/92 statt. Alle Gäste sind ohne Anmeldung willkommen, mit uns und dem Referenten über die Entwicklung der Digital Humanities in dieser Hinsicht zu diskutieren.

Diesen und die weiteren Termine der Ringvorlesung sowie eine Kurzbeschreibung der wesentlichen Ziele der Veranstaltungsreihe finden Sie unter http://www.ifdhberlin.de/lehre/ring-vl-digital-humanities-ws-201718/.

„Digital Humanities: Die digitale Transformation der Geisteswissenschaften“ (Berlin, WS 2017/18). Eine Ringvorlesung des Interdisziplinären Forschungsverbundes Digital Humanities in Berlin (if|DH|b). Organisiert in Zusammenarbeit mit dem Institut für Geschichtswissenschaften, Historische Fachinformatik der Humboldt-Universität zu Berlin.

Informationen zur Ringvorlesung Digital Humanities: Die digitale Transformation der Geisteswissenschaften (Berlin, WS 2017/18) finden Sie auch in AGNES, dem Kommentierten Vorlesungsverzeichnis der HU Berlin, unter https://hu.berlin/99832.

Bei Fragen zur Ringvorlesung wenden Sie sich bitte an:
Christian Thomas (BBAW), thomas(at)bbaw.de.

Plakat als Download hier verfügbar.

Assistenzprofessur (W2, Tenure Track) für Digital Philology

Fr, 12/15/2017 - 12:02

via Anastasia Pupynina, TU Darmstadt

Im Fachbereich Gesellschafts- und Geschichtswissenschaften der Technischen Universität Darmstadt ist am Institut für Sprach- und Literaturwissenschaft eine

Assistenzprofessur (W2, Tenure Track) für Digital Philology – Neuere deutsche Literaturwissenschaft zu besetzen.

Das Institut für Sprach- und Literaturwissenschaft hat einen etablierten Schwerpunkt im Bereich Digital Humanities in der spezifischen Ausprägung der Digital Philology. Wir suchen ausgewiesene Nachwuchswissenschaftler/innen mit Forschungsprofilen, die diese Ausrichtung des Instituts weiter stärken.

Das Forschungsgebiet der Assistenzprofessur soll in der computerbasierten, interdisziplinären Literaturforschung liegen. In der Lehre gehört zum Aufgabenbereich der Professur die Beteiligung an den germanistischen und DH-Studiengängen des Instituts. Darüber hinaus werden die Bereitschaft zur interdisziplinären Kooperation mit den anderen Fächern des Fachbereichs und über den Fachbereich hinaus (u.a. mit der Informatik und dem Center for Cognitive Science), zur Mitarbeit in der universitären Selbstverwaltung sowie Erfahrung in der Drittmitteleinwerbung erwartet. Insbesondere sind Impulse willkommen, welche die Reflexion des kulturellen Wandels durch die Digitalisierung, den Aufbau interdisziplinär relevanter Korpora und die Entwicklung von fächerübergreifenden Analysemethoden betreffen.

Vorausgesetzt werden neben einer herausragenden Promotion weitere fachlich einschlägige und im Fach sichtbare wissenschaftliche Leistungen sowie profunde Lehrerfahrung.

Die Professur wird aus Mitteln des Bund-Länder-Programms zur Förderung des wissenschaftlichen Nachwuchses finanziert.

Regelungen zur Höchstdauer der wissenschaftlichen Tätigkeit nach der Promotion sowie die weiteren Einstellungsvoraussetzungen richten sich nach § 64 Abs. 3 HHG in der jeweils geltenden Fassung. Die Assistenzprofessur ist ausgestaltet als Qualifikationsprofessur gemäß § 64 HHG. Für die Assistenzprofessur ist Tenure Track vorgesehen. Das Vorliegen entsprechender Leistungen in Forschung und Lehre wird im Rahmen des Tenure-Verfahrens überprüft.

Die Einstellung erfolgt zunächst in einem Beamtenverhältnis auf Zeit für die Dauer von sechs Jahren. Die Besoldung erfolgt nach der W-Besoldung (Besoldungsgruppe W2 Hessisches Besoldungsgesetz). Eine vergleichbare Anstellung im Angestelltenverhältnis ist möglich

Die Technische Universität Darmstadt strebt eine Erhöhung des Anteils der Frauen am Personal an und fordert deshalb besonders Frauen auf, sich zu bewerben. Bewerberinnen oder Bewerber mit einem Grad der Behinderung von mindestens 50 oder diesen Gleichgestellte werden bei gleicher Eignung bevorzugt. Teilzeitbeschäftigung ist grundsätzlich möglich.

Die Technische Universität Darmstadt ist als familiengerechte Hochschule zertifiziert und verfügt über ein Dual Career Programm.

Bewerbungen werden mit den üblichen Unterlagen unter Angabe der Kenn-Nr. 523 bis zum 15.01.2018 an den Dekan des Fachbereichs Gesellschafts- und Geschichtswissenschaften, Technische Universität Darmstadt, Dolivostraße 15, 64293 Darmstadt, erbeten.

Kenn.-Nr. 523
Bewerbungsfrist: 15. Januar 2018

RIDE 7 ist erschienen – Rezensionen digitaler Editionen

Fr, 12/15/2017 - 10:18

Die siebte Ausgabe von RIDE, der online Rezensionszeitschrift für digitale Editionen und Ressourcen, die das Institut für Dokumentologie und Editorik seit 2014 herausgibt, ist erschienen. Diese Ausgabe enthält fünf ausführliche Rezensionen (in englischer Sprache), die digitale Editionen kritisch betrachten.

Insgesamt enthält die siebte Ausgabe folgende Beiträge:

Editor der Ausgabe ist Philipp Steinkrüger.

Alle Rezensionen stehen frei unter http://ride.i-d-e.de/issue-7 zur Verfügung. Alle Rezensionen sind auch als TEI Dokumente verfügbar. Übersichtliche Factsheets zur jeweils besprochenen digitalen Edition ergänzen die Rezensionen.

Wir freuen uns auch immer über neue RezensentInnen, die Details dazu finden Sie unter http://ride.i-d-e.de/reviewers/.

Enjoy the RIDE!

Virtueller Workshop zu Continuous Integration und Delivery

Do, 12/14/2017 - 18:07

Der erste Virtuelle Workshop der DHTech-Gruppe, wird sich am 15. Januar um 16 Uhr mit Continuous Integration und Continuous Delivery beschäftigen.

Die DHTech-Gruppe wurde auf der DH 2017 in Montreal gegründet. Zu den Zielen gehören die Unterstützung der Entwicklung und Nachnutzung von Software in den Digital Humanities im Rahmen einer internationalen Community, die den Austausch von Wissen, Expertise und Erfahrung förden und Zusammenarbeit bei Digital Humanities Softwareprojekten fördern soll. Jede in die Entwicklung und Wartung von Digital Humanities Tools und Services involvierte ist zur Mitarbeit eingeladen.

Im ersten virtuellen Workshop wird es am 15. Januar um 16 Uhr deutscher Zeit um Continuous Integration und Continuous Delivery am Beispiel von Gitlab CI für Django-Projekte gehen. Weitere Details sind der Workshop-Ankündigung zu entnehmen.

Der Workshop findet auf Englisch über Zoom statt, alle Details auf der Workshop-Seite.

 

Stellenausschreibung: Software-Entwickler/in am MPI für Wissenschaftsgeschichte

Di, 12/12/2017 - 22:36

Liebe Kolleginnen und Kollegen,
das Max-Planck-Institut für Wissenschaftsgeschichte (MPIWG) in Berlin sucht ab Februar für die Dauer von 18 Monaten eine/n Software-Entwickler/in (TVöD (Bund) E13, Stellenumfang 100%) für die BMBF-geförderte Mitarbeit an der Weiterentwicklung der Publikationsplattform Edition Open Access.

Den vollständigen Ausschreibungstext sowie Kontaktinformationen erhalten Sie auf http://www.mpiwg-berlin.mpg.de/en/news/jobs#16245.

Beste Grüße,
Klaus Thoden

Stipendien „Digital Humanities“ des Forschungsverbunds Marbach Weimar Wolfenbüttel

Di, 12/12/2017 - 11:08

Die drei Einrichtungen des Forschungsverbunds Marbach Weimar Wolfenbüttel schreiben mehrere Forschungsstipendien im Bereich Digital Humanities aus, vorzugsweise für sechs Monate (mindestens drei, maximal zwölf). Das Programm ist interdisziplinär angelegt und richtet sich an Nachwuchswissenschaftlerinnen und ‑wissenschaftler (ab Master-/ Magister-/ Diplom-Abschluss) aus dem In- und Ausland. Voraussetzung für die Bewerbung ist, dass das vorgeschlagene Arbeitsvorhaben einen Bezug zu den Projekten oder Sammlungen mindestens einer der drei Einrichtungen des Forschungsverbunds aufweist und Methoden der „Digital Humanities“ anwendet (zum Beispiel Markup-Verfahren für Editionen, Stilometrie, Topic Modelling, Visualisierung etc.). Es wird empfohlen, für weitere Informationen über die zu bearbeitenden Bestände im Vorfeld der Bewerbung die Sammlungsverantwortlichen zu kontaktieren.

Das Stipendium beträgt für Graduierte monatlich 1.200 Euro, für Promovierte monatlich 1.800 Euro; darüber hinaus wird ein Reisekostenzuschuss gewährt. Die jeweilige Einrichtung des Forschungsverbunds wird die Stipendiatinnen und Stipendiaten mit ihrer Expertise unterstützen sowie bei der Suche nach einer Unterkunft behilflich sein, teilweise stehen Gästehäuser zur Verfügung. Es wird erwartet, dass sich die Stipendiatinnen und Stipendiaten an den Forschungsaktivitäten der jeweiligen Einrichtung beteiligen. Das Stipendium ist mit einer Residenzpflicht in Marbach, Weimar oder Wolfenbüttel verbunden. Es gelten, sofern keine anderen Angaben vorliegen, die allgemeinen Bewilligungsbedingungen der jeweiligen Einrichtung.

Bewerbungsfrist: 15. Januar 2018

Ein Antritt des Stipendiums ist frühestens zum 15. April möglich.

Bewerbungsunterlagen:

  • Bewerbungsformular (ist auf der Webseite des Forschungsverbunds abzurufen: http://www.mww-forschung.de/stipendien/stipendien-digital-humanities/)
  • Lebenslauf/Zeugnisse
  • Kurzdarstellung des Forschungsvorhabens (2–5 Seiten)
  • ein Empfehlungsschreiben zum Forschungsvorhaben
    (Bitte lassen Sie das Empfehlungsschreiben direkt an die jeweilige Institution schicken.)

Bewerbungsunterlagen bzw. Anfragen sind zu richten an die jeweilige Einrichtung des Forschungsverbunds, an der das Stipendium beantragt werden soll:

Deutsches Literaturarchiv Marbach – Postfach 1162 – D-71666 Marbach am Neckar
Tel. 07144/848-103 – E-Mail: stipendien@dla-marbach.de

Klassik Stiftung Weimar – Postfach 2012 – D-99401 Weimar
Tel. 03643/545-579 – E-Mail: forschung.bildung@klassik-stiftung.de

Herzog August Bibliothek – Postfach 1364 – D-38299 Wolfenbüttel
Tel. 05331/808-152 – E-Mail: forschung@hab.de

Rückfragen richten Sie bitte an die Koordinatorinnen der jeweiligen Häuser:
http://www.mww-forschung.de/kontakt/

CfP: DH_BUDAPEST_2018

Di, 12/12/2017 - 09:42

DIGITAL HUMANITIES CONFERENCE

BUDAPEST, 2018

CALL for PAPERS

The Centre for Digital Humanities at the Eötvös Loránd University (ELTE.DH) — in collaboration with DARIAH, CLARIN and Michael Culture Association — calls for abstracts for its conference held on 27–31 May 2018.

Researchers of the social sciences and humanities all experience changes in their chosen fields as everyday scholarly practices become more and more digital. Digital humanities — as a new and quickly institutionalizing interdiscipline — plays a vital role in promoting this shift. In addition, it serves as a new medium that connects the various more-or-less independent disciplines we call(ed) humanities. This new “unity” in the digital medium — a medium, that was not designed to be used by scholars — takes place in a variety of ways: via digital cultural heritage aggregation, via using international data standards, mark-up languages, technologies like linked open data, or by applying widely used CMS and repository software. Standardized data transfer has its undeniable benefits, nevertheless, the process certainly re-writes not only disciplinary borders and hierarchies but scholarly communication and knowledge transfer at large. The unstoppable curiosity to new digital methodologies and the urge to reflect on their influence theoretically: this dual drive has motivated us in triggering this conference series.

DH_Budapest_2018 seeks to provide a stimulating international forum to bring together researchers from Central Europe and beyond. It will survey the current state of research in digital humanities in the hope of exposing further aspects of the role played by the digital medium in the present and the future of scholarly practices.

We invite submission of abstracts on subjects relating to digital humanities and social sciences ranging from practical approaches to novel methodologies and theoretical reflections concerning but not limited to the topics below:

  • Digital scholarly editing
  • Digital cultural heritage with a special focus on born digital documents
  • Natural Language Processing (NLP), named entity recognition, topic modelling, big data analysis, text mining, semantic web technology etc.
  • Past and present practices and networks of Digital humanities in Central Europe
  • Teaching digital humanities for students, teachers and researchers; eLearning
PRESENTATION CATEGORIES ARE:

Individual presentation (Abstract submission is now open)
Individual presentations (20 minutes length and 5 minutes Q&A) are especially suitable for presenting current research, whether in terms of theory, methodology, or outcomes. Papers with a concrete and distinguishable digital humanities research question and approach are encouraged. Instead of presenting large DH projects, we encourage speakers to focus on a relevant scholarly research question, methods and solutions based on / inherent in the project.

Poster
Posters are useful to convey technical explanations and clarifications, and to demonstrate projects and on-going research. A short, 5 min. presentation of the poster will be possible during the poster sessions.

Workshop
Workshops offer in-depth knowledge of dealing with specific methods or tools while actively involving participants. Workshops could be based both on theoretical, reflexive and practical, and methodological grounds.

Abstracts of 500 words plus a short bibliography can be submitted via EasyChair.

Poster and workshop proposals will be accepted from 1 January 2018.

Deadline for submitting proposals: 30 January 2018.
Notification of acceptance: 15 March 2018.

The registration fee is €50 which can be paid between 16 March and 1 May 2018.

Beside senior researchers we also encourage early career scholars and PhD students to submit their abstracts. Reimbursement to cover the expenses of their conference participation will be awarded for the best proposals.

A selection of the presented papers will be published in a special issue in Digital Scholar, the Journal of the Centre of Digital Humanities, Budapest.

CONFIRMED KEYNOTES:

Wolfgang Ernst
(Humboldt-Universität, Berlin, Germany)
Dirk van Hulle
(University of Antwerp, Belgium)
Matthew Kirschenbaum
(University of Maryland, US)
Patrick Sahle
(Universität zu Köln, Germany)
Susan Schreibman
(Maynooth University, Ireland)

PROGRAM COMMITTEE:

Director:
Gábor Palkó
(Centre for Digital Humanities, Eötvös Loránd University,
Budapest, Hungary)

Members:
Roman Bleier
(ZIM-ACDH, Univeristät Graz, Austria)

Péter Kiszl
(Institute of Library and Information Science,
Eötvös Loránd University, Budapest, Hungary)

Katalin Lejtovicz
(ACDH – Austrian Centre for Digital Humanities, Austria)

Piroska Lendvai
(GCDH – The Göttingen Centre for Digital Humanities, Germany)

Gábor Tamás Molnár
(Eötvös Loránd University, Budapest, Hungary)

Márton Németh
(National Széchényi Library, Budapest, Hungary)

Thorsten Ries
(Ghent University, Belgium)

Patrick Sahle
(Universität zu Köln, Germany)

Corinne Szteinsznaider
(Michael Culture Association, Paris, France)

Tamás Váradi
(Research Institute for Linguistics of the Hungarian
Academy of Sciences, Budapest, Hungary)

The Call for Papers can be downloaded from here. CONTACT

Centre for Digital Humanities
Eötvös Loránd University
Múzeum krt. 6-8. (Main building)
Room -105
1088 Budapest
Hungary

E-mail: digihum@elte.hu
www.facebook.com/elte.dh

Seiten