dhd-blog

dhd-blog Feed abonnieren
Digital Humanities im deutschsprachigen Raum
Aktualisiert: vor 1 Stunde 8 Minuten

Stellenausschreibung an der Herzog August Bibliothek Wolfenbüttel: Wissenschaftliche(n) Mitarbeiterin / Mitarbeiter (0,5 Entgeltgruppe 13 TV-L)

Mi, 02/07/2024 - 08:29

An der HAB Wolfenbüttel ist im Rahmen des von der DFG geförderten Projektes „DE ANIMA – Digitale Edition & Analyse eines neu entdeckten jesuitischen Manuskripts:
Das Wolfenbütteler Manuskript der jesuitischen Compendia der Philosophie, Theologie und Kosmologie in japanischer Übersetzung (ca. 1595)“ zum nächstmöglichen Zeitpunkt eine auf drei Jahre befristete Teilzeitstelle (50%) einer / eines Wissenschaftlichen Mitarbeiterin / Mitarbeiters (m/w/d)
(Entgeltgruppe 13 TV-L) zu besetzen. Die wöchentliche Arbeitszeit beträgt zzt. 19,90 Wochenstunden. Gewünschter Arbeitsbeginn ist der 01.04.2024. Die Stelle bezieht sich auf verschiedene Aufgaben im Zusammenhang mit der Entwicklung der digitalen Edition durch die Herzog August Bibliothek (HAB) und die Ruhr-Universität Bochum (RUB).
Die Herzog August Bibliothek Wolfenbüttel ist eine zentrale Institution zur Erforschung der Kulturgeschichte des Mittelalters und der frühen Neuzeit. Sie besitzt bedeutende Sammlungen an Handschriften und alten Drucken sowie einen umfassenden Bestand moderner Forschungsliteratur. In zahlreichen Digitalisierungs-, Erschließungs- und Forschungsprojekten werden die Bestände zugänglich gemacht und wissenschaftlich genutzt.

Projektbeschreibung

Das Forschungsprojekt basiert auf der Identifizierung einer umfangreichen Handschrift aus dem Bestand der HAB. Sie enthält die sogenannten Compendia der Philosophie, Theologie und Kosmologie in japanischer Übersetzung, die ab dem späten 16. Jahrhundert die Grundlage der Ausbildung in den Jesuitenkollegien in Japan sowie später in Macau bildeten. Das HAB-Manuskript umfasst erstmals neben dem vollständigen zweiten Teil auch den gesamten dritten Teil, der in das geozentrische Weltbild und die Lehre von den vier Elementen einführt.
Das Ziel des Projektes ist es, den neu entdeckten Textzeugen der Compendia in einer nutzerorientierten, historisch-kritischen digitalen Edition aufzubereiten und zu präsentieren, um ihn für die Forschung verfügbar zu machen. Während der dritte Teil hier zum ersten Mal überliefert wird, sind der erste und zweite Teil teilweise in einem einzigen weiteren Textzeugen erhalten. Um Einblicke in die Textgenese zu ermöglichen, sollen die Textvarianten beider Textzeugen in einer Form einer textkritischen Edition vergleichend dargestellt werden. Nutzerorientiertheit soll darüber hinaus durch die parallele Darstellung der Faksimile-Bilder mit dem transkribierten Text erzielt werden.

Ihre Aufgaben:
– Konzeptentwicklung (Datenmodell) für die TEI-Kodierung in enger Abstimmung mit dem RUB-Team.
– Anleitung des RUB-Teams beim Erarbeiten von Transkriptions- und Editionsrichtlinien und in der Einarbeitung mit dem XML-Editor oXygen.
– Erstellung elektronischer Indizes und der Bibliographie (Zotero).
– Vorbereitung und Beauftragung des Projektportals an einen externen Dienstleister.
– Entwicklung von Präsentationsskripten (XSLT/XQuery) gemäß redaktioneller Richtlinien.
– Entwicklung von Suchalgorithmen.
– Zusammenstellung von Datenpaketen für die Langzeitarchivierung.
– Vorbereitung und Veröffentlichung von Forschungsdaten.

Ihr Profil:
– Abgeschlossenes Studium (Master oder vergleichbar) oder Promotion im Bereich der Digitalen Geisteswissenschaften, Informatik, Linguistik, bzw. einem verwandten Fachbereich oder ein geisteswissenschaftliches Studium mit nachgewiesenen Erfahrungen im Bereich der Digital Humanities.
– Fundierte Kenntnisse in XML/TEI-P5 und Erfahrung in der Kodierung von Texten, sowie in der Entwicklung und Anwendung von XSLT/XQuery-Skripten.
– Fähigkeit zur Koordination und Zusammenarbeit in einem interdisziplinären Team.
– Teamfähigkeit, Belastbarkeit, gute Kommunikationsfähigkeit, Selbstständigkeit und Flexibilität
– Zuverlässigkeit und Verantwortungsbewusstsein im Hinblick auf die Durchführung von Lektoratstätigkeiten und Testen der digitalen Präsentation.

Wünschenswert sind:
– Interesse an digitalen Editionen und neuen innovativen Darstellungsformen. Zudem Freude an der Arbeit mit nicht-lateinischen Schriftsystemen und deren elektronische Verarbeitung. Japanisch Kenntnisse sind willkommen, jedoch nicht zwingend notwendig.
– Erfahrung in der Leitung von Projekten im Bereich der Digital Humanities von Vorteil.

Wir bieten Ihnen:
– einen modernen, familienfreundlichen Arbeitsplatz in einer international bekannten Bibliothek, Forschungs- und Studienstätte mit einem attraktiven und abwechslungsreichen Aufgabenspektrum
– ein kollegiales Arbeitsklima in einem engagierten und aufgeschlossenen Team
– Möglichkeit zur Koordination eines digitalen Editionsprojektes eines äußerst seltenen fremdsprachigen Textes in einem interdisziplinären Umfeld
– eine umfassende und intensive Einarbeitung in den Tätigkeitsbereich
– flexible Arbeitszeiten sowie mobiles Arbeiten (nach Vereinbarung bis zu 40%) oder Telearbeit sind möglich
– Möglichkeiten zur Teilnahme an Fort- und Weiterbildungen sowie der individuellen Weiterentwicklung
– eine Jahressonderzahlung im Rahmen des TV-L und Altersvorsorge für den öffentlichen Dienst (VBL)

Die Herzog August Bibliothek strebt an, Unterrepräsentanzen i. S. des NGG in allen Bereichen und Positionen abzubauen. Die Gleichstellung von Frauen und Männern wird gefördert. Schwerbehinderte Bewerberinnen und Bewerber werden bei gleicher Eignung und Befähigung bevorzugt behandelt. Ein Nachweis ist beizufügen.


Interessentinnen und Interessenten können sich bei Herrn Marcus Baumgarten per E-Mail unter baumgarten[at]hab.de über das Arbeitsgebiet informieren.

Bewerbungen mit den üblichen Unterlagen werden bis zum 29.02.2024 mit dem Kennwort „de anima“ in elektronischer Form als pdf-Datei erbeten an:

Herzog August Bibliothek
Verwaltung
Lessingplatz 1
38304 Wolfenbüttel
E-Mail: verwaltung@hab.de

Abschlussworkshop des DFG-Netzwerks „Offenes Mittelalter“

Di, 02/06/2024 - 15:05

Unter dem Titel „Offenes Mittelalter“ lädt das gleichnamige DFG-Netzwerk zu seinem Abschlusstreffen ein, in dem es um einen Austausch über vernetzte Ressourcen und ihr Potenzial für die germanistische Mediävistik geht. Neben einem Bericht der Aktivitäten des DFG-Netzwerks gibt es verschiedene Impulsvorträge und eine Panel-Diskussion.

Offenes Mittelalter

Unter dem Titel „Offenes Mittelalter“ lädt das gleichnamige DFG-Netzwerk zu seiner Abschlusskonferenz am 20. Februar 2024 im Georg-Christoph-Lichtenberghaus in Darmstadt ein, in dem es um einen Austausch über vernetzte Ressourcen und ihr Potenzial für die germanistische Mediävistik geht. Neben einem Bericht der Aktivitäten des DFG-Netzwerks gibt es verschiedene Impulsvorträge und eine Panel-Diskussion zu Linked Open Data in der mediävistischen Forschung.

Ganz im Sinne eines offenen Mittelalters richtet sich die Konferenz an ein interdisziplinäres Publikum und ist aufgrund der Übertragbarkeit der besprochenen Methoden nicht auf eine Epoche festgelegt.

Interessierte sind herzlich eingeladen!
Eine kostenlose Anmeldung ist via https://offenesmittelalter.org/workshop-offenes-mittelalter/ möglich.

Programm

ab 09:30 Uhr: Get Together
10:00-10:15 Uhr: Begrüßung
10:15-11:00 Uhr: Netzwerk Offenes Mittelalter – Highlights & Outlook
11:00-11:30 Uhr: Kaffepause
11:30-12:15 Uhr: Prof. Dr. Hanna Fischer (Universität Rostock): „Althochdeutsch online und vernetzt – die digitale Edition Abrogans:alienatus“
12:15-14:00 Uhr: Mittagspause mit Posteraustellung „Vernetzte und digitale Mediävistik“
14:00-14:45 Uhr: Prof. Dr. Friedrich Michael Dimpel (FAU Erlangen-Nürnberg): „Das Sentiment-Wörterbuch SentiMhd und Sentiment-Analysen an Iwein und Tristan“
14:45-15:30 Uhr: Prof. Dr. Silke Schwandt (Universität Bielefeld): „Wissen übers Mittelalter – Datenvisualisierungen als ‚Quellen‘ in der Geschichtswissenschaft“
15:30-16:00 Uhr: Kaffeepause
16:00-17:15 Uhr: Paneldiskussion „Offenes Mittelalter“ mit Dr. Tessa Gengnagel (Cologne Center for eHumanities), Dr. Marco Heiles (Universität Hamburg), Philipp Schneider (Humboldt-Universität zu Berlin) und PD Dr. Sabine Tittel (Universität Heidelberg). Moderiert von Hannah Busch (Cologne Center for eHumanities)

Stellenausschreibung: Bibliotheksreferendar (w/m/d) – UB Heidelberg

Fr, 02/02/2024 - 16:02

Die Universitätsbibliothek Heidelberg stellt zum 1. Oktober 2024 einen Bibliotheksreferendar (w/m/d) für den höheren Bibliotheksdienst an wissenschaftlichen Bibliotheken mit dem fachlichen Schwerpunkt Digital Humanities ein. (Bewerbungsfrist: 08. März 2024).

Wissenschaftliche Bibliothekar*innen arbeiten als Informationsspezialist*innen an der Schnittstelle zwischen Forschung bzw. Lehre und Bibliothek. Zentrale Aufgabenbereiche sind die fachbezogene Auswahl und Erschließung wissenschaftlicher Literatur, die Mitarbeit im Bibliotheksmanagement, Publikations- und Forschungsdatenmanagement sowie die Vermittlung von Informationskompetenz.

Die Universitätsbibliothek Heidelberg ist Kompetenz- und Steuerungszentrum für alle bibliothekarischen Geschäftsprozesse an der Universität Heidelberg und betreut das gesamte Fächerspektrum einer Volluniversität mit ausgeprägter Forschungsorientierung und internationalem Anspruch.

Die vollständige Ausschreibung für den aktuellen Ausbildungsjahrgang 2024 in Baden-Württemberg, Informationen zu den beruflichen Anforderungen, zum Bewerbungs- und Auswahlverfahren sowie zum Ablauf der Ausbildung finden Sie auf der Homepage der Württembergischen Landesbibliothek:  https://www.wlb-stuttgart.de/die-wlb/ausbildung/hoeherer-dienst-an-wiss-bibliotheken/  

(Ausbildungsbehörde höherer Bibliotheksdienst), Kontaktpersonen auf den Ausbildungsseiten der Universitätsbibliothek Heidelberg: https://www.ub.uni-heidelberg.de/allg/Mitarbeiter/ausbildung/hoehererdienst.html .

 

Wir freuen uns auf Ihre Bewerbung!

 

 

Viele Grüße, Ulrike Fälsch

Stellenausschreibung: FU Berlin sucht Wissenschaftl. Mitarbeit für das Datenkompetenzzentrum QUADRIGA

Fr, 02/02/2024 - 14:20

Das BMBF-geförderte Datenkompetenzzentrum QUADRIGA vereint die vier Disziplinen Digital Humanities, Verwaltungswissenschaft, Informatik und Informationswissenschaft entlang der Datentypen Text, Tabelle und Bewegtes Bild am Wissenschaftsstandort Berlin-Brandenburg. Der inhaltliche Ansatz des an sieben renommierten Berlin-Brandenburgischen Hochschulen und Forschungseinrichtungen entstehenden Datenkompetenzzentrums führt Forschungs-, Lern- und Vernetzungsorte über datenbasierte Fallstudien und Bildungsangebote zusammen: So werden für Forschende aller Karrierestufen Ressourcen für den souveränen Umgang mit Daten im Forschungsalltag geschaffen.

Die Freie Universität leitet das Arbeitspaket “Forschungsorte” mit dem dort angesiedelten Teilvorhaben “Digital Humanities für Text und Bewegtes Bild” sowie das Arbeitspaket “Verstetigung”, das die Entwicklung eines Konzepts für die dauerhafte Zugänglichkeit der im Vorhaben entstehenden Bildungsangebote koordiniert.

Für das an der Universitätsbibliothek der Freien Universität angesiedelte Teilprojekt „Verstetigung“ suchen wir zum nächstmöglichen Zeitpunkt eine*n Wissenschaftliche*n Mitarbeiter*in (m/w/d, TV-L E13, 50% VZÄ, 36PM) mit folgenden Aufgaben:

Sie evaluieren und konzipieren Maßnahmen zur dauerhaften Zugänglichkeit der in QUADRIGA entstehenden digitalen Bildungsangebote. Sie erarbeiten Modelle für den langfristigen Betrieb des Datenkompetenzzentrums, die frühzeitige und nachhaltige Verfügbarmachung von Inhalten und Ressourcen nach den Paradigmen von FAIR und Open Research sowie Konzepte für die Vernetzung mit anderen geisteswissenschaftlichen Datenkompetenzzentren. Dabei können Sie auf die bereits an den Verbund-Einrichtungen bestehenden Angebote und Vorarbeiten zurückgreifen. Sie tragen aktiv dazu bei, Datenkompetenzen in den text- und bildbasierten Digital Humanities in der Region zu institutionalisieren und dauerhaft zugänglich zu machen.

Bewerbungsschluss ist der 19.02.2024.

Weitere Informationen: https://www.fu-berlin.de/universitaet/beruf-karriere/jobs/wiss/16_fb-philosophie-und-geisteswissenschaften/PG-QUADRIGA-FU-Verstetigung.html

Wir freuen uns auf Ihre / Eure Bewerbung!

DH2024 Mini-Konferenz „DH Inside Out“

Do, 01/25/2024 - 16:29

Der Fokus vieler wissenschaftlicher Veranstaltung in den Digital Humanities liegt auf den zugrundeliegenden Fragen aus den jeweiligen Fachdisziplinen. Die technischen Rahmenbedingungen und Lösungsansätze zum Beispiel bei der Datensammlung und Bereinigung oder der Visualisierung von Ergebnissen treten meist in den Hintergrund.

Die ADHO Special Interest Group DHTech möchte auf der nächsten großen DH-Konferenz, der DH2024 in Washington, D.C., dieses Format umdrehen und veranstaltet dafür im Vorprogramm der Haupt-Konferenz eine Mini-Konferenz zum Thema „DH Inside Out“.

Gefragt sind Beitrage zu den Themen Implementierung und Design, Erfahrungsaustausch für technische Lösungsansätze, Tool-Demonstrationen, und andere Themen die für die technische DH-Community von Interesse sein können.

Neben normalen Präsentationen mit einem 20 Minuten-Format können auch Software-Demonstrationen eingereicht werden, die neben dem Vorführen der Software auch eine erweiterte Diskussion mit den Teilnehmern erlauben.

Der Link für die Einreichung von Beiträgen (~500 Wörter) und weitere Information finden sich auf der Webseite der SIG DHTech. Die Deadline für die Einreichung ist am 15.03.2024. Es werden auch Reviewer gesucht.

Zweites FAIR February Meetup – Let’s talk FAIR Digital Editions ab 1. Februar

Mi, 01/24/2024 - 10:23
  Im FAIR February widmet sich Text+ einen Monat lang wöchentlich in einer virtuellen Veranstaltung den vier FAIR-Prinzipien Findability, Accessibility, Interoperability und Reusability, die sich seit ihrer Veröffentlichung 2016 zu Leitprinzipien innerhalb der Digital Humanities entwickelt haben.       FAIR February 2024 / Veranstaltungsreihe des NFDI-Konsortiums Text+ Zweites FAIR February Meetup – Let’s talk FAIR Digital Editions In der Task Area Editions des NFDI-Konsortiums Text+ wird das Know-how digital und interdisziplinär arbeitender Wissenschaftler:innen gebündelt mit dem Ziel, die Forschungsdateninfrastruktur für digitale Editionen zu verbessern.   Im FAIR February widmet sich Text+ einen Monat lang wöchentlich in einer virtuellen Veranstaltung den vier FAIR-Prinzipien Findability, Accessibility, Interoperability und Reusability. Mit der virtuellen Veranstaltungsreihe, die im Februar 2023 ihren Anfang nahm, wenden wir uns an Forschende und Mitarbeitende von laufenden oder geplanten Editionsprojekten, analog wie digital sowie an Interessierte aus den Digital Humanities, um über die FAIR-Prinzipien und ihre Anwendung im Kontext wissenschaftlicher Editionen zu diskutieren:  
  • Was bedeuten die einzelnen Prinzipien ganz konkret für Editionen?
  • Welche Unklarheiten und Lücken gibt es?
  • An welcher Stelle bedarf es einer Ausdifferenzierung?
  Erste Gesprächsimpulse geben Expert:innen verschiedener Fachbereiche aus technischer, editionswissenschaftlicher und bibliothekarischer Sicht.   Eine Anmeldung ist ab sofort möglich unter: https://events.gwdg.de/event/575/registrations/.     Programm  
  1. Februar 2024 F wie Findability
Zeit: 14:00-16:30 Uhr   Impulse: Anna Lingnau (HAB Wolfenbüttel): Auf Schatzsuche: Fachrelevante Forschungsdaten identifizieren, filtern und auffindbar machen Nils Geißler (CCeH/FID Philosophie) und Tobias Gradl (MInfBA): Findbare Editionen in der Text+ Registry

 

  1. Februar 2024 A wie Accessibility
Zeit: 14:00-16:30 Uhr   Impulse: Christiane Felsmann (dzb lesen): tba Wout Dillen (University of Borås): How FAIR is (Web) Accessibility?

 

  1. Februar 2024 I wie Interoperability
Zeit: 14:00-16:00 Uhr   Impulse: Stefan Dumont (BBAW): CorrespSearch Dieta Svoboda-Baas (Heidelberg): Edition2LD

 

  1. Februar 2024 R wie Reusability
Zeit: 14:00-16:30 Uhr   Impulse: Carolin Odebrecht (HU Berlin): R wie Dokumentation. Wie wir Dokumentation als eine Bedingung für die Reusability von Forschungsdaten umsetzen können Walter Scholger (ZIM Graz): Nachnutzung von digitalen Editionen auf Basis offener Lizenzen

 

Kontakt office@text-plus.org

 

https://events.gwdg.de/event/575/

Nachholtermin: Einladung zum 7. Community Forum 02.02.2024

Mi, 01/24/2024 - 10:05

Liebe Mitglieder des DHd-Verbandes und Interessierte,

für unsere interdisziplinäre Community ist ein offener Austausch von großer Bedeutung. Während die jährliche Mitgliederversammlung bereits eine wichtige Rolle für unsere communityinterne Verständigung übernimmt, unterstützen wir als Vorstand weitere partizipative Angebote. Alle Mitglieder und Interessierte sind herzlich eingeladen, sich an den Diskussionen zu beteiligen sowie Themenvorschläge (info@dig-hum.de) einzureichen.

Das nächste virtuelle Community Forum findet am Freitag, dem 2. Februar 2024 von 14–15 Uhr statt. Das von uns vorgeschlagene Thema lautet “Reviewverfahren von DHd-Konferenzbeiträgen”. Wir möchten das Community Forum dieses Mal nutzen, um uns über Erfahrungen und Herausforderungen des Reviewing auszutauschen. 

Für das Community Forum werden wir das Videokonferenztool BigBlueButton nutzen. Wir möchten Sie bitten, sich mit vollständigem Namen anzumelden.

https://webroom.hrz.tu-chemnitz.de/gl/rab-rg7-psq-qcn

Wir freuen uns auf den Austausch mit Ihnen!

Mit freundlichen Grüßen

Rabea Kleymann (als Koordinatorin des Community Forums)

6. Expert:innenforum „Nachhaltige Softwareentwicklung in NFDI4Culture”: Ökologische Nachhaltigkeit von Softwareentwicklung und -gebrauch

Mi, 01/24/2024 - 09:56

verfasst von: Aleksander Marcic (ORCID), Daniel Jettka (ORCID), Anne Ferger (ORCID)

Einführung

Am 01. Dezember 2023 kam das Expert:innenforum „Nachhaltige Softwareentwicklung in NFDI4Culture“ zu seinem mittlerweile sechsten halbjährlichen Treffen zusammen. Anlässlich der fortgeschrittenen Anzahl bereits absolvierter Forumstreffen war es an der Zeit, ein Resümee zum bisherigen Verlauf des Forums zu ziehen, aber auch einen Blick in die Zukunft zu richten mit dem für diesen Termin ausgewählten Fokusthema „Ökologische Nachhaltigkeit von Softwareentwicklung und -gebrauch“ .

In der kurzen Feedbackrunde zu Beginn des Forums zeigten sich die Expert:innen im Wesentlichen einig darüber, dass das Forum thematisch und organisatorisch sehr gut aufgestellt ist und lediglich geringer Anpassungsbedarf hinsichtlich der eingesetzten Kommunikationsmittel für die Organisation und den Austausch zwischen den Forumsterminen besteht. Entsprechend wird die Kommunikation via E-Mail wieder eine stärkere Rolle einnehmen, und der eigens für das Forum eingerichtete Chat-Kanal voraussichtlich sehr viel weniger bis gar nicht mehr genutzt werden.

Etwas weniger eindeutig als das Feedback zum Gesamtverlauf des Forums sind jedoch, wie zu erwarten, die Antworten bzw. Überlegungen auf die Fragen ausgefallen, die sich im Zusammenhang mit ökologischer Nachhaltigkeit in der Softwareentwicklung stellen, wie etwa: Welches Wissen ist notwendig, um Softwareentwicklung möglichst ökologisch nachhaltig zu gestalten? Wo finden sich ökologische Einspar- und/oder Optimierungspotentiale? Was sind konkrete Maßnahmen, um im Bereich der Softwareentwicklung ökologisch nachhaltig(er) zu handeln?

Zur Einführung in das Schwerpunktthema hatten sich Torsten Roeder und Anne Baillot als Vertreter:innen der DHd-AG Greening DH im Vorfeld bereit erklärt, eine Einführung und Einordnung in den aktuellen Stand von Initiativen und Bemühungen zu geben. Für die guten Hintergründe und Denkanstöße aus ihrer Präsentation Von der Initiative bis zur Praxis: Die DHd-AG Greening DH und das DHCC Toolkit ist ihnen das Forum überaus dankbar.

Die Ergebnisse der anschließenden Diskussion der Expert:innenrunde, die sich aus Vertreter:innen von Rechenzentren, Forschungsförderern, Forschungsinstitutionen und -projekten zusammensetzt, werden in den folgenden thematisch gegliederten Abschnitten wiedergegeben.

Diskussion zu ökologischer Nachhaltigkeit

Nach der Diskussion von Möglichkeiten zur Verbesserung der ökologischen Nachhaltigkeit bei Forschungsprojekten und -software in der Vorstellung der Aktivitäten in der AG Greening DH wurde besonders die Rolle von Forschungsförderern betont. Die DFG-Empfehlungen sehen ab 2024 zunehmend vor, dass Antragstellende Überlegungen zur ökologischen Nachhaltigkeit im Forschungsprozess in den Zusatzinformationen zum Projektantrag darlegen. Und auch im konkreten Bereich Forschungssoftware wird Nachhaltigkeit zukünftig Teil einer Leitlinie sein. Die Auswirkung dieser Empfehlungen auf die Forschungsförderung hängt – wie schon bei den Empfehlungen zur Gleichstellung und zum Forschungsdatenmanagement – vom Stellenwert ab, den Gutachter:innen dem Thema beimessen. Die bisherigen Erfahrungen mit diesem Vorgehen haben gezeigt, dass auf diesem Weg Veränderungen relativ schnell in den wissenschaftlichen Betrieb Eingang finden. Über die allgemeinen Empfehlungen und einen Leitfragenkatalog hinaus sind von Seiten der DFG allerdings keine konkrete Vorgaben geplant, wie die ökologische Nachhaltigkeit von Projekten und Software durch die Gutachter:innen zu beurteilen wäre. Zum einen könnte das daran liegen, dass sich für die Breite der Fachbereiche gemeinsame verbindliche Kriterien nicht ermitteln lassen, zum anderen aber insofern im Sinne der Wissenschaftsfreiheit die Beurteilung von Forschung eben durch die Wissenschaftscommunity selbst, d.h. durch die jeweiligen Gutachter:innen, erfolgt.

Über die Hoffnung und Annahme hinaus, dass in absehbarer Zeit die ökologische Nachhaltigkeit Gegenstand des Beantragungs- und Begutachtungsprozesses wird, kann aber auch gezielt die Sichtbarkeit von Projekten und Software verbessert werden, welche bereits jetzt in ökologische Nachhaltigkeit investieren. Diesbezüglich wurde vorgeschlagen kurzfristig spezielle Auszeichnungen (z. B. durch Zertifikate) für nachhaltigkeitsorientierte Projekte und Software zu entwickeln und zu etablieren. Auch hier wurde zu bedenken gegeben, dass die Einigung auf konkrete Kriterien sehr komplex wird, sobald man eine Breite von Fällen abdecken will. Das führt dann oft dazu, dass Vorgaben und Kriterien, wenn sie festgelegt werden, vage und abstrakt wirken und wenig konkrete Orientierung bieten.

Eine wichtige Dimension ist das Messen von konkreten ökologischen Auswirkungen bestimmter Maßnahmen oder Softwareinstanzen, getreu dem Motto: You cannot improve what you cannot measure. Problematisch ist es auch hier sich auf verbindliche Messkriterien zu einigen. Eine Zusammenstellung von Empfehlungen für die Messung wird vom DH CC Toolkit bereitgestellt.

Ein weiteres wichtiges Einflusskriterium ist die ökologische Nachhaltigkeit von Rechenzentren, an denen Forschungssoftware betrieben wird. Dabei lassen sich unter anderem durch Entscheidungen zu der zugrundeliegenden Hardware (Server, Kühlung, etc.) starke Verbesserungen der Energieeffizienz erzielen. Mit dem Blauen Engel für Rechenzentren gibt es eine Möglichkeit die Nachhaltigkeit von Rechenzentren zertifizieren zu lassen. Dass Investitionen in die Nachhaltigkeit durch dieses Zertifikat sichtbar werden, kann allerdings von Maßnahmen abhängen, die über längere Zeiträume umgesetzt werden müssen (z. B. größere Baumaßnahmen) und Effekte können sich entsprechend verzögern.

Es wurde aber auch darauf hingewiesen, dass die Optimierung von Software hinsichtlich ökologischer Nachhaltigkeit selbst Kosten verursacht, die teilweise höher sein können, als die Optimierungsgewinne. Hier gilt es maßvoll vorzugehen, was wiederum eine durch Erfahrung und grundlegende Kenntnisse gut fundierte Orientierung voraussetzt.

Deshalb muss vorhandenes und noch zu erarbeitendes Wissen um die ökologische Dimension der Softwareentwicklung in Beratungsprozesse (z. B. zu Projektplanung und -beantragung), Lehre und Ausbildung von Research Software Engineers integriert werden.

Als eine konkrete Maßnahme wurde die Möglichkeit genannt, Inhalte von statischen Websites als reines HTML zu archivieren und damit im technischen Sinne nachhaltiger zu machen. Hieraus ergeben sich gleichzeitig Potentiale für die ökologische Nachhaltigkeit durch die Verwendung statischer Inhalte. Weniger Javascript bedeutet weniger Speicher- und Energiebedarf auf Endnutzergeräten. Außerdem laden statisch konzipierte Seiten auch nicht permanent Daten von verschiedenen Schnittstellen/Datenbanken nach, um für jeden Nutzer eine individuelle Ansicht zu generieren.

Fazit und Ausblick

Mit der Auswahl des Schwerpunktthemas “Ökologische Nachhaltigkeit von Softwareentwicklung und -gebrauch” hat sich das Expert:innenforum der Herausforderung gestellt, ein sowohl technisch als auch teils emotional sehr komplexes Thema zu behandeln. In der guten und offenen Diskussion wurde deutlich, dass eindeutig Handlungsbedarf besteht, jedoch konnte erwartungsgemäß nicht abschließend beantwortet werden, in welchen Bereichen und wie genau sinnvolle Handlungen und Veränderungen herbeigeführt werden können, da Softwareentwicklung nur einen kleinen Teil eines überaus komplexen Systems ausmacht, das mehr ökologischer Nachhaltigkeit bedarf.

Dennoch konnten neben der Bewusstmachung einiger Problembereiche und Zusammenhänge, die für sich genommen bereits als Fortschritt angesehen kann, auch ein paar Anhaltspunkte gefunden werden, wie das Thema ökologische Nachhaltigkeit vorangebracht werden kann. Hierzu gehört ganz allgemein die Einbeziehung des Themenkomplexes in Beratungsprozesse und in die Lehre. Des Weiteren wurde das Ziel formuliert weitergehend mit der DHd-AG Greening DH zu kooperieren und die Reflexion ökologischer Nachhaltigkeit in die nächste Version des Leitfaden für die nachhaltige Entwicklung und Nutzung von Forschungssoftware aufzunehmen.

Virtuelles DH-Kolloquium an der BBAW, 29.01.2024: Large Language Models, künstliche Intelligenz. Veränderungen des wissenschaftlichen Schreibens und Forschens – ein (korpus-)linguistischer Blick

Mi, 01/17/2024 - 14:00

Im Rahmen des DH-Kolloquiums an der BBAW laden wir Sie herzlich zum nächsten Termin am Montag, den 29. Januar 2024, 16 Uhr c.t., ein (virtueller Raum: https://meet.gwdg.de/b/lou-eyn-nm6-t6b):

Noah Bubenhofer (Universität Zürich) über Large Language Models, künstliche Intelligenz. Veränderungen des wissenschaftlichen Schreibens und Forschens – ein (korpus-)linguistischer Blick

***

Seit der Lancierung von ChatGPT befasst sich die breite Öffentlichkeit mit sog. Large Language Models (Sprachmodellen) und streitet über die Chancen und Gefahren dieser Technologie. In meinem Vortrag möchte ich einen linguistischen Blick auf diese Technologie werfen und fragen: Wie verändert sich der Umgang mit Text in der Wissenschaft und welche neuen Möglichkeiten ergeben sich in der Forschung? In der Korpus- und Computerlinguistik ist uns die Arbeit mit Sprachmodellen seit einiger Zeit vertraut, da sie dazu dienen, Sprachgebrauch zu modellieren und zu untersuchen. In ihrer heutigen, interaktiven Form, sind Sprachmodelle jedoch mehr als eine Repräsentation von Sprachgebrauch. Dies soll im Vortrag ebenfalls thematisiert werden.

***

Die Veranstaltung findet virtuell statt; eine Anmeldung ist nicht notwendig. Zum Termin ist der virtuelle Konferenzraum über den Link https://meet.gwdg.de/b/lou-eyn-nm6-t6b erreichbar. Wir möchten Sie bitten, bei Eintritt in den Raum Mikrofon und Kamera zu deaktivieren. Nach Beginn der Diskussion können Wortmeldungen durch das Aktivieren der Kamera signalisiert werden.

Der Fokus der Veranstaltung liegt sowohl auf praxisnahen Themen und konkreten Anwendungsbeispielen als auch auf der kritischen Reflexion digitaler geisteswissenschaftlicher Forschung. Weitere Informationen finden Sie auf der Website der BBAW.

Vortrag: Text-Reuse-Detection: Ein Werkzeug für die textorientierten Wissenschaften? Frederik Arnold, Robert Jäschke, Philip Kraut, Steffen Martus (HU Berlin), 18.01.2024, Humboldt-Universität zu Berlin

Mi, 01/10/2024 - 18:54

Zitate sind ein wichtiges Indiz für intertextuelle Verhältnisse. Insbesondere direkte, wörtliche Übernahmen weisen auf Stellen hin, die so bedeutend sind, dass sie nicht in ‘eigenen Worten’ wiedergegeben werden können oder durch eigene Worte ersetzt werden sollen. In unseren Projekten zur Identifikation von “Schlüsselstellen” sowie zur (Nach-)Nutzung vorhandenen Expert*innenwissens in den Computational Literary Studies haben wir Verfahren zur Text-Reuse-Detection entwickelt, die sich insbesondere auf die bislang systematisch ungeklärte Beziehung von Quellen und wissenschaftlichen Texten konzentrieren, aber auch andere Formen von Intertextualität erfassen.

Steffen Martus ist Professor für Neuere deutsche Literatur am Institut für deutsche Literatur der Humboldt–Universität zu Berlin. Seine Forschungsschwerpunkte liegen in der Literaturgeschichte vom 18. Jahrhundert bis zur Gegenwart, in der Literaturtheorie (insbesondere Theorien des literarischen Werks) sowie der Wissenschaftstheorie und -geschichte der Geisteswissenschaften. Im Rahmen des DFG-Schwerpunktprogramms 2207 Computational Literary Studies leitet er gemeinsam mit Rober Jäschke ein Projekt zu Schlüsselstellen in der Literatur (2020-2026). Gemeinsam mit Jörn Kreutel (Berliner Hochschule für Technik) leitet er das DFG-Projekt „Forschungsplattform Literarisches Feld DDR: Autor*innen, Werke, Netzwerke“.

Robert Jäschke ist Professor für Information Processing and Analytics am Institut für Bibliotheks- und Informationswissenschaft der Humboldt-Universität zu Berlin. Sein Forschungsschwerpunkt sind Verfahren (vorrangig des maschinellen Lernens) zur Verarbeitung und Analyse großer Datenmengen. Beispielsweise erforscht er im DFG-Projekt Unknown Data (2022-2025) Verfahren zum Finden und Katalogisieren von Long-Tail-Forschungsdaten der Informatik und der Sozialwissenschaften. Im Rahmen des DFG-Schwerpunktprogramms 2207 Computational Literary Studies leitet er gemeinsam mit Steffen Martus ein Projekt zu Schlüsselstellen in der Literatur (2020-2026). Robert Jäschke ist Mitbegründer des Social-Bookmarking-Dienstes BibSonomy und Gründer und Mitherausgeber des Blogs weltliteratur.net, einem „Schwarzmarkt für die Digitalen Geisteswissenschaften“.

Frederik Arnold ist akademischer Mitarbeiter am Lehrstuhl für Information Processing and Analytics am Institut für Bibliotheks- und Informationswissenschaft. Er forscht im Rahmen des DFG-Schwerpunktprogramms 2207 Computational Literary Studies zu Schlüsselstellen in der Literatur mit Fokus auf der automatisierten Entdeckung. Er hat seinen Master in Computerlinguistik an der Universität des Saarlandes erworben.

Der Vortrag ist Teil der Reihe „Werkzeug. Zur Praxis computergestützter Forschung in den Geistes- und Kulturwissenschaften“ der Kompetenzwerkstatt Digital Humanities (KDH) an der Universitätsbibliothek der Humboldt-Universität zu Berlin.

Hinweis zur Veranstaltung

Vortrag und Gespräch auf deutsch.

Datum: 18.01.2024, 14-16 Uhr

Ort: Jacob-und-Wilhelm-Grimm-Zentrum, Auditorium (Universitätsbibliothek, Geschwister-Scholl-Straße 1/3, 10117 Berlin)

Die Veranstaltung findet hybrid statt. Zugangsdaten schicken wir nach Anmeldung per Mail an ub.makerspace@hu-berlin.de.

Weitere Informationen zur Vortragsreihe Werkzeug auf der Homepage der KDH

Briefeditionen vernetzen. Musiker:innenbriefe digital/hybrid – Studientag 17. Januar 2024

So, 01/07/2024 - 20:29

Der Studientag widmet sich aktuellen digitalen und hybriden Briefeditionen und richtet sich an Editor:innen sowie eine interessierte Öffentlichkeit. Präsentationen der teilnehmenden Projekte geben einen Einblick in deren inhaltliche und strukturelle Ausrichtungen, in mehreren Panels werden spezifische Fragestellungen diskutiert.

Projekte:

  • The Correspondence between Arnold Schönberg and his Publishers Universal-Edition and Verlag Dreililien. A Critical Hybrid Edition
  • Der Briefwechsel Alma Mahler – Walter Gropius 1910–1964: Erschließung der Quellen und kommentierte Hybrid-Edition. Teil 1: 1910–1914
  • Bernd Alois Zimmermann-Gesamtausgabe. Historisch-kritische Ausgabe seiner Werke, Schriften und Briefe
  • Digitale Briefedition: Hans Werner Henzes künstlerisches Netzwerk

PROGRAMM

Arnold Schönberg Center, Wien und online
Mittwoch, 17. Januar 2024
9.30 – 18.15 Uhr
Eintritt frei

Die Vorträge werden live auf facebook  und YouTube übertragen. Für die aktive Teilnahme via Zoom ist eine kostenfreie Registrierung erforderlich (Betreff: Registrierung Studientag): office@schoenberg.at

Veranstaltung des Arnold Schönberg Center, Wien in Kooperation mit dem Wissenschaftszentrum Arnold Schönberg und die Wiener Schule am Institut für Musikwissenschaft und Interpretationsforschung der mdw – Universität für Musik und darstellende Kunst Wien

Wissenschaftliche:r Mitarbeiter:in im Projekt „Historische Fremdsprachenlehrwerke digital. Sprachgeschichte, Sprachvorstellungen und Alltagskommunikation im Kontext der Mehrsprachigkeit im Europa der Frühen Neuzeit“ (FSL digital) § 28 Abs. 3 HmbHG

So, 01/07/2024 - 09:41

Einrichtung: Universität Hamburg, Fakultät für Geisteswissenschaften, Institut für Germanistik
Wertigkeit: E 13
Arbeitsbeginn: 01.04.2024
Befristungsende: 31.03.2027, eine Verlängerung wird angestrebt
Bewerbungsschluss: 15.02.2024
Arbeitsumfang: teilzeitgeeignete Vollzeitstelle

Ihre Aufgaben
Die Aufgaben umfassen wissenschaftliche Dienstleistungen im o. g. Projekt. Außerhalb der Dienstaufgaben besteht Gelegenheit zur wissenschaftlichen Weiterbildung.
An der Universität Hamburg startet 2024 das interakademische (BBAW und Akademie der Wissenschaften und Literatur Mainz) Akademienvorhaben „Historische Fremdsprachenlehrwerke digital. Sprachgeschichte, Sprachvorstellungen und Alltagskommunikation im Kontext der Mehrsprachigkeit im Europa der Frühen Neuzeit“ unter der Leitung von Prof. Dr. Natalia Filatkina (Universität Hamburg), Prof. Dr. Horst Simon (FU Berlin) und Prof. Dr. Andrea Rapp (Technische Universität Darmstadt). Das Ziel ist die Volltexterschließung, korpuslinguistische Aufbereitung, Annotation, digitale Vernetzung sowie die sprach-, kultur- und wissenshistorische Auswertung von mehrsprachigen Fremdsprachenlehrwerken aus der Frühen Neuzeit. Im Rahmen des Vorhabens wird das gesamte überlieferte Material, in dem das Deutsche eine der Sprachen ist, nach einem gestuften Konzept volltexterschlossen, nachhaltig aufbereitet und für weitere Analysen bereitgestellt. Damit wird es zum ersten Mal möglich sein, die historischen Wurzeln der heutigen Mehrsprachigkeit in Europa aus der Perspektive alltagssprachlicher Praxis des Fremdsprachenerwerbs und der Fremdsprachen- und Wissensvermittlung in der Frühen Neuzeit zu beantworten. Für dieses Projekt wird ein:e wissenschaftliche:r Mitarbeiter:in gesucht, zunächst befristet auf 3 Jahre (eine Verlängerung wird angestrebt).
Zu den Aufgaben gehören konzeptionelle Entwicklung des Vorhabens in Kooperation mit den Arbeitsstellen in Berlin und Darmstadt, wissenschaftliche Mitarbeit bei der Erstellung, Annotation und Analyse eines digitalen Korpus frühneuzeitlicher Fremdsprachenlehrwerke, Forschung im Bereich der historischen Grammatikographie und Lexikographie, der historischen Mehrsprachigkeit sowie der Sprachreflexion und barocken wie antiken Sprachtheorien.


Ihr Profil
Abschluss eines den Aufgaben entsprechenden Hochschulstudiums, Promotion.
Vorausgesetzt werden:
• abgeschlossenes Hochschulstudium in einem projektrelevanten philologischen Fach (Germanistik, Romanistik, Slawistik o. ä.)
• sehr gute Kenntnisse im Bereich der historischen Sprachwissenschaft
• Erfahrung mit digitalen Arbeitsumgebungen
• sehr gute (historische) Kenntnisse in mehreren der relevanten Korpussprachen, vor allem Deutsch, Französisch, Italienisch, Spanisch, auch Latein, Englisch, Niederländisch, Polnisch, Tschechisch usw.
• ausgeprägtes Interesse an wissens- und kulturhistorischen Fragestellungen
• sehr gute Englischkenntnisse
• Bereitschaft, sich selbständig in neue Fragestellungen und Methoden einzuarbeiten
• ausgeprägte Kommunikations- und Teamfähigkeit

Die Exzellenzuniversität Hamburg gehört zu den forschungsstärksten Wissenschafts- und Bildungseinrichtungen Deutschlands. Durch Forschung und Lehre, Bildung und Wissenstransfer auf höchstem Niveau fördern wir die Entwicklung einer neuen Generation verantwortungsbewusster Weltbürger:innen, die den globalen Herausforderungen unserer Zeit gewachsen ist. Mit unserem Leitmotiv „Innovating and Cooperating for a Sustainable Future“ gestalten wir die Zusammenarbeit mit wissenschaftlichen und außerwissenschaftlichen Partnerinstitutionen in der Metropolregion Hamburg und weltweit. Wir laden Sie ein, Teil unserer Gemeinschaft zu werden, um gemeinsam mit uns einen nachhaltigen und digitalen Wandel für eine dynamische und pluralistische Gesellschaft zu gestalten.
Die FHH fördert die Gleichstellung von Frauen und Männern. An der Universität Hamburg sind Männer in der Stellenkategorie der hier ausgeschriebenen Stelle, gemäß Auswertung nach den Vorgaben des Hamburgischen Gleichstellungsgesetzes (HmbGleiG), unterrepräsentiert. Wir fordern Männer daher ausdrücklich auf, sich zu bewerben. Sie werden bei gleicher Eignung, Befähigung und fachlicher Leistung vorrangig berücksichtigt.
Schwerbehinderte und ihnen gleichgestellte behinderte Menschen haben Vorrang vor gesetzlich nicht bevorrechtigten bewerbenden Personen gleicher Eignung, Befähigung und fachlicher Leistung.


Kontakt
Prof. Dr. Natalia Filatkina
E-Mail: natalia.filatkina@uni-hamburg.de
Telefonnummer: +49 40 42838-6907
Standort
Von Melle Park 6, 20146 Hamburg
Bitte senden Sie uns Ihre Bewerbung mit folgenden Unterlagen ausschließlich über das Online-Bewerbungsformular:
– Bewerbungsschreiben
– Lebenslauf
– Hochschulabschluss
Bei technischen Problemen können Sie sich an folgende Adresse wenden: bewerbungen@uni-hamburg.de

Ausschreibung als PDF: Stellenausschreibung_final_HH

Reminder: Einladung zum DHd Community Forum am 12.01.24

Fr, 01/05/2024 - 13:32

Liebe Mitglieder des DHd-Verbandes und Interessierte,

für unsere interdisziplinäre Community ist ein offener Austausch von großer Bedeutung. Während die jährliche Mitgliederversammlung bereits eine wichtige Rolle für unsere communityinterne Verständigung übernimmt, unterstützen wir als Vorstand weitere partizipative Angebote. Alle Mitglieder und Interessierte sind herzlich eingeladen, sich an den Diskussionen zu beteiligen sowie Themenvorschläge (info@dig-hum.de) einzureichen.

Das nächste virtuelle Community Forum findet am Freitag, dem 12. Januar 2024 von 14–15 Uhr statt. Das von uns vorgeschlagene Thema lautet “Reviewverfahren von DHd-Konferenzbeiträgen”. Wir möchten das Community Forum dieses Mal nutzen, um uns über Erfahrungen und Herausforderungen des Reviewing auszutauschen. 

Für das Community Forum werden wir das Videokonferenztool BigBlueButton nutzen. Wir möchten Sie bitten, sich mit vollständigem Namen anzumelden.

https://webroom.hrz.tu-chemnitz.de/gl/rab-rg7-psq-qcn

Wir freuen uns auf den Austausch mit Ihnen!

Mit freundlichen Grüßen

Rabea Kleymann (als Koordinatorin des Community Forums)

Erste OCR-Sprechstunde im neuen Jahr: 11. Januar zwischen 15 und 16 Uhr

Do, 01/04/2024 - 15:40

Das Kompetenzzentrum OCR, bestehend aus der UB Tübingen und der UB Mannheim, unterstützt und berät seit drei Jahren bei der Anwendung aktueller Programme zur Texterkennung.

Für einen unkomplizierten Einstieg in das Thema bieten wir für alle Interessierten jeden zweiten Donnerstag im Monat von 15 bis 16 Uhr eine offene OCR-Sprechstunde via Zoom an, in der Sie Ihre Fragen rund um das Thema automatisierte Texterkennung stellen können.

Die nächste Sprechstunde findet am Donnerstag, dem 11. Januar 2024 statt.

Sie können dem Meeting ohne vorherige Anmeldung unter folgendem Link beitreten: https://ocr-bw.bib.uni-mannheim.de/sprechstunde (Meeting-ID: 682 8185 1819, Kenncode: 443071).

Sollten Sie technische Probleme oder Fragen haben, wenden Sie sich an Larissa Will (larissa.will(at)uni-mannheim.de).

Weitere Informationen zum Thema OCR finden Sie unter: https://ocr-bw.bib.uni-mannheim.de/.

Wenn Sie über unsere Angebote zum Thema automatische Texterkennung auf dem Laufenden bleiben möchten, tragen Sie sich in unsere Mailingliste ein: https://listserv.uni-tuebingen.de/mailman/listinfo/ocr_htr_ub.

Wir freuen uns auf Ihre Teilnahme!

RIDE 18 ist erschienen

Di, 01/02/2024 - 15:17

Wir freuen uns, die achtzehnte Ausgabe des Rezensionsjournals RIDE, das seit 2014 vom Institut für Dokumentologie und Editorik (IDE) herausgegeben wird, anzukündigen. Die aktuelle Ausgabe ist digitalen wissenschaftlichen Editionen gewidmet und wurde von Ulrike Henny-Krahmer und Martina Scholger herausgegeben. 

Der Band enthält fünf Rezensionen, eine in deutscher und vier in englischer Sprache, von folgenden Autor:innen und zu den folgenden digitalen Editionen:

Alle Rezensionen sind abrufbar unter https://ride.i-d-e.de/issues/issue-18/.

Enjoy the RIDE!

Stellenangebot: Wissenschaftlicher Mitarbeiter (m/w/d) mit Schwerpunkt Digital Humanities/Softwareentwicklung (E 13 TV-L, 100%)

Do, 12/21/2023 - 12:45

Für das an der Klassik Stiftung Weimar angesiedelte, international einzigartige digitale Editionsprojekt „PROPYLÄEN. Forschungsplattform zu Goethes Biographica“ – eine Langzeitkooperation der Klassik Stiftung Weimar mit der Akademienunion – ist im Goethe- und Schiller-Archiv zum nächstmöglichen Zeitpunkt folgende Projektstelle in Vollzeit (40h/Woche) zu besetzen:

Wissenschaftlicher Mitarbeiter (m/w/d) mit Schwerpunkt Digital Humanities/Softwareentwicklung
E 13 TV-L, Kennziffer: 46/2023

Die Stelle ist zunächst befristet bis zum 31. Dezember 2028. Eine Weiterbeschäftigung bis Laufzeitende der PROPYLÄEN 2039 wird bei positiver Evaluation des Projektes angestrebt.

Bewerbungsfrist: 31. Januar 2024.

Das sind Ihre Aufgaben:

  • Konzipieren und Entwickeln der Online-Publikationsplattform des Projektes
  • Konzipieren und Entwickeln automatisierter Datentransformationsprozesse
  • Aufbereiten, Anreichern, Integrieren, Vernetzen und Publizieren der im Projekt erarbeiteten Forschungsdaten (edierte Texte, Transkriptionen, Digitalisate überlieferter Handschriften, Normdaten etc.)
  • Begleiten und Beraten der editorischen Teams
  • Mitarbeit an wissenschaftlichen Publikationen und Forschungsarbeiten

Das erwarten wir:

  • Abgeschlossenes Hochschulstudium (Master, Diplom/Uni) im Bereich der Informatik, Computerlinguistik oder Digital Humanities
  • Nachweisbare Erfahrung in der Programmierung unter Verwendung verbreiteter Programmiersprachen (idealerweise 2 der folgenden: Python, JavaScript, PHP oder Perl)
  • Sicherer Umgang mit der Abfrage von gängigen SQL-basierten Datenbanken, wünschenswert sind hierbei Kenntnisse von Oracle
  • Grundkenntnisse in der Arbeit mit Oxygen
  • Erfahrungen mit einem Content-Management-System (bspw. Typo3) sind von Vorteil
  • Erfahrungen in der Datenannotation, -transformation,-integration und -publikation, vorzugsweise im philologischen, linguistischen und/oder editorischen bzw. verlegerischen Kontext sind erwünscht
  • Idealerweise Kenntnisse gängiger Datenstandards und Datenmodellierung im Kontext der Gedächtnisinstitutionen und/oder der digitalen Editorik (Meta- und Normdatenstandards, TEI-P5/XML etc.) und Erfahrung in webbasierter Softwareentwicklung und –architektur
  • Eigeninitiative, Eigenverantwortung, lösungsorientiertes Arbeiten, effiziente, strukturierte und motivierende Arbeitsweise, hohe Team- und Kommunikationsfähigkeit, Einsatzbereitschaft und Flexibilität

Wir bieten Ihnen:

  • eine anspruchsvolle wissenschaftliche Tätigkeit in einem hochmotivierten Team
  • einen Arbeitsplatz im ersten und ältesten deutschen Literaturarchiv
  • ein familienfreundliches und attraktives Arbeitsumfeld mit moderner IT-Ausstattung (Dienstlaptop, Headset etc.), flexiblen Arbeitszeiten und die Möglichkeit der mobilen Arbeit
  • Angebote zur fachlichen und persönlichen Qualifizierung
  • attraktive Nebenleistungen wie vermögenswirksame Leistungen und betriebliche Altersvorsorge (VBL)
  • kostenfreien Eintritt in alle Museen der Stiftung
 

Die vollständige Stellenausschreibung sowie das Online-Formular zur Bewerbung ist hier zu finden:

https://jobs.b-ite.com/jobposting/e3c96afa6398dff25ad98395886fe8db0101fa13

Ein Bericht über das 4CultureBarcamp2023 am Mittwoch, den 05. Juli (10-16 Uhr)

Mi, 12/20/2023 - 14:47

Das NFDI4Culture – Konsortium für Forschungsdaten zu materiellen und immateriellen Kulturgütern koordinierte einen Online-Workshop zum Thema 3D Forschungsdaten für das materielle Kulturerbe.

Nach einem intensiven und spannenden Tag beim 4CultureBarcamp2023 zum Thema „3D-Forschungsdaten für das materielle Kulturerbe“ wird deutlich, dass die Bedeutung von 3D-Daten in Museen und Sammlungen immer weiter zunimmt. Während digitale 3D-Objekte bereits erfolgreich in der Vermittlung eingesetzt werden, gibt es aber auch noch viel ungenutztes Potential im Bereich der 3D-Forschungsdaten.

Der Tag begann mit einer Einführung durch Kristin Narr (https://kristin-narr.de/ Bildungspraktikerin) und der Vorstellung des NFDI4Culture Teams. Anschließend wurden Kernfragen rund um die Erfassung, Verarbeitung und Bereitstellung von 3D-Daten präsentiert.
 Experten wie Reinhard Altenhöner (Staatsbibliothek-Berlin) und Till Sonemann (Wissenschaftlicher Mitarbeiter des Centers für digitale Geisteswissenschaften in Bonn) diskutierten mit knapp 100 weiteren Teilnehmern über die verschiedenen Aspekte und Herausforderungen.

Impulsvortrag

Der einleitende Impulsvortrag von Prof. Dr. Kai-Christian Bruhn thematisierte das Forschungsdatenmanagement und die Erfassung kulturellen Erbes in digitalen 3D-Daten. „Jedes Objekt des Kulturerbes ist dreidimensional, es kann sonst nicht existieren.“ Alle Objekte haben eine materielle Struktur und können somit digital als 3D-Abbild erfasst werden.

Doch wie werden 3D-Daten qualitativ und quantitativ in entsprechenden Infrastrukturen und darüber hinaus klassifiziert und strukturiert? „Welches Potential müssen die Daten haben?“

Das National (3D) Data Repository ist ein sicherer Ort, um die erfassten digitalen Daten des Objektes, die in einem Geistes- und Sozialwissenschaften Rahmen öffentlich finanziertem Projekt erstellt wurden, zu speichern, offenzulegen und zu veröffentlichen. Jedes 3D-Modell wird dort durch einen DIGITAL OBJECT IDENTIFIER (DOI) referenziert: https://www.re3data.org/repository/r3d100014088.

Das Buch: „Leitfaden zur optischen Messtechnik“ beschreibt den Workflow, wie 3D Daten erfasst werden können.

Die CS3DP Community Standard for 3D Preservation https://cs3dp.org/ ist der Versuch einer globalen Zusammenarbeit und Standardisierung für die Analyse von 3D-Daten.

Bruhn präsentierte verschiedene Techniken der 3D-Erfassung und Verarbeitung und stellte sie qualitativ gegenüber. Er zeigte Versuche, die Scherben einer kaputten Glühbirne per 3D-Scan zu erfassen und verdeutlichte so die Problematik und Schwierigkeiten beim 3-dimensionalen Erfassen, aber auch beim Rekonstruieren von zerstörten Objekten.

Zum Workflow zur Erfassung von 3D-Daten gehören nicht nur spezielle Ansprüche an die Technik, sondern auch die Nutzer (das Personal) müssen die Technik verstehen und anwenden können. Daher muss schon von Beginn an eine detaillierte Beschreibung der Objekte erstellt werden. Darüber hinaus ist es auch wichtig, die Zielgruppe (können auch alle sein) und die Infrastruktur vom Erfassen der Daten bis hin zum Bereitstellen der Daten zu kennen. Messgeräte müssen immer wieder neu kalibriert werden und Daten wie Geometry, Struktur, Muster und vieles mehr verglichen, korrigiert und ergänzt werden.

Breakouts 

Die knapp 100 Teilnehmer verteilten sich anschließend auf Breakout-Sessions zu verschiedenen Themen über 3D-Forschungsdaten für das materielle Kulturerbe, wie die 3D-Rekonstruktion von nicht mehr existierenden Objekten, die Verwendung von 3D-Daten in der Wissensvermittlung, die Standardisierung von Daten, das Datenbankmanagement von 3D-Objekten und vieles mehr. Die Sessions wurden in drei Blöcke von jeweils 45 Minuten eingeteilt. Es wurde deutlich, dass es an Standardisierung und klaren Leitfäden fehlt, um eine einheitliche Erfassung und Aufbereitung von 3D-Daten zu gewährleisten.

Die Diskussionen drehten sich auch um die Herausforderungen bei der Wahl der richtigen Software und den Umgang mit großen Datenmengen. Es wurde betont, dass eine große Community und eine langfristige Nutzungsmöglichkeit wichtige Faktoren bei der Auswahl von Software sind. Metadaten spielen ebenfalls eine wichtige Rolle, da sie die Informationen über die 3D-Objekte strukturieren und bereitstellen.

 

Vorgeschlagen wurden die Themen (https://padlet.com/KristinNarr/4culture-barcamp-2023-yve15rpq5gfyt0x3):

  • Wie können 3D Daten in der Wissensvermittlung eingesetzt werden
  •  Wie gehe ich mit extrem großen Daten um?
  • Wie bekomme ich 3D-Daten in einen Zustand, dass ich sie weiterverwenden kann?
  • 3D-Rekonstruktion von nicht mehr existierenden Objekten?
  • Algorithmische Analyse von 3D-Daten
  • 3D-Daten anderer Spektren: wie archivieren, standardisieren, visualisieren?
  • Datenbank-Management für 3D-Scanner/Dateien
  • Wie kann ich RTI-Daten persistent publizieren
  • Offene Dateiformate bei 3D –  Wie ist der Stand?
  • Open Source 3D-Viewer
  • -Interdisziplinäres Annotieren in 3D


In der Übersicht wird deutlich, dass unter den Teilnehmern besondere Interesse an der Wissensvermittlung mit 3D Techniken und in Quelloffene, Open Source Lösungen besteht.
Meine Interesse lag bei den 3 Themen:

  • 3D-Rekonstruktion von nicht mehr existierenden
  • Open source 3d Viewer
  • Wie bekomme ich 3D Daten in einen Zustand, dass ich sie weiter verwenden kann?

 

  1.  

Das Thema 3D-Rekonstruktion von nicht mehr existierenden Objekten wurde von Dr. Heike Messemer, die sich an der Universität Würzburg mit dem Thema 3D-Rekonstruktion beschäftigt, vorgeschlagen.

Die Baukoodinatorin Elke Drzymalla (https://museumsdorf.de/ueber-uns/ansprechpartner/) (https://www.om-online.de/om/das-museumsdorf-geht-mit-neuem-personal-ins-neue-jahr-148214) koordiniert die Bauerhaltung im Museumsdorf Cloppenburg und beschrieb die Schwierigkeit alte (digitale) Daten wieder zu sichten und aufzubereiten. In einem Studentenprojekt wurden im Dorf schon vor zehn Jahren Häuser 3D gescannt. Die Schwierigkeit besteht darin, die Daten und ihre Entstehungsgeschichte wieder aufzubereiten und weiter zu verwenden. Es stellt sich nun die Frage, wie solche Daten behandelt werden können.

Es wird deutlich, dass es zur Orientierung an Standardisierung fehlt. Dieses Thema prägte auch den Rest des Tages immer wieder die Diskussionsrunden. Momentan ist es meistens schwierig, sich durch Datensätze, die andere erstellt, haben wiederzufinden.

Einige Teilnehmer erwähnten Beispiele und Versuche für Leitfäden und Workflows zur Erfassung, Verarbeitung und Bereitstellung von wissenschaftlichen 3D-Daten.

Das „ianus-Projekt“ gibt hierzu Empfehlungen, Hintergrundinformationen und Praxistipps, die vor allem den Austausch, die Langzeitarchivierung und die Nachnutzbarkeit von digitalen Forschungsdaten adressieren. https://ianus-fdz.de/it-empfehlungen/

Die Londoner Charta strebt danach, Grundsätze für den Gebrauch von computergestützten Visualisierungsmethoden und -ergebnissen in der Erforschung und Vermittlung von Kulturgut zu etablieren. (https://londoncharter.org/fileadmin/templates/main/docs/london_charter_2_1_de.pdf
 Heike Messemer stellte jedoch immer wieder bei Umfragen fest, dass Standards wie die London Carta nicht sehr bekannt sind und daher auch keine regelmäßige Anwendung finden.

Thomas Wilke erforscht Herrenhäuser im Ostseeraum. Diese werden unter anderem digital rekonstruiert, um als wissenschaftliche Ressource bereit gestellt zu werden. Er sichtet die Daten und erwägt, wie diese rekonstruiert und auf einer interaktiven Webplattform zur Verfügung gestellt werden können.

Beim Projekt der Erforschung der Herrenhäuser im Ostseeraum liegen zusätzliche Metadatensätze vor, wobei aber die Basis Informationen direkt am 3D Objekt annotiert werden.

Die Frage, wie Informationen in oder an der 3D Konstruktion annotiert oder als Metadatensatz zur Verfügung gestellt werden können, rückt immer wieder in den Mittelpunkt der Gesprächsrunden.

Bei der Technik zur Erfassung der Metadaten rund um ein 3D Objekt geht es nicht nur um Informationen über das Objekt, sondern auch um die Techniken und Werkzeuge der Erfassung der digitalen Daten des Objektes.

Zuletzt wurde noch über die „Graustufen der Information“ gesprochen. Für Thomas Wilke und vermutlich auch allen anderen Teilnehmern stellte sich immer wieder die wichtige Frage: „Wie gehe ich damit um, wenn nur ein bestimmter Bereich des Objektes mit Hilfe eines 3D Scans erfasst wurde und wie genau entsprechen diese Daten dem Original?“ Er erwähnte, dass Bilder ein „unheimlich“ wirkmächtiges Mittel zur Informationsübermittlung sind und daher eindeutig markiert werden muss, wie die Daten digitalisiert wurden und werden müssen, um keine Falschinformationen zu verbreiten. Es sollte also unbedingt deutlich werden, welcher Bereich noch wirklich existieren und welcher Bereich rekonstruiert wurde. Auch der Unterschied zwischen original 3D-Scan und Rekonstruktion muss belegt sein, um wissenschaftlich genau betrachtet werden zu können.

Auch Informationen z.B. über umliegende Vegetationen sollten erfasst werden. Die Eigenschaften des Objektes können sich im Laufe der Zeit durch äußere Einflüsse verändern oder bestimmte Teile eines Objektes dürfen aus datenschutztechnischen Gründen nicht gezeigt werden, was unbedingt mit im Datensatz markiert werden muss, um weiterhin als wissenschaftliches Mittel eingesetzt werden zu können.

  1.  

In der nächsten Session ging es um Open source 3d Viewer

Dennis Hoffmann, ein Mitarbeiter des Deutschen Schifffahrtsmuseums, eröffnete das Thema und präsentierte die Überlegungen zur Digitalisierung im Museum. Sich selbst als Pioniere in Sachen Digitalisierung im Museum präsentiert (https://www.dsm.museum/pressebereich/pioniere-in-sachen-digitalisierung-im-museum), wird auch hier immer wieder nach geeigneter Software gesucht, die allen Ansprüchen entgegen kommt. Durch eine sehr große Datenvielfalt ist es oft zweckmäßig eine Software zu finden, die mit jeglicher Art an Dateien umgehen kann. Dabei geht es nicht nur um das bloße Darstellen der Daten, sondern auch um das Einlesen, Verarbeiten und Auswerten der Daten aus allen Perspektiven. Doch auch eine Garantie, die Software mindestens für die nächsten zehn Jahre nutzen zu können, sollte vorhanden sein.

Zoe Schubert (NFDI4Culture) gehört zum Team von Kompakt.de. Die Software, die dort entwickelt wird, ist für den Endnutzer webbasiert und legt besonders auch den Fokus auf Annotation am 3D-Objekt. Nicht nur Textfenster, sondern auch Animation lassen sich direkt an gewünschten Stellen des 3D-Objekts darstellen.

Auch die Kosten und der Arbeitsaufwand sind Ansprüche an das Werkzeug (Software) zur Visualisierung der Daten. Eine große Datenvielfalt erschwert es dem gerecht zu werden.

Proprietäre Software bietet meistens einen guten Support, der aber auch mit höheren Kosten verbunden ist. Freie Software kann individueller als lizenzbasierte Software vom Benutzer angepasst werden. Jedoch liegt das Beheben von Fehlern auch in der Eigenverantwortung der Nutzer.

Um eine möglichst große Langlebigkeit der Softwarenutzung zu garantieren, ist es von großem Vorteil, eine große Community rund um das Softwareprojekt zu haben. Eine eindeutige Garantie, ein Programm auch noch in zehn Jahren nutzen zu können, gibt es aber vermutlich nicht.

  1.  

Wie bekomme ich 3D Daten in einen Zustand, dass ich sie weiterverwenden kann?

Karolin Randhahn, Expertin für Ostasiatische Kunstgeschichte (https://forschung.skd.museum/wissenschaftler/detail/karolin-randhahn) und Anna Greger, Digitalisierungstechnikerin und Archivangestellte, präsentierten interne Checklisten für die Metadaten Erfassung der 3D-Daten. Doch der Versuch, Daten für den wissenschaftlichen Gebrauch aufzubereiten, stellt sich bei den Teilnehmern der Session als unbefriedigend heraus.

Weitere Versuche Checklisten oder Leitfäden zu erstellen, wie es die Fraunhofer-Gesellschaft versucht (https://www.fraunhofer.de/de/forschung/leistungsangebot/forschung-entwicklung/digitalisierung.html), sind kaum bekannt und durch die schnelle Entwicklung der Systeme auch morgen schon wieder obsolet.

Matthias Lang, Leiter des Centers für digitale Geisteswissenschaften an der Universität Bonn und Mitglied des NF4DCulture Teams, bemängelt, dass die wichtigsten Informationen in vielen Checklisten fehlen.

 

Wirft man einen Blick auf die beta-Version des 3D Repository (https://3d-repository.hs-mainz.de/) findet man den Versuch ein Webbasiertes Werkzeug, erfasste und rekonstruierte 3D-Daten mit allen Metainformationen verlustfrei für die Forschung zur verfügung zu stellen. Die Daten sind referenzierbar und sollen langfristig bereitstehen. Gefördert durch die Deutsche Forschungsgemeinschaft, arbeiten die Hochschule Mainz, die Friedrich-Schiller-Universität Jena und die Sächsische Landesbibliothek-Staats- und Universitätsbibliothek Dresden an dem browserbasierten Viewer. Der Fokus liegt auch auf einer einfachen Verwaltung sowie einer interdisziplinären Nutzung, die national anerkannt werden soll. 120 Modelle stehen bereits zur Verfügung. Betrachten wir als Beispiel die Synagoge in Volpa(https://3d-repository.hs-mainz.de/wisski/navigate/4091/view). Hier sehen wir nicht nur direkt einen 3D-Querschnitt des Gebäudes sondern auch viele wichtige und nützliche Metadaten, wie Dateitypen, Auflösung Qualität (Vertices und Faces), Autoren, Bearbeiter, Historischer Kontext, Datum des Erfassens und Entstehung des Gebäudes.  Für Forschende ergibt sich hier also die Möglichkeit, mit den Daten zu arbeiten und die Informationen in eigene Projekte einfließen zu lassen. 

Setzt sich der 3D Viewer also über seine Beta-Phase hinaus, haben wir es hier mit einem Werkzeug für die Forschung zu tun, mit der anerkannt, ational und allgemeingültig gearbeitet werden kann.

Abschluss 

Am Ende des Barcamps hatten die Teilnehmer die Möglichkeit, an einer Umfrage teilzunehmen und drei Wörter zu notieren, die sie von diesem Tag mitgenommen haben. Begriffe wie Digitalisierung, Erfassung, Konstruktion, Rekonstruktion, Metadaten, Annotation, Standardisierung, Software, Datenvielfalt, Langlebigkeit, Forschungsdatensatz, Community, Workflow, Checkliste, Leitfaden, Speicherplatz Budget, Datenschutz wurden dabei oft genannt.

Insgesamt war das 4CultureBarcamp2023 eine inspirierende und informative Veranstaltung, die gezeigt hat, dass die Erfassung und Verarbeitung von 3D-Forschungsdaten für das materielle Kulturerbe noch viele offene Fragen und Herausforderungen mit sich bringen. Es besteht ein Bedarf an Standardisierung, klaren Leitfäden und einer starken Community, um die Potentiale der 3D-Daten voll auszuschöpfen und einen nachhaltigen Umgang mit ihnen zu gewährleisten.

Stellenausschreibung Universität Graz: Projektassistenz im Bereich Machine Learning

Mi, 12/20/2023 - 08:44

Für das BMBWF-geförderte Projekt „Digital Humanities Infrastructure Austria (DH-Infra.at)“ stellen wir Mitarbeiter:innen im Bereich Machine Learning an:

Dauer: ab 01.02.2024 bis 30.06.2026

Stunden: 20-25

 

 

 

Details zu Stellenprofil und Bewerbungsmodalitäten finden Sie unter den angegebenen Ausschreibungslinks.

Call for Experiments: Generative KI, LLMs und GPT bei digitalen Editionen (DHd2024)

Mo, 12/18/2023 - 21:04

Im Zuge unseres bevorstehenden Workshops “Generative KI, LLMs und GPT bei digitalen Editionen” auf der Dhd24, lädt das Institut für Dokumentologie und Editorik (IDE) zur Einreichung experimenteller Beiträge ein, die sich mit den Anwendungsmöglichkeiten und Herausforderungen KI-basierter Tools wie GPT und Large Language Models (LLMs) in digitalen Editionen auseinandersetzen. In diesem Workshop sollen konkrete Anwendungsfälle präsentiert und diskutiert werden, in denen GPT-4 oder alternative LL-Modelle auf Basis unterschiedlichen Quellenmaterials für die vorgegebenen Szenarien experimentell erprobt und hinsichtlich ihrer Potenziale, Grenzen, Probleme sowie ethischen und theoretischen Implikationen diskutiert werden, um darauf aufbauend anhand der gewonnenen Erkenntnisse zu erörtern, welchen Einfluss diese Technologien auf die digitalen Editionen der Zukunft haben könnten.

Wir starten daher einen Call for AI-Experiments zu jeglichen Themenbereichen die im Zusammenhang mit digitalen Editionen stehen, einschließlich (aber nicht beschränkt auf):

  • Überführung von unstrukturiertem Text (Transkription) in strukturierten Text (Markup)
  • Überführung von strukturiertem Text in explizite Datenstrukturen
  • Named Entity Recognition, Normalisierung und Anreicherung
  • Kontextspezifische Annotationen
  • Fehlermanagement und Datenkontrolle
  • Integration in Arbeitsabläufe
  • Planung, Konzeption und Evaluierung digitaler Editionen
  • Webentwicklung und Benutzeroberflächen
  • Fine Tuning, Prompt Tuning, Prompt Engineering und Vektordatenbanken

Um einen Beitrag einzureichen, senden Sie bitte eine halbseitige Skizze und Link zum Chat-Protokoll (wenn möglich) an ki@i-d-e.de bis zum 14. Januar 2024. Die Vorschläge werden von den Organisator:innen (Mitgliedern des IDE) des Workshops begutachtet, die Benachrichtigung über die Annahme erfolgt bis zum 26. Januar 2024.

Im Namen des IDE

Christopher Pollin, Alexander Czmiel, Stefan Dumont, Franz Fischer, Christiane Fritze, Patrick Sahle, Thorsten Roeder, Torsten Schaßan, Markus Schnöpf, Martina Scholger, Georg Vogeler

Detail

Wissenschaftliche*r Mitarbeiter*in (m/w/d) | Digitale Proveneinzforschung im Datenkompetenzzentrum SODa | vorauss. 36 Monate mit Vollzeit E 13 TV-L HU  

Do, 12/14/2023 - 11:29

Wissenschaftliche*r Mitarbeiter*in (m/w/d) – vorauss. mit Vollzeit E 13 TV-L HU (Drittmittelfinanzierung, befr. für 36 Monate) an der Koordinierungsstelle für wissenschaftliche Universitätssammlungen in Deutschland (Humboldt-Universität zu Berlin, ZI Hermann von Helmholtz-Zentrum für Kulturtechnik)

Wissenschaftliche Sammlungen an Hochschulen und Universitäten sind bedeutende Infrastrukturen. Ihre vielfältigen Potentiale für Forschung, Lehre und Transfer können jedoch erst ausgeschöpft werden, wenn die Möglichkeiten der Digitalisierung optimal genutzt werden. Die Koordinierungsstelle für wissenschaftliche Universitätssammlungen in Deutschland (KUS), die am Helmholtz-Zentrum für Kulturtechnik der Humboldt-Universität zu Berlin angesiedelt ist, entwickelt mit dem Verbundprojekt “SODa – Sammlungen Objekte Datenkompetenzen” ein Datenkompetenzzentrum, an dem für die Forschung in und mit wissenschaftlichen Sammlungen notwendige Datenkompetenzen transdisziplinär und praxisbezogen vermittelt und weiterentwickelt werden. 

Aufgabengebiet „Fachexpertise Digitale Provenienzforschung“:

  • Forschung zu anwendbaren Verfahren, Methoden und Standards für die Digitale Provenienzforschung in wissenschaftlichen Sammlungen
  • Forschung zu anwendbaren Verfahren, Methoden und Standards für das Modellieren, Strukturieren, Standardisieren, Anreichern und globale Vernetzen unter Berücksichtigung so genannter FAIR-Prinzipien für Forschungsdaten mit dem Ziel der Etablierung von Standards zur Dokumentation, Archivierung und Publizierung der Provenienz von Objekten
  • Mitarbeit im Rahmen der im Verbundprojekt vertretenen Fachexpertise beim Konzipieren, Durchführen, Evaluieren und Dokumentieren von Veranstaltungsformaten mit dem Ziel, Wissenschaftler*innen im Expertisefeld des Datenkompetenzzentrums weiterzubilden, sie zu vernetzen und gemeinsam mit ihnen entsprechende Verfahren, Methoden, Standards und Werkzeuge forschend weiterzuentwickeln
  • Herstellen von Materialien und Produkten der Wissenschaftskommunikation
  • Aufbereiten und Präsentation von Forschungsergebnissen auf Kongressen/Forschungskolloquien usw.
  • Publikationen zu eigenen Forschungsergebnissen

Anforderungen

  • abgeschlossenes wissenschaftliches Hochschulstudium, z. B. in Informationswissenschaften, Kulturinformatik, Digital Humanities, Geschichts- und Sozialwissenschaften sowie naturkundlichen Disziplinen
  • Erfahrung in der (digitalen) Provenienzforschung
  • Kenntnisse digitaler Werkzeuge und Methoden für die Provenienzforschung
  • Kenntnisse aktueller Fachdebatten, insbesondere im Bereich digitaler Methoden in der Arbeit in und mit wissenschaftlichen Sammlungen und in der Provenienzforschung
  • Erfahrungen in der Arbeit mit wissenschaftlichen Sammlungen und Objekten
  • Erfahrungen in inter- und transdisziplinären wissenschaftlichen Projekten erwünscht
  • Erfahrung in der Entwicklung von Lehr- und Vermittlungsangeboten erwünscht
  • vorteilhaft sind Erfahrungen in Community Building-Prozessen und im Projektmanagement
  • ausgeprägte Kommunikationsfähigkeit, mündlich und schriftlich, in Englisch und Deutsch
  • ausgeprägte Teamfähigkeit, auch bei der Zusammenarbeit über digitale Tools
  • strukturierte, selbständige und lösungsorientierte Arbeitsweise 

Wir bieten:

  • einen eigenen Wirkungs- und Gestaltungsbereich in einem sich neu entwickelnden, zukunftsweisenden und dynamischen Tätigkeitsfeld im Kontext wissenschaftlicher Sammlungen, Kulturerbe und Digitalisierung
  • Mitarbeit in einem motivierten, interdisziplinär aufgestellten Team
  • ein attraktives Arbeitsumfeld und vielfältige Vernetzungsmöglichkeiten auf dem grünen Campus Nord in der Mitte Berlins

Bewerbungen (mit Anschreiben, Lebenslauf und relevanten Zeugnissen) richten Sie bitte bis 8. Januar 2024 unter Angabe der Kennziffer DR/143/23 an die Koordinierungsstelle für wissenschaftliche Universitätssammlungen in Deutschland, Helmholtz-Zentrum für Kulturtechnik, Humboldt-Universität zu Berlin, Unter den Linden 6, 10099 Berlin oder bevorzugt per E-Mail in einer PDF-Datei an: hzk.bewerbungen@hu-berlin.de 

Für Rückfragen steht der Co-Sprecher der Koordinierungsstelle und SODa-Projektleiter Martin Stricker (martin.stricker@hu-berlin.de, Tel. 030 2093 12879) zur Verfügung.

 

Zur Sicherung der Gleichstellung sind Bewerbungen qualifizierter Frauen besonders willkommen. Schwerbehinderte Menschen werden bei gleicher Eignung bevorzugt. Bewerbungen von Menschen mit Migrationsgeschichte sind ausdrücklich erwünscht. Da wir Ihre Unterlagen nicht zurücksenden, bitten wir Sie, Ihrer Bewerbung nur Kopien beizulegen.

Datenschutzrechtliche Hinweise zur Verarbeitung Ihrer personenbezogenen Daten im Rahmen des Ausschreibungs- und Auswahlverfahrens finden Sie auf der Homepage der Humboldt-Universität zu Berlin: https://hu.berlin/DSGVO.

Seiten