DHd Newsfeed

Wissenschaftliche/r Mitarbeiter*in im Forschungsdatenmanagement (m/w/d) gesucht. Entgeltgruppe 13 TV-L (50%), befristet bis 31.03.2022, Bewerbung bis 31.10.2020.

dhd-blog - Di, 10/20/2020 - 12:49

Das Leibniz-Institut für Geschichte und Kultur des östlichen Europa (GWZO) e.V. erforscht in vergleichender Perspektive die historischen und kulturellen Entwicklungsprozesse in der Region zwischen Ostsee, Schwarzem Meer und Adria von der Spätantike bis zur Gegenwart. Die große geographische Reichweite seines Forschungsprogramms bedingt einen besonderen Forschungsansatz, der Komparatistik, Interdisziplinarität und Transnationalität vereinigt, und der zudem die gesamte historische Tiefe vom Übergang der Antike zum Mittelalter bis in die Gegenwart in den Blick nimmt. Das in der Leipziger Innenstadt ansässige GWZO beschäftigt ca. 70 Mitarbeiter*innen aus dem In- und Ausland.

Für das in der Abteilung 4 „Wissenstransfer und Vernetzung“ des Institutes seit April 2019 angesiedelte, in Kooperation mit drei weiteren Forschungsinstituten und der BSB München durchgeführte und von der Deutschen Forschungsgemeinschaft (DFG) finanzierte Verbundprojekt „Forschungsdatendienst für Ost-, Ostmittel- und Südosteuropaforschung (OstData)“

suchen wir zum 01.12.2020

eine oder einen wissenschaftliche/n Mitarbeiter*in im Forschungsdatenmanagement (m/w/d) in der Entgeltgruppe 13 TV-L (50%), befristet bis zum 31.03.2022.

Kennziffer: 20_07_A4

Ihre Aufgaben:

– Beteiligung am Aufbau einer Infrastruktur zur Speicherung, Veröffentlichung, Langzeitarchivierung und Suche von Forschungsdaten einschließlich vielfältiger Beratungsleistungen zum Forschungsdatenmanagement im Rahmen des Verbundprojektes „OstData“

– Weiterentwicklung eines Qualitätsmanagementsystems für Forschungsdaten in Kooperation mit den Verbundpartnern

– Entwicklung eines Datendokumentationsverfahrens und einer Handlungsrichtlinie zur Fehlerübermittlung

– Überprüfung von Review-Verfahren speziell für geisteswissenschaftliche Forschungsdaten

– Beratungsleistungen zum Forschungsdatenmanagement und Präsentation der Arbeitsergebnisse intern und extern

– Vorbereitung eines Projektfolgeantrags

Ihr Profil:

– sehr guter Hochschulabschluss (M.A.) in einem kultur-, geistes- oder sozialwissenschaftlichen Fach mit Schwerpunkt Osteuropa wie Osteuropäische Geschichte, Slawistik o.Ä.

– Erfahrungen im Bereich des Forschungsdatenmanagements und/oder des Datenbankmanagements von Bibliotheken, Archiven, Repositorien o.Ä. bzw. in der datenbanknahen Programmierung

– Übersetzungsfähigkeit fachwissenschaftlich-inhaltlicher Anforderungen in administrative Prozesse sowie umgekehrt technischer Bedingungen in fachdisziplinär verständliche Inhalte und Aufgaben

– eine serviceorientiere und kooperative Einstellung, Flexibilität und Reisebereitschaft (im Rahmen der gegenwärtig geltenden Hygienevorschriften) werden erwartet

Wir bieten:

– kreatives und motivierendes Arbeitsumfeld, flache Hierarchien

– lebendige Sozialkultur, Offenheit und vertrauensvolles Miteinander

– Möglichkeit zur individuellen wissenschaftlichen Profilierung und Weiterqualifizierung

– Arbeitsplatz im Herzen der Stadt und in unmittelbarer Campusnähe zur Universität Leipzig

Das GWZO verfolgt das Ziel der beruflichen Gleichstellung von Frauen und Männern und fordert deshalb nachdrücklich Frauen zur Bewerbung auf. Die Bewerbung von Frauen wird besonders begrüßt und bei gleichwertiger Qualifikation und Eignung bevorzugt behandelt, da die zu besetzende Stelle zu einer Struktureinheit gehört, in der Frauen unterrepräsentiert sind. Schwerbehinderte werden bei gleicher Qualifikation vorrangig berücksichtigt.

Sollten Sie sich angesprochen fühlen, bitten wir um Zusendung Ihrer aussagekräftigen Bewerbung mit den einschlägigen Unterlagen bis zum 31.10.2020 schriftlich an den Direktor des GWZO, Herrn Prof. Dr. Christian Lübke, Specks Hof, Reichsstraße 4-6, 04109 Leipzig oder per E-Mail an: bewerbung@leibniz-gwzo.de. Eine Bewerbung per E-Mail ist datenschutzrechtlich bedenklich. Der/die Versender/-in trägt dafür die volle Verantwortung.

Weitere Informationen zum GWZO finden Sie auf unserer Website www.leibnizgwzo.de.

Survey on code literacy

dhd-blog - Fr, 10/16/2020 - 17:09
I would like to call your attention to an in-depth survey on the topic of code literacy, The survey is being conducted by the Alan Turing Institute, Ghent University, Utrecht University, the Huygens Institute, and the Royal Netherlands Academy Humanities Cluster.

The survey wants to gauge the current state of code literacy and its impediments (if any) to diffuse across the humanities domains. We would like to invite anyone active in the humanities (researchers, programmers, students, lecturers, librarians, code eaters and code haters alike!) to inform us about what code literacy means or should be.

Please refer to https://limesurvey.rd.di.huc.knaw.nl/index.php/819392 for more information and the survey itself.

Filling the survey will take 15 minutes — really! Perfect for a coffee break, or a short distraction.

Thanks for participating and giving us a wonderful and solid basis for investigating the topic of code literacy.

Please feel free to circulate this message widely.

On behalf of the survey team
–Joris van Zundert
————————–

Drs. Joris J. van Zundert
Researcher & Developer in Humanities Computing

Dept. of Literary Studies
Huygens Institute for the History of the Netherlands
Royal Netherlands Academy of Arts and Sciences

joris.van.zundert@huygens.knaw.nl @jorisvanzundert +31624461051

https://jorisvanzundert.net/ https://www.huygens.knaw.nl/vanzundert/?lang=en

visiting address
Oudezijds Achterburgwal 185
1012 DK  Amsterdam
The Netherlands

postal address
P.O. Box 10855
1001 EW  Amsterdam
The Netherlands


Jack Sparrow: I thought you were supposed to keep to the code.
Mr. Gibbs: We figured they were more actual guidelines.

Online-Workshop zum Forschungsdatenmanagement in der Romanistik am 26. & 27. November 2020: Datensicherung im Forschungsprozess

dhd-blog - Fr, 10/16/2020 - 16:03

Der nachhaltige Umgang mit Forschungsdaten ist eines der wesentlichen Ziele des Forschungsdatenmanagements. In der Praxis stellen sich dabei viele Fragen: Was ist für die Gewährleistung von Nachhaltigkeit im Einzelnen zu bedenken? Wie und wo können die zu archivierenden bzw. zu veröffentlichenden Daten gespeichert werden? Welche Metadaten sind dafür notwendig und wie können sie sinnvoll vergeben werden? Was hat es mit den FAIR-Prinzipien auf sich, die in der Forschungsförderung so prominent zu sein scheinen? Und nicht zuletzt: Welche Relevanz hat all das für die Romanistik?

Diese Aspekte stehen im Mittelpunkt des gemeinsam von der AG Digitale Romanistik und dem FID Romanistik veranstalteten Workshops zum Thema „Datensicherung im Forschungsprozess“.

Vorgesehen sind drei Panels mit Kurzvorträgen und anschließender Diskussion zu den Schwerpunkten „FAIR-Prinzipien“, „Infrastrukturen für die Sicherung und den Nachweis von Forschungsdaten“ und „Metadaten“ sowie zwei Praxismodule der AG Digitale Romanistik mit Einführungen in spezielle Methoden und Arbeitsweisen aus den Digital Humanities.

Ziel ist es dabei,

  • generelle Prinzipien und Anforderungen beim Umgang mit Forschungsdaten an Beispielen mit Bezug zur (eigenen) romanistischen Forschungspraxis zu konkretisieren und zu diskutieren,
  • Angebote der AG Digitale Romanistik und des FID Romanistik vorzustellen und dabei Handlungsbedarfe zu ermitteln, die zur Verbesserung dieser Angebote (und darüber hinaus) beitragen können.

Das Programm finden Sie unter: https://www.fid-romanistik.de/forschungsdaten/workshops/3

Die Teilnahme steht allen interessierten Romanistinnen und Romanisten offen. Melden Sie sich bitte bis zum 20.11.2020 an, indem Sie eine E-Mail an Johannes von Vacano (johannes.von.vacano@ulb.uni-bonn.de) senden. Geben Sie dabei bitte an, ob Sie auch an den Praxismodulen teilnehmen möchten.

Die Einwahldaten für den Workshop werden angemeldeten Teilnehmerinnen und Teilnehmern rechtzeitig zugesandt.

SHK-Stelle mit Schwerpunkt Wikibase am Exzellenzcluster „Temporal Communities“ der FU Berlin

dhd-blog - Do, 10/15/2020 - 20:27

Der Exzellenzcluster 2020 „Temporal Communities – Doing Literature in a Global Perspective“ der Freien Universität Berlin sucht die Unterstützung von studentischen Mitarbeiter*innen (80 bzw. 2×40 Monatsstunden) bei der Betreuung und Weiterentwicklung einer Wikibase-Instanz für in-house Forschungsdatenmanagement in der Research Area 5 „Building Digital Communities„.

Mehr Informationen finden Sie im Stellenanzeiger der Freien Universität Berlin. Bewerbungsschluss ist der 3. November 2020.

Studentische Bewerber*innen müssen nicht unbedingt an der Freien Universität Berlin immatrikuliert sein, sondern können auch an einer anderen Berliner Hochschule oder in Potsdam studieren. Verbreiten Sie die Ausschreibung gern weiter!

Open position: Assistant Professor in Video Game Studies

dhd-blog - Mi, 10/14/2020 - 17:49

The Department of Language and Information Sciences in the Faculty of Arts of the University of Lausanne (Switzerland) invites applications for a position of Assistant Professor in Video Game Studies (études logicielles et matérielles des jeux vidéo et de leurs traces numériques).

➜ Official job posting and application link

  • Application deadline: December 1, 2020
  • Starting date: August 1, 2021
  • Thank you for forwarding the posting to potentially interested colleagues active in this field.

    For further information, please contact Prof. François Bavaud <francois.bavaud@unil.ch>.

Jetzt für Coding da Vinci anmelden!

dhd-blog - Mi, 10/14/2020 - 13:04

Ab sofort kannst du dich für Coding da Vinci – Deutschlands ersten Kultur-Hackathon – anmelden. Der Platz ist begrenzt, darum beeil dich.

Du bist Entwickler*in, Designer*in, Künstler*in, Spieleentwickler*in, Hardware-Hacker*in, Wissenschaftler*in oder einfach Daten-Nerd und hast Lust, gemeinsam mit großen und kleinen Kulturinstitutionen Apps, Websites, VR/AR-Umsetzungen, Installationen, Spiele oder ähnliches zu entwickeln und dadurch den digitalen Zugang zu unserem Kulturerbe kreativ weiterzuentwickeln? Dann ist Coding da Vinci genau das Richtige für dich.

HIER GEHT ES ZUR ANMELDUNG!

Die neuen Daten sind bereits online

In den zurückliegenden Wochen haben wir hart gearbeitet und gemeinsam mit den 38 in diesem Jahr beteiligten Kulturinstitutionen insgesamt 46 neue Datensets auf unserem Datenportal unter freier Lizenz zur Verfügung gestellt. Zur Auswahl stehen Daten zu Denkmälern in Niedersachsen, Objekte aus der Geschichte der Computertechnik, Makrofotografien und 3D-Modelle von Insekten und viele andere mehr. Es handelt sich um Bilder, Texte, 3D-Modelle und Metadaten, die jetzt frei verwendet, neu gemischt kontextualisiert und miteinander sowie mit anderen Daten kombiniert werden können. Wir sind sehr gespannt, welches Wissen und welche Möglichkeiten ihr darin entdeckt und damit aktivieren werdet.

Ablauf und Programm

Coding da Vinci Niedersachsen 2020 startet am Wochenende des 24. Oktober 2020 mit einem Kick-Off in Hannover (Online-Teilnahme möglich). Beim Kick-Off habt ihr als Teilnehmende Gelegenheit, die Institutionen und ihre Datensets kennenzulernen und mit ihnen erste Ideen zu diskutieren, Projekte zu erfinden und Teams zu bilden. Ihr könnt gleich vor Ort (und online) mit der Umsetzung beginnen. Bringt zum Kick-Off eure eigene Idee als Vorschlag für die anderen Teilnehmenden mit oder schließt euch einem der dort entstehenden Teams an. Die Entscheidung liegt ganz bei euch. Lasst euch anstecken von der Vielfalt und Qualität der präsentierten Daten.

Nach dem Kick-Off-Wochenende habt ihr mit euren Teams im Sprint weitere 14 Wochen Zeit, in denen ihr selbstorganisiert eure Projekten vorantreibt, bevor ihr sie am 29.Januar 2021 im Rahmen einer Preisverleihung im Kulturzentrum Pavillon öffentlich präsentiert. Unsere Jury wird Projekte auszeichnen in verschiedenen Kategorien, wie z.B. „Most Technical“, „Most Useful“, „Best Design“ und „Funniest Hack“. Neben den Jurypreisen gibt es außerdem einen Publikumspreis.

Wenn ihr Lust habt, an Coding da Vinci Niedersachsen 2020 teilzunehmen, dann meldet euch an und wir sehen uns am 24. und 25. Oktober 2020 im Kulturzentrum Pavillon und erfinden und gestalten gemeinsam den digitalen Zugang zu unserem Kulturerbe. Wir freuen uns sehr auf euch.

Directory of Open Access Books milestones: 30,000 open access books from over 400 publishers

dhd-blog - Di, 10/13/2020 - 10:58

We are pleased to share that the Directory of Open Access Books (DOAB) recently reached three key milestones in terms of book coverage, unique publishers and future financial sustainability. 

Over 30,000 books from more than 400 publishers

The number of open access books included in DOAB has grown impressively from just over 10,000 books in 2018 to 31,917 as of today. In terms of publishers, we are happy to see that over 400 publishers are included in DOAB as we strive to improve the coverage of the directory.
To celebrate this new milestone we took a closer look at the DOAB platform. Check out the key figures on publications per language, publication period and the distribution of licenses below.

SCOSS Campaign – halfway financial sustainability target

Thanks to new pledges of support from Canada, France and the Netherlands we surpassed the halfway point of our SCOSS campaign. Currently, we are at 60% of our financial target. In these challenging times, we are grateful for the worldwide support for DOAB and OAPEN and commitment to OA books. Have a look at the updated supporter page on the DOAB platform here, now consisting of nearly 50 SCOSS supporters and DOAB members.

We welcome and encourage additional libraries and funders to consider becoming a SCOSS supporter and help us in achieving our financial sustainability target.

For more information regarding the SCOSS campaign please contact Tom Mosterd at t.mosterd@oapen.org

For more information regarding any other DOAB related matters please contact Lotte Kruijt at l.kruijt@oapen.org

Werkvertrag über technische Entwicklungsleistungen Onlineedition

dhd-blog - Di, 10/13/2020 - 10:10

„Jetzt erst verstehe ich den Sinn des Lebens“. Der Briefwechsel Alma Mahler – Walter Gropius 1910-1964
Im Rahmen des von der Deutschen Forschungsgemeinschaft (DFG) geförderten Forschungsprojektes „Jetzt erst verstehe ich den Sinn des Lebens“. Der Briefwechsel Alma Mahler – Walter Gropius 1910-1964 wird die Umsetzung einer digitalen Edition auf Werkvertragsbasis ausgeschrieben.
Das Editionsprojekt umfasst den Briefwechsel zwischen Alma Mahler und Walter Gropius und hat einen Gesamtumfang von ca. 850 Briefen von Alma Mahler an Walter Gropius und ca. 700 Briefentwürfen von Walter Gropius an Alma Mahler. Die Gesamtausgabe ist als Hybrid-Edition konzipiert: Die Printausgabe erscheint zum Ablauf des dreijährigen DFG-Projekts, das am 28. Februar 2022 endet. Die digitale Version wird von den Herausgeber*innen zwei Jahre nach Erscheinen der Printausgabe auf der Homepage des Bauhaus-Archiv / Museum für Gestaltung veröffentlicht. Das Forschungsprojekt ist eine Kooperation des Bauhaus-Archiv / Museum für
Gestaltung in Berlin, LINK:
https://www.bauhaus.de/de/bauhaus-archiv/5293_forschung/ mit dem Musikwissenschaftlichen Institut der Universität Tübingen. LINK:
https://uni-tuebingen.de/de/150555

Der Auftragnehmer wird mit der technischen Umsetzung der digitalen Edition „Jetzt erst verstehe ich den Sinn des Lebens“. Der Briefwechsel Alma Mahler – Walter Gropius 1910-1964 beauftragt. Sie entwickeln und erstellen die Website für die digitale Edition im Rahmen des Webauftritts des Bauhaus-Archivs unter Verwendung der entsprechenden Präsentationsschicht der digitalen Edition (eXist-db, X-Technologien) gemäß den spezifischen Anforderungen des Textkonvoluts. Dabei achten Sie auf nachhaltige und nachnutzbare Lösungen die insbesondere skalierbar sind.
Kurzbeschreibung des Auftrages (Ergebnis) Der Gesamtauftrag umfasst die Erstellung einer voll funktionsfähigen und passwortgeschützten Test-Website mit ca. 50 edierten Briefen inkl. TEI-konformer XML Dateidokumente sowie einer Projektdokumentation. Hierzu gehört auch die Erstellung und Beschreibung eines Workflows für die weitere Arbeit an der digitalen Edition zur Erfassung der weiteren Briefe, der Arbeit mit einer
XML-Datenbank sowie der Webseite.

Die Leistung beinhaltet insbesondere:
• Unterstützung bei der Entwicklung und Einrichtung einer nachhaltigen Infrastruktur für Editionsprojekte
• Entwicklung der Präsentationsschicht für die Digitale Edition „Jetzt erst verstehe ich den Sinn des Lebens“. Der Briefwechsel Alma Mahler – Walter Gropius 1910-1964
• Implementation von Schnittstellen für Austausch und Verknüpfung der Daten mit anderen Archiven, Repositorien und Portalen (bspw. Kalliope und CorrespSearch), Verknüpfung mit der Gemeinsamen Normdatei (GND)
• Abstimmung mit dem fachwissenschaftlichen Team am Bauhaus-Archiv Berlin sowie der Universität Tübingen
• Dokumentation der Arbeitsergebnisse

Was kommt wann vom Auftraggeber?
Vom Auftraggeber wird ein TEI-Datenmodell sowie ein Konzept zur Gestaltung der Webseite bereitgestellt. Das Konzept zur Gestaltung der Webseite wird bereits zu Beginn des Auftrages an den Auftragnehmer übergeben. Ebenso wird die technische Infrastruktur (XML-Datenbank, Content Management System usw.) vom Auftraggeber für den Auftragnehmer zur Verfügung gestellt.

Leistungszeitraum
Die Frist zur Fertigstellung der Webseite mit ca. 50 edierten Briefen inkl. TEI-konformer XMLDateien wird auf ca. 6 Werkmonate geschätzt.

Notwendige Expertise
• wissenschaftlicher Hochschulabschluss (B.A., Master, M.A., Diplom) in Informatik, Informationswissenschaft, Digital Humanities, ggf. auch Kunst- oder Kulturgeschichte, Musikwissenschaft oder einer anderen einschlägigen Disziplin
• sehr gute Kenntnisse sowie umfangreiche praktische Erfahrungen: X-Technologien (XML, XSLT, xPath /xQuery), Datenbankkenntnisse (möglichst auch im noSQL Bereich, z.B. eXist)
• gute Kenntnisse: gängige Webtechnologien (HTML, CSS, JavaScript, PHP)
• wünschenswert: Erfahrungen im Bereich Digital Humanities bzw. im Bereich der digitalen Editionen

Was bieten wir
Die Mitarbeit an einem spannenden Forschungsprojekt zweier international renommierter Forschungseinrichtungen. Freie Zeiteinteilung, selbständiges und weitestgehend unabhängiges Arbeiten bei attraktiver Vergütung.


Kontakt und weitergehende Informationen
Bei Interesse richten Sie bitte Ihre aussagefähigen Unterlagen (Lebenslauf, Motivation, Zeugnisse) bis zum 3. November 2020 an:

Bauhaus Archiv e.V. / Museum für Gestaltung
Konrad Fickelscher (Verwaltungsleitung)
Tel. 030/7254002-44
k.fickelscher@bauhaus.de

Langzeitarchivierung und Bereitstellung digitaler Verlagsdaten – CERN / a Futures / Merve Verlag

dhd-blog - Di, 10/13/2020 - 09:28

2015 hat der Merve Verlag ein auf mehrere Jahre angelegtes Projekt gestartet, mit dem Ziel, seine Backlist zu digitalisieren und archivieren, und zugleich als agnostischen, wiederverwendbaren Text bzw. Markup bereitzustellen. 2017 wurde ein erster Meilenstein mit der Einführung herunterladbarer ePUB- und PDF-Formate für die Backlist erreicht. 2019 wurde ein Open-Access Testbetrieb mit registrierten AnwenderInnen aufgenommen.

Für die Buchmesse 2020 wurde zusätzlich zur Backlist der gesamte aktuelle Katalog des Merve Verlags in identischer Weise digital neu aufbereitet. Anfang 2021 wird eine Volltextsuche nebst Open-Access-Zugriff für das gesamte Korpus von mehr als 500 Verlagstiteln freigeschaltet.

Die digitale Merve-Edition basiert zum einen auf Invenio – dem am CERN entwickelten und langfristig unterstützten Open-Source-Software-Framework zur Speicherung und Verwaltung großer Datenbestände, mit dem bspw. auch der Online-Speicherdienst Zenodo betrieben wird. Die Bereitstellung der digitalen Merve-Edition erfolgt wiederum über einen IIIF-Service, der zahlreiche aktuelle und zukünftige Browser bzw. eReader unterstützt.

Der auf Nachhaltigkeit zielende Ansatz wird in den kommenden zwölf Monaten um weitere Services erweitert: Falls Drucktitel vergriffen sein sollten, kann 2021 automatisch auf Print-on-Demand Angebote umgestellt werden. Kunden können einzelne Titel oder Aufsätze zu individuellen Kompilationen bündeln und ebenfalls per P-o-D ausdrucken. Zudem werden standardbasierte Anmerkungen zum gesamten Merve-Korpus unterstützt: Individuelle Annotationen, via ORCID authentifiziert, werden automatisch in Zenodo-Datensätze konvertiert und mit einem DOI versehen. So sind sie nachhaltig gespeichert, lassen sich einfach mit anderen teilen oder kombinieren, und bleiben zugleich mit den Merve-Quelltexten verbunden. Auch die Annotationen lassen sich zusammen mit dem Originaltext als P-o-D ausgeben.

Tom Lamberty, Merve-Verleger:

„Das Release zur Buchmesse 2020 ist ein weiterer wichtiger Schritt in unserer langfristigen Digitalisierungsstrategie – die bis ins Jahr 2005 zurückreicht, als wir als erster Verlag in Europa einen funktionsfähigen Handy-Reader angeboten haben. Auf der Buchmesse 2017 konnten wir in Zusammenarbeit mit dem Game Lab der Humboldt Universität Berlin das weltweit erste VR-Lesegerät vorstellen. Und heute sind wir endlich soweit, unsere Investitionen in eine integrierte, interoperable und zukunftssichere digitale Infrastruktur für alle zukünftigen Verlags-Digitalisate mit neuen Suchdiensten und innovativen Distributionskanälen zu kombinieren.“

José Gonzalez, Leiter der Repository-Technologien beim CERN:

„Es ist bemerkenswert, dass der Verlagssektor so schnell dazu übergegangen ist, die für und von den Naturwissenschaften entwickelten innovativen Technologien zu nutzen und umfangreiche Datenbestände für Open-Access Präsentationen zu erschließen. Wir erwarten, dass die bevorstehenden Entwicklungen im Bereich der Annotation mit InvenioRDM – das die automatisierte Erstellung wiederverwendbarer Zenodo-Datensätze erlaubt – die Nutzung von Primärquellen auch in vielen anderen Bereichen revolutionieren werden“.

Peter Cornwell, Direktor der Data Futures GmbH:

„Die Kombination aus

  • der Darstellung digitaler Objekte via IIIF,
  • ihrer Speicherung in korpusspezifischen Invenio-Repositorien und
  • ihrer Annotation konform zum WADM (Web Annotation Data Model)

in einer integrierten Forschungsplattform schafft zum ersten Mal die Möglichkeit, langfristige Zugriffsmöglichkeiten und nachhaltige Archivierung digitaler Objekte effektiv zu automatisieren. Leider müssen wir im Vergleich dazu immer wieder feststellen, dass diese kritischen Komponenten bei einer Vielzahl von Digitalisierungsprojekten (nicht nur) im Forschungsbereich in aller Regel zu spät Beachtung finden und nachträglich bereitgestellte Investitionen – wenn es sie überhaupt gibt – normalerweise nicht ausreichen.“

Zu diesem Thema wird es am kommenden Freitag von 15-16 Uhr CEST ein Webinar geben, der Registrierungslink findet sich hier: https://www.data-futures.org/pages/events

Digital Humanities & Forschungsdatenmanagement an der Stiftung Universität Hildesheim. Veranstaltungen des FDM der UB Hildesheim im Wintersemester 2020/21.

dhd-blog - Mo, 10/12/2020 - 15:18

Die Deutsche Forschungsgemeinschaft (DFG) hatte auf ihrer Jahresversammlung 2020 wieder nachdrücklich die Bedeutung der Forschung an den Hochschulen in Deutschland betont:

„Die Hochschulen in Deutschland leisten nicht nur auch in diesen Tagen beste Forschung, sondern sie organisieren auch weiterhin die akademische Ausbildung, bilden Wissensvorräte für die anwendungsorientierte Forschung und tragen selbst zu dieser bei“, sagte Becker.

https://www.dfg.de/service/presse/pressemitteilungen/2020/pressemitteilung_nr_25/ (30.8.2020)

Aus diesem Grund unterstützt das FDM der UB Hildesheim weiterhin alle Projekte, auch die aus dem Bereich der Digital Humanities, forschungsbegleitend (prozessorientiert).

Im interdisziplinären Forschungsverbund „SOLDISK: Solidaritätsdiskurse in Krisen – Analyse und Erklärung von Solidaritätsvorstellungen in Migrationskontexten“ beschäftigen sich Forscherinnen und Forscher auch mit dem Forschungsdatenmanagement. Ein Datenmanagementplan wurde mit dem ‚Tool‘ RDMO geschrieben.

Im Bereich der DH ist das folgende Schulungsmaterial der FAU, u.a. zu RDMO, sehr nützlich:

Datenmanagementpläne & RDMO

Das computerlinguistische Teilprojekt von SOLDISK hat das Ziel, von  Einzelanalysen hin zur automatischen Analyse größerer Datenmengen zu generalisieren.

Rechtliche Fragen im Forschungsdatenmanagement sind hier u.a. die relevanten, neben Überlegungen zur langfristigen Speicherung (Nachhaltigkeit) der heterogenen Daten (qualitativ und quantitativ).

Seit 2016 organisieren das GCDH mit dem Institut für Informationswissenschaft und Sprachtechnologie der Stiftung Universität Hildesheim zweimal pro Jahr einen gemeinsamen Workshop zu aktuellen Fragen der Computerlinguistik und Digital Humanities. Beispiel einer Präsentation: „Echo chambers and polarisationin the German federal election 2017“.

„Bislang waren zumeist Texte Untersuchungsgegenstand von Forschungsprojekten der digitalen Geisteswissenschaften. Diese Richtlinie möchte das Potential der Digitalisierung für ganze Gruppen benachbarter Fächer stärken und sich neuen Herausforderungen auch jenseits der klassischen Quellen stellen. Daher stehen nicht-textfokussierte und multimodale Untersuchungsgegenstände (Bild, Film, Ton usw. sowie Kombinationen davon) im Zentrum dieser Richtlinie sowie Untersuchungsgegenstände, die von der konkreten vorgeschlagenen Forschungsfrage abgesehen Anknüpfungsmöglichkeiten für weitere Disziplinen eröffnen.“

https://www.bmbf.de/foerderungen/bekanntmachung-2553.html

Mit der Förderrichtlinie (Bundesanzeiger vom 22.07.2019) fördert das BMBF die Forschung zur theoretischen, methodischen und technischen Weiterentwicklung der Digital Humanities, wobei das Forschungsdatenmanagement und die Forschungssoftware nicht unberücksichtigt bleibt. In der Projektskizze wurde ein DMP erwartet und ggf. die Verfügbarmachung der Forschungssoftware.

„Gegebenenfalls aus der Förderung resultierende Software soll so veröffentlicht werden, dass eine unentgeltliche ­Nutzung der Software und des zugrundliegenden Quellcodes unter dafür geeigneten Lizenzen (Open Source) für die Wissenschaft und allgemeine Öffentlichkeit möglich ist.“

Gegebenenfalls aus der Förderung resultierende Software soll so veröffentlicht werden, dass eine unentgeltliche ­Nutzung der Software und des zugrundliegenden Quellcodes unter dafür geeigneten Lizenzen (Open Source) für die Wissenschaft und allgemeine Öffentlichkeit möglich ist.

Ansonsten haben im Sommersemester 2020 Forscherinnen und Forscher der Stiftung Universität Hildesheim sowie externe Interessierte aus dem Bereich der Digital Humanities auch wieder an den Veranstaltungen zum Forschungsdatenmanagement teilgenommen, u.a. hier:

ONLINE Veranstaltung der UB Hildesheim Digital Summer School 2020: Forschungsdatenmanagement

Weitere, kommende, Veranstaltungen zum Forschungsdatenmanagement, die für den Bereich der Digital Humanities interessant sind, finden Sie hier: https://www.uni-hildesheim.de/neuigkeiten/aktives-forschungsmanagement-workshops-zum-forschungsdatenmanagement-und-den-coffee-lectures/

Stellenangebot: System-Architekt*in (m/w/d) Speicherinfrastrukturen (UB Duisburg-Essen)

dhd-blog - So, 10/11/2020 - 16:04

Für die Entwicklung und technische Umsetzung von FDM-Infrastrukturen und FDM-Systemdiensten sucht die Universität Duisburg-Essen im Zentrum für Informations- und Mediendienste eine / einen

System-Architekt*in (m/w/d) Speicherinfrastrukturen

(Entgeltgruppe 13 TV-L)

  • Allgemeines: Der Dienstort Duisburg oder Essen wird bei Einstellung unter weitgehender Berücksichtigung ihrer persönlichen Interessen festgelegt.
  • Besetzungszeitpunkt: zum nächstmöglichen Termin
  • Vertragsdauer: unbefristet
  • Arbeitszeit: 100% einer Vollzeitstelle
  • Bewerbungsfrist: 28.10.2020

Weitere Informationen finden Sie hier: https://tinyurl.com/y2r8fay9

OPERAS Conference “Opening up Social Sciences and Humanities in Europe: From Promises to Reality”, November 2–4

dhd-blog - Fr, 10/09/2020 - 15:12

The OPERAS reseach infrastructure invites to the conference “Opening up Social Sciences and Humanities in Europe: From Promises to Reality”, that will be fully digital this year and will take place from 2–4 November 2020.



Open Science is gaining momentum in Europe with the creation of the European Open Science Cloud (EOSC). In the EOSC Declaration it says “no disciplines […] must be left behind”. Are the social sciences and humanities ready for the EOSC? To what extent are Open Science and FAIR practices already in place? What role can research infrastructures and disciplinary communities play to support an effective shift towards Open Science? 

The OPERAS conference aims at being a discussion hub in which different players such as researchers, decision makers, publishers and librarians e.g. can share and compare their take on the current scholarly communication system and their vision for a sustainable future.

The workshops and panels at the conference will address the following issues: 
What are researchers‘ needs and visions regarding research infrastructures, services and policies? 
What role can Open Infrastructures play in supporting the shift towards openness and in offering the services and tools the community really needs?
What are the challenges preventing social sciences and humanities researchers from adopting openness as default scholarly communication practice?
What is needed for Open Science policies and frameworks such as Plan S and EOSC to be adopted by social sciences and humanities communities?
What’s the future for books, and what about sustainable business models in publishing?

We are looking forward to the keynote presentation “Scientific communities and infrastructures: a personal perspective” by Johan Rooryck (professor at Leiden University, Executive Director of cOAlition S), as well as interesting workshops and panels on the European Open Science Cloud and future OPERAS services, and discussing policies of Open Science amongst others with Kostas Glinos (Head of Unit for Open Science at European Commission), Angela Liberatore (Head of Unit on Social Sciences and Humanities at the European Research Council Executive Agency), Jennifer Edmond (President of the Board of Directors in DARIAH EU).

Please find the full program and register at www.operas2020.com

Follow #OPERAS2020 on Twitter.

About OPERAS:

OPERAS is the Research Infrastructure supporting open scholarly communication in the social sciences and humanities (SSH) in the European Research Area. Its mission is to coordinate and federate resources in Europe to efficiently address the scholarly communication needs of European researchers in the field of SSH.

For more information, please contact Judith Schulte, communication officer at OPERAS, communication@operas-eu.org

Workshop “Metadaten Analysieren” der DHd-AG Zeitungen & Zeitschriften

dhd-blog - Do, 10/08/2020 - 13:42

von Nanette Rißler-Pipka, Harald Lordick und Torsten Roeder

Während viele Millionen Zeitungs- und Zeitschriftenseiten in Portalen wie Europeana oder der Deutschen Digitalen Bibliothek am Bildschirm lesbar sind, steht maschinenlesbarer Text nur in kleinen Mengen der Forschung zur Verfügung. Schade, denkt man: Damit kann man ja nur begrenzt etwas anfangen. Doch all diese Digitalisate sind katalogisiert und manchmal sogar zu einem Anteil bis auf die Inhaltsverzeichnisse jeder Ausgabe, also bis auf Artikelebene erfasst. Für Zeitungen und Zeitschriften sind diese zusätzlichen Informationen schon durch die Struktur des Mediums besonders reichhaltig und wichtig.

Diese Informationen nennen wir “Metadaten”.[1] Und es ist gut, dass es sie gibt: Sie verraten uns zum einen in systematischer Form das, was aus den Digitalisaten explizit hervorgeht, wie etwa  den Namen der Zeitung/Zeitschrift, den Druckort, das Erscheinungsdatum. Zum anderen enthalten sie beispielsweise auch die Regelmäßigkeit des Erscheinens, die Anzahl der gescannten und der gedruckten Exemplare, die Autorinnen und Autoren sowie weitere Akteure, die Anzahl der Seiten und der Artikel oder die Sprache, in der die Artikel verfasst wurden. All dies kann viel Recherche erfordern. Speziellere Metadaten wie beispielsweise die Anzahl der Werbeanzeigen, das Geschlecht der Autorinnen und Autoren, die Anzahl der Bilder, Überschriften und Kunstwerke sind vielleicht auch gar nicht erfasst oder erfordern weitergehende Recherche. Dennoch: Was könnte man mit diesen Metadaten alles anfangen, welche Forschungsfragen behandeln? Und: Wie kommt man an diese Metadaten systematisch heran? Wie wertet man sie maschinell aus? Damit beschäftigte sich der Workshop der DHd-AG Zeitungen & Zeitschriften, welcher den Auftakt zu einer kleinen Reihe von Veranstaltungen zum wissenschaftlichen Arbeiten mit historischen digitalen Periodika bildete.

Im Vorfeld

Wir haben alle Interessierten bei Anmeldung zum Workshop darum gebeten, ihre Forschungsfragen anzugeben. Dabei kam bereits eine große Vielfalt zusammen: von der Untersuchung der Akteure in bestimmten Zeitschriftentiteln bis hin zu in Zeit, Raum  und Genre begrenzten Suchanfragen, um zunächst einmal das relevante Korpus festzulegen. Die Komplexität der faszinierenden Forschungsfragen ließ aber auch im Vorfeld bereits erkennen, dass wir vor allem grundlegende Werkzeuge mitgeben können, nicht aber im Workshop selbst zur Beantwortung gelangen würden. Intensive Hands-On-Passagen gaben jedoch Gelegenheit, bereits im Rahmen des Workshops Einzelfragen in kleinen Gruppen zu besprechen.

Bei der Vorbereitung beschäftigte uns natürlich auch die Frage, wie man bei mehr als zwanzig Teilnehmenden eine selbsterklärende und funktionierende Python-Umgebung einrichten kann. Am Ende stand allen Teilnehmenden ein individuelles, cloudbasiertes Jupyter-Notebook zur Verfügung, in dem Code-Blöcke durch ein Schritt-für-Schritt-Tutorial erklärt wurden und auch gleich durch praktische Programmierung ausprobiert werden konnten. Dadurch konnten wir fast unmittelbar nach der Vorstellungsrunde mit dem Coden beginnen.

Abb. 1: Screenshot aus dem Metadaten-Workshop der AG Zeitungen & Zeitschriften
(Tutorial: Mark Hall, Andreas Lüschow)

Das Schritt-für-Schritt-Tutorial wurde von Mark Hall in Zusammenarbeit mit Andreas Lüschow verfasst und ermöglichte den Teilnehmenden, während des Workshops im integrierten Jupyter Notebook ‘mitzucoden’ und später auch eigene Abfragen in der Programmiersprache Python zu schreiben.

Erster Tag: Wie komme ich an Metadaten?

Schon die Frage der ersten Einheit: “Wie komme ich an Metadaten?” eröffnete neue Perspektiven. Es gibt zwei Wege, die man gehen kann, um an das gewünschte ‘Metadaten’-Korpus zu gelangen. Erstens, das manuelle Anlegen einer persönlichen Bibliographie (die zumeist aus Verweisen untereinander entsteht und mehr oder weniger kanonisch ist). Zweitens, das Verwenden einer vorliegenden Metadaten-Sammlung eines Daten- und Dienstanbieters. Hier ist man auf die vorgegebene Zusammensetzung der jeweiligen Sammlung beschränkt, hat dafür den Vorteil eines klaren Kriteriums der Auswahl. Vermutlich kann man sich auch auf einen gewissen Qualitätsstandard verlassen oder zumindest darauf hoffen. Im weiteren Verlauf des Workshops und der Analyse lernten wir, inwieweit man sich darauf verlassen kann: Wie alle Datensammlungen sind Metadaten niemals perfekt. Ein Beispiel ist die Landesangabe “mul”, die für “aus mehreren Ländern” steht und der Standarddefinition entspricht, aber für Außenstehende schwierig zu interpretieren ist. Auch wird wenig mit kontrollierten Vokabularen gearbeitet, die abweichende Mehrfachbezeichnungen vereinheitlichen könnten.

Wenn man Metadaten automatisiert beziehen möchte, braucht man eine Schnittstelle. Manchmal werden diese Schnittstellen zumindest für Metadaten auch frei und offen auf der Webseite des Anbieters genannt, wie in dem im Workshop gewählten Beispiel: https://www.digizeitschriften.de/kontakt/schnittstellen/. Oft sind Schnittstellen aber nicht offen sichtbar, sondern ihre Adressen müssen entweder erfragt werden oder stecken hinter einer Anmeldeschranke. Wer besonders genau hinschaut, kann Metadaten-Schnittstellen unter Umständen auch anhand der URL im DFG-Viewer erraten.

Abb. 2: HTML-Ansicht einer OAI-PMH-XML-Ausgabe (www.digizeitschriften.de)

Nun sind Schnittstellen in der Regel nicht gleichbedeutend mit Download-Buttons. Gleichzeitig steht für den Einstieg oder sporadische Nutzung keine Software zur Verfügung, die niederschwellig das Harvesting von Metadaten z.B. via OAI-PMH-Schnittstelle erlauben würde. Manche Provider wie www.digizeitschriften.de bieten eine HTML-Ansicht ihrer OAI-PMH-XML-Ausgabe an. Dies ist überaus hilfreich, um das Datenangebot zunächst zu inspizieren: welche Metadatenformate, Datensets und Inhalte sind überhaupt verfügbar? Eine solche HTML-Ansicht erlaubt zwar prinzipiell auch die manuelle interaktive ‚Abfrage‘ der Schnittstelle. Für die meisten Anwendungsfälle in den Digital Humanities ist dies jedoch keine Option, und oft ist dieser ‚View‘ auch gar nicht verfügbar. Entsprechend sinnvoll ist die von Mark Hall aus Anlass des Workshops neu entwickelte Python-Bibliothek “Polymatheia” (frei verfügbar unter https://polymatheia.readthedocs.io). Diese kapselt die Komplexität der Interaktion mit den Metadatenschnittstellen (unter anderem werden OAI-PMH, Europeana, und demnächst auch Search/Retrieve via URL unterstützt) und bietet Funktionalität zum Filtern und Transformieren der Metadaten. Die Metadaten können dann als JSON, XML, CSV, oder nach Pandas exportiert werden und stehen für die weitere Analyse bereit.

Zweiter Tag: Wie analysiere und visualisiere ich Metadaten?

Am darauffolgenden Tag wurde ausführlich über statistische Verfahren und Visualisierungen gesprochen. Statistisches Grundlagenwissen ist enorm wichtig, wenn man aus den zahlreichen Metadatensätzen – die leicht in die Tausende und auch Hunderttausende gehen können – Korrelationen zwischen Datenparametern wissenschaftlich fundiert nachweisen möchte. Visualisierungen können indessen ein sehr hilfreiches Mittel sein, um einen Überblick über ein (Meta)daten-Korpus zu gewinnen oder bestimmte Charakteristika auszumachen, helfen aber wiederum wenig als Aussagewert.

Abb. 3: a) Countplot b) Distributionplot c) Jointplot d) KDE Plot e) Violinplot


In mehreren Breakout-Rooms (mit Big Blue Button sehr flexibel handhabbar) organisierten sich dann spontan verschiedene Gruppen nach Interessenlage: Ein Raum beschäftigte sich mit der Struktur des METS/MODS Metadatenschemas, während in einem anderen die Metadaten der Leopoldina-Zeitschrift “Miscellanea Curiosa” über eine OAI-PMH-Schnittstelle geharvestet sowie ein intensiverer Blick auf die Metadaten der “STURM”-Edition (AdW Mainz) geworfen wurde; in einem weiteren Raum wurde diskutiert, wie spezifische Fragestellungen gelöst werden könnten. Eine Hilfe- und Selbsthilfegruppe für alle technischen Belange bildete sich in einem vierten Raum. Die Zeit in den Breakout-Rooms war hilfreich, um das Erlernte in der Praxis zu erproben und zu vertiefen, reichte aber absehbar nicht aus, um wissenschaftliche Ergebnisse hervorzubringen.

Damit wären wir wieder bei den ursprünglichen Fragestellungen der Teilnehmenden angekommen: Nachdem allen nun eine Art universeller Handwerkskasten zur Verfügung steht (nebenbei haben wir praktisch sogar ein wenig Python gelernt!), geht es im Nachgang des Workshops an die wissenschaftliche Anwendung. Wichtiger als schnelle Antworten auf einzelne Fragestellungen erschien uns als Ergebnis der neue Blick auf Metadaten: Sie bilden ein vielfältiges Universum, dem man mit einigen Kniffen Geheimnisse entlocken kann, welche bei ihrer Erstellung im Einzelfall noch nicht erahnbar waren.

Fazit

Natürlich war der Workshop vor der Pandemie noch als Präsenzveranstaltung geplant und wir haben uns bewusst entschlossen, die im Vergleich intensive Vorarbeit (welchen virtuellen Raum, aber auch welche Lösung für das Tutorial?) zu investieren. Zwar mussten wir auch bei der virtuellen Veranstaltung die Teilnehmerzahl beschränken, um Hands-On-Sessions zu ermöglichen, dafür aber erhöht sich die Nachnutzbarkeit: Denn die Videos stehen fortan  als Online-Tutorial zur Verfügung. Ferner besteht die Möglichkeit, bei entsprechendem Interesse den Workshop zu wiederholen.

Gerade weil sich sehr viele Menschen außerhalb der DHd-AG Zeitungen & Zeitschriften angemeldet haben, fehlte uns sehr die Möglichkeit, sich in der Pause oder beim gemeinsamen Abendessen näher kennen zu lernen, weiter über die individuellen Forschungsfragen zu fachsimpeln und das “Socialising” generell. Natürlich bevorzugte man in der Pause lieber einen Spaziergang in der realen Welt gegenüber Tele-Smalltalk am Bildschirm. Nichtsdestotrotz konnte die DHd-AG im Nachgang einen Mitgliederzuwachs verzeichnen – weitere sind immer willkommen (https://dhd-ag-zz.github.io/).

Es steht nun die Anwendung des “Handwerkskastens” im eigenen Projekt noch aus. Erst dort werden sich die Tücken der großen Metadatensammlungen, die Inkonsistenzen und auch die Lücken im Gedächtnis zeigen: Wie konnte man in Python nochmal nach den drei Autorennamen im Metadaten-Set filtern? Umso besser, dass es nicht nur das nachlesbare Tutorial (https://github.com/mmh352/metadata-tutorial), sondern auch die Anleitung zur Einrichtung eines ‘baugleichen’ Jupyter-Notebooks auf dem heimischen Gerät und ohne Cloudlösung gibt.

Willkommener Nebeneffekt eines solchen Workshops nach unserem Eindruck: Das gemeinsame Wissen über verfügbare Metadatenangebote wächst. Es lohnt sich außerdem, Datenanbieter im Vorfeld hinsichtlich Verfügbarkeit oder Details anzusprechen, zumal dies  die Nachfrage seitens der Community betont und damit wiederum – zumindest perspektivisch – weitere Angebote fördert.

Alle Infos zum Workshop können hier abgerufen werden:
https://dhd-ag-zz.github.io/workshops/2020-09_metadata_analysis

[1] Zur allgemeinen Definition von Metadaten: “Perhaps a more useful, ‘big picture’ way of thinking about metadata is as the sum total of what one can say about any information object at any level of aggregation.” (Anne J. Gilliland: “Setting the Stage”, in: Baca, Murtha, Hrsg. Introduction to Metadata. Third edition. Los Angeles: The Getty Research Institute, 2008/2016, p. 2. https://www.getty.edu/publications/intrometadata/setting-the-stage/)

Datenkuratorin / Datenkurator (m/w/d) für die fotografischen Sammlungsbestände und digitale Langzeitarchivierung

dhd-blog - Mi, 10/07/2020 - 11:02

Am Deutschen Dokumentationszentrum für Kunstgeschichte – Bildarchiv Foto Marburg (DDK) ist zum nächstmöglichen Zeitpunkt die unbefristete Teilzeitstelle (50 % der regelmäßigen Arbeitszeit) einer/eines


Datenkuratorin / Datenkurators (m/w/d) für die fotografischen Sammlungsbestände und digitale Langzeitarchivierung


zu besetzen. Befristet für 36 Monate ist zur Durchführung von Projektaufgaben eine Erhöhung der Arbeitszeit auf Voll-zeit vorgesehen.

Die Eingruppierung erfolgt je nach Qualifikation und Erfüllung der tariflichen Voraussetzungen bis Entgelt-gruppe 13 des Tarifvertrages des Landes Hessen.


Zu Ihren Aufgaben gehören das Datenqualitätsmanagement von Datenbeständen der fotografischen Sammlung, die Unterstützung, Beratung und Schulung der Datenproduzentinnen und -produzenten sowie die Weiterentwicklung der hauseigenen Datenstrukturen im Hinblick auf Präsentations- und Archivierungsfunktionen für Digitalisate und zugehörige Metadaten von Sammlungsbeständen.

Weitere Tätigkeiten sind der analytische Vergleich von Erschließungsdaten und Austauschformaten zur Vorbereitung von Daten-Ingest für Repositorien sowie die Konzeption und Weiterentwicklung von Schnittstellen zwischen datenproduzierenden bzw. -haltenden Systemen, Repositorien und Langzeitarchiv über den gesamten Datenlebenszyklus. Sie entwickeln Vorgaben für die Weiterentwicklung von Formaten digitaler und digitalisierter Objekte, für beschreibende Metadaten und für allgemeine sowie formatspezifische Qualitätsstandards im Rahmen koordinierter Projektverbünde.

Sie vertreten das DDK in den Arbeitsgruppen und Gremien, die genannten Themenbereiche betreffen. Die Universität erwartet von ihren Beschäftigten die Bereitschaft und Fähigkeit, sich ggf. in andere Aufgabenfelder einzuarbeiten und sie zu übernehmen.


Vorausgesetzt werden ein abgeschlossenes wissenschaftliches Hochschulstudium (Diplom, Master oder vergleichbar) im Be-reich der Informatik, Geistes-/Kulturwissenschaften,  Informations-/Bibliothekswissenschaften und/oder wissenschaftlicher Dokumentation oder verwandter Gebiete. Erwartet werden umfassende und vielseitige Kenntnisse der einschlägigen Fachvokabulare und Regelwerke, insbesondere der kunsthistorischen Fachterminologie (z.B. AAT, MIDAS), einschlägiger semanti-scher Standards bzw. Austauschformate (z.B. CIDOC-CRM, LIDO) sowie fundierte technologische Kenntnisse im Bereich Datenmanagement und digitaler Repositorien, ins-besondere zu Programmier-, Skript- und Markupsprachen (Java, Python, JavaScript, XML, HTML etc.), Datenbanksystemen (PostgreSQL, MySQL etc.) und Schnittstellen (REST, OAI-PMH etc.).

Erwartet werden darüber hinaus ausgeprägte Kommunikationskompetenz an der Schnittstelle zwischen kulturwissenschaftlicher Dokumentation und Informatik sowie Kenntnisse und Erfahrungen im Bereich Datenmanagement und Datenformate, insbesondere im Hinblick auf Text- und Bilddateien. Allgemeine Kenntnisse und Erfahrungen in Bezug auf Archivierungssysteme oder Repositorien, die Erstellung von Datenmanagementplänen und die Anforderungen des Preservation Planning sind von Vorteil. Analytisches, konzeptionelles und kreatives Denkvermögen, eine ausgeprägte Kommunikations- und Teamfähigkeit sowie eine hohe Belastbarkeit in Arbeitsspitzen und Serviceorientierung werden vorausgesetzt.


Für Fragen steht Ihnen Herr Dr. Christian Bracht unter bracht@fotomarburg.de oder Tel. 06421/28-23604 gerne zur Verfügung.
Wir fördern Frauen und fordern sie deshalb ausdrücklich zur Bewerbung auf. In Bereichen, in denen Frauen unterrepräsentiert sind, werden Frauen bei gleicher Eignung bevorzugt berücksichtigt. Personen mit Kindern sind willkommen – die Philipps-Universität bekennt sich zum Ziel der familienfreundlichen Hochschule. Eine Reduzierung der Arbeitszeit ist grundsätzlich möglich. Menschen mit Behinderung im Sinne des SGB IX (§ 2, Abs. 2, 3) werden bei gleicher Eignung bevorzugt. Bewerbungs- und Vorstellungskosten werden nicht erstattet.


Bitte senden Sie Ihre Bewerbungsunterlagen bis zum 06.11.2020 unter Angabe der Kennziffer ZE-0031-bild-ma-2020 in einer PDF-Datei an den Direktor des Deutschen Dokumentationszentrums für Kunstgeschichte – Bildarchiv Foto Marburg, Herrn Dr. Christian Bracht, bildarchiv@fotomarburg.de.

Stellenangebot: WMA „EntwicklerIn für Forschungssoftware“ (E13 TV-G-U, Frankfurt/Main)

dhd-blog - Sa, 10/03/2020 - 14:25

Das Institut für Rechtsgeschichte an der Goethe-Universität Frankfurt (Fachbereich Rechtswissenschaft) sucht für das Projekt „Die Schule von Salamanca“ eine*n Wissenschaftliche*n Mitarbeiter*in (m/w/d, E13 TV-G-U) zur Weiterentwicklung der Digitalen Textedition (u.a.).

Die Stelle ist zunächst befristet bis 31.12.2021.
Eine Fortsetzung mindestens bis Ablauf der nächsten Förderphase 2026 ist möglich.

Die Bewerbung ist noch bis zum 13.10.2020 möglich.

Weitere Details finden sich hier:

https://blog.salamanca.school/de/2020/09/30/research-software-engineer-wanted/

“Rethinking Culture and Science” – Chancen, Risiken und Entwicklungen des digitalen Wandels in Europa

dhd-blog - Fr, 10/02/2020 - 11:26

Im Rahmen der deutschen EU-Ratspräsidentschaft lädt die Deutsche Nationalbibliothek Sie herzlich zu einer Online-Konferenz “Rethinking Culture and Science” – Chancen, Risiken und Entwicklungen des digitalen Wandels in Europa am 7. Oktober 2020 ein.

Fortschreitende technische Entwicklungen, Digitalisierung, neue Erwartungen und Anforderungen aus Gesellschaft und Politik und nicht zuletzt die Coronavirus-Pandemie stellen die Kultur- und Wissenschaftseinrichtungen Europas vor veränderte Aufgaben, Herausforderungen und Prozesse. Gleichzeitig werden Abgrenzungen aufgelöst, Medien- und Objektformate vermischen sich und erlauben ganz neue Nutzungs- und Vermittlungsmethoden. Bibliotheken, Archive und Museen wachsen dadurch immer stärker zusammen, erarbeiten gemeinsam und im Dialog mit der Wissenschaft Lösungen für neue Anforderungen und offene Fragestellungen, bedienen sich gleicher oder derselben Werkzeuge bei der Erfüllung ihrer Aufgaben.

Was sind die wesentlichen Herausforderungen oder Neuerungen? Wie ist der Stand ihrer Umsetzung und Nutzbarkeit in den Kultur- und Wissenschaftseinrichtungen? Welche Chancen ergeben sich dadurch für die Sichtbarkeit von Bibliotheken, Archiven und Museen? Beiträge aus Kultureinrichtungen in den Mitgliedsstaaten der EU, aus Politik und Wissenschaft nehmen Chancen und Risiken dieser Entwicklung in den Fokus und diskutieren, welche Aufgabenstellungen sich daraus für alle Beteiligten ergeben.

Gefördert durch die Beauftragte der Bundesregierung für Kultur und Medien.

Die Teilnahme an der Veranstaltung ist ohne Anmeldung möglich! Informationen und Programm: https://www.dnb.de/DE/Ueber-uns/EU-Ratspraesidentschaft/rethinkingcultureandscience.html

 

Tipp:
Die Digitalkonferenz “The role of copyright in the digital transformation of the cultural heritage sector” der Europeana beschäftigt sich am 5. und 6. Oktober 2020 mit der Frage nach der Rolle des Urheberrechts bei der digitalen Transformation des Kulturerbes. Für die Teilnahme an den öffentlichen Teilen dieser Konferenz können Sie sich hier registrieren.

Konferenzsprache ist jeweils Englisch.

Public release of the OpenAIRE-DARIAH Community gateway – How to make your research more visible and more connected

dhd-blog - Mi, 09/30/2020 - 14:51

Online Event | Tuesday, October 20, 15:00 (CEST)

Speakers: 
Miriam Baglioni (ISTI-CNR, OpenAIRE)
Erzsébet Tóth-Czifra (DARIAH) 

Aims

A paramount challenge in present-day knowledge production is to communicate research results in ways that align with our increasingly digital and also increasingly diverse research workflows. Research discovery platforms that have been developed from EU grants and will remain open to the public are game changers in this respect. They support the visibility and discoverability of all sorts of research outputs (datasets, software, protocols,  teaching materials etc.) to showcase a broader view of scholarship and enable a greater transparency of scholarly communication. 

The webinar aims to introduce an instance of them, the OpenAIRE-DARIAH Community Gateway. Built on the top of the OpenAIRE Research Graph, the OpenAIRE Community Gateways work as single access points to a virtual space that connects metadata descriptions of all scholarly objects that are important to the given community. The DARIAH dashboard brings together publications and a broad range of research data (digital critical editions, plain text, archived data, audiovisual data, raw data, encoded documents, software applications, source code, images, structured graphics, databases, structured text, scientific and statistical data formats) that are hosted by DARIAH services such as NAKALA and TextGrid. As such, it significantly reduces the fragmentation of DARIAH research outputs across the web. A major benefit of such a discovery environment is that it provides scholarly communities with a single entry point to DARIAH-affiliated research outputs. This entry point, in turn, is embedded into the context of a bigger collection of Digital Humanities and Cultural Heritage corpus enabling therefore arts and humanities researchers to find DARIAH outputs more easily, as an integral part of their discovery routine.

The webinar welcomes all the DARIAH communities, including humanities scholars, librarians, research support professionals, service providers and national representatives. 

What’s in there for you? 

As a researcher, you can learn about: 

  • How DARIAH supports you to open a bigger window on your research 
  • How the OpenAIRE-DARIAH Community Gateway helps you to interlink different scholarly objects that belong together (e.g. publications with the underlying data or software) and connect them with the broader research landscape
  • How you can use the OpenAIRE-DARIAH Community Gateway to find relevant resources to your work or explore new relationships between them 

As a service provider, you can learn about: 

  • How to connect your service with the OpenAIRE-DARIAH Community Gateway and the OpenAIRE Research Graph and why it’s worth to do 
  • How you can help your users to acknowledge your service and showcase its impact on scholarship 

As a librarian, research support professional or national coordinator, you can learn about: 

  • How to better showcase your institutions’ services and contributions on the European level and how the OpenAIRE-DARIAH Community Gateway can serve as a monitoring tool for them. 
How to register 

Participation in the online webinar is free, only registration is required via https://us02web.zoom.us/webinar/register/WN_J6045kA1TeqXD4yYY_Zq3g.

For questions about the registration process please contact: erzsebet.toth-czifra@dariah.eu.

DARIAH Virtual Annual Event 2020: Registration open

dhd-blog - Mi, 09/30/2020 - 14:38

Registration to the DARIAH Virtual Annual Event 2020 is now open! 

We are pleased to announce that the registration to the DARIAH Virtual Annual Event is now open. We kindly ask you to register for each session that you wish to attend. All meetings will take place via Zoom and the Zoom links will be distributed to registered participants a day or two prior to each session.

The full programme of the event is now finalised and can be found here. With a rich programme of Workshops, Working Groups and Synergy sessions extending over Wednesdays from October 7 to December 2 & Posters, Paper sessions and a keynote by John Unsworth (University of Virginia) on November 10-13, 2020. Select the sessions you would like to attend and make sure you register to be able to follow the event. 

For more information follow #DARIAH2020 and check the event’s website at https://dariah-ae-2020.sciencesconf.org/

Launch of the OAPEN Open Access Books Toolkit

dhd-blog - Mi, 09/30/2020 - 13:11

A freely available toolkit: helping academic book authors to better understand open access book publishing.

The Hague, 30 September 2020. The OAPEN Foundation has launched a new open access (OA) books toolkit for researchers and academic book authors. The toolkit is a free-to-access, stakeholder-agnostic resource that aims to help authors better understand OA for books, increase trust in OA book publishing, provide reliable and easy-to-find answers to questions from authors, and to provide guidance on the process of publishing an OA book.

The toolkit was created in collaboration with Springer Nature and The University of Glasgow and has been written by a global group of stakeholders from the academic community and scholarly communications organisations. “Thanks to the efforts and help of nearly 70 individuals we have been able to create this public resource”. says Eelco Ferwerda, Director at OAPEN Foundation. “We hope this toolkit will prove useful to book authors and the OA books community around the world.”

This toolkit will help book authors to make their work OA, and enable more institutional support teams to identify the right information to help their researchers.

Ros Pyne, Director Open Access Books at Springer Nature, said “We at Springer Nature are proud to be one of the founding members of the OAPEN OA books toolkit. We hope it will increase awareness and understanding of OA books and encourage more authors to consider this option. OAPEN’s expertise in and long-term commitment to OA books makes them the ideal host and curator for this important resource.”

“We were delighted to be part of this initiative to respond to authors requests for more support in making their books open access. We hope authors will benefit from it and gain more visibility for their work.” says Valerie McCutcheon, Research Information Manager at the University of Glasgow.

The toolkit will be updated on a regular basis by the Editorial Advisory Board and is open to suggestions for developing this resource further.

Access the toolkit 
www.oabooks-toolkit.org

About OAPEN 
OAPEN is a not-for-profit foundation dedicated to open access books. OAPEN works with publishers to build a quality-controlled collection of open access books through the OAPEN Library and the Directory of Open Access Books, and provides services for publishers, libraries and research funders in the areas of deposit, quality assurance, dissemination, and digital preservation.

For more information, please contact Tom Mosterd, community manager at the OAPEN Foundation t.mosterd@oapen.org

Datenkuratorin / Datenkurator (m/w/d) für die fotografischen Sammlungsbestände und digitale Langzeitarchivierung

dhd-blog - Mo, 09/28/2020 - 11:30

Am Deutschen Dokumentationszentrum für Kunstgeschichte – Bildarchiv Foto Marburg (DDK) ist zum nächstmöglichen Zeitpunkt die unbefristete Teilzeitstelle (50 % der regelmäßigen Arbeitszeit) einer/eines


Datenkuratorin / Datenkurators (m/w/d)

für die fotografischen Sammlungsbestände und digitale Langzeitarchivierung zu besetzen. Befristet für 36 Monate ist zur Durchführung von Projektaufgaben eine Erhöhung der Arbeitszeit auf Voll-zeit vorgesehen. Die Eingruppierung erfolgt je nach Qualifikation und Erfüllung der tariflichen Voraussetzungen bis Entgelt-gruppe 13 des Tarifvertrages des Landes Hessen.


Zu Ihren Aufgaben gehören das Datenqualitätsmanagement von Datenbeständen der fotografischen Sammlung, die Unter-stützung, Beratung und Schulung der Datenproduzentinnen und -produzenten sowie die Weiterentwicklung der hauseigenen Datenstrukturen im Hinblick auf Präsentations- und Archivierungsfunktionen für Digitalisate und zugehörige Metadaten von Sammlungsbeständen.

Weitere Tätigkeiten sind der analytische Vergleich von Erschließungsdaten und Austauschformaten zur Vorbereitung von Daten-Ingest für Repositorien sowie die Konzeption und Weiterentwicklung von Schnittstellen zwischen datenproduzierenden bzw. -haltenden Systemen, Repositorien und Langzeitarchiv über den gesamten Datenlebenszyklus. Sie entwickeln Vorgaben für die Weiterentwicklung von Formaten digitaler und digitalisierter Objekte, für beschreibende Metadaten und für allgemeine sowie formatspezifische Qualitätsstandards im Rahmen koordinierter Projektverbünde.

Sie vertreten das DDK in den Arbeitsgruppen und Gremien, die genannten Themenbereiche betreffen. Die Universität erwartet von ihren Beschäftigten die Bereitschaft und Fähigkeit, sich ggf. in andere Aufgabenfelder einzuarbeiten und sie zu über-nehmen.

Vorausgesetzt werden ein abgeschlossenes wissenschaftliches Hochschulstudium (Diplom, Master oder vergleichbar) im Be-reich der Informatik, Geistes-/Kulturwissenschaften, Informations-/Bibliothekswissenschaften und/oder wissenschaftlicher Dokumentation oder verwandter Gebiete. Erwartet werden umfassende und vielseitige Kenntnisse der einschlägigen Fachvokabulare und Regelwerke, insbesondere der kunsthistorischen Fachterminologie (z.B. AAT, MIDAS), einschlägiger semantischer Standards bzw. Austauschformate (z.B. CIDOC-CRM, LIDO) sowie fundierte technologische Kenntnisse im Bereich Datenmanagement und digitaler Repositorien, ins-besondere zu Programmier-, Skript- und Markupsprachen (Java, Python, JavaScript, XML, HTML etc.), Datenbanksystemen (PostgreSQL, MySQL etc.) und Schnittstellen (REST, OAI-PMH etc.).

Erwartet werden darüber hinaus ausgeprägte Kommunikationskompetenz an der Schnittstelle zwischen kulturwissenschaftlicher Dokumentation und Informatik sowie Kenntnisse und Erfahrungen im Bereich Datenmanagement und Datenformate, insbesondere im Hinblick auf Text- und Bilddateien. Allgemeine Kenntnisse und Erfahrungen in Bezug auf Archivierungssysteme oder Repositorien, die Erstellung von Datenmanagementplänen und die Anforderungen des Preservation Planning sind von Vorteil. Analytisches, konzeptionelles und kreatives Denkvermögen, eine ausgeprägte Kommunikations- und Teamfähigkeit sowie eine hohe Belastbarkeit in Arbeitsspitzen und Serviceorientierung werden vorausgesetzt.

Für Fragen steht Ihnen Herr Dr. Christian Bracht unter bracht@fotomarburg.de oder Tel. 06421/28-23604 gerne zur Verfügung.
Wir fördern Frauen und fordern sie deshalb ausdrücklich zur Bewerbung auf. In Bereichen, in denen Frauen unterrepräsentiert sind, werden Frauen bei gleicher Eignung bevorzugt berücksichtigt. Personen mit Kindern sind willkommen – die Philipps-Universität bekennt sich zum Ziel der familienfreundlichen Hochschule. Eine Reduzierung der Arbeitszeit ist grundsätzlich möglich. Menschen mit Behinderung im Sinne des SGB IX (§ 2, Abs. 2, 3) werden bei gleicher Eignung bevorzugt. Bewerbungs- und Vorstellungskosten werden nicht erstattet.


Bitte senden Sie Ihre Bewerbungsunterlagen bis zum 09.10.2020 unter Angabe der Kennziffer ZE-0031-bild-ma-2020 in einer PDF-Datei an den Direktor des Deutschen Dokumentationszentrums für Kunstgeschichte – Bildarchiv Foto Marburg, Herrn Dr. Christian Bracht, bildarchiv@fotomarburg.de.

————–

https://www.uni-marburg.de/de/universitaet/administration/verwaltung/dezernat2/personalabteilung/bewerber/stellen/administrativ-technische-stellen/ze-0031-bild-ma-091020.pdf

 

 

Seiten

Workingpapers DHd-Arbeitsgruppen Aggregator abonnieren