Veranstaltungsprogramm

Eine Übersicht aller Sessions/Sitzungen dieser Veranstaltung.
Bitte wählen Sie einen Ort oder ein Datum aus, um nur die betreffenden Sitzungen anzuzeigen. Wählen Sie eine Sitzung aus, um zur Detailanzeige zu gelangen.

 
 
Sitzungsübersicht
Datum: Montag, 03.03.2025
12:45 - 13:45Campusführung
Ort: Treffpunkt: Haupteingang Universität
13:00 - 19:00Öffnungszeiten Digitales Konferenzbüro
14:00 - 17:30Workshop 1 (1/2): Wissensgraphen und große Sprachmodelle in den Digital Humanities (1/2)
Ort: HSBI B 440
Stalter, Julian; Springstein, Matthias; Kristen, Maximilian; Müller-Budack, Eric; Schneider, Stefanie; Entrup, Elias; Kohle, Hubertus; Krestel, Ralf; Ewerth, Ralph
14:00 - 17:30Workshop 10: Towards interoperability: Introducing the Impresso data lab for the enrichment and analysis of historical media
Ort: HSBI C2
Düring, Marten; Guido, Daniele; Kalyakin, Roman
14:00 - 17:30Workshop 13 (1/2): Textannotation in der Lehre einsetzen: Ein Einstieg mit CATMA
Ort: HSBI B3
Akazawa, Mari; Gerstorfer, Dominik; Gius, Evelyn; Guhr, Svenja; Häußler, Julian; Meister, Malte; Messner, Stefanie; Stiemer, Haimo; von Keitz, Janis
14:00 - 17:30Workshop 15 (1/2): Community-getriebene Evaluation des FidusWriter als Ersatz für den DHConvalidator im Einreichungsprozess von Beiträgen zu DHd Jahreskonferenzen
Ort: HSBI E2
Helling, Patrick; Neugebauer, David; Majka, Nicole
14:00 - 17:30Workshop 2: Citizen Science vs. Geschichtswissenschaften? Under construction: Kirchengeschichte in Wikidata und co.
Ort: HSBI B 439
Kröger, Bärbel; Popp, Christian
14:00 - 17:30Workshop 3: Komponierst Du noch oder promptest Du schon? Der Einfluss generativer KI auf musikalische Produktionsprozesse und das Konzept musikalischer Kreativität
Ort: HSBI A 526
Voit, Johannes; Sachsse, Malte
14:00 - 17:30Workshop 4: Erprobung eines Metadatenmodells zur Beschreibung von FDM-Services
Ort: HSBI B 444
Lemaire, Marina; Christ, Andreas
14:00 - 17:30Workshop 5: (De-)constructing the Lab: Arbeiten in den DH
Ort: HSBI B 441
Cremer, Fabian; Dogunke, Swantje; Düring, Marten; Neubert, Anna; Wübbena, Thorsten
14:00 - 17:30Workshop 6: Der SSH Open Marketplace als Information Hub für die DH-Community: Einführung in Nutzungs- und Forschungsszenarien
Ort: HSBI B 443
Buddenbohm, Stefan; Kurzmeier, Michael; Weimer, Lukas
14:00 - 17:30Workshop 7 (1/2): OERs Under Construction. Ein Workshop zu Gestaltung und Evaluierung von Open Educational Resources für die Digital Humanities (1/2)
Ort: HSBI B 442
Schneider, Philipp; Rohe, Jonas; Seltmann, Melanie; Trilcke, Peer; Faust, Anna; Büdenbender, Stefan; Urbaum, Dorothee; Schmunk, Stefan; Skorinkin, Daniil; Hiltmann, Torsten
14:00 - 17:30Workshop 8 (1/2): Text+: Digitale Forschung auf der Grundlage von Text- und Sprachdaten bereichern (1/2)
Ort: HSBI B1
Barth, Florian; Genêt, Philippe; Körner, Erik; Leinen, Peter; Weimer, Lukas; Witt, Andreas
14:00 - 17:30Workshop 9: eScriptorium meets LLMs: Moderne KI-Systeme im Kontext der Volltexterschließung
Ort: HSBI B2
Will, Larissa; Kamlah, Jan; Schmidt, Thomas; Lang, Sarah; Huff, Dorothee
18:00 - 21:00Abend-Workshop "Geist und Daten. Welche Fächer, welche Kompetenzen sind die Zukunft von Schule und Universität?"
Ort: WissenswerkStadt Bielefeld
18:30 - 19:30Tanztheater UNDER CONSTRUCTION. A Physical Lecture
Ort: Universitätshauptgebäude H15
19:00 - 21:00Kunstforum Hermann Stenner
Ort: Kunstforum Hermann Stenner
Datum: Dienstag, 04.03.2025
9:00 - 12:30Workshop 13 (2/2): Textannotation in der Lehre einsetzen: Ein Einstieg mit CATMA
Ort: HSBI B3
Akazawa, Mari; Gerstorfer, Dominik; Gius, Evelyn; Guhr, Svenja; Häußler, Julian; Meister, Malte; Messner, Stefanie; Stiemer, Haimo; von Keitz, Janis
9:00 - 12:30Workshop 15 (2/2): Community-getriebene Evaluation des FidusWriter als Ersatz für den DHConvalidator im Einreichungsprozess von Beiträgen zu DHd Jahreskonferenzen
Ort: HSBI E2
Helling, Patrick; Neugebauer, David; Majka, Nicole
9:00 - 12:30Workshop 7 (2/2): OERs Under Construction. Ein Workshop zu Gestaltung und Evaluierung von Open Educational Resources für die Digital Humanities (2/2)
Ort: HSBI B 442
Schneider, Philipp; Rohe, Jonas; Seltmann, Melanie; Trilcke, Peer; Faust, Anna; Büdenbender, Stefan; Urbaum, Dorothee; Schmunk, Stefan; Skorinkin, Daniil; Hiltmann, Torsten
9:00 - 12:30Workshop 8 (2/2): Text+: Digitale Forschung auf der Grundlage von Text- und Sprachdaten bereichern (2/2)
Ort: HSBI B1
Barth, Florian; Genêt, Philippe; Körner, Erik; Leinen, Peter; Weimer, Lukas; Witt, Andreas
9:00 - 17:30Öffnungszeiten Digitales Konferenzbüro
9:00 - 17:30Workshop 11: Umgang mit raumzeitlicher Unschärfe – Erfassung und Visualisierung von Bewegungsdaten mit QGIS am Beispiel der Fahrt des Kanonenboots Albatroß (1886)
Ort: HSBI B 444
Fuest, Stefan; Gollenstede, Andreas; Herbers, Maximilian; Kaiser, Rieke Marie; Tadge, Jennifer
9:00 - 17:30Workshop 12: Qualitativ hochwertige Metadaten in digitalen Editionen
Ort: HSBI B2
Lemke, Karoline; Fichtl, Barbara; Alvares Freire, Fernanda; Gerber, Anja; König, Sandra; Körfer, Anna-Lena; Lordick, Harald; Schnöpf, Markus; Städtler, Domenic
9:00 - 17:30Workshop 14: Quellcodekritik aus der Ferne
Ort: HSBI B 441
Demleitner, Adrian; Höltgen, Stefan; Piontkowitz, Vera; Gammenthaler, Daniel; Burghardt, Manuel
9:00 - 17:30Workshop 16: Hands-on Workshop: Entwicklung von interaktiven 3D-Applikationen mit der Open-Source Game Engine Godot
Ort: HSBI C2
Mühleder, Peter; Naether, Franziska; Goldhahn, Dirk; Bleckmann, Patrice
9:00 - 17:30Workshop 17: Fortgeschrittenes Prompt und AI Agent Engineering für wissenschaftliche Textproduktion
Ort: HSBI B 443
Pollin, Christopher; Steyer, Timo; Scholger, Martina; Schiller-Stoff, Sebastian David
9:00 - 17:30Workshop 18: TEI-Dokumente in TextGrid Repository veröffentlichen und archivieren: neue Features und fluffiger Import Workflow
Ort: HSBI A 526
Calvo Tello, José; Barth, Florian; Buddenbohm, Stefan; Dogaru, George; Funk, Stefan; Göbel, Mathias; Klammer, Ralf; Kudella, Christoph; Rißler-Pipka, Nanette; Veentjer, Ubbo; Weimer, Lukas
9:00 - 17:30Workshop 19: Wer weiß schon wo? Identifikation, Erfassung und Systematisierung historischer Ortsangaben
Ort: HSBI C3
Purschwitz, Anne; Döring, Sophie; Schubert, Tim; Badura, Robert
9:00 - 17:30Workshop 20: Prompt-Engineering und Hermeneutik – Best Practices für die historische und qualitative Forschung
Ort: HSBI B 439
Möbus, Dennis; Vu, Binh; Bayerschmidt, Philipp
9:00 - 17:30Workshop 21: Coming soon: Podcast under Construction: Strategische Audio-Wissenschaftskommunikation für Digital Humanities, ein Workshopangebot von RaDiHum20
Ort: HSBI D2
Schumacher, Mareike; Geiger, Jonathan; Schmitz, Jascha
9:00 - 17:30Workshop 22: Objektbiografie - Ein Ansatz für die integrative Datenmodellierung: Eigenschaften, Chancen und Anwendungsmöglichkeiten
Ort: HSBI C4
Gerber, Anja; Wagner, Sarah; Görz, Günther
12:45 - 13:15Führung durch den BITS Space
Ort: BITS Space
12:45 - 13:45Campusführung
Ort: Treffpunkt: Haupteingang Universität
13:15 - 13:45Führung durch den BITS Space
Ort: BITS Space
14:00 - 17:30Workshop 1 (2/2): Wissensgraphen und große Sprachmodelle in den Digital Humanities (2/2)
Ort: HSBI B 440
Stalter, Julian; Springstein, Matthias; Kristen, Maximilian; Müller-Budack, Eric; Schneider, Stefanie; Entrup, Elias; Kohle, Hubertus; Krestel, Ralf; Ewerth, Ralph
18:00 - 20:00Eröffnung Konferenz: Eröffnungskeynote und anschließender Abendempfang
Ort: Universitätshauptgebäude Audimax
Keynote Speaker: Mark Dingemanse Mehr Informationen: Übersichtsseite zu den Keynote Speakers
Datum: Mittwoch, 05.03.2025
8:30 - 19:00Öffnungszeiten Digitales Konferenzbüro
9:00 - 10:30Mittwoch 1:1: Forschungsdatenmanagement
Ort: HSBI D1
Chair der Sitzung: Ulrike Wuttke, Fachhochschule Potsdam
 

"Das ist nicht in unserer Verantwortung" - Strategien zur nachhaltigen Bereitstellung lebender Systeme

Patrick Helling

Data Center for the Humanities (DCH), Universität zu Köln, Deutschland

In diesem Beitrag werden die Herausforderungen im nachhaltigen Umgang mit lebenden Systemen und Ressourcen diskutiert und mit bereits bestehenden Strategien sowie ihrer Schwachstellen kritisch in Bezug gesetzt. Dabei wird ein neuer Ansatz vor dem Hintergrund verschiedener Verantwortungen unterschiedlicher Stakeholder, die im Prozess der Planung, Entwicklung und Bereitstellung von lebenden Systemen eine Rolle spielen – Forschende, Drittmittelgeber, Datenzentren und Bibliotheken –, sowie Möglichkeiten der Orchestrierung ebenjener Stakeholder, vorgestellt.



Gute Planung ist die halbe Miete? - Nutzung und Nutzen von Datenmanagementplänen in geisteswissenschaftlichen Forschungsvorhaben

Patrick Helling, Nils Reiter, Felix Rau

Data Center for the Humanities (DCH), Universität zu Köln, Deutschland

Immer häufiger sind Datenmanagementpläne Voraussetzung für die erfolgreiche Einwerbung von Drittmitteln und entsprechende Drittmittelgeber erwarten zunehmend im Rahmen einer Antragseinreichung die Nutzung von Datenmanagementplänen durch die antragsstellenden Forschenden.

Sie sollten entsprechend auch im Rahmen geisteswissenschaftlicher Forschungsvorhaben eine wichtige Rolle spielen, schließlich gilt es vor allem innerhalb der Geisteswissenschaften Forschungsdaten und -ergebnisse i.S.d. Bewahrung des kulturellen Erbes langfristig zu sichern. Inwieweit DMPs im Rahmen von geisteswissenschaftlichen Forschungsvorhaben genutzt werden, ist allerdings unklar. Außerdem ist weitestgehend ungeklärt, ob die Nutzung von Datenmanagementplänen im Rahmen von Forschungsvorhaben überhaupt die FAIRness entstandener Forschungsergebnisse verbessert oder befördert.

In diesem Vortrag stellen wir Ergebnisse einer quantitativen Umfrage zum Umgang mit und Nutzen von Datenmanagementplänen in geisteswissenschaftlichen Forschungsvorhaben vor, um so ein klareres Bild von der Rolle und Bedeutung von DMPs in der geisteswissenschaftlichen Forschung zu zeichnen.



Wissensspeicher, Projektmodell, Organisationstalent oder Schwarzes Loch - GitLab als Management-Tool für DH-Projekte

Jennifer Bunselmeier, Lena-Luise Stahn

Bergische Universität Wuppertal, Deutschland

Im Beitrag soll durch einen reflektierenden Werkstattbericht untersucht werden, welche Rolle Infrastruktur-Software und -Werkzeuge wie GitLab für DH-Projekte spielen und welchen Einfluss sie – als Projektmananagment-Tool eingesetzt – auf das eigene und das kollaborative Arbeiten in Teams mit geisteswissenschaftlichem Schwerpunkt haben können. Aus der Beobachtung heraus werden abschließend einige Ansätze für Strategien und Best Practices vorgestellt, mit denen einer unsachgemäßen oder missbräuchlichen Nutzung solcher Werkzeuge vorgebeugt werden kann.

 
9:00 - 10:30Mittwoch 1:2: CLS Analyse
Ort: HSBI D3
Chair der Sitzung: Janina Jacke, Christian-Albrechts-Universität zu Kiel
 

Wikipedia als Hallraum der Kanonizität: »1001 Books You Must Read Before You Die«

Jonas Rohe, Viktor J. Illmer, Lisa Poggel, Frank Fischer

Freie Universität Berlin, Deutschland

Wikipedia-Sitelinks, auch bekannt als Interwikilinks, verknüpfen Artikel über verschiedene Sprachversionen hinweg und ermöglichen so einen einfachen Wechsel zwischen unterschiedlichen Spracheinträgen. Die Anzahl der Sitelinks wurde zuletzt als einfache Metrik für die Bestimmung der Kanonizität von literarischen Werken vorgeschlagen (Robinson 2017; Kukkonen 2020; Fischer et al. 2023). Dieser Beitrag operationalisiert diese Idee bezüglich eines spezifischen Kanonprojekts und stellt außerdem den QRank vor, eine Metrik, die Seitenaufrufe über verschiedene Wikimedia-Projekte hinweg zusammenfasst, um Entitäten zu bewerten. Es zeigt sich, dass Wikipedia tatsächlich hilfreich ist bei der Bewertung von Kanonizität. Mit dem gleichzeitig veröffentlichten Code kann diese Methode auch auf andere Kanones angewednet werden.



Qualitative Genre-Profile und distinktive Wörter: Eine Studie zu Keyness in Subgenres des französischen Romans

Julia Röttgermann, Keli Du, Christof Schöch

Universität Trier, Deutschland

Das Rahmenthema der DHd-Tagung 2025, „Under Construction”, lädt 2025 dazu ein, Daten- und Methoden kritisch zu hinterfragen. Im Trierer Projekt Beyond Words beleuchten wir verschiedene statistische Maße zur Extraktion distinktiver Wörter, mit dem Ziel, mehr über ihre Eigenschaften und ihren Nutzen im Methodenstrauß der Digital Humanities zu erfahren und in unserem Python-Paket ‘pydistinto’ für interessierte Forschende bereitzustellen.

In der vorliegenden Studie wenden wir drei verschiedenen Keyness-Maße auf Subgenres des französischen Romans an und untersuchen insbesondere ein Matching zwischen qualitativ erstellten Genre-Profilen und automatisiert extrahierten distinktiven Wortlisten.



»999 und noch etliche [mehr]«. Georg Nikolaus Bärmanns Würfel-Almanach von 1829 als Web-App

Viktor J. Illmer, Frank Fischer, Mark Schwindt, Jonas Rohe

Freie Universität Berlin, Deutschland

In diesem Beitrag wird ein Literaturautomat (1829) beschrieben, der über 4 × 10^155 Einakter generieren kann, was die Anzahl der Atome im Universum weit übersteigt. Die 1200 Textfragmente, die als Quelle für den Generator dienen, sind in dem Band »Neunhundert neun und neunzig und noch etliche Almanachs-Lustspiele durch den Würfel« abgedruckt und dort zufällig angeordnet. In 200 Würfen wird mithilfe einer Tabelle ein Einakter generiert. Einakter des 18. und frühen 19. Jahrhunderts waren zu ihrer Zeit populär, sind von der Forschung bisher aber weitgehend unbeachtet geblieben. Georg Nikolaus Bärmann bezieht sich mit seinem ironischen, aber eben auch sehr konkreten Projekt auf den hohen Bedarf an solchen Stücken, als er diesen gedruckten Einaktergenerator entwickelte, der laut Deckblatt Einakter für 133 Jahre produzieren kann. Der Beitrag beschreibt die mehrstufige Digitalisierung dieses Werks und die Entwicklung einer Webanwendung, die es ermöglicht, das analoge Spiel in einer digitalen Umgebung genauer in den Blick zu nehmen.

 
9:00 - 10:30Mittwoch 1:3: Doctoral Consortium I
Ort: HSBI B3
Chair der Sitzung: Frederik Elwert, Ruhr-Universität Bochum
 

Wie funktionierte moderne Alltagsmobilität vor dem Automobil? Agentenbasierte Modellierung des Wandels von Mobilitätspraktiken im Berliner ‚built environment‘ der Zwischenkriegsjahre (ca. 1920-1930)

Jascha Merijn Schmitz

Humboldt-Universität zu Berlin | NFDI4Memory, Deutschland



Automatische Erkennung und Kategorisierung von Syllogismusdiagrammen in de interpretatione Handschriften des byzantinischen Mittelalters

Lilly Osburg

Karlsruher Institut für Technologie, Deutschland

 
9:00 - 10:30Mittwoch 1:P: Panel 1
Ort: HSBI E3
 

Gender (under) construction: Daten und Diversität im Kontext digitaler Literaturwissenschaft

Jana-Katharina Mende1, Claudia Resch2, Mareike Schumacher3, Laura Untner4, Imelda Rohrbacher2, Elena Suarez Cronauer5, Andrea Gruber6, Frederike Neuber7

1Martin-Luther-University Halle-Wittenberg, Deutschland; 2Österreichische Akademie der Wissenschaften Wien, Austrian Centre for Digital Humanities and Cultural Heritage, Abteilung Literatur- und Textwissenschaft; 3Universität Stuttgart / Universität Regensburg; 4FU Berlin / Österreichische Akademie der Wissenschaften, Wien; 5Akademie der Wissenschaften und der Literatur, Mainz; 6Österreichische Nationalbibliothek, Wien; 7Berlin-Brandenburgische Akademie der Wissenschaften, Berlin

Die sogenannte Gender Data Gap wirkt sich in mehrfacher Hinsicht auf digitale literaturwissenschaftliche Forschungsvorhaben aus: Historische Ungleichheiten in Bezug auf Gender zeigen sich nicht nur in literarischen Texten selbst, sondern auch auf der Ebene von Quellen, Textkorpora und Metadaten. Da eine systematische Betrachtung und Erfassung von Geschlechterverhältnissen in digital ausgerichteten literaturwissenschaftlichen Projekten bislang kaum erfolgt ist, widmet sich das Panel der Auseinandersetzung von Konstruktion, Repräsentation und Erfassbarkeit von Gender in der digitalen Literaturwissenschaft.

In Bezug auf das Thema der Tagung „Under Construction. Geisteswissenschaften und Data Humanities“ erörtert das Panel gemeinsam mit Expert*innen, die sowohl Forschungs- als auch Infrastrukturprojekte vertreten, mit welchen Maßnahmen der beobachtete Status quo verbessert werden könnte. Durch eine kritische Reflexion will das Panel aufzeigen, wie digitale Methoden und feministische Theorien synergetisch zusammenwirken könnten, um ein Zukunftsszenario zu entwerfen, das eine angemessene Berücksichtigung von Gender in Aussicht stellt.

 
10:30 - 11:00Kaffeepause
11:00 - 12:30Mittwoch 2:1: Large Language Models I
Ort: HSBI D3
Chair der Sitzung: Axel Pichler, Universität Wien
 

Möglichkeiten und Grenzen der KI-gestützten Annotation am Beispiel von Emotionen in Lyrik

Merten Kröncke1, Fotis Jannidis2, Leonard Konle2, Simone Winko1

1Universität Göttingen, Deutschland; 2Universität Würzburg, Deutschland

Können sehr große Sprachmodelle wie ChatGPT, Gemini und Claude via Zero-Shot- oder Few-Shot Prompting für Annotationen in den DH verwendet werden, um Finetuning-Modelle abzulösen? Die Studie zeigt anhand des Beispiels der Emotionsannotation von Lyrik eine starke Varianz über die Emotionskategorien: In wenigen Fällen wird das Niveau von Finetuning-Modellen erreicht, in anderen bleiben die großen Sprachmodelle deutlich darunter. Beispiele im Prompt steigern die Performanz. Auch wenn die Sprachmodelle ständig verbessert werden, wird man daher wohl auf absehbare Zeit nicht ohne die Entwicklung von Annotationsguidelines und die Annotation von ausreichend Testdaten auskommen.



Literary Metaphor Detection with LLM Fine-Tuning and Few-Shot Learning

Marina Spielberg

Trier Center for Digital Humanities (TCDH), Universität Trier, Deutschland

Although there is ample research on natural language metaphor detection, the field of literary metaphor detection is understudied. This paper draws on four English-language datasets and results of Kesarwani et al. (2017), who used traditional machine learning approaches, and shows that Large Language Model (LLM) fine-tuning and few-shot learning with SetFit significantly increases metaphor detection performance in three out of four considered datasets.



Eine Vorstudie zur Eignung von Llama 3-8B für eine Sentimentanalyse

Ngoc Duyen Tanja Tu

Leibniz-Institut für Deutsche Sprache, Deutschland

Dieser Beitrag präsentiert eine Vorstudie, in der geprüft wird, ob sich die Open Source Generative Künstliche Intelligenz Llama-3-8B Q4_0 instruction-tuned dazu eignet, eine Sentimentanalyse durchzuführen. Für die Untersuchung wird ein kleiner Datensatz aus Anfragen zu geschlechtergerechten Schreibung genutzt. Die Qualität der automatischen Annotationen wird gemessen, indem das Inter-Annotator-Agreement zwischen Llama 3 und drei menschlichen Annotierenden berechnet wird. Eine qualitative Analyse der Begründungen von Llama 3 für vergebene Sentimentwerte, die von denen der manuellen Annotationen abweichen, zeigt, dass die Generative Künstliche Intelligenz dazu genutzt werden kann, Annotationsrichtlinien aufzustellen oder zu verfeinern. Allerdings kann die Vorstudie nicht zeigen, dass sich Llama 3 für eine Sentimentanalyse eignet.

 
11:00 - 12:30Mittwoch 2:2: Metareflexion
Ort: HSBI D1
Chair der Sitzung: Mareike Schumacher, Universität Regensburg
 

Die Zukunft der Digital Humanities: Mehr als nur “Humanities”?

Manuel Burghardt

Computational Humanities, Universität Leipzig

In diesem Beitrag wird zunächst die Rolle der Informatik als Querschnittsdisziplin zwischen Naturwissenschaften und Geisteswissenschaften diskutiert. Ich argumentiere, dass durch eine allgemeine computational literacy beide Wissenschaftskulturen (vgl. Snow, 1959) in die Lage versetzt werden, gemeinsame Forschungsprojekte zu unternehmen. Ich zeige verschiedene Beispiele für die erfolgreiche Synthese von Informatik, Literaturwissenschaft und Biologie auf und gehe der Frage nach, ob solche multidisziplinären Unterfangen die Zukunft unseres Fachs darstellen könnten.



Applied Digital Humanities: Calling for a more engaged Digital Humanities

Anastasia Glawion, Dominik Kremer, Sabine Lang, Michaela Mahlberg, Andreas Wagner

Friedrich Alexander Universität (FAU) Erlangen-Nürnberg, Deutschland

When the Russian Federation attacked Ukraine in February 2022, a handful of Digital Humanities scholars were quick to react. Anna Kijas, Quinn Dombrowski, and Sebastian Majstorovic launched the Saving Ukrainian Cultural Heritage Online volunteer initiative (SUCHO). Soon SUCHO would connect over 1,500 volunteers and save over 51 TB of data constituting contemporary Ukrainian online cultural heritage. Later, they would also sent equipment to various institutions in Ukraine, including archives and museums.

The humanitarian impact of this initiative is hard to overstate and it motivates to think about the nature and purposes of Digital Humanities. In this paper we want to call for an Applied Digital Humanities – a Digital Humanities research that emphasizes its humanities perspective; it is research with a humanities purpose, aiming to tackle real-world challenges by drawing on innovative digital methods and approaches.



Operationalizing operationalizing

Dominik Gerstorfer, Evelyn Gius

TU-Darmstadt, Deutschland

In this paper we suggest a comprehensive account of operationalization. The goal is to define a workflow which specifies the normative components that ensure that the results match the research question. In order to make the workflow implementable in Digital Humanities research, we need to identify the components of a generalized method for getting from a research question to its answer. While some of the components have already been discussed in Digital Humanities’ research on operationalization, we propose to put more focus on explication, measurement, and validation.

 
11:00 - 12:30Mittwoch 2:3: Doctoral Consortium II
Ort: HSBI B3
Chair der Sitzung: Lina Franken, Universität Vechta
 

Von Heimat zu Beheimatung: Visuelle Exploration und Sekundäranalyse von lebensgeschichtlichen Interviewsammlungen

Philipp Bayerschmidt

FU Hagen, Deutschland



Netzwerkanalyse von Erwähnungen der Persönlichkeiten in der russischen Ideengeschichte

Mark Schwindt

Freie Universität Berlin, Deutschland



Digitale Erforschung von Historiographie: Untersuchungen zur Kirchengeschichtsschreibung im wilhelminischen Kaiserreich

Wienke Imke Meyer

Theologische Fakultät, Georg-August-Universität Göttingen, Deutschland

 
11:00 - 12:30Mittwoch 2:P: Panel 2
Ort: HSBI E3
 

Normdaten zu Texten und philologisches Wissen

Gerrit Brüning1, Jochen Strobel2, Susanne Al-Eryani4, Anke Bosse3, Elisabeth Dietrich1, Barbara Fischer5

1Klassik Stiftung Weimar, Deutschland; 2Philipps-Universität Marburg, Deutschland / Johannes-Gutenberg-Universität Mainz, Deutschland; 3Alpen-Adria-Universität Klagenfurt, Österreich; 4Niedersächsische Staats- und Universitätsbibliothek Göttingen, Deutschland; 5Deutsche Nationalbibliothek, Leipzig, Deutschland

Die Referenz auf Werke und die Verzeichnung von Werktiteln spielen für Praktiken der Bedeutungszuschreibung und Wissenserzeugung seit jeher eine zentrale Rolle. Auf Ebene menschen- und maschinenlesbarer Daten haben sich Normdaten als Vehikel von Intertextualität etabliert und gewinnen im Rahmen des NFDI-Prozesses nochmals an Bedeutung. Für komplexe Wissensgraphen zur Repräsentation fachwissenschaftlicher Erkenntnisse und Wissensbestände stehen Werknormdaten jedoch nicht in ausreichendem Umfang zur Verfügung. Das Panel diskutiert, wie dieser Mangel behoben werden kann, und adressiert dabei die vielfältigen damit verbundenen Problemlagen, darunter divergierende Intentionen und Perspektiven auf die Qualifikation als Werk, Fragen der Relevanz und Eignung oder technisch-institutionelle Hürden und konkurrierende Interessen (z.B. GND vs. Wikidata). Vertreter:innen aus Literaturwissenschaft, Editionsphilologie, NFDI-Text+, GND und Forschungsbibliotheken stellen sich diesen Herausforderungen, um ein gegenseitiges Verständnis zu fördern und den zukünftigen Aufwuchs von Normdaten zu Texten in methodisch reflektierte und technologisch nachhaltige Bahnen zu lenken.

 
12:30 - 14:00Chorprobe
Ort: HSBI Theaterraum
12:30 - 14:00Mittagspause
12:45 - 13:15Führung durch den BITS Space
Ort: BITS Space
12:45 - 13:45Campusführung
Ort: Treffpunkt: Haupteingang Universität
13:15 - 13:45Führung durch den BITS Space
Ort: BITS Space
14:00 - 15:30Mittwoch 3:1: Large Language Models II
Ort: HSBI D3
Chair der Sitzung: Gerrit Brüning, Klassik Stiftung Weimar
 

Large Language Models im Archiv: Prompt-Engineering für Archivar:innen

Paul M. Näger1, Dominic Eickhoff2

1Universität Münster, Deutschland; 2LWL-Archivamt für Westfalen, Münster, Deutschland

Ein wesentlicher Schritt in der Erschließung von Archivalien besteht in der Erfassung und Anreicherung von archivischen Metadaten, die in Textform vorliegen. Mit der Entwicklung von generativen großen Sprachmodellen (Large Language Models, LLMs) sind auch begründete Hoffnungen entstanden, große Teile solcher Textarbeit automatisieren zu können. Dabei ist es von Vorteil, dass LLMs sich neben der Textgenerierung auch für viele andere Aufgaben des Natural Language Processing als geeignet erwiesen haben. In diesem Artikel geben wir einen Überblick über die möglichen Anwendungen von LLMs in der Archivarbeit und demonstrieren am Beispiel der Erstellung von Findbucheinleitungen, wie dies konkret durchgeführt werden kann. Wir optimieren die Ergebnisse durch Prompt Engineering und reevaluieren diese: Was kann auf diese Weise erreicht werden, welche Grenzen bleiben bestehen.



Empirische Evaluation des Verhaltens von LLMs auf Basis sprachphilosophischer Theorien: Methode und Pilotannotationen

Axel Pichler1, Dominik Gerstorfer2, Jonas Kuhn1, Janis Pagel3

1Universität Wien, Österreich; 2Technische Universität, Darmstadt; 3Universität zu Köln, Deutschland

Die zunehmende Verwendung großer Sprachmodelle (LLMs) hat zu einer intensiven Debatte über ihre Fähigkeit geführt, sprachliches Verstehen zu simulieren. Dieses Abstract trägt zu dieser Diskussion bei, indem es eine Methode zur Generierung von Testdatensätzen vorstellt, die auf spezifischen Sprachtheorien basieren. Diese Methode ermöglicht die Bewertung, inwieweit das Verhalten eines LLMs mit dem eines kompetenten Sprechers übereinstimmt, wie er von der zugrunde liegenden Sprachtheorie definiert wird. Die Methode wird exemplarisch anhand der Sprachphilosophie von Donald Davidson erläutert. Durch die Erstellung eines Datensatzes, der zentralen theoretischen Prinzipien einer Sprachtheorie widerspiegelt, können wir das Verhalten von LLMs in verschiedenen Sprachkontexten untersuchen und beurteilen. Diese Arbeit leistet einen Beitrag zur methodischen und theoretischen Analyse der Fähigkeiten von LLMs und bietet ein Werkzeug zur Evaluierung ihrer sprachlichen Kompetenz.



Der Einfluss von AI-Pair-Programmers auf die Digital Humanities: Potentiale und Limitationen

Sebastian Schiller-Stoff, Leona Elisabeth Münzer, Christina Dittmann, Suzana Sagadin

Universität Graz, Österreich

Das Proposal soll die Transformation der Digital Humanities (DH) durch KI-gestützte Programmiertools wie GitHub Copilot beleuchten: Besonders jene Bereiche der DH, die sich mit Software- und Webentwicklung befassen, profitieren von diesen Tools. Sie automatisieren Aufgaben wie Codevervollständigung, Dokumentation und Debugging, was die Effizienz der Softwareentwicklung in den DH erheblich steigert. Dies ermöglicht Forschenden, sich ein tieferes Verständnis ihres Problems anzueignen. Allerdings bestehen Herausforderungen wie Abhängigkeit von kommerziellen Anbietern, technische Kompatibilitätsprobleme und die Gefahr der Fehler- und Biasreproduktion durch KI. Die Integration von Open-Source-Lösungen könnte eine Alternative darstellen, erfordert jedoch intensive Auseinandersetzung und Expertise. Zudem wirft die Integration von KI-Assistenten Fragen zur zukünftigen Rolle menschlicher Programmierer und zur Qualitätssicherung in den DH auf. Eine sorgfältige Abwägung der Potenziale und Risiken ist erforderlich, um die langfristigen Auswirkungen auf die DH zu bewerten.

 
14:00 - 15:30Mittwoch 3:2: Normdaten
Ort: HSBI D1
Chair der Sitzung: Peter Leinen, Deutsche Nationalbibliothek
 

Ein Baukasten für handschriftenkundliches Vokabular. Thesauri und Fachbegriffe im Handschriftenportal

Nicole Eichenberger1, Torsten Schaßan2, Annika Schröer3, Ursula Stampfer4, Katrin Sturm3

1Staatsbibliothek zu Berlin - Preußischer Kulturbesitz, Deutschland; 2Herzog August Bibliothek Wolfenbüttel; 3Universitätsbibliothek Leipzig; 4Bayerische Staatsbibliothek München

Das Handschriftenportal, das zentrale Nachweisinstrument für Buchhandschriften aus deutschen Sammlungen, aggregiert Handschriftenkatalogisate, die sich hinsichtlich ihrer fachlichen Ausrichtung, ihres Differenziertheitsgrades sowie ihrer Entstehungszeit deutlich unterscheiden. Um eine leistungsstarke übergreifende Recherche innerhalb dieser heterogenen Daten zu gewährleisten, wurde im Projekt ein Konzept für domänenspezifische normierte Fachvokabulare ausgearbeitet. Dabei stehen klassische, hierarchisch organisierte Thesauri neben komplexen, ontologiebasiert modellierten Fachbegriffen. Dieses methodische Vorgehen erlaubt eine flexible Fokussierung auf kleinteilige Details ebenso wie eine niedrigschwellige Verwendung von etablierten Fachtermini - eine zentrale Voraussetzung für die Akzeptanz des Portals in den Fachcommunities. Von der Implementierung profitieren sowohl die Recherchefunktionalitäten als auch die Erfassung neuer Katalogisate im Handschriftenportal. Perspektivisch müssen die normierten Fachvokabulare dauerhaft redaktionell gepflegt sowie laufend an Entwicklungen der Forschung unter Einbeziehung der wissenschaftlichen Communities angepasst werden. Zudem sollen sie als Linked Open Data publiziert und damit auch über den Portalkontext hinaus für andere Digital Humanities-Forschungsszenarien nachnutzbar gemacht werden.



Kontrollierte Vokabulare, Thesauri, Klassifikationen, Normdaten?

Marius Wegener, Julian Freytag, Katja Liebing, Katrin Möller, Olaf Simons, Anne Purschwitz

Historisches Datenzentrum Sachsen-Anhalt, Martin-Luther-Universität Halle-Wittenberg

Schon jetzt werden in einer Vielzahl von Forschungsprojekten der Geschichtswissenschaften direkt oder indirekt kontrollierte Vokabulare erstellt. Viele sind den Forschenden, für die sie nützlich sein könnten, jedoch nicht bekannt oder für sie nicht auffindbar.

Wir wollen in diesem Vortrag unseren Lösungsansatz, das Register R:hovono vorstellen. Dieses soll einen Überblick über die in der historisch arbeitenden Community relevanten Vokabulare geben. Vorgehen, Methodik und Ergebnis werden dargestellt und diskutiert.

 
14:00 - 15:30Mittwoch 3:3: Doctoral Consortium III
Ort: HSBI B2
Chair der Sitzung: Julian Schröter, LMU München
 

אױפֿהיטן די ווערטער: Übersetzung und Digitalisierung der jiddischen Zeitschrift „Der Wahre Jude"

Robin Luger

Universität Wien



Interdisziplinäre transkulturelle Analyse von Mensch-KI Interaktionen in Science-Fiction Literatur und im politischen Diskurs

Vera Yakupova

Trinity College Dublin, Irland, Republik

 
14:00 - 15:30Mittwoch 3:P: Panel 3
Ort: HSBI E3
 

Critical AI in der Digitalen Editorik

Thorsten Ries1, Tara Andrews2, Lisa Rosendahl3, Patrick Sahle4, Gabriel Viehhauser2, Georg Vogeler5, Philipp Hegel3

1University of Texas at Austin, USA; 2Universität Wien, Österreich; 3Akademie der Wissenschaften und der Literatur Mainz, Deutschland; 4Bergische Universität Wuppertal, Deutschland; 5Universität Graz, Österreich

Mit der gegenwärtig rapide fortschreitenden Entwicklung von KI-Technologien ergeben sich nicht nur neue Möglichkeiten, sondern auch Herausforderungen für die Theorie, Praxis, Konzeption, Aufgabenstellung und Rezeption digitaler Editionen. Auf verschiedenen Ebenen der Erstellung von digitalen Editionen hat KI bereits Einzug in den Workflow-Alltag gehalten (NER, semantische Erschließung, HTR), auf anderen sind teils grundlegende Fragen ungeklärt (z.B. XAI, Reproduzierbarkeit, Fehlerquellen, Training-Bias und FAIRness, Urheberrechtsfragen, ökologische Fragestellungen, Attribuierbarkeit und Nachhaltigkeit von KI). Das vorgeschlagene Panel versammelt Spezialist:innen für digitale Edition im deutschsprachigen Raum, um in einen Austausch über die Chancen, Entwicklungen und Herausforderungen von KI in der digitalen Edition und Editionswissenschaft einzuleiten.

Teilnehmende am Panel: Prof. Dr. Tara Andrews (Wien), Prof. Dr. Thorsten Ries (Austin, TX; aus Dienstgründen: Online; AG germanistische Edition, Kommission für DH), Lisa Rosendahl M.A. M.A. (Mainz), Prof. Dr. Patrick Sahle (Wuppertal, IDE), Prof. Dr. Gabriel Viehhauser (Wien, AG germanistische Edition, Kommission für DH), Prof. Dr. Georg Vogeler (Graz, IDE).

 
15:30 - 16:00Kaffeepause
16:00 - 17:30Mitgliederversammlung DHd e.V.
Ort: HSBI Audimax
18:30 - 19:30Tanztheater UNDER CONSTRUCTION. A Physical Lecture
Ort: Universitätshauptgebäude H15
Datum: Donnerstag, 06.03.2025
8:30 - 19:00Öffnungszeiten Digitales Konferenzbüro
9:00 - 10:30Donnerstag 1:1: Editionen I
Ort: HSBI C4
Chair der Sitzung: Georg Vogeler, Universität Graz
 

Zum Aufbau digitaler Dramenkorpora. OCR4alltoDraCorTEI als Baustein für die Edition von maschinenlesbaren Versionen historischer Dramendrucke

Katrin Dennerlein, Martin Rupnig, Christian Reul

Julius-Maximilians-Universität Würzburg, Deutschland

Die verfügbaren digitalisierten Dramenkorpora spiegeln Verzerrungen der Dramengeschichtsschreibung der letzten Jahrzehnte wider. Für die Dramengeschichte des 17.-19. Jahrhunderts fehlen besonders Libretti, populäre Komödien, Dramen von Frauen und Übersetzungen, obwohl diese zahlreich und einflussreich waren. Um Korpora für die Computational Literary Studies (CLS) valide zu erweitern und die historische Diversität besser abzubilden, sollten in Zukunft zahlreiche historische Dramentexte volltextdigitalisiert werden. Herausforderungen sind dabei die Frakturschrift und Druckbesonderheiten. Derzeit fehlt es sowohl an einheitlichen Editionsrichtlinien als auch an Skripten zur Konvertierung von OCR-Software zu DraCorTEI. Im Beitrag werden Vorschläge für editorische Richtlinien und zur Digitalisierung mit der freien Software OCR4all gemacht. Zudem wird ein Open Access Python-Skript vorgestellt, das Dramen, die mit OCR4all ausgezeichnet wurden, in DraCorTEI umwandelt.



Korpus 4.0 - Ein innovativer Workflow zur Erstellung eines Korpus wissenschaftlicher Texte

Silke Kalmer, Jens Freund, Angela Hammer, Andreas Geißner, Dario Kampkaspar

Universitäts- und Landesbibliothek Darmstadt, Deutschland

Im Rahmen des DFG-geförderten Projekts Workflow Digitale Medien arbeitet die Universitäts- und Landesbibliothek Darmstadt daran, ein Korpus aus wissenschaftlicher Open-Access-Literatur in einem einheitlich strukturierten TEI/XML-Format über frei zugängliche Schnittstellen bereitzustellen. Forschende sollen die Möglichkeit erhalten, alle Arten wissenschaftlicher Dokumente, zum Beispiel Zeitschriftenartikel, E-Books oder Konferenzbände, in großen Mengen über diese Schnittstellen abzurufen, um sie anschließend beispielsweise für Text- und Data-Mining-Analysen nutzen zu können. Zusätzlich zu den Texten werden alle für den Workflow entwickelten Konzepte und Skripte Open Source zur Verfügung gestellt, um deren Nachnutzbarkeit zu gewährleisten. Im vorliegenden Vortrag wird ein Überblick über den Workflow, die Datengrundlage und Zugriffsmöglichkeiten sowie den aktuellen Entwicklungsstand des Projekts gegeben.



Der texgenetische Apparat in der digitalen Edition – eine Zukunftsvision, die technisch machbar ist

Roland Reichen

Universität Bern, Schweiz / Forschungsstelle Jeremias Gotthelf

Anders als bei den gedruckten Ausgaben messen digitale Editionen Neuerer deutscher Literatur den Mikroprozessen der Textentstehung zumeist keine zentrale Bedeutung zu. Eine entsprechende Ansicht ist die große Ausnahme unter den bestehenden neugermanistischen Online-Editionsprojekten. Die verfügbaren Textansichten sind in der Regel mimetisch-diplomatisch und erlauben es oft nicht, die mikrogenetischen Vorgänge in den Manuskripten lückenlos nachzuvollziehen. Mit der neuen digitalen Gotthelf-Gesamtausgabe, die im Frühjahr 2025 online geht, wird eine Edition vorgestellt, die das philologische Potenzial der digitalen Editorik ausschöpft und den textgenetischen Apparat vollständig oder variabel direkt an den betreffenden Stellen im edierten Text sichtbar macht.

 
9:00 - 10:30Donnerstag 1:2: CLS Methoden I
Ort: HSBI D3
Chair der Sitzung: Nora Ketschik, Universität Stuttgart
 

Zur Modellierung von Unsicherheit: Machine Learning und begriffliche Vagheit am Beispiel der Novellen im 19. Jahrhundert

Julian Schröter

LMU München, Deutschland

Der Vortrag bietet einen neuen Ansatz, um begriffliche Vagheit im Rahmen maschinellen Lernens zu modellieren. Hierfür werden drei zentrale Ideen zusammengeführt: (a) die perspektivische Modellierung nach Ted Underwood, (b) die Berücksichtigung von Unentscheidbarkeit im Sinn der Prototypentheorie, und (c) die Modellierung prototypentheoretischer Vagheit im Rahmen eines spezifischen Accuracy Scores (C@1-Score), der Unentschiedenheit oder Unentscheidbarkeit berücksichtigt. Die Modellierung von Unsicherheit im Rahmen von Kategorisierung ist zugleich eines der zentralen gegenwärtigen Probleme im Feld des maschinellen Lernens. Der Beitrag möchte daher auch zu einer domänenspezifischen Lösung dieses Problems beitragen, die abschließend durch Optionen der Triangulation und Evaluation gestützt wird. Diskutiert wird das entwickelte Verfahren einschließlich neuer Projektionsmethoden für prototypentheoretische Vagheit am Beispiel eines neu aufgebauten Korpus zur Erzählprosa des 19. Jahrhunderts. Auf diese Weise werden auch neue Belege für die relative Offenheit des historischen Novellenbegriffs geliefert.



Die deutschsprachige Kurzgeschichte nach 1945. Skizze einer hypothesen-geleiteten Operationalisierung.

Axel Pichler

Universität Wien, Österreich

Das Abstract widmet sich der Entwicklung und exemplarischen Vorführung eines theorie- bzw. hypothesen-geleiteten Workflows zur Operationalisierung literaturwissenschaftlicher Begriffe. Dabei verfolgt es zwei Ziele: Erstens soll en détail gezeigt werden, wie ein komplexes literaturwissenschaftliches Konzept auf eine Art und Weise operationalisiert werden kann, welche die Rückführung der auf seiner Basis erzielten Messresultate in die nicht-digitale Literaturwissenschaft erlaubt. Im Zuge dessen wird, zweitens, ein gegebenes Top-Down-Operationalisierungskonzept terminologisch und arbeitspraktisch weiter ausdifferenziert. Die beiden Ziele werden exemplarisch anhand der deutschsprachigen Kurzgeschichte nach 1945 bzw. eines Teilmerkmals desselben adressiert. Die methodologisch reflektierte Vorführung durchläuft den gesamten Operationalisierungsablauf vom traditionellen literaturwissenschaftlichen Begriff bis zur Erkennung und Messung desselben mithilfe von großen Sprachmodellen.



Pause im Text. Zur Exploration semantisch konditionierter Sprechpausen in Hörbüchern

Haimo Stiemer1, Hans Ole Hatzel2, Chris Biemann2, Evelyn Gius1

1TU Darmstadt, Deutschland; 2Universität Hamburg

In diesem Beitrag wird ein alternativer Ansatz der Segmentierung, die Zergliederung von Erzähltexten mittels der in der Rezitation emergenten Sprechpausen diskutiert. Die Anzahl der Pausensetzungen und die Pausenlängen werden hierbei als von den Vortragenden ad hoc oder planmäßig vorgenommene sinnhafte Segmentierungen verstanden. Für unsere Untersuchung haben wir die Sprechfassungen von drei Erzähltexten automatisch transkribiert und dabei zwischen professionellen und Laien-Lesungen unterschieden. Durch die Auswahl der eingesprochenen Texte sollte weiterhin sichergestellt werden, dass Vorträge von Prosatexten mit verschiedenen narrativen Profilen bzw. Charakteristika Gegenstand der Analyse sind. Sollten sich Sprechpausen im Fortgang als geeignete Analyseeinheiten erweisen, könnten unsere Überlegungen einen vielversprechenden Ansatz zur automatischen Textsegmentierung begründen, mit welchem auch narrative Analysen von z. B. Figuren oder Plotstrukturen erfolgen könnte.

 
9:00 - 10:30Donnerstag 1:3: Digital History I
Ort: HSBI D1
Chair der Sitzung: Tara Andrews, Universität Wien
 

Voll automatisiert die Natur in historischen Reiseberichten erkennen? Entzauberung von KI-Werkzeugen und ihr Nutzen für die Geisteswissenschaften

Michela Vignoli1, Doris Gruber2

1AIT Austrian Institute of Technology, Österreich; 2Österreichische Akademie der Wissenschaften, Österreich

Der rasante Vormarsch Künstlicher Intelligenz (KI) macht auch vor den Geisteswissenschaften nicht halt. Die vielversprechende Hoffnung lautet, große, digitalisierte Daten-Korpora voll automatisiert zu analysieren und darin Strukturen und Beziehungen mithilfe komplexer statistischer Modellvorhersagen zu erkennen. Doch inwieweit trifft dies zu und können maschinelle Lernmodelle (ML) tatsächlich als unterstützende Werkzeuge für historisch-wissenschaftliche Argumentationsprozesse, auch bei nicht standardisierten, historischen Bildern und Texten, eingesetzt werden? Das Projekt „Ottoman Nature in Travelogues“ (ONiT) untersucht, welche Rolle die westlichen Darstellungen „osmanischer Natur“ in den zwischen 1501 und 1850 gedruckten Reiseberichten spielen. Dafür kommen KI-Werkzeuge zum Einsatz, die einen Distant Reading Zugang zur Beantwortung dieser Forschungsfrage ermöglichen. Unsere vorläufigen Ergebnisse zeigen, dass ML-Modelle eine erhebliche Hilfe zur Erstellung einer ersten Ordnung nach Relevanz von Bild- und Textquellen bieten. Sie zeigen aber auch, dass der Einsatz von KI immer im Bewusstsein der Möglichkeiten und Grenzen der Methodik erfolgen muss.



Von Aachen bis Zwickau: Semi-automatische Identifikation und Analyse von Korrespondenzorten in der historischen “Wiener Zeitung”

Nina C. Rastinger, Claudia Resch

Austrian Centre for Digital Humanities and Cultural Heritage, Österreichische Akademie der Wissenschaften

Der Vortrag diskutiert auf Basis eines Datensets von über 800 Ausgaben der historischen „Wiener Zeitung“ aus dem Zeitraum des Siebenjährigen Kriegs (1756-1763), wie sogenannte ‚Korrespondenzköpfe‘, d.h. Angaben von Herkunftsort und Absendedatum abgedruckter Nachrichten, über digitale Methoden (semi-)automatisch identifiziert und analysiert werden können. Hierfür wird eine Kombination automatischer Ansätze (u.a. Layoutanalyse, Automated Text Recognition, Named Entity Linking, GIS) und manueller Schritte eingesetzt, mithilfe derer über 10.000 Korrespondenzköpfe erkannt, normalisiert, geokodiert und ausgewertet werden. Die Ergebnisse zeigen, dass das „Wienerische Diarium“ zwischen 1756 und 1763 Meldungen aus über 1.000 verschiedenen Korrespondenzorten enthielt, mit einer besonders dichten Berichterstattung aus London, Paris, Dresden und Den Haag. Außerdem bietet die Analyse unter anderem Einblicke in die Dichte des Korrespondenznetzwerks der historischen Zeitung, die Anzahl und Länge ihrer abgedruckter Meldungen im Verlaufe des Siebenjährigen Kriegs und die durchschnittliche Reisegeschwindigkeit frühneuzeitlicher Nachrichten.



Historische Textnormalisierung: Herausforderungen und Potentiale von Deep Learning

Yannic Bracke2, Anton Ehrmanntraut1

1Julius-Maximilians-Universität Würzburg, Deutschland; 2Berlin-Brandenburgische Akademie der Wissenschaften

Historische Dokumente bergen Herausforderungen für die Digital Humanities, da ältere Texte in ihrer Rechtschreibung von der modernen Standardsprache abweichen. Das erschwert die Nutzung und Verarbeitung solcher Texte, z. B. bei Volltextsuche oder Natural Language Processing. Eine Lösung bietet die automatisierte historische Textnormalisierung, die historische Schreibweisen in moderne Standardschreibung übersetzt. Dieser Beitrag untersucht das Potential moderner NLP-Methodik auf Basis von Machine Learning und Transformer-Modellen für die historische Textnormalisierung, und vergleicht diese in einer Fallstudie mit CAB, dem de-facto Standard-Tool für deutsche Textnormalisierung. Damit werden die aktuellen Möglichkeiten und Grenzen automatischer Textnormalisierung aufgezeigt, besonders im Hinblick auf die Bereitstellung von offen zugänglichen Modellen.

 
9:00 - 10:30Donnerstag 1:P: Panel 4
Ort: HSBI E3
 

Herausforderungen und Perspektiven von 3D Daten in öffentlichen Repositorien: Findbarkeit, Wiederverwendbarkeit und Metadaten

Clemens Beck1, Sander Münster1, Piotr Kuroczynski2, Marc Mosch3, Ina Blümel4

1Friedrich-Schiller-Universität Jena, Deutschland; 2Hochschule Mainz; 3Sächsische Landesbibliothek – Staats- und Universitätsbibliothek Dresden (SLUB); 4Technische Informationsbibliothek (TIB) Hannover

Öffentlich zugängliche Repositorien für 3D-Modelle stehen vor der Herausforderung, große Datenmengen effizient zu speichern und zugänglich zu machen. Aktuell sind noch immer viele Modelle lokal gespeichert und schwer auffindbar. Die Auffindbarkeit hängt stark von Metadaten ab, die derzeit meist manuell erstellt werden.

Initiativen wie der DFG 3D-Viewer arbeien daran, Metadatenstandards zu vereinheitlichen und die Vernetzung deutscher Repositorien zu verbessern. Die Benutzerfreundlichkeit und die Einbindung von Community-Inhalten sind entscheidend für den Erfolg für solche Ansätze der Agregation von 3D-Modellen und Metadaten.

Auf dem vorgeschlagenen Pannel wollen wir die Themen diskutieren, um die Standardisierung und Vernetzung von 3D-Daten voranzutreiben. Vertreter von verschiedenen Repositorien und Infrastrukturen werden über aktuelle Entwicklungen und Herausforderungen sprechen, um Perspektiven für eine bessere Integration und Nutzung von 3D-Modelldaten zu bieten.

 
10:30 - 11:00Kaffeepause
11:00 - 12:30Donnerstag 2:1: Editionen II
Ort: HSBI C4
Chair der Sitzung: Patrick Sahle, Bergische Universität Wuppertal
 

Explicitly Notated Citations

Sebastian Enns, Andreas Kuczera

TH Mittelhessen, University of Applied Sciences

Die Zitierfähigkeit in digitalen Editionen ist eine zentrale Herausforderung der modernen Wissenschaft, die sich aus der Unbeständigkeit von URLs und der Schwierigkeit der präzisen Zitation spezifischer Textabschnitte ergibt. Dieses Paper führt die Methode der Explicitly Notated Citations (ENC) ein, welche auf der Technologie Applied Text as Graph (ATAG) basiert. Durch die Verwendung einzigartiger Identifikatoren ermöglicht ENC die Erstellung dynamischer, flexibler und präziser Zitierlinks, die nicht nur auf den Text, sondern auch auf dessen Kontext verweisen. Diese Methode verbessert die wissenschaftliche Genauigkeit und Transparenz, indem sie die Persistenz der Zitierlinks gewährleistet und die Reproduzierbarkeit von zitierten Textansichten unterstützt. Die Innovation von ENC zeigt neue Wege auf, um den Anforderungen digitaler Textarbeit gerecht zu werden und die Integrität wissenschaftlicher Zitate zu sichern.



Layout und (Para-)Text: Erprobung hybrider Ansätze und Heuristiken zur Erforschung von Werkausgaben des 18. Jahrhunderts

Arsenije Bogdanović1, Liesen-Sophie Lange3, Philip Ajouri3, Gabriel Viehhauser2

1Universität Stuttgart, Deutschland; 2Universität Wien, Österreich; 3Johannes Gutenberg-Universität Mainz, Deutschland

Der Buchtypus der Werkausgabe ist ein zentrales Medium des Literaturbetriebs, das für das Selbstverständnis von Autor*innen ebenso bedeutend ist wie für für Leser*innen, Verlage und Bibliotheken. Das Projekt „Scalable Reading von ‚Gesammelten Werken‘ des 18. Jahrhunderts, exemplarisch durchgeführt an Friedrich-von-Hagedorn-Werkausgaben“ untersucht die Ausprägung dieses Buchtypus in seiner Entstehungszeit in einer interdisziplinären Verbindung von quantitativen und qualitativen Zugängen. Dazu wird zunächst mit digitalen Verfahren die Zusammensetzung solcher Werkausgaben erschlossen, um dann in einem weiteren Schritt die Änderungen, die sich zwischen den Ausgaben zeigen, in Hinblick auf ihre buchgeschichtliche Relevanz auszuwerten. Der Beitrag widmet sich dem ersten Schritt in diesem Workflow, bei dem eine Taxonomie von Buchteilen erstellt wird und Verfahren der Layouterkennung zur (semi-)automatischen Auszeichnung der einzelnen Ausgaben hinsichtlich dieser Taxonomie erprobt werden.



Intentionen der Änderungen: Ein geisteswissenschaftliches Beschreibungsschema für Versionen digitaler Editionen

Martina Bürgermeister1,2

1Österreichische Nationalbibliothek, Österreich; 2Universität Graz, Österreich

Dieser Beitrag verteidigt die These, dass ein Verständnis von Versionen digitaler Ressourcen nur dann gegeben ist, wenn die Änderungen, die zur Version geführt haben, als zielgerichtete Handlungen beschrieben werden. Auf diesem Grundsatz aufbauend wird ein genuin geisteswissenschaftlicher Lösungsvorschlag zur Beschreibung von Änderungen erbracht.

Digitale Editionen, die inkrementell publiziert werden, erscheinen in Versionen. Doch was hat sich von der letzten zur aktuellen Version verändert? Gerade bei der kritischer Textarbeit ist es relevant zu wissen, welche Stellen der Edition verändert wurden: geht es um die diplomatische Umschrift, einen Nachweis in der Literatur oder doch die Formatierung des Einleitungskommentars? In jeder fünften digitalen Edition wird eine Änderungsdokumentation in Form von Releasebeschreibungen oder Versionskontrolle angeboten. Für erstere gibt es bisher kein einheitliches, editionsübergreifendes Beschreibungsschema. Bei Zweiterem gibt es zwar ein algorithmisches Beschreibungsschema, aber die auf diese Art erzeugten Beschreibungen sind nur schwer nachvollziehbar. Das hier erstmals präsentierte Beschreibungsmodell löst diese Defizite.

 
11:00 - 12:30Donnerstag 2:2: CLS Methoden II
Ort: HSBI D3
Chair der Sitzung: Ulrike Henny-Krahmer, Universität Rostock
 

Platinstandard-Annotation in der digitalen Literaturwissenschaft: Definition, Funktionen und diskursive Argumentvisualisierung als Best-Practice-Beispiel

Janina Jacke

Christian-Albrechts-Universität zu Kiel, Deutschland

Der Beitrag stellt das Konzept der Platinstandard-Annotation und die Methode ihrer Erstellung vor. Dem Konzept liegt die Idee zugrunde, dass bei der Annotation komplexer literarischer Phänomene mit hermeneutischem Fokus die Qualität der Annotationen anders gewährleistet werden muss als durch einstimmige, mehrheitliche oder durchschnittliche Entscheidung von Annotator:innen – es geht hier um reflektierte und gut begründete Annotation. Die Methode zur Erstellung wird anhand eines Best-Practice-Beispiels vorgestellt: Bei der Annotation unzuverlässigen Erzählens basieren die Annotationen in der Regel auf impliziten und unvollständigen inhaltsspezifizierenden Interpretationen der Texte. Im Projekt CAUTION werden diese Interpretationen und ihre argumentative Stützung mithilfe von Argumentbäumen explizit gemacht und unter den Annotator:innen diskutiert, um Argumentation und Interpretation zu verbessern. Das Ziel ist dabei keine Vereinheitlichung der Annotationen, sondern ihre diskursive Reflexion. Dies resultiert nicht nur in hermeneutisch adäquaten Annotationen, sondern ermöglicht auch interpretationstheoretische und methodische Erkenntnisse. Auf diese Weise können Platinstandard-Annotationen das Repertoire der digitalen Literaturwissenschaft erweitern.



Exploring Measures of Distinctiveness: An Evaluation Using Synthetic Texts

Julia Dudar, Christof Schöch

Universität Trier, Deutschland

Measures of distinctiveness are important tools for comparing groups of texts to identify each group's characteristic features. Evaluating these measures is essential to ensure their reliability and predictability. In our research, we applied a new method for evaluating measures of distinctiveness. Our method uses a synthetically generated homogenous text corpus to which we insert an artificial word whose frequency and dispersion are precisely manipulated. This approach allows us to determine each measure's sensitivity to variations in frequency and dispersion. Through our evaluation, we uncovered previously unknown characteristics of these measures. Specifically, we discovered that TF-IDF is more sensitive to dispersion variations than other dispersion-based measures. Moreover, we found that Eta cannot detect a word with a clear dispersion contrast when it has the same frequency in both the target and comparison groups. In our next steps, we aim to explore practical applications of this new knowledge about measures of distinctiveness.



Netzwerkanalysen narrativer Texte - ein Vorgehensmodell

Nora Ketschik

Universität Stuttgart, Deutschland

Die soziale Netzwerkanalyse ist in den Computational Literary Studies als Methode etabliert, mit der insbesondere Figurenbeziehungen in fiktionalen Welten exploriert und analysiert werden. Während Netzwerkanalysen zu dramatischen Texten verbreitet und die Verfahren zur Datenerhebung erprobt sind, wird die Methode nach wie vor nur vereinzelt für die Analyse narrativer Texte verwendet. Das liegt vor allem daran, dass es um ein Vielfaches voraussetzungsreicher ist, die für Netzwerkanalysen benötigten Daten aus narrativen Texten zu extrahieren. Die Komplexität resultiert nicht nur aus Tasks wie Entitätenreferenzerkennung und Koreferenzresolution, sondern auch daraus, dass die Organisation des Erzählten (z.B. auf Erzählebenen) und die Kontexte von Figurennennungen (z.B. Exkurse und Figurenrede) berücksichtigt werden müssen. Der vorliegende Beitrag versucht, diese methodische „Lücke“ zu schließen, indem er ein modulares Vorgehensmodell entwickelt, das verschiedene Aspekte narrativer Texte integriert und geeignet ist, kookkurrenzbasierte Figurennetzwerke aus Erzähltexten zu erstellen.

 
11:00 - 12:30Donnerstag 2:3: Distant Viewing I
Ort: HSBI D1
Chair der Sitzung: Lisa Dieckmann, Universität zu Köln
 

„Buchkindheiten digital“ – Werkstattbericht zur computergestützten Analyse von Illustrationen in historischen Kinder- und Jugendbüchern

Wiebke Helm1, Janos Borst2, Manuel Burghardt2, Sebastian Schmideler1

1Grundschuldidaktik Deutsch, Universität Leipzig; 2Computational Humanities, Universität Leipzig

Das Projekt “Buchkindheiten digital“ hat das Ziel gesellschaftliche Umbrüche und ihre Darstellung in Illustrationen als essentiellen Bestandteil von Kinder- und Jugendliteratur sichtbar zu machen und ihre Verschiebungen im Verlauf des langen 19. Jahrhunderts nachzuzeichnen. Als Datengrundlage dient das Korpus Colibri, welches mehr als 11.000 Titel mit über 2,2 Millionen Einzelseiten umfasst. Dieser Beitrag beschreib einen Workflow zur computergestützten Analyse von illustrierten Buchseiten und fokussiert dabei insbesondere auf einen Ansatz zur Unterscheidung von illustrierten Buchseiten und reinen Textseiten, welcher eine wichtige Grundlage für die weiterführende inhaltliche Analyse darstellt.



Gustav Klimt nach der Secession: Kunstgeschichte und Visual Analytics im Dialog

Teresa Kamencek1, Velitchko Filipov2, Michaela Tuscher2, Victor Schetinger3, Silvia Miksch2, Raphael Rosenberg1

1Universität Wien, Österreich; 2Technische Universität Wien, Österreich; 3Fachhochschule St.Pölten, Österreich

Die Kunstgeschichte untersucht Phänomene, die sich über Zeit und Raum entwickeln. Obwohl die Disziplin bisher einige Datenbanken hervorgebracht hat, fehlt es bislang an geeigneten Modellen und Methoden dafür, große Datenmengen effektiv zu analysieren. Ausstellungsgeschichte ist dabei ein Beispiel für die Anwendung kunsthistorischer Daten. Die "Database of Modern Exhibitions. European Paintings and Drawings 1905-1915" (DoME; http://exhibitions.univie.ac.at/) ist für ihren Zeitraum die umfassendste Datenbank moderner Kunstausstellungen. Ausgehend von DoME liegt unser Fokus im transdisziplinären Projekt ArtVis, einer Kollaboration des Centre for Visual Analytics Science and Technology (TU Wien) und des Instituts für Kunstgeschichte (Universität Wien), auf der Entwicklung innovativer Visualisierungs- und Analysetools, die für die Untersuchung dynamischer kunsthistorischer Netzwerkdaten noch nicht eingesetzt wurden. Vor diesem Hintergrund haben wir mehrere interaktive Tools entwickelt, deren Anwendung durch eine Verknüpfung von quantitativer und qualitativer Analyse exemplarisch anhand einer Fallstudie des Ausstellungsverhaltens Gustav Klimts nach seinem Austritt aus der Wiener Secession dargestellt wird.



Digital Provenance Research: Eine computerassistierte Bildersuche in historischen Auktionskatalogen

Sabine Lang, Mathias Zinnen

Friedrich Alexander Universität (FAU) Erlangen-Nürnberg, Deutschland

Eine wichtige Quelle für die Provenienzforschung ist die Datenbank German Sales, die aktuell über 12,000 Auktions- und Verkaufskataloge vorwiegend aus dem deutschsprachigen Raum aus den Jahren 1901 bis 1945 umfasst. Für die Provenienzforschung sind diese Kataloge essenzielle Quellen, um nachzuvollziehen, ob ein Objekt bei einer Versteigerung angeboten wurde und eventuell den Besitzer/die Besitzerin gewechselt hat.

Die Kataloge können im Moment im Volltext durchsucht werden; obwohl der damit mögliche Zugriff auf das in den Katalogen enthaltene Wissen einen großen Mehrwert darstellt, können fehlende Informationen, sich verändernde Titel oder Zuschreibungen den Erfolg der Suche behindern. Die Einreichung wird von diesem Problem motiviert und beschreibt, wie der Einsatz von computerbasierten Bildsuchverfahren bei der Suche nach Abbildungen in Auktionskatalogen und damit bei der Rekonstruktion von Provenienzen helfen kann.

 
11:00 - 12:30Donnerstag 2:P: Panel 5
Ort: HSBI E3
 

More than Chatbots: Multimodel Large Language Models in geisteswissenschaftlichen Workflows

Sarah Oberbichler1, Christopher Pollin2, Nina C. Rastinger3, Stefanie Schneider4, Johanna Störiko5, Ralph Ewerth6,7

1Leibniz-Institut für Europäische Geschichte, Mainz; 2Digital Humanities Craft OG; 3Austrian Centre for Digital Humanities and Cultural Heritage, Österreichische Akademie der Wissenschaften; 4Ludwig-Maximilians-Universität München; 5Georg-August-Universität Göttingen; 6TIB - Leibniz Information Centre for Science and Technology, Hannover; 7Leibniz University Hannover

Dieses Panel untersucht die Integration generativer KI, insbesondere Multimodal Large Language Models (MLLMs) und Large Vision Models (LVMs), in geisteswissenschaftlichen Forschungsworkflows. Angesichts der rasanten Entwicklung der KI-Technologie ergeben sich sowohl Chancen als auch Herausforderungen für die Digital Humanities. Die Diskussion konzentriert sich auf die effektive Implementierung dieser Modelle, die Steigerung der Forschungseffizienz und die Verlagerung des Schwerpunkts von der technischen Datenverarbeitung hin zur Analyse und Interpretation. Die Vortragenden präsentieren Fallstudien zur Erstellung von Bildkorpora, Textannotation, qualitativen Datenanalyse und kunsthistorischem Retrieval mittels KI-Modellen und diskutieren darüber hinaus mögliche Konsequenzen und Nachteile der KI-Integration in geisteswissenschaftlichen Forschungspraktiken sowie deren Auswirkungen auf die Workflow-Nachnutzbarkeit. Das Panel beinhaltet interaktive Elemente zur Publikumsbeteiligung und fördert einen umfassenden Dialog über zukünftige Richtungen der KI in der geisteswissenschaftlichen Forschung.

 
12:30 - 14:00Mittagspause
12:45 - 13:15Führung durch den BITS Space
Ort: BITS Space
12:45 - 13:45Campusführung
Ort: Treffpunkt: Haupteingang Universität
13:15 - 13:45Führung durch den BITS Space
Ort: BITS Space
14:00 - 15:30Poster (1/2): Posterslam
Ort: HSBI Audimax
16:00 - 17:30Poster (2/2): Postersession
Ort: HSBI Magistrale
18:30 - 19:30Tanztheater UNDER CONSTRUCTION. A Physical Lecture
Ort: Universitätshauptgebäude H15
19:00 - 23:59Konferenzdinner und Party im Forum Bielefeld
Ort: Forum Bielefeld
Datum: Freitag, 07.03.2025
8:30 - 16:00Öffnungszeiten Digitales Konferenzbüro
9:30 - 11:00Freitag 1:1: Editionen III
Ort: HSBI B1
Chair der Sitzung: Cindarella Petz, Leibniz Institute of European History Mainz (IEG)
 

E-LAUTE - die Musik abseits der Noten und die Daten abseits der Musik

Christoph Steindl1, Kateryna Schöning2, David M. Weigl3, Ilias Kyriazis1

1Österreichische Nationalbibliothek, Österreich; 2Universität Wien, Österreich; 3mdw - Universität für Musik und darstellende Kunst Wien, Österreich

Multidisziplinarität erfordert Vielfältigkeit! Das Projekt E-LAUTE (Electronic Linked Annotated Unified Tablature Edition) bearbeitet das Korpus der Deutschen Lautentabulaturen mit einem interdisziplinären Forschungsteam, das sich großteils um das Verhältnis Noten - Musik - Daten dreht. Damit dem Forschungsinteresse zufriedenstellend nachgegangen werden kann, werden durch die Brille der jeweiligen Disziplin Anforderungen an das E-LAUTE Projekt gestellt. Diese Anforderungen erfordern sowohl für die Bearbeitung im digitalen, als auch im analogen Bereich einen Unterbau an Infrastruktur, Hardware und Programmen was im Kontext der Bearbeitungen und Editor*innen zu einem umfassenden E-LAUTE Ökosystem angewachsen ist und für Nutzer*innen als open knowledge platform zur Verfügung gestellt wird. Im folgenden Beitrag werden die teilweise sehr heterogen verwendeten Infrastrukturtypen beleuchtet und ein Bild darüber abgegeben, wie sie auf die Interessen der einzelnen Fachwissenschaften eingehen, weshalb sie notwendig sind, wie sie miteinander zusammenarbeiten und wie sie letztlich wieder in einem homogenen Gesamtbild durch die Wissenschaft weiterverwendet werden kann.



50 Years of Editorial Practice: A Footnote Analysis of the Heinrich Bullinger Briefwechsel

Nikolaj Bauer, Phillip Benjamin Ströbel

University of Zurich, Schweiz

This paper presents a comprehensive analysis of the editorial practices employed in the footnotes of Heinrich Bullinger's correspondence edition, spanning over five decades of scholarly work. Bullinger (1504-1575), a key figure in the European Reformation, left behind a vast corpus of over 12,000 letters, covering a wide range of topics and geographical scope. Our study examines the evolution of editorial approaches, annotation styles, and contextual information in the footnotes across different volumes and periods. By scrutinising these scholarly annotations, we shed light on changing historiographical trends, historical research methodologies advancements, and editorial priority shifts over the past half-century. This analysis provides insights into the complex task of contextualising Bullinger's diverse correspondence and offers a unique perspective on the development of early modern historical editing practices. Our findings contribute to ongoing discussions about best practices in digital humanities and the future of scholarly editions in the field of Reformation studies.

 
9:30 - 11:00Freitag 1:2: Modellierung
Ort: HSBI B3
Chair der Sitzung: Andreas Kuczera, Technische Hochschule Mittelhessen, Gießen
 

Kontext, Unsicherheit und Geschlecht im Fokus der Modellierung: Datenprinzipien für die feministische Filmgeschichte

Pauline Junginger

Philipps-Universität Marburg, Deutschland

Dieser Beitrag stellt drei Datenprinzipien vor, die im Zuge der Entwicklung und des Aufbaus einer filmografischen Datenbank zu Filmpionierinnen definiert wurden. Die in der Plattform Women Film Pioneers Project (WFPP) veröffentlichten Filmografien und die damit verbundenen Datenpraktiken bilden hierfür den Ausgangspunkt. Die Datenprinzipien betonen die Konstruiertheit von Wissen und fragen danach, wie eine geisteswissenschaftliche Datenpraxis definiert werden kann. Sie zielen darauf ab, Daten zu kontextualisieren, Unsicherheiten zu erhalten und Geschlecht als Analysekategorie nutzbar zu machen. Damit sollen die Datenprinzipien einen Beitrag dafür leisten, die Kontingenz von Filmgeschichte im Zuge ihrer datenbasierten Erforschung im Blick zu behalten und die Basis für das Erzählen pluraler Filmgeschichte(n) zu schaffen.



Accuracy vs. Consistency: A Case Study Assessing Data Quality in Metadata of Early Modern Dissertations

Stefan Heßbrüggen-Walter

Universität Münster, Deutschland

Existing literature on bibliographical metadata presents, among others, 'accuracy', the correct description of a resource, and 'consistency', the uniformity of mappings between its features and metadata fields, as important criteria for the evaluation of metadata quality. My presentation aims to show that these criteria may sometimes be in tension, and that digital humanists treating metadata as research data may have good reasons to prefer consistency to accuracy. The case study I present deals with problems of authorship attributions in early modern dissertations.



Work(s) in progress – Datenmodellierung zum Kulturerbe Tanz in der DDR als Prozess

Philipp Sauer1, Melanie Gruß2, Caroline Helm2, Patrick Primavesi2, Uwe Kretschmer1, Franziska Naether1

1Sächsische Akademie der Wissenschaften; 2Universität Leipzig

Das Tanzarchiv Leipzig, ehemals Tanzarchiv der DDR, ist eine der maßgeblichen Sammlungen von Quellen zu Tanz in der DDR, inhaltlich aber noch kaum erschlossen.

Wir beschreiben in unserem Beitrag den Prozess der Erarbeitung eines ereignisbasierten Datenmodells, das sowohl tänzerisches Schaffen, Verknüpfungen zwischen Institutionen und Personen, zeitgeschichtliche Entwicklungen als auch die Vielfalt der Bestände des Tanzarchivs adäquat abbilden kann und in der Lage ist, aus den Quellen heraus das kulturelle Erbe Tanz in der DDR besser erforschbar zu machen. Wir beschreiben hierbei konkrete Herausforderungen des Forschungsgegenstandes und konkrete Lösungsansätze des bisher entstandenen Modells sowie den Prozess der Modellierung in seiner Wechselwirkung mit dem zu erfassenden Quellenmaterial.

 
9:30 - 11:00Freitag 1:3: Distant Viewing II
Ort: HSBI E1
Chair der Sitzung: Stefanie Schneider, Ludwig-Maximilians-Universität München
 

Phylogenetische Überlieferungsanalyse mit Feature-Matrizen zur Bild- bzw. Diagrammbeschreibung. Ein Versuch an den Handschriften des ‘Compendium Historiae’ (12. Jh.ff)

Elisa Cugliana1, Andreas Mertgens2, Patrick Sahle2, Johannes Ioannu2, Lennart Rouxel2, Eleanor Goerss3

1Universität zu Köln; 2Bergische Universität Wuppertal; 3Eberhard Karls Universität Tübingen

Der Beitrag stellt den Einsatz phylogenetischer Methoden zur Analyse der handschriftlichen Überlieferung des "Compendium Historiae in Genealogia Christi" von Peter von Poitiers (12. Jh.) vor. Das Werk umfasst neben einer Darstellung der Genealogie Jesu Christi in der Form eines “Graphen” auch den Knoten zugeordnete und frei positionierte Textabschnitte, Diagramme und Illustrationen. Aufgrund der multimodalen Natur des "Compendium" sind traditionelle stemmatologische Methoden unzureichend, da diese "Leitfehler" identifizieren müssen, ein Konzept, das bei den diagrammatischen Komponenten nicht anwendbar ist. Am Beispiel des “Stämme-Diagramms” demonstrieren wir die (noch explorative) Anwendung computergestützter Methoden der evolutionären Biologie, die bereits umfassend im textuellen Bereich und in geringerem Maße für die Entwicklung des kulturellen Erbes genutzt werden. Dieser Ansatz arbeitet auf quantitativer Ebene und basiert auf binären Matrizen diskreter Varianten, die das Vorhandensein oder Fehlen ausgewählter Merkmale beschreiben. Mit unserer Arbeit zeigen wir die bereits erzielten vielversprechenden Ergebnisse und reflektieren gleichzeitig über den epistemologischen Wert der Methode.



Combining LLM and Topic Modeling for Automated Video Analysis: A Case Study

Gernot Howanitz, Magdalena Kaltseis, Ilya Sulzhytski

Universität Innsbruck, Österreich

This paper explores the potential of combining large language models (LLMs) and topic modeling for automated video analysis, using a case study to examine the capabilities of multimodal LLMs in understanding video content. We utilize OpenAI’s closed-source GPT-4o-mini and the open-source Large Language and Vision Assistant (LLaVA) to generate keywords describing video frames. We then apply topic modeling to interpret these annotations.

Our findings indicate that GPT-4o mini provides more consistent and contextually accurate annotations, whereas LLaVA demonstrates higher variability and struggles with Cyrillic text. Despite these differences, both models effectively identify thematic trends, such as the distinction between daytime protests and nighttime police brutality. The combination of zero-shot LLM annotation and topic modeling offers a robust framework for video analysis, balancing technical feasibility and conceptual openness while highlighting the potential and limitations of current LLMs in understanding complex visual data.



Diagramme und Tänze von Leben und Tod: Biographische Datenvisualisierungen und -physikalisierungen im Vergleich

Viola Rühse1, Michael Smuc2, Florian Windhager1

1Universität für Weiterbildung Krems, Österreich; 2Mindfactor (https://mindfactor.at)

Der Beitrag diskutiert aktuelle Entwicklungen im Feld der biographischen Datenvisualisierung und -physikalisierung mit Blick auf das Leben von Herwig Zens (1943—2019). Der österreichische Künstlers dokumentierte über 40 Jahre seines Lebens in einem “radierten Tagebuch”, das als größter bekannter Kupferstich gilt. Das komplexe biographische Druckwerk wurde in verschiedenen Ausstellungen präsentiert und zur Gewinnung von Übersicht durch Distant Reading-Techniken in zwei und drei Dimensionen ergänzt. Der Artikel thematisiert die vielfachen Herausforderungen, das komplexe Leben von Künstler:innen für Ausstellungsbesucher:innen mittels einer zeitgeographischen Projektion erfahrbar zu machen. Der spezifische Mehrwert dieser Methode liegt in ihrer komplementären Implementierung als interaktive Visualisierung und als physikalische Datenskulptur. Die Reflexion dieser Fallstudie zielt vor diesem Hintergrund auf die vermehrte Nutzung von hybriden Kombination aus digitalen und physischen Darstellungen zur Vermittlung komplexer biographischer und historischer Daten an diverse Zielgruppen.

 
9:30 - 11:00Freitag 1:P: Panel 6
Ort: HSBI E3
 

Literaturgeschichte “under construction” – was können die Computational Literary Studies beitragen? Ein Panel zur digitalen Untersuchung von Raum in der Literatur

Berenike Herrmann1, Daniel Kababgi1, Marc Lemke2, Nils Kellner2, Ulrike Henny-Krahmer2, Fotis Jannidis3, Katrin Dennerlein3, Matthias Buschmeier1

1Universität Bielefeld, Deutschland; 2Universität Rostock, Deutschland; 3Julius-Maximilians-Universität Würzburg, Deutschland

Im Forschungsdesign vieler DH-Projekte aus den Computational Literary Studies (CLS) stehen die Operationalisierung eines literarischen Phänomens, die Datenmodellierung und die Implementierung sowie das Finetuning computationeller Verfahren meist deutlicher im Fokus als explizite Überlegungen zum literaturgeschichtlichen Kontext, und dies, obwohl die CLS durch ihre quantitative Arbeitsweise und die Verwendung umfangreicher Korpora prädestiniert dafür sind, auch historische Entwicklungen zu untersuchen. Das Panel zielt darauf, dieses Problem anhand des Themas "Raum in literarischen Texten" und mit Beiträgen von Literaturhistoriker:innen, Literaturtheoretiker:innen und Computational Literarians zu diskutieren. Es plädiert für einen stärkeren Einbezug bestehender literaturgeschichtlicher Forschung in die CLS-Forschung und fragt zugleich danach, was diese für eine Literaturgeschichte "under construction" leisten kann.

 
11:30 - 13:00Freitag 2:1: Digital History II
Ort: HSBI D3
Chair der Sitzung: Claudia Resch, Österreichische Akademie der Wissenschaften
 

Named Entity Uncertainty Mining: Von der intellektuellen zur computergestützten Untersuchung unsicherer Annotationen

Sophie Schneider, Michał Bubula, Kai Labusch, Jörg Lehmann, Clemens Neudecker

Staatsbibliothek zu Berlin, Deutschland

Die Entwicklung computergestützter Verfahren wie der Named Entity Recognition (NER) und des Entity Linking (EL) für historische Texte erfordert umfangreiche domänenspezifisch und intellektuell annotierte Daten. Bei der Erstellung solcher Daten treten oftmals Unsicherheiten in Bezug auf einzelne Annotationen auf. Diese Unsicherheiten können u.a. auf eine fehlende oder fehlerhafte Kontextualisierung der Texte, auf den Wandel der Dokumente und ihrer Inhalte sowie zusätzliche Prozessierungsschritte zurückgeführt werden. Aktuell angewendete Praktiken und die Verfügbarkeit von Ressourcen nehmen einen Einfluss auf die Entstehung von Unsicherheit. Auf der Grundlage einer umfassenden Literaturrecherche werden die verschiedenen Arten und Ursachen von Unsicherheiten diskutiert. Des Weiteren werden Ansätze zur computergestützten Messung und damit zur Dokumentierung und Reduzierung von Unsicherheiten in annotierten Daten präsentiert.



Digital History under construction. Zum Verhältnis zwischen Digitaler Geschichtswissenschaft und Digital Humanities im deutschsprachigen Raum.

Jörg Wettlaufer

Niedersächsische Akademie der Wissenschaften zu Göttingen, Deutschland

Vor etwa 20 Jahren begannen sich die Digital Humanities (DH) aus den USA kommend in Deutschland zu formieren und vereinten innerhalb weniger Jahre verschiedene Disziplinen unter einem gemeinsamen Dach. Dies umfasste auch das bereits etablierte 'Historische Fachinformatik'. Seit dieser ‚freundlichen Übernahme' durch das neue interdisziplinäre Konzept namens DH gibt es Bestrebungen, die Digitale Geschichtswissenschaft (DHist) wieder zu emanzipieren und als eine Teildisziplin innerhalb der historischen Wissenschaften zu etablieren. Gleichzeitig haben die integrativen Kräfte der Digital Humanities, die inzwischen als eigene akademische Disziplin mit Professuren, Studiengängen und eigenen Publikationsplattformen etabliert sind, weiterhin DHist als eines ihrer Interessens- und Forschungsfelder beansprucht. Einige der vielen aufkommenden Fragen sind: Sollte das Lehren digitaler Methoden in die Lehrpläne der Geschichtswissenschaft oder der neuen DH-Abteilungen integriert werden? Welche Rolle spielen bzw. sollten die Professuren für Digitale Geschichtswissenschaft, die sich seit einigen Jahren an den Philosophischen Fakultäten in Deutschland etablieren, in diesem Prozess spielen?

 
11:30 - 13:00Freitag 2:2: Projektarbeit
Ort: HSBI D1
Chair der Sitzung: Martin Fechner, Berlin-Brandenburgische Akademie der Wissenschaften
 

Die Bibliothek als Partner der Digital Humanities: Ein Einblick in die Erfahrungen und Aktivitäten der Deutschen Nationalbibliothek

Stephanie Nitsche

Deutsche Nationalbibliothek, Deutschland

In der sich rasant entwickelnden Landschaft der Digital Humanities erweisen sich Bibliotheken zunehmend als unverzichtbare Partner, die Literatur und Informationen nicht nur sammeln und verfügbar machen, sondern immer häufiger auch die Rolle als aktive Vermittler digitaler Methoden und Werkzeuge für die geisteswissenschaftliche Forschung sowie als gleichberechtigter Kooperationspartner in Forschungsprojekten einnehmen. Dabei spielen sowohl die Entwicklung passender Angebote und Tools eine tragende Rolle, als auch der Aufbau von Infrastrukturen, Strategien sowie Kompetenzen im eigenen Haus. Die Deutsche Nationalbibliothek (DNB) befasst sich zunehmend auch strategisch mit den Digital Humanities und hat ihre Aktivitäten zur Unterstützung und Förderung von Wissenschaft und Forschung in den letzten Jahren deutlich ausgeweitet. Der Vortrag bietet exemplarisch einen Einblick in die relevanten Aktivitäten der DNB und beleuchtet so die verschiedenen Rollen der Bibliothek als Partner der Digital Humanities sowie deren Potentiale.



Alles hat seine Zeit: Generische Softwareentwicklung und individuelle Projektanforderungen

Ludger Hiepel, Jan Horstmann, Christian Lück, Immanuel Normann

Universität Münster, Deutschland

Digital-Humanities-Projekte, in denen individuelle Software benötigt wird, und DH-Zentren, an denen generisch einsetzbare Forschungssoftware entwickelt wird, haben unterschiedliche Geschwindigkeiten. Beispielhaft anhand des konkreten Entwicklungsprojektes Intertextor des Münsteraner Service Centers for Digital Humanities (SCDH) zur Annotation und Analyse intertextueller Relationen demonstriert der Beitrag das Spannungsfeld zwischen generischem Anspruch (dem inneren Faktor der Entwicklungsstrategie) und individuell notwendigen Lösungen, die aus konkreten Projektanforderungen erwachsen (dem externen Faktor heterogener Forschungsprojekte). Wir diskutieren, inwieweit einerseits Elemente agilen Projektmanagements (d.h. im vorliegenden Fall Scrum) helfen können, wo andererseits aber dennoch projektspezifische Entwicklungen (demonstriert am Beispiel eines alttestamentarischen Ijob-Buch-Editionsprojektes) vorgenommen werden müssen, um Deadlines einhalten zu können und den Fortgang disziplinärer Forschung nicht zu verlangsamen.



Quo vadis? Der beschwerliche Weg mit XML-Technologien

Eckhart Arnold, Stefan Müller, Manuel Raaf

Bayerische Akademie der Wissenschaften, Deutschland

In diesem Vortrag geben wir Einblick in die Erfahrungen, die wir mit XML und verschiedenen alternativen Technologien zur Text-Kodierung für Wörterbücher und Editionen gemacht haben. Die Suche nach Alternativen zu XML war dadurch motiviert, dass XML zwar vieles gut macht, sich in manchen Fällen aber als eher schwerfällig erweist. Im Einzelnen diskutieren wir:

1. eine "klassische" XML-Werkbank mit XQuery, XSLT und BaseX (Bayerisches Wörterbuch)

2. eine schlanke HTML-Werkbank mit VSCode, HTML und CSS (Schelling-Nachlass-Edition)

3. eine LaTeX -> HTML/PDF (Carnap) und eine CTE -> HTML/PDF-Werkbank (Johannes von Damaskus)

4. eine auf einer domänenspezifischen Eigennotation basierende Werkbank (Mittellateinisches Wörterbuch)

Im Ergebnis gibt es keinen eindeutigen Sieger. In jedem Fall scheint es aber nicht sinnvoll sich von vornherein auf (TEI-)XML fest zu legen, da je nach Situation andere Ansätze den technischen Aufwand erheblich verringern können.

 
11:30 - 13:00Freitag 2:P: Panel 7
Ort: HSBI E3
 

Gemeinsame Baustellenbegehung – Digital Humanities und Wissenschaftsforschung

Lisa Eggert, Sandra König

Leopoldina - Nationale Akademie der Wissenschaften, Deutschland

Die interdisziplinäre Wissenschaftsforschung hat die Digital Humanities bislang noch kaum in den Blick genommen. Dabei gibt es unterschiedliche Aspekte, die einen Austausch lohnen. In diesem Panel wollen wir diesen in Form eines ersten Kennenlernens initiieren. Dabei treffen sich Expert:innen aus DH und Wissenschaftsforschung und diskutieren wie man sich am besten „bei den Daten“ treffen kann. Wir wollen sehen, was wir aus der Beforschung anderer Wissenschaften für die DH lernen können, aber auch, welche Impulse die Wissenschaftsforschung aus den andauernden theoretischen und methodologischen Debatten der DH mitnehmen kann. Das Diskussionsformat beginnt mit kurzen Statements, die folgende Frage beantworten:

Wenn wir uns hier „bei den Daten“ treffen, welche Anknüpfungspunkte sehen Sie aus den DH zur Wissenschaftsforschung / aus der Wissenschaftsforschung zu den DH?

Im Anschluss wird auf dem Panel und mit dem Publikum diskutiert.

 
14:00 - 16:00Abschluss Konferenz: Abschlusskeynote und anschließende Abschlussveranstaltung
Ort: Universitätshauptgebäude Audimax
Keynote Speaker: Mareike König Mehr Informationen: Übersichtsseite zu den Keynote Speakers

 
Impressum · Kontaktadresse:
Datenschutzerklärung · Veranstaltung: DHd2025
Conference Software: ConfTool Pro 2.8.105
© 2001–2025 by Dr. H. Weinreich, Hamburg, Germany