11. Jahrestagung des Verbands
»Digital Humanities im deutschsprachigen Raum«
3. - 7. März 2025 | Bielefeld
Veranstaltungsprogramm
Eine Übersicht aller Sessions/Sitzungen dieser Veranstaltung.
Bitte wählen Sie einen Ort oder ein Datum aus, um nur die betreffenden Sitzungen anzuzeigen. Wählen Sie eine Sitzung aus, um zur Detailanzeige zu gelangen.
|
Sitzungsübersicht |
Datum: Montag, 03.03.2025 | |
12:45 - 13:45 | Campusführung Ort: Treffpunkt: Haupteingang Universität |
13:00 - 19:00 | Öffnungszeiten Digitales Konferenzbüro |
14:00 - 17:30 | Workshop 1 (1/2): Wissensgraphen und große Sprachmodelle in den Digital Humanities (1/2) Ort: HSBI B 440 Stalter, Julian; Springstein, Matthias; Kristen, Maximilian; Müller-Budack, Eric; Schneider, Stefanie; Entrup, Elias; Kohle, Hubertus; Krestel, Ralf; Ewerth, Ralph |
14:00 - 17:30 | Workshop 10: Towards interoperability: Introducing the Impresso data lab for the enrichment and analysis of historical media Ort: HSBI C2 Düring, Marten; Guido, Daniele; Kalyakin, Roman |
14:00 - 17:30 | Workshop 13 (1/2): Textannotation in der Lehre einsetzen: Ein Einstieg mit CATMA Ort: HSBI B3 Akazawa, Mari;
Gerstorfer, Dominik;
Gius, Evelyn;
Guhr, Svenja;
Häußler, Julian;
Meister, Malte;
Messner, Stefanie;
Stiemer, Haimo;
von Keitz, Janis |
14:00 - 17:30 | Workshop 15 (1/2): Community-getriebene Evaluation des FidusWriter als Ersatz für den DHConvalidator im Einreichungsprozess von Beiträgen zu DHd Jahreskonferenzen Ort: HSBI E2 Helling, Patrick;
Neugebauer, David;
Majka, Nicole |
14:00 - 17:30 | Workshop 2: Citizen Science vs. Geschichtswissenschaften? Under construction: Kirchengeschichte in Wikidata und co. Ort: HSBI B 439 Kröger, Bärbel; Popp, Christian |
14:00 - 17:30 | Workshop 3: Komponierst Du noch oder promptest Du schon? Der Einfluss generativer KI auf musikalische Produktionsprozesse und das Konzept musikalischer Kreativität Ort: HSBI A 526 Voit, Johannes; Sachsse, Malte |
14:00 - 17:30 | Workshop 4: Erprobung eines Metadatenmodells zur Beschreibung von FDM-Services Ort: HSBI B 444 Lemaire, Marina; Christ, Andreas |
14:00 - 17:30 | Workshop 5: (De-)constructing the Lab: Arbeiten in den DH Ort: HSBI B 441 Cremer, Fabian; Dogunke, Swantje; Düring, Marten; Neubert, Anna; Wübbena, Thorsten |
14:00 - 17:30 | Workshop 6: Der SSH Open Marketplace als Information Hub für die DH-Community: Einführung in Nutzungs- und Forschungsszenarien Ort: HSBI B 443 Buddenbohm, Stefan; Kurzmeier, Michael; Weimer, Lukas |
14:00 - 17:30 | Workshop 7 (1/2): OERs Under Construction. Ein Workshop zu Gestaltung und Evaluierung von Open Educational Resources für die Digital Humanities (1/2) Ort: HSBI B 442 Schneider, Philipp; Rohe, Jonas; Seltmann, Melanie; Trilcke, Peer; Faust, Anna; Büdenbender, Stefan; Urbaum, Dorothee; Schmunk, Stefan; Skorinkin, Daniil; Hiltmann, Torsten |
14:00 - 17:30 | Workshop 8 (1/2): Text+: Digitale Forschung auf der Grundlage von Text- und Sprachdaten bereichern (1/2) Ort: HSBI B1 Barth, Florian; Genêt, Philippe; Körner, Erik; Leinen, Peter; Weimer, Lukas; Witt, Andreas |
14:00 - 17:30 | Workshop 9: eScriptorium meets LLMs: Moderne KI-Systeme im Kontext der Volltexterschließung Ort: HSBI B2 Will, Larissa; Kamlah, Jan; Schmidt, Thomas; Lang, Sarah; Huff, Dorothee |
18:00 - 21:00 | Abend-Workshop "Geist und Daten. Welche Fächer, welche Kompetenzen sind die Zukunft von Schule und Universität?" Ort: WissenswerkStadt Bielefeld |
18:30 - 19:30 | Tanztheater UNDER CONSTRUCTION. A Physical Lecture Ort: Universitätshauptgebäude H15 |
19:00 - 21:00 | Kunstforum Hermann Stenner Ort: Kunstforum Hermann Stenner |
Datum: Dienstag, 04.03.2025 | |
9:00 - 12:30 | Workshop 13 (2/2): Textannotation in der Lehre einsetzen: Ein Einstieg mit CATMA Ort: HSBI B3 Akazawa, Mari;
Gerstorfer, Dominik;
Gius, Evelyn;
Guhr, Svenja;
Häußler, Julian;
Meister, Malte;
Messner, Stefanie;
Stiemer, Haimo;
von Keitz, Janis |
9:00 - 12:30 | Workshop 15 (2/2): Community-getriebene Evaluation des FidusWriter als Ersatz für den DHConvalidator im Einreichungsprozess von Beiträgen zu DHd Jahreskonferenzen Ort: HSBI E2 Helling, Patrick;
Neugebauer, David;
Majka, Nicole |
9:00 - 12:30 | Workshop 7 (2/2): OERs Under Construction. Ein Workshop zu Gestaltung und Evaluierung von Open Educational Resources für die Digital Humanities (2/2) Ort: HSBI B 442 Schneider, Philipp; Rohe, Jonas; Seltmann, Melanie; Trilcke, Peer; Faust, Anna; Büdenbender, Stefan; Urbaum, Dorothee; Schmunk, Stefan; Skorinkin, Daniil; Hiltmann, Torsten |
9:00 - 12:30 | Workshop 8 (2/2): Text+: Digitale Forschung auf der Grundlage von Text- und Sprachdaten bereichern (2/2) Ort: HSBI B1 Barth, Florian; Genêt, Philippe; Körner, Erik; Leinen, Peter; Weimer, Lukas; Witt, Andreas |
9:00 - 17:30 | Öffnungszeiten Digitales Konferenzbüro |
9:00 - 17:30 | Workshop 11: Umgang mit raumzeitlicher Unschärfe – Erfassung und Visualisierung von Bewegungsdaten mit QGIS am Beispiel der Fahrt des Kanonenboots Albatroß (1886) Ort: HSBI B 444 Fuest, Stefan; Gollenstede, Andreas; Herbers, Maximilian; Kaiser, Rieke Marie; Tadge, Jennifer |
9:00 - 17:30 | Workshop 12: Qualitativ hochwertige Metadaten in digitalen Editionen Ort: HSBI B2 Lemke, Karoline;
Fichtl, Barbara;
Alvares Freire, Fernanda;
Gerber, Anja;
König, Sandra;
Körfer, Anna-Lena;
Lordick, Harald;
Schnöpf, Markus;
Städtler, Domenic |
9:00 - 17:30 | Workshop 14: Quellcodekritik aus der Ferne Ort: HSBI B 441 Demleitner, Adrian;
Höltgen, Stefan;
Piontkowitz, Vera;
Gammenthaler, Daniel;
Burghardt, Manuel |
9:00 - 17:30 | Workshop 16: Hands-on Workshop: Entwicklung von interaktiven 3D-Applikationen mit der Open-Source Game Engine Godot Ort: HSBI C2 Mühleder, Peter;
Naether, Franziska;
Goldhahn, Dirk;
Bleckmann, Patrice |
9:00 - 17:30 | Workshop 17: Fortgeschrittenes Prompt und AI Agent Engineering für wissenschaftliche Textproduktion Ort: HSBI B 443 Pollin, Christopher;
Steyer, Timo;
Scholger, Martina;
Schiller-Stoff, Sebastian David |
9:00 - 17:30 | Workshop 18: TEI-Dokumente in TextGrid Repository veröffentlichen und archivieren: neue Features und fluffiger Import Workflow Ort: HSBI A 526 Calvo Tello, José;
Barth, Florian;
Buddenbohm, Stefan;
Dogaru, George;
Funk, Stefan;
Göbel, Mathias;
Klammer, Ralf;
Kudella, Christoph;
Rißler-Pipka, Nanette;
Veentjer, Ubbo;
Weimer, Lukas |
9:00 - 17:30 | Workshop 19: Wer weiß schon wo? Identifikation, Erfassung und Systematisierung historischer Ortsangaben Ort: HSBI C3 Purschwitz, Anne;
Döring, Sophie;
Schubert, Tim;
Badura, Robert |
9:00 - 17:30 | Workshop 20: Prompt-Engineering und Hermeneutik – Best Practices für die historische und qualitative Forschung Ort: HSBI B 439 Möbus, Dennis;
Vu, Binh;
Bayerschmidt, Philipp |
9:00 - 17:30 | Workshop 21: Coming soon: Podcast under Construction: Strategische Audio-Wissenschaftskommunikation für Digital Humanities, ein Workshopangebot von RaDiHum20 Ort: HSBI D2 Schumacher, Mareike;
Geiger, Jonathan;
Schmitz, Jascha |
9:00 - 17:30 | Workshop 22: Objektbiografie - Ein Ansatz für die integrative Datenmodellierung: Eigenschaften, Chancen und Anwendungsmöglichkeiten Ort: HSBI C4 Gerber, Anja;
Wagner, Sarah;
Görz, Günther |
12:45 - 13:15 | Führung durch den BITS Space Ort: BITS Space |
12:45 - 13:45 | Campusführung Ort: Treffpunkt: Haupteingang Universität |
13:15 - 13:45 | Führung durch den BITS Space Ort: BITS Space |
14:00 - 17:30 | Workshop 1 (2/2): Wissensgraphen und große Sprachmodelle in den Digital Humanities (2/2) Ort: HSBI B 440 Stalter, Julian; Springstein, Matthias; Kristen, Maximilian; Müller-Budack, Eric; Schneider, Stefanie; Entrup, Elias; Kohle, Hubertus; Krestel, Ralf; Ewerth, Ralph |
18:00 - 20:00 | Eröffnung Konferenz: Eröffnungskeynote und anschließender Abendempfang Ort: Universitätshauptgebäude Audimax Keynote Speaker: Mark Dingemanse
Mehr Informationen: Übersichtsseite zu den Keynote Speakers |
Datum: Mittwoch, 05.03.2025 | |
8:30 - 19:00 | Öffnungszeiten Digitales Konferenzbüro |
9:00 - 10:30 | Mittwoch 1:1: Forschungsdatenmanagement Ort: HSBI D1 Chair der Sitzung: Ulrike Wuttke, Fachhochschule Potsdam |
|
"Das ist nicht in unserer Verantwortung" - Strategien zur nachhaltigen Bereitstellung lebender Systeme Data Center for the Humanities (DCH), Universität zu Köln, Deutschland In diesem Beitrag werden die Herausforderungen im nachhaltigen Umgang mit lebenden Systemen und Ressourcen diskutiert und mit bereits bestehenden Strategien sowie ihrer Schwachstellen kritisch in Bezug gesetzt. Dabei wird ein neuer Ansatz vor dem Hintergrund verschiedener Verantwortungen unterschiedlicher Stakeholder, die im Prozess der Planung, Entwicklung und Bereitstellung von lebenden Systemen eine Rolle spielen – Forschende, Drittmittelgeber, Datenzentren und Bibliotheken –, sowie Möglichkeiten der Orchestrierung ebenjener Stakeholder, vorgestellt. Gute Planung ist die halbe Miete? - Nutzung und Nutzen von Datenmanagementplänen in geisteswissenschaftlichen Forschungsvorhaben Data Center for the Humanities (DCH), Universität zu Köln, Deutschland Immer häufiger sind Datenmanagementpläne Voraussetzung für die erfolgreiche Einwerbung von Drittmitteln und entsprechende Drittmittelgeber erwarten zunehmend im Rahmen einer Antragseinreichung die Nutzung von Datenmanagementplänen durch die antragsstellenden Forschenden. Sie sollten entsprechend auch im Rahmen geisteswissenschaftlicher Forschungsvorhaben eine wichtige Rolle spielen, schließlich gilt es vor allem innerhalb der Geisteswissenschaften Forschungsdaten und -ergebnisse i.S.d. Bewahrung des kulturellen Erbes langfristig zu sichern. Inwieweit DMPs im Rahmen von geisteswissenschaftlichen Forschungsvorhaben genutzt werden, ist allerdings unklar. Außerdem ist weitestgehend ungeklärt, ob die Nutzung von Datenmanagementplänen im Rahmen von Forschungsvorhaben überhaupt die FAIRness entstandener Forschungsergebnisse verbessert oder befördert. In diesem Vortrag stellen wir Ergebnisse einer quantitativen Umfrage zum Umgang mit und Nutzen von Datenmanagementplänen in geisteswissenschaftlichen Forschungsvorhaben vor, um so ein klareres Bild von der Rolle und Bedeutung von DMPs in der geisteswissenschaftlichen Forschung zu zeichnen. Wissensspeicher, Projektmodell, Organisationstalent oder Schwarzes Loch - GitLab als Management-Tool für DH-Projekte Bergische Universität Wuppertal, Deutschland Im Beitrag soll durch einen reflektierenden Werkstattbericht untersucht werden, welche Rolle Infrastruktur-Software und -Werkzeuge wie GitLab für DH-Projekte spielen und welchen Einfluss sie – als Projektmananagment-Tool eingesetzt – auf das eigene und das kollaborative Arbeiten in Teams mit geisteswissenschaftlichem Schwerpunkt haben können. Aus der Beobachtung heraus werden abschließend einige Ansätze für Strategien und Best Practices vorgestellt, mit denen einer unsachgemäßen oder missbräuchlichen Nutzung solcher Werkzeuge vorgebeugt werden kann. |
9:00 - 10:30 | Mittwoch 1:2: CLS Analyse Ort: HSBI D3 Chair der Sitzung: Janina Jacke, Christian-Albrechts-Universität zu Kiel |
|
Wikipedia als Hallraum der Kanonizität: »1001 Books You Must Read Before You Die« Freie Universität Berlin, Deutschland Wikipedia-Sitelinks, auch bekannt als Interwikilinks, verknüpfen Artikel über verschiedene Sprachversionen hinweg und ermöglichen so einen einfachen Wechsel zwischen unterschiedlichen Spracheinträgen. Die Anzahl der Sitelinks wurde zuletzt als einfache Metrik für die Bestimmung der Kanonizität von literarischen Werken vorgeschlagen (Robinson 2017; Kukkonen 2020; Fischer et al. 2023). Dieser Beitrag operationalisiert diese Idee bezüglich eines spezifischen Kanonprojekts und stellt außerdem den QRank vor, eine Metrik, die Seitenaufrufe über verschiedene Wikimedia-Projekte hinweg zusammenfasst, um Entitäten zu bewerten. Es zeigt sich, dass Wikipedia tatsächlich hilfreich ist bei der Bewertung von Kanonizität. Mit dem gleichzeitig veröffentlichten Code kann diese Methode auch auf andere Kanones angewednet werden. Qualitative Genre-Profile und distinktive Wörter: Eine Studie zu Keyness in Subgenres des französischen Romans Universität Trier, Deutschland Das Rahmenthema der DHd-Tagung 2025, „Under Construction”, lädt 2025 dazu ein, Daten- und Methoden kritisch zu hinterfragen. Im Trierer Projekt Beyond Words beleuchten wir verschiedene statistische Maße zur Extraktion distinktiver Wörter, mit dem Ziel, mehr über ihre Eigenschaften und ihren Nutzen im Methodenstrauß der Digital Humanities zu erfahren und in unserem Python-Paket ‘pydistinto’ für interessierte Forschende bereitzustellen. In der vorliegenden Studie wenden wir drei verschiedenen Keyness-Maße auf Subgenres des französischen Romans an und untersuchen insbesondere ein Matching zwischen qualitativ erstellten Genre-Profilen und automatisiert extrahierten distinktiven Wortlisten. »999 und noch etliche [mehr]«. Georg Nikolaus Bärmanns Würfel-Almanach von 1829 als Web-App Freie Universität Berlin, Deutschland In diesem Beitrag wird ein Literaturautomat (1829) beschrieben, der über 4 × 10^155 Einakter generieren kann, was die Anzahl der Atome im Universum weit übersteigt. Die 1200 Textfragmente, die als Quelle für den Generator dienen, sind in dem Band »Neunhundert neun und neunzig und noch etliche Almanachs-Lustspiele durch den Würfel« abgedruckt und dort zufällig angeordnet. In 200 Würfen wird mithilfe einer Tabelle ein Einakter generiert. Einakter des 18. und frühen 19. Jahrhunderts waren zu ihrer Zeit populär, sind von der Forschung bisher aber weitgehend unbeachtet geblieben. Georg Nikolaus Bärmann bezieht sich mit seinem ironischen, aber eben auch sehr konkreten Projekt auf den hohen Bedarf an solchen Stücken, als er diesen gedruckten Einaktergenerator entwickelte, der laut Deckblatt Einakter für 133 Jahre produzieren kann. Der Beitrag beschreibt die mehrstufige Digitalisierung dieses Werks und die Entwicklung einer Webanwendung, die es ermöglicht, das analoge Spiel in einer digitalen Umgebung genauer in den Blick zu nehmen. |
9:00 - 10:30 | Mittwoch 1:3: Doctoral Consortium I Ort: HSBI B3 Chair der Sitzung: Frederik Elwert, Ruhr-Universität Bochum |
|
Wie funktionierte moderne Alltagsmobilität vor dem Automobil? Agentenbasierte Modellierung des Wandels von Mobilitätspraktiken im Berliner ‚built environment‘ der Zwischenkriegsjahre (ca. 1920-1930) Humboldt-Universität zu Berlin | NFDI4Memory, Deutschland Automatische Erkennung und Kategorisierung von Syllogismusdiagrammen in de interpretatione Handschriften des byzantinischen Mittelalters Karlsruher Institut für Technologie, Deutschland |
9:00 - 10:30 | Mittwoch 1:P: Panel 1 Ort: HSBI E3 |
|
Gender (under) construction: Daten und Diversität im Kontext digitaler Literaturwissenschaft 1Martin-Luther-University Halle-Wittenberg, Deutschland; 2Österreichische Akademie der Wissenschaften Wien, Austrian Centre for Digital Humanities and Cultural Heritage, Abteilung Literatur- und Textwissenschaft; 3Universität Stuttgart / Universität Regensburg; 4FU Berlin / Österreichische Akademie der Wissenschaften, Wien; 5Akademie der Wissenschaften und der Literatur, Mainz; 6Österreichische Nationalbibliothek, Wien; 7Berlin-Brandenburgische Akademie der Wissenschaften, Berlin Die sogenannte Gender Data Gap wirkt sich in mehrfacher Hinsicht auf digitale literaturwissenschaftliche Forschungsvorhaben aus: Historische Ungleichheiten in Bezug auf Gender zeigen sich nicht nur in literarischen Texten selbst, sondern auch auf der Ebene von Quellen, Textkorpora und Metadaten. Da eine systematische Betrachtung und Erfassung von Geschlechterverhältnissen in digital ausgerichteten literaturwissenschaftlichen Projekten bislang kaum erfolgt ist, widmet sich das Panel der Auseinandersetzung von Konstruktion, Repräsentation und Erfassbarkeit von Gender in der digitalen Literaturwissenschaft. In Bezug auf das Thema der Tagung „Under Construction. Geisteswissenschaften und Data Humanities“ erörtert das Panel gemeinsam mit Expert*innen, die sowohl Forschungs- als auch Infrastrukturprojekte vertreten, mit welchen Maßnahmen der beobachtete Status quo verbessert werden könnte. Durch eine kritische Reflexion will das Panel aufzeigen, wie digitale Methoden und feministische Theorien synergetisch zusammenwirken könnten, um ein Zukunftsszenario zu entwerfen, das eine angemessene Berücksichtigung von Gender in Aussicht stellt. |
10:30 - 11:00 | Kaffeepause |
11:00 - 12:30 | Mittwoch 2:1: Large Language Models I Ort: HSBI D3 Chair der Sitzung: Axel Pichler, Universität Wien |
|
Möglichkeiten und Grenzen der KI-gestützten Annotation am Beispiel von Emotionen in Lyrik 1Universität Göttingen, Deutschland; 2Universität Würzburg, Deutschland Können sehr große Sprachmodelle wie ChatGPT, Gemini und Claude via Zero-Shot- oder Few-Shot Prompting für Annotationen in den DH verwendet werden, um Finetuning-Modelle abzulösen? Die Studie zeigt anhand des Beispiels der Emotionsannotation von Lyrik eine starke Varianz über die Emotionskategorien: In wenigen Fällen wird das Niveau von Finetuning-Modellen erreicht, in anderen bleiben die großen Sprachmodelle deutlich darunter. Beispiele im Prompt steigern die Performanz. Auch wenn die Sprachmodelle ständig verbessert werden, wird man daher wohl auf absehbare Zeit nicht ohne die Entwicklung von Annotationsguidelines und die Annotation von ausreichend Testdaten auskommen. Literary Metaphor Detection with LLM Fine-Tuning and Few-Shot Learning Trier Center for Digital Humanities (TCDH), Universität Trier, Deutschland Although there is ample research on natural language metaphor detection, the field of literary metaphor detection is understudied. This paper draws on four English-language datasets and results of Kesarwani et al. (2017), who used traditional machine learning approaches, and shows that Large Language Model (LLM) fine-tuning and few-shot learning with SetFit significantly increases metaphor detection performance in three out of four considered datasets. Eine Vorstudie zur Eignung von Llama 3-8B für eine Sentimentanalyse Leibniz-Institut für Deutsche Sprache, Deutschland Dieser Beitrag präsentiert eine Vorstudie, in der geprüft wird, ob sich die Open Source Generative Künstliche Intelligenz Llama-3-8B Q4_0 instruction-tuned dazu eignet, eine Sentimentanalyse durchzuführen. Für die Untersuchung wird ein kleiner Datensatz aus Anfragen zu geschlechtergerechten Schreibung genutzt. Die Qualität der automatischen Annotationen wird gemessen, indem das Inter-Annotator-Agreement zwischen Llama 3 und drei menschlichen Annotierenden berechnet wird. Eine qualitative Analyse der Begründungen von Llama 3 für vergebene Sentimentwerte, die von denen der manuellen Annotationen abweichen, zeigt, dass die Generative Künstliche Intelligenz dazu genutzt werden kann, Annotationsrichtlinien aufzustellen oder zu verfeinern. Allerdings kann die Vorstudie nicht zeigen, dass sich Llama 3 für eine Sentimentanalyse eignet. |
11:00 - 12:30 | Mittwoch 2:2: Metareflexion Ort: HSBI D1 Chair der Sitzung: Mareike Schumacher, Universität Regensburg |
|
Die Zukunft der Digital Humanities: Mehr als nur “Humanities”? Computational Humanities, Universität Leipzig In diesem Beitrag wird zunächst die Rolle der Informatik als Querschnittsdisziplin zwischen Naturwissenschaften und Geisteswissenschaften diskutiert. Ich argumentiere, dass durch eine allgemeine computational literacy beide Wissenschaftskulturen (vgl. Snow, 1959) in die Lage versetzt werden, gemeinsame Forschungsprojekte zu unternehmen. Ich zeige verschiedene Beispiele für die erfolgreiche Synthese von Informatik, Literaturwissenschaft und Biologie auf und gehe der Frage nach, ob solche multidisziplinären Unterfangen die Zukunft unseres Fachs darstellen könnten. Applied Digital Humanities: Calling for a more engaged Digital Humanities Friedrich Alexander Universität (FAU) Erlangen-Nürnberg, Deutschland When the Russian Federation attacked Ukraine in February 2022, a handful of Digital Humanities scholars were quick to react. Anna Kijas, Quinn Dombrowski, and Sebastian Majstorovic launched the Saving Ukrainian Cultural Heritage Online volunteer initiative (SUCHO). Soon SUCHO would connect over 1,500 volunteers and save over 51 TB of data constituting contemporary Ukrainian online cultural heritage. Later, they would also sent equipment to various institutions in Ukraine, including archives and museums. The humanitarian impact of this initiative is hard to overstate and it motivates to think about the nature and purposes of Digital Humanities. In this paper we want to call for an Applied Digital Humanities – a Digital Humanities research that emphasizes its humanities perspective; it is research with a humanities purpose, aiming to tackle real-world challenges by drawing on innovative digital methods and approaches. Operationalizing operationalizing TU-Darmstadt, Deutschland In this paper we suggest a comprehensive account of operationalization. The goal is to define a workflow which specifies the normative components that ensure that the results match the research question. In order to make the workflow implementable in Digital Humanities research, we need to identify the components of a generalized method for getting from a research question to its answer. While some of the components have already been discussed in Digital Humanities’ research on operationalization, we propose to put more focus on explication, measurement, and validation. |
11:00 - 12:30 | Mittwoch 2:3: Doctoral Consortium II Ort: HSBI B3 Chair der Sitzung: Lina Franken, Universität Vechta |
|
Von Heimat zu Beheimatung: Visuelle Exploration und Sekundäranalyse von lebensgeschichtlichen Interviewsammlungen FU Hagen, Deutschland Netzwerkanalyse von Erwähnungen der Persönlichkeiten in der russischen Ideengeschichte Freie Universität Berlin, Deutschland Digitale Erforschung von Historiographie: Untersuchungen zur Kirchengeschichtsschreibung im wilhelminischen Kaiserreich Theologische Fakultät, Georg-August-Universität Göttingen, Deutschland |
11:00 - 12:30 | Mittwoch 2:P: Panel 2 Ort: HSBI E3 |
|
Normdaten zu Texten und philologisches Wissen 1Klassik Stiftung Weimar, Deutschland; 2Philipps-Universität Marburg, Deutschland / Johannes-Gutenberg-Universität Mainz, Deutschland; 3Alpen-Adria-Universität Klagenfurt, Österreich; 4Niedersächsische Staats- und Universitätsbibliothek Göttingen, Deutschland; 5Deutsche Nationalbibliothek, Leipzig, Deutschland Die Referenz auf Werke und die Verzeichnung von Werktiteln spielen für Praktiken der Bedeutungszuschreibung und Wissenserzeugung seit jeher eine zentrale Rolle. Auf Ebene menschen- und maschinenlesbarer Daten haben sich Normdaten als Vehikel von Intertextualität etabliert und gewinnen im Rahmen des NFDI-Prozesses nochmals an Bedeutung. Für komplexe Wissensgraphen zur Repräsentation fachwissenschaftlicher Erkenntnisse und Wissensbestände stehen Werknormdaten jedoch nicht in ausreichendem Umfang zur Verfügung. Das Panel diskutiert, wie dieser Mangel behoben werden kann, und adressiert dabei die vielfältigen damit verbundenen Problemlagen, darunter divergierende Intentionen und Perspektiven auf die Qualifikation als Werk, Fragen der Relevanz und Eignung oder technisch-institutionelle Hürden und konkurrierende Interessen (z.B. GND vs. Wikidata). Vertreter:innen aus Literaturwissenschaft, Editionsphilologie, NFDI-Text+, GND und Forschungsbibliotheken stellen sich diesen Herausforderungen, um ein gegenseitiges Verständnis zu fördern und den zukünftigen Aufwuchs von Normdaten zu Texten in methodisch reflektierte und technologisch nachhaltige Bahnen zu lenken. |
12:30 - 14:00 | Chorprobe Ort: HSBI Theaterraum |
12:30 - 14:00 | Mittagspause |
12:45 - 13:15 | Führung durch den BITS Space Ort: BITS Space |
12:45 - 13:45 | Campusführung Ort: Treffpunkt: Haupteingang Universität |
13:15 - 13:45 | Führung durch den BITS Space Ort: BITS Space |
14:00 - 15:30 | Mittwoch 3:1: Large Language Models II Ort: HSBI D3 Chair der Sitzung: Gerrit Brüning, Klassik Stiftung Weimar |
|
Large Language Models im Archiv: Prompt-Engineering für Archivar:innen 1Universität Münster, Deutschland; 2LWL-Archivamt für Westfalen, Münster, Deutschland Ein wesentlicher Schritt in der Erschließung von Archivalien besteht in der Erfassung und Anreicherung von archivischen Metadaten, die in Textform vorliegen. Mit der Entwicklung von generativen großen Sprachmodellen (Large Language Models, LLMs) sind auch begründete Hoffnungen entstanden, große Teile solcher Textarbeit automatisieren zu können. Dabei ist es von Vorteil, dass LLMs sich neben der Textgenerierung auch für viele andere Aufgaben des Natural Language Processing als geeignet erwiesen haben. In diesem Artikel geben wir einen Überblick über die möglichen Anwendungen von LLMs in der Archivarbeit und demonstrieren am Beispiel der Erstellung von Findbucheinleitungen, wie dies konkret durchgeführt werden kann. Wir optimieren die Ergebnisse durch Prompt Engineering und reevaluieren diese: Was kann auf diese Weise erreicht werden, welche Grenzen bleiben bestehen. Empirische Evaluation des Verhaltens von LLMs auf Basis sprachphilosophischer Theorien: Methode und Pilotannotationen 1Universität Wien, Österreich; 2Technische Universität, Darmstadt; 3Universität zu Köln, Deutschland Die zunehmende Verwendung großer Sprachmodelle (LLMs) hat zu einer intensiven Debatte über ihre Fähigkeit geführt, sprachliches Verstehen zu simulieren. Dieses Abstract trägt zu dieser Diskussion bei, indem es eine Methode zur Generierung von Testdatensätzen vorstellt, die auf spezifischen Sprachtheorien basieren. Diese Methode ermöglicht die Bewertung, inwieweit das Verhalten eines LLMs mit dem eines kompetenten Sprechers übereinstimmt, wie er von der zugrunde liegenden Sprachtheorie definiert wird. Die Methode wird exemplarisch anhand der Sprachphilosophie von Donald Davidson erläutert. Durch die Erstellung eines Datensatzes, der zentralen theoretischen Prinzipien einer Sprachtheorie widerspiegelt, können wir das Verhalten von LLMs in verschiedenen Sprachkontexten untersuchen und beurteilen. Diese Arbeit leistet einen Beitrag zur methodischen und theoretischen Analyse der Fähigkeiten von LLMs und bietet ein Werkzeug zur Evaluierung ihrer sprachlichen Kompetenz. Der Einfluss von AI-Pair-Programmers auf die Digital Humanities: Potentiale und Limitationen Universität Graz, Österreich Das Proposal soll die Transformation der Digital Humanities (DH) durch KI-gestützte Programmiertools wie GitHub Copilot beleuchten: Besonders jene Bereiche der DH, die sich mit Software- und Webentwicklung befassen, profitieren von diesen Tools. Sie automatisieren Aufgaben wie Codevervollständigung, Dokumentation und Debugging, was die Effizienz der Softwareentwicklung in den DH erheblich steigert. Dies ermöglicht Forschenden, sich ein tieferes Verständnis ihres Problems anzueignen. Allerdings bestehen Herausforderungen wie Abhängigkeit von kommerziellen Anbietern, technische Kompatibilitätsprobleme und die Gefahr der Fehler- und Biasreproduktion durch KI. Die Integration von Open-Source-Lösungen könnte eine Alternative darstellen, erfordert jedoch intensive Auseinandersetzung und Expertise. Zudem wirft die Integration von KI-Assistenten Fragen zur zukünftigen Rolle menschlicher Programmierer und zur Qualitätssicherung in den DH auf. Eine sorgfältige Abwägung der Potenziale und Risiken ist erforderlich, um die langfristigen Auswirkungen auf die DH zu bewerten. |
14:00 - 15:30 | Mittwoch 3:2: Normdaten Ort: HSBI D1 Chair der Sitzung: Peter Leinen, Deutsche Nationalbibliothek |
|
Ein Baukasten für handschriftenkundliches Vokabular. Thesauri und Fachbegriffe im Handschriftenportal 1Staatsbibliothek zu Berlin - Preußischer Kulturbesitz, Deutschland; 2Herzog August Bibliothek Wolfenbüttel; 3Universitätsbibliothek Leipzig; 4Bayerische Staatsbibliothek München Das Handschriftenportal, das zentrale Nachweisinstrument für Buchhandschriften aus deutschen Sammlungen, aggregiert Handschriftenkatalogisate, die sich hinsichtlich ihrer fachlichen Ausrichtung, ihres Differenziertheitsgrades sowie ihrer Entstehungszeit deutlich unterscheiden. Um eine leistungsstarke übergreifende Recherche innerhalb dieser heterogenen Daten zu gewährleisten, wurde im Projekt ein Konzept für domänenspezifische normierte Fachvokabulare ausgearbeitet. Dabei stehen klassische, hierarchisch organisierte Thesauri neben komplexen, ontologiebasiert modellierten Fachbegriffen. Dieses methodische Vorgehen erlaubt eine flexible Fokussierung auf kleinteilige Details ebenso wie eine niedrigschwellige Verwendung von etablierten Fachtermini - eine zentrale Voraussetzung für die Akzeptanz des Portals in den Fachcommunities. Von der Implementierung profitieren sowohl die Recherchefunktionalitäten als auch die Erfassung neuer Katalogisate im Handschriftenportal. Perspektivisch müssen die normierten Fachvokabulare dauerhaft redaktionell gepflegt sowie laufend an Entwicklungen der Forschung unter Einbeziehung der wissenschaftlichen Communities angepasst werden. Zudem sollen sie als Linked Open Data publiziert und damit auch über den Portalkontext hinaus für andere Digital Humanities-Forschungsszenarien nachnutzbar gemacht werden. Kontrollierte Vokabulare, Thesauri, Klassifikationen, Normdaten? Historisches Datenzentrum Sachsen-Anhalt, Martin-Luther-Universität Halle-Wittenberg Schon jetzt werden in einer Vielzahl von Forschungsprojekten der Geschichtswissenschaften direkt oder indirekt kontrollierte Vokabulare erstellt. Viele sind den Forschenden, für die sie nützlich sein könnten, jedoch nicht bekannt oder für sie nicht auffindbar. Wir wollen in diesem Vortrag unseren Lösungsansatz, das Register R:hovono vorstellen. Dieses soll einen Überblick über die in der historisch arbeitenden Community relevanten Vokabulare geben. Vorgehen, Methodik und Ergebnis werden dargestellt und diskutiert. |
14:00 - 15:30 | Mittwoch 3:3: Doctoral Consortium III Ort: HSBI B2 Chair der Sitzung: Julian Schröter, LMU München |
|
אױפֿהיטן די ווערטער: Übersetzung und Digitalisierung der jiddischen Zeitschrift „Der Wahre Jude" Universität Wien Interdisziplinäre transkulturelle Analyse von Mensch-KI Interaktionen in Science-Fiction Literatur und im politischen Diskurs Trinity College Dublin, Irland, Republik |
14:00 - 15:30 | Mittwoch 3:P: Panel 3 Ort: HSBI E3 |
|
Critical AI in der Digitalen Editorik 1University of Texas at Austin, USA; 2Universität Wien, Österreich; 3Akademie der Wissenschaften und der Literatur Mainz, Deutschland; 4Bergische Universität Wuppertal, Deutschland; 5Universität Graz, Österreich Mit der gegenwärtig rapide fortschreitenden Entwicklung von KI-Technologien ergeben sich nicht nur neue Möglichkeiten, sondern auch Herausforderungen für die Theorie, Praxis, Konzeption, Aufgabenstellung und Rezeption digitaler Editionen. Auf verschiedenen Ebenen der Erstellung von digitalen Editionen hat KI bereits Einzug in den Workflow-Alltag gehalten (NER, semantische Erschließung, HTR), auf anderen sind teils grundlegende Fragen ungeklärt (z.B. XAI, Reproduzierbarkeit, Fehlerquellen, Training-Bias und FAIRness, Urheberrechtsfragen, ökologische Fragestellungen, Attribuierbarkeit und Nachhaltigkeit von KI). Das vorgeschlagene Panel versammelt Spezialist:innen für digitale Edition im deutschsprachigen Raum, um in einen Austausch über die Chancen, Entwicklungen und Herausforderungen von KI in der digitalen Edition und Editionswissenschaft einzuleiten. Teilnehmende am Panel: Prof. Dr. Tara Andrews (Wien), Prof. Dr. Thorsten Ries (Austin, TX; aus Dienstgründen: Online; AG germanistische Edition, Kommission für DH), Lisa Rosendahl M.A. M.A. (Mainz), Prof. Dr. Patrick Sahle (Wuppertal, IDE), Prof. Dr. Gabriel Viehhauser (Wien, AG germanistische Edition, Kommission für DH), Prof. Dr. Georg Vogeler (Graz, IDE). |
15:30 - 16:00 | Kaffeepause |
16:00 - 17:30 | Mitgliederversammlung DHd e.V. Ort: HSBI Audimax |
18:30 - 19:30 | Tanztheater UNDER CONSTRUCTION. A Physical Lecture Ort: Universitätshauptgebäude H15 |
Datum: Donnerstag, 06.03.2025 | |
8:30 - 19:00 | Öffnungszeiten Digitales Konferenzbüro |
9:00 - 10:30 | Donnerstag 1:1: Editionen I Ort: HSBI C4 Chair der Sitzung: Georg Vogeler, Universität Graz |
|
Zum Aufbau digitaler Dramenkorpora. OCR4alltoDraCorTEI als Baustein für die Edition von maschinenlesbaren Versionen historischer Dramendrucke Julius-Maximilians-Universität Würzburg, Deutschland Die verfügbaren digitalisierten Dramenkorpora spiegeln Verzerrungen der Dramengeschichtsschreibung der letzten Jahrzehnte wider. Für die Dramengeschichte des 17.-19. Jahrhunderts fehlen besonders Libretti, populäre Komödien, Dramen von Frauen und Übersetzungen, obwohl diese zahlreich und einflussreich waren. Um Korpora für die Computational Literary Studies (CLS) valide zu erweitern und die historische Diversität besser abzubilden, sollten in Zukunft zahlreiche historische Dramentexte volltextdigitalisiert werden. Herausforderungen sind dabei die Frakturschrift und Druckbesonderheiten. Derzeit fehlt es sowohl an einheitlichen Editionsrichtlinien als auch an Skripten zur Konvertierung von OCR-Software zu DraCorTEI. Im Beitrag werden Vorschläge für editorische Richtlinien und zur Digitalisierung mit der freien Software OCR4all gemacht. Zudem wird ein Open Access Python-Skript vorgestellt, das Dramen, die mit OCR4all ausgezeichnet wurden, in DraCorTEI umwandelt. Korpus 4.0 - Ein innovativer Workflow zur Erstellung eines Korpus wissenschaftlicher Texte Universitäts- und Landesbibliothek Darmstadt, Deutschland Im Rahmen des DFG-geförderten Projekts Workflow Digitale Medien arbeitet die Universitäts- und Landesbibliothek Darmstadt daran, ein Korpus aus wissenschaftlicher Open-Access-Literatur in einem einheitlich strukturierten TEI/XML-Format über frei zugängliche Schnittstellen bereitzustellen. Forschende sollen die Möglichkeit erhalten, alle Arten wissenschaftlicher Dokumente, zum Beispiel Zeitschriftenartikel, E-Books oder Konferenzbände, in großen Mengen über diese Schnittstellen abzurufen, um sie anschließend beispielsweise für Text- und Data-Mining-Analysen nutzen zu können. Zusätzlich zu den Texten werden alle für den Workflow entwickelten Konzepte und Skripte Open Source zur Verfügung gestellt, um deren Nachnutzbarkeit zu gewährleisten. Im vorliegenden Vortrag wird ein Überblick über den Workflow, die Datengrundlage und Zugriffsmöglichkeiten sowie den aktuellen Entwicklungsstand des Projekts gegeben. Der texgenetische Apparat in der digitalen Edition – eine Zukunftsvision, die technisch machbar ist Universität Bern, Schweiz / Forschungsstelle Jeremias Gotthelf Anders als bei den gedruckten Ausgaben messen digitale Editionen Neuerer deutscher Literatur den Mikroprozessen der Textentstehung zumeist keine zentrale Bedeutung zu. Eine entsprechende Ansicht ist die große Ausnahme unter den bestehenden neugermanistischen Online-Editionsprojekten. Die verfügbaren Textansichten sind in der Regel mimetisch-diplomatisch und erlauben es oft nicht, die mikrogenetischen Vorgänge in den Manuskripten lückenlos nachzuvollziehen. Mit der neuen digitalen Gotthelf-Gesamtausgabe, die im Frühjahr 2025 online geht, wird eine Edition vorgestellt, die das philologische Potenzial der digitalen Editorik ausschöpft und den textgenetischen Apparat vollständig oder variabel direkt an den betreffenden Stellen im edierten Text sichtbar macht. |
9:00 - 10:30 | Donnerstag 1:2: CLS Methoden I Ort: HSBI D3 Chair der Sitzung: Nora Ketschik, Universität Stuttgart |
|
Zur Modellierung von Unsicherheit: Machine Learning und begriffliche Vagheit am Beispiel der Novellen im 19. Jahrhundert LMU München, Deutschland Der Vortrag bietet einen neuen Ansatz, um begriffliche Vagheit im Rahmen maschinellen Lernens zu modellieren. Hierfür werden drei zentrale Ideen zusammengeführt: (a) die perspektivische Modellierung nach Ted Underwood, (b) die Berücksichtigung von Unentscheidbarkeit im Sinn der Prototypentheorie, und (c) die Modellierung prototypentheoretischer Vagheit im Rahmen eines spezifischen Accuracy Scores (C@1-Score), der Unentschiedenheit oder Unentscheidbarkeit berücksichtigt. Die Modellierung von Unsicherheit im Rahmen von Kategorisierung ist zugleich eines der zentralen gegenwärtigen Probleme im Feld des maschinellen Lernens. Der Beitrag möchte daher auch zu einer domänenspezifischen Lösung dieses Problems beitragen, die abschließend durch Optionen der Triangulation und Evaluation gestützt wird. Diskutiert wird das entwickelte Verfahren einschließlich neuer Projektionsmethoden für prototypentheoretische Vagheit am Beispiel eines neu aufgebauten Korpus zur Erzählprosa des 19. Jahrhunderts. Auf diese Weise werden auch neue Belege für die relative Offenheit des historischen Novellenbegriffs geliefert. Die deutschsprachige Kurzgeschichte nach 1945. Skizze einer hypothesen-geleiteten Operationalisierung. Universität Wien, Österreich Das Abstract widmet sich der Entwicklung und exemplarischen Vorführung eines theorie- bzw. hypothesen-geleiteten Workflows zur Operationalisierung literaturwissenschaftlicher Begriffe. Dabei verfolgt es zwei Ziele: Erstens soll en détail gezeigt werden, wie ein komplexes literaturwissenschaftliches Konzept auf eine Art und Weise operationalisiert werden kann, welche die Rückführung der auf seiner Basis erzielten Messresultate in die nicht-digitale Literaturwissenschaft erlaubt. Im Zuge dessen wird, zweitens, ein gegebenes Top-Down-Operationalisierungskonzept terminologisch und arbeitspraktisch weiter ausdifferenziert. Die beiden Ziele werden exemplarisch anhand der deutschsprachigen Kurzgeschichte nach 1945 bzw. eines Teilmerkmals desselben adressiert. Die methodologisch reflektierte Vorführung durchläuft den gesamten Operationalisierungsablauf vom traditionellen literaturwissenschaftlichen Begriff bis zur Erkennung und Messung desselben mithilfe von großen Sprachmodellen. Pause im Text. Zur Exploration semantisch konditionierter Sprechpausen in Hörbüchern 1TU Darmstadt, Deutschland; 2Universität Hamburg In diesem Beitrag wird ein alternativer Ansatz der Segmentierung, die Zergliederung von Erzähltexten mittels der in der Rezitation emergenten Sprechpausen diskutiert. Die Anzahl der Pausensetzungen und die Pausenlängen werden hierbei als von den Vortragenden ad hoc oder planmäßig vorgenommene sinnhafte Segmentierungen verstanden. Für unsere Untersuchung haben wir die Sprechfassungen von drei Erzähltexten automatisch transkribiert und dabei zwischen professionellen und Laien-Lesungen unterschieden. Durch die Auswahl der eingesprochenen Texte sollte weiterhin sichergestellt werden, dass Vorträge von Prosatexten mit verschiedenen narrativen Profilen bzw. Charakteristika Gegenstand der Analyse sind. Sollten sich Sprechpausen im Fortgang als geeignete Analyseeinheiten erweisen, könnten unsere Überlegungen einen vielversprechenden Ansatz zur automatischen Textsegmentierung begründen, mit welchem auch narrative Analysen von z. B. Figuren oder Plotstrukturen erfolgen könnte. |
9:00 - 10:30 | Donnerstag 1:3: Digital History I Ort: HSBI D1 Chair der Sitzung: Tara Andrews, Universität Wien |
|
Voll automatisiert die Natur in historischen Reiseberichten erkennen? Entzauberung von KI-Werkzeugen und ihr Nutzen für die Geisteswissenschaften 1AIT Austrian Institute of Technology, Österreich; 2Österreichische Akademie der Wissenschaften, Österreich Der rasante Vormarsch Künstlicher Intelligenz (KI) macht auch vor den Geisteswissenschaften nicht halt. Die vielversprechende Hoffnung lautet, große, digitalisierte Daten-Korpora voll automatisiert zu analysieren und darin Strukturen und Beziehungen mithilfe komplexer statistischer Modellvorhersagen zu erkennen. Doch inwieweit trifft dies zu und können maschinelle Lernmodelle (ML) tatsächlich als unterstützende Werkzeuge für historisch-wissenschaftliche Argumentationsprozesse, auch bei nicht standardisierten, historischen Bildern und Texten, eingesetzt werden? Das Projekt „Ottoman Nature in Travelogues“ (ONiT) untersucht, welche Rolle die westlichen Darstellungen „osmanischer Natur“ in den zwischen 1501 und 1850 gedruckten Reiseberichten spielen. Dafür kommen KI-Werkzeuge zum Einsatz, die einen Distant Reading Zugang zur Beantwortung dieser Forschungsfrage ermöglichen. Unsere vorläufigen Ergebnisse zeigen, dass ML-Modelle eine erhebliche Hilfe zur Erstellung einer ersten Ordnung nach Relevanz von Bild- und Textquellen bieten. Sie zeigen aber auch, dass der Einsatz von KI immer im Bewusstsein der Möglichkeiten und Grenzen der Methodik erfolgen muss. Von Aachen bis Zwickau: Semi-automatische Identifikation und Analyse von Korrespondenzorten in der historischen “Wiener Zeitung” Austrian Centre for Digital Humanities and Cultural Heritage, Österreichische Akademie der Wissenschaften Der Vortrag diskutiert auf Basis eines Datensets von über 800 Ausgaben der historischen „Wiener Zeitung“ aus dem Zeitraum des Siebenjährigen Kriegs (1756-1763), wie sogenannte ‚Korrespondenzköpfe‘, d.h. Angaben von Herkunftsort und Absendedatum abgedruckter Nachrichten, über digitale Methoden (semi-)automatisch identifiziert und analysiert werden können. Hierfür wird eine Kombination automatischer Ansätze (u.a. Layoutanalyse, Automated Text Recognition, Named Entity Linking, GIS) und manueller Schritte eingesetzt, mithilfe derer über 10.000 Korrespondenzköpfe erkannt, normalisiert, geokodiert und ausgewertet werden. Die Ergebnisse zeigen, dass das „Wienerische Diarium“ zwischen 1756 und 1763 Meldungen aus über 1.000 verschiedenen Korrespondenzorten enthielt, mit einer besonders dichten Berichterstattung aus London, Paris, Dresden und Den Haag. Außerdem bietet die Analyse unter anderem Einblicke in die Dichte des Korrespondenznetzwerks der historischen Zeitung, die Anzahl und Länge ihrer abgedruckter Meldungen im Verlaufe des Siebenjährigen Kriegs und die durchschnittliche Reisegeschwindigkeit frühneuzeitlicher Nachrichten. Historische Textnormalisierung: Herausforderungen und Potentiale von Deep Learning 1Julius-Maximilians-Universität Würzburg, Deutschland; 2Berlin-Brandenburgische Akademie der Wissenschaften Historische Dokumente bergen Herausforderungen für die Digital Humanities, da ältere Texte in ihrer Rechtschreibung von der modernen Standardsprache abweichen. Das erschwert die Nutzung und Verarbeitung solcher Texte, z. B. bei Volltextsuche oder Natural Language Processing. Eine Lösung bietet die automatisierte historische Textnormalisierung, die historische Schreibweisen in moderne Standardschreibung übersetzt. Dieser Beitrag untersucht das Potential moderner NLP-Methodik auf Basis von Machine Learning und Transformer-Modellen für die historische Textnormalisierung, und vergleicht diese in einer Fallstudie mit CAB, dem de-facto Standard-Tool für deutsche Textnormalisierung. Damit werden die aktuellen Möglichkeiten und Grenzen automatischer Textnormalisierung aufgezeigt, besonders im Hinblick auf die Bereitstellung von offen zugänglichen Modellen. |
9:00 - 10:30 | Donnerstag 1:P: Panel 4 Ort: HSBI E3 |
|
Herausforderungen und Perspektiven von 3D Daten in öffentlichen Repositorien: Findbarkeit, Wiederverwendbarkeit und Metadaten 1Friedrich-Schiller-Universität Jena, Deutschland; 2Hochschule Mainz; 3Sächsische Landesbibliothek – Staats- und Universitätsbibliothek Dresden (SLUB); 4Technische Informationsbibliothek (TIB) Hannover Öffentlich zugängliche Repositorien für 3D-Modelle stehen vor der Herausforderung, große Datenmengen effizient zu speichern und zugänglich zu machen. Aktuell sind noch immer viele Modelle lokal gespeichert und schwer auffindbar. Die Auffindbarkeit hängt stark von Metadaten ab, die derzeit meist manuell erstellt werden. Initiativen wie der DFG 3D-Viewer arbeien daran, Metadatenstandards zu vereinheitlichen und die Vernetzung deutscher Repositorien zu verbessern. Die Benutzerfreundlichkeit und die Einbindung von Community-Inhalten sind entscheidend für den Erfolg für solche Ansätze der Agregation von 3D-Modellen und Metadaten. Auf dem vorgeschlagenen Pannel wollen wir die Themen diskutieren, um die Standardisierung und Vernetzung von 3D-Daten voranzutreiben. Vertreter von verschiedenen Repositorien und Infrastrukturen werden über aktuelle Entwicklungen und Herausforderungen sprechen, um Perspektiven für eine bessere Integration und Nutzung von 3D-Modelldaten zu bieten. |
10:30 - 11:00 | Kaffeepause |
11:00 - 12:30 | Donnerstag 2:1: Editionen II Ort: HSBI C4 Chair der Sitzung: Patrick Sahle, Bergische Universität Wuppertal |
|
Explicitly Notated Citations TH Mittelhessen, University of Applied Sciences Die Zitierfähigkeit in digitalen Editionen ist eine zentrale Herausforderung der modernen Wissenschaft, die sich aus der Unbeständigkeit von URLs und der Schwierigkeit der präzisen Zitation spezifischer Textabschnitte ergibt. Dieses Paper führt die Methode der Explicitly Notated Citations (ENC) ein, welche auf der Technologie Applied Text as Graph (ATAG) basiert. Durch die Verwendung einzigartiger Identifikatoren ermöglicht ENC die Erstellung dynamischer, flexibler und präziser Zitierlinks, die nicht nur auf den Text, sondern auch auf dessen Kontext verweisen. Diese Methode verbessert die wissenschaftliche Genauigkeit und Transparenz, indem sie die Persistenz der Zitierlinks gewährleistet und die Reproduzierbarkeit von zitierten Textansichten unterstützt. Die Innovation von ENC zeigt neue Wege auf, um den Anforderungen digitaler Textarbeit gerecht zu werden und die Integrität wissenschaftlicher Zitate zu sichern. Layout und (Para-)Text: Erprobung hybrider Ansätze und Heuristiken zur Erforschung von Werkausgaben des 18. Jahrhunderts 1Universität Stuttgart, Deutschland; 2Universität Wien, Österreich; 3Johannes Gutenberg-Universität Mainz, Deutschland Der Buchtypus der Werkausgabe ist ein zentrales Medium des Literaturbetriebs, das für das Selbstverständnis von Autor*innen ebenso bedeutend ist wie für für Leser*innen, Verlage und Bibliotheken. Das Projekt „Scalable Reading von ‚Gesammelten Werken‘ des 18. Jahrhunderts, exemplarisch durchgeführt an Friedrich-von-Hagedorn-Werkausgaben“ untersucht die Ausprägung dieses Buchtypus in seiner Entstehungszeit in einer interdisziplinären Verbindung von quantitativen und qualitativen Zugängen. Dazu wird zunächst mit digitalen Verfahren die Zusammensetzung solcher Werkausgaben erschlossen, um dann in einem weiteren Schritt die Änderungen, die sich zwischen den Ausgaben zeigen, in Hinblick auf ihre buchgeschichtliche Relevanz auszuwerten. Der Beitrag widmet sich dem ersten Schritt in diesem Workflow, bei dem eine Taxonomie von Buchteilen erstellt wird und Verfahren der Layouterkennung zur (semi-)automatischen Auszeichnung der einzelnen Ausgaben hinsichtlich dieser Taxonomie erprobt werden. Intentionen der Änderungen: Ein geisteswissenschaftliches Beschreibungsschema für Versionen digitaler Editionen 1Österreichische Nationalbibliothek, Österreich; 2Universität Graz, Österreich Dieser Beitrag verteidigt die These, dass ein Verständnis von Versionen digitaler Ressourcen nur dann gegeben ist, wenn die Änderungen, die zur Version geführt haben, als zielgerichtete Handlungen beschrieben werden. Auf diesem Grundsatz aufbauend wird ein genuin geisteswissenschaftlicher Lösungsvorschlag zur Beschreibung von Änderungen erbracht. Digitale Editionen, die inkrementell publiziert werden, erscheinen in Versionen. Doch was hat sich von der letzten zur aktuellen Version verändert? Gerade bei der kritischer Textarbeit ist es relevant zu wissen, welche Stellen der Edition verändert wurden: geht es um die diplomatische Umschrift, einen Nachweis in der Literatur oder doch die Formatierung des Einleitungskommentars? In jeder fünften digitalen Edition wird eine Änderungsdokumentation in Form von Releasebeschreibungen oder Versionskontrolle angeboten. Für erstere gibt es bisher kein einheitliches, editionsübergreifendes Beschreibungsschema. Bei Zweiterem gibt es zwar ein algorithmisches Beschreibungsschema, aber die auf diese Art erzeugten Beschreibungen sind nur schwer nachvollziehbar. Das hier erstmals präsentierte Beschreibungsmodell löst diese Defizite. |
11:00 - 12:30 | Donnerstag 2:2: CLS Methoden II Ort: HSBI D3 Chair der Sitzung: Ulrike Henny-Krahmer, Universität Rostock |
|
Platinstandard-Annotation in der digitalen Literaturwissenschaft: Definition, Funktionen und diskursive Argumentvisualisierung als Best-Practice-Beispiel Christian-Albrechts-Universität zu Kiel, Deutschland Der Beitrag stellt das Konzept der Platinstandard-Annotation und die Methode ihrer Erstellung vor. Dem Konzept liegt die Idee zugrunde, dass bei der Annotation komplexer literarischer Phänomene mit hermeneutischem Fokus die Qualität der Annotationen anders gewährleistet werden muss als durch einstimmige, mehrheitliche oder durchschnittliche Entscheidung von Annotator:innen – es geht hier um reflektierte und gut begründete Annotation. Die Methode zur Erstellung wird anhand eines Best-Practice-Beispiels vorgestellt: Bei der Annotation unzuverlässigen Erzählens basieren die Annotationen in der Regel auf impliziten und unvollständigen inhaltsspezifizierenden Interpretationen der Texte. Im Projekt CAUTION werden diese Interpretationen und ihre argumentative Stützung mithilfe von Argumentbäumen explizit gemacht und unter den Annotator:innen diskutiert, um Argumentation und Interpretation zu verbessern. Das Ziel ist dabei keine Vereinheitlichung der Annotationen, sondern ihre diskursive Reflexion. Dies resultiert nicht nur in hermeneutisch adäquaten Annotationen, sondern ermöglicht auch interpretationstheoretische und methodische Erkenntnisse. Auf diese Weise können Platinstandard-Annotationen das Repertoire der digitalen Literaturwissenschaft erweitern. Exploring Measures of Distinctiveness: An Evaluation Using Synthetic Texts Universität Trier, Deutschland Measures of distinctiveness are important tools for comparing groups of texts to identify each group's characteristic features. Evaluating these measures is essential to ensure their reliability and predictability. In our research, we applied a new method for evaluating measures of distinctiveness. Our method uses a synthetically generated homogenous text corpus to which we insert an artificial word whose frequency and dispersion are precisely manipulated. This approach allows us to determine each measure's sensitivity to variations in frequency and dispersion. Through our evaluation, we uncovered previously unknown characteristics of these measures. Specifically, we discovered that TF-IDF is more sensitive to dispersion variations than other dispersion-based measures. Moreover, we found that Eta cannot detect a word with a clear dispersion contrast when it has the same frequency in both the target and comparison groups. In our next steps, we aim to explore practical applications of this new knowledge about measures of distinctiveness. Netzwerkanalysen narrativer Texte - ein Vorgehensmodell Universität Stuttgart, Deutschland Die soziale Netzwerkanalyse ist in den Computational Literary Studies als Methode etabliert, mit der insbesondere Figurenbeziehungen in fiktionalen Welten exploriert und analysiert werden. Während Netzwerkanalysen zu dramatischen Texten verbreitet und die Verfahren zur Datenerhebung erprobt sind, wird die Methode nach wie vor nur vereinzelt für die Analyse narrativer Texte verwendet. Das liegt vor allem daran, dass es um ein Vielfaches voraussetzungsreicher ist, die für Netzwerkanalysen benötigten Daten aus narrativen Texten zu extrahieren. Die Komplexität resultiert nicht nur aus Tasks wie Entitätenreferenzerkennung und Koreferenzresolution, sondern auch daraus, dass die Organisation des Erzählten (z.B. auf Erzählebenen) und die Kontexte von Figurennennungen (z.B. Exkurse und Figurenrede) berücksichtigt werden müssen. Der vorliegende Beitrag versucht, diese methodische „Lücke“ zu schließen, indem er ein modulares Vorgehensmodell entwickelt, das verschiedene Aspekte narrativer Texte integriert und geeignet ist, kookkurrenzbasierte Figurennetzwerke aus Erzähltexten zu erstellen. |
11:00 - 12:30 | Donnerstag 2:3: Distant Viewing I Ort: HSBI D1 Chair der Sitzung: Lisa Dieckmann, Universität zu Köln |
|
„Buchkindheiten digital“ – Werkstattbericht zur computergestützten Analyse von Illustrationen in historischen Kinder- und Jugendbüchern 1Grundschuldidaktik Deutsch, Universität Leipzig; 2Computational Humanities, Universität Leipzig Das Projekt “Buchkindheiten digital“ hat das Ziel gesellschaftliche Umbrüche und ihre Darstellung in Illustrationen als essentiellen Bestandteil von Kinder- und Jugendliteratur sichtbar zu machen und ihre Verschiebungen im Verlauf des langen 19. Jahrhunderts nachzuzeichnen. Als Datengrundlage dient das Korpus Colibri, welches mehr als 11.000 Titel mit über 2,2 Millionen Einzelseiten umfasst. Dieser Beitrag beschreib einen Workflow zur computergestützten Analyse von illustrierten Buchseiten und fokussiert dabei insbesondere auf einen Ansatz zur Unterscheidung von illustrierten Buchseiten und reinen Textseiten, welcher eine wichtige Grundlage für die weiterführende inhaltliche Analyse darstellt. Gustav Klimt nach der Secession: Kunstgeschichte und Visual Analytics im Dialog 1Universität Wien, Österreich; 2Technische Universität Wien, Österreich; 3Fachhochschule St.Pölten, Österreich Die Kunstgeschichte untersucht Phänomene, die sich über Zeit und Raum entwickeln. Obwohl die Disziplin bisher einige Datenbanken hervorgebracht hat, fehlt es bislang an geeigneten Modellen und Methoden dafür, große Datenmengen effektiv zu analysieren. Ausstellungsgeschichte ist dabei ein Beispiel für die Anwendung kunsthistorischer Daten. Die "Database of Modern Exhibitions. European Paintings and Drawings 1905-1915" (DoME; http://exhibitions.univie.ac.at/) ist für ihren Zeitraum die umfassendste Datenbank moderner Kunstausstellungen. Ausgehend von DoME liegt unser Fokus im transdisziplinären Projekt ArtVis, einer Kollaboration des Centre for Visual Analytics Science and Technology (TU Wien) und des Instituts für Kunstgeschichte (Universität Wien), auf der Entwicklung innovativer Visualisierungs- und Analysetools, die für die Untersuchung dynamischer kunsthistorischer Netzwerkdaten noch nicht eingesetzt wurden. Vor diesem Hintergrund haben wir mehrere interaktive Tools entwickelt, deren Anwendung durch eine Verknüpfung von quantitativer und qualitativer Analyse exemplarisch anhand einer Fallstudie des Ausstellungsverhaltens Gustav Klimts nach seinem Austritt aus der Wiener Secession dargestellt wird. Digital Provenance Research: Eine computerassistierte Bildersuche in historischen Auktionskatalogen Friedrich Alexander Universität (FAU) Erlangen-Nürnberg, Deutschland Eine wichtige Quelle für die Provenienzforschung ist die Datenbank German Sales, die aktuell über 12,000 Auktions- und Verkaufskataloge vorwiegend aus dem deutschsprachigen Raum aus den Jahren 1901 bis 1945 umfasst. Für die Provenienzforschung sind diese Kataloge essenzielle Quellen, um nachzuvollziehen, ob ein Objekt bei einer Versteigerung angeboten wurde und eventuell den Besitzer/die Besitzerin gewechselt hat. Die Kataloge können im Moment im Volltext durchsucht werden; obwohl der damit mögliche Zugriff auf das in den Katalogen enthaltene Wissen einen großen Mehrwert darstellt, können fehlende Informationen, sich verändernde Titel oder Zuschreibungen den Erfolg der Suche behindern. Die Einreichung wird von diesem Problem motiviert und beschreibt, wie der Einsatz von computerbasierten Bildsuchverfahren bei der Suche nach Abbildungen in Auktionskatalogen und damit bei der Rekonstruktion von Provenienzen helfen kann. |
11:00 - 12:30 | Donnerstag 2:P: Panel 5 Ort: HSBI E3 |
|
More than Chatbots: Multimodel Large Language Models in geisteswissenschaftlichen Workflows 1Leibniz-Institut für Europäische Geschichte, Mainz; 2Digital Humanities Craft OG; 3Austrian Centre for Digital Humanities and Cultural Heritage, Österreichische Akademie der Wissenschaften; 4Ludwig-Maximilians-Universität München; 5Georg-August-Universität Göttingen; 6TIB - Leibniz Information Centre for Science and Technology, Hannover; 7Leibniz University Hannover Dieses Panel untersucht die Integration generativer KI, insbesondere Multimodal Large Language Models (MLLMs) und Large Vision Models (LVMs), in geisteswissenschaftlichen Forschungsworkflows. Angesichts der rasanten Entwicklung der KI-Technologie ergeben sich sowohl Chancen als auch Herausforderungen für die Digital Humanities. Die Diskussion konzentriert sich auf die effektive Implementierung dieser Modelle, die Steigerung der Forschungseffizienz und die Verlagerung des Schwerpunkts von der technischen Datenverarbeitung hin zur Analyse und Interpretation. Die Vortragenden präsentieren Fallstudien zur Erstellung von Bildkorpora, Textannotation, qualitativen Datenanalyse und kunsthistorischem Retrieval mittels KI-Modellen und diskutieren darüber hinaus mögliche Konsequenzen und Nachteile der KI-Integration in geisteswissenschaftlichen Forschungspraktiken sowie deren Auswirkungen auf die Workflow-Nachnutzbarkeit. Das Panel beinhaltet interaktive Elemente zur Publikumsbeteiligung und fördert einen umfassenden Dialog über zukünftige Richtungen der KI in der geisteswissenschaftlichen Forschung. |
12:30 - 14:00 | Mittagspause |
12:45 - 13:15 | Führung durch den BITS Space Ort: BITS Space |
12:45 - 13:45 | Campusführung Ort: Treffpunkt: Haupteingang Universität |
13:15 - 13:45 | Führung durch den BITS Space Ort: BITS Space |
14:00 - 15:30 | Poster (1/2): Posterslam Ort: HSBI Audimax |
16:00 - 17:30 | Poster (2/2): Postersession Ort: HSBI Magistrale |
18:30 - 19:30 | Tanztheater UNDER CONSTRUCTION. A Physical Lecture Ort: Universitätshauptgebäude H15 |
19:00 - 23:59 | Konferenzdinner und Party im Forum Bielefeld Ort: Forum Bielefeld |
Datum: Freitag, 07.03.2025 | |
8:30 - 16:00 | Öffnungszeiten Digitales Konferenzbüro |
9:30 - 11:00 | Freitag 1:1: Editionen III Ort: HSBI B1 Chair der Sitzung: Cindarella Petz, Leibniz Institute of European History Mainz (IEG) |
|
E-LAUTE - die Musik abseits der Noten und die Daten abseits der Musik 1Österreichische Nationalbibliothek, Österreich; 2Universität Wien, Österreich; 3mdw - Universität für Musik und darstellende Kunst Wien, Österreich Multidisziplinarität erfordert Vielfältigkeit! Das Projekt E-LAUTE (Electronic Linked Annotated Unified Tablature Edition) bearbeitet das Korpus der Deutschen Lautentabulaturen mit einem interdisziplinären Forschungsteam, das sich großteils um das Verhältnis Noten - Musik - Daten dreht. Damit dem Forschungsinteresse zufriedenstellend nachgegangen werden kann, werden durch die Brille der jeweiligen Disziplin Anforderungen an das E-LAUTE Projekt gestellt. Diese Anforderungen erfordern sowohl für die Bearbeitung im digitalen, als auch im analogen Bereich einen Unterbau an Infrastruktur, Hardware und Programmen was im Kontext der Bearbeitungen und Editor*innen zu einem umfassenden E-LAUTE Ökosystem angewachsen ist und für Nutzer*innen als open knowledge platform zur Verfügung gestellt wird. Im folgenden Beitrag werden die teilweise sehr heterogen verwendeten Infrastrukturtypen beleuchtet und ein Bild darüber abgegeben, wie sie auf die Interessen der einzelnen Fachwissenschaften eingehen, weshalb sie notwendig sind, wie sie miteinander zusammenarbeiten und wie sie letztlich wieder in einem homogenen Gesamtbild durch die Wissenschaft weiterverwendet werden kann. 50 Years of Editorial Practice: A Footnote Analysis of the Heinrich Bullinger Briefwechsel University of Zurich, Schweiz This paper presents a comprehensive analysis of the editorial practices employed in the footnotes of Heinrich Bullinger's correspondence edition, spanning over five decades of scholarly work. Bullinger (1504-1575), a key figure in the European Reformation, left behind a vast corpus of over 12,000 letters, covering a wide range of topics and geographical scope. Our study examines the evolution of editorial approaches, annotation styles, and contextual information in the footnotes across different volumes and periods. By scrutinising these scholarly annotations, we shed light on changing historiographical trends, historical research methodologies advancements, and editorial priority shifts over the past half-century. This analysis provides insights into the complex task of contextualising Bullinger's diverse correspondence and offers a unique perspective on the development of early modern historical editing practices. Our findings contribute to ongoing discussions about best practices in digital humanities and the future of scholarly editions in the field of Reformation studies. |
9:30 - 11:00 | Freitag 1:2: Modellierung Ort: HSBI B3 Chair der Sitzung: Andreas Kuczera, Technische Hochschule Mittelhessen, Gießen |
|
Kontext, Unsicherheit und Geschlecht im Fokus der Modellierung: Datenprinzipien für die feministische Filmgeschichte Philipps-Universität Marburg, Deutschland Dieser Beitrag stellt drei Datenprinzipien vor, die im Zuge der Entwicklung und des Aufbaus einer filmografischen Datenbank zu Filmpionierinnen definiert wurden. Die in der Plattform Women Film Pioneers Project (WFPP) veröffentlichten Filmografien und die damit verbundenen Datenpraktiken bilden hierfür den Ausgangspunkt. Die Datenprinzipien betonen die Konstruiertheit von Wissen und fragen danach, wie eine geisteswissenschaftliche Datenpraxis definiert werden kann. Sie zielen darauf ab, Daten zu kontextualisieren, Unsicherheiten zu erhalten und Geschlecht als Analysekategorie nutzbar zu machen. Damit sollen die Datenprinzipien einen Beitrag dafür leisten, die Kontingenz von Filmgeschichte im Zuge ihrer datenbasierten Erforschung im Blick zu behalten und die Basis für das Erzählen pluraler Filmgeschichte(n) zu schaffen. Accuracy vs. Consistency: A Case Study Assessing Data Quality in Metadata of Early Modern Dissertations Universität Münster, Deutschland Existing literature on bibliographical metadata presents, among others, 'accuracy', the correct description of a resource, and 'consistency', the uniformity of mappings between its features and metadata fields, as important criteria for the evaluation of metadata quality. My presentation aims to show that these criteria may sometimes be in tension, and that digital humanists treating metadata as research data may have good reasons to prefer consistency to accuracy. The case study I present deals with problems of authorship attributions in early modern dissertations. Work(s) in progress – Datenmodellierung zum Kulturerbe Tanz in der DDR als Prozess 1Sächsische Akademie der Wissenschaften; 2Universität Leipzig Das Tanzarchiv Leipzig, ehemals Tanzarchiv der DDR, ist eine der maßgeblichen Sammlungen von Quellen zu Tanz in der DDR, inhaltlich aber noch kaum erschlossen. Wir beschreiben in unserem Beitrag den Prozess der Erarbeitung eines ereignisbasierten Datenmodells, das sowohl tänzerisches Schaffen, Verknüpfungen zwischen Institutionen und Personen, zeitgeschichtliche Entwicklungen als auch die Vielfalt der Bestände des Tanzarchivs adäquat abbilden kann und in der Lage ist, aus den Quellen heraus das kulturelle Erbe Tanz in der DDR besser erforschbar zu machen. Wir beschreiben hierbei konkrete Herausforderungen des Forschungsgegenstandes und konkrete Lösungsansätze des bisher entstandenen Modells sowie den Prozess der Modellierung in seiner Wechselwirkung mit dem zu erfassenden Quellenmaterial. |
9:30 - 11:00 | Freitag 1:3: Distant Viewing II Ort: HSBI E1 Chair der Sitzung: Stefanie Schneider, Ludwig-Maximilians-Universität München |
|
Phylogenetische Überlieferungsanalyse mit Feature-Matrizen zur Bild- bzw. Diagrammbeschreibung. Ein Versuch an den Handschriften des ‘Compendium Historiae’ (12. Jh.ff) 1Universität zu Köln; 2Bergische Universität Wuppertal; 3Eberhard Karls Universität Tübingen Der Beitrag stellt den Einsatz phylogenetischer Methoden zur Analyse der handschriftlichen Überlieferung des "Compendium Historiae in Genealogia Christi" von Peter von Poitiers (12. Jh.) vor. Das Werk umfasst neben einer Darstellung der Genealogie Jesu Christi in der Form eines “Graphen” auch den Knoten zugeordnete und frei positionierte Textabschnitte, Diagramme und Illustrationen. Aufgrund der multimodalen Natur des "Compendium" sind traditionelle stemmatologische Methoden unzureichend, da diese "Leitfehler" identifizieren müssen, ein Konzept, das bei den diagrammatischen Komponenten nicht anwendbar ist. Am Beispiel des “Stämme-Diagramms” demonstrieren wir die (noch explorative) Anwendung computergestützter Methoden der evolutionären Biologie, die bereits umfassend im textuellen Bereich und in geringerem Maße für die Entwicklung des kulturellen Erbes genutzt werden. Dieser Ansatz arbeitet auf quantitativer Ebene und basiert auf binären Matrizen diskreter Varianten, die das Vorhandensein oder Fehlen ausgewählter Merkmale beschreiben. Mit unserer Arbeit zeigen wir die bereits erzielten vielversprechenden Ergebnisse und reflektieren gleichzeitig über den epistemologischen Wert der Methode. Combining LLM and Topic Modeling for Automated Video Analysis: A Case Study Universität Innsbruck, Österreich This paper explores the potential of combining large language models (LLMs) and topic modeling for automated video analysis, using a case study to examine the capabilities of multimodal LLMs in understanding video content. We utilize OpenAI’s closed-source GPT-4o-mini and the open-source Large Language and Vision Assistant (LLaVA) to generate keywords describing video frames. We then apply topic modeling to interpret these annotations. Our findings indicate that GPT-4o mini provides more consistent and contextually accurate annotations, whereas LLaVA demonstrates higher variability and struggles with Cyrillic text. Despite these differences, both models effectively identify thematic trends, such as the distinction between daytime protests and nighttime police brutality. The combination of zero-shot LLM annotation and topic modeling offers a robust framework for video analysis, balancing technical feasibility and conceptual openness while highlighting the potential and limitations of current LLMs in understanding complex visual data. Diagramme und Tänze von Leben und Tod: Biographische Datenvisualisierungen und -physikalisierungen im Vergleich 1Universität für Weiterbildung Krems, Österreich; 2Mindfactor (https://mindfactor.at) Der Beitrag diskutiert aktuelle Entwicklungen im Feld der biographischen Datenvisualisierung und -physikalisierung mit Blick auf das Leben von Herwig Zens (1943—2019). Der österreichische Künstlers dokumentierte über 40 Jahre seines Lebens in einem “radierten Tagebuch”, das als größter bekannter Kupferstich gilt. Das komplexe biographische Druckwerk wurde in verschiedenen Ausstellungen präsentiert und zur Gewinnung von Übersicht durch Distant Reading-Techniken in zwei und drei Dimensionen ergänzt. Der Artikel thematisiert die vielfachen Herausforderungen, das komplexe Leben von Künstler:innen für Ausstellungsbesucher:innen mittels einer zeitgeographischen Projektion erfahrbar zu machen. Der spezifische Mehrwert dieser Methode liegt in ihrer komplementären Implementierung als interaktive Visualisierung und als physikalische Datenskulptur. Die Reflexion dieser Fallstudie zielt vor diesem Hintergrund auf die vermehrte Nutzung von hybriden Kombination aus digitalen und physischen Darstellungen zur Vermittlung komplexer biographischer und historischer Daten an diverse Zielgruppen. |
9:30 - 11:00 | Freitag 1:P: Panel 6 Ort: HSBI E3 |
|
Literaturgeschichte “under construction” – was können die Computational Literary Studies beitragen? Ein Panel zur digitalen Untersuchung von Raum in der Literatur 1Universität Bielefeld, Deutschland; 2Universität Rostock, Deutschland; 3Julius-Maximilians-Universität Würzburg, Deutschland Im Forschungsdesign vieler DH-Projekte aus den Computational Literary Studies (CLS) stehen die Operationalisierung eines literarischen Phänomens, die Datenmodellierung und die Implementierung sowie das Finetuning computationeller Verfahren meist deutlicher im Fokus als explizite Überlegungen zum literaturgeschichtlichen Kontext, und dies, obwohl die CLS durch ihre quantitative Arbeitsweise und die Verwendung umfangreicher Korpora prädestiniert dafür sind, auch historische Entwicklungen zu untersuchen. Das Panel zielt darauf, dieses Problem anhand des Themas "Raum in literarischen Texten" und mit Beiträgen von Literaturhistoriker:innen, Literaturtheoretiker:innen und Computational Literarians zu diskutieren. Es plädiert für einen stärkeren Einbezug bestehender literaturgeschichtlicher Forschung in die CLS-Forschung und fragt zugleich danach, was diese für eine Literaturgeschichte "under construction" leisten kann. |
11:30 - 13:00 | Freitag 2:1: Digital History II Ort: HSBI D3 Chair der Sitzung: Claudia Resch, Österreichische Akademie der Wissenschaften |
|
Named Entity Uncertainty Mining: Von der intellektuellen zur computergestützten Untersuchung unsicherer Annotationen Staatsbibliothek zu Berlin, Deutschland Die Entwicklung computergestützter Verfahren wie der Named Entity Recognition (NER) und des Entity Linking (EL) für historische Texte erfordert umfangreiche domänenspezifisch und intellektuell annotierte Daten. Bei der Erstellung solcher Daten treten oftmals Unsicherheiten in Bezug auf einzelne Annotationen auf. Diese Unsicherheiten können u.a. auf eine fehlende oder fehlerhafte Kontextualisierung der Texte, auf den Wandel der Dokumente und ihrer Inhalte sowie zusätzliche Prozessierungsschritte zurückgeführt werden. Aktuell angewendete Praktiken und die Verfügbarkeit von Ressourcen nehmen einen Einfluss auf die Entstehung von Unsicherheit. Auf der Grundlage einer umfassenden Literaturrecherche werden die verschiedenen Arten und Ursachen von Unsicherheiten diskutiert. Des Weiteren werden Ansätze zur computergestützten Messung und damit zur Dokumentierung und Reduzierung von Unsicherheiten in annotierten Daten präsentiert. Digital History under construction. Zum Verhältnis zwischen Digitaler Geschichtswissenschaft und Digital Humanities im deutschsprachigen Raum. Niedersächsische Akademie der Wissenschaften zu Göttingen, Deutschland Vor etwa 20 Jahren begannen sich die Digital Humanities (DH) aus den USA kommend in Deutschland zu formieren und vereinten innerhalb weniger Jahre verschiedene Disziplinen unter einem gemeinsamen Dach. Dies umfasste auch das bereits etablierte 'Historische Fachinformatik'. Seit dieser ‚freundlichen Übernahme' durch das neue interdisziplinäre Konzept namens DH gibt es Bestrebungen, die Digitale Geschichtswissenschaft (DHist) wieder zu emanzipieren und als eine Teildisziplin innerhalb der historischen Wissenschaften zu etablieren. Gleichzeitig haben die integrativen Kräfte der Digital Humanities, die inzwischen als eigene akademische Disziplin mit Professuren, Studiengängen und eigenen Publikationsplattformen etabliert sind, weiterhin DHist als eines ihrer Interessens- und Forschungsfelder beansprucht. Einige der vielen aufkommenden Fragen sind: Sollte das Lehren digitaler Methoden in die Lehrpläne der Geschichtswissenschaft oder der neuen DH-Abteilungen integriert werden? Welche Rolle spielen bzw. sollten die Professuren für Digitale Geschichtswissenschaft, die sich seit einigen Jahren an den Philosophischen Fakultäten in Deutschland etablieren, in diesem Prozess spielen? |
11:30 - 13:00 | Freitag 2:2: Projektarbeit Ort: HSBI D1 Chair der Sitzung: Martin Fechner, Berlin-Brandenburgische Akademie der Wissenschaften |
|
Die Bibliothek als Partner der Digital Humanities: Ein Einblick in die Erfahrungen und Aktivitäten der Deutschen Nationalbibliothek Deutsche Nationalbibliothek, Deutschland In der sich rasant entwickelnden Landschaft der Digital Humanities erweisen sich Bibliotheken zunehmend als unverzichtbare Partner, die Literatur und Informationen nicht nur sammeln und verfügbar machen, sondern immer häufiger auch die Rolle als aktive Vermittler digitaler Methoden und Werkzeuge für die geisteswissenschaftliche Forschung sowie als gleichberechtigter Kooperationspartner in Forschungsprojekten einnehmen. Dabei spielen sowohl die Entwicklung passender Angebote und Tools eine tragende Rolle, als auch der Aufbau von Infrastrukturen, Strategien sowie Kompetenzen im eigenen Haus. Die Deutsche Nationalbibliothek (DNB) befasst sich zunehmend auch strategisch mit den Digital Humanities und hat ihre Aktivitäten zur Unterstützung und Förderung von Wissenschaft und Forschung in den letzten Jahren deutlich ausgeweitet. Der Vortrag bietet exemplarisch einen Einblick in die relevanten Aktivitäten der DNB und beleuchtet so die verschiedenen Rollen der Bibliothek als Partner der Digital Humanities sowie deren Potentiale. Alles hat seine Zeit: Generische Softwareentwicklung und individuelle Projektanforderungen Universität Münster, Deutschland Digital-Humanities-Projekte, in denen individuelle Software benötigt wird, und DH-Zentren, an denen generisch einsetzbare Forschungssoftware entwickelt wird, haben unterschiedliche Geschwindigkeiten. Beispielhaft anhand des konkreten Entwicklungsprojektes Intertextor des Münsteraner Service Centers for Digital Humanities (SCDH) zur Annotation und Analyse intertextueller Relationen demonstriert der Beitrag das Spannungsfeld zwischen generischem Anspruch (dem inneren Faktor der Entwicklungsstrategie) und individuell notwendigen Lösungen, die aus konkreten Projektanforderungen erwachsen (dem externen Faktor heterogener Forschungsprojekte). Wir diskutieren, inwieweit einerseits Elemente agilen Projektmanagements (d.h. im vorliegenden Fall Scrum) helfen können, wo andererseits aber dennoch projektspezifische Entwicklungen (demonstriert am Beispiel eines alttestamentarischen Ijob-Buch-Editionsprojektes) vorgenommen werden müssen, um Deadlines einhalten zu können und den Fortgang disziplinärer Forschung nicht zu verlangsamen. Quo vadis? Der beschwerliche Weg mit XML-Technologien Bayerische Akademie der Wissenschaften, Deutschland In diesem Vortrag geben wir Einblick in die Erfahrungen, die wir mit XML und verschiedenen alternativen Technologien zur Text-Kodierung für Wörterbücher und Editionen gemacht haben. Die Suche nach Alternativen zu XML war dadurch motiviert, dass XML zwar vieles gut macht, sich in manchen Fällen aber als eher schwerfällig erweist. Im Einzelnen diskutieren wir: 1. eine "klassische" XML-Werkbank mit XQuery, XSLT und BaseX (Bayerisches Wörterbuch) 2. eine schlanke HTML-Werkbank mit VSCode, HTML und CSS (Schelling-Nachlass-Edition) 3. eine LaTeX -> HTML/PDF (Carnap) und eine CTE -> HTML/PDF-Werkbank (Johannes von Damaskus) 4. eine auf einer domänenspezifischen Eigennotation basierende Werkbank (Mittellateinisches Wörterbuch) Im Ergebnis gibt es keinen eindeutigen Sieger. In jedem Fall scheint es aber nicht sinnvoll sich von vornherein auf (TEI-)XML fest zu legen, da je nach Situation andere Ansätze den technischen Aufwand erheblich verringern können. |
11:30 - 13:00 | Freitag 2:P: Panel 7 Ort: HSBI E3 |
|
Gemeinsame Baustellenbegehung – Digital Humanities und Wissenschaftsforschung Leopoldina - Nationale Akademie der Wissenschaften, Deutschland Die interdisziplinäre Wissenschaftsforschung hat die Digital Humanities bislang noch kaum in den Blick genommen. Dabei gibt es unterschiedliche Aspekte, die einen Austausch lohnen. In diesem Panel wollen wir diesen in Form eines ersten Kennenlernens initiieren. Dabei treffen sich Expert:innen aus DH und Wissenschaftsforschung und diskutieren wie man sich am besten „bei den Daten“ treffen kann. Wir wollen sehen, was wir aus der Beforschung anderer Wissenschaften für die DH lernen können, aber auch, welche Impulse die Wissenschaftsforschung aus den andauernden theoretischen und methodologischen Debatten der DH mitnehmen kann. Das Diskussionsformat beginnt mit kurzen Statements, die folgende Frage beantworten: Wenn wir uns hier „bei den Daten“ treffen, welche Anknüpfungspunkte sehen Sie aus den DH zur Wissenschaftsforschung / aus der Wissenschaftsforschung zu den DH? Im Anschluss wird auf dem Panel und mit dem Publikum diskutiert. |
14:00 - 16:00 | Abschluss Konferenz: Abschlusskeynote und anschließende Abschlussveranstaltung Ort: Universitätshauptgebäude Audimax Keynote Speaker: Mareike König
Mehr Informationen: Übersichtsseite zu den Keynote Speakers |
Impressum · Kontaktadresse: Datenschutzerklärung · Veranstaltung: DHd2025 |
Conference Software: ConfTool Pro 2.8.105 © 2001–2025 by Dr. H. Weinreich, Hamburg, Germany |