Veranstaltungsprogramm

Eine Übersicht aller Sessions/Sitzungen dieser Veranstaltung.
Bitte wählen Sie einen Ort oder ein Datum aus, um nur die betreffenden Sitzungen anzuzeigen. Wählen Sie eine Sitzung aus, um zur Detailanzeige zu gelangen.

 
 
Sitzungsübersicht
Sitzung
Donnerstag 1:3: Digital History I
Zeit:
Donnerstag, 06.03.2025:
9:00 - 10:30

Chair der Sitzung: Tara Andrews, Universität Wien
Ort: HSBI D1


Zeige Hilfe zu 'Vergrößern oder verkleinern Sie den Text der Zusammenfassung' an
Präsentationen

Voll automatisiert die Natur in historischen Reiseberichten erkennen? Entzauberung von KI-Werkzeugen und ihr Nutzen für die Geisteswissenschaften

Michela Vignoli1, Doris Gruber2

1AIT Austrian Institute of Technology, Österreich; 2Österreichische Akademie der Wissenschaften, Österreich

Der rasante Vormarsch Künstlicher Intelligenz (KI) macht auch vor den Geisteswissenschaften nicht halt. Die vielversprechende Hoffnung lautet, große, digitalisierte Daten-Korpora voll automatisiert zu analysieren und darin Strukturen und Beziehungen mithilfe komplexer statistischer Modellvorhersagen zu erkennen. Doch inwieweit trifft dies zu und können maschinelle Lernmodelle (ML) tatsächlich als unterstützende Werkzeuge für historisch-wissenschaftliche Argumentationsprozesse, auch bei nicht standardisierten, historischen Bildern und Texten, eingesetzt werden? Das Projekt „Ottoman Nature in Travelogues“ (ONiT) untersucht, welche Rolle die westlichen Darstellungen „osmanischer Natur“ in den zwischen 1501 und 1850 gedruckten Reiseberichten spielen. Dafür kommen KI-Werkzeuge zum Einsatz, die einen Distant Reading Zugang zur Beantwortung dieser Forschungsfrage ermöglichen. Unsere vorläufigen Ergebnisse zeigen, dass ML-Modelle eine erhebliche Hilfe zur Erstellung einer ersten Ordnung nach Relevanz von Bild- und Textquellen bieten. Sie zeigen aber auch, dass der Einsatz von KI immer im Bewusstsein der Möglichkeiten und Grenzen der Methodik erfolgen muss.



Von Aachen bis Zwickau: Semi-automatische Identifikation und Analyse von Korrespondenzorten in der historischen “Wiener Zeitung”

Nina C. Rastinger, Claudia Resch

Austrian Centre for Digital Humanities and Cultural Heritage, Österreichische Akademie der Wissenschaften

Der Vortrag diskutiert auf Basis eines Datensets von über 800 Ausgaben der historischen „Wiener Zeitung“ aus dem Zeitraum des Siebenjährigen Kriegs (1756-1763), wie sogenannte ‚Korrespondenzköpfe‘, d.h. Angaben von Herkunftsort und Absendedatum abgedruckter Nachrichten, über digitale Methoden (semi-)automatisch identifiziert und analysiert werden können. Hierfür wird eine Kombination automatischer Ansätze (u.a. Layoutanalyse, Automated Text Recognition, Named Entity Linking, GIS) und manueller Schritte eingesetzt, mithilfe derer über 10.000 Korrespondenzköpfe erkannt, normalisiert, geokodiert und ausgewertet werden. Die Ergebnisse zeigen, dass das „Wienerische Diarium“ zwischen 1756 und 1763 Meldungen aus über 1.000 verschiedenen Korrespondenzorten enthielt, mit einer besonders dichten Berichterstattung aus London, Paris, Dresden und Den Haag. Außerdem bietet die Analyse unter anderem Einblicke in die Dichte des Korrespondenznetzwerks der historischen Zeitung, die Anzahl und Länge ihrer abgedruckter Meldungen im Verlaufe des Siebenjährigen Kriegs und die durchschnittliche Reisegeschwindigkeit frühneuzeitlicher Nachrichten.



Historische Textnormalisierung: Herausforderungen und Potentiale von Deep Learning

Yannic Bracke2, Anton Ehrmanntraut1

1Julius-Maximilians-Universität Würzburg, Deutschland; 2Berlin-Brandenburgische Akademie der Wissenschaften

Historische Dokumente bergen Herausforderungen für die Digital Humanities, da ältere Texte in ihrer Rechtschreibung von der modernen Standardsprache abweichen. Das erschwert die Nutzung und Verarbeitung solcher Texte, z. B. bei Volltextsuche oder Natural Language Processing. Eine Lösung bietet die automatisierte historische Textnormalisierung, die historische Schreibweisen in moderne Standardschreibung übersetzt. Dieser Beitrag untersucht das Potential moderner NLP-Methodik auf Basis von Machine Learning und Transformer-Modellen für die historische Textnormalisierung, und vergleicht diese in einer Fallstudie mit CAB, dem de-facto Standard-Tool für deutsche Textnormalisierung. Damit werden die aktuellen Möglichkeiten und Grenzen automatischer Textnormalisierung aufgezeigt, besonders im Hinblick auf die Bereitstellung von offen zugänglichen Modellen.



 
Impressum · Kontaktadresse:
Datenschutzerklärung · Veranstaltung: DHd2025
Conference Software: ConfTool Pro 2.8.105
© 2001–2025 by Dr. H. Weinreich, Hamburg, Germany