Eine Übersicht aller Sessions/Sitzungen dieser Veranstaltung. Bitte wählen Sie einen Ort oder ein Datum aus, um nur die betreffenden Sitzungen anzuzeigen. Wählen Sie eine Sitzung aus, um zur Detailanzeige zu gelangen.
Chair der Sitzung: Gerrit Brüning, Klassik Stiftung Weimar
Ort:HSBI D3
Präsentationen
Large Language Models im Archiv: Prompt-Engineering für Archivar:innen
Paul M. Näger1, Dominic Eickhoff2
1Universität Münster, Deutschland; 2LWL-Archivamt für Westfalen, Münster, Deutschland
Ein wesentlicher Schritt in der Erschließung von Archivalien besteht in der Erfassung und Anreicherung von archivischen Metadaten, die in Textform vorliegen. Mit der Entwicklung von generativen großen Sprachmodellen (Large Language Models, LLMs) sind auch begründete Hoffnungen entstanden, große Teile solcher Textarbeit automatisieren zu können. Dabei ist es von Vorteil, dass LLMs sich neben der Textgenerierung auch für viele andere Aufgaben des Natural Language Processing als geeignet erwiesen haben. In diesem Artikel geben wir einen Überblick über die möglichen Anwendungen von LLMs in der Archivarbeit und demonstrieren am Beispiel der Erstellung von Findbucheinleitungen, wie dies konkret durchgeführt werden kann. Wir optimieren die Ergebnisse durch Prompt Engineering und reevaluieren diese: Was kann auf diese Weise erreicht werden, welche Grenzen bleiben bestehen.
Empirische Evaluation des Verhaltens von LLMs auf Basis sprachphilosophischer Theorien: Methode und Pilotannotationen
Axel Pichler1, Dominik Gerstorfer2, Jonas Kuhn1, Janis Pagel3
1Universität Wien, Österreich; 2Technische Universität, Darmstadt; 3Universität zu Köln, Deutschland
Die zunehmende Verwendung großer Sprachmodelle (LLMs) hat zu einer intensiven Debatte über ihre Fähigkeit geführt, sprachliches Verstehen zu simulieren. Dieses Abstract trägt zu dieser Diskussion bei, indem es eine Methode zur Generierung von Testdatensätzen vorstellt, die auf spezifischen Sprachtheorien basieren. Diese Methode ermöglicht die Bewertung, inwieweit das Verhalten eines LLMs mit dem eines kompetenten Sprechers übereinstimmt, wie er von der zugrunde liegenden Sprachtheorie definiert wird. Die Methode wird exemplarisch anhand der Sprachphilosophie von Donald Davidson erläutert. Durch die Erstellung eines Datensatzes, der zentralen theoretischen Prinzipien einer Sprachtheorie widerspiegelt, können wir das Verhalten von LLMs in verschiedenen Sprachkontexten untersuchen und beurteilen. Diese Arbeit leistet einen Beitrag zur methodischen und theoretischen Analyse der Fähigkeiten von LLMs und bietet ein Werkzeug zur Evaluierung ihrer sprachlichen Kompetenz.
Der Einfluss von AI-Pair-Programmers auf die Digital Humanities: Potentiale und Limitationen
Sebastian Schiller-Stoff, Leona Elisabeth Münzer, Christina Dittmann, Suzana Sagadin
Universität Graz, Österreich
Das Proposal soll die Transformation der Digital Humanities (DH) durch KI-gestützte Programmiertools wie GitHub Copilot beleuchten: Besonders jene Bereiche der DH, die sich mit Software- und Webentwicklung befassen, profitieren von diesen Tools. Sie automatisieren Aufgaben wie Codevervollständigung, Dokumentation und Debugging, was die Effizienz der Softwareentwicklung in den DH erheblich steigert. Dies ermöglicht Forschenden, sich ein tieferes Verständnis ihres Problems anzueignen. Allerdings bestehen Herausforderungen wie Abhängigkeit von kommerziellen Anbietern, technische Kompatibilitätsprobleme und die Gefahr der Fehler- und Biasreproduktion durch KI. Die Integration von Open-Source-Lösungen könnte eine Alternative darstellen, erfordert jedoch intensive Auseinandersetzung und Expertise. Zudem wirft die Integration von KI-Assistenten Fragen zur zukünftigen Rolle menschlicher Programmierer und zur Qualitätssicherung in den DH auf. Eine sorgfältige Abwägung der Potenziale und Risiken ist erforderlich, um die langfristigen Auswirkungen auf die DH zu bewerten.