Digitale Editorik ist heute mehr als eine reine Hilfswissenschaft, sondern eine wichtige Grundbedingung für die Erschließung des kulturellen Erbes – von der mittelalterlichen Handschrift bis zum neuzeitlichen Brief – und seiner Erforschung. Die Methoden dieser Erschließung sind im Rahmen aktueller KI-Entwicklungen einer grundlegenden Transformation unterworfen, die den Umgang mit Quellen fundamental verändert.
Das Fachgebiet „Digitale Editorik und Kulturgeschichte des Mittelalters“ beteiligt sich an dieser Transformation durch die Entwicklung, Implementierung und Evaluation von KI-Verfahren und weiteren digitalen Methoden und ihrer praktischen Integration in editorische Workflows. Zusätzlich eröffnet es auf dieser technischen Basis neues Analysepotenzial für kulturwissenschaftliche Fragestellungen.
Als Kooperationsprofessur zwischen dem Fachbereich Gesellschafts- und Geschichtswissenschaften (FB02) der TU Darmstadt und der Akademie der Wissenschaften und der Literatur | Mainz bzw. des Akademieprojekts Burchards Dekret Digital (www.burchards-dekret-digital.de) verbindet das Fachgebiet somit informationstechnische Forschung mit geisteswissenschaftlicher Anwendung und bringt die editorische Praxis in die Entwicklung von KI-Systemen ein. Da kommerzielle Standardlösungen den wissenschaftlichen Anforderungen im Umgang mit historischen Daten oft nicht genügen, liegt der Fokus hierbei auf der Entwicklung passgenauer und transparenter Methoden im Sinne einer verantwortlichen und vernünftigen KI-Nutzung. Durch die institutionelle Verzahnung von Universität und Akademie wird dabei ein nahtloser Technologietransfer zwischen technischer Entwicklung und editorischer Praxis ermöglicht.
Die Forschungsschwerpunkte des Fachgebiets liegen entsprechend auf den Kernbereichen des editorisch-analytischen Prozesses:
- Automatisierte Erschließung historischer Dokumente: Hierfür werden Modelle und Datensätze für die Layout- und Texterkennung sowie darauf aufbauender Textkonstitution entwickelt, etwa zur Normalisierung von Schreibweisen, zur Setzung von Interpunktion oder zur Auflösung komplexer Abkürzungssysteme. Ziel ist dabei die Erstellung wissenschaftlich belastbarer Textdaten als Grundlage für die sprachwissenschaftliche und kulturhistorische Analyse.
- Semantische Tiefenerschließung: Dies umfasst die Entwicklung und Evaluation von Systemen zur automatisierten Erkennung von Entitäten (Named Entity Recognition) und deren automatisierte Verknüpfung mit Normdaten (Entity Linking). Ergänzend entwickelt das Fachgebiet spezialisierte historische Sprachmodelle für lateinische und deutsche Quellen, um die Hürden gängiger KI-Systeme bei älteren Sprachstufen zu überwinden. Aufbauend auf diesen Verfahren werden transparente Abfragesysteme erarbeitet, die es Forschenden mittels Retrieval-Augmented Generation (RAG) und Wissensgraphen ermöglichen, komplexe Fragen an große Quellenbestände zu stellen und nachvollziehbare, quellenbasierte Antworten zu erhalten.