Forschung

Forschungsprojekte am Institut für Sprach- und Literaturwissenschaft

Aktuelle Forschungsschwerpunkte im Institut sind Corpus- und Computerlinguistik, (digitale) Literatur- und Kulturwissenschaft, Digitalisierung des kulturellen Erbes, Diskurslinguistik, Editionsphilologie, Forschungsinfrastrukturen, Wissens-/Wissenschaftskommunikation. Im Folgenden sind alle Forschungsprojekte des Instituts chronologisch aufgelistet. Mehr Informationen erhalten Sie per Auswahl des jeweiligen Projekts.

Verbundvorhaben von neun wissenschaftlichen Partnern unter Federführung der Philipps-Universität Marburg

Gefördert durch das Bundesministerium für Bildung und Forschung, NextGenerationEU, Aufbau von Datenkompetenzzentren in der Wissenschaft

Projektleitung an der Technischen Universität Darmstadt: Andrea Rapp

HERMES etabliert Orte des Lernens, Forschens und Vernetzens, an denen Datenkompetenzen in den Geistes- und Kulturwissenschaften vermittelt, weiterentwickelt und kritisch reflektiert werden. Die Vermittlungs- und Austauschformate des Datenkompetenzzentrums zeichnen sich dabei durch einen starken Praxisbezug aus und fördern die Vernetzung zwischen Wissenschaftler*innen verschiedener Disziplinen und methodischer Ausrichtung.

Hierzu konzipiert und erprobt HERMES im Verbund verschiedene Formate. Die Technische Universität Darmstadt verantwortet zum einen die Entwicklung unterschiedlicher Kommunikationsformate, um über die Potentiale datengetriebener geistes- und kulturwissenschaftlicher Forschung zu informieren und für Data Criticism zu sensibilisieren. Hierzu zählt insbesondere auch der Aufbau des bundeslandübergreifenden Doktorand*innennetzwerks. Zum anderen ist die Technische Universität Darmstadt für die Konzeption des HERMES-Hub mitverantwortlich, einer zentralen Kommunikationsplattform zur Vernetzung und für den Austausch zwischen den Akteur*innen.

Weitere Informationen: https://hermes-hub.de

Kontakt: hermes@linglit.tu-darmstadt.de

Projektleitung: Nina Janich

Förderung: Gefördert durch das BMEL

Das Projekt ist ein Teilvorhaben des interdisziplinären Verbundprojekts „Nachhaltiger Waldnaturschutz – nachhaltige Waldkommunikation“ (Sprecherin: Dr. Nadja Simons, FB Biologie)

Weitere Informationen finden Sie hier

Projektleitung: Nina Janich

Förderung: Gefördert durch die DFG

Das Projekt ist Teilprojekt 3 in der DFG-Forschungsgruppe „Kontroverse Diskurse. Sprachgeschichte als Zeitgeschichte“ (Sprecher: Prof. Dr. Martin Wengeler, Universität Trier).

Weitere Informationen finden Sie hier

Projektleitung: Thomas Weitin

Förderung: Gefördert durch die Deutsche Forschungsgemeinschaft (DFG).

Das 19. Jahrhundert, in dem sich unser heutiges System der wissenschaftlichen Fachkulturen herausgebildet hat, war eine Epoche des Sammelns und Ordnens von Wissensbeständen, die häufig zwischen den Disziplinen lagen. An Kriminalfällen lernte das Recht die individuelle Sachverhaltsdarstellung für den Strafprozess, die Literatur die realistische Erzählkunst für ein modernes Massenpublikum.

Als erste global vergleichende und zugleich umfangreichste Kriminalfallsammlung im deutschsprachigen Raum spielte der Neue Pitaval (1842-1890) eine entscheidende Rolle bei der Entstehung eines allgemeinen Rechtsbewusstseins. Um den inauguralen Diskurs dieser Sammlung rekonstruieren zu können, muss sie in ihrer ganzen Vielfalt als Korpus von 540 Fallgeschichten analysiert werden.

Unser Projekt verfolgt dazu einen auf historische Forschungsfragen gegründeten Ansatz, der die verschiedenen Methoden der digitalen Korpusanalyse auf das jeweilige Erkenntnisziel abstimmt.

Semantische Verlaufsanalysen untersuchen, welche Themen wann Konjunktur hatten und wie die Geschichten unter wechselnden Umständen rechtspolitisch perspektiviert wurden. Narratologische Analysen gehen den Erzählmustern auf den Grund, die sich dabei entwickelten. Zur Unterscheidung juristischer und literarischer Darstellungsweisen werden digitale Verfahren mit unterschiedlicher Kontextsensitivität kombiniert. Bei Stiluntersuchungen, die auf der Ebene von Sätzen und Wörtern operieren, lassen sich verschiedene Abstraktionsniveaus algorithmisch analysieren. Erzählanalysen benötigen dagegen kollaborative Annotationen größerer Textabschnitte und lassen Fragen der Automatisierbarkeit selbst als hermeneutisches Problem erscheinen, über das die Untersuchung am Gegenstand lernt.

Zwischen Recht und Literatur ist die juristische Fallgeschichte im 19. Jahrhundert ein populäres Wissensmedium, in dem die normativen Orientierungen und das Rechtsverständnis der bürgerlichen Gesellschaft beobachtbar werden. Der Frage nach der Gattungspoetik dieser Textsorte kommt daher besondere Bedeutung zu. Wir untersuchen sie im Rahmen von Vergleichsanalysen mit anderen zeitgenössischen Korpora, die zum Pitaval im Verhältnis der Medienkonkurrenz standen. Die Kriminalgeschichten im Familienblatt Die Gartenlaube und die Kriminalnovellen des Deutschen Novellenschatz unterhielten potentiell das gleiche Publikum. Im Mittelpunkt des Vergleichs stehen globale und lokale Themenkonjunkturen im Verhältnis zur Kategorisierung ermittelter Signalstärken bei der Klassifikation, wobei wir über die Affektstärken der Texte wirkungsästhetische Aspekte einschließen.

Projektleitung: Prof. Dr. Thomas Weitin

Förderung: „LOEWE-Exploration"

Der Deutschunterricht soll für Literatur begeistern und Schülerinnen und Schülern beibringen, eigenständig zu urteilen und einfühlsam zu sein. Allerdings fehlen empirische Belege für derartige literarische Wirkungen. Das Projekt will prüfen, ob es ein Maß an Emotionalität gibt, das für das Verständnis literarischer Texte optimal ist. Es verbindet emotionsorientierte Methoden der Textanalyse mit der Messung emotionaler Reaktionen beim Lesen. Ziel sind konkrete Orientierungshilfen für den Deutschunterricht der gymnasialen Oberstufe.

Für seinen mutigen Forschungsansatz erhält das TU-Projekt „Evidenzbasiertes Literaturverstehen im Deutschunterricht“ zum Literaturverständnis im Deutschunterricht rund 300.000 Euro aus der Förderlinie „LOEWE-Exploration“. Insgesamt wurden vier Forschungsteams an Hochschulen für die Förderlinie des hessischen Wissenschaftsministeriums für unkonventionelle innovative Forschung ausgewählt. Für sie stehen Mittel in Höhe von insgesamt rund einer Million Euro zur Verfügung.

Das Projekt verbindet emotionsorientierte Methoden der Textanalyse mit der Messung emotionaler Reaktionen beim Lesen. So werden etwa Bewegungen des Auges, Aktivitäten des Gehirns und bestimmte Reaktionen des Körpers gemessen. Zusätzlich wird mit Fragebögen die selbstempfundene Emotionalität während des Lesens erfasst. Als Probandinnen und Probanden dienen Schülerinnen und Schüler der gymnasialen Oberstufe.

Für die Analysen und Experimente wird gegenwartsbezogene literarische Prosa aus drei thematischen Bereichen verwendet: ökologische Krisen und Nachhaltigkeit, Menschenrechte und internationale Konflikte sowie lebendige Zeitgeschichte. Somit kann nach Angaben der Forschenden überprüft werden, ob die Anforderungen des Deutschunterrichtes am Beispiel einer aktuellen Lektüre gegeben sind. Ziel sind konkrete Orientierungshilfen für den Deutschunterricht der gymnasialen Oberstufe.

Die hessische Wissenschaftsministerin Angela Dorn äußerte sich erfreut über die Förderung von vier Projekten mit „LOEWE-Exploration“. Die Forschenden erhielten „die Freiheit, neuartigen, hoch innovativen Forschungsideen nachzugehen“, sagte sie: „Mit bis zu 300.000 Euro pro Projekt für bis zu zwei Jahre können sie eine unkonventionelle Hypothese, einen radikal neuen Ansatz testen. Solche Freiheit ist selten geworden in der Forschungsförderung.“

Projektleitung an der Technischen Universität Darmstadt: Prof. Dr. Andrea Rapp

Förderung: Deutsche Forschungsgemeinschaft

Der Verbund Text+ ist im Rahmen der Nationalen Forschungsdateninfrastruktur auf Sprach- und Textdaten ausgerichtet und konzentriert sich zunächst auf digitale Sammlungen, lexikalische Ressourcen und Editionen. Diese sind von hoher Relevanz für zahlreiche Disziplinen, speziell für Sprachwissenschaften, Literaturwissenschaften, Philosophie, Klassische Philologie, Anthropologie, außereuropäische Kulturen und Sprachen sowie sprach- und textbasierte Forschung der Sozial, Wirtschafts-, Politik, und Geschichtswissenschaften. Die Nationale Forschungsdateninfrastruktur soll die Datenbestände von Wissenschaft und Forschung systematisch erschließen, nachhaltig sichern und zugänglich machen sowie national und international vernetzen.

In einem Konsortium aus über 30 Institutionen, zu denen neben Hochschulen auch außeruniversitäre Forschungseinrichtungen, wissenschaftliche Bibliotheken und Rechenzentren gehören, bildet die Technische Universität Darmstadt mit der Hochschule Darmstadt und der Universitäts- und Landesbibliothek eine Kooperation, die innerhalb der Datendomäne „Editionen“ ihren Schwerpunkt im Bereich der Community hat. Neben Workshops und Online-Tutorials umfasst diese Arbeit auch Beratungstätigkeiten und curriculare Empfehlungen. Prof. Dr. Andrea Rapp vom Institut für Sprach- und Literaturwissenschaft ist wissenschaftliche Vizesprecherin im Konsortium sowie gewählte stellvertretende Sprecherin des Konsortiums im NDFI-Verein.

Weitere Informationen: https://www.text-plus.org/

Projektleitung: Nina Janich

Förderung: Gefördert durch die DFG

Weitere Informationen finden Sie hier

Projektleitung: Prof. Dr. Evelyn Gius

Förderung: Land Hessen in der Förderlinie „LOEWE-Exploration“

Das übergreifende Ziel von KatKit ist es, die Komplexität des Ontologie-Designs zu reduzieren und humanistisches Denken durch mathematisch informierte Methoden zu unterstützen. Dadurch wird das Risiko verringert, versehentlich inkohärente und inkonsistente Modelle der relevanten Untersuchungsgegenstände zu erstellen, während die Konzeptualisierung und Operationalisierung geisteswissenschaftlicher Forschungsfragen gestärkt wird.

Das Projekt zielt darauf ab, die Entwicklung von Kategoriensystemen in den Digital Humanities durch mathematische Prinzipien zu unterstützen. Als Ergebnis wird der Ontologie-Editor KatKit (KATegorien toolKIT) als Proof of Concept entwickelt, der 1.) auf mathematischen Modellen basiert, die Eigenschaften wie Konsistenz und Kohärenz von Kategoriensystemen sicherstellen, 2.) humanistisches Denken unterstützt und schließlich 3.) in bestehende DH-Toolchains integriert werden kann, z.B. durch Anbindung an die Annotationssoftware CATMA. In diesem Projekt wird das Problem der Kategorienentwicklung auf interdisziplinäre Weise von den digitalen Geisteswissenschaften, der Philosophie und den formalen Wissenschaften Mathematik und Informatik unter Verwendung der angewandten Kategorientheorie angegangen.

Informationen über das Projekt finden Sie hier:Mehr erfahren

Projektleitung: Prof. Dr. Britta Hufeisen (TU Darmstadt)

Projektdurchführung: M.A. Oliver Delto, M.A. Adrianna Plotka-Maza Gutierrez und M.A. Johanna Wolf

Förderung: Gefördert durch das Hessische Ministerium für Soziales und Integration (HMSI)

Informationen zu den Projektinhalten finden Sie hier: https://www.daf.tu-darmstadt.de/hezas/hezas_start/index.de.jsp

Projektleitung: Nina Janich

Förderung: Gefördert durch die Klaus Tschira Stiftung

Weitere Informationen finden Sie hier

Projektleitung: Prof. Dr. Andrea Rapp (TU Darmstadt), Prof. Dr. Gyburg Uhlmann (FU Berlin), Dr. Danah Tonne (KIT), Dr. Albert Geukes (FU Berlin)

Förderung: DFG-Sonderforschungsbereich 980 „Episteme in Bewegung“ (2020-2024)

Das Teilprojekt entwickelt informationstechnologische Verfahren zur Datenerschließung für die Untersuchung und Visualisierung von Wissensbewegungen in langfristig tradierten vormodernen Wissensbeständen am Beispiel von Reisen von Handschriften, Drucken sowie Sarg- und Pyramiden­textsprüchen. Basierend auf einem Forschungsdatenrepositorium werden (1) neue Werk­zeuge zur Datenanalyse, (2) spezifische Vokabulardienste und (3) innovative Präsentations­schichten entwickelt. Mit der Zusammenarbeit an drei Standorten (Berlin, Karlsruhe, Darmstadt) hat das Projekt Pilot­funktion im Hinblick auf die Etablierung komplexer institutioneller Kooperationen im Bereich Forschungsdatenmanagement.

Projektleitung: Nina Janich

Förderung: Gefördert durch BMBF

Gefördert im Rahmen der FEdA „Forschungsinitiative zum Erhalt der Artenvielfalt“ zum Thema „Wertschätzung und Sicherung von Biodiversität in Politik, Wirtschaft und Gesellschaft“ (BiodiWert).

Weitere Informationen finden Sie hier

Projektleitung: Prof. Dr. Evelyn Gius (TU Darmstadt), Prof. Dr. Chris Biemann (Universität Hamburg)

Förderung: DFG-Schwerpunktprogramm „Computational Literary Studies“

In der Erzähltheorie werden Ereignisse als kleinste Einheit erzählender Texte definiert, wobei sich unterschiedliche Positionen zu den Kriterien für Ereignishaftigkeit entwickelt haben. In EvENT arbeiten wir daran, diese unterschiedlichen narratologische Ereigniskonzepte für digitale Annotation zu operationalisieren. Gegenstand der Annotationen sind Texte aus dem d-Prose-Korpus (https://zenodo.org/record/4315209#.X_8CsuhKhhE), das Erzähltexte aus dem Zeitraum 1870-1920 sammelt.

Ein wesentliches Ziel im Projekt ist die Evaluierung dieser Ereigniskonzepte als Annotationskategorien. Dabei versuchen wir zu ermitteln, inwiefern Ereignisannotationen und die darauf aufbauende Modellierung von Handlung analytisch genutzt werden können, um etwa autoren-, epochen- oder genrespezifische Merkmale zu beschreiben. Wir versprechen uns mit der Annotation von Ereignissen außerdem, die Annotation von Phänomenen der Erzählweise (narrative Ebenen, Zeit der Erzählung usw.) unterstützen zu können.

Das zweite Ziel in EvENT ist die Automatisierung der Identifikation von Ereignissen. Dafür werden erzähltheoretische Ereigniskonzepte mit bestehenden Ereignismodellierungen innerhalb des Natural Language Processing abgeglichen. In der Computerlinguistik wurden in den letzten Jahren Methoden entwickelt, um einzelne Ereignisse, Ereignisketten und die Handlung kürzerer journalistische Texte zu modellieren. Im Rahmen des Projekts wird versucht, diese Verfahren für längere, literarische Texte zu adaptieren, unter anderem um die Entwicklung automatischer Annotationsverfahren zu unterstützen.

Siehe auch die Homepage unserer Kooperationspartner: https://www.inf.uni-hamburg.de/en/inst/ab/lt/research/event.html

Projektleitung: Nina Janich

Förderung: Gefördert durch die Klaus Tschira Stiftung

Weitere Informationen finden Sie hier

Projektleitung: Prof. Dr. Evelyn Gius (TU Darmstadt)

Förderung: DFG-Förderlinie „Wissenschaftliche Literaturversorgungs- und Informationssysteme (LIS)“

In forTEXT erarbeiten wir einsteigerfreundliche Beschreibungen von Methoden, Ressourcen und Tools der digitalen Geisteswissenschaften und stellen Lern- und Lehrmaterialien zur Verfügung. Darüber hinaus widmet sich forTEXT auch selbst der Toolentwicklung. Die im forTEXT-Projekt (weiter-)entwickelte Software CATMA ist eine intuitiv bedienbare Webapplikation zur digitalen Annotation, die speziell auf die Bedürfnisse von Literaturwissenschaftler:innen abgestimmt ist.

Im Zentrum von forTEXT stehen die beiden wichtigsten Aktivitäten der hermeneutischen Texterschließung: Textannotation und Textanalyse. Für diese Methoden eröffnen wir traditioneller arbeitenden Geisteswissenschaftler:innen einen direkten, niedrigschwelligen und funktionalen Zugang. Dabei achten wir darauf, dass die Notwendigkeit, technische Vorerfahrungen zu haben, minimiert wird, dass es forTEXT-Nutzer:innen ermöglicht wird, unterschiedliche Tools und Methoden miteinander zu kombinieren (Mixed-Methods-Ansätze) und dass immer ein konkreter Bezug zu geisteswissenschaftlichen Traditionslinien und Fallbeispielen hergestellt wird.

Nutzer:innen der Plattform https://forTEXT.net können mit Hilfe des forTEXT-Projekt-Piloten Empfehlungen für digitale Methoden, Textsammlungen und Tools erhalten, die auf ihren individuellen Projektverlauf abgestimmt sind. Mit diesen Empfehlungen können die Inhalte der Plattform autodidaktisch erschlossen werden. Neben textbasierten Artikeln und Tutorials stellt forTEXT auch Video-Anleitungen bereit. Scheint das Selbstlernangebot erschöpft, so bietet forTEXT auch persönlichen Support an. Im Rahmen von Fallstudien-Vorträgen, Gastsitzungen in Seminaren und Workshops trägt forTEXT dazu bei, digitale Methoden im geisteswissenschaftlichen Arbeitsprozess zu verankern.

Weitere Informationen auf https://forTEXT.net

Projektleitung: Prof. Dr. Matthias Luserke-Jaqui

Projektmitarbeit:: Dr. Lisa Wille , Isabelle Wagner, Mery Abdel Karim

Förderung:

Projektleitung: Prof. Dr. Matthias Luserke-Jaqui

Projektmitarbeit:: Dr. Lisa Wille , Isabelle Wagner, Mery Abdel Karim

Projektleitung: Prof. Dr. Matthias Luserke-Jaqui

Projektmitarbeit:: Dr. Lisa Wille , Isabelle Wagner, Mery Abdel Karim

Förderung:

Projektleitung: Prof. Dr. Thomas Weitin (TU Darmstadt), Prof. Ulrik Brandes (ETH Zürich).

Förderung: DFG-Schwerpunktprogramm „Computational Literary Studies“ (2019-2022), Swiss National Science Foundation

In den letzten 15 Jahren hat die Literaturwissenschaft enorm von den neuen Methoden der Digital Humanities profitiert. Diese Entwicklung bringt allerdings auch Skepsis mit sich, welche sich besonders auf dem scheinbaren Gegensatz von kritischer Reflexion und statistischer Analyse bezieht. Entgegen diesen Bedenken ist aber die Entwicklung der digitalen Literaturwissenschaft äußerst produktiv, da ihre Anwendung Ergebnisse schafft, die nicht nur bereits bestehende Hypothesen unterstützen, sondern neue Erkenntnisse über unsere Arbeit und unsere Fragen ermöglichen.

Wir wollen durch die Entwicklung netzwerkbasierter Analysemethoden dazu beitragen, Aussagen über umfangreiche unsichtbare, also dekanonisierte, Literaturen (Franco Moretti's „great unread“) zu ermöglichen. Hierzu wird ein Korpus aus deutsch- und englischsprachiger Literatur des 18. Jahrhunderts und der Goethezeit im Speziellen untersucht. Die mehr als 400 ausgewählten Romane und Erzählungen liegen in digitalisierter Form vor und stehen exemplarisch für die großen Textmassen die sich den einzelnen Leserinnen und Leser entziehen und schließlich vergessen werden.

Das wesentliche Forschungsinteresse besteht an der automatisierten Abgrenzung von Texten sowie der wechselnden Bedeutung einzelner Texte in Textsammlungen, die nach verschiedenen Kriterien ausgewählt werden. Insbesondere sind wir am Einfluss der Zusammenstellung literaturwissenschaftlicher Korpora auf die Positionen weiblicher Autorinnen interessiert. Dazu sollen geeignete Merkmale identifiziert und Gruppierungsmethoden entwickelt werden, die Netzwerkrepräsentationen verwenden und dabei über den Vergleich von Häufigkeiten und gemeinsamem Auftreten von Wörtern hinaus gehen. So sollen Netzwerkmodelle verschiedener Datentypen (z.B. stilometrischer oder semantischer Daten) entwickelt werden, welche die Literaturgeschichte anhand von Gruppierungsprozessen nachvollzieht.

Projektleitung: Prof. Dr. Thomas Stäcker (ULB Darmstadt), Prof. Dr. Marcus Müller (TU Darmstadt)

Förderung: DFG

Das 1986 eingestellte Darmstädter Tagblatt war eines der ältesten Periodika und die am längsten kontinuierlich herausgegebene Tageszeitung im deutschen Sprachraum und fungierte als wichtigstes Leitmedium in Darmstadt und der Region Südhessen. Dieses soll – in einer ersten Antragsphase bis 1941 – digitalisiert und zum Teil linguistisch aufbereitet werden.

Die Digitalisierung umfasst die Imagedigitalisierung mit Strukturdatenerfassung, die OCR-Volltextgenerierung, die (semi-)manuelle Artikelseparierung ausgewählter Sequenzen, die automatische Personen- und Ortsnamenidentifikation und, wo möglich, Zuordnung zu Normdaten sowie die automatische Wortarten-Annotation. Als erster Anwendungsfall wird in einem Team unter der Leitung von Prof. Müller auf dem segmentierten, OCR-behandelten, bereinigten und linguistisch annotierten Teil der Daten eine diskurslinguistische Studie zum Wandel des öffentlichen Risikokonzeptes 1850-1915 am Beispiel des Darmstädter Tagblatts durchgeführt.

Auf der technischen Basis einer Weiterentwicklung des kollaborativen Annotationstools WebAnno wird das auch Möglichkeiten des crowd sourcing nutzen, um nicht nur weitere Textverbesserungen zu erzielen, sondern auch die Beitragenden zu sachlichen Annotationen zu motivieren. Eine Schlüsselrolle in der Suche kommt erfahrungsgemäß Entitäten wie Personen- und Ortsnamen, aber auch der Kodierung grammatischer Strukturen zu. Ziel ist es, ein sowohl im Umfang, als auch Qualität hochwertiges Korpus zu erarbeiten. Dabei soll in der Zusammenarbeit von Bibliothek und Institut prototypisch eine kollaborative Struktur entstehen, die spezifisch fachwissenschaftliche und fächerübergreifende Interessen produktiv in sich vereint.

Projektleitung: Prof. Dr. Andrea Rapp

Förderung: BMBF

Die beiden etablierten geisteswissenschaftlichen Forschungsinfrastrukturen CLARIN-D und DARIAH-DE haben sich zusammengeschlossen, um zu einer gemeinsamen Forschungsdateninfrastruktur für die Geisteswissenschaften in Deutschland beizutragen.

Die in den letzten Jahren erfolgreich eingeleitete Zusammenarbeit soll während der Projektlaufzeit so weit vorangetrieben werden, dass ab 2021 eine nationale Forschungsdateninfrastruktur für die Geisteswissenschaften angeboten werden kann, die aus gemeinsamen, technischen Komponenten und abgestimmten Verfahren besteht.

Verbundpartner: Berlin-Brandenburgische Akademie der Wissenschaften, Eberhard Karls Universität Tübingen, Gesellschaft für wissenschaftliche Datenverarbeitung mbH Göttingen, Hamburger Zentrum für Sprachkorpora, Institut für Deutsche Sprache Mannheim, Otto-Friedrich-Universität Bamberg / Fakultät für Wirtschaftsinformatik und Angewandte Informatik, Niedersächsische Staats- und Universitätsbibliothek Göttingen, Technische Universität Darmstadt / Institut für Sprach- und Literaturwissenschaft, Universität Leipzig, Julius-Maximilians-Universität Würzburg / Institut für deutsche Philologie / Lehrstuhl für Computerphilologie und Neuere Deutsche Literaturgeschichte

Projektleitung: Prof. Dr. Nina Janich

Förderung: Klaus Tschira Stiftung

Im Projekt soll mit Hilfe von Interviews und Textanalysen geprüft werden, wann und wie es zu Kommunikationsproblemen zwischen Naturwissenschaftler*innen und Wissenschaftsjournalismus bzw. Öffentlichkeitsarbeit kommen kann. Ziel ist es, konkrete Vorschläge für eine Verbesserung dieser Kommunikation machen zu können und damit Nachwuchswissenschaftler*innen in der Außenkommunikation ihrer Forschung zu unterstützen.

Projektleitung: Prof. Dr. Britta Hufeisen (TU Darmstadt), Dr. Chris Merkelbach

Projektdurchführung: M.A. Katharina Braunagel

Förderung: Gefördert durch das Hessische Ministerium für Wissenschaft und Kunst (HMWK)

Informationen zu den Projektinhalten finden Sie hier: https://www.daf.tu-darmstadt.de/forschungprojekte/hmwk_projekt/index.de.jsp

Projektleitung: Prof. Dr. Thomas Weitin (TU Darmstadt), Ulrik Brandes (ETH Zürich),

Förderung: Volkswagen Stiftung

Das Projekt ‚Reading at Scale‘ beruht auf folgendem Ansatz: Wenn hermeneutische und statistische Methoden ihre je eigenen Stärken in der detaillierten Einzelanalyse und im Umgang mit großen Datenmengen haben, ist ein Mixed Methods-Ansatz besser für die mittlere Ebene geeignet als die beiden Methoden allein. Literarische Texte und Textkorpora ermöglichen Analysen in unterschiedlichen Auflösungsstufen von der Zeichenebene im einzelnen Werk bis hin zu ganzen Literaturen, wobei Literaturwissenschaft und Literaturgeschichte traditionell viele Forschungsfragen auf der mittleren Ebene untersuchen. Im Fokus unserer Studien steht eine historische Sammlung von 86 Novellen, die unter dem Titel „Der deutsche Novellenschatz“ (24 Bände, 1871-1876) von den Herausgebern Paul Heyse und Hermann Kurz veröffentlicht wurde. Wir haben diese realismusorientierte Anthologie bereits als TEI/XML Korpus aufbereitet, weitere solche Sammlungen werden folgen. Dank ihrer mittleren Größe liegt die Novellensammlung noch in der Reichweite individueller Lektüre und hat doch schon eine für statistische Analysen vielversprechende Größe. Unser Textkorpus wird von zwei Dissertationen auf unterschiedlichen Operationalisierungsstufen untersucht: (1) eine Netzwerkanalyse beschäftigt sich mit Problemen der Distinktion innerhalb populärer Literatur; (2) eine vergleichende Studie untersucht den „Deutschen Novellenschatz“ als ein wirkungsvolles Instrument der Kanonisierung und als programmatischen Versuch einer nicht-narrativen Literaturgeschichte. Die beiden Projektleiter integrieren die Einzelstudien aus der Perspektive methodologischer Grundlagenforschung: Ein algorithmisches Subprojekt eruiert Konzepte der Position in der Netzwerkforschung, ein literaturwissenschaftliches Subprojekt konzentriert sich auf Probleme der Validierung bei digitalen Analysen.

Publikationen im Projektzusammenhang

  • Brandes, Ulrik, Weitin, Thomas, Päpcke, Simon, Pupynina, Anastasia, Herget, Katharina (2019): Distance measures in a non-authorship context. The effect on the „Deutsche Novellenschatz“ (im Erscheinen).
  • Weitin, Thomas (2019): Burrows‘s Delta und Z-Score-Differenz im Netzwerkvergleich. Analysen zum Deutschen. Novellenschatz von Paul Heyse und Hermann Kurz (1871-1876), in: Digitale Literaturwissenschaft. Beiträge des DFG-Symposiums, hrsg. v. Fotis Jannidis, Stuttgart (im Erscheinen).
  • Weitin, Thomas (2017): (Hg.): Scalable Reading. Zeitschrift für Literaturwissenschaft und Linguistik, 47.1.
    Weitin, Thomas (2017): Literarische Heuristiken: Die Novelle des Realismus, in: Komplexität und Einfachheit. DFG-Symposion 2015, hrsg. v. Albrecht Koschorke, Stuttgart, S. 422–442.
  • Weitin, Thomas, Herget, Katharina (2017): Falkentopics: Über einige Probleme beim Topic Modeling literarischer Texte, in: Zeitschrift für Literaturwissenschaft und Linguistik, 47.1, S. 29–48.
  • Weitin, Thomas (2016): Heuristik des Wartens. Literatur lesen unter dem Eindruck von big data, in: Warten als Kulturmuster, hrsg. v. Julia Kerscher, Xenia Wotschal, Würzburg, S. 180–196.
  • Weitin, Thomas (2016): Selektion und Distinktion. Paul Heyses und Hermann Kurz ́Deutscher Novellenschatz als Archiv, Literaturgeschichte und Korpus, in: Archiv/Fiktionen. Verfahren des Archivierens in Literatur und Kultur des langen 19. Jahrhunderts, hrsg. v. Daniela Gretz, Nicolas Pethes, Freiburg 2016, S. 385–408.
  • Weitin, Thomas, Gilli, Thomas, Kunkel, Nico (2016): Auslegen und Ausrechnen: Zum Verhältnis hermeneutischer und quantitativer Verfahren in den Literaturwissenschaften, in: Zeitschrift für Literaturwissenschaft und Linguistik, 46,1, S. 103–115.

Korpora

  • Weitin, Thomas (2016): Volldigitalisiertes Textkorpus. Der Deutsche Novellenschatz. Herausgegeben von Paul Heyse, Hermann Kurz. 24 Bände, 1871-1876. Darmstadt/Konstanz,
  • Weitin, Thomas (2018): Volldigitalisiertes Textkorpus. Der Neue Deutsche Novellenschatz. Herausgegeben von Paul Heyse, Ludwig Laistner. 24 Bände, 1884-1887. Darmstadt, im Erscheinen.

Projektleitung: Prof. Dr. Nina Janich

Förderung: Deutsche Forschungsgemeinschaft (DFG).

Die EU verbot 2013 (und noch einmal 2018) eine bestimmte Gruppe von Pestiziden, die für das Bienensterben verantwortlich gemacht werden. Im Projekt wird der dadurch ausgelöste Streit zwischen Agrarindustrie, Umweltorganisationen, Imkerverbänden, politischen Parteien und Wissenschaftler*innen diskurslinguistisch untersucht. Geprüft wird, wie in einem solchen öffentlichen Konfliktdiskurs Wissens- und Nichtwissenszuschreibungen versprachlicht und funktional unterschiedlich genutzt werden, um damit bestimmte Ziele und Interessen durchzusetzen.

Projektleitung: Prof. Dr. Andrea Rapp

Förderung: Bundesministerium für Bildung und Forschung

Innovationsziel des Projekts ist die Analyse und Validierung der Potentiale von geisteswissenschaftlichen Nutzungsformen virtueller Forschungsumgebungen. Mittels einer Prozessanalyse der gemeinsamen Bearbeitung eines geisteswissenschaftlichen Forschungsfeldes mit digitalen Forschungsapplikationen sollen neuartige Anwendungsformen und Kollaborationsmo¬delle identifiziert und deren Weiterentwicklung in Gang gesetzt werden. Dazu werden 19 internationale Forschungsgruppen an die verschiedenen digitalen Werkzeuge und Inhalte herangeführt und ihre konkreten Nutzungspraktiken und Forschungsprozesse innerhalb der virtuellen Forschungsumge¬bung untersucht. Aus den Ergebnissen der Untersuchung sollen schließlich Referenzmodelle für die Implementierung und Gestaltung von virtuellen wissenschaftlichen Forschungsprojekten sowie Best Practice Empfehlungen für die strukturelle und prozessuale Verknüpfung von technischen, methodologischen und inhaltsbezogenen Arbeitsebenen abgeleitet werden.

Verbundpartner: JGU Mainz, Hochschule Mainz, TU Darmstadt

Projektleitung: Prof. Dr. Britta Hufeisen (TU Darmstadt)

Projektmitarbeit: Constanze Bradlaw M.A. , Madeleine Schmorré M.A.

Förderung: Gefördert durch das auswärtige Amt

Informationen zu den Projektinhalten finden Sie hier: https://www.daf.tu-darmstadt.de/forschungprojekte/dhoch3/dhoch3.de.jsp

Projektleitung: Prof. Dr. Andrea Rapp

Förderung: TU Darmstadt

Digitale Methoden und Inhalte können sowohl Mittel als auch Gegenstände der Didaktik sein. Die in den Digital Humanities (DH) etablierten vielfältigen, weitreichenden und tiefgreifenden Praktiken des digital gestützten Forschens und wissenschaftlichen Arbeitens werden jedoch durch die Konzepte der Mediendidaktik und des E-Learning allein nicht mehr abgedeckt. Das Projekt hat sich daher zum Ziel gesetzt, neue Konzepte zur Digitalität in den Fachdidaktiken zu entwickeln und zu erproben. Die Projektergebnisse werden sowohl in einem online-Handbuch dokumentiert als auch in einem konkreten Modul „Digitalität als Praxis in den Geisteswissenschaften“ verankert, das in allen Lehramtsstudiengängen und darüber hinaus angeboten werden soll.

Projektleitung: Prof. Dr. Andrea Rapp

Förderung: Deutsche Forschungsgemeinschaft

Im Gastprojekt werden Verfahren und Software zur automatischen Vermessung, zur Dokumentation und zur visuellen Analyse von Gestaltungsmerkmalen auf Handschriften- bzw. Buchseiten (weiter-)entwickelt. Gemeinsam mit ausgewählten Teilprojekten werden Eigenschaften von (Einheiten in) Büchern identifiziert, die für die Analyse von Bewegungen und ihrer Modi, d.h. Transfers und damit De- und Rekontextualisierungen von Wissensbeständen in Büchern und Corpora relevant und im Rahmen der Bildprozessierung automatisierbar sind. Die Ergebnisse werden nahtlos in die Dateninfrastruktur des SFB 980 integriert.

Verbundpartner: Freie Universität Berlin

Projektleitung: Prof. Dr. Thomas Weitin

Nachhaltige und qualitativ hochwertige digitale Anwendungen und Operationalisierungen von (literaturwissenschaftlichen) Fragestellungen beruhen notwendigerweise auf geeignete und stabilen Korpora. Viele kanonisierte Klassiker und Werke sind mittlerweile frei im Internet verfügbar und können auf Webseiten wie etwa dem Projekt Gutenberg DE frei heruntergeladen werden. Aus editionsphilologischer und korpuskritischer Perspektive sind diese digitalen Texte allerdings häufig unzuverlässig: Manchmal sind die zugrundeliegenden Textquelle und Editionen nicht gekennzeichnet, die Dateien sind oft nur im einfachen txt-Format verfügbar, ohne Formatierungen oder tiefergehende Textauszeichnungen. Die Fehlerquoten der verwendeten OCR-Reader (gemeint sind hier Programme zur optical character recognition, die beispielsweise aus PDF-Dateien maschinenlesbaren Text) variierten stark, was wiederum die Qualität der Korpora stark beeinflusst. Initiativen wie das Deutsche Textarchiv stellen sich diesem Trend entgegen, indem hier ein historisches Referenzkorpus nach strengen Richtlinien und hohen Qualitätsstandards (u.a. durch die Prämisse der Erstausgabenverwendung) anstreben.
Zugleich vertritt die digitale Literaturwissenschaft auch den Anspruch, sich in Ihren Analysen und Forschungsgegenständen von dem traditionalen Kanon der Literatur zu lösen bzw. diesen zu erweitern. Die stetige Erstellung und Erweiterung literarischer Korpora ist entsprechend häufig ein signifikanter Aspekt vieler Forschungsprojekte.

Der Korpus-Workflow am Beispiel des Neuen Novellenschatzes
Im Juni 2015 wurde im Vorbereitung zu der Arbeitstagung „Scalable Reading. Paul Heyses Deutscher Novellenschatz zwischen Einzeltext und Makroanalyse“ das erste, unter der Leitung von Thomas Weitin erstellte TEI-XML-Korpus des Deutschen Novellenschatz, einer historischen Sammlung von 86 Novellen, veröffentlicht von Paul Heyse und Hermann Kurz (24 Bände, 1871-1876), eigenständig erstellt. Dieses Korpus wurde kontinuierlich verbessert und mit Metadaten angereichert, um die Forschung zu der populären Novellensammlung des 19. Jahrhunderts voranzutreiben.
Der mittlerweile etablierte Korpus-Workflow wurde seither kontinuierlich erweitert und professionalisiert. Die Korpora werden mittels eines corrected OCR-Verfahrens erstellt:
Die digitalen Repräsentation des Textes (in der Regel PDF-Formate) werden in einem ersten Schritt mittels Abbyy FineReader-Software, die sich besonders gut zur Erkennung von Frakturschrift eignet, in maschinenlesbaren Text umgewandelt. Daraufhin wird der erkannte Text von spezifisch geschulten Hilfskräften in einem zweiten Schritt manuell kontrolliert und korrigiert und im txt-Format gespeichert, einige Korpora werden zudem in ein TEI-konformes XML-Schema übertragen.

Weitere Korpusprojekte
Neben dem Deutschen Novellenschatz wurde mittlerweile auch der Neue Deutschen Novellenschatz von Paul Heyse und Ludwig Laistner (70 Novellen in 24 Bänden, 1884-1887) digitalisiert und aufbereitet. Außerdem begannen wir mit den Korpusvorbereitungen für den letzten fehlenden Novellenschatz, den Novellenschatz des Auslandes mit 57 übersetzten Novellen, ebenfalls erschienen bei Paul Heyse und Hermann Kurz (14 Bände, 1872-1876). Somit ist unser literarisches Novellenkorpus fast vollständig und bereit für die Analyse. Parallel zu diesem werden auch andere historische Quellen aufbereitet und digitalisiert, etwa die umfangreiche Briefkorrespondenz zwischen Paul Heyse und Hermann Kurz (1858-1873, über 700 Briefe), die während des Publikationsprozesses der Novellenschatz-Sammlung entstand.
Mit Der neue Pitaval digitalisieren wir zudem „eine Sammlung der interessantesten Kriminalgeschichten aller Länder aus älterer und neuerer Zeit“, die von Julius Eduard Hitzig und Willibald Alexis (Wilhelm Häring) herausgegeben wurde (60 Bände, 1842-1890).
Die entstehenden digitalen Korpora werden im Sinne von Open Access im deutschen Textarchiv veröffentlicht und so zur freien Forschung bereitgestellt.


Projektpublikationen

  • Weitin, Thomas (2016). Volldigitalisiertes Textkorpus. Der Deutsche Novellenschatz. Herausgegeben von Paul Heyse, Hermann Kurz. 24 Bände, 1871-1876. Darmstadt/Konstanz.
  • Weitin, Thomas (2018). Volldigitalisiertes Textkorpus. Der Neue Deutsche Novellenschatz. Herausgegeben von Paul Heyse, Ludwig Laistner. 24 Bände, 1884-1887. Darmstadt (im Erscheinen).

Weitere Links

Projektleitung: Dr. Sabine Bartsch

Ziel des gemeinsamen Forschungsprojekts ist es, die Entwickler von NLP-Anwendungen zu ermutigen, ihre Tools und Ressourcen für die Bearbeitung schriftlich geführter Diskurse (in deutscher Sprache) in Bereichen der computergestützten Kommunikation (computer-mediated communication, CMC) anzupassen. Beispiele für CMC-Bereiche sind Chats, Foren, Wiki-Diskussionsseiten, Tweets, Blog-Kommentare, soziale Netzwerke, SMS- und WhatsApp-Dialoge.

In diversen Forschungsgebieten und Anwendungskontexten in den Digital Humanities ist die Bearbeitung von CMC-Diskursen als Desiderat und als relevante Aufgabe anzusehen:

- im Rahmen der Erstellung, Verarbeitung und Analyse von Korpora der computervermittelten Kommunikation / Social Media (Chat-Korpora, News-Korpora, WhatsApp-Korpora, …)

- im Rahmen der Sammlung, Verarbeitung und Analyse umfangreicher und genre-heterogener Web-Korpora als Ressourcen im Bereich der Sprachtechnologie / Data Mining

- im Kontext des Umgangs mit CMC-Daten in korpusbasierten Analysen zu zeitgenössischer Schriftsprache, Sprachvariation und Sprachwandel

- in allen Forschungsbereichen außerhalb der Linguistik, in denen soziale, kulturelle und pädagogische Aspekte von Social Media und CMC-Technologien unter Verwendung von Sprachdaten aus verschiedenen CMC-Bereichen behandelt werden

Die gemeinsame Aufgabe bestand aus zwei Unteraufgaben:

- Tokenisierung der CMC-Diskurse

- „Part-of-Speech“-Kennzeichnung der CMC-Diskurse

Die beiden Unteraufgaben verwendeten zwei unterschiedliche Datensätze:

- CMC-Datensatz: Eine Auswahl von Daten aus verschiedenen CMC-Bereichen (sozialer Chat, professioneller Chat, Wikipedia-Diskussionsseiten, Blog-Kommentare, Tweets, WhatsApp-Dialoge).

- Webkorpora-Datensatz: Eine Auswahl von Daten, die den schriftlichen Diskurs aus heterogenen WWW-Genres abbilden – bestehend aus gecrawlten Websites, einschließlich kleinerer Teile des CMC-Diskurses (z. B. Webseiten, Blogs, Nachrichtenseiten, Blogkommentare usw.).

Mehr erfahren

Projektleitung: Prof. Dr. Andrea Rapp

Förderung: Union der Deutschen Akademien der Wissenschaften

Die kursiven Handschriften stellen im Gegensatz zu den vorwiegend gemeißelten Hieroglyphen die eigentliche Schrift des Alten Ägypten dar, die mit Binsenstengeln und schwarz-roter Tusche auf Papyrus, Leinen, Leder, Holz, Keramik, Putz oder Stein geschrieben wurde. Die hieratische Schrift wurde 3.000 Jahre lang für die verschiedenen Sprachstufen Ägyptens verwendet und erst in der Mitte des 1. Jahrtausends v.Chr. in einigen Bereichen von der demotischen Kursivschrift verdrängt. Die sogenannten Kursivhieroglyphen sind eine handschriftliche, formnahe Umsetzung von Einzelhieroglyphen. Die Erforschung beider Schriftarten und ihres Verhältnisses zu den Hieroglyphen und zum Demotischen ist immer noch ein Desiderat der Ägyptologie und Handschriftenkunde. Ziele des Akademievorhabens sind zum einen die Erstellung einer digitalen Paläographie, die das Zeichenrepertoire für vielfältige Suchmöglichkeiten sowie für die Kooperation mit der internationalen Fachwelt bewahrt und online präsentiert und daneben umfangreiche Metadaten zu allen relevanten Quellen bietet. Teil- oder Spezialpaläographien werden sukzessive auch als Downloaddateien oder Buchpublikationen zur Verfügung gestellt. Zum anderen erfolgt eine systematische Erforschung der Kursivschriften mit Blick auf Entstehung und Entwicklung, Funktionsbereiche, Regionalität und Datierbarkeit. Weitere Fragestellungen beziehen sich beispielsweise auf die Ökonomie und Materialität des Schreibens, das Layout von Manuskripten oder die Identifikation von individuellen Schreiberhänden. Während Module zur Informationstechnik das Vorhaben im Bereich der Digital Humanities verankern, werden Praktika zum Schreiben und Faksimilieren von Hieratisch sowie zur Didaktik Eingang in die ägyptologischen Studiengänge finden.

Verbundpartner: Johannes Gutenberg-Universität Mainz – Ägyptologie, Akademie der Wissenschaften und der Literatur – Mainz, TU Darmstadt – Institut für Sprach- und Literaturwissenschaften

Projektleitung: Prof. Dr. Andrea Rapp

Förderung: Deutsche Forschungsgemeinschaft

In diesem Projekt soll ein generisches Metadatenmanagement für wissenschaftliche Daten etabliert werden, basierend auf einer anwendungsorientierten Metadatenbeschreibung. Die Umsetzung erfolgt begleitend durch Anwender unterschiedlicher und heterogener Anwendungsgebiete. Darmstadt und Mainz betreuen gemeinsam den geisteswissenschaftlichen Use Case.

Verbundpartner: TU Dresden – ZIH, KIT – Institut für Prozessdatenverarbeitung und Elektronik, Leibniz-Institut für ökologische Raumentwicklung – Monitoring der Siedlungs- und Freiraumentwicklung, RWTH Aachen – Fachgruppe Chemie, Akademie der Wissenschaften und der | Literatur Mainz – Digitale Akademie, TU Darmstadt – Institut für Sprach- und Literaturwissenschaft

Projektleitung: Prof. Dr. Nina Janich

Förderung: Deutsche Forschungsgemeinschaft (DFG).

Im Projekt wurden Kinderuni-Vorlesungen, Kinder-Wissensmagazine im Fernsehen und Kindersachbücher linguistisch untersucht. Ziel war es herauszufinden, wie Wissen für Kinder in Sprache und Bild aufbereitet wird und wodurch sich diese außerschulischen Formate unterscheiden.

Projektleitung: Prof. Dr. Andrea Rapp

Förderung: Bundesministerium für Bildung und Forschung

ePoetics zielt auf eine Weiterentwicklung der eHumanities durch die Erprobung aktueller informationstechnologischer Methoden an einem für die Geisteswissenschaften zentralen Textbestand, Poetiken und Ästhetiken von 1770 bis 1960. Die TU Darmstadt hat als Projektpartner insbesondere zum Ziel, im Zuge des digitalen Aufbaus dieses besonderen Korpus Mehrwerte bzw. neue Erkenntnisse im Bereich der Erschließungsverfahren und Metadaten-Strukturen zu gewinnen – auch in Wechselwirkung mit der sprachtechnologischen Analyse/Verarbeitung und den projektierten Visualisierung-Verfahren. Außerdem ist beabsichtigt, durch die offene Gestaltung des Korpus und die Publikation bzw. Einbindung in virtuellen Forschungsumgebungen und –infrastrukturen zu bewirken, dass der Textbestand erweitert und die Science Community in die Forschungsarbeit an und mit den Texten und Metadaten einbezogen werden kann, wodurch wiederum neue wissenschaftliche Ergebnisse erzielt werden können.

Verbundpartner: Informatik / Institut für Visualisierung und Interaktive Systeme und Computerlinguistik / Institut für Maschinelle Sprachverarbeitung, Universität Stuttgart, Institut für Sprach- und Literaturwissenschaft der Technischen Universität Darmstadt

Projektleitung: Prof. Dr. Daniel Barben (Universität Klagenfurt) & Prof. Dr. Nina Janich

Förderung: Deutsche Forschungsgemeinschaft (DFG) im Rahmen eines Schwerpunktprogramms „Climate Engineering: Risks, Challenges, Opportunities?“

In diesem interdisziplinären linguistisch-politikwissenschaftlichen Projekt wurde untersucht, wie in der Klimaforschung allgemein und im Schwerpunktprogramm im Besonderen (wissenschaftliche) Verantwortung definiert und kommuniziert wird. Im Vordergrund stand dabei die Verantwortung von Forscher*innen, die sich mit den Chancen und Risiken von Technologien des sog. Climate Engineering auseinandersetzen (d.h. z.B. mit CO2-Speicherung im Boden oder im Meer oder mit Eingriffen in den Strahlenhaushalt der Erde).

Projektleitung: Prof. Dr. Andrea Rapp

Förderung: Bundesministerium für Bildung und Forschung

Das Projekt nutzt den Pool von etwa 500 mittelalterlichen Handschriften aus der Benediktinerabtei St. Matthias in Trier. Ziel ist die Entwicklung, Erprobung und Optimierung von neuen Algorithmen, die Makro- und Mikro-Strukturelemente einer Manuskriptseite automatisch erkennen und diese Informationen in die Metadaten zu jedem Image einpflegen. Beispiele sind (metrische) Daten wie Seitenformat, die Anzahl der Zeilen, Beschriftungen, Register, Paratexte, Marginalien, das Verhältnis von Bild und Text und viele mehr. Ferner werden Verfahren zur statistischen Auswertung dieser Metadaten entwickelt und erprobt.

Verbundpartner: Institut für Prozessdatenverarbeitung und Elektronik/Karlsruher Institut für Technologie KIT, Kompetenzzentrum für elektronische Erschließungs- und Publikationsverfahren in den Geisteswissenschaften an der Universität Trier, Stadtbibliothek und Stadtarchiv Trier

Projektleitung: Prof. Dr. Damaris Nübling (Universität Mainz) & Prof. Dr. Nina Janich . Leitung der Arbeitsstelle an der TU Darmstadt: Prof. Dr. Andrea Rapp .

Förderung: Mainzer Akademie der Wissenschaften und der Literatur

Im Rahmen des Projekts werden die häufigsten (deutsch- und fremdsprachigen) Familiennamen in Deutschland sprachhistorisch gedeutet, erklärt und kartiert und kontinuierlich in einem digitalen Namenwörterbuch veröffentlicht. Das Namenwörterbuch enthält außerdem namenkundliche Informationen und steht auf der folgenden Webseite der interessierten Öffentlichkeit zur Verfügung.

Projektleitung: Prof. Dr. Nina Janich

Förderung: Deutsche Forschungsgemeinschaft (DFG) im Rahmen einer umwelthistorischen Projektgruppe „Wege zur nachhaltigen Entwicklung von Städten“

In diesem Projekt wurde am beispielhaften Vergleich von Mainz vs. Wiesbaden linguistisch untersucht, wie Nachhaltigkeit entsprechend der „Lokalen Agenda 21“ stadtspezifisch als Entwicklungsprogramm diskutiert und etabliert wird. Ein Schwerpunkt lag darauf, wie Nachhaltigkeit konkret auf städtische Räume und Orte bezogen wird – und wie sich dies wiederum auf die Verwendung von Raummetaphern in programmatischen Texten der Städte auswirkt.

Projektleitung: Prof. Dr. Andrea Rapp

Förderung: Bundesministerium für Bildung und Forschung

DARIAH-DE ist ein Forschungsinfrastruktur-Projekt der ESFRI-Roadmap, das unter dem europäischen Dach DARIAH-EU die Nutzung digitaler Methoden in den Geisteswissenschaften unterstützten und erweitern soll. Die 17 akademischen Partner im Projekt haben am 1.3.2011 ihre Arbeit aufgenommen.

DARIAH-DE unterstützt und erweitert die Nutzung digitaler Methoden in den Geisteswissenschaften. Gemeinsam mit erfolgreichen Initiativen im Bereich der Digital Humanities in Deutschland

• unterstützt DARIAH-DE den Aufbau Virtueller Forschungsumgebungen in den Geisteswissenschaften durch Beratung, Verknüpfung von bisher getrennten Aktivitäten und auch durch technische Infrastruktur.

• nutzt und verknüpft DARIAH-DE vorhandene digitale Ressourcen, Dienste und Erkenntnisse auch übergreifend über einzelne Disziplinen und bestimmte Forschungsfragen.

• errichtet und erforscht DARIAH-DE eine dezentrale technische Infrastruktur, auf der geisteswissenschaftliche Methoden implementiert und genutzt werden können.

Dieses Ziel beinhaltet nicht nur technische Aufgaben, sondern betrifft ebenso lokale wie internationale Aktivitäten, und ist vor allem langfristig ausgelegt.

An der TU Darmstadt sind neben dem Institut für Sprach- und Literaturwissenschaft auch das Institut für Philosophie (Prof. Petra Gehring) sowie das UKP Lab (Prof. Iryna Gurevych) beteiligt.

Projektleitung: Prof. Dr. Nina Janich

Förderung: Deutsche Forschungsgemeinschaft (DFG) im Rahmen des Schwerpunktprogramms „Wissenschaft und Öffentlichkeit“

Im Projekt wurde untersucht, wie unterschiedlich Wissenschaftler*innen und (Wissenschafts-)Journalist*innen sprachlich mit wissenschaftlichem Nichtwissen umgehen. Am Beispiel einer öffentlichen und auch politisch geführten Debatte von 2009 um ein Experiment zur Eisendüngung der Meere konnten deutliche Unterschiede in Stil, Rhetorik und Argumentation aufgezeigt werden.

Projektleitung: Dr. Sabine Bartsch

Förderung: Exzellenzinitiative des Landes Hessen, LOEWE.

Der LOEWE-Schwerpunkt Digital Humanities ist eine Kollaboration der Universität Frankfurt, der Technischen Universität Darmstadt und des Freien Deutsches Hochstifts / Frankfurter Goethe Museum. Zielsetzung: die Grundlagenforschung in den beteiligten geisteswissenschaftlichen Disziplinen im Hinblick auf informationstechnologische Verfahrensweisen miteinander zu vernetzen.

LOEWE-Schwerpunkt Digital Humanities – Integrierte Aufbereitung und Auswertung textbasierter Corpora, Mitantragstellerin und PI im Projektbereich „Gegenwartssprachliche Corpora“, 01.2011 – 12.2013

Partner: Prof. Dr. Iryna Gurevich, Prof. Dr. Gert Webelhuth, 01.2011 – 12.2013

Funded by the State of Hessen as part of the LOEWE initiative of excellence.

Mehr erfahren

Projektleitung: Prof. Dr. Andrea Rapp

Förderung: Deutsche Forschungsgemeinschaft

Das Digitalisierungsprojekt „Virtuelles Skriptorium St. Matthias“ präsentiert den noch erhaltenen Bestand an Handschriften der mittelalterlichen Bibliothek der Benediktinerabtei St. Matthias in Trier. Dieser beläuft sich auf ungefähr 500 Kodizes, die weltweit auf 25 Standorte verteilt sind. Der überwiegende Teil von ungefähr 450 Handschriften befindet sich noch heute in Trier. Neben der Stadtbibliothek Trier und der Bibliothek des Bischöflichen Priesterseminars, die zusammen 434 Kodizes besitzen, finden sich darüber hinaus weitere Handschriften im Bistumsarchiv Trier und der Bibliothek des heutigen Klosters St. Matthias. Mit Hilfe der Digitalisierung wurden diese kulturellen Zeugnisse nicht nur für die Öffentlichkeit zugänglich gemacht, sondern auch eine vereinfachte wissenschaftliche Arbeit mit ihnen ermöglicht. Der hier vorgestellte Bestand ist für unterschiedliche Disziplinen von Wert. Genannt seien die Fächer Altphilologie, Germanistik, Geschichte, Kunstgeschichte, Theologie, Medizin und Rechtsgeschichte. Mit einer derart rekonstruierten Bibliothek ist die Absicht verbunden, das geistige Profil eines wichtigen Bildungszentrums und seines Wachstums nachzuzeichnen und neuartige Einblicke in die Produktions- und Rezeptionsbedingungen ihrer Bestände zu gewähren.

Verbundpartner: Universität Trier, TU Darmstadt, Stadtbibliothek Trier

Projektleitung: Prof. Dr. Andrea Rapp

Förderung: Bundesministerium für Bildung und Forschung

Information und Wissen können durch Gruppierung von Einzelzeichen nach bestimmten Regeln kodiert werden, dabei gibt es prinzipielle strukturelle Gemeinsamkeiten zwischen Genomcode und sprachlichem Code sowie biologischer Entwicklung und Sprachentwicklung (vgl. Schlagwörter wie „ABC der Menschheit“, „Buch des Lebens“, „Sprachfamilie“). Ein zentrales Kennzeichen neben dieser „Entwicklungsfähigkeit“ und damit „Historizität“ ist die Vielfalt bzw. Varianz der Erscheinungen. Ein differenzierteres Verständnis der Mechanismen und Regeln von Entwicklung und Varianz ermöglicht neue und präzisere Verfahren der Informationsgewinnung sowie der Speicherung, Bearbeitung und Auswertung der dadurch gewonnenen Daten. Die Konsortialleitung dieses Projekts liegt bei der TU Darmstadt.

Verbundpartner: TU Darmstadt, Universität Würzburg, Institut für deutsche Sprache Mannheim, Kompetenzzentrum für elektronische Erschließungs- und Publikationsverfahren Trier (später Darmstadt)

Projektleitung: Prof. Dr. Andrea Rapp

Förderung: Bundesministerium für Bildung und Forschung

Als Projekt im 3. D-Grid Call hat sich WissGrid die nachhaltige Etablierung von organisatorischen und technischen Strukturen für den akademischen Bereich im D-Grid zum Ziel gesetzt. Dabei bündelt WissGrid die heterogenen Anforderungen aus verschiedenen wissenschaftlichen Disziplinen und entwickelt so konzeptionelle Grundlagen für die nachhaltige Nutzung der Grid-Infrastruktur sowie IT-technische Lösungen. In diesem Kontext stärkt das Projekt die organisatorische Zusammenarbeit der Wissenschaften im Grid und senkt die Eintrittsschwellen für neue Community-Grids.

Verbundpartner

Alfred-Wegener-Institut, Helmholtz-Zentrum für Polar- und Meeresforschung, Bergische Universität Wuppertal, Deutsches Elektronen Synchrotron, Deutsches Klimarechenzentrum GmbH, Institut für Deutsche Sprache, Institut für Wirtschaftsinformatik, Leibnitz-Universität Hannover, Kompetenzzentrum für elektronische Erschließungs- und Publikationsverfahren in den Geisteswissenschaften / Universität Trier (später Technische Universität Darmstadt), Konrad-Zuse-Zentrum für Informationstechnik Berlin, Leibniz-Institut für Astrophysik Potsdam, Niedersächsische Staats- und Universitätsbibliothek Göttingen, Technische Universität Dortmund, Technische Universität München, Universität Stuttgart, Universitätsklinikum Göttingen/Abteilung Medizinische Informatik, Zentrum für Astronomie

Projektleitung: Prof. Dr. Nina Janich

Förderung: Deutsche Forschungsgemeinschaft (DFG)

Dieses Projekt diente als linguistische Begleitforschung zu einem politikwissenschaftlich-physikalischen Forschungsprojekt. Untersucht wurde, wie die dortigen Projektbeteiligten ihr interdisziplinäres Arbeitsprogramm und eine entsprechende „gemeinsame“ Sprache aushandeln und welche Herausforderungen sich bei der Abfassung eines gemeinsamen Projektantrags ergaben.

Projektleitung: Dr. Sabine Bartsch

Das Projekt linguisticsweb.org beschäftigt sich mit der Entwicklung und Erstellung von Tutorials, How-tos, Links, Werkzeugen und Korpuszugängen zur Unterstützung von Forschungsaufgaben im Bereich der Linguistik, Corpus- und Computerlinguistik und der weiteren digitalen Philologien.

Ziel von linguisticsweb.org ist es, Studierende und Wisssenschaftler*innen bei der corpus- und computerbasierten Forschung durch die Bereitstellung von Materialien und Anleitungen zum Selbststudium und zur Begleitung der Lehre zu unterstützen und den eigenständigen Einsatz von Technologien und Methoden in der linguistischen und weiteren philologischen Forschung zu unterstützen.

Das Portal linguisticsweb-org wird in Forschung und Lehre sowie in Workshops eingesetzt und von internationalen Wissenschaftler*innen und Lehrenden genutzt.

linguisticsweb.org wurde 2008-09 als eigenständiges Online-Projekt erstellt und wird seitdem kontinuierlich weiterentwickelt.

Mehr erfahren

Projektleitung: Prof. Dr. Andrea Rapp

Förderung: Bundesministerium für Bildung und Forschung

TextGrid wurde seit 2006 im Rahmen eines aus zehn institutionellen und universitären Partnern bestehenden Verbundprojekts, das bis Juni 2015 vom Bundesministerium für Bildung und Forschung (BMBF) gefördert wurde (Förderkennzeichen: 01UG1203A) entwickelt. Seit 2016 ist TextGrid Teil der DARIAH-DE Forschungsinfrastruktur.

Im Rahmen des Projektes wurde eine virtuelle Forschungsumgebung für die Geisteswissenschaften entwickelt. Zu den wesentlichen Säulen gehören das TextGrid Laboratory, das Open-Source-Werkzeuge und –Services bereitstellt, das Repository zur Langzeitarchivierung von Forschungsdaten und die Community in allen Belangen unterstützende Services.

Verbundpartner: DARIAH-DE