Jump to contentJump to search
Seitliche Darstellung eines alten Computers als türkisfarbenes Neonzeichen auf schwarzem Hintergrund. KI-generiert

Praxisbeispiele aus Lehre und Forschung an der HHU

Digital Humanities in der Lehre

Die Digitale Provenienzforschung ist ein relativ neuer Zweig der Provenienzforschung, der aufgrund der ständigen Weiterentwicklung der Digitalisierung einem ständigen Wandel unterliegt und regelmäßig neue Möglichkeiten für Provenienzrecherchen eröffnet. Die Digitale Provenienzforschung beschäftigt sich nicht nur mit der Anwendung digitaler Tools für die Recherche durch Forschende. Auch für die datengebende Seite, wie Museen, Archive und Bibliotheken, welche Informationen, Digitalisate und Forschungsergebnisse online zur Verfügung stellen, ergeben sich neue Herausforderungen. Hierfür sollten unter anderem Richtlinien zur Standardisierung bei der Erfassung und Digitalisierung von Objekten und Dokumenten entwickelt werden, um sie für die Forschung nutzbar zu machen.

Im Rahmen dieser Übung wurden beide Seiten beleuchtet. Die Perspektive der Forschenden und die Nutzung von Datenbanken und Tools zur Provenienzforschung stand als praktischer Aspekt im Mittelpunkt. Neben einer Einführung in die Provenienzforschung haben die Teilnehmenden grundlegende Funktionsweisen, Tektoniken und Typen von Datenbanken kennengelernt und erfahren, wie in welcher Datenbank was gefunden werden kann. Eine Einführung in Wikidata und die Anwendbarkeit für die Provenienzforschung warf einen Blick in die Zukunft von Linked Open Data und Provenienzforschung. Weiterhin wurde der kritische Umgang mit den Ergebnissen der Recherchen und Digitalisaten geübt. Wie sind die Rechercheergebnisse zu bewerten und inwiefern sind auch die Provenienzen von Quellen und Digitalisaten kritisch zu betrachten? Ergänzt wurde die Übung durch zahlreiche Einblicke in die Praxis, durch einen Archivbesuch, durch Gespräche mit Provenienzforscher*innen und Austausch mit Fachleuten aus dem Bereich Entwicklung und Nutzung von Datenbanken und Digitalisierung.


Wissen über die Welt und ihre Zusammenhänge nahm während der Frühen Neuzeit nicht nur beschleunigt zu, es wurden auch immer neue Versuche unternommen, dieses Wissen in zumindest einigermaßen handhabbarer Form zugänglich zu machen. So wurden immer neue Enzyklopädien, Lexika und andere Formen von Wissensliteratur produziert, in denen in immer mehr Bänden das Wichtigste, was es zu wissen gab, abgebildet werden sollte. Welche Formen und Strukturen ergaben sich in diesem Prozess? Was geschah mit Wissensgebieten, wenn man sie nicht nur zwischen zwei Buchdeckel, sondern auch noch in die Form von Lexikonartikeln pressen musste?

Das Seminar nahm anhand der Bestände der ULB Düsseldorf und digitalisierter Werke eine Spurensuche in Angriff, für die das Wissen vom Weltraum als erste Probebohrung ausgewählt wurde. Lassen sich die Strukturen des Wissens um den Weltraum in der Frühen Neuzeit modellieren? Können wir anhand der Modellierung als Netzwerk Muster erkennen, die ansonsten unerkannt blieben? Hieran wurde praktisch angesetzt, indem mit den Studierenden an Annotation und Modellierung von enzyklopädischen Daten gearbeitet wurde.


Ob im Bereich des autonomen Fahrens oder der Objekt- und Gesichtserkennung: in der digitalen Bildanalyse sind in den letzten Jahren rasante technische Fortschritte gemacht worden – insbesondere mit Methoden der Künstlichen Intelligenz. Gleichzeitig werden grundlegende Processing-Methoden immer leichter einsetzbar. Wie lassen sich solche Techniken des Digital Image Processing für kunsthistorische Zwecke einsetzen? Wie kann mit Methoden der Digital Humanities bzw. Data Science den immer wachsenden Mengen an digitalisierten bzw. born-digital Bildern und ihren (Meta-)Daten begegnet werden? Was können die immer neuen Potenziale von bildgenerierender KI für die Kunstwissenschaft bedeuten – wie können Kunsthistoriker*innen damit umgehen, diese bewerten?

Die Übung setzte hier an, indem anhand von einfachen praktisch-anwendbaren Programmen grundlegend in das Programmieren mit Python eingeführt wurde. Der Anspruch war hierbei, einfachen Programm-Code lesen und anpassen zu lernen (im Sinne eines Aufbaus einer grundlegenden Code Literacy-Kompetenz). Im Sinne der reflective practice wurden Methoden vor dem Hintergrund der Theorie und der eigenen Anwendung diskutiert, um Anwendungsgebiete und Problemfelder auszuloten. Die Teilnehmenden wurden befähigt, erste Data Science- und Image Processing-Methoden kritisch reflektiert zu nutzen sowie Bildgenerierung mit KI kritisch zu bewerten.


Zwar steht durch die fortlaufende Digitalisierung immer mehr Material – Handschriften, Archivalien, und auch Drucke – digital, online und frei zur Verfügung, allerdings ist vieles davon nicht oder nur wenig erschlossen. Andererseits stehen Editionsprojekte vor den Herausforderungen und Möglichkeiten des Digitalen: vor den Möglichkeiten, die Linearität des Textes zu durchbrechen, indem Kommentare und Intertexte am Text verlinkt werden können, der Text visualisiert und automatisiert erschlossen werden kann und vor den Herausforderungen, dies technisch umzusetzen.

In dieser Übung wurde gemeinsam mit Dirk Fleischer (ULB) der gesamte Prozess einer digitalen Edition am Beispiel einer bisher nicht edierten Psychologievorlesung von Moses Moritz Lazarus nachvollzogen – von der Handschrift bis zum Produkt in Form einer Website. So wurden Ziele und Möglichkeiten digitaler Editionen sowie erste Kompetenzen in der digitalen editorischen Praxis erarbeitet. Darüber hinaus wurden Wege automatischer Texterkennung sowie digitaler Texterschließung thematisiert und inwiefern diese die digitale Editionspraxis bereichern können.


Die Sammlung Quedenfeldt ist eine bedeutende Sammlung früher Fotografien vom Niederrhein. In über 1500 Fotografien dokumentierte der Chemiker und Fotograf Erwin Quedenfeldt von 1905 bis 1915 Städte und Dörfer. Fotografien sind für die Digitalen Sammlungen der ULB Düsseldorf digitalisiert worden und stehen open access zur Verfügung.

Auf Basis dieser Daten wurde beim Kulturhackathon Coding DaVinci Nieder.Rhein.Land 2021 das Community-Projekt Following Quedenfeldt entwickelt. Ziel des Projektes war, die historischen Orte, die von Quedenfeldt festgehalten worden sind, mit Hilfe interessierter Bürger*innen wiederzuentdecken und erneut zu fotografieren, um so Alt und Neu gegenüberstellen zu können: Gibt es die historischen Gebäude noch heute? Wie haben sie sich in den letzten 100 Jahren verändert? Das Team um Michael Cieslik, Raimond Spekking und Dr. Ute-Olliges-Wieczorek hat mit diesem Projekt den Preis most useful beim Hackathon gewonnen.

Gemeinsam mit Dr. Ute Olliges-Wieczorek (ULB Düsseldorf) wurde einerseits dieses spannende Projekt nachvollzogen, d.h. wie welche Methoden hier erfolgreich eingesetzt wurden, und es wurde andererseits weitergeführt: mit welchen digitalen Methoden kann die Sammlung weiter erschlossen werden? Welche wissenschaftlichen Fragestellungen können an die Sammlung gestellt werden und wie könnte diesen mit digitalen Methoden nachgegangen werden? Ergebnisse waren unter anderem die tiefere Erschließung und Annotation der Digitalisate der Sammlung Quedenfeldt auf Wikimedia Commons sowie die kritische Auseinandersetzung mit den Potenzialen bildvergleichender Tools.

Responsible for the content: