Diskussion
Unbestreitbar hat durch den ‘Siegeszug’ der Digitalisierung die ‘digitale Revolution’ auch die Geschichtswissenschaft erfasst. ‘Digital Humanities’ und ‘Digital History’ sind hier Schlagworte, die die Veränderung des Fachgebiets aufzeigen, wobei zwischen einer eher technischen Digitalisierung – Lesen einer Archivquelle online statt vor Ort – und einer methodischen – Nutzung von z. B. datengetriebenen Analysetechniken – zu unterscheiden ist. Durch den verstärkten Einsatz digitaler Tools, Techniken und Methoden nimmt die Notwendigkeit für ein bewusstes und digitales Forschungsdatenmanagement in der Geschichtswissenschaft zu, um die Potenziale, die in der Digitalisierung stecken, auch nutzen zu können.
Forschungsdaten, die gemäß dem Open-Science-Gedanken unter Beachtung der FAIR-Prinzipien bereitgestellt wurden, bieten nicht nur für das eigene Forschungsvorhaben Vorteile, da sie im Sinne der Nachnutzung'Eine Nachnutzung, oftmals auch Sekundärnutzung genannt, befragt bereits erhobene und veröffentlichte Forschungsdatensätze erneut mit dem Ziel, andere Erkenntnisse, möglicherweise aus einer neuen oder unterschiedlichen Perspektive, zu erhalten. Die Aufbereitung von Forschungsdaten für eine Nachnutzung erfordert einen erheblich höheren Anonymisierungs-, Aufbereitungs- und Dokumentationsaufwand als die bloße Archivierung im Sinne von Datenspeicherung.' (Data Affairs, Glossar) Weiterlesen für nachfolgende Erkenntnisinteressen verwendet werden können. Es handelt sich dabei um keinen neuen Ansatz, sondern letztlich um die konsequente Fortführung der Tradition in historisch arbeitenden Disziplinen, Quellen aus beispielsweise kritischen Editionen für das eigene Vorhaben zu nutzen. Durch die neu zugewiesene Bedeutung von Datenpublikationen ist ein weiteres Feld entstanden, das genutzt werden kann, um die eigene Reputation in der Fachgemeinschaft durch Publikation hochwertiger Forschungsdaten zu steigern. Was also traditionell oft die Veröffentlichung von transkribierten Quellen als Anhang einer Publikation war, erhält in Form der Datenpublikation einen höheren und sichtbareren Reputationswert.
Ein systematisches Forschungsdatenmanagement begleitet den gesamten Forschungsprozess und ermöglicht es, das Projekt auch bei kritischen Ereignissen – etwa versehentlich gelöschten Dateien, zerstörten Datenträgern oder Krankheit des Forschenden – weiterzuführen. Durch regelmäßige Backups werden Datenverluste verhindert, und eine lückenlose Dokumentation erleichtert es Vertretungen, sich schnell in das Projekt einzuarbeiten.
Ebenso wird die Einhaltung rechtlicher und ggf. ethischer Vorgaben unterstützt. Es handelt sich dabei um Tätigkeiten, die grundsätzlich auch im Analogen bereits notwendig waren, unter dem Schlagwort FDM für den digitalisierten Prozess aber einen neuen Namen und eine gewisse Standardisierung erfahren haben. Methoden wie ein Datenmanagementplan (DMP)'Ein Datenmanagementplan (DMP) beschreibt und dokumentiert den Umgang mit den Forschungsdaten und Forschungsmaterialien einer Forschung während und nach der Projektlaufzeit. Im DMP wird festgehalten, wie die Daten und Materialien entstehen, aufbereitet, gespeichert, organisiert, veröffentlicht, archiviert und ggf. geteilt werden. Zudem werden im DMP Verantwortlichkeiten und Rechte geregelt. Als 'living document' (also ein dynamisches Dokument, das sich fortlaufend in Bearbeitung und Veränderung befindet) wird der DMP im Laufe des Projektes regelmäßig geprüft und bei Bedarf angepasst.' (Data Affairs, Glossar) Weiterlesen helfen, den Überblick über diese das Forschungsvorhaben begleitenden Tätigkeiten zu behalten und sie zu dokumentieren. Durch einen DMP kann die Arbeitsbelastung reduziert werden, weil immer wiederkehrende FDM-Aktivitäten in Forschungsprojekten (z. B. Backup, Dokumentation) klar definiert sind. Dadurch müssen diese Routinen nicht für jedes weitere Forschungsvorhaben erneut überlegt werden .
Dies kann jedoch nicht darüber hinwegtäuschen, dass unter dem Oberbegriff FDM eine Vielzahl unterschiedlicher Aspekte vereint werden, die durchaus kritisch hinterfragt werden müssen. Schon die durch den Forschungsdatenlebenszyklus implizierten Prinzipien von Open Science sind aus sowohl praktischen als auch wissenschaftstheoretischen Überlegungen heraus nicht zwingend für alle Beteiligten positiv. Wissenschaft ist seit jeher zwar durch Offenheit immer aber auch durch Geheimhaltung geprägt (Levin und Leonelli 2017). Ebenso zwiespältig sind z. B. Datenmanagementpläne zu sehen. Als eine Form von Checkliste können sie eine hilfreiche Unterstützung sein, jedoch können sie als verpflichtendes Dokument eher zu einer weiteren Form von Bürokratie beitragen, deren gesamtgesellschaftliches Überborden immer mehr in der Kritik steht (Buschmann 2023).
Gerade bei der traditionellen hermeneutische Analyse von Primärquellen, auch wenn diese digital eingesehen werden, sollte in Betracht gezogen werden, dass das Teilen der dabei entstandenen ‘Forschungsdaten’ durch das Veröffentlichen kritischer Editionen oder des Abdruckens von Quellen im Rahmen von Publikationen auch ohne FAIR-Prinzipien bisher ganz gut funktioniert hat. Zudem bleibt noch die Frage offen, inwiefern Wissenschaftler*innen tatsächlich persönlich von einem Zugänglichmachen ihrer Daten profitieren (Wood und Gürlich 2025).
Der versprochene Reputationsgewinn und die Möglichkeit, selbst Daten anderer nachzunutzen, sind zunächst vage Zukunftsversprechen, die erst einmal einem erhöhtem Arbeitsaufwand durch die Datenpublikation in der Gegenwart gegenüberstehen.
