Termindetails

This event is running from 19 März 2026 until 20 März 2026. It is next occurring on 19.03.2026 10:00


8. Workshop Retrodigitalisierung: Digitalisierung für die Ewigkeit? – Datenqualität in der Praxis

8. Workshop Retrodigitalisierung – Digitalisierung für die Ewigkeit? – Datenqualität in der Praxis

Die 8. Ausgabe der Reihe „Workshop Retrodigitalisierung“ findet in diesem Jahr in der Staatsbibliothek zu Berlin, Haus Unter den Linden, und unter dem Oberthema „Digitalisierung für die Ewigkeit? – Datenqualität in der Praxis“ statt.

Bei der Erzeugung von Retrodigitalisaten und den zugehörigen Metadaten kann einiges schieflaufen. Sind Masterdaten erst einmal fehlerhaft, verursacht ihre Korrektur großen Aufwand oder ist manchmal sogar unmöglich. Der Workshop Retrodigitalisierung befasst sich in diesem Jahr mit der Erzeugung, Validierung und Speicherung von möglichst optimalen Retrodigitalisaten, mit den Wegen zum Digitalisat im optimalen Format und den Möglichkeiten, mit Fehlern und Fallstricken umzugehen. In welchem Format komme ich in Bezug auf Images, Metadaten und Volltexte am besten zum Ziel? Welchen Einfluss haben sie auf Kompatibilität, Qualität, Dateigröße und Langzeitarchivierung?

Praktiker:innen der Retrodigitalisierung  und Mitarbeiter:innen aus Bibliotheken, Wissenschafts- und weiteren Gedächtnisorganisationen stellen in neun 20-minütigen Beiträgen mit anschließender Diskussion gelöste und ungelöste Fragen aus dem Bereich der Retrodigitalisierung vor. Auf einem Best Practise Marketplace werden erstmalig zwei Softwaretools aus der Community live vorgestellt.

Die Registrierung zum Workshop ist bis zum 05.03.2026 möglich. Die Teilnahmegebühr für den zweitägigen Workshop beträgt 130 Euro.

Die Staatsbibliothek zu Berlin richtet den Workshop gemeinsam mit drei deutschen Zentralen Fachbibliotheken TIB – Leibniz-Informationszentrum Technik und Naturwissenschaften, ZB MED – Informationszentrum Lebenswissenschaften und ZBW – Leibniz-Informationszentrum Wirtschaft sowie mit Unterstützung von NFDI4Culture aus.

PROGRAMM

19.03.2026 / 1. Tag

Titel / Programmpunkt Referent
10:00 – 11:00 Anmeldung und Begrüßungskaffee
11:00 Begrüßung
11:10 Begrüßung & Organisatorisches Thorsten Siegmann (Staatsbibliothek zu Berlin)
11:20 – 12:00 TIFF oder JPEG2000?! – Auf der Suche nach einem Format für die Archivierung von digitalisiertem Kulturgut Dr. Felix Schäfer (Stiftung Preußischer Kulturbesitz) und Doris Škarić (Staatsbibliothek zu Berlin – Preußischer Kulturbesitz)
12:00 – 12:40 Die Master bitte als TIFF, Nutzerderivate als JPEG!? Marco Klindt (Zuse-Institut Berlin)
12:40 – 13:20 Fehlererkennung, Fehlerprävention und Fehlerbehebung bei TIFF-Masterdateien Thomas Zirngibl, Ingo Lachmann, (Bayerische Staatsbibliothek)
13:20 – 14:20 Mittagspause
14:20 – 15:00 TIFF vs. JPEG2000 – Pros und Contras – Diskutieren Sie mit uns in der „Fish Bowl“
15:00 – 15:40 Was geht, wenn nichts mehr geht? Digitalisierung am Museum für Naturkunde nach einer Cyberattacke Dr. Frederik Berger (Museum für Naturkunde Berlin)
15:40 – 16:00 Kaffeepause
16:00 – 16:40 Datenformate und Datenflüsse im Digitalisierungsprozess, in der Präsentation und in der Langzeitarchivierung am Beispiel der ZBW Dr. Monika Zarnitz (ZBW)
16:40 Verabschiedung für diesen Tag
Ab 16:50 Führungen durch das Digitalisierungszentrum der Staatsbibliothek zu Berlin
Ab 16:50 Speed Dating – Vernetzen Sie sich mit anderen Teilnehmenden des Workshops
19:00 Treffen im Restaurant (auf eigene Rechnung)

20.03.2026 / 2. Tag

Titel / Programmpunkt Referent:in
09:00 Begrüßung durch SBB Thorsten Siegmann (Staatsbibliothek zu Berlin)
09:10 – 09:50 Digitalisierung von Kulturerbe in der Schweizerischen Nationalbibliothek – Warum und wie hat die NB ihre Digitalisierung umgestellt? Martina Hoffmann (Schweizerische Nationalbibliothek)
09:50 – 10:30 Automatisierte Qualitätssicherung von Retrodigitalisierungsprojekten – Revisited Tony Franzky (Erzbischöfliches Archiv Freiburg)
10:30 – 11:00 Kaffeepause
11:00 – 11:40 Zwischen Konzept und Alltag: Ein Werkstattbericht zur Neuausrichtung der Zeitungsdigitalisierung an der SBB Maria Federbusch, Katharina Droese, Armin Möller, Ronald Rüdiger (Staatsbibliothek zu Berlin – Preußischer Kulturbesitz)
11:40 – 12:20 / Raum Humboldt-Saal Best Practice Marketplace mit Vorführungen von Software und Tools:
11:40 – 12:20  / Raum K4 Die Nutzer:innen als Black-Box: Welche Wünsche haben Nutzende an die Retrodigitalisierung und wie findet man heraus, was Nutzende wollen? Gemeinsame Entwicklung von Ansätzen zur Bearbeitung des Themas auf dem nächsten Workshop Retrodigitalisierung
12:20 – 13:00 Zusammenführung von zwei Digitalisierungswerkstätten im Bundesarchiv Christian Appl (Bundesarchiv)
13:00 – 13:15 Spotlight: Die Special Interest Group Digitalisierungszentren in NFDI4Culture 2 Dr. Katja Sternitzke (NFDI4Culture und Staatsbibliothek zu Berlin – Preußischer Kulturbesitz)
13:15 – 13:45 Paneldiskussion
13:45 – 14:00 Feed-Back Umfrage, Sammlung für einen Themenspeicher und Verabschiedung
Ab 14 Uhr Weitere Führungsangebote durch die Bibliothek, das Stabi Kulturwerk und das Digitalisierungszentrum

Die Zeiten der Vorträge im Programm sind aktuell noch vorläufig und können sich ändern.

ABSTRACTS:

Doris Škarić (Staatsbibliothek zu Berlin) und Dr. Felix Schäfer (Stiftung Preußischer Kulturbesitz): TIFF oder JPEG2000?!- Auf der Suche nach einem Format für die Archivierung von digitalisiertem Kulturgut

Die Wahl des geeigneten Dateiformats ist eine zentrale Entscheidung bei der Retrodigitalisierung kultureller Schätze. Insbesondere im Kontext der Langzeitarchivierung innerhalb von GLAM-Einrichtungen steht die Balance zwischen technischer Qualität, Speichereffizienz, Kompatibilität und Dauerhaftigkeit im Fokus. Seit über zwanzig Jahren taucht in diesem Kontext das JPEG2000-Format mit verlustfreier Komprimierung immer wieder als Option für die Masterformate für die Retrodigitalisierung auf, das sich bislang aber kaum in der Breite der Akteure durchgesetzt hat. Während einige Bibliotheken und Archive auf das Format JPEG2000 umgestiegen sind, setzen viele GLAM-Einrichtungen weiterhin auf das unkomprimierte TIFF-Format.

Ein Überblick, welche Einrichtungen JPEG2000 als Masterformat für die Retrodigitalisierung ihrer Bestände verwenden, fehlt bisher.

Das unkomprimierte TIFF-Format bietet eine maximale Bildqualität, da keine Verluste bei der Speicherung entstehen. Es ist seit Jahrzehnten als Standardformat für Masterdaten in der Retrodigitaliserung etabliert und wird oft als „goldener Standard“ für deren Archivierung bezeichnet. Seine Stärke liegt in der einfachen, transparenten Struktur und der hohen Kompatibilität mit älteren Systemen. Allerdings führt die fehlende Kompression zu extrem hohen Dateigrößen, was erhebliche Anforderungen an Speicherinfrastruktur, Backup-Strategien und Kosten verursacht. Zudem ist TIFF nicht standardisiert in Bezug auf Metadaten-Integration und kann in verschiedenen Varianten vorliegen, was die Interoperabilität beeinträchtigen kann.

JPEG2000 hingegen ermöglicht eine hochgradige, aber verlustfreie Kompression (bei Verwendung des „lossless“-Modus), wodurch Dateigrößen um bis zu 50 % reduziert werden können, ohne dass die visuelle Qualität beeinträchtigt wird. Die Technologie unterstützt auch partielle Zugriffe (Region of Interest), Skalierung und Metadaten-Integration direkt im Dateiformat. Allerdings ist die Implementierung komplexer, und die Kompatibilität mit älteren Softwarelösungen ist nicht immer gegeben. Zudem erfordert die Verarbeitung von JPEG2000-Dateien spezialisierte Tools und Know-how.

Dieser Vortrag vergleicht und untersucht die beiden Dateiformate anhand dreier Fragestellungen:

  • Worin bestehen die jeweiligen technischen und qualitativen Vor- und Nachteile für die Langzeitarchivierung von Digitalisaten aus dem Kulturerbe-Bereich?
  • Wie verbreitet sind diese Formate in GLAM-Einrichtungen in Deutschland und Europa tatsächlich, sowohl in Einrichtungen, die Digitalisate erzeugen bzw. verwalten, also auch in Einrichtungen, die diese Digitalisate archivieren?
  • Wie ist der aktuelle Diskussionsstand darüber, wie gut oder schlecht die beiden Dateiformate als Masterfiles bei der Digitalisierung und für die Archivierung geeignet sind?

Angesichts von immer mehr Digitalisierungsprojekten, die einen immer größeren Speicher-, Rechen- und Energiebedarf erzeugen und deren Folgekosten immer teurer werden, und angesichts der aktuellen Diskurse zu nachhaltigeren IT-Infrastrukturen (sog. „Green IT / Green Archives“), erscheint eine Neubewertung der beiden Formate sinnvoll und lohnend. Ziel des Vortrags ist es, einen Überblick zu dem momentanen Verbreitungsstand von JPEG2000, den Vor-und Nachteilen, möglichen Risiken sowie den momentanen Diskussionsstand zu geben. Mit diesem Überblick soll Einrichtungen die Bewertung, ob JPEG2000 eine Alternative zu unkomprimierten TIFF-Dateien als Masterformat für ihre Digitalisierungsvorhaben ist, erleichtert werden.

Informationen zu den Referent:innen:

Doris Škarić leitet seit 2019 die Stabsstelle „Langzeitverfügbarkeit digitaler Objekte“ an der Staatsbibliothek zu Berlin – Preußischer Kulturbesitz. In dieser Funktion konzipiert und koordiniert sie Strategien zur langfristigen Sicherung und Verfügbarkeit digitaler Bestände.

Dr. Felix Schäfer arbeitet seit 2021 in der Stiftung Preußischer Kulturbesitz als Referent für das „SPK Lab“ in der Abteilung des „Chief Information Officer“ und beschäftigt sich dort mit stiftungweiten Themenfeldern wie Kulturgutdigitalisierung, Bereitstellung von Digitalisaten und Aufbau eines Digitalen Archives der SPK. Zudem ist er nebenberuflicher Professor an der FH Potsdam mit der Denomination „Digitalisierung von Archiven und Sammlungen“.

Marco Klindt (Zuse-Institut Berlin): Master bitte als TIFF, Nutzerderivate als JPEG?!

Eine kurze Einführung in Dateiformate für Bilder anhand von TIFF und EXIF. Was kann in TIFF-Dateien kodiert werden? Was ist TIFF 6.0 Baseline? Warum ist JPEG gar kein Dateiformat? Welche Dateiformate sind aus welchen Gründen in der Langzeitarchivierung verbeitet? Was sind Probleme bei der Archivierung von digitalen Images? Welche neueren Formate sind geeignet, heutige Standardformate abzulösen? Was sind neue Anforderungen an Bilddatenformate? Diese und andere Fragen können in der anschließenden Diskussion besprochen werden.

Informationen zum Referenten:

Marco Klindt arbeitet als Informatiker am Zuse-Institut Berlin. Er ist dort Mitglied der Arbeitsgruppe Digital Preservation und arbeitet an der Weiterentwicklung des musealen Datenaustauschformats LIDO und der LIDO-Terminologie mit. Das Zuse-Institut Berlin (ZIB) betreibt mit dem Forschungs- und Kompetenzzentrum Digitalisierung Berlin (digiS) und dem Kooperativen Bibliotheksverbund Berlin-Brandenburg (kobv) das auf Open-Source-Komponenten bestehende Langzeitarchiv EWIG, eine vom Land Berlin geförderten Infrastruktur zur nachhaltigen Sicherung der Nutzbarkeit von Objekten des kulturellen Erbes. Zusätzlich zur fachlichen Begleitung von Digitalisierungsprojekten bietet das Institut Fortbildungen zu Themen wie Technische Digitalisierung, Datenmanagement, Metadatenmodellierung, Datennutzung und Rechten an.

Thomas Zirngibl, Ingo Lachmann (Bayerische Staatsbibliothek): Fehlererkennung, Fehlerprävention und Fehlerbehebung bei TIFF-Masterdateien

Die Retrodigitalisierung verfolgt neben dem Ziel der unmittelbaren Online-Bereitstellung von Digitalisaten ein zweites Ziel, die langfristige, integre Bewahrung des Digitalisats für zukünftige Generationen. Es ist dabei zu beachten, dass die digitale Verarbeitung der auf Langzeit angelegten Masterdateien anspruchsvoll und prinzipiell fehleranfällig ist.

Der Vortrag beschäftigt sich damit, welche Fehler typischerweise bei der Retrodigitalisierung auftreten können, wie man sie erkennen und verhindern kann, und ob und wie fehlerhafte Masterdateien möglicherweise repariert werden können. Dabei werden sowohl technische Fehler im Sinne der TIFF-Spezifikation, inhaltliche Fehler der Images, als auch Fehler der Dateiübertragung behandelt. Im Einzelnen werden exemplarisch typische Fehler aufgezeigt, die in der Praxis der Bayerischen Staatsbibliothek in der Vergangenheit aufgetreten sind. Es wird darüber hinaus dargestellt, welche Ursachen und Auswirkungen diese Fehler haben und wie man sie verhindern kann.

Methodisch basiert der Vortrag auf Erfahrungen mit dem Umgang von Fehlern in der Praxis der letzten 20 Jahre. Bei der Betrachtung, Analyse und Bewertung werden herangezogen die technischen Gegebenheiten bei der Digitalisierung (Software und Hardware) und eingesetzte Open-Source-Werkzeuge. In diesem Zusammenhang werden die wichtigsten Methoden und Werkzeuge vorgestellt, die bei der Bayerischen Staatsbibliothek hierfür im Einsatz sind: zur Analyse der TIFF-Dateien, zur Verhinderung und Nachvollziehbarkeit von Fehlern.

Der Vortrag richtet sich vor allem an Fachleute, die einen Workflow zur Retrodigitalisierung aufbauen oder überprüfen wollen und hierbei ein hohes Maß an Datenqualität anstreben. Der Beitrag möchte Anregungen geben und einen Beitrag zu Diskussion hinsichtlich qualitätssichernder Vorgehensweisen bei der Retrodigitalisierung leisten.

Informationen zu den Referenten:

Thomas Zirngibl ist Sachbereichsleiter im Referat Digitale Bibliothek/Münchener Digitalisierungszentrum (MDZ) an der Bayerischen Staatsbibliothek. Sein Sachbereich verantwortet die technische Infrastruktur des digitalen Produktionsworkflows bis zum Ingest in die Langzeitarchivierung

Ingo Lachmann ist der Vertreter von Herrn Zirngibl im Sachbereich. Herr Lachmann ist Experte für die Zentrale Erfassungs- und Nachweisdatenbank am MDZ, ein eigenentwickeltes Softwaretool, das den kompletten Digitalisierungsgeschäftsgang umfasst.

Dr. Frederik Berger (Museum für Naturkunde Berlin): Was geht, wenn nichts mehr geht? Digitalisierung am Museum für Naturkunde nach einer Cyberattacke

Am 18.10.2023 erfahren die Mitarbeitenden am Museum für Naturkunde Berlin, dass sie von einem Hackerkollektiv angegriffen wurden. Schon am frühen Morgen waren zur Schadensbegrenzung alle IT-Systeme abgeschaltet worden. Heute, mehr als zwei Jahre später, wirkt der Angriff weiterhin nach, mit negativen sowie positiven Aspekten. Die Cyberattacke wirkte wie ein Brennglas, indem sie alle bekannten und unbekannten Probleme in Datenstrukturen und Digitalisierungsprozessen auf einmal sichtbar machte. Was war passiert? Was bedeutet der plötzliche Stillstand von großen Digitalisierungsvorhaben für die Daten, für die Technik, für die Organisation und für die Mitarbeitenden? Welche Lektionen lassen sich aus dieser Erfahrung ziehen? Dr. Frederik Berger hat das ambitionierte Digitalisierungsvorhaben des Museums für Naturkunde Berlin seit 2019 mit aufgebaut. In seinem Vortrag berichtet er von den Auswirkungen der Cyberattacke auf die Digitalisate, Nachweissysteme und Metadaten und wirft einen Blick auf die Maßnahmen, die zur Wiederherstellung der Arbeitsfähigkeit in der Digitalisierung ergriffen wurden.

Informationen zum Referenten:

Dr. Frederik Berger leitet die Abteilung Services im Forschungsbereich Zukunft der Sammlung des Museums für Naturkunde Berlin. Als promovierter Archäologe mit Schwerpunkt in der Sammlungsgeschichte des 19. Jahrhunderts hat er sich in Bibliotheks- und Informationswissenschaften weiterqualifiziert und ist seit 2018 in verschiedenen Positionen mit der digitalen Transformation der Forschungssammlung am Museum für Naturkunde betraut.

Dr. Monika Zarnitz (ZBW – Leibniz-Informationszentrum Wirtschaft): Datenformate und Datenflüsse im Digitalisierungsprozess, in der Präsentation und in der Langzeitarchivierung am Beispiel der ZBW

Die ZBW produziert seit 2017 in ihrem eigenen Digitalisierungszentrum Retrodigitalisate ihres vom Papierzerfall bedrohten gedruckten Altbestandes, um die Inhalte besser nutzbar zu machen und um die Inhalte der Bestände zu erhalten. Für den Langzeiterhalt der Retrodigitalisate verfügt die ZBW über eine funktionierende digitale Langzeitarchivierung. Derzeit werden nur monographische Werke digitalisiert, aber ein Workflow für die Bearbeitung von Periodika ist in Vorbereitung.

Die Datenmengen in dem Goobi-Produktivsystem werden immer größer und Speicherplatz ist teuer. Aus diesem Grund hat die ZBW ein Konzept entwickelt, nach dem Daten aus Goobi Production gelöscht werden können, wenn bestimmte Bearbeitungsstände erreicht sind. In dem Rahmen haben wir uns auch mit den Datenfluss zwischen Goobi Production, dem Intranda-Viewer, einem Backup-System und der digitalen Langzeitarchivierung befasst. Damit verbunden finden Transformationen an den Formaten der Bilder statt, die berücksichtigt werden müssen. Eine besondere Herausforderung bestand darin, nachträgliche Veränderungen an Bildern und Metadaten zu regeln. Über dieses Konzept wird in diesem Vortrag berichtet.

Informationen zur Referentin:

Dr. Monika Zarnitz ist Volkswirtin und arbeitet seit 1994 in der ZBW – Leibniz-Informationszentrum Wirtschaft. Ihre Tätigkeit begann als Fachreferentin für den Bestandsaufbau US-amerikanischer Periodika und der inhaltlichen Erschließung der Aufsätze in diesen Zeitschriften. Es folgte dann die Leitung der der Benutzungsbereiche und später die Programmverantwortung für den Arbeitsbereich „Benutzungsdienste und Bestandserhaltung“, den sie bis heute inne hat. In der Abteilung Bestandserhaltung sind das Digitalisierungszentrum und die digitale Langzeitarchivierung beheimatet.

Martina Hoffmann (Schweizerische Nationalbibliothek): Digitalisierung von Kulturerbe in der Schweizerischen Nationalbibliothek – Warum und wie hat die NB ihre Digitalisierung umgestellt?

Der Dienst Digitalisierung der Schweizerischen Nationalbibliothek hat ein ausgebreitetes Portfolio und sieht sich – wie viele andere Gedächtnisinstitutionen – mit Herausforderungen in Budget, Personal und Zeitressourcen konfrontiert. Die Entscheidungen der vergangen Jahre haben massiv zu einer Verbesserung der Qualität und Effizienz der Digitalisierung geführt.

Die Schweizerische Nationalbibliothek (NB) hat ihre Massendigitalisierungsprozesse überarbeitet, um dem Standard ISO 19264-1 für reflektierende Materialien zu entsprechen. Das Ziel ist, vertrauenswürdige Digitalisate mit vordefinierten Eigenschaften zu erzeugen, die als ‘Archival Master’ dienen:

  • Für die Langzeitarchivierung
  • Für das Erstellen von Derivaten für verschiedene Verwendungszwecke
  • Für die Weiterverarbeitung im Prozess für die Metadatenerstellung
  • Für Verwendungszwecke, die noch nicht definiert sind
  • Für Verwendungszwecke, die noch nicht bekannt sind

Für das Erstellen solcher Digitalisate ist es unter anderem wichtig, dass:

  • Der Prozess der Erstellung der Digitalisate spezifiziert und standardisiert ist.
  • Die Qualität kontrolliert wird.

Die Präsentation soll einen Einblick geben in die Herausforderungen, die Überlegungen und Entscheidungsgrundlagen sowie die praktische Umsetzung in der Schweizerischen Nationalbibliothek. Dazu gehören neben den grundsätzlichen Entscheidungen auch die Beschaffung von Hardware und Software sowie die Umstellung von Workflows und die Kommunikation mit Partnern und Lieferanten sowohl intern und extern.

Informationen zur Referentin:

Martina Hoffmann ist Leiterin Digitalisierung Sammlungen NB bei der Schweizerischen Nationalbibliothek. Sie ist ein aktives Mitglied der Kulturerbe-Community, schreibt regelmäßig über Massendigitalisierung und Qualitätssicherung und leitet Kurse zu diesen Themen bei verschiedenen Veranstaltungen, Konferenzen und Programmen. Zuvor war sie als Senior Production Manager Digitalisierung in der Niederländischen Nationalbibliothek für den Bereich Archive und Spezialsammlungen von Metamorfoze  und als Operational Manager QA für digitalisierte Produkte im Niederländischen Nationalarchiv tätig.

Tony Franzky (Erzbischöfliches Archiv Freiburg): Automatisierte Qualitätssicherung von Retrodigitalisierungsprojekten – Revisited

Neben organisatorischen und logistischen Maßnahmen ist die technische Qualitätssicherung von (Retro-)Digitalisierungsprojekten eine der drei Säulen der Qualitätssicherung. Gerade im Projektmanagement großer Digitalisierungsvorhaben bindet sie jedoch enorme Ressourcen, um die Einhaltung von Gütekriterien bei rückläufigen Daten zu prüfen. Im Erzbischöflichen Archiv Freiburg wird dieses Thema bereits seit einigen Jahren verfolgt und versucht, Automatisierungspotenziale etwa bei der Prüfung der Datenintegrität, beim Erkennen von Scandubletten oder bei der Erkennung von Unschärfe auszuschöpfen. Die bisher gewonnenen praktischen Erkenntnisse wurden in einem Softwareprojekt mit dem Namen „Blurry” umgesetzt. In dem geplanten Vortrag sollen die bisherigen Ansätze und Ergebnisse der vergangenen Jahre zusammenfassend dargestellt und zur Nachnutzung bereitgestellt werden.

Informationen zum Referenten:

Tony Franzky studierte Philosophie, Politikwissenschaft, Soziologie und Kommmunikationswissenschaft an der TU Dresden. Von 2014 bis 2019 arbeitete er unter anderem in einem Kooperationsprojekt der Uni Konstanz und der PH Freiburg zum Thema Plagiatsprävention. Als Wissenschaftskommunikator war er im Exzellenzcluster BrainLinks-BrainTools der Uni Freiburg tätig und später als EXISTstipendiat in einem Projekt für KI gestützte Contentanalyse für Verlage. Danach arbeitete er als Technischer Leiter und Chefentwickler im Hochtechnologiebereich. Seit 2021 ist er Sachgebietsleiter für Digitale Langzeitarchivierung im Erzbischöflichen Archiv Freiburg. Seine Arbeitsschwerpunkte sind digitale Langzeitarchivierung von elektronisch entstandenen Schrift-, Wissens- und Kulturgütern. Weitere Interessensschwerpunkte sind Plagiarismusforschung, KI-Entwicklung und Ethik im digitalen Raum.

Katharina Droese, Maria Federbusch, Armin Möller, Ronald Rüdiger (Staatsbibliothek zu Berlin): Zwischen Konzept und Alltag: Ein Werkstattbericht zur Neuausrichtung der Zeitungsdigitalisierung an der Staatsbibliothek zu Berlin

Die Staatsbibliothek zu Berlin blickt auf mehr als ein Jahrzehnt Zeitungsdigitalisierung zurück, für welche projektgetrieben (678.000 Zeitungsausgaben; 6,5 Mio Images) ein eigener Zefys-Workflow (https://zefys.staatsbibliothek-berlin.de/) entwickelt wurde. Um standardisierte interoperable Daten zu erzeugen, Schnittstellen zu bedienen sowie Korrekturen und Neuexporte gezielt durchführen zu können, erfolgte die Konzeption eines neuen Workflows. Wesentliches Kriterium war und ist die Verbindung vorhandener Eigenentwicklungen (Sara-Tool) mit einer etablierten Workflowsoftware (Kitodo) für eine effiziente Zeitungsdigitalisierung. Eine besondere Schwierigkeit liegt bei der Massendigitalisierung von Zeitungen in der iterativen Erstellung von Images und Metadaten, da meist vorab nicht bekannt ist, wie vollständig vorliegende Bestände sind, welche Qualität die häufig für die Digitalisierung zu Grunde liegenden Verfilmungen haben, welche Lückenergänzungen notwendig werden etc. Das entwickelte Sara-Tool hilft, schnell Sequenzierungen von Imagescans durchzuführen und ausgewählte Metadaten effizient zu erfassen. Für andere Fragen wie Korrekturen, Lückenergänzungen etc. fehlte bisher die Workflowunterstützung. Gleiches gilt für die Bereitstellung der Metadaten (von Zeitung, Jahrgängen und Ausgaben) entsprechend dem DDB-Anwendungsprofil für Zeitungen (https://wiki.deutsche-digitale-bibliothek.de/spaces/DFD/pages/19006653/5.+Anwendungsprofile+und+Best+Practice+Guides).

Der Werkstattbericht fokussiert auf die Realisierung o.g. Symbiose zweier Welten, die u.a. über speziell erstellte Skripte und die Nutzung von Kitodo-Funktionalitäten erfolgt. Ziel ist, die hausspezifischen Skripte einerseits so klein wie möglich, aber andererseits so umfangreich wie nötig zu gestalten.

Erste Zeitungs-Beispiele wurden prozessiert – der Vortrag thematisiert neben erreichten Ergebnissen auch die bestehenden Herausforderungen. Eingegangen wird sowohl auf bibliothekarische Fragestellungen als auch auf die Komplexität der Kitodo-Datenmodellierung und -programmierung. Im Nachgang kann eine Vorführung des Sara-Tools vom Entwickler selbst auf dem „Best-Practice-Marketplace“ besucht werden.

Informationen zu den Referent:innen:

Katharina Droese, Diplom-Bibliothekarin (FH), seit 2021 Sachgebietsleitung in der Abteilung Bestandsentwicklung und Metadaten der Staatsbibliothek zu Berlin und Mitglied der AG Workflow Digitale Bibliothek, zuständig für Erschließung, Metadaten und Workflows in der Digitalisierung, 2010 bis 2021 Bibliothekarin an der Zentral- und Landesbibliothek Berlin mit den Aufgabenschwerpunkten elektronische Publikationen und Retrodigitalisierung; Ausbildung: Fachhochschule Potsdam, Studiengang Bibliothek, abgeschlossen 2010

Maria Federbusch, wissenschaftliche Angestellte in der Abteilung Handschriften und Historische Drucke der SBB und Vorsitzende der AG Workflow Digitale Bibliothek, zuständig für IT- und Wissenschaftsmanagement Historischer Drucke, seit 1987 an der Staatsbibliothek v.a. mit Bezug zu Retrokonversion und Retrokatalogisierung sowie der Konzeption nationalbibliografischer Projekte, Digitalisierung, Metadaten- und Workflowfragen, Abschlüsse: Diplombibliothekarin (FH Berlin) 1987, Diplomelektroingenieur (TU Ilmenau) 1995

Armin Möller, Administrator in der Abteilung Informations- und Daten-Management der Staatsbibliothek zu Berlin, seit 2013 zuständig für die technische Administration von Goobi/Kitodo und Unterstützung der 2D Digitalisierung und Mitglied der AG Workflow Digitale Bibliothek, 1995-2013 Software-Entwickler (Stahlberg & Wolf GmbH), Abschlüsse: Diplom Informatiker 1994 (TU Berlin)

Lole Westedt, Bibliothekarin, seit 2022 Mitarbeiterin in der Abteilung Bestandsentwicklung und Metadaten der Staatsbibliothek zu Berlin und Mitglied der AG Workflow Digitale Bibliothek, zuständig für die bibliothekarische Administration der Workflow-Software Kitodo; Ausbildung: B.A. Bibliotheks- und Informationswissenschaft (HU Berlin), abgeschlossen 2018; M.A. Information Science (HU Berlin), abgeschlossen 2021

Ronald Rüdiger, seit 2018 Mitarbeiter der SBB, vorrangig tätig als Scanoperator in der Digitalisierung von Mikrofilmen; Entwicklung der Software „Sara“ für die Metadateneingabe; Ausbildung: Staatlich geprüfter Techniker der EDV



Christian Appl (Bundesarchiv): Zusammenführung von zwei Digitalisierungswerkstätten im Bundesarchiv

Mit der Überführung des Stasi-Unterlagen-Archivs in das Bundesarchiv gingen nicht nur institutionelle, sondern auch tiefgreifende fachliche und technische Integrationsprozesse einher. Der Vortrag beleuchtet die Fusion der bislang getrennt arbeitenden Digitalisierungswerkstätten beider Einrichtungen und fokussiert auf den Weg hin zu einem abgestimmten, gemeinsamen Digitalisierungsbetrieb.

Im Mittelpunkt steht die Frage, wie aus parallel existierenden Digitalisierungsstrukturen ein kohärentes System entwickelt werden konnte, das sowohl archivfachlichen Anforderungen als auch den spezifischen Nutzungsszenarien beider Bestände gerecht wird und vor welchen Herausforderungen das Bundesarchiv bei Vereinheitlichung von Digitalisierungsabläufen, Qualitätsstandards und Dateiformaten stand. Ausgehend von unterschiedlichen historischen Entwicklungen, technischen Infrastrukturen und fachlichen Bedarfen der Nutzenden werden die Schritte zur Harmonisierung von Workflows, Scanparametern, Benennungs- und Ablagestrukturen sowie der Dateiformate für die Langzeitarchivierung und die Benutzung dargestellt. Ein besonderer Fokus liegt dabei auf der Konsolidierung der eingesetzten Dateiformate: der Rolle von TIFF als archivischem Masterformat, JPEG als Derivat für Nutzung und Präsentation sowie PDF als nutzungsorientiertes, strukturbildendes Format. Diskutiert werden Kriterien für die Formatwahl, Fragen der Langzeitarchivierung, der Nachnutzbarkeit sowie die Auswirkungen auf Speicher, Verarbeitung und Bereitstellung.

Der Beitrag soll zeigen, dass die Zusammenführung von zwei Werkstätten nicht als bloße Standardisierung, sondern als Aushandlungsprozess zwischen unterschiedlichen fachlichen Perspektiven verstanden werden muss und dass es sinnvoll ist, einmal getroffene Entscheidungen regelmäßig und mit offenem Ausgang zu überprüfen.

Während des Workshops werden Video- und Bildaufnahmen für die Öffentlichkeitsarbeit der Staatsbibliothek zu Berlin angefertigt. Mit Ihrer Registrierung stimmen Sie der Veröffentlichung zu nichtkommerziellen Zwecken zu.