
Langzeitarchivierung von Websites durch Gedächtnisinstitutionen: Entwicklung eines Servicemodells auf Grundlage praktischer Erfahrungen
Bis 2016 führte das Münchener Digitalisierungszentrum der Bayerischen Staatsbibliothek das von der Deutschen Forschungsgemeinschaft geförderte Projekt Langzeitarchivierung von Websites durch Gedächtnisinstitutionen: Entwicklung eines Servicemodells auf Grundlage praktischer Erfahrungen durch.
Projektziele waren die Entwicklung eines exemplarischen Sammel- und Archivierungsprofils für Websites, Verbesserungen bei den Ergebnissen des Harvesting-Verfahrens und der Qualitätskontrolle sowie die Auseinandersetzung mit Erhaltungsstrategien für Webarchive. Anhand einer repräsentativen Auswahl von forschungsrelevanten Websites aus dem In- und Ausland wurde zudem die Machbarkeit der retrospektiven Archivierung von bereits erschlossenen Internetressourcen untersucht. Die Entwicklung und Umsetzung eines am wissenschaftlichen Bedarf orientierten kooperativen Servicemodells, mit dem die an der Bayerischen Staatsbibliothek bereits aufgebauten Infrastrukturen für die Webarchivierung ausgebaut und von anderen Institutionen nachgenutzt werden können, wurde zusammen mit dem Pilotpartner Staats- und Universitätsbibliothek Hamburg Carl von Ossietzky (SUB) getestet.
Mit der Veröffentlichung der wichtigsten und auf Nachnutzung ausgelegten Projektergebnisse sowie gezielter Öffentlichkeitsarbeit sollen die nationalen Aktivitäten im Bereich der Websitearchivierung gezielt befördert werden.
Übersicht über die veröffentlichten Projektergebnisse:
- Erfahrungsbericht: Retrospektive Langzeitarchivierung von in Academic Linkshare erschlossenen Internetressourcen
- Qualität und Prozessoptimierung bei der Langzeitarchivierung von Websites: Konzeptuelle Überlegungen zur Steuerung des Ressourceneinsatzes bei der selektiven Webarchivierung
- Sammel- und Archivierungsprofil der Bayerischen Staatsbibliothek für Websites
- Ausführliche Anleitung für die Langzeitarchivierung von Websites mit der Software Web Curator Tool (WCT)
- Ausführliche Anleitung zur Qualitätskontrolle für die Langzeitarchivierung von Websites mit der Software Web Curator Tool (WCT)
- Tool zur Analyse von Media Types in Crawl-Logs (Heritrix)
- Tools zur Analyse von Crawl-Logs zur Qualitätskontrolle (Heritrix)
- Beitrag in o-bib - Das offene Bibliotheksportal: Tobias Beinert, Ulrich Hagenah, Anna Kugler: Es war einmal eine Website... - Kooperative Webarchivierung in der Praxis (in: o-bib, Bd. 1, Nr. 1 (2014), S. 291-304. [Lizenz: Creative Commons Namensnennung 4.0 International]
Mit Förderung durch die Deutsche Forschungsgemeinschaft
V. 4.2.1
Neue Digitalisate in unseren Sammlungen
Täglich aktuell: Neue Digitalisate in den Digitalen Sammlungen der Bayerischen Staatsbibliothek. Titel online: 2.530.686
[25.02.2021]
Relaunch der Digitalen Sammlungen
Die Digitalen Sammlungen werden bald durch eine technologisch grundlegend erneuerte sowie weitgehend barrierefreie Anwendung abgelöst. Das komplett neu entwickelte Angebot bietet eine Suche über alle ca. 2,5 Mio. Digitalisate inkl. differenzierter Facettierungsmöglichkeiten sowie Volltextsuche. Ein Großteil der Digitalisate wird über den neuen Viewer Mirador 3, der auf dem International Interoperability Framework (IIIF) aufsetzt, bereitgestellt.
[04.12.2020]