Startseite Wie digitalisiert man Bilder mit Blick auf die digitale Langzeitarchivierung?
Artikel Öffentlich zugänglich

Wie digitalisiert man Bilder mit Blick auf die digitale Langzeitarchivierung?

  • Michel J. Pfeiffer

    Prof. Dr. Michel Pfeiffer ist Dozent am Schweizerischen Institut für Informationswissenschaft, an der Fachhochschule Graubünden, ehemals HTW Chur, Schweiz. Dort leitet er das Digitalisierungslabor mit den Ziel Fotografie und audiovisuelle Medien archivwürdig zu transmedialisieren. Seine aktuellen Forschungsfragen befassen sich mit der Digitalisierung, Erhaltung und Vermittlung von Kulturgütern, im Besonderen Objekt- und Metadaten im Spannungsfeld zwischen Bibliotheken, Archiven und Museen. Weitere Details unter https://www.fhgr.ch/personen/person/pfeiffer-michel/ und https://www.fhgr.ch/suche/?tx_solr%5Bq%5D=Michel+Pfeiffer&tx_solr%5Bfilter%5D%5B0 %5D=type%3Apages.

    EMAIL logo
Veröffentlicht/Copyright: 10. Oktober 2020
Veröffentlichen auch Sie bei De Gruyter Brill

Zusammenfassung

Der Text geht der Frage nach, welche spezifischen Anforderungen eine digitale Langzeitarchivierung an Bilddaten stellt. Denn nicht jedes digitale Bild ist in situ archivwürdig, nur weil dessen Format als ‚archivwürdig‘ eingestuft wird. Vielmehr geht es um qualitative Merkmale, welche sich messen lassen, um die geforderte Archivqualität zweifelsfrei, transparent und nachvollziehbar zu überprüfen. Dies sollte sowohl in der Gegenwart als auch in der Zukunft gültig sein.

Abstract

The text explores what specific requirements digital long-term archiving implies on image data. Not every digital image is worthy of being archived in situ, simply because its format is classified as ‘worthy of archiving’. Rather, it is about qualitative characteristics, which can be measured in order to verify the required archive quality beyond doubt, transparently and comprehensibly. This in the present as well as in the future.

Résumé

Le texte explore les exigences spécifiques qu’implique l’archivage numérique à long terme des données d’images. Toutes les images numériques ne sont pas dignes d’être archivées in situ, simplement parce que leur format est classé comme «digne d’être archivé«. Il s’agit plutôt de caractéristiques qualitatives, qui peuvent être mesurées afin de vérifier la qualité d’archivage requise sans aucun doute, de manière transparente et compréhensible. Ceci dans le présent comme dans le futur.

Die Bestandsbildung in Archiven, Bibliotheken, Museen oder Dokumentationsstellen ist und bleibt Dreh- und Angelpunkt jeder praxisorientierten informationswissenschaftlichen Ausbildung. Am schweizerischen Institut für Informationswissenschaft beobachtete man den Lebenszyklus analoger und digitaler Kulturgüter relativ früh. Mit dem Aufkommen der digitalen Langzeitarchivierung entstand das Bedürfnis, Objekt- und Metadaten schon am Ursprung, also bereits bei der Digitalisierung zu verstehen und zu begleiten. Der Aufbau eines Labors zur Digitalisierung verschiedener Kulturgüter, von der Fotografie über Schriftgut hin zu Schalplatten und Audiovisuellen Medien, war damit ein logischer Schluss, der es ermöglicht, Prozesse innerhalb der gesamten Komplexität der unterschiedlichen Modelle und Lebenszyklen zu perspektivieren.

Ausgangslage

Mit dem Aufkommen von Bits und Bytes befindet sich die Kulturtechnik des Sammelns und Präsentierens in einem tiefgreifenden Umbruch. Heute besteht wohl Konsens darin, dass es in Gedächtnisinstitutionen längst nicht mehr darum geht, Inhalte nur zu erschließen, sondern darum, sie online zu vermitteln. Hervorgerufen wurde diese Entwicklung durch neue, technologiegetriebene Dienstleistungen, welche den klassischen Katalog konkurrenzieren. Man denke hier an Flikr, Youtube und Instagram oder die bequeme Bildersuche von Google. In sozialen Medien werden Bildinhalte getaggt, geliked, empfohlen oder gar kommentiert wie noch nie zuvor. Sammelnde Institutionen stehen damit vor einer gewaltigen Herausforderung – technisch, finanziell und vor allem konzeptionell.[1] Verschärft werden diese Content-Aspekte durch die aktuelle Situation monatelang geschlossener Häuser (Covid-19). Welcher Institution stellt sich die Frage nicht, welchen Stellenwert ihr in einer entmaterialisierten Kulturgesellschaft zukommt und wie sie sich mit ihren digitalen Materialien positioniert oder künftig positionieren kann?

Der nachfolgende Text wird diese Fragen nicht beantworten können. Diese Aufgabe fällt jeder Institution selbst zu. Der Text verfolgt die grundlegende Frage, welche spezifischen Anforderungen eine digitale Langzeitarchivierung an die Bilddaten stellt, damit diese nicht nur langfristig erfolgreich vermittelt, sondern auch nachhaltig archiviert werden können. Diese Auseinandersetzung beginnt nicht vor der Archivierung, dann ist es meistens zu spät, sondern lange vor der Digitalisierung. Damit geht ein Paradigmenwechsel einher: Archiv first. Der Hintergrund dieser Fragestellung erscheint geradezu trivial, wie sonst sollen sich die hohen, wiederkehrenden Kosten für die digitale Langzeitarchivierung oder die Vermittlung der Inhalte rechtfertigen lassen?

Was künftig über Jahrhunderte digital gespeichert werden will, sollte in nachvollziehbarer Qualität gut dokumentierte Anforderungen erfüllen können. Mit dem IIIF-Interoperabilitätsstandard[2] steht bereits eine (ignorierte?) Technologie vor der Tür, die es ermöglicht Bilddaten über sämtliche Plattformen hinweg individuell zu vergleichen und zu nutzen. Schade, wenn die eigene Institution diese Technologie – falls sie sich durchsetzt – künftig nicht nutzen könnte, nur weil die Qualität der Bildbestände nicht spezifisch genug ist, um diese sinnstiftend nutzen zu können.

Der Text will damit eine qualitative Basis zur Sicherstellung langfristig vermittelbarer und archivierbarer Bilddaten liefern. Er stellt dar, welche Standards zur Qualitätssicherung existieren, welche Messwerkzeuge man dazu nutzt und zeigt Desiderate des Ingest-Prozesses auf. Denn die klassischen signifikanten Eigenschaften digitaler Bilddaten greifen sowohl für die Objekt- als auch für die eingebetteten Metadaten viel zu kurz, so die These des Autors.

Digitalisierungsstandards

Standardisierungsbemühungen wie die der Formatharmonisierung zielen darauf ab, die zu ingestierenden Dateiformate nicht in apokalyptische Ausmaße anwachsen zu lassen. Das freut den Preservation Planning Manager ungemein.( Library of Congress 2020) Dieser löst lieber vier große Probleme als 1000 kleine. Ebenso verhält es sich mit dem ausufernden Wachstum verschiedenster Metadatenstandards. Für die Digitalisierung und die Langzeitarchivierung sind zwei „eingebettete“ Standards von Bedeutung, IPTC und EXIF (International Press Telecommunications Council 2020; Standard of Japan Electronics and Information Technology Industries Association 2002)[3].

Im Digitalisierungsprozess zielen die Standardisierungsbemühungen darauf ab, Komplexität zu reduzieren, damit Prozesse verbessert werden können. Die Dokumentation derselben schafft Vergleichbarkeit und damit Transparenz. Grundlage aller Normierungen ist der Wunsch nach nachvollziehbaren Messkriterien, welche eine Aussage über die Qualität eines Digitalisates zulassen. Ziel hierbei ist es nicht nur ‚schön anzuschauende Bilder‘ zu erhalten, sondern archivwürdige Bilddaten, deren Informationsverluste dokumentiert und damit bekannt sind. Es geht also weniger um die Festlegung ästhetischer Merkmale als vielmehr darum, technisch messbare Kriterien zu definieren.

In der letzten Dekade haben sich einige Standards zur Qualitätssicherung von Bilddaten entwickelt. Hier ist der US-amerikanische Standard FADGI zu nennen (Rieger 2016). In Kulturinstitutionen sind die 2004 initiierten Richtlinien seit 2007 fester Bestandteil der amerikanischen Qualitätsdebatte. Ein Vier-Sterne-System beschreibt unterschiedliche Toleranzen, die je nach Materialien bei der Digitalisierung einzuhalten sind. In der aktuellen Fassung werden sowohl transparente Durchlichtmedien (Negative und Diapositive) als auch reflektierende Auflichtmedien (Fotografie, Grafik, Gemälde usw.) beschrieben. Mit Metamorfoze entwickelte Hans van Dormolen im Auftrag des niederländischen Reichsmuseums eine weitere Richtlinie, die sicherstellen sollte, dass vor allem Farbunterschiede im Digitalisierungsprozess von Gemäldereproduktionen minimiert werden[4]. Jüngst gesellte sich die ISO Norm TS 19264-1 dazu[5]. Im ersten Teil der 2017 verabschiedeten Norm werden Kriterien beschrieben, wie fotografische, reflektierende Auflichtmaterialien zu digitalisieren sind. Der zweite, noch nicht publizierte Teil der Norm wird sich künftig mit transparenten Medien beschäftigen.

Die einzelnen Normen unterscheiden sich methodisch einerseits in ihren mathematischen Formeln und andererseits darin, mit welchen Messfeldern diese Kriterien gemessen werden sollen sowie in der jeweiligen Auslegungsform entsprechender Toleranzen, in denen ein Qualitätskriterium noch akzeptiert wird oder eben nicht. Allen Standardisierungsbemühungen gleich ist das vergleichende Prinzip von Soll- und Ist-Werten. Spezifische Messfelder, sogenannten Targets (Abb. 1), liefern die jeweils dem Standard entsprechenden Soll-Messwerte.

Abbildung 1 (v.l.n.r.) Das Golden Thread Object Level Target, das von Don Wiliams für die FADGI Richtlinie entwickelt wurde, Color Checker Digital Semi Glossy der Firma X-Rite, das von Hans van Dormolen für Metamorfoze verwendet wird sowie das Universal Test Target (UTT) der Firma Image Engineering zur Prüfung der ISO 19264 Normkriterien.
Abbildung 1

(v.l.n.r.) Das Golden Thread Object Level Target, das von Don Wiliams für die FADGI Richtlinie entwickelt wurde, Color Checker Digital Semi Glossy der Firma X-Rite, das von Hans van Dormolen für Metamorfoze verwendet wird sowie das Universal Test Target (UTT) der Firma Image Engineering zur Prüfung der ISO 19264 Normkriterien.

Die Digitalisierungszielsetzung besteht nun darin diese Soll-Werte in der Praxis möglichst genau zu reproduzieren. Dabei spielen die Gerätschaften sowie deren Konfiguration eine entscheidende Rolle. Nicht alle Geräte sind in der Lage, den Anforderungen, welche die Standards an ein Digitalisat stellen, zu genügen. Hard- und Softwarehersteller müssen sich an dieser Zielsetzung messen lassen. Daten, welche diesen durchaus rigiden Ansprüchen gerecht werden, können nahezu uneingeschränkt weiterverwendet werden.

Damit der Soll-Ist Wertvergleich gelingt, wird jedem Original ein entsprechendes Messfeld beigefügt (Abb. 2).

Unter der Voraussetzung einer idealtypisch homogenen Ausleuchtung belegt das Messtarget der Abbildung 2 die aus der Digitalisierung resultierenden Ist-Werte der zu untersuchenden Qualitätskriterien. Die Qualität wird nun durch den Vergleich ermittelt. Die Beurteilung der Qualität beruht damit immer auf einer Analyse eines Stellvertreters. Die resultierende Qualität kann also nie besser sein als das entsprechende Messfeld. Dieses Faktums muss man sich bewusst sein. Kennt man die Stärken und Schwächen der eingesetzten Targets, so funktioniert die Qualitätskontrolle über eine lange Zeit stabil und damit sehr gut.

Abbildung 2 Signatur PKW-009-115, Sammlung Stiftung Pestalozzianum.
Abbildung 2

Signatur PKW-009-115, Sammlung Stiftung Pestalozzianum.

Der Vorteil dieser Herangehensweise liegt auf der Hand. Sie kann nicht nur einmalig, sondern während des gesamten künftigen Lebenszyklus erfolgen. Das Objekt selbst wird mit seinen dokumentarischen Ist-Werten – auch das sind Metadaten – untrennbar verbunden. Dies führt jedoch zu einer größeren Bildmenge, welche durch die Beigabe des Messfeldes entsteht. Bei Objekten, die kleiner als A5 sind, kann das für die Speicherkapazität große Veränderungen mit sich bringen. Der Bedarf steigt schnell um zweifache Prozentstellen der originalen Dateigröße. Bei größeren Objekten zwischen A4 bis A2 fällt der schmale Streifen weniger ins Gewicht, bei Formaten über A2 ist die zusätzliche Dateimenge nahezu vernachlässigbar.

Produktionsprozesse können so lückenlos dokumentiert und überprüft werden. Stimmt eine Messgröße nicht, so wird der Produktionsprozess auf die entsprechenden Mängel hin geprüft. Stärken und Schwächen individueller Scanner oder Digitalkameras können so schnell erkannt werden. Dasselbe gilt für die Überprüfung der eingesetzten Softwarekomponenten. Ein koordinierter, kontinuierlicher Qualitätssicherungsprozess liefert damit Produktionssicherheit.

Anhand der Ist-Werte belegt der Lieferant, dass sein Endprodukt der bestellten Qualitätsanforderung entspricht. Andererseits kann der Besteller einer Datei, welche einem spezifischen Standard entsprechen muss, dies künftig zweifelsfrei und unmittelbar überprüfen. Unangenehme Diskussionen zu Nacharbeiten oder Preisnachlässen sind damit obsolet.

Qualitätskriterien

Währendem der US-Amerikanische FADGI Standard und Metamorfoze bis zu 13 verschiedene messbare Kriterien kennt, beschränkt sich dieser Beitrag auf einige exemplarische Kriterien, um den Einstieg in die Thematik zu vereinfachen.

Schreibt eine Institution einen Auftrag nach einer der drei Metamofoze Richtlinien(full, light oder extralight) aus, so definiert der Standard bereits das erlaubte Dateiformat, die notwendige Farbtiefe sowie den Arbeitsfarbraum. (Dormeln 2012, 17) Diese drei simplen Einflussfaktoren lassen sich noch gut und einfach mit bekannten Methoden wie Jhove und Exif Toolkit überprüfen (JHOV; Harvey, 2020). In Abhängigkeit vom Vorlageformat legt Metamorfoze zugleich die notwendige Auflösung fest. (Dormeln 2012, 25) Dieses triviale Kriterium – es hält nur fest, wie viele Pixel pro Zoll (ppi) ausgelesen werden – wird dann komplex, wenn man die Auflösung unter der Fragestellung, wann ein Bild scharf ist, perspektiviert. Denn das Maß von beispielsweise 600 Pixel pro Zoll sagt noch nichts über die Schärfe dieser Pixel aus. Aus hochauflösenden aber unscharf vorgehaltenen Bilder manifestiert weder eine kurzfristige noch eine längerfristige Sinnhaftigkeit. In der Fachsprache nennt sich dieses Kriterium Auflösungseffizienz. Die Schärfe eines Bildmotivs ist damit ein Kriterium, welches immer in Abhängigkeit von Kontrast und Auflösung zu beurteilen ist. Der bestmögliche Kontrast wiederum setzt eine korrekte Belichtung voraus.

Damit ist die Wechselwirkung zwischen Licht, Belichtung, Auflösung und der daraus resultierenden Schärfe sowie der Farbverbindlichkeit skizziert. Die Farbverbindlichkeit ist ein weiteres, kritisches Merkmal. Hier wird der Farbabstand DeltaE zwischen dem Soll-Wert des Targets und erzielten Ist-Wert im Digitalisat verglichen. Metamorfoze kennt mögliche Toleranzen. Ein Datensatz kann einen einzelnen statistischen Ausreißer zwischen DeltaE 18-10 aufweisen, solange die Summe aller durchschnittlichen Farbabstände den Wert 5 bzw. 4 für Metamorfoze full nicht überschreiten. Dieser Wert beschreibt damit die Grenze der wahrnehmbaren Farbverbindlichkeit. DeltaE Werte von 6 und höher gelten als große Farbunterschiede, welche sofort wahrnehmbar sind und damit nicht toleriert werden können. Werte unter 1 sind nahezu nicht wahrnehmbar.

Die dargestellten Standards kennen weitere Kriterien wie das der Verzeichnung, welche die Geometrische Darstellungstoleranz beschreibt. Sie sichert z. B. bei Karten und Plänen, dass eine Gerade auch eine Gerade bleibt. Damit wird es möglich, Daten auch in geografischen Informationssystemen zu nutzen. Auf der Hand liegt damit auch der Anspruch einer maßstabstreuen Digitalisierung. Abgerundet werden die skizzierten Kriterien durch weitere technische und praktische Faktoren, wie etwas das Signalrauschen, den Weißabgleich oder die Tonwertabstufung. Sämtliche Kriterien sind operationalisiert messbar und damit objektiv.[6] Es gibt keinen richtigen Standard, auch keine guten oder schlechten Targets, letztendlich ist es die Kombination aus Zielsetzung, Gerätschaften und Messfeldern mit Knowhow und Erfahrung, welche die Qualität sicherstellt.

Missbrauch der Technologie kann man nicht ausschließen. Hierbei werden „ideale Messfelder“ in nicht ideale Bilder mittels Bildbearbeitung „hineinkopiert“. Das mag in Einzelfällen vorkommen, doch sie lassen sich sehr gut identifizieren. Mit ein wenig Erfahrung erkennt ein Qualitätsmanager sofort, dass sich die Werte innerhalb spezifischer Gerätemuster konstant wiederholen. Produktionsprozesse unterliegen jedoch wechselnden Bedingungen. Diese beruhen auf Spannungsschwankungen in Lichtquellen oder Aufnahmesensoren, Rundungsprozessen in der bildverarbeitenden Software oder in der Veränderung klimatischer Bedingungen. Insofern sind spezialisierte automatische Auswertungssysteme notwendig.

Werkzeuge

Damit wir Ist-Werte messen können, benötigen wir auch die entsprechenden Werkzeuge. Exemplarisch lassen sich einige Werte mit Photoshop und Excel manuell auswerten. Diese Fingerübung ist verständnisfördernd, doch in der Praxis nicht effektiv. Das am einfachsten zu bedienende Werkzeug ist zur Zeit die Onlineplattform der Firma Picturae; Delt.ae[7]. Die Nutzung der Plattform ist kostenlos, sie bedingt jedoch eine Registrierung mittels Login. Vom Prinzip her werden die Daten auf einen (fremden) Server hochgeladen, analysiert und ausgewertet. Der Benutzer kann dazu zwischen den Standards Metamorfoze und FADGI-Standard wählen, der ISO-Standard wird nicht unterstützt. Die Resultate werden aufgrund der entsprechenden Kriterien und Toleranzen mit rot oder grün angezeigt.

Mit einem weiteren Mausklick lassen sich die Messwerte einzeln und detailliert nachvollziehen. Die Messdaten lassen sich auch als CSV-Datei exportieren, ein einfacher und intuitiver Zugang zum Thema. Neben Delt.ae gibt es weitere meist kostenpflichtige Tools, die zwar genauer, in der Handhabung jedoch wesentlich komplexer sind. Zu erwähnen ist hier die Golden Thread Analyse Software[8] von Don Williams, die sich zur Prüfung des FADGI Standards sehr gut eignet. Die LOC hat dieses DICE genannte Verfahren lizensiert und in eine Open Source Version gegossen.[9] Open DICE lässt sich im Einzelfall und zu Lehrzwecken gut verwenden, in großen Dienstleitungsprojekten benötigt man jedoch schnellere und stabilere Werkzeuge. Dies ist die Domäne des iQ-Analyzer der Firma Image Engineering[10]. Zurzeit ist es das einzige Tool, das sich zur Prüfung der ISO Norm produktiv einsetzen lässt.

Metadaten

Ein zentraler Punkt für den Ingest-Prozess sind die signifikanten Eigenschaften der digitalisierten Bildobjekte.

„Durch den Zwang zu exakten Definitionen zu den zu bewahrenden Eigenschaften („Significant properties“) (und damit auch automatisch jener Aspekte, die vernachlässigt werden können bzw. verloren gehen dürfen) sowie der Anforderungen an den Langzeitarchivierungsprozess selbst bietet die Erstellung des Kriterienbaumes („Objective tree“) einen enormen Verständnisgewinn. Hierbei wird häufig erstmals bewusst und offensichtlich, was digitale Langzeitarchivierung insgesamt bedeutet. Der Anwender muss (und wird dadurch) ein Verständnis für die spezifischen Eigenschaften des zu archivierenden Bestandes entwickeln, um richtige Anforderungen und Entscheidungen treffen zu können.“ (Neuroth et al. 2010, 349)

Halten wir fest, die Daten sind gemäß dem Metamorfoze Standard überprüft, d. h. auch ein Tiff ist als solches bereits zuvor, im Rahmen eines zuverlässigen Prozesses, zertifiziert. In der Folge werden auch technische Produktionsdaten in die EXIF Daten geschrieben sowie deskriptive IPTC Daten ergänzt.

Wagt man nun einen Blick in die Tiefen der eingebetteten Metadaten (Tab. 1), erkennt man schnell, dass die Differenzierung zwischen relevanten und weniger relevanten Eigenschaften eine fundierte Auseinandersetzung bedingt. Der nachfolgende Metadatenreport wurde mit dem Exiftool erstellt. Er belegt die Produktionsgeschichte.

Metadaten-Tags der Abbildung 2 Signatur PKW-009-115, Sammlung Stiftung Pestalozzianum

Tabelle 1:

Metadatenreport der der Signatur PKW-009-115 aus Abbildung 2. Existierende Exiftool Tags

IDGruppeExiftool TagEingebetteter Wert
1filefilesize58 MB
2filefilemodifydate (w)2020:05:23 19:56:41+02:00
3filefileaccessdate- 2020:05:23 19:56:41+02:00
4filefileinodechangedate- 2020:05:23 19:56:41+02:00
5filefiletypeTIFF
6filemimetypeimage/tiff
7fileexifbyteorder (w)Little-endian (Intel, II)
8filecurrentiptcdigest- ddc955ff1d862aff81a2cc680acbc3de
9exifsubfiletype (w)Full-resolution Image
10exifimagewidth (w)4919
11exifimageheight (w)4091
12exifbitspersample (w)8 8 8
13exifcompression (w)Uncompressed
14exifphotometricinterpretation (w)RGB
15exifmake (w)Phase One
16exifmodel (w)P40+
17exifstripoffsets-28924
18exiforientation (w)Horizontal (normal)
19exifsamplesperpixel (w)3
20exifrowsperstrip (w)4091
21exifstripbytecounts60370887
22exifxresolution (w)400
23exifyresolution (w)400
24exifplanarconfiguration (w)Chunky
25exifresolutionunit (w)inches
26exifsoftware (w)Adobe Photoshop CC 2014 (Windows)
27exifmodifydate (w)2018:12:18 14:06:50
28exifartist (w)Stiftung Pestalozzianum
29exifcopyright (w)Stiftung Pestalozzianum
30exifexposuretime (w)1/100
31exiffnumber (w)11
32exifexposureprogram (w)Manual
33exifiso (w)100
34exifexifversion (w)230
35exifdatetimeoriginal (w)2017:07:25 10:38:53
36exifcreatedate (w)2017:07:25 10:38:53
37exifshutterspeedvalue (w)1/100
38exifaperturevalue (w)11
39exifexposurecompensation (w)0
40exifmeteringmode (w)Center-weighted average
41exiflightsource (w)Other
42exiffocallength (w)80.0 mm
43exifcolorspace (w)Uncalibrated
44exifexifimagewidth (w)4919
45exifexifimageheight (w)4091
46exiffocalplanexresolution (w)1666.666656
47exiffocalplaneyresolution (w)1666.666656
48exiffocalplaneresolutionunit (w)cm
49exiffilesource (w)Digital Camera
50exifscenetype (w)Directly photographed
51exifwhitebalance (w)Unknown (5)
52exifimageuniqueid (w)00E058000065000C04010C1E8E008BB1
53exifserialnumber (w)EG031678
54exiflensinfo (w)1 mm f/2.799996445-21.99997864
55exiflensmodel (w)Schneider Kreuznach LS 80 mm f/2.8
56xmpxmptoolkit (w)Adobe XMP Core 5.5-c021 79.155772, 2014/01/13-19:44:00
57xmpcreatortool (w)Capture One Pro 10.1.2 Windows
58xmpmetadatadate (w)2018:12:18 14:06:50+05:30
59xmplens (w)Schneider Kreuznach LS 80 mm f/2.8
60xmpimagenumber (w)35761
61xmpfirmware (w)P40+-M, Firmware: Main=5.2.2, Boot=2.3, FPGA=1.2.4, CPLD=5.0.1, PAVR=1.0.3, UIFC=1.0.1, TGEN=1.0
62xmplegacyiptcdigest (w)3D557870844B48BA8DF0F04C0774AAC2
63xmpcolormode (w)RGB
64xmpiccprofilename (w)eciRGB v2
65xmpcreatorpostalcode (w)8090
66xmpcreatoraddress (w)Lagerstrasse 2
67xmpcreatorcity (w)Zürich
68xmpcreatorcountry (w)Schweiz
69xmprights (w)Stiftung Pestalozzianum
70xmpcreator (w)Stiftung Pestalozzianum
71xmpformat (w)image/tiff
72xmpinstanceid (w)xmp.iid:74081619-a391-374c-871d-51229058e9b8
73xmpdocumentid (w)adobe:docid:photoshop:107d76a7-02a0-11e9-8df7-f29931c0638f
74xmporiginaldocumentid (w)xmp.did:9ffaf707-21d3-cc48-8ca8-3dea956b705f
75xmphistoryactionsaved, saved
76xmphistoryinstanceidxmp.iid:9ffaf707-21d3-cc48-8ca8-3dea956b705f, xmp.iid:74081619-a391-374c-871d-51229058e9b8
77xmphistorywhen2018:12:18 14:06:50+05:30, 2018:12:18 14:06:50+05:30
78xmphistorysoftwareagentAdobe Photoshop CC 2014 (Windows), Adobe Photoshop CC 2014 (Windows)
79xmphistorychanged/, /
80iptccodedcharacterset (w)UTF8
81iptcapplicationrecordversion (w)4
82iptcby-line (w)Stiftung Pestalozzianum
83iptcsource (w)Archiv Kinder- & Jugendzeichnung
84iptcdatecreated (w)2017:07:25
85iptctimecreated (w)10:38:53+00:00
86iptcdigitalcreationdate (w)2017:07:25
87iptcsupplementalcategories (w)new supplemental category
88iptccopyrightnotice (w)Stiftung Pestalozzianum
89photoshopiptcdigest (w)ddc955ff1d862aff81a2cc680acbc3de
90photoshopdisplayedunitsx (w)inches
91photoshopdisplayedunitsy (w)inches
92photoshopglobalangle (w)30
93photoshopglobalaltitude (w)30
94photoshopphotoshopthumbnail(Binary data 7896 bytes, use -b option to extract)
95icc_profileprofilecmmtypeADBE
96icc_profileprofileversion02.04.2000
97icc_profileprofileclassDisplay Device Profile
98icc_profilecolorspacedataRGB
99icc_profileprofileconnectionspaceXYZ
100icc_profileprofiledatetime2007:03:02 10:07:41
101icc_profileprofilefilesignatureacsp
102icc_profileprimaryplatformUnknown ()
103icc_profilecmmflagsNot Embedded, Independent
104icc_profiledevicemanufacturer
105icc_profiledevicemodel
106icc_profiledeviceattributesReflective, Glossy, Positive, Color
107icc_profilerenderingintentPerceptual
108icc_profileconnectionspaceilluminant0.9642 1 0.82491
109icc_profileprofilecreatorbICC
110icc_profileprofileid9c6d34a5ada445f6146d98b0510c126d
111icc_profileprofilecopyright (w)Copyright (C) 2007 by Color Solutions, All Rights Reserved. License details can be found on: http://www.eci.org/eci/en/eciRGB.php
112icc_profileprofiledescriptioneciRGB v2
113icc_profilemediawhitepoint0.9642 1 0.82491
114icc_profileredtrc(Binary data 1412 bytes, use -b option to extract)
115icc_profilegreentrc(Binary data 1412 bytes, use -b option to extract)
116icc_profilebluetrc(Binary data 1412 bytes, use -b option to extract)
117icc_profileredmatrixcolumn0.65027 0.32028 0
118icc_profilegreenmatrixcolumn0.17804 0.60205 0.06783
119icc_profilebluematrixcolumn0.13588 0.07767 0.75708
120compositeaperture11
121compositedatetimecreated2017:07:25 10:38:53+00:00
122compositeimagesize (w)4919x4091
123compositescalefactor35efl1.1
124compositeshutterspeed1/100
125compositecircleofconfusion0.027 mm
126compositefov22.6 deg
127compositefocallength35efl80.0 mm (35 mm equivalent: 90.2 mm)
128compositehyperfocaldistance21.83 m
129compositelightvalue13.6

Dieser Metadaten Report umfasst nur Daten, welche in der Datei eingebettet sind. Klassische deskriptive Katalogmetadaten werden hier noch nicht berücksichtigt.

Die Datei PKW-009.115 wurde am 25. Juni 2017 um 10:35 Uhr (ID 35, 36 & 84, 85) mit einer Phase One Kamera (ID 15) des Types P 40 + (ID 16), auf dem ein 80 mm (ID 42, 127) Schneider Kreuznach Objektiv der Güteklasse LS (ID 55) montiert war, manuell mit einer Verschusszeit von 1/100 Sekunde (ID 37, 124) und Blende 11 (ID 38) bei einer Empfindlichkeit von 100 ISO (ID 33) digitalisiert. Die Kamera lässt sich zweifelsfrei aufgrund der Seriennummer identifizieren (ID 53). Ebenso ist die in der Kamera eingespielte Firmware (ID 61) mit der Version 5.2.2. ersichtlich. Die RAW-Daten dieser Kamera wurden mit der Software Version Capure One in der Version 10.1.2 (ID 57) auf einem Windows Rechner als unkomprimiertes Tiff (ID 5, 13) mit einer Farbtiefe von 8 bit je Kanal (ID 12) im RGB-Farbraum (ID 14) ‚entwickelt‘, an dem das ECI-RGB v2 Farbprofil (ID 64) angehängt ist. Hierzu sind auch die zentralen farbmetrischen Spezifika dokumentiert. So das Datum des ECI-RGBv2 Profils (ID 100), deren XYZ Orientierung (ID 90) mit der Weißpunktdefinition (ID 108 bzw. 113) und der jeweiligen Kanalausrichtung der R, G und B Kanäle (ID 117-119). Das Bild ist 58 MB groß (ID 1).

Die querformatige Datei (ID 18) mit den Ausmaßen von 4919 Pixel x 4091 Pixel (ID 10,11) und einer Auflösung von 400ppi (ID 22, 23) wurde am 18. Dezember 2018 um 14 Uhr 06 (ID 27) mit einem Windows Betriebssystem, auf dem eine Photoshop Version CC aus dem Jahr 2014 (ID 26,78) installiert war, geöffnet und gespeichert. Die Daten sagen nichts über die Bearbeitung aus, nur dass Photoshop in Inches konfiguriert war (ID 90/91). Das Bild könnte zur visuellen Kontrolle auch nur geöffnet und fälschlicherweise gespeichert worden sein. Aus den technischen Daten lässt sich auch die reale Größe berechnen. 4919 Pixel Breite entsprechen bei 400 ppi 12,3 Zoll, was 31.2 cm entspricht. Die Höhe beträgt 26 cm. Die klassische Erfassung der Objektgröße wird bei maßstabsgetreuer Digitalisierung damit nahezu hinfällig. Zum Zeitpunkt der Herstellung entnehmen wir den deskriptiven IPTC Daten die Besitzverhältnisse der Datei: Stiftung Pestalozzianum, Lagerstrasse 2, 8090 Zürich, Schweiz. Der Quellenhinweis (ID83) verweist auf dem Bestand aus dem Archiv der Kinder-& Jugendzeichnungen.

Jeder Fotohistoriker wäre doch hoch erfreut, hätte er diese Daten aus historischen Beständen aus der Frühzeit der Fotogeschichte. Ebenso wird jeder Preservation Manager diese Angaben zu schätzen wissen, um eine Migration zu beurteilen, die ihn vielleicht zwingt, Bilddaten farbmetrisch korrekt umzurechnen. (Tab. 2) Auch dem künftig auszubildenden Medienarchäologen liefern die Daten aus Tabelle 1 und 2 eine Ausgangslage für mögliche Rekonstruktionsversuche.

Tabelle 2

Messergebnisse der Metamorfoze Überprüfung der Signatur PKW-009-115 (Abb. 2). Die dargestellten Ergebnisse wurden mit der Plattform delt.ae erstellt und als CSV heruntergeladen.

PatchRGBLab2
1118.595.282.840.2912.9612.72
2190161.7147.166.9215.7915.06
3115.2132.4166.151.2-5.14-22.45
4108125.479.646.02-15.2922.05
5142.4138.4185.156.548.05-25.53
6149.5202191.673.28-32.45-3.8
7209.1142.371.464.9836.457.38
894.194175.640.8512.48-45.17
9179.5102.9113.453.2143.6115.6
10255254.725599.920.23-0.12
11243.4242.9248.395.490.91-2.97
12229.6229.5233.290.140.46-2.08
13216.6216.6219.485.040.31-1.57
14189.6189.9192.574.520.06-1.52
15163.3163.7165.764.21-0.03-1.24
16130.4129.7131.951.020.69-1.11
17103.1103103.940.440.13-0.45
1876.677.677.430.29-0.57-0.09
1950.149.450.819.50.52-0.62
2030.128.129.111.311.24-0.14
2122.618.921.27.962.4-0.49
2293.771.4112.932.6716.99-18.26
23180.9202.994.674.76-22.5854.14
24218.9177.967.973.819.6369.09
256368.8151.730.8411.15-46.41
26114.516598.957.76-38.527.36
27157.682.178.244.9341.9224.37
28235.321673.684.934.0679.13
29172100.7159.352.8643.39-14.12
3080.8146.1179.352.53-28.82-29.07

Die vorangegangene Darstellung eingebetteter Objekt-& Metadaten, wie sie aus der standardisierten Nutzung von Testtargets hervorgehen, sollte hinreichend skizziert worden sein, um ein Verständnis für die Relevanz dieser signifikanten Bildeigenschaften zu entwickeln. Mit Blick auf die komplexen Fragestellungen der digitalen Langzeitarchivierung kann man diese Fakten nicht länger ignorieren. Es wäre schlicht unverantwortlich, Bildbestände weiter im ‘qualitativen Blindflug’, ohne Dokumentation und technische Überprüfungsmöglichkeiten, zu digitalisieren und diese Daten nicht weiter zu nutzen. Dabei drängt sich die Frage auf, wie diese Messdaten der Qualitätssicherung in den Ingest-Prozess (automatisiert) hineinfließen sollen? Mit METS-Containern sind solche Ansätze denkbar, doch das ist eine Diskussion, die in einer weiterführenden Debatte entstehen muss. Grundbedingung dafür ist ein Kommittent zur standardisierten Qualitätssicherung mit einem der dargestellten Standards.

Bilanz und Perspektiven

Durch den verbindlichen Einsatz von Standards wie Metamorfoze eröffnen sich für die digitale Langzeitarchivierung neue Perspektiven. Diese beschränken sich nicht nur auf den Ingest-Prozess, vielmehr können anhand der Messfelder Migrationsschritte auf ihren Erfolg hin überprüft werden. Mittels der aufgedruckten geräteunabhängigen LAB-Farbwerte, welche die spezifischen Eigenschaften der jeweiligen Farbfelder dokumentieren, wird es unabhängig von künftigen Computersystemen möglich sein, Systeme zu schaffen, welche diese Werte dementsprechend auch analysieren und vergleichen können.

Die Befürchtung, dass der Digitalisierungsprozess sowie die langfristige Archivierung der Daten aufgrund der skizzierten Methoden nicht einfacher wird, ist nachvollziehbar. Will man die Komplexität der digitalen Langzeitarchivierung reduzieren, so bedingt dies einen Paradigmenwechsel, der die gesamthafte Prozesskette betrifft. Stellt man die Archivierung nicht an das Ende dieser Kette, sondern vor die Vermittlung, so kann vieles vereinfacht werden. Diese Forderung nennt sich „Archive First“. Hierbei sollten die Daten nach der Digitalisierung erschlossen und anschließend langfristig im Rahmen einer OAIS konformen Lösung archiviert werden. Anschließend lassen sich die Daten wesentlich einfacher in die unterschiedlichsten Portale vermitteln. Das umfassende Projekt der Stiftung Pestalozzianum belegt dies auf eindrückliche Weise. Sämtliche Digitalisierungs- und Erschließungsanforderungen verfolgten primär die Archivperspektive. Sind die Bilder erst einmal ingestiert, so lassen Sie sich auf relative einfache Art und Weise über Standardschnittstellen wie beispielsweise OAI-PMH harvesten.

Langfristig zahlen sich die deutlich aufwändigeren Digitalisierungskosten, welche mit dieser Qualitätssteigerung einhergehen, aus. Sie zwingt Institutionen zur Handlungsperspektive: „Do it once, but do it right“. Damit gewinnen Sie Qualität und Sicherheit und können künftig entlang transparenter und nachvollziehbarer Dokumentation arbeiten, welche den Paradigmenwechsel zu Archiv First erst ermöglicht.

Über den Autor / die Autorin

Prof. Dr. Michel J. Pfeiffer

Prof. Dr. Michel Pfeiffer ist Dozent am Schweizerischen Institut für Informationswissenschaft, an der Fachhochschule Graubünden, ehemals HTW Chur, Schweiz. Dort leitet er das Digitalisierungslabor mit den Ziel Fotografie und audiovisuelle Medien archivwürdig zu transmedialisieren. Seine aktuellen Forschungsfragen befassen sich mit der Digitalisierung, Erhaltung und Vermittlung von Kulturgütern, im Besonderen Objekt- und Metadaten im Spannungsfeld zwischen Bibliotheken, Archiven und Museen. Weitere Details unter https://www.fhgr.ch/personen/person/pfeiffer-michel/ und https://www.fhgr.ch/suche/?tx_solr%5Bq%5D=Michel+Pfeiffer&tx_solr%5Bfilter%5D%5B0 %5D=type%3Apages.

Literatur

Dormolen, H.v. (2012). Metamorfoze Preservation Imaging Guidelines 1.0. Image Quality, version 1.0. metamorfoze R national programme for the preservation of paper heritage, https://www.metamorfoze.nl/sites/default/files/publicatie_documenten/Metamorfoze_Preservation_Imaging_Guidelines_1.0.pdf [25.5.2020].Suche in Google Scholar

FADGI (2020). OpenDICE and AutoSFR, http://www.digitizationguidelines.gov/guidelines/digitize-OpenDice.html [22.6.2020].Suche in Google Scholar

Harvey, P. (2020). ExifTool. Read, Write and Edit Meta Information, https://exiftool.org/ [24.6.2020].Suche in Google Scholar

Image Science Associates (2020). http://www.imagescienceassociates.com/ [25.5.2020].Suche in Google Scholar

IIIF (2020). International Image Interoperability Framework, https://iiif.io/ [25.5.2020].Suche in Google Scholar

International Press Telecommunications Council (2020). Photo Metadata, https://iptc.org/standards/photo-metadata/ [25.5.2020].Suche in Google Scholar

iQ-Analyzer (2020). https://www.image-engineering.de/products/software/376-iq-analyzer [25.5.2020].Suche in Google Scholar

ISO/TS 19264-1:2017, https://www.iso.org/standard/64221.html [25.5.2020].Suche in Google Scholar

JHOVE. Open source file format identification, validation & characterisation, http://jhove.openpreservation.org/ [25.5.2020].Suche in Google Scholar

Library of Congress (2020). Recommended Formats Statement. Preservation, https://www.loc.gov/preservation/resources/rfs/ [5.7.2020].Suche in Google Scholar

Neuroth, H., Liegmann, H., Oßwald, A., Scheffel, J.M., Strathmann, S. (2010). Nestor Handbuch. Eine kleine Enzyklopädie der digitalen Langzeitarchivierung, http://nestor.sub.uni-goettingen.de/handbuch/index.php [25.5.2020].Suche in Google Scholar

Pfeiffer, M. (2015). Wie können Bildbestände bewertet werden? Auswahl-, Erhaltungs- und Vermittlungsstrategien im Rahmen von Digitalisierungsprojekten. Zeithistorische Forschungen/Studies in Contemporary History, (H2), 317-325. Suche in Google Scholar

Picturae Nederland (2020). Delt.ae. Online image quality assessment, https://deltae.picturae.com/index/home [25.5.2020].Suche in Google Scholar

Rieger, T. (2016). FADGI-Federal Agencies Digital Guidelines Initiative. Technical Guidelines for Digitizing Cultural Heritage Materials. Creation of Raster Image Files, http://www.digitizationguidelines.gov/guidelines/FADGI%20Federal%20 %20Agencies%20Digital%20Guidelines%20Initiative-2016 %20Final_rev1.pdf [25.5.2020].Suche in Google Scholar

Standard of Japan Electronics and Information Technology Industries Association (2002). Exchangeable image file format for digital still cameras: Exif Version 2.2. JEITA CP-3451, https://www.exif.org/Exif2-2.PDF [25.5.2020].Suche in Google Scholar

Online erschienen: 2020-10-10
Erschienen im Druck: 2020-10-06

© 2020 Walter de Gruyter GmbH, Berlin/Boston

Artikel in diesem Heft

  1. Frontmatter
  2. Frontmatter
  3. Editorial
  4. Das Schweizer Institut für Informationswissenschaft (SII)
  5. Studiengang
  6. Der Bachelor of Science in Information Science
  7. Digital Business Management – eine neue Studienrichtung im Bachelor of Science in Information Science
  8. Master of Science in Business Administration − Major Information and Data Management
  9. Weiterbildung am SII – Eine fast dreißigjährige Erfolgsgeschichte
  10. Bibliothek
  11. Zur Nutzung des Raumes in Wissenschaftlichen Bibliotheken
  12. Medizinischer Bibliothekar
  13. Auf dem Weg zum ersten Postgraduiertenkurs für Medical & Health Librarianship
  14. Datenmanagement
  15. Einsatz von Linked Data in Archivinformationssystemen – Chancen und Herausforderungen
  16. Das erweiterte Potenzial von Bildungsdaten
  17. Langzeitarchivierung
  18. Wie digitalisiert man Bilder mit Blick auf die digitale Langzeitarchivierung?
  19. Informationsverhalten
  20. Das Usability Lab am Schweizerischen Institut für Informationswissenschaft
  21. „Geld ist nicht alles“ – Motive des Datenteilens in den USA und der Schweiz
  22. Datenanalyse
  23. Optimierung von Unternehmensbewertungen durch automatisierte Wissensidentifikation, -extraktion und -integration
  24. Allergiedaten Analysieren
  25. Simulation
  26. Numerische Simulation – von der Formel zum bunten Bild
  27. Informationen
  28. Informationen
  29. Buchbesprechung
  30. Bibliotheken und Informationsgesellschaft in Deutschland. Eine Einführung Mitbegründet von Engelbert Plassmann. Hermann Rösch, Jürgen Seefeldt, Konrad Umlauf. – Wiesbaden: Harrassowitz, 2019. XIV, 330 Seiten, 46 Tabellen. 3., neu konzipierte und aktualisierte Auflage unter Mitarbeit von Albert Bilo und Eric W. Steinhauer. ISBN 978-3-447-06620-4 (gebunden), ISBN 978-3-447-19886-8 (E-Book-PDF), 39,80 Euro
  31. Tagungsbericht
  32. Informationskompetenz und Demokratie (IDE): Bürger, Suchverfahren und Analyse-Algorithmen in der politischen Meinungsbildung
  33. Nachrichten
  34. Nachrichten
  35. Aus der DGI
  36. Aus der DGI
  37. Terminkalender 2020
  38. Terminkalender 2020/2021
Heruntergeladen am 14.9.2025 von https://www.degruyterbrill.com/document/doi/10.1515/iwp-2020-2115/html
Button zum nach oben scrollen