PP Medizin- und Wissenschaftsfotografie

Page 1

SPECIAL

Juli 2010

Medizin- und Wissenschaftsfotografie Thorsten Ramthun

PHOTO PRESSE - Klie Verlagsgesellschaft mbH - Postfach 1348 - 34333 Hann. Münden.

Lilie mit Blütenpollen, © R. Perdok/medicalpicture



EDITORIAL 4

ARCHIVIERUNG Wohin mit all den Daten?

14 Canon

Stabile Ausdrucke für farbechte Kontrolle

16

LG ELECTRONICS Sicheres Archivieren im Netzwerk

18 PHOTO COMPETENCE PARTNER Fachhandel im Dienste von Medizin und Wissenschaft

20 MEDICALPICTURE

Spektakuläre Innenansichten

22 HEDLER

Gutes Licht für verlässliche Ergebnisse

23 PHOTOKINA 2010

Infos bis der Arzt kommt

Liebe Leserinnen und Leser, nachdem wir uns in unserem ersten Special „Medizin- und Wissenschaftsfotografie“ (erschienen im November 2009) vorrangig mit der durch die Digitalisierung veränderten Berufssituation von Medizin- und Wissenschaftsfotografen beschäftigt und ihre besonderen fotografischen Herausforderungen herausgearbeitet haben, wollen wir uns in dieser Ausgabe schwerpunktmäßig einer Frage zuwenden, die nicht nur im medizinischen und wissenschaftlichen Umfeld, sondern auch für kulturelle Einrichtungen wie Museen und Sammlungen höchste Priorität hat: Wohin mit all den Daten? Das ist natürlich eine zentrale Thematik, mit der auch jeder Fotograf heutzutage konfrontiert ist. Deshalb sind viele Sachverhalte, die unser Fachautor Michael Marczok in seinem Beitrag zur Archivierung von Bilddaten behandelt, auch für alle anderen Profis von Interesse, egal, in welchem Umfeld sie sich bewegen. Es geht unter anderem um die Lebensdauer von Medien, um Datensicherheit, um das Kopieren von Daten von einem älteren auf ein moderneres Medium, um die verschiedenen Speichermedien und die unterschiedlichen Datenformate mit ihren Vor- und Nachteilen. Und darum, die immense Datenflut nutzbar zu machen, also sicherzustellen, dass Anwender den Bestand schnell, einfach und zuverlässig durchsuchen können. Aber auch andere Themenbereiche werden angeschnitten: Beispielsweise Drucklösungen im medizinisch-wissenschaftlichen Umfeld, das richtige Licht bei Dokumentationsprozessen, außerdem stellen wir eine medizinische Bilddatenbank vor. Imagingprodukte werden immer wichtiger in zahlreichen Berufsfeldern. Die photokina in Köln im September dieses Jahres bietet auch Klinikfotografen, Ärzten, Zahnärzten und Wissenschaftlern die optimale Gelegenheit, sich vor Ort umfassend über die wichtigsten Produkte, Technologien und Trends zu informieren. Auch dazu einige Informationen in diesem Heft. An dieser Stelle möchten wir uns bei unseren Kooperationspartnern, der Fachzeitschrift bild der wissenschaft und der zur DocCheck Gruppe gehörenden Bildagentur medicalpicture, herzlich bedanken, dass sie dieses Special als Webmagazin in ihre aktuellen Newsletter bzw. auf ihre Homepages aufgenommen haben, sodass nicht nur die Angehörigen der Fotobranche, sondern auch die fotoaffinen Zielgruppen in Medizin und Wissenschaft erreicht werden. Es geht voran in Medizin und Wissenschaft. Genauso wie in der Fotografie. Ich wünsche Ihnen auch dieses Mal eine informative und unterhaltsame Lektüre! Hagen Klie

Redaktionsbüro (Zentrale)

Redaktionsbüro

Anzeigen-Abteilung

Abo-Service

Leitung Anzeigenverkauf

Hagen Klie/DGPh, Hanni Käfer-Klie

Wolfgang Heinen/DGPh

Yvonne Weitemeyer

Sebastian Rühling

Alexandra Schneider

Postfach 1348

Cäsariusstraße 83a

Postfach 1348

Telefon: 05541 9849-40

Telefon: 02131 31371-77

34333 Hann. Münden

53639 Königswinter

34333 Hann. Münden

Email: sruehling@photopresse.de

Email: aschneider@photopresse.de

Sichelnsteiner Weg 2

Telefon: 02223 9093-86

Telefon: 05541 9849-20

34346 Hann.Münden

Telefax: 02223 9093-87

Telefax: 05541 9849-98

Buchhaltung

Gestaltung

Telefon: 05541 9849-0

Email: wheinen@photopresse.de

Telefax: 05541 9849-99

Annedore Strohschein

Anke Dievernich

Email: zentrale@photopresse.de

Telefon: 05541 9849-30

Telefon: 0228 286170-70

Email: astrohschein@photopresse.de

Email: mail@ankedievernich.com

Telefax: 05541 9849-98 Email: zentrale@photopresse.de


Wohin mit all den Daten? Ganze Kongress- und Vortragsserien befassen sich mit dem Thema der Archivierung von medizinischem und wissenschaftlichem Datenmaterial. Auch Fotografien gehören natürlich dazu. Ihnen muss besondere Aufmerksamkeit zuteil werden, da sich Informationsverluste in der Datenstruktur direkt auf den Bildinhalt und damit auf die eigentliche Information auswirken. Welches sind die Herausforderungen, vor die Archivierungsprofis täglich gestellt werden und was können Fotografen für ihre Bildarchive von ihnen lernen? Das gibt es, seit es Archive jeder Art gibt: Die Angst um den Fortbestand der gelagerten Daten. Und auch schon immer gab es drohende Verluste ganzer Generationen von Beständen aufgrund mangelnder Haltbarkeit der Datenträger. Als Beispiel sei hier nur der Zerfall fast aller römischer und griechischer Originalquellen auf Papyrus um das Jahr 400 nach Christus erwähnt. Kaiser Konstantin griff zu einem bis heute probaten Rettungsmittel, er kopierte große Teile dieser Werke auf ein neues „Speichermedium“, das Pergament, welches sich als viel haltbarer erwies. Dieses Beispiel zeigt eines der zentralen Probleme aller Archive weltweit und zu jeder Zeit auf. Wie lange sind meine Datenträger haltbar und was tue ich, wenn die

Haltbarkeitsgrenze erreicht wird? Mehrere Lösungen sind denkbar. Sicherheit vor praktischem Nutzen Die Lebensdauer vieler klassischer Medien wie Pergament, Papier, Film oder Magnetband lässt sich durch sichere Lagerverfahren stark verlängern. Zum Beispiel der gute alte Schwarzweiß-Abzug auf Bromsilberpapier. Bei einigermaßen sachgerechter Lagerung spricht man von einer Haltbarkeit zwischen 50 und 100 Jahren, die sich bei Lichteinwirkung drastisch verkürzt. Lagert man solche Fotografien aber bei -18° C, 30 % Luftfeuchte und vollkommener Dunkelheit, schätzt man, dass sich die Lebensdauer um den Faktor 1000 verlängert.

Praktisch hat sich diesen Umstand die norwegische Nationalbibliothek zu Nutze gemacht und ihr Archiv ganz in den Norden, noch nördlich des Polarkreises, in ein aufgelassenes Bergwerk verlagert. So können hohe Kosten für die Kühlung gespart werden. Auch Deutschland nutzt übrigens für die Mikrofilme seiner Archive ein Bergwerk, diesmal im Süden der Republik, im Schwarzwald. Diese Art der Lagerung ist natürlich besonders sicher, erschwert aber auch stark den Zugriff auf die Bestände. Wer will schon ständig in die äußersten Winkel des Landes reisen, um Einblick in die Originale zu erlangen, Ersparnis und Sicherheit hin oder her, oder in klirrender Kälte arbeiten, da Klimawechsel eine der größten Gefahren für

Ein Fall für die längere Archivierung. Solch allgemein gehaltenen Aufnahmen aus der klinischen Praxis bleiben über eine längere Zeit aktuell, werden immer wieder genutzt und verbleiben deshalb über einen längeren Zeitraum im Archiv des UKE. Diese Aufnahmen einer Herz-OP und eines Herzkatheter-Roboters zum Beispiel schon seit 2007


ARCHIVIERUNG Also müssen historische Informationen, egal, welcher Art, digitalisiert werden. Modernste Scanner erreichen so hohe Farbtiefen und Auflösungen, dass quasi kein Informationsverlust auftritt, der normalerweise die Folge von Kopierprozessen ist. Wichtige Bibliotheken nutzen automatisierte und schonende Verfahren, um Folianten und andere historische, empfindliche Werke zu digitalisieren.

Hans-Jochen Koppelmeyer, Bildredakteur der Unternehmenskommunikation des UKE

Christian Kreher, Leiter der Unternehmenskommunikation des UKE, Hamburg

Archivmaterial jedweder Art darstellt. Im kleineren Maßstab zeigt sich der Nachteil von hoher Datensicherheit auch in der täglichen Arbeit von medizinischen und wissenschaftlichen Einrichtungen. Wir sprachen für diesen Beitrag unter anderem mit dem Bildredakteur des Unversitätsklinikums Eppendorf, kurz UKE, in Hamburg, Hans-Jochen Koppelmeyer, und seinem Chef, dem Leiter der Unternehmenskommunikation Dr. Christian Kreher. Sie berichten von ganz praktischen Aspekten der Archivierung. Im UKE werden beispielsweise alle Daten, nicht nur die Mediendaten der Unternehmenskommunikation, auf zwei Servern gelagert. Einer davon hat eine Verbindung nach außen. Auf ihm lagern die weniger sensiblen Daten, die aber schneller und einfacher erreichbar sein müssen. Der zweite Server ist abgeschottet. Hier treffen die wirklich wichtigen und sensiblen Daten ein. Dazu gehört auch das Bildmaterial der Fotoabteilung und der Unternehmenskommunikation, die per sicherem Intranet Zugriff haben.

Haltbarkeit von Magnetbändern ist sehr hoch, da sie bei sachgerechter Lagerung sehr stabil sind. Die Nutzbarkeit solcher Bänder – und wie wir noch sehen werden, nahezu aller moderner Speichermedien – wird begrenzt durch die Verfügbarkeit der Geräte, auf denen diese laufen. Große Archive werden also immer auf besonders zukunftsfeste Technologien und Medien schauen. Um die tägliche wissenschaftliche Arbeit mit Archivdaten zu gewährleisten, muss nun ein Weg gefunden werden, der die Sicherheit des Datenbestandes, aber auch einen praktischen, schnellen und einfachen Zugriff ermöglicht.

Teil dieses sehr sicheren Servers ist der noch einmal sicherere Speicherbereich für Patientendaten. Diese werden in einem Hochsicherheitstrakt-artigen Bereich, den man sich wie einen Kühlraum in Safeform vorstellen kann, untergebracht. Speichermedien sind Magnetbänder, die vollautomatisch bei Anfragen gesucht und eingelesen werden. Wieder wird klar, Sicherheit geht vor Zugriffsgeschwindigkeit und damit praktischer Arbeit. Das Einlesen von Datenbändern, die zunächst auch noch gesucht werden müssen, dauert extrem viel länger, als das Aufrufen einer Datei auf einer lokalen Festplatte. Aber die

Von einem Medium zum nächsten Das Kopieren von Daten von einem älteren auf ein moderneres Medium, die so genannte Datenmigration, ist in zweierlei Hinsicht das Mittel der Wahl. Einerseits, um Originalmaterial wie alte Fotos oder Dokumente, welche, wie oben beschrieben, sicher untergebracht und schwer erreichbar sind, schnell und komfortabel für moderne Technologien zugänglich zu machen. Früher wurden diese Materialien auf Mikrofilm belichtet, der dank spezieller Trägerunterlagen extrem haltbar war und ist. Die Technik schreitet aber mit Riesenschritten voran und MicroficheLesegeräte sind nicht mehr Up-to-Date. Wir befinden uns mitten im digitalen Zeitalter, davon muss eigentlich nicht mehr geredet werden.

Wohin nun aber mit den Daten? In digitaler Form sind für ihre Nutzung keine Grenzen gesetzt. Egal, ob in einer lokalen Datenbank oder im weltweiten Verbund des Internets, Bits und Bytes sind leicht und ohne Verlust kopierund übertragbar. Einmal als Datei vorhanden, kann zum Beispiel ein Bild zeitgleich auf der ganzen Welt betrachtet werden. Trotzdem muss es irgendwo mindestens einmal gespeichert werden. Wir sprachen ja schon von der Haltbarkeit von Medien und hier wird nun ein interessantes Faktum erkennbar. Je moderner die Informationsträger, desto kürzer ihre Haltbarkeitszeit. Und dabei gibt es für viele dieser Datenträger noch nicht einmal gesicherte Erkenntnisse über die wahre Langzeitstabilität bzw. Datenintegrität. CDs und DVDs halten nach Angaben der Hersteller etwa 50 bis 80 Jahr, also etwas kürzer als das gute alte Schwarzweiß-Foto. Es gibt in diesem Bereich noch spezielle Scheiben, die mit Gold beschichtet sind und etwa 200 Jahre stabil sein sollen. Die schon erwähnte norwegische Nationalbibliothek setzt auf solche goldenen CDs und DVDs. Wie sich das Trägermaterial, ein Polykarbonat, zusammen mit der Beschichtung auf Dauer verhält, weiß aber kein Mensch mit Gewissheit.

Nicht nur Fotos. Im Archiv des UKE in Hamburg findet man nicht nur Fotografien, sondern auch Grafiken – und wenn es sich um Patientenakten handelt, alle möglichen Aufnahmen bildgebender Untersuchungsverfahren. Die Grafik zeigt eine Herzklappenreparatur

5


Erschwerend kommt hinzu, dass eine mechanische Beschädigung zum Beispiel einer CD ein viel höherer Schaden sein kann als die selbe Schädigung auf dem analogen Ausgangsmedium. Ein Kratzer auf einem Film ist ärgerlich, die eigentlich Bildinformation bleibt aber in der Regel erhalten. Bei der CD sieht das schon anders aus. Selbst kleinere Kratzer an der falschen Stelle können die gesamte Information unbrauchbar machen. Weiter beziehen sich die Angaben über Haltbarkeiten auf optimale Behandlung der Medien. Bleiben wir beim Beispiel CD/DVD. Die reflektierende Metallschicht wird mit Acryllack versiegelt. Dies ist die meist bedruckte „Vorderseite“ der Scheiben. Dieser Lack reagiert mit Schweiß, Fett, Lösungs- und Reinigungsmitteln, UVBestrahlung und Feuchtigkeit. Ganz schnell sind Daten durch Unachtsamkeit futsch. Es gilt also, die Datenträger regelmäßig zumindest stichprobenartig auf Fehler und Informationsverluste zu durchmustern. Eine mühselige Arbeit bei umfangreichen Beständen, die aber automatisiert von spezieller Software durchgeführt werden kann. Wir sprachen ja davon, dass Datenmigration noch einen zweiten Nutzen hat. Dieser liegt sehr dicht beim ersten und ist das Umkopieren schon digitalisierter Informationen auf aktuelle Medien, um sie vor Verlust zu schützen, wenn die Datenträger ihr Lebensende erreichen. Aber auch, um den bei den Magnetbändern erwähnten Effekt des Zugriffsverlustes durch überalterte Technologien zu vermeiden. Der Umzug der Daten wird immer in Richtung Aktualität der Lesegeräte gehen. Die Festplatte, der Tausendsassa Das aktuelle Speichermedium der Wahl ist die Festplatte. Daten werden auf ihnen, ganz ähnlich wie bei den Magnetbändern, auf magnetisierten Metalloxidschichten gespeichert. Allerdings ist die Speicherdichte auf Festplatten sehr viel höher als auf den meisten anderen Medien. Das birgt wieder die Gefahr von sehr hohen Datenverlusten, bei kleinsten Beschädigungen. Die Vorteile überwiegen aber deutlich. Die extrem hohen Kapazitäten bei vergleichsweise geringen Kosten überzeugen natürlich bei den

heutzutage anfallenden Datenfluten, besonders bei Foto- und Videomaterial. Auch sind moderne Festplatten sehr einfach zu nutzen und können bei starker Beanspruchung durch robuste Gehäuse geschützt werden.

Daten mittels eines RAID Controllers auf den Festplatten wird eine Redundanz, eine Verdopplung von Daten, oder ein erhöhter Datendurchsatz erzielt.

Festplatten sind wirklich für jeden Einsatz zu erhalten. Angefangen bei den kleinsten Geräten in MP3 Playern oder ähnlich kleinem Spielzeug bis zu riesigen Disk Arrays, also Festplattenverbünden, als Datenpool leistungsstarker Server. Neben den hohen Kapazitäten haben die Tausendsassas noch mehr Vorteile gegenüber CDs/DVDs & Co. Die Zugriffszeiten sind relativ kurz und können bei Zusammenschaltung von mehreren Platten und mehrkanäligen Übertragungswegen noch erhöht werden. Dies kann bei großen wissenschaftlichen oder medizinischen Bildarchiven ein entscheidender Faktor werden, bewegen wir uns dort doch im Giga- bzw. sogar schon im TerrabyteBereich täglich umzuschichtender Datenmengen.

Bei der Beschleunigung des Datenflusses mit einem Disk Array, wie oben erwähnt, spricht man vom RAID Level 0. Hierbei werden gleich große Datenpakete auf die Festplatte geschrieben und diese dort wie bei einem Reißverschluss angeordnet. Es entsteht aber keine Redundanz. Diese wird erst mit einem RAID Level 1 erreicht. Hier wird auf allen Festplatten genau das Gleiche gespeichert, man spricht auch von einer Spiegelung der Daten. Wie sich leicht vorstellen lässt, ist die Redundanz vollständig. Erst wenn alle Festplatten ausfallen, sind auch alle Daten verloren, ein sehr unwahrscheinlicher Fall. Von Hans-Jochen Koppelmeyer erfahren wir, dass im UKE in Hamburg die wichtigsten Patientendaten bis zu vierfach gespiegelt werden, sicher ist sicher.

Es lassen sich, wenn nicht die allerhöchsten Geschwindigkeiten erforderlich sind, mit Disk Arrays zwei schon vorgestellte Probleme der Archivierung auf einen Streich lösen. Die relativ hohe Grundgeschwindigkeit beim Datenzugriff wurde bereits ebenso thematisiert wie der Zusammenschluss mehrerer Platten. Alternativ zu einem Geschwindigkeitszuwachs durch solch eine Anordnung kann eine erhöhte Datensicherheit bis zu hundertprozentiger Redundanz erzeugt werden. RAID ist das Zauberwort. RAID steht für die englischen Begriffe Redundant Array of Independent Disks, zu deutsch redundante Anordnung von unabhängigen Festplatten. Damit ist dann auch schon alles geklärt. Durch eine spezielle Art der Organisation der

Das beliebteste RAID Level ist die Nummer 5. Es bietet sowohl einen hohen Datendurchsatz, als auch eine gewisse Redundanz. Da bei diesem Verfahren das Organisationsaufkommen sehr hoch und damit die Anforderungen an die Steuerung beträchtlich sind, lohnt es sich erst bei der Nutzung von mindesten vier Festplatten im Verbund. Ab dann ist es aber eine kostengünstige Technik, um Daten sicher auf mehrere Datenträger aufzuteilen. Modernste Controller nehmen nach und nach diesem kleinen Nachteil die Bedeutung. Jede der Platten enthält so genannte Paritätsinformationen einer anderen Platte, die beim Ausfall für die Rekonstruktion der Daten herangezogen werden. Im normalen Betrieb werden diese Informationen

Nationales Gedächtnis. So sieht die Deutsche Nationalbibliothek in Frankfurt von außen aus ...


ARCHIVIERUNG

nicht benötigt und alle Platten können parallel genutzt werden. Hier trifft also Sicherheit – wenn eine Platte ausfällt lässt sich der Datenbestand rekonstruieren – auf Geschwindigkeit, durch die gleichzeitige Nutzung der Festplatten. Eine etwas aufwändigere Variante und deshalb nur für besonders wichtige und große Datenarchive interessant, ist das präventive RAID Level 5. In der Steuerung des RAIDs laufen statistische Berechnungen und Algorithmen, die Voraussagen von Plattendeffekten machen. Ist eine Platte nach Meinung des Controllers vom Ausfall bedroht, wird ihr Inhalt sicherheitshalber auf eine Reserveplatte umgeschichtet. Dieses Verfahren erhöht die Sicherheit signifikant bei gering gesteigertem Platzbedarf. Einige Studien bezweifeln allerdings, dass die Vorhersagen relevant nützlich berechnet werden können. Alle Vorteile in Bezug auf Geschwindigkeit und Sicherheit, die durch Festplatten erzielt werden können, sollen aber nicht darüber hinwegtäuschen, dass auch sie eine begrenzte Lebensdauer haben und von Verschleiß bedroht sind, der zum Verlust der Daten führen kann. Besondere Belastung erfahren Festplatten ganz einfach bei der Nutzung, weil beim Transport gerade großer Datenmengen hohe Temperaturen in den Geräten entstehen können; nicht gut für die Platten. Also verfolgt uns auch hier die Datenmigration, wenn Kapazitäten von Disk Arrays erhöht oder verschlissene Platten ausgetauscht werden. Die richtig großen Einrichtung wie Nationalbibliotheken oder historische Archive arbeiten deshalb nicht nur mit mehrfachen Datenbeständen auf Festplatten, sondern nutzen völlig verschiedene Systeme, etwa opto-

elektronische oder Magnetbandgestützte, zur Sicherung aller Daten. Ein gutes Bespiel für ein relativ kleines, aber leistungsstarkes und kostengünstiges RAID-System ist das N4B2 von LG. Neben vier Schächten für Festplatten hat es noch USB- und eSATAInterfaces, einen 4 in 1 Speicherkartenleser sowie Platz für einen Blu-ray Brenner. Die volle Ausstattung sozusagen, die mit den vier Platten die RAID Level 0, 1, 5 und eine Kombination aus 0 und 1 unterstützt (s. S. 16). Was kommt auf die Platten? Kommen wir nach den HardwareAspekten nun zu denen der Software. Hier treten gleich mehrere Fragen wie Aktualität, Kompatibilität und Zukunftssicherheit auf. Wenden wir uns zunächst einem Problem zu, welches ähnlich dem der Veralterung von Lesegeräten und der daraus folgenden Nicht-Lesbarkeit der ebenso alten Medien liegt. Gemeint sind die Datenformate, die gespeichert werden sollen. Ein gutes Beispiel für nicht „archivfeste“ Formate sind RAWs. Jeder Kamerahersteller entwickelt sein eigenes, proprietäres Format, welches sich dann auch noch von Kameramodell zu Kameramodell unterscheidet. Um diese RAW-Formate zu lesen, zu bearbeiten oder anzuschauen, ist man auf die Software desselben Herstellers oder einer Drittsoftware, die die Formate unterstützt, angewiesen. Natürlich gibt es viele Programme, angefangen bei Adobes Photoshop für die Verarbeitung oder Bridge für Sichtung und Ordnung, aber die ganzen Feinheiten, die in den RAWs stecken, geben viele Hersteller nicht preis. So gelingt es auch hochprofessionellen Programmen wie Aperture 3, Light-

room 3 & Co. nicht, die Wandlungsqualität zu erreichen, die die spezielle auf das RAW-Format zugeschnittene Software von Canon oder Nikon liefert. Eine löbliche Ausnahme ist Capture One von Phase One. Der Hersteller arbeitet gut und eng mit vielen Firmen zusammen und holt wirklich alles aus dem RAW heraus. Viele Tests haben bewiesen, dass Capture One teilweise besser ist als die Herstellersoftware. Auch „altern“ RAWs verhältnismäßig schnell, will heißen, ältere Formate können von aktuellen Programmen wie das genannte Photoshop teilweise nicht mehr gelesen werden. Zwar verspricht zum Beispiel Canon, dass mit ihrer Software Digital Photo Professional, DPP, immer auch die RAWs selbst der ersten digitalen Spiegelreflexkameras gelesen werden können. Aber gilt das wirklich für die Ewigkeit? So ein Wirrwarr von Programmen, Formaten und zeitlich begrenzten Inkompatibilitäten ist nichts für die Archivierung. Denn Sinn und Zweck eines Archivs ist ja nicht nur die sichere Lagerung von Daten, sondern auch der einfache und schnelle Zugriff darauf. Nicht jeder externe Nutzer eines Archivs will mit teurer oder exotischer Software arbeiten, um an die Daten zu kommen. Sinnvoll sind also Formate, die von gängigen Programmen über die Grenzen aller Betriebssysteme hinweg zugänglich sind. Für Bilddaten haben sich über die Jahre grundsätzlich drei Formate etabliert. TIFF steht für Tagged Image File Format und beschreibt eins der meist verwendeten Austauschformate für Bilder, das ursprünglich von Adobe, damals noch unter dem Namen Aldus, und Microsoft entwickelt wurde. Das TIFF arbeitet mit einer verlustfreien Kompression, nicht wie oft behauptet

… und so von innen. Der Mulitmedia Lesesaal in der modernen Architektur lädt ein zu wissenschaftlicher Recherche in diesem Archiv deutschsprachiger Veröffentlichungen und allem, was über Deutschland geschrieben wird

7


unkomprimiert, und ist damit prädestiniert für hochaufgelöste Bilder in allerhöchster Qualität. Das Format ist Betriebssystem-unabhängig und kann von allen Bildbearbeitungs- oder betrachtungsprogrammen gelesen werden. Kein Vorteil ohne Nachteil. TIFF-Dateien können durch ihre Verlustfreiheit enorm groß werden. Ständig wachsende Auflösungen digitaler Kameras, aber auch von Scannern, verschärfen diese Tatsache noch. Ein Beispiel: Ein 16 Bit TIFF einer für digitale Verhältnisse relativ alten Canon EOS 5D wird ca. 75 MB groß, dass einer EOS 1Ds Mark III, ebenfalls von Canon, nimmt schon deutlich die 100 MB Hürde. Diese Entwicklung wird sicher noch einige Zeit weiter voranschreiten, und auch jenseits der physikalisch-technischen Möglichkeiten der heutigen Zeit werden die Ingenieure Wege finden, die Kameras zu noch mehr Bildleistungen und damit zu noch größeren Dateien zu peitschen. Dennoch sollte das TIFF das Format der Wahl zur Archivierung von originalen digitalen Bildern sein. Ob diese dann den Archivnutzern zur Verfügung gestellt werden, ist eine andere Frage, die von der Infrastruktur beider Beteiligter beantwortet wird. Ein weit handlicheres Format ist das JPEG, das für Joint Photographic Experts Group steht, also für die Gruppe, die diese Norm 1992 entwickelte. In der JPEG-Norm sind viele verschiedene Arten der Komprimierung und Kodierung von Bilddaten beschrieben. Verbreitet sind nur die verlustbehafteten Komprimierungen nach zwei verschiedenen Modi und eine Farbtiefe von 8 Bit. Durch die Art der Komprimierung nach JPEG entstehen deutlich kleinere Dateien als beim TIFF. Bei unserem Beispiel der EOS 5D-Datei ist

das entsprechende TIFF als JPEG nur noch ca. 10 MB groß bei der höchsten Qualitätsstufe, also der niedrigsten Komprimierungsrate. Je weiter diese Stufen runter bzw. rauf geregelt werden, desto kleiner wird natürlich die Datei, bis in den KB-Bereich. Dieses Verfahren der Datenverdichtung ist aber mit Abstrichen der Bildqualität erkauft. Die verschiedenen Schritte von einer nicht komprimierten Datei zu einem JPEG sind zum größten Teil verlustbehaftet, es geht also Bildinformation verloren, die auch nicht wiederherstellbar ist. Jeder kennt die so genannten Bildartefakte, klötzchenartige Bildbereich besonders an Kanten. Im Extremfall und bei sensiblen Bildbereichen, die es gerade in der Medizin- und Wissenschaftsfotografie gibt, kann die Kompression bis zur Bildverfälschung gehen. Dann hat man irgendwelche Details an Stellen, wo ursprünglich gar keine waren. Dies ist sicher das größte Manko beim JPEG im Bereich der Archivierung von medizinisch und wissenschaftlich genutztem Bilddatenmaterial, welches nur durch erstklassige Originale und die niedrigste Kompression einigermaßen in den Griff zu bekommen ist. Für die meisten Nutzungen von archivierten Bildern reicht das JPEG aber auf jeden Fall aus. Selbst bei Zeitschriften und anderen Veröffentlichen, erst recht im Internet, wird dieses Format gerne herangezogen, spart es doch enorm viel Platz und gewährleistet eine schnelle Datenübertragungen vom Archiv zum Nutzer. Wie das TIFF ist auch das JPEG universell auf allen Rechnern der Welt nutzbar, aber es sollte auch erwähnt werden, das es sich nur für „natürliche“, also BildDateien eignet. Bei Strich­grafiken, 1 Bit

Schwarzweiß-Bildern und gerasterten Drucken versagt es. Das führt uns gleich zum nächsten Datei-Standard, dem PDF. Das Portable Document Format zeigt sein Anwendungsgebiet schon im Namen. Es geht um Dokumente ganz allgemein, nicht nur um Bilder. Veröffentlicht wurde es einmal mehr von Adobe im Jahr 1993, mit der Absicht, Dokumente unabhängig vom Erstellungsprogramm öffnen zu können und zwar eins zu eins in der vom Verfasser vorgesehenen Gestaltung. Kompatibilitätsprobleme wie nicht vorhandene Schriften oder nicht darstellbare Umbrüche etc. beim Empfänger, der die Ursprungssoftware der Datei nicht hat, sollten mit dem PDF der Vergangenheit angehören. Ein als Reader bezeichnetes Programm stellt das PDF dar. In der Regel sind diese Betrachter kostenlos wie der Adobe Reader oder Bestandteil des Betriebssystems wie Vorschau beim Mac OS X und somit für jeden Computernutzer leicht zugänglich. Diese Darstellungsprogramme kommen mit sehr unterschiedlichem Funktionsumfang daher. Die einen beschränken sich auf die Darstellung, die anderen nutzen viele Features, die das PDF-Format mitbringt. Grundlegend können in einem PDF Bilder, Grafiken und Texte untergebracht werden, zusammen oder einzeln. Hier zeigt sich der erste Vorteil des PDF bei der Archivierung von wissenschaftlichen oder medizinischen Daten, bei denen die drei Inhaltsformen fertig zusammengestellt vorhanden sind. Der nächste Vorteil ist die Sicherheit. Ein PDF kann relativ zuverlässig gegen eine weitere Verarbeitung oder falschen Nutzen geschützt werden. Dabei sollten aber einige Gesichtspunkte

Stück für Stück wird die Historie digitalisiert. Je nach Bedarf werden im Universitätsklinikum Ebbendorf in Hamburg alte Fotografien eingescannt und in den Archivbestand aufgenommen. Alle Vorgaben des Archivierungskonzeptes gelten auch für sie


ARCHIVIERUNG berücksichtigt werden, da es auch sehr einfach sein kann, nachlässig gelöschte oder in den Metadaten vergessene Informationen aus einem PDF zurückzuholen. Darüber hinaus gibt es einige Open Source Programme, die Lücken in der Sicherheitsstruktur aushebeln können. Es ist ohne Weiteres möglich, PDF-Dateien auszudrucken, auch wenn der Autor das in den Sicherheitseinstellungen untersagt hat. Noch ein wirklicher Vorteil ist die Normierung des Formates. Zwar hat es über die Jahre eine ständige Entwicklung und viele verschiedene Formen des PDFs gegeben, diese sind aber jeweils immer Spezialisierungen auf einen bestimmten Anwendungsbereich. Mit unserem Schwerpunkt auf der medizinischen und wissenschaftlichen Archivierung können wir drei Versionen herausstellen. Für das Gesundheitswesen gibt es das PDF/H, in dem Daten von allen bildgebenden Verfahren, Fotografien, Formulare, Befunde, Berichte und Messdaten untergebracht sind. Technische Dokumente aus den Ingenieurswissenschaften können im PDF/E Format abgespeichert werden. Interessant für die Langzeitarchivierung ist PDF/A. In dieser Version wird vorgeschrieben, dass zum Beispiel alle Schriften eingebettet werden, alle Bilder enthalten sein müssen und das Format in den Metadaten als PDF/A-1 gekennzeichnet sein muss. Weiter sind Audio- und Videodaten genauso wenig erlaubt wie eine Verschlüsselung oder die Verwendung von dynamischen Inhalten. Digitale Signaturen werden ausdrücklich unterstützt. Ganz wichtig ist auch die Vorgabe, dass die Metadaten, die wir später noch besprechen wollen, im XMP-Format vorliegen müssen. Für eine Überprüfung, ob alle Vorgaben bei der Erstellung einer solchen Datei eingehalten werden, gibt es spezielle Programme, die zum Beispiel vom PDF/A Competence Center vorgestellt werden. All dieser Aufwand dient einer Lesbarkeit der Daten über einen sehr langen Zeitraum, was essentiell wichtig für Archive ist. Das PDF/A wird weiterentwickelt und neue, qualitativ hochwertigere Technologien werden einfließen. So nutzt zum Beispiel die neueste PDF-Version intern schon das JPEG 2000 Format, welches gerade bei hohen Kompressionsraten eine bessere

9


Bildqualität zeigt und eine höhere Datensicherheit zur Verfügung stellen kann. In Zukunft wird dieses Format sicher auch Einzug in das PDF/A finden. Kommen wir noch einmal zurück zu den Bildformaten. Viele Archivierungsprofis sähen aufgrund der Qualitätsbzw. Dateigrößenprobleme von JPEG und TIFF gerne auch ein universelles RAW-Format auf dieser Liste. Die Firma Adobe versucht seit dem Jahr 2004 das DNG, das digitale Negativ, als solches zu etablieren. Alle Spezifikationen des Formates sind offen zugänglich und es werden alle nötigen Informationen zur Nutzung von Adobe zur Verfügung gestellt. Das DNG soll durch diese Offenheit für längere Archivierungen bezüglich der zukünftigen Kompatibilitäten sicherer sein. Viele Programme können DNG lesen, wenige es auch wieder schreiben. Bei den Kameraherstellern hat es sich bisher nicht durchgesetzt. Nur wenige bieten es in ihren Geräten an. Eine Ausnahme ist Leica. Die neue digitale Highend-Spiegelreflexkamera S2 setzt ganz auf das DNG-Format. In der Fotografenszene wird DNG kontrovers besprochen. Viele sehen es als einzigen Verfechter freier Nutzung von RAW-Formaten, weg von den herstellerspezifischen Vorgaben. Andere befürchten eine Qualitätsverlust, da das DNG einen Kompromiss darstellen könnte, weil es für jede Art von Bildsensor zuständig sein soll. Dennoch wäre für eine weitere Standardisierung von Bilddaten bei hoher Qualität ein einheitliches Format mit den Vorteilen des RAWs wünschenswert, aber wohl noch in weiter Ferne. Pfadfinder in der Datenflut Jetzt haben wir also geklärt, was wie auf welcher Hardware gespeichert wird. Nun gilt es, die immense Datenflut nutzbar zu machen, also sicherzustellen, dass interessierte Nutzer den Bestand schnell, einfach und zuverlässig durchsuchen können. Darüber hinaus darf keine einzige Datei in der schier unübersehbaren und komplexen Menge untergehen oder vergessen werden. Wir kommen also zum Thema Verschlagwortung, auch dies ist ein altbekanntes. Schon in der guten alten analogen Zeit mussten zum Beispiel in Bibliotheken Kataloge mit Schlagworten der vorhandenen

Werke angelegt werden, um vernünftig recherchieren zu können, denn die wenigsten Menschen wollten ganze Berge von Büchern durchlesen, um an die eine benötigte Information zu gelangen. Die Digitalisierung hat auch hier so einiges geändert. Es ist heute überhaupt kein Problem mehr, zusätzliche beschreibende, technische, administrative oder strukturelle Daten den Dateien anzuhängen oder sogar in sie einzuschreiben. Alle oben vorgestellten Formate unterstützen diese Art der Verschlagwortung. Wir sprachen zu diesem Thema mit Dietmar Wüller von der Firma Image Engineering, die in Frechen bei Köln angesiedelt ist. Dietmar Wüller ist Photoingenieur und befasst sich seit 1997 mit dem Testen von digitalen Aufnahmesystemen und stellt mittlerweile auch selbst Testapparaturen her. Im Zuge dieser Aufgaben traf er natürlich immer wieder auf das Thema Archivierung und Digitalisierung von wissenschaftlichen Daten und erhielt dann den Auftrag, dies mit sämtlichen Handschriften der Domund Diözesanbibliothek von Köln durchzuführen, immerhin mehrere 10.000 Werke. Dietmar Wüller ist außerdem Mitglied im ISO- und DINAusschuss für digitale Bildaufzeichnung. Er ist genau der richtige Mann, die enorme Wichtigkeit von exakter Verschlagwortung durch die Nutzung von Metadaten aufzuzeigen. Es gilt also, Bilder und Dokumente so mit Informationen zu versehen, dass sie gefunden werden, auch in der Zukunft. Zwei Metadatenformate gibt es grundsätzlich, die alles Wichtige

rund um die zu archivierende Datei aufnehmen. Für den technischen Aspekt ist das EXIF, was für Exchangeable Image File Format steht und von der Japan Electronic and Information Technology Industries Association entwickelt wurde. Die EXIF-Informationen werden in JPEGs und TIFFs, aber natürlich auch in den für die Archivierung nicht relevanten RAWs, im so genannten Header, noch vor der eigentlichen Bildinformation abgespeichert. Digitale Kameras versehen schon bei der Aufnahme die Dateien mit diesen Angaben zum Beispiel zum Kameramodell, Aufnahmedatum und -ort, Blende, Verschlusszeit etc. Die Verbreitung von GPS-Geräten verschafft auch diesen Informationen im Bild immer mehr Bedeutung und erspart viel manuelle Arbeit. Jede Darstellungs- oder Bearbeitungssoftware kann diese Daten auslesen und in Archiven kann sie natürlich zur Recherche herangezogen werden. Meistens reichen aber die rein technischen Angaben zu Dokumenten nicht aus, da in der Regel eher nach Inhalten gesucht wird. Hier kommt das zweite Metadatenformat ins Spiel. IPTC ist wieder ein Abkürzung und bedeutet in Langform International Press Telecommunications Council. Das IPTC-Format beschreibt einerseits eine Liste von Datenfeldern und andererseits die Art und Weise, wie diese in die Dateien, die alle Arten von Medien sein können, eingeschrieben werden. Diese Metadaten haben einen eher beschreibenden Charakter und sind besonders interessant für die Verschlagwortung von Archivmaterial. Angaben über den Autor, eine

Überblick. Das Universitätsklinikum Eppendorf, Hamburg, ist nicht einfach ein Krankenhaus, sondern eine kleine Stadt aus Kliniken und Versorgungsgebäuden. Da fallen Unmengen von Daten – nicht nur Fotos – jeden Tag an, die, auch um gesetzlichen Vorschriften zu gehorchen, archiviert werden müssen


ARCHIVIERUNG

Digitales Gedächtnis. Eine Seite aus einem Psalmenkommentar, entstanden um das Jahr 800 in Chelles. Diese historische Handschrift aus der Kölner Dombibliothek wurde zur Archivierung digitalisiert und mit einer Farbtafel für eine spätere Beurteilung der Originalfarben aufgenommen. Quelle: Codices Electronici Ecclesiae Coloniensis, CEEC. Erzbischöfliche Diözesan- und Dombibliothek zu Köln.

Linkliste Medizin- und Wissenschaftsfotografie

www.uke.de Homepage des Universitätsklinikums Eppendorf in Hamburg mit umfassenden Informationen www.d-nb.de Homepage der Deutschen Nationalbibliothek, die erste Anlaufstelle für den Beginn einer Recherche www.image-engineering.de Homepage der Firma Image Engineering in Frechen bei Köln. Hier findet man alles zur Standardisierung von digitalem Imaging www.ceec.uni-koeln.de Startseite der elektronischen Bibliothek der Erzbischöflichen Diözesan- und Dombibliothek zu Köln an der Universität Köln. Hier kann man virtuell in zehntausenden Seiten uralter Handschriften stöbern diglit.ub.uni-heidelberg.de/diglit Elektronische Medien der Universität Heidelberg. Einige wunderschöne, prächtig ausgeschmückte Handschriften sind hier anzuschauen www.pdfa.org Homepage des PDF/A Competence Centers. Hier findet man alles zu den Spezifikationen des Archivformats sowie weiterführende Informationen und Diskussionsforen partners.adobe.com/public/developer/tiff/index.html Spezifikationen des TIFF Formates von Adobe www.jpeg.org Offizielle Homepage des JPEG Komitees. Alles zu JPEG, JPEG 2000 und verwandten Themen www.uni-muenster.de/Forum-Bestandserhaltung/downloads/iraci.pdf Artikel der Universität Münster zur Haltbarkeit von CD/DVD Speichermedien, englisch www.langzeitarchivierung.de Homepage des Kompetenznetzwerkes Nestor zur digitalen Langzeitarchivierung

11


Dietmar Wüller, CEO von Image Engineering in Frechen bei Köln

Beschreibung des Inhaltes, Schlagworte und, ganz besonders wichtig, Angaben über Urheber- und Veröffentlichungsrechte werden in speziellen IPTC-Feldern hinterlegt. Leider ist IPTC zwar so etwas wie ein Standard, aber es gab in der Vergangenheit einen Formatwechsel innerhalb dieser Technologie. Zu Beginn wurden die Informationen in so genannten TIFF Tags, Anhängen am TIFF, gespeichert. Im Laufe der digitalen Entwicklung kam die Überlegung auf, XML-Daten für die Speicherung der Metadaten unter IPTC zuzulassen. XML ist eine spezielle Auszeichnungssprache für die textliche Darstellung strukturierte Daten, besonders für den Austausch dieser Daten über Systemgrenzen hinweg. Durchgesetzt haben sich XML-Daten im Internet. Nach der Einführung dieser Methode gab es nun zwei Wege innerhalb des IPTC, Metadaten zu übergeben. Noch immer gibt es Programme, die mit jeweils einer Form ihre Probleme hat, wenige verstehen sich auf beide. Heutzutage wird eindeutig die XMLForm empfohlen, da sie unter anderem die modernere ist. Photoshop und andere Programme von Adobe setzen übrigens auf XMP, was eine Abart von XML ist und besondere Daten zum Beispiel zum DNG enthält. Trotzdem kann nicht wirklich von einem einheitlichen Standard gesprochen werden, da die Nutzung der IPTC-Felder stark von dem Bereich abhängt, in dem die verschlagworteten Daten genutzt werden. So sehen die Einträge von wissenschaftlichen Bibliotheken anders aus als die von wissenschaftlichen Labors oder historischen Archiven. Es werden immer nur die verwendet, die

für diese spezielle Welt benötigt werden. Dietmar Wüller bewertet den derzeitigen Stand der Standardisierung als sehr zufriedenstellend. Die Metadatenformate benötigen keine umwälzenden Neuerungen. Allerdings, schränkt er ein, gibt es da noch den Dublin Core der Dublin Core Metadata Initiative, DCMI. Der Name leitet sich von Dublin in Ohio, USA, nicht Irland ab. Dieser hauptsächlich in der Wissenschaft verwendete Standard besitzt nach seiner Aussage noch erhebliches Potenzial für die Zukunft. Wie schon bei der Hardware und den Bild- bzw. Dateiformaten, gilt auch hier die Devise, langzeitsichere Technologien zu entwickeln oder zu pflegen, damit nicht irgendwann Archive große Mengen historisch und wissenschaftlich relevantes Material auf sicheren Medien und in lesbaren Formaten vorhalten, die aber nicht mehr durchsucht werden können. Ein praktisches Beispiel: Die Deutsche Nationalbibliothek Theoretische Grundlagen sind natürlich eine wichtige und für manchen auch schöne Sache. Anschaulicher wird die Komplexität des Themas aber erst anhand eines praktischen Beispiels. „Die Deutsche Nationalbibliothek ist die zentrale Archivbibliothek und das nationalbibliografische Zentrum der Bundesrepublik Deutschland. Sie hat die für Deutschland einzigartige Aufgabe, lückenlos alle deutschen und deutschsprachigen Publikationen ab 1913, im Ausland erscheinende Germanica, also dort herausgegebene Werke über Deutschland, und Übersetzungen deutschsprachiger Werke sowie die zwischen 1933 und 1945 erschienenen Werke deutschsprachiger Emigranten zu sammeln, dauerhaft zu archivieren, umfassend zu dokumentieren und bibliografisch zu verzeichnen sowie der Öffentlichkeit zur Verfügung zu stellen“, formuliert Reinhard Altenhöner zusammenfassend, wofür die Deutsche Nationalbibliothek, kurz DNB, steht. Reinhard Altenhöner ist in Frankfurt für die Informationstechnik zuständig und unser Ansprechpartner bei der DNB. Er kann auch berichten, dass sich seine Einrichtung stark in der Regelwerks- und Normierungsarbeit engagiert und sich maßgeblich an der Entwicklung internationaler Standards

beteiligt. Speziell Bildmaterial als solches fällt nicht unbedingt unter das Sammelgebot der DNB, kann aber als Bestandteil von Publikationen oder sogar eigenständig Teil der Archivierung werden. In der nicht-digitalen Zeit war es für die Nationalbibliothek noch relativ einfach: Alle wichtigen Daten zu einem Archivierungsobjekt, also einem Buch oder einer wissenschaftlichen Abhandlung, waren in ihm selbst enthalten und es blieb oftmals in dem entsprechenden Institut und wurde nicht publiziert. Die Zeiten haben sich geändert. Die gute wissenschaftliche Praxis der heutigen Zeit gebietet ein Zugänglichmachen der Daten und das digitale Zeitalter gibt die Möglichkeit dazu. Im Angesicht der Anhäufung von Informationen sieht Reinhard Altenhöner das Gebot zu einer kooperativen Arbeit zur Archivierung im Gegensatz zu einer zentralistischen Lösung. Viele Archive arbeiten schon jetzt mit den Erzeugern der ankommenden Daten eng zusammen. Technisch setzt die DNB auf ein HSMSystem. Das hierarchische Speichermanagement geht einige Schritte weiter als ein reines RAID. Es beschreibt ein ganzes Speicherkonzept, bei dem die so genannte bit-stream-Erhaltung oberstes Gebot ist. Damit soll eine Integrität der Daten gegen Hard- und Software Fehler gesichert werden. Durch vielfaches Um- und Rückkopieren werden die Daten „frisch“ gehalten. Zusätzlich wird kontinuierlich überprüft, ob sich keine Fehler einschleichen, die die Daten verfälschen, und ob eine Datei in einem Format vorliegt, dass noch gelesen werden kann. Falls nicht, muss in ein neueres Format konvertiert werden. Hier gilt es auf jeden Fall zu prüfen, ob bei diesem Vorgang die Gefahr besteht, die Informationen zu verfälschen oder gar ganz zu zerstören. Die DNB speichert ihre Werke auf verschiedenen Medien. Das sind normale Festplatten, natürlich in Verbünden, opto-elektronische Medien, Magnetbänder und auch Mikrofilm. Die Hierarchie der Systems schreibt vor, dass häufig genutztes und weniger häufig genutztes Material getrennt voneinander aufbewahrt wird. Dabei sinkt mit abnehmender Nutzungshäufigkeit


ARCHIVIERUNG Fürsorge und Pflege der Daten von der Sicherung bis zur Bereitstellung.

Reinhard Altenhöner, zuständig für die Informationstechnik in der Deutschen Nationalbibliothek in Frankfurt

auch die nötige Zugriffsgeschwindigkeit, die wiederum das Medium bestimmen kann. Generell liegen die oft angefragten Daten auf schnellen Festplattensystemen. In Bezug auf die Standardisierung von zu archivierenden Daten sieht Reinhard Altenhöner eine enorme Entwicklung in der letzten Zeit. Schon auf der Ebene der Hersteller von Datensystemen und -formaten gibt es ein Bewusstsein für den Bedarf von Standards und auch bei den Archiven, meistens behördliche oder universitäre Einrichtungen, wächst die Einsicht, dass digitale Daten entgegen dem Anschein der „Jederzeit-Verfügbarkeit“ sehr empfindlich sind. Eine ständige Absicherung der ständigen und dauerhaften Nutzung bedarf einer permanenten

Trotz dieser Bewusstseinsänderung auf beiden Seiten und vieler avancierter Ansätze sieht Reinhard Altenhöner zurzeit kein Gesamtsystem, welches die Auswahl, die Aufbereitung, die Archivierung und die Bereitstellung umfasst und für die Zukunft sichert. Für ihn wird es verschiedene Systeme geben, die sich ergänzen. Mit Blick auf die überwältigende Menge des vorhandenen und kontinuierlich dazukommenden Materials kann es für ihn auf Sicht nur heißen, dass dauerhaft nur Teile davon erhalten werden können. Schon heute sind die zur Verfügung stehenden Ressourcen, nicht nur die finanziellen, oft beschränkt und es muss mit Datenverlusten gelebt werden. Aber auch eine Erhöhung der Budgets wäre nicht ausreichend, da es eine physikalische Grenze des Machbaren geben wird. „ Insofern bedarf es nicht nur einer technischen Weiterentwicklung hin zu einer stärkeren Integration in existierende Systemumgebungen und der modulareren Aufteilung einzelner Komponenten, sondern wir benötigen auch explizit Organisations- und Koordinationsmodelle, die helfen, Aufwendungen zu verteilen, Forschungsansätze in Kollaborationen einzubringen und insgesamt das gesellschaftliche Verantwortungsbewusstsein für die

Thematik zu intensivieren. Im Sinne eines pragmatischen Umgangs wird man dafür sorgen müssen, dass die Produzenten von Daten schon bei der Entstehung von Objekten auf der Einhaltung von verschiedenen Grundregeln bestehen“, beschreibt Reinhard Altenhöner seinen Lösungsansatz für das Problem. Fazit Archivierung von Daten aller Art ist eine Herkulesaufgabe, früher und heute besonders. Im Großen wie im Kleinen sind für integre und zukunftssichere Daten einige Anstrengungen sowohl der Datenproduzenten, hier im speziellen die Mediziner und Wissenschaftler, als auch der Archivierungsverantwortlichen nötig. Angefangen bei der Wahl des Formates über den sinnvollen Einsatz von Metadaten bis zur Wahl der Speicherhardware. Von den Großen, den Archiven und Bibliotheken, kann der Kleine, die Klinik, das Forschungslabor, aber auch der Fotograf, so einiges in Bezug auf Datensicherung lernen. Er muss es nur auf seine Bedürfnisse anpassen, ein Konzept entwickeln, dieses konsequent verfolgen und braucht dann keine schlaflosen Nächte wegen seiner digitalen Schätze mehr zu haben. Michael Marczok

13


Stabile Ausdrucke für farbechte Kontrolle Sowohl in der gestalterischen als auch der medizinischen und wissenschaftlichen Fotografie geht es nicht nur um eine sichere Datenlage, sondern auch um eine visuelle Kontrolle und Abmusterung von Bildern. Canon stellt mit dem neuen PIXMA Pro 9500 Mark II ein Werkzeug zur Verfügung, dass alle Anforderungen beider Klientel erfüllen kann.

Eine immer wiederkehrende Aufgabe in der medizinischen Fotografie ist die Dokumentation von Behandlungen aller Art. Diese Aufzeichnung aller Daten, die im Zuge solch einer Behandlung anfallen, ist sogar oberstes Gebot, nicht nur für eine Nachvollziehbarkeit, sondern auch für eine Qualitätskontrolle und schließlich auch für eine Absicherung der Ärzte und Kliniken bei potenziell zur Geltung kommenden Versicherungsansprüchen. Bildgebende Verfahren wie Röntgen oder Computertomografie sind die eine Seite der Visualisierung von Untersuchungen, Fotografien die andere. Fotos repräsentieren die Beschau durch den Arzt und sind in vielen Fällen der einzige Nachweis über Behandlungserfolge oder -misserfolge. Was aber tun, wenn es nicht nur auf die reinen Bilddetails, sondern auch auf solch subjektiven Faktoren wie Farbe ankommt? Das Bild in der Hand kann besser als der Monitor auf dem Tisch sein Ein gedrucktes Bild kann theoretisch aller Erfordernisse für die medizinische oder wissenschaftliche Arbeit erfüllen, wenn es vernünftig ausgegeben wird. Canon hat mit dem PIXMA

Pro 9500 Mark II einen A3+ Drucker vorgestellt, der nicht nur für den anspruchsvollen Profifotografen ein hervorragendes Werkzeug darstellt, sondern der auch in der Welt der Wissenschaft und Medizin mehr als nur bestehen kann. Wie beschrieben, druckt der Neue bis A3+, also bis zu einer maximalen Breite von 35,5 cm und unterstützt jedes denkbare Format runter bis 10 x 15 cm. Gerade in Bereichen jenseits der fotografischen Standardgrößen sicher eine hilfreiche Funktion, ebenso wie die Nutzung von Druckmedien von Drittherstellern wie Hahnemühle, Crane, Somerset, Moab, Innova, Arches, Canson und Pictorico. Der Drucker ist übrigens mit einem flachen Papierweg so konstruiert, dass Medien bis zu einer Dicke von 1,2 mm bedruckt werden können. Da wird sicher auf für den exotischsten Geschmack oder die anspruchsvollste Anwendung etwas dabei sein. In der Einführung sprachen wir von Qualitätskontrolle und nachvollziehbaren Ergebnissen. Mit dem PIXMA Pro 9500 Mark II kann beides erreicht werden. Eine spezielle Software, das Colour Management Tool Pro 2, von Canon online zur Verfügung gestellt, und ausgewählte Farbkalibrierungssysteme von X-Rite für die Erstellung

Einzeltinten für Qualität und Wirtschaftlichkeit. So sieht ein 10-teiliger Satz LUCIA Drucktinten für den PIXMA Pro 9500 Mark II aus

von ICC-Profilen für unterschiedlichste Papier- und Trägermaterialien, professionalisieren den Farbworkflow. Die erstellten Profile können sogar direkt im Drucker, also unabhängig vom Eingabegerät gespeichert werden. Einmal eingerichtet, ist so eine Farbtreue jederzeit gewährleistet. Zudem wird jedes Gerät im Werk einzeln kalibriert und viele Profile von Spezialmedien werden direkt unterstützt. Womit wir auch schon bei der Langzeit-Tauglichkeit der Ausdrucke des PIXMA Pro 9500 Mark II wären, dem nächsten Kriterium für jeden Anwender – für Mediziner und Wissenschaftler besonders. Bilder fast für die Ewigkeit Ewig muss ein Bild etwa in Patientenakten nicht halten, aber nach gesetzlichen Vorschriften mindestens 10 Jahre. So lange werden die Daten zu Behandlungen, Untersuchungen etc. aufgehoben. Canon hat seinem neuen Drucker die besonders farbstabilen Lucia Pigmenttinten verschrieben und gibt bei entsprechender Lagerung eine Farbechtheit über 100 Jahre an. Das müsste nicht nur für Mediziner und Wissenschaftler, sondern auch für Fotografen reichen, die ihre Bilder in Galerien und Museen ausstellen.


CANON Die Tinten sind in zehn Farben aufgeteilt. Für eine hohe Farbpräzision kommt zum üblichen Satz noch Rot und Grün dazu. Eine Neutralität in Schwarzweißausdrucken gewährleistet eine spezielle Grautinte. Die Lucia Tinten besitzen zudem überragende Metamerie-Eigenschaften, was bedeutet, dass sie auch unter verschiedensten Lichtquellen gleiche Farbeindrücke haben. So können neutrale Schwarzweiß-Bereiche mit sanften Farbabstufungen in einem Ausdruck harmonisch und farbrichtig kombiniert werden. Das Sahnehäubchen sind aber sicher die beiden schwarzen Tinten: Matt-Schwarz und Foto-Schwarz. Je nach gewähltem Papier wird automatisch das Schwarz gewählt, welches keinen Bronzing-Effekt oder andere Glanzabweichungen besonders in dunklen Bildbereich hervorruft. Beide Tinten sind immer parallel im Drucker, müssen also nicht manuell vor unterschiedlichen Drucken gewechselt werden. Apropos Einzeltinten: Zwar ist die Aufteilung des gesamten Farbangebotes von Fotodruckern in separate Tinten gängiger Standard, dennoch sollte darauf hingewiesen werden, dass dies nicht nur dem Farbumfang und -neutralität dient, sondern auch ein wirtschaftlicher Aspekt ist. Verschiedene fotografische Sujets greifen unterschiedlich stark auf die verschiedenen Farben zu. So werden in einem Portraitstudio die Farben Rot, Gelb und Magenta schneller verbraucht. Ein Fotograf, der künstlerische Schwarzweißbilder erstellt, tauscht natürlich die Grau- und Schwarztinten häufiger. Das Schöne ist, sie können die Tinten ganz nach Bedarf wechseln und bevorraten. Das schont die Kasse und spart Platz im Lager.

im hohen Bereich angesiedelt. Auflösung ist aber nicht der einzige Parameter für die Darstellung feinster Details. Beim PIXMA Pro 9500 Mark II kommt erst einmal noch die Konstruktion des Druckkopfes hinzu. Canon nennt ihn FINE-Druckkopf und produziert ihn in einem fotolithografischen Prozess. Schließlich und endlich unterstützt der Drucker eine Farbtiefe von 16 Bit pro Farbkanal. Mehr Farbtiefe bedeutet mehr mögliche Farben, zum Beispiel in Verläufen und sanften Übergängen. Abstufungen werden einfach weicher und natürlicher wiedergegeben. Auch kann jetzt die volle, von der Kamera gelieferte Farbtiefe für den Druck ausgenutzt werden. Ein komplettes Paket für einen professionellen Workflow Canon hat seinen neuen PIXMA Pro 9500 Mark II nicht nur mit herausragenden technischen Finessen ausgestattet, sondern liefert auch gleich ein umfangreiches Softwarepaket für einen professionellen Druckworkflow mit. Enthalten sind Easy-PhotoPrint EX, CD-LabelPrint und Easy-PhotoPrint Pro. Letzteres ist ein Plug-In für Adobe Photoshop und die Canon-eigene RAW Software Digital Photo Professional, DPP. Mit ihm können gleich mehrere Bilder in einer Stapelverarbeitung aus den genannten Programmen heraus ausgegeben werden. Alle Nutzer von Canon Kameras kommen über die Software DPP in den Genuss, ihre RAW-Bilder direkt ohne Umweg an den Drucker geben zu können. Aber auch Fotografen ohne Canon Equipment werden nicht ausgeschlossen. Canon hat dem Drucker noch die Bildbearbeitungssoftware Adobe

Photoshop Elements beigelegt. Mit ihr können, natürlich neben allen anderen Bearbeitungsfunktionen, alle RAWFormate konvertiert und dann gedruckt werden. Alle oben erwähnten Programme arbeiten sowohl unter Windows als auch Apple Betriebssystemen. Wer aber Windows Vista einsetzt, kann noch einen oben draufsetzen. Ganz neu wird im PIXMA Pro 9500 Mark II die Funktion Ambient Light Correction eingesetzt. Diese basiert auf der Kyuanos-Technologie, die von Canon entwickelt wurde und die ideal für Drucke ist, die in der Öffentlichkeit präsentiert werden. Die Lichtbedingungen des Ausstellungsortes, unter denen die Bilder später zu sehen sein werden, können in der Software angegeben werden. Das Programm bestimmt dann ganz genau den Farbauftrag, der für dieses Ambiente die optimale Bildwirkung realisiert. Zum Schluss noch: Der PIXMA Pro 9500 Mark II ist auch von seiner Bauweise her ein professionelles Gerät. Ein Stahlchassis schützt die empfindlicheren Teile und der Drucker kann zum Beispiel in einem wissenschaftlichen oder medizinischen Umfeld durch äußerste Robustheit überzeugen. Fazit Der PIXMA Pro 9500 Mark II ist ein Universalgenie für den gesamten professionellen fotografischen Bereich. Die Ausdrucke bis maximal A3+ werden Fotografen aus der gestalterischen wie auch aus der medizinischen und wissenschaftlichen Welt überzeugen. www.canon.de

Feinste Details im Druck Schauen wir wieder etwas genauer auf die Medizin- und Wissenschaftsfotografie. Ganz klar, dass hier häufig sehr genau gearbeitet werden muss, um selbst kleinste Details zu dokumentieren. Schön, wenn diese Details dann auch auf den Ausdrucken für Vergleichszwecke wiederzufinden sind. Der Canon PIXMA Pro 9500 Mark II kann diese kleinsten Kleinigkeiten darstellen. Die Auflösung des Druckers beträgt 4800 x 2400 dpi und ist damit Groß, stark, schwarz. Der Canon PIXMA Pro 9500 Mark II druckt nicht nur hervorragend, er macht auch etwas her und muss nicht im Kämmerlein versteckt werden

15


Sicheres Archivieren im Netzwerk Festplattenpreise fallen, Netzwerke bestehen in nahezu jedem Privathaushalt und Internetbrowser finden sich auf sämtlichen Computern. Das sind ideale Bedingungen für den Einsatz von NAS Systemen. Was das ist, warum sie zum Beispiel für Arztpraxen und kleinere Labors nützlich sind und was LG Electronics in diesem Bereich anbietet, will der folgende Beitrag zeigen. wertigen Monitoren führt das Unternehmen auch viele Datenspeicherlösungen in ihrem Portfolio. Wir wollen hier im Zusammenhang der NAS Thematik ein System mit dem wenig beschreibenden Namen N4B2 anschauen und anhand dessen NAS näher beleuchten.

NAS heißt ausgeschrieben Network Attached Storrage, also ein an einem Netzwerk angeschlossenes Datenspeichersystem. Das können alle möglichen Speichermedien sein, durchgesetzt haben sich für den normalen Gebrauch aber hauptsächlich Festplatten, einzeln oder zu einem Array zusammengefasst. Im Sprachgebrauch hat sich der Begriff RAID System durchgesetzt, wobei RAID, Redundant Array of Independent Disks, eigentlich die Organisationsform und den Redundanzgrad der gespeicherten Daten auf so einem Festplattenverbund beschreibt. Durch immer weiter sinkende Preise und steigende Kapazitäten von Festplatten werden diese Systeme für immer mehr Nutzer bezahlbar und damit interessant. LG Electronics und NAS Die Firma LG Electronics ist vielen durch ihre Unterhaltungselektronik bekannt. Aber auch in der Computerwelt hat der Name LG einen guten Klang. Neben zum Beispiel hoch-

Technisch betrachtet, arbeitet ein NAS ähnlich einem Server im Netz. Auf beiden stehen Daten für den Zugriff verschiedener User bereit. Während auf Servern aber auch ausführbare Programme liegen können, wird ein NAS zur reinen Datensicherung oder zum Datenaustausch genutzt. Abgrenzend zu einer einfach angeschlossenen Festplatte, stehen auf Netzwerksystemen Nutzer-, Gruppen- und Datenverwaltungstools bereit. Damit lassen sich etwa Speicherstrukturen und Zugriffsrechte verwalten. Diese Administration erfolgt von außen, im Falle des N4B2 von LG über eine einfach zu bedienende Oberfläche und einen Internetbrowser oder wahlweise über eine mitgelieferte Konfigurationssoftware. Die Variante über Firefox & Co. ist natürlich sehr elegant, kann man mit ihr doch einfach auf alle Funktionen zugreifen, ohne die Software installiert zu haben. Auch entfällt eine Einarbeitung, da die Bedienung intuitiv ist und jeder, der schon einmal im Internet gesurft ist, einen Browser bedienen kann. Hier haben wir einen ersten großen Vorteil des N4B2. Außerdem sind Browser Betriebssystem-unabhängig. Es ist also egal, welcher Art der angeschlossene Rechner ist, Windows, Apple oder Linux, man kann das N4B2 auf jeden Fall steuern und Ordnerhierarchien, Speicherkontingente und die gleichzeitige Arbeit an Dateien einrichten. Im Netzwerk wird der Speicher über TCP/IP angespro-

chen, ihm muss nur eine eindeutige IP Adresse zugeordnet werden. Für den Betrieb des N4B2 ist also keine zusätzliche Hard- oder Software nötig, alles ist in der Regel in einer Arbeitsumgebung vorhanden. RAID und Datensicherheit im N4B2 Das NAS N4B2 von LG hat vier Plätze für Festplatten und kommt mit jeweils einer 1 TB Platte darin in der Grundausstattung daher. Vier Platten ist die Mindestzahl für eine Nutzung verschiedener so genannter RAID Level. Diese Level, durchnummeriert von 1 aufwärts, beschreiben die Art und Weise, wie Daten auf den einzelnen Speichermedien organisiert werden. Dazu gehört die Verteilung der Daten und Grad und Art der Redundanz, also wieviele der Daten mehrfach vorliegen. Je nach RAID Level liegt die Redundanz zwischen 0 % und 100 %. Das RAID Level 0 sieht keine Redundanz vor, sondern eine derartige Verteilung der Daten auf den Festplatten, dass eine erhöhte Performance bei der Datenübertragung erreicht wird. Dieser Geschwindigkeitszuwachs wird durch eine geringe Datensicherheit erkauft. Wie bei einer einzelnen Festplatte sind alle Informationen verloren, wenn eine Platte im Verbund ausfällt. Das RAID 0 wird bei hochperformanten Anwendungen wie zum Beispiel beim Videoschnitt eingesetzt, wenn die Daten sowieso nur temporär auf dem System verbleiben. Das genaue Gegenteil dazu ist das RAID Level 1. Hier gibt es den Datenbestand einer Festplatte genau gleich auch auf einer zweiten, man nennt diese Art der Speicherung auch Spiegelung. Fällt hier eine Platte aus, sind noch alle Daten auf der Spiegelplatte vorhanden. Das RAID 1 bietet eine hohe Sicherheit bei normaler Transfergeschwindigkeit. Kleiner Nachteil: Es steht nur 50 % der Gesamtkapazität für Speicherzwecke zur Verfügung. Im Falle des N4B2 wären das 2 TB von 4

Formschön und sicher. Die Netzwerk Backup- und Archivierungslösung N4B2 von LG Electronics besticht durch technische Raffinesse und optische Qualität. Und ist so leise, dass man es nicht einmal verstecken muss


LG ELECTRONICS TB. Für sensible Daten wie medizinische oder wissenschaftliche Dokumente kann es aber gar nicht sicher genug sein. Und die beschriebenen niedrigen Kosten für hochkapazitive Festplatten gleichen diesen kleinen Nachteil für diese Nutzergruppe mehr als aus. Eine Kombination aus Geschwindigkeit und Sicherheit bietet das RAID Level 5. Die Datenverteilung ist ähnlich der beim Level 0. Es werden aber zusätzliche Informationen zur Parität der Daten abgespeichert. Fällt beim RAID 5 eine Platte aus, können die Daten mit Hilfe der Paritätsinformationen rekonstruiert werden. Das RAID Level 5 ist aus diesem Grund das beliebteste, da sich mit geringen Kosten ein schneller und sicherer Speicher betreiben lässt. Das N4B2 von LG beherrscht natürlich alle drei Level und darüber hinaus noch eine Kombination aus den Levels 1+0 sowie ein Verfahren, dass sich JBOD nennt. Mit JBOD, Just a Bunch Of Disks, können die Festplatten einem angeschlossenen Computer unter anderem als Einzelplatten zur Verfügung gestellt werden. Es handelt sich bei JBOD nicht mehr um ein RAID System. Das Besondere am N4B2 Ein NAS ist also ein wahres SpeicherMultitalent. Die Installation in einem Netzwerk, auch einem heterogenen mit verschiedensten Betriebssystemen, erfolgt einfach durch die Vergabe einer IP Adresse. Ein NAS ist sehr ausfallsicher und besticht zudem durch RAID Funktionalität, was die Datensicherheit weiter erhöht. Wartung und Konfiguration erfolgt über einen – wieder Betriebs­system-unabhängigen – Browser­zugang. Viele Backup Programme verstehen sich auf Anhieb mit NAS Systemen.

Blu-ray Brenners im N4B2 birgt noch einen enormen Vorteil. Durch automatisiertes Sichern von Datenbeständen kann die Lesbarkeit über einen Zeitraum von mehr als 50 Jahren gewährleistet werden. Das maximale Volumen pro Medium beträgt 50 GB. Weiter ist ein Speicherkartenleser im N4B2 verbaut. Vier verschiedene Formate, SD, MMC, MS, xD, werden erkannt und über die AutoSync Funktion werden die Daten automatisch abgeglichen, vollständig und inkrementell. Und es geht noch weiter mit der Kompatibilität des N42B mit anderen Speichersystemen. Das Gerät hat ein USB und ein e-SATA Interface einerseits für Sticks, andererseits für größere externe Festplatten. So kann mal eben schnell die kleine Datei dem Archiv hinzugefügt und umfangreichere Bestände ebenso schnell ausgelagert werden. Über die USB Schnittstelle kann nebenbei auch ein Drucker im Netzwerk zur Verfügung gestellt werden. LG hat das N4B2 mit noch viel mehr Features ausgestattet, die wir hier nur in Kurzform anführen können. Zum Funktionsumfang gehören weiter eine ausgefeilte System-Überwachung inklusive Email-Benachrichtigung, wenn mal etwas nicht so läuft, wie es soll. Das Gerät kann auch als Multimedia-Server fungieren und eine Synchronisation über mehrere NAS Systeme ist möglich. Wie es sich für ein professionelles NAS mit RAID Unterstützung gehört, sind die Festplatten im N4B2 hot swappable, können also im laufenden Betrieb gewechselt werden. Die Datensynchronisation und

-wiederherstellung läuft anschließend automatisch und problemlos. Im Netzwerk arbeitet das Gerät mit einer maximalen Geschwindigkeit von 1000 Mbit und ist nach unten für geringere Transferraten kompatibel. Das N4B2 in Medizin und Wissenschaft Das NAS von LG ist ideal für den Einsatz in kleineren Kliniken, Zahnarztpraxen oder Laboreinrichtungen. Das Preis-Leistungs-Verhältnis ist nahezu unschlagbar. Gerade in der Medizin, wo es unter anderem aus gesetzlichen und versicherungsrechtlichen Gründen auf erweiterte Datensicherheit ankommt, kann das N4B2 deutlich punkten. RAID Unterstützung, Langzeitsicherung auf Blu-ray Medien, Datensicherungs- und Archivierungssoftware und System Monitoring sind die entsprechenden Features. Die Vielzahl von Schnittstellen, das integrierte Kartenlesegerät sowie die Konfiguration und Steuerung mit einem üblichen Internetbrowser lassen das N4B2 in gemischten Netzwerken, wie sie in wissenschaftlichen Einrichtungen häufig vorkommen, gut aussehen. Last but not least ist das N4B2 ein sehr wirtschaftliches Gerät. Da ist zum einen sein Anschaffungspreis von ca. 1000,- Euro in der Grundausstattung und zum anderen sein wirtschaftlicher Betrieb. Die Stromaufnahme im Leerlauf beträgt etwa 42 W und im Standby-Modus nur ganz 0,8 W. Also Mediziner und Wissenschaftler, hier ist ein sicherer Hort für Eure Daten. www.lg.de

Das waren die allgemeinen Vorteile eines NAS für die Datensicherung. Das N4B2 von LG hat darüber hinaus noch mehr drauf bzw. drin. In dem robusten und formschönen Gehäuse finden sich nicht nur die vier Schächte für die Festplatten, sondern auch noch ein Platz für einen Blu-ray Brenner. So in das gesamte System integriert, ist er für alle im Netzwerk verbundenen Rechner nutzbar, egal, ob Windows, Linux oder Mac OS X. Die Nutzung des Innenleben. Im Inneren des robusten Gehäuses des N4B2 von LG werkeln vier Festplatten zusammen mit einem Blu-ray Brenner als unschlagbares Team. Ganz unten sind noch der 4 in 1 Speicherkartenleser und der USB Anschluss zu erkennen

17


Fachhandel im Dienste von Medizin und Wissenschaft Für Mediziner und Wissenschaftler ist es schwer, kompetente Ansprechpartner im Handel für ihre ganz speziellen fotografischen Wünsche und Anforderungen zu finden. Die Photo Competence Partner treten an, in diese Lücke im Markt vorzustoßen. Walter Adler ist der Vorreiter in diesem Bereich bei PCP. Er schildert uns sein Engagement und seine Erfolge. seit 1991 Geschäftsführer bei GM-Foto in Frankfurt, der Anlaufstelle für Profifotografen seit mehr als 40 Jahren. Spezialitäten wie AV-Technik und Equipment für die Unterwasserfotografie gehören ebenso zum Angebot des Traditionsunternehmens wie auch das gesamte Spektrum der digitalen Fotografie.

Making of. Viele Zahnärzte sind enthusiastische Fotografen. Da muss dann die Mitarbeiterin schon mal mit der Hasselblad arbeiten

Die Photo Competence Partner, kurz PCP, sind ursprünglich ein lockerer Zusammenschluss von Fotofachhändlern gleichen Interesses, die im Sinne ihrer Kunden das Beste aus solch einem Netzwerk herausholen wollten. Entwickelt hat es sich zu einem Leistungsverbund, der sich mit fachlicher Kompetenz, professionellem Angebot und wirtschaftlicher Attraktivität aufgestellt hat und besonders die Profifotografen anspricht. Sieben Fotofachhändler an sechs Standorten, über ganz Deutschland verteilt, bieten höchsten Standard bei ihren Serviceleistungen und wollen am liebsten immer die Ansprüche der Kunden übererfüllen. Die Sieben sind Probis Media Solution in Hamburg, need more pixel in Berlin, AVI in Dresden, GMFoto in Frankfurt, Photo Universal in Fellbach bei Stuttgart, Dinkel Foto­ großhandel in München und Isarfoto Bothe in Icking bei München. Alle Himmelsrichtungen sind also vertreten. Mittlerweile ist PCP strategisch so stark, dass man bei Herstellern sehr Alle Bilder: Dr. med.dent Hinrich Burfeind

gute Konditionen erzielen kann, die die Partner gemäß ihrer Philosophie direkt an die Kunden weitergeben. Die jahrzehntelangen Erfahrung der PCPler setzte sie auch in die Lage, eigene Produkte zu entwickeln, zu produzieren und diese ihren Kunden, aus deren Wünschen diese Produkte erwuchsen, anzubieten, natürlich zu günstigen Preisen. Das PCP Netzwerk ist so konzipiert, dass jeder für jeden da ist. Das beinhaltet die Weitergabe von Equipment, wenn an einem Standort mal Mangel herrscht, die Zusammenarbeit bei Workshops und Schulungen und sogar eine Beratung eines Kunden mit speziellen Wünschen per Telefon von Standort zu Standort. Denn nicht jeder PCP Partner hat die gleiche Zusammensetzung von fachlich besonders geschulten Mitarbeitern. Der Mann bei GM-Foto für die Medizin Walter Adler ist ein alter Hase, wenn dieses Wortspiel erlaubt ist, in der Welt des Fotofachhandels. Er ist zusammen mit Harald Remsperger

Walter Adler hat sehr früh das Potenzial medizinischer und wissenschaftlicher Fotografie für den fotografischen Fachhandel erkannt. Über zehn Jahre fuhr er durch die Lande, besuchte eine Einrichtung nach der anderen und stellte dort das neueste Equipment vor. Diese Überzeugungsarbeit war ob der hohen Beratungsintensität extrem aufwändig. Aber es hat sich gelohnt. Heute ist er ein kompetenter Ansprechpartner für Kliniken, Praxen und andere Einrichtungen, die er mit maßgeschneiderten Lösungen versorgt hat. Als ein Schwerpunkt für seine Arbeit kristallisierte sich die Zahnmedizin heraus. Erstens sind Zahnärzte gesetzlich verpflichtet, eine umfassende Dokumentation ihrer Behandlungen anzufertigen. Walter Adler zeigt den Ärzten, wie sinnvoll technisch perfekte Fotografien für diese Dokumentationen sind. Viele muss er regelrecht bekehren denn „von einhundert Zahnärzten betreiben zwei die Dokumentation exzessiv, zehn machen sie gut und für den Rest ist es ein lästiges Übel“, sagt er. Diesen Rest will er erreichen und kann auf die Ärzte verweisen, die gut fotografieren. Nicht nur, dass sie erstklassige unanfechtbare Dokumentationen vorweisen können, sie sind so gefragt, dass sie weltweit auf Kongressen ihre Arbeiten präsentieren. Zweitens gehören Zahnärzte einer besonders fotoaffinen Berufsgruppe an, warum weiß niemand, aber es ist so. Walter Adler kommt oft in die Situation, dass seine medizinischen Kunden lieber die allerneueste Hasselblad und nicht die mehr als ausreichende


PHOTO COMPETENCE PARTNER

digitale Kleinbild Spiegelreflexkamera haben wollen. Natürlich verkauft er diese dann auch. Seine erste Empfehlung geht immer in Richtung Canon oder Nikon. Die Kameras dieser Hersteller haben reichlich Auflösung, sind einfach zu bedienen und kompakt genug für den Einsatz in einer Zahnarztpraxis. Außerdem will auch nicht jede Arzthelferin mit einer schweren Hasselblad hantieren. Die normale Grundausstattung, die Walter Adler Neukunden anbietet, besteht aus der erwähnten KleinbildDSLR mit Makroobjektiven und einem Ringblitz. Auf Wunsch kommt manchmal noch ein Wireless File Transmitter für die kabellose Übertragung der Bilder auf den Rechner dazu. Zum Service gehört noch eine ein- bis zweistündige Einweisung in die Technik und die Nutzung von Photoshop sowie eine Farbkalibrierung des gesamten Systems. Gerade bei Dokumentationsaufnahmen im Dentalbereich ist die verlässliche Farbwiedergabe enorm wichtig, geht es doch um Hauttöne und Zahnfarben. Über diese Grundausstattung hinaus gibt es natürlich haufenweise Sonderwünsche. Einer der häufigsten ist die Ausrüstung eines Mikroskops, welches in der Implantologie eingesetzt wird, mit einer digitalen Kamera. Die Kamera wird entweder mit einer Fernauslösung oder einem Fußschalter bedient. Kein Problem für Walter Adler und GM-Foto. Er ist so bewandert in der Materie, dass er viele Ärzte, die mit dem Mikroskop arbeiten, von der Nutzung einer hochauflösenden Digitalkamera überzeugen konnte, da mit ihr verschiedenste Abbildungsmaßstäbe aus einer Aufnahme generiert werden

können. Bei thermisch empfindlichen Proben kann es ein entscheidender Vorteil sein, dass die Probe nicht zu lange der starken Beleuchtung des Mikroskops ausgesetzt ist. Der eine oder andere Zahnarzt schätzt noch immer die Hardcopy und bekommt einen Drucker, meistens ein Thermosublimations- oder Tintenstrahlgerät. Das Engagement von Walter Adler geht aber über die reine technische Beratung und den Verkauf weit hinaus. Vielen seiner Kunden aus der Welt der Medizin hat er beigebracht, nicht nur richtig, sondern auch schön zu fotografieren. Er schildert das Beispiel eines Schönheitschirurgen, der seine Vorher-Nachher Bilder platt und dicht vor einer Wand mit dem Blitz auf der Kamera fotografierte und sich wunderte, warum die Bilder nicht wirklich toll aussahen. Eine kleine Einweisung in studioartige Beleuchtung reichte aus und wieder hatte Walter Adler einen noch zufriedeneren Kunden. Mit seiner Erfahrung fällt es ihm aber auch leicht, selbst skeptische Ärzte, die glauben, alles mit der kleinen digitalen Ritsch-Ratsch-Kamera erledigen zu können, von Profi-Equipment zu überzeugen. Denn er möchte noch mehr Professionalität in diesen Bereich der Fotografie bringen. In absehbarer Zeit sieht er Video als zusätzliche Technologie, um ganze Behandlungsabläufe zu dokumentieren und zu präsentieren. Die Grundlagen sind mit den Videofähigkeiten der modernen DSLRs gelegt. Jetzt muss Walter Adler wieder mit der Überzeugungsarbeit beginnen, denn der Aufwand, qualitativ hochwertige Videos aufzunehmen und zu verarbeiten, ist groß.

PCP: Engagement für Medizin und Wissenschaft Seinen reichen Erfahrungsschatz gibt Walter Adler in Seminaren, bei Schulungen, Workshops und Fachvorträgen weiter. In Kooperation mit dem Zahnarzt Dr. med. dent. Hinrich Burfeind, der neben seiner fachlichen Kompetenz auch noch ein begnadeter Fotograf ist, hält er zum Beispiel Seminare zu dentalspezifischer Fotografie ab oder spricht über fotografische Anwendungen in der Dermatologie an der Universitätsklinik in Frankfurt. Sein Wissen soll in Zukunft auch in das PCP Netzwerk einfließen. Bei den Treffen der PCPler kommt das Thema medizinische und wissenschaftliche Fotografie immer öfter auf die Tagesordnung. Die Ziele sind schon gesteckt: Innerhalb des Leistungsverbundes soll es einen eigenen Bereich dazu geben und jeder Partner wird einen speziell geschulten Mitarbeiter bereitstellen, der vor Ort die Institutionen betreuen kann. Ganz nach der PCP Devise, dass sich alle untereinander helfen. Das PCP Netzwerk ist jetzt schon dafür bereit und baut sein Serviceangebot noch weiter aus. Aktuell schildert Walter Adler, dass zum Beispiel bei GMFoto in Frankfurt ein Fotostudio aufgebaut und eine Rent-Abteilung für Profiequipment eingerichtet wird. Sicher profitieren dann auch die NetzwerkPartner von den neuen spannenden Erfahrungen, die er bestimmt machen wird. Man darf gespannt sein, was die Sieben noch alles entwickeln werden.

Nicht schön, aber vorgeschrieben. Dokumentationsbilder gehören zur täglichen Aufgabe eines Zahnmediziners (Bild 1 und 2) Hände frei. Bei diffiziler Arbeit unter dem Mikroskop muss der Arzt die Hände frei haben, eine Fernauslösung oder ein Fussschalter löst die Kamera aus (Bild 3)

www.pcp-online.eu www.gmfoto.de

19


Spektakuläre Innenansichten Aus der Praxis, für die Praxis. Speziell im Medizin- und Wissenschaftsbereich ist bei der Produktion von perfektem Bildmaterial Know-how und thematische Fachkenntnis gefragt. Neben der Zusammenarbeit mit professionellen Bildautoren setzt die Bildagentur medicalpicture daher auch auf Bilder, die direkt der Fachkreis-Community entspringen.

2002 gegründet und seit 2009 zu einhundert Prozent zur DocCheck Gruppe gehörend, ist medicalpicture eine webbasierte Bilddatenbank mit weit über 50.000 Bildern aus den Bereichen Gesundheit, Medizin, Pharma und Wissenschaft. Ein schnell wachsendes Bildportfolio ist für Bildagenturen wie medicalpicture essentiell, um dem kontinuierlichen Bedarf an topaktuellem Bildmaterial von Seiten der Einkäufer gerecht zu werden. Wie bei anderen Bildagenturen auch, bildet ein großer Pool an erfahrenen Fotografen und Illustratoren den Core für die Contentlieferung und ermöglicht gezielte, individuelle Auftragsproduktionen. Unter dem Dach eines Fachportals wie DocCheck eröffnen sich für eine Special-Interest-Bilddatenbank wie medicalpicture völlig neue Optionen der Bildvermarktung, aber auch der Contentgenerierung. Denn als Europas mitgliederstärkstes Portal für Healthcare-Professionals wartet DocCheck mit einer starken und online-affinen Fachcommunity auf: Über 700.000 registrierte medizinische Fachangehörige, vom Chefarzt bis zur OPSchwester oder dem Laborassistenten, nutzen das Online-Portal nicht nur zur eigenen Wissenserweiterung und Informationsrecherche, sondern tragen auch zunehmend selbst zum

Ausbau des Portalangebotes bei. Auf den diversen Portalbereichen haben die Nutzer die Möglichkeit, sich interaktiv zu beteiligen und selbst eigene Inhalte rund um das Thema Medizin & Wissenschaft einzustellen: So stellen die Communitymitglieder bei DocCheck beispielsweise Definitionen medizinischer Fachbegriffe im offenen Medizinlexikon ein und beteiligen sich an der Themenfindung für aktuelle redaktionelle Fachbeiträge, die in hoher Auflage über den Online-Newsletter verbreitet werden. Medizinische Bilddatenbank der Fachcommunity Auch im Bildbereich wurde das Potenzial erkannt, das direkt aus der Fachcommunity entsprungenes Bildmaterial mitbringt: Aktuell, praxisnah und auf fachlichem Know-how basierend, steuern die Nutzer seit einiger Zeit faszinierende medizinische Bilder bei. Als innovative Online-Bildmappe bietet DocCheck Pictures entsprechende Werkzeuge zum Hochladen und Verwalten medizinischer Bilder – und so einen Platz für Befundfotos, radiologische Aufnahmen und klinische Fallbeispiele, die bisher in vielen Schubladen verstaubten. Die fachspezifische Verschlagwortung der eigenen Bilder erfolgt direkt durch den hochladenden Nutzer, der so für eine gute Auffindbar-

Hautpilz, © C. Kage/medicalpicture (Bild 1) | Meningitis Viren, © P. Enge/medicalpicture (Bild 2)

keit seiner Bilder durch andere Nutzer sorgt. Über ein persönliches OnlineProfil im Medizin-Netzwerk von DocCheck Faces kann der Nutzer sich, seine Fachkenntnisse und Interessensschwerpunkte vorstellen und ermöglicht anderen Communitymitgliedern so eine unmittelbare Kontaktaufnahme. Zusätzlich zu den üblichen Bewertungs- und Kommentarfunktionen können so bei DocCheck Pictures auch konkrete Fragen an Kollegen gestellt werden – zum Beispiel, um unklare Befunde, OP-Verfahren oder Therapieoptionen zu diskutieren oder abzuklären. Zusätzlich nutzen viele Ärzte die Möglichkeit, neben Zuweiser- auch Patientenkontakte zu generieren. Über den DocCheck Login ist es dabei möglich, bestimmte nicht für Patienten geeignete Bildmedien nur für medizinische Fachkreise zugänglich zu machen. Besonders interessante, lehrreiche oder strittige Fälle werden per DocCheck Newsletter, Banner und ÄrzteNetzwerk an Kollegen und Fachkreise weitergeleitet. Auch spezielle Bildanfragen von Kunden der Bildagentur medicalpicture können direkt in diese bildaffine Community gepostet werden. Darüber hinaus können die Nutzer mit ihren Fotosammlungen Geld verdienen, indem sie diese zur Lizenzierung bzw. für


MEDICALPICTURE

den Verkauf über professionelle Bildanbieter wie medicalpicture freigeben. Aus der Community zu DocCheck Pictures beigesteuert wurden bisher bereits knapp 2000 Fotos, Mikrofotografien, bildgebende Verfahren der Medizin, 3D-Bilder, Grafiken und Animationen, darunter viele chirurgische und neurochirurgische Dokumentationen und Fallbeispiele. Motivation zur aktiven Beteiligung Web 2.0 ist nichts Neues. Jedoch müssen die erforderlichen Rahmenbedingungen für die Schaffung von

User-generated-Content (UGC) von vornherein richtig gesteckt werden. Denn um den User vom passiven Konsumieren hin zur aktiven Beteiligung, zum Beispiel in Form von Diskussionen, Bewertungen oder eben der Einbindung von eigenem Content zu bewegen, ist Motivationsvermögen gefragt. Die Website muss dem Nutzer eine gute Usabilty, also Bedienbarkeit für das Hochladen und Verwalten von Bildmaterial bieten. Nicht nur die Möglichkeit, eigene Arbeiten zielgruppenfokussiert zu verbreiten und mit anderen Interessierten aus dem Medizin-Bereich zu teilen, auch die

Aussicht, professionelles Bildmaterial unkompliziert zur Vermarktung bereitzustellen, ist interessant. Vor allem ist jedoch das unmittelbare Feedback aus der Community für die meisten Bildgeber von zentraler Bedeutung. Im Rahmen von Bilderwettbewerben werden regelmäßig unter allen Nutzer-Uploads die spektakulärsten und schönsten Bilder prämiert. Die Bewertung erfolgt einerseits per Internetvoting durch das fachinteressierte Publikum, zum anderen über eine medizinische Expertenjury. www.medicalpicture.de

Neuronen-Netzwerk im Gehirn, © R. Perdok/medicalpicture (Bild 1, li) | Nervenzelle, © T. Braun/medicalpicture (Bild 2, li) | Blutversorgung des Kleinhirns, © D. Lang/medicalpicture (Bild 3, li) | Gefäße des Kleinhirns, © D. Lang/medicalpicture (Bild 1, re) | Chemiker kontrolliert Wachstum einer Pflanze, © imagebroker/medicalpicture (Bild 2, re)

21


HEDLER

Gutes Licht für verlässliche Ergebnisse Wissenschaftliche Proben oder medizinische Präparate sind ganz besondere Fotomotive. Nicht nur durch mögliche Instabilität und Fragilität, sondern auch durch die Tatsache, dass ihre Dokumentation für Vergleichszwecke nachvollziehbar und standardisiert sein muss. Die Firma Hedler hat sich mit ihrer Dauerlichtlampe DX 15 eines Aspektes des Dokumentationsprozesses, der Beleuchtung, angenommen.

Abmusterung von zum Beispiel Dental­objekten. Ein ganz gewaltiger Schritt zu vereinheitlichtem Qualitätsmanagement. Vierter Hauptaspekt ist die kompakte und robuste Bauweise des DX 15. Das Aluminiumgehäuse ist so klein designt, dass die Lampe mobil und stationär auch in beengten Aufnahmesituationen eingesetzt werden kann, ohne zu belästigen. Ganz wichtig bei medizinischen Dokumentationsaufgaben mit Patienten. Da ist aber noch mehr Das waren die vier Aspekte, die auch der Hersteller Hedler für sein Produkt herausstellt. Aber natürlich gibt es da noch mehr. Das Gehäuse etwa. Bei aller Kompaktheit hat die Hessener Firma alle Bauteile, auch das für solche Lampen nötige Vorschaltgerät, darin unterbringen können. Durch den Einsatz modernster elektronischer Bauteile und des Metall-KeramikLeuchtmittels konnte auch auf einen Lüfter verzichtet werden. So arbeitet die DX 15 quasi geräuschlos und wirbelt keinen Staub auf. Vier Aspekte zeichnen die DX 15 speziell für die Medizin- und Wissenschaftsfotografie aus. Da ist zunächst einmal das Leuchtmittel dieser Dauerlichtlampe, die ähnlich einem HMI-Licht arbeitet. Es handelt sich dabei um eine Metall-Keramik-Lampe, die gleich für drei der vier Vorteile verantwortlich ist. Das Leuchtmittel ist mit einer mittleren Lebensdauer von 6000 Stunden extrem haltbar, was das meist beschränkte Budget entlastet. Es entwickelt eine geringe Temperatur im Lichtkegel, was gut für empfindliche Proben ist, besonders wenn sie klein sind und das Licht dicht heran muss. Und, vielleicht am wichtigsten, die DX 15 liefert eine stabile Tageslicht-Farbtemperatur von ca. 5800 Kelvin. Diese Farbtemperatur- und Spektralstabilität ermöglicht eine verlässliche

Praktikabilität wird bei Hedler von jeher groß geschrieben und natürlich auch bei der DX 15 realisiert. Neben der universellen Einsetzbarkeit durch die Bauform besticht die Systemleuchte durch besonders einfache Bedienung. Es gibt nur einen Ein-AusSchalter für das Licht selbst. Ein großer Griff sorgt für gutes Handling beim Auf- und Abbau. Die DX 15 hat an der Vorderseite den beliebten Hedler QuickFit Adapter für das reichhaltige Lichtformer Angebot des Herstellers. Foto oder Video: auf alle Fälle schönes Licht Eigentlich ist schönes Licht in der Medizin- und Wissenschaftsfotografie kein Thema. Hier kommt es auf genaueste Wiedergabe der Realität an. Doch schlechtes, zu punktuelles

oder hartes Licht ist auch nicht erwünscht. So können LED-Leuchten durch ihre punktförmigen Leuchtmittel störende oder sogar verfälschende Reflexe auf Objekten erzeugen, die Bilder für eine Dokumentation unbrauchbar machen können. Die DX 15 von Hedler weist durch ihre Konstruktion schon in der Grundausstattung ein flächigeres Licht auf, welches durch Streuscheiben oder andere Lichtformer noch weiter und weicher gestaltet werden kann. So lassen sich zum Beispiel in der Dermatologie auch größere Areale auf der Haut ohne störende harte Reflexe beleuchten. Zusammen mit der definierten Farbtemperatur und der spektralen Stabilität kann so selbst über längere Zeiträume verlässlich gearbeitet werden. Das integrierte, hochmoderne Vorschaltgerät in der DX 15 arbeitet mit einer Frequenz von 140 Hz. Quasi flickerfreies Licht wird die Fotografen in Medizin und Wissenschaft erfreuen, die ihre digitale Spiegelreflexkamera auch für hochauflösende Videoaufnahmen nutzen. Wir erinnern uns: Die Lampe liefert stabiles Tageslicht ohne Lüftergeräusch. So entfallen langwierige Lichtumbauten, wenn einfach mal zwischendurch gefilmt werden soll, Licht und Workflow bleiben gleich. In Zeiten von Rationalisierungen und Einsparungen sicher ein ernstzunehmendes Verkaufsargument. Apropos Wirtschaftlichkeit: Hedler holt aus der DX 15 bei einer Leistungsaufnahme von nur 150 Watt eine fotografisch oder filmisch nutzbare Lichtleistung von ca. 650 Watt heraus. Das Ganze, Made in Germany, gibt es dann auch noch zu einem günstigen Preis von 470,- Euro inklusive MwSt. und ein Austauschleuchtmittel schlägt mit 46,50 Euro zu Buche. Jeder Controler wird sich über diese Parameter freuen. www.hedler.com

Klein, stark, verlässlich und nicht nur für Videos. Die DX 15 von Hedler bietet bei einem vernünftigen Preis alles, was das Herz eines Medizin- oder Wissenschaftsfotografen begehrt


PHOTOKINA 2010

Infos bis der Arzt kommt Die Imaging-Weltmesse photokina bietet für Klinikfotografen, Ärzte, Zahnärzte und Wissenschaftler die optimale Gelegenheit, sich vor Ort umfassend über die wichtigsten Produkte, Technologien und Trends zu informieren. Einmalig: Die Lösungen für Spezialanwendungen sind sonst nirgendwo in dieser Fülle zu sehen und zu probieren.

Die photokina 2010 vom 21. bis 26. September in Köln ist die mit Abstand größte Leistungsshow der internationalen Imagingwelt. Schön und gut, könnte mancher niedergelassene Arzt, Schönheits-Chirurg oder Klinikfotograf jetzt sagen – aber was bringt mir das konkret? Die Neuheiten erfahre ich ja sowieso alle zeitgleich im Internet.

umfangreichen Systemkomponenten, die individuell geeigneten Archivierungslösungen oder die modernsten, besten und platz- wie energiesparendsten Drucksysteme zu sehen und zu testen bekommt. Inklusive der Möglichkeit, mit den erfahrenen Produktspezialisten der Hersteller über die sinnvollsten individuellen Konfigurationen ausführlich sprechen zu können.

Das komplette Medizinfoto-Angebot Der Besuch in Köln im September lohnt sich aus vielen plausiblen Gründen. Grundsätzlich gilt: Je spezieller die jeweilige fotografische Anwendung, desto unersetzbarer ist ein Besuch der Weltmesse des Bildes, weil man nur hier – und nicht im Internet und in dieser Fülle auch bei keinem Händler – das neueste Makroobjektiv mit Ringblitz, die transportable Lichtanlage für Studio- und Außenaufnahmen, die besten Kameras aller Hersteller inklusive der

Die medizin-wissenschaftliche Imaging-Zukunft Aber es sind neben den neuen Produkten auch viele Technologien und Trends, die für medizinische Fotografen eine hohe Relevanz haben, beziehungsweise in den kommenden Monaten und Jahren bekommen werden. Beispielsweise die enorme Zunahme der Empfindlichkeit von Sensoren, wodurch es auch unter kritischen Lichtbedingungen möglich ist, verwertbare Aufnahmen zu machen. Oder

die immer besseren Video-Funktionen von DSLR-Kameras, wodurch sich bestimmte bewegte Prozesse dokumentieren lassen. Aber auch komplett neue, sehr kompakte Systemkameras bieten verbessertes Handling bei professioneller Bildqualität. Viel Neues auch bei den DesktopDruckern, die vor allem hinsichtlich Druckgeschwindigkeit und niedrigem Geräuschpegel neue Maßstäbe setzen. Und die Zukunft der Medizin- und Wissenschaftsfotografie kann in Köln auch schon bestaunt werden: 3D, heute noch auf Hollywood und erste Ansätze bei Fotokameras beschränkt, wird gerade auch in der medizinischwissenschaftlichen Dokumentation völlig neue Dimensionen eröffnen. Weitere Informationen findet man komplett und gebündelt unter www.photopresse.de und unter www.photokina.de. Wolfgang Heinen

23


www.photokina.de

Imaging

is here !

Köln, 21. – 26. September

2010

world of imaging

Tickets en bestell online zu und bis ! sparen

38 % www.p

hotokin

a.de

entdecken !

Neues

Alle Innovationen, alle Trends und alle Lösungen präsentiert vom Who is Who der Imagingbranche. Die wichtigste Informationsund Orderplattform für den internationalen Handel und das Mekka für alle Anwender. Das ist photokina – weltweit die Messe Nr. 1 für alles rund um das Thema Bild. Das müssen Sie erleben !

Koelnmesse GmbH Messeplatz 1, 50679 Köln Tel. 0180 5 103 101*, Fax 0221 821 99 -1270 photokina@visitor.koelnmesse.de *0,14 EUR / Min. aus dem dt. Festnetz, max. 0,42 EUR / Min. aus dem Mobilfunknetz


Issuu converts static files into: digital portfolios, online yearbooks, online catalogs, digital photo albums and more. Sign up and create your flipbook.