Gegenwart und Zukunft der Bildentwicklung

Kategorie:
|
6. Oktober 2013
|
1 Kommentare

Bildentwicklung? Was ist denn das?

Landläufig spricht man von Bildbearbeitung, ein Begriff der mir allerdings für reine Kontrast- und Farbanpassungen nicht besonders gefällt. Unter Bildbearbeitung verstehe ich über diese Anpassungen hinaus auch Retuschen, Montagen und Bildverfremdung. Man könnte auch von Bildverarbeitung sprechen, doch diese Bezeichnung röche für mich zu sehr nach automatischer Verarbeitung durch Maschinen und Software. Bildentwicklung ist am korrektesten – Digitalbilder müssen ebenso entwickelt werden wie analoge Aufnahmen. Mit Bildverfremdung hat das wenig zu tun!

Natürlich ist ein Titel wie »Gegenwart und Zukunft der Bildbearbeitung« oder eben auch »Gegenwart und Zukunft der Bildentwicklung« etwas hochtrabend – schließlich bin ich nicht der EDV-Experte der die Möglichkeiten neuerster Software-Techniken ausreichend kennt, als dass ich sagen könnte was da in Zukunft auf uns zukommt. Dieser Artikel beschreibt viel mehr in welche Richtung sich Bildentwicklung bei mir momentan bewegt.

Photoshop CC

Wer meinen Blog schon etwas länger verfolgt weiß, dass ich Adobes Creative Cloud äußerst kritisch gegenüber stehe. In Artikeln, wie »Pro und Contra Adobe Creative Cloud«, habe ich meine Kritikpunkte aufgelistet und zum Ausdruck gebracht. Dafür habe ich Zustimmung erhalten, aber auch viel Kritik eingefahren, unter anderem, dass ich nur schwarzmale und rumsudere. Auf meine Bitte meinen Contra-CC-Argumenten doch Pro-CC-Argumente gegenüber zu stellen – ich hätte diese auch gerne veröffentlicht und würde es auch jetzt jederzeit nachtragen – folgte nicht viel mehr als »Für einen Teil der Anwender ist die Cloud günstiger, als die Kaufmodelle zuvor; Es gibt keine Alternativen; Bei Microsoft ist alles viel Schlimmer; Wer Apple als positives Beispiel anführt hat unrecht«, wovon ich einzig den Preisvorteil, den User haben, die alle (oder die meisten) CC-Programme haben müssen (wollen?), als stichhaltig nachvollziehen kann. Das heißt, mein Standpunkt zur Creative Cloud hat sich nicht geändert und ich bleibe dabei, dass ich es für leichtsinnig halte mit einem Monopolisten einen Vertrage einzugehen, wie er für die Creative Cloud notwendig ist. Aber das ist im Moment Schnee von gestern, heute nicht zu ändern und in ein paar Jahren wird sich gezeigt haben, ob meine Befürchtungen begründet oder paranoid waren.

Photoshop-Alternativen

Meine Verdrossenheit über Adobes CC-Politik hat mich nach Alternativen zu Photoshop (und InDesign und Illustrator) suchen lassen, mit der absehbaren Bestätigung: Es gibt keine, die professionelle Ansprüche erfüllen. Allerdings ist das kein Grund Photoshop CC haben zu müssen. Ich arbeite weiterhin gut mit CS6 und auch für Leute, die CS5 oder CS4 nutzen, sehe ich keine Notwendigkeit ein Upgrade zu machen – sogar CS3 hat im Grunde alles, was man braucht, sofern es auf aktuellen Betriebssystemversionen noch läuft.

Obwohl ich auf der Suche nach einer Photoshop-Alternative wie gesagt nicht fündig geworden bin, hat sie zu Entdeckungen geführt, die meine Arbeitsweise grundlegend verändert haben – sogar meinen Blickwinkel auf die Bildentwicklung allgemein.

Die beiden Hersteller Topaz Labs und OnOne Software bieten Bündel an Bildentwicklungs-Plugins für Aperture, Lightroom, Photoshop und andere Programme an. Bis dahin war mein Interesse an Plugins relativ gering, da ich (dachte) mit den Werkzeugen von Photoshop ohnehin alles umsetzen zu können, was ich im Kopf hatte, was ja auch stimmte. Die Tests dieser Plugins haben mir allerdings eine völlig neue Arbeitsweise eröffnet, über die ich viel spielerischer an die Bildentwicklung herangehe.

Habe ich zuvor mit Photoshop umgesetzt, was mir im Kopf vorschwebte, spiele ich in den Plugins von Topaz und OnOne mit den Presets herum bis mich ein Resultat anspricht und feile dann an den Einstellungen an den Details. Das führt nicht nur zu neuen, irgendwie zufälligen Ergebnissen – wenn man immer nur umsetzt, was man selbst im Kopf hat, bewegt man sich stets in der Suppe seiner Erfahrung; der Zufall kann da einen neuen Aspekt einbringen, auf den man selbst nicht kommen würde –, sondern die Plugins ermöglichen viele Ergebnisse auch deutlich schneller, als der Alleskönner Photosop.

OnOne bietet mit der Perfect Photo Suite – gerade in der Version 8 angekündigt, mit der OnOne offensichtlich seine Chance sieht, unzufriedene Adobe-Kunden mit einer kompletten Bildbearbeitungsalternative anzusprechen – eine Umgebung an, über die sich sämtliche Plugins auch als Stand-alone-Programme, ohne Photoshop, Lightroom oder Aperture nutzen lassen.

Ebenso bietet Topaz eine Stand-alone-Umgebung mit dem Namen PhotoFXLab an, die es möglich macht auf andere Programme zu verzichten, allerdings zur Bildbearbeitung nicht so ausgefeilt ist, wie die angekündigte Perfect Photo Suite 8 – allerdings sei erwähnt, dass mir die Resultate der TopazLabs-Plugins meist besser gefallen.

Ich habe beide Umgebungen getestet, Topaz PhotoFXLab und Perfect Photo Suite 7, und bin sehr schnell zu Photoshop als Basisprogramm für die Bildentwicklung (nach der Grobentwicklung in Aperture) zurück gekehrt. Das liegt sicher auch daran, dass ich Photoshop souverän und in der Tiefe beherrsche und das Adobe-Werkzeug in Sachen Umfang PhotoFXLab und Perfect Photo Suite weit überlegen ist. Allerdings fungiert Photoshop dabei nur mehr zur Ebenenverwaltung und Maskierung – die Entwicklung von Kontrast und Farbigkeit geschieht nun zu etwa 95% über die Plugins von Topaz und OnOne. Würde ich Google nicht ablehnen und wären mir die Alien-Skin-Filter nicht etwas teuer, könnte ich jederzeit um weitere Plugins aus diesen Häusern erweitern, was die Ausdrucksvielfalt weiter ausdehnen könnte. Photoshop ist dabei in erster Linie Hub. Selbst die Gesichtsretusche erledige ich mittlerweile über ein Plugin, nämlich mit Portrait Pro.

Ein neuer Blick auf die Bildästhetik

Schon die Arbeit mit Aperture hat mir in den letzten Jahren etwas näher gebracht, was ich als HDR-Ästhetik bezeichnen möchte. Die Arbeit mit den Plugins hat diese Richtung weiter verstärkt. Lange Zeit hatte ich angestrebt meinen Bildern einen möglichst natürlichen Look zu verleihen. HDR habe ich wegen des künstlich empfundenen Looks, des Unfugs, den viele Amateure damit treiben, und vor allem, weil HDR versucht etwas für das menschliche Auge sichtbar zu machen, was es gar nicht erfassen und kein Monitor darstellen kann.

Eine Digitalkamera kann einen sogenannten Dynamikumfang von etwa zehn bis zwölf Lichtwerten aufnehmen. Vereinfacht ausgedrückt kann die hellste Fläche eines Fotos etwa zehn bis zwölf mal heller sein als die dunkelste – alles was darüber hinaus geht wird überbelichtet. Die Leistung des menschlichen Auges liegt ebenso in diesem Bereich, deshalb werden wir zunächst geblendet, wenn wir aus einem dunklen Raum in einen sonnigen Garten schreiten, oder sehen zunächst gar nichts, wenn wir nachts das Licht ausschalten.

Bei der Natur geht man davon aus, dass eine absolut weiße Fläche etwa zwanzig Mal so hell ist, wie absolutes Schwarz (absolutes Schwarz ist 0 Licht). HDR möchte Szenen einfangen, deren Dynamikumfang nicht nur zehn, oder zwölf Lichtwerte beträgt (damit werden die meisten Kameras, Monitore und das menschliche Auge einigermaßen fertig), sondern vielleicht 14 oder 16 oder mehr. Dazu werden bei echtem HDR mehrere Belichtungen aufgenommen, zum Beispiel eine, die die dunklen Bereiche ausreichend belichtet, eine, die für die mittleren Bereiche optimal ist, und eine, die auch die hellsten noch ohne Überbelichtung mitnimmt. Diese Belichtungen werden dann am Computer zu einem Bild zusammengefügt. Ein Bild, das zwar theoretisch den Kontrastumfang der realen Szene beinhaltet, aber von keinem Monitor dargestellt werden könnte, und selbst wenn es diesen Monitor gäbe, vom menschlichen Auge nicht zu erfassen wäre. Damit der ganze Kontrastumfang dann doch dargestellt werden kann, muss er soweit komprimiert werden, dass er im Kontrastumfang von Monitoren Platz hat. Ergo: das Resultat ist am Ende etwas, was in Natura niemals so ausgesehen hat.

In der Praxis bedeutet das, dass alle HDR-Bilder die ich bislang sah, entweder so aussahen, dass ich mich fragte weshalb man dafür mehrere Belichtungen braucht – es hätte mit einer kaum anders ausgesehen –, oder dass ich das Resultat als zu künstlich empfand, was allerdings per se nicht schlecht ist.

Gut gemachte HDR-Bilder sind vor durch ihre ungewohnte Ästhetik, die Art wie Licht und Schatten und Kontraste wirken, zu erkennen (die schlecht gemachten daran, dass sie zu viele Kontraste haben, zu unruhig und übersättigt sind). Das ist eine Ästhetik, die mich beeindruckte, als sie neu war, die ich aber alsbald, nachdem ich immer mehr HDR-Bilder sah, abzulehnen begann.

In der Zwischenzeit habe ich meine Meinung geändert. Mir wurde klar, was ich ohnehin schon lange wusste: Ein Foto ist niemals eine realistische Abbildung einer Szene, sondern immer nur eine Interpretation. Es gibt viele Gründe weshalb das so ist, dazu gehört der Unterschied des Farbumfangs zwischen Natur und Kamera, der Unterschied zwischen Kontrastumfang von Natur und Kamera und der Unterschied wie unsere Wahrnehmung eine Szene aufnimmt und wie sie die Kamera aufnimmt. Letzteres Bedeutet, dass unsere Augen eine Szene in sehr kleinen Ausschnitten in Sekundenbruchteilen abtasten, sich das Auge in jedem Augenblick dem gerade abgetasteten Bereich anpasst und das Gesamtbild dann in der Wahrnehmung aus vielen unterschiedlich belichteten Einzelteilen zusammen gebaut wird. Die Kamera hingegen nimmt eine Szene mit einer Belichtung in einem Augenblick auf. Und so sehen wir das Foto dann auch.

Mir wurde bewusst, dass das, was wir an einem Foto als natürlich empfunden haben, nicht wirklich eine natürliche Darstellung ist, sondern lediglich das, was wir in den letzten Jahrzehnten als natürliche fotografische Abbildung erlernt haben, weil 99% der Fotos, die uns begegneten, diese Ästhetik hatten. Die HDR-Ästhetik weicht davon ab und wird deshalb von mir und wohl vielen anderen als unnatürlich empfunden. Tatsächlich jedoch ist sowohl die klassische Fotoästhetik, als auch die HDR-Ästhetik immer nur eine Interpretation der realen Szene und deshalb sehe ich das eine heute nicht mehr anders als das andere.

Mit Plugins lässt sich eine HDR-Ästhetik sehr leicht erreichen, ohne, dass mehrere Belichtungen notwendig sind. Durch das Spiel mit Ihnen hat sich dieser Stil nun auch deutlich in meine Fotografie eingeschlichen. Die Suche nach Alternativen zu Photoshop hat also dazu geführt, dass sich mein Stil verändert hat, und dass meine Bildentwicklung effizienter geworden ist.

P8270174

P8270174  1

Oben von Apple Aperture automatisch entwickelte Aufnahmen ohne zusätzliche Einstellung (so ähnlich würde auch das JPEG aus der Kamera aussehen), darunter meine Entwicklung mit Topaz-Plugins und Photoshop-Ebenen. Die Realität stellen beide gleich wenig dar. Was euch besser gefällt, überlasse ich – natürlich – auch.

Ein paar weitere Beispiele mit mehr oder weniger deutlicher HDR-Ästhetik.

DSC8200

DSC5691

DSC7382

DSC9514

DSC1502

P8290525

P8260052

P9040251

Antwort

  1. Zum Thema „Wahrnehmung u. Realität“. Das fällt mir immer besonders bei meinen Nachtaufnahmen auf. Die „Realität“ die aus der Kamera heraus kommt (man möge mir hier mal glauben, dass ich diese richtig einstellen kann) hat mit der „Wahrnehmung“, sowohl für mich vor Ort, als auch für den unbeteiligten Bildbetrachter, nicht viel zu tun.
    Hier braucht es erst noch eine gehörige Portion „Bildverarbeitung“ bis Wahrnehmung und Realität übereinstimmt.

Kommentar verfassen

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Diese Website verwendet Akismet, um Spam zu reduzieren. Erfahre mehr darüber, wie deine Kommentardaten verarbeitet werden.