Digitalfotografie ist sowohl ein kreativer als auch ein technischer Prozess. Als Fotograf gestalte ich Bilder durch kreative Ideen, kreatives Sehen und kreative Gestaltung. Diese Aspekte kann ich aus eigener Erfahrung erklären. Zur kreativen Gestaltung muss ich in der Lage sein die Elektronik der Aufgabe entsprechend einzustellen. Auch das kann ich aus meiner Erfahrung beschreiben. In die optischen und elektronischen Prozesse der Aufnahme hingegen habe ich wenig Einblick. Um bei den diesbezüglichen Debatten mitreden zu können, muss ich recherchieren. Wie korrekt meine Schlussfolgerungen ausfallen ist von der Qualität der Quellen die ich finde abhängig.
Das Problem: Die Quellen sind in aller Regel Fotografen wie ich, und keine Experten in Design und Entwicklung der optischen und/oder elektronischen Systeme. Ich persönlich bin stets etwas vorsichtig in meinen Behauptungen, wenn ich in einer Sache nicht auf eigene Expertise, Erfahrung oder Tests/Vergleichstests zurückgreifen kann. Manche scheinen da weniger Zurückhaltung zu üben und in der Lage auch Halb- und Unwissen mit der Überzeugung des ausgewiesenen Experten vertreten zu können. Fatal, wenn es sich um bekannte und einflussreiche Blogger und Vlogger handelt! So wird aus Halbwissen vermeintliches Allgemeinwissen.
Vor einigen Monaten erhielt ich eine Mail, in der mich ein Leser von »die kreative Fotoschule« auf einen Fehler in meiner Beschreibung der Zusammenhänge von Pixelgröße und Rauschverhalten hinwies. Ich hatte geschrieben (gekürzt):
»20 MP ergeben bei einem Vollformatsensor eine Pixelgröße von etwa 6,5 Mikrometer, bei einem MFT-Sensor ungefähr 3,3 Mikrometer und bei einem für Smartphones gebräuchlichen Sensorformat knapp 1,2 Mikrometer. Dabei verbessert mehr Pixelgröße nicht nur das Rauschverhalten, sondern ebenso die Fähigkeit des Sensors, Licht einzusammeln.«
Dazu schreibt der Leser:
»Größere Pixel rauschen mehr, nicht weniger, aber der Signal-Rausch-Abstand wird besser, weil mehr Energie für das Signal zur Verfügung steht. Rauschen ist in jeder elektronischen Schaltung zu finden, so auch in Bildsensoren. Das ist in erster Linie thermisches Rauschen (leg Deine Olympus eine halbe Stunde in die Sonne und mach dann ein Bild in dunkler Umgebung).«
Der Leser stellte sich Martin Jaiser vor, Ingenieur mit mehreren Jahren Erfahrung in der technischen Applikationsunterstützung von Bildsensoren, primär für den industriellen Bereich. Für mich eine Chance einmal Know-how aus einer erfahrenen Quelle anzuzapfen. Ich bedanke mich bei Martin, dass er das Grundwissen für diesen Artikel mit mir geteilt und mich bei der Formulierung unterstützt hat.
In den Communitys wird meist über Kameras gesprochen, als bestünden sie lediglich aus einem Sensor in einem Gehäuse. Der Sensor alleine macht aber noch kein Bild – er liefert lediglich Lichtintensitätsmessungen. Damit aus dieser Messung ein Foto wird, bedarf es einer Software die aus den Daten ein Bild berechnet, sowie Prozessoren auf denen die Software laufen kann, samt der dazugehörenden Peripherie. Das erklärt auch, weshalb beispielsweise Olympus in der Lage war über mehrere Jahre aus demselben Bildsensoren immer bessere Resultate herauszuholen – die Prozessoren wurden schneller, die Software leistungsfähiger.
Ursachen für Bildrauschen
Ich war bisher der Ansicht, dass ein Bildsensor grundsätzlich ein relativ klares Bild sieht und Bildrauschen erst entsteht, wenn beispielsweise die Empfindlichkeit angehoben wird. Wie ich nun weiß, ist dies Vorstellung falsch!
Bilder werden von Licht transportiert. Dioden auf Bildsensoren empfangen das Licht in Form von Photonen. Die eintreffenden Photonen reißen Elektronen aus ihren Verbünden in den Photodioden und erzeugen dadurch einen Lichtimpuls. Diese Lichtimpulse werden dann als elektrisches Signal an die bildverarbeitende Elektronik der Kamera geleitet. Leider gibt es mehrere Faktoren die das Bildsignal stören bzw. überlagern und diese Störsignale werden in der Aufnahme als Bildrauschen sichtbar, wenn zu viele das Bildsignal überlagern.
Thermisches Rauschen: Die wesentlichste Ursache für Störungen ist thermische Energie – Wärme. Je wärmer die Elektronik, desto mehr Bildrauschen entsteht. Den meisten erfahrenen Fotografen wird das bewusst sein. Wer die Probe aufs Exempel machen will, folgt Martins Rat, macht ein Foto, legt die Kamera einige Zeit in die Sonne, und fotografiert dieselbe Szene noch einmal – die zweite Aufnahme wird mehr Rauschen zeigen.
Wärme wirkt allerdings nicht nur durch die Umgebung auf den Bildsensor und seine Peripherie ein, sondern entsteht auch durch die Elektronik selbst. Deshalb ist das Design der Kamera nicht ganz irrelevant für das Entstehen von Bildrauschen. Ein kleiner MFT-Sensor mit 20MP in einem vergleichsweise großen Gehäuse kann diesbezüglich gegenüber einer Vollformatkamera mit 40MP in einem auf Kompaktheit getrimmten Body durchaus im Vorteil sein, denn die höhere Auflösung erfordert mehr Power für die Rechenoperationen, was mehr Wärme erzeugt, die bei dichter aufeinander gedrängten Komponenten wieder stärker auf den Sensor übertragen wird.
Shot Noise: Zum thermischen Rauschen hinzu gesellt sich, dass Photonen den Sensor zufällig gestreut erreichen. Durch die zufällige Streuung kann eine bestimmte Diode ein paar Photonen mehr, die benachbarte ein paar weniger abbekommen, was die Lichtmessung verfälscht und zum Rauschen beiträgt. Je größer die Pixel, desto mehr relativiert sich diese Streuung.
Um eine möglichst gleichmäßige Lichtmessung zu erhalten müssen außerdem vor der Aufnahme alle Dioden auf Null zurückgesetzt werden. Das gelingt nicht für alle gleich – ein weiterer Faktor der zum Entstehen von Bildrauschen beiträgt.
Pattern Noise: Ebenso eine Rolle spielen Fertigungstoleranzen bei der Herstellung der Sensoren. Zwar sind die Herstellungsprozesse heutzutage ausgesprochen präzise, dennoch lassen sich Abweichungen der Pixelgrößen nicht vollständig vermeiden. Auch diese Unterschiede führen zur Verunreinigung der Signalstärke und tragen einen Teil zum Entstehen von Bildrauschen bei.
Quantisierungsrauschen: Ein weiterer Faktor findet sich in den ADCs – den Analog-Digital-Konvertern. Digitale Systeme verstehen nur Nullen und Einsen – Strom / kein Strom. Wir kennen das als »Bit«. Für differenziertere Informationen werden Bits kombiniert. In der Digitalfotografie ermöglichen 2 Bit 4 Tonwerte, 3 Bit 8, 4 Bit 16 usw. – ein 8 Bit Graustufenbild kann 256 unterschiedliche Tonwerte enthalten.
Sensoren liefern den Strom der Elektronen jedoch nicht abgestuft, sondern als kontinuierlichen (stufenlosen) Fluss. Nehmen wir an das Signal eines Sensors würde von 0V bis 8V reichen und wir wollen es in 8 Stufen erfassen. Dann brauchen wir eine elektronische Schaltung, die daraus ganze Zahlen macht: Aus 0 bis 1V wird 0; von 1V bis 2V wird 1 ausgegeben; von 2V bis 3V wird 2 ausgegeben – usw. Von 7V bis 8V wird 7 ausgegeben. Inklusive des Werts 0 sind das 8 Stufen. Eine Schaltung, die so etwas macht, nennt man Analog-Digital-Converter – kurz: ADC.
In der Praxis relativiert sich das natürlich, da die reale Spannung ja nicht wie in unserem Beispiel in 8 Stufen (3 Bit) quantisiert wird, sondern in 10 Bit (1024 Stufen), 12 Bit (4096 Stufen) oder 14 Bit (16.384). In einer so feinen Abstufung kann das menschliche Auge die Schwankungen der Quantisierung nicht mehr wahrnehmen. In Summe mit den davor beschriebenen Ursachen für Rauschen trägt das Qualtisierungsrauschen dennoch einen Teil zum Gesamtrauschen, weshalb es auch nicht unerwähnt bleiben darf.
Zufälliges Rauschen: Und zuletzt wäre da noch ein Faktor den man zufälliges Rauschen nennt. Wenn eine Spannung exakt an der Schwelle liegt, also z.B: genau 4V, so kann der ADC entweder 3 oder 4 ausgeben. Ob als Resultat der kleinere oder größere Wert ausgegeben wird, lässt sich nicht vollständig sicher vorherbestimmen. So kann beispielsweise ein ADC in diesem Beispiel bei exakt 4V 3 ausgegeben, ein anderer der gleichen Bauart hingegen 4, und zwar aufgrund winziger Unterschiede in der Fertigung. Es geht sogar soweit, dass ein und der selbe ADC möglicherweise bei 10 Messungen achtmal den Wert 3 und zweimal den Wert 4 ausweist. Auch das trägt zum Rauschen bei.
Mehr Rauschen, als Bild!
Alles zusammen führt dazu, dass der Bildsensor selbst unter optimalen Bedingungen von starkem Rauschen überlagerte Aufnahmen an die Elektronik übergibt. Es ist die Aufgabe clever programmierter Software das Bildsignal zwischen den Störsignalen überhaupt erst zu finden und es vom Rauschen zu trennen. Ohne die Tricks die dabei angewendet werden, würde man vor lauter Rauschen gar kein Bild sehen. Deshalb finden erste Rauschalgorithmen bereits auf dem Image-Sensor Anwendung, lange bevor die Signale die RAW-Engine erreichen. Weitere Algorithmen finden dann in den Bildprozessoren statt.
Bei der Wahl und Programmierung der Algorithmen kocht natürlich jeder Hersteller sein eigenes Süppchen und die Rezepte sind Firmengeheimnisse. Das macht es für Außenstehende schwierig bis unmöglich zu beurteilen, wie die RAW-Daten zustande kommen. Als Laie hat man kaum eine Möglichkeit zu beurteilen, welche Rolle die Optik spielt, welchen Anteil der Sensor hat und was für einen Einfluss die Software nimmt.
Signal-Rausch-Abstand (Signal-to-noise-ratio, kurz SNR).
Bei kräftigem Umgebungslicht erhält der Sensor ein starkes Signal. Das Signal-zu-Rauschen-Verhältnis ist gut und es fällt der Software leicht die Bildinformation von den durch die oben beschriebenen Faktoren entstehenden Störungen zu trennen und ein rauscharmes Bild zu interpretieren.
Weniger Umgebungslicht liefert dem Sensor ein schwächeres Bildsignal. Das verschlechtert das Signal-zu-Rauschen-Verhältnis und der Software fällt es schwerer das eine vom anderen zu trennen – in der Aufnahme wird Rauschen sichtbar.
Um bei schwachem Umgebungslicht ausreichend kurze Verschlusszeiten für verwackelungsfreie Aufnahmen aus freier Hand zu ermöglichen bzw. Bewegungsunschärfe zu vermeiden, heben wir die ISO-Empfindlichkeit an. In der Digitalfotografie führt das zu einer Verstärkung der Signale. Das verstärkt natürlich nicht nur die Bild-, sondern auch die Störsignale, mit dem Resultat, dass auch das Rauschen in der Aufnahme zunimmt.
Eine derzeit populäre Erzählung über die Überlegenheit größerer Bildsensoren gegenüber kleineren lautet, dass auf größerer Fläche mehr Photonen eintreffen als auf einer kleineren. Daraus ergibt sich ein besseres Signal-zu-Rauschen-Verhältnis, das Motiv tritt gegenüber den Störsignalen deutlicher heraus und kann von der Software klarer interpretiert werden. Das ist zunächst einmal eine physikalische Tatsache. Der Schluss, dass der viermal so große Vollformatsensor deshalb quasi um das Vierfache bessere Aufnahmen liefert als ein MFT-Sensor stellt allerdings eine Simplifizierung dar, die mit der physikalischen und technischen Realität wenig zu tun hat.
Zunächst einmal ist nicht die Größe des Sensors ausschlaggebend, sondern die Größe der Sensorzellen darauf. Auf einem Vollformatsensor mit 20MP kann eine Sensorzelle überschlagsmäßig etwa viermal so groß ausfallen, wie auf einem MFT-Sensor mit 20MP, womit sie durchschnittlich tatsächlich die vierfache Photonenmenge empfängt – ein Vorteil der durchaus relevant ist. Je höher jedoch der Vollformat- gegenüber dem MFT-Sensor aufgelöst ist, desto mehr relativiert sich das. Bei einem 80MP Vollformatsensor beispielsweise wäre die Pixeldichte so hoch, wie bei einem 20MP MFT-Sensor und somit auch das Signal-zu-Rauschen-Verhältnis identisch.
Natürlich hätte der 80MP Vollformatsensor gegenüber MFT mit 20MP noch immer den Vorteil das Motiv viermal so detailliert aufzuzeichnen, und bei einer Reduzierung der Bildauflösung auf 20MP ein etwas klareres Bild zu ergeben. Doch die Unterschiede der Detailqualität sind in der Praxis überschaubar, was meine Praxistests, unter anderem mit einer Vollformatkamera mit 60MP, gezeigt haben (Olympus OM-D E-M1III vs. Sony A7 III und Sony A7R IV vs. Olympus OM-D E-M5 II). Der aus der größeren Menge Photonen resultierende bessere Signal-Rausch-Abstand größerer Sensoren bzw. Sensorzellen ist tatsächlich ein wesentlicher Faktor für klarere, rauschfreiere Bilder, allerdings bei weitem nicht in dem Ausmaß, wie es die kursierenden plakativen Beschreibungen und Visualisierungen die im Netz kursieren nahe legen.
Die meisten Diskussionen über das Sensordesign und seine Bedeutung für die Bildqualität sind reine Spekulationen von Laien über ein Thema, von dem sie wenig verstehen. Abgesehen von dem Kontakt, den ich glücklicherweise zu Martin bekommen habe, ist mir keine Quelle bekannt, in der ein echter Entwickler von Sensoren, Kameraelektronik und/oder Kamerasoftware die Prozesse erklärt. Und ehrlich gesagt: Selbst wenn, würde ich es kaum verstehen. Martin hat zwar versucht, mir die Sache für Dummies zu erklären, doch trotzdem war es für mich als kreativen Anwender mit nicht dem geringsten Verständnis für die Arbeitsweise elektronischer Schaltkreise schwer, zumindest die grundlegendsten Zusammenhänge zu verstehen.
Software und Bildentstehungsprozess
Der Anteil der Software an der Bildentstehung ist ein Aspekt, der in den Debatten über die Technik in der Digitalfotografie kaum einmal thematisiert wird. Es wird davon ausgegangen, dass im RAW-Format Motive so festgehalten werden, wie der Bildsensor sie gesehen hat. Tatsächlich jedoch enthalten auch RAW-Dateien lediglich Interpretationen der vom Sensor gelieferten Signale.
Zu diesen Interpretationen gehört beispielsweise, dass aus den 2,5 Millionen Pixeln für Rot, 2,5 Millionen Pixel für Blau und 5 Millionen Pixel für Grün bei einem Bayer-Matrix-Sensor 10 Millionen RGB-Pixel werden. Theoretisch dürfen je ein Rot-, ein Blau- und die beiden Grünpixel nur jeweils einen RGB-Pixel ergeben, also in diesem Fall 2,5 Millionen Pixel (2,5MP). In der Praxis jedoch berechnen die Kameras daraus 10MP, was eigentlich eine Interpolation darstellt.
Man darf sich allerdings nicht vorstellen, dass das dieselbe Art Interpolation ist, wie wir sie anwenden, wenn wir in Photoshop von 2,5MP auf 10MP aufblasen. Die Sache ist doch etwas komplexer. Es ist nicht dasselbe, ob zur Berechnung einer Aufnahme 2,5 Millionen RGB-Pixel bereit stehen, oder 10 Millionen Pixel in Rot, Grün und Blau.
Die Entwickler der Digitalkameras lassen sich Einiges einfallen, um mittels komplexer Algorithmen das beste aus den von den Bildsensoren gelieferten Daten herauszuholen. Die Trennung von Bildinformation und Rauschen ist dabei natürlich von besonderer Bedeutung, weshalb auch Rauschreduzierung eine zentrale Rolle spielt.
Die Entstehung der Aufnahmen, die wir am Ende des Prozesses als JPEG oder im RAW-Konverter zu Gesicht bekommen, ist ein außerordentlich komplexer Prozess. Daraus einzelne Aspekte herauszureißen, um zu begründen, weshalb dieses oder jenes System anderen überlegen ist, geht an der praktischen Realität meist weit vorbei.
Ein Bild sagt mehr, als tausend Worte! Wenn es um Bildqualität geht, kann ich dem nur voll und ganz zustimmen. Viel sinnvoller, als endlos in den Communitys darüber zu diskutieren, aufgrund welcher Theorie System X besser ist als System Y, sollten die Anwender die Systeme anhand gleicher Motive und Bedingungen in der Praxis vergleichen. Sie werden feststellen, dass sich Unterschiede, die in der Theorie der Größe eines Elefanten zu haben scheinen, in der Praxis doch kaum mehr als einer Mücke entsprechen. Zumindest haben das meine Tests immer wieder gezeigt.
Kommentar verfassen