Di 24. Sep 2024, 21:40
Dackelohr hat geschrieben:Mir ist klar, dass man mit rechnerischen Korrekturen und Filterungen aus einem 61MP-Sensor ein hoch aufgelöstes Bild guter Qualität mit einem geringen Rauschen bekommt.
Es geht nicht um "rechnerische Korrekturen und Filternungen" sondern um das Herstellen vergleichbarer Messbedingungen. Die Rauschstärke ist vom betrachteten Frequenzband abhängig und höher auflösende Sensoren erfassen höhere (räumliche) Frequenzen, deshalb darf man nicht bei der gleichen Vergrößerung (100% Ansicht) vergleichen.
Bei einem Sensor mit größerer Pixeldichte verteilt sich die gleiche Lichtmenge auf mehr Pixel und daher muss die Pixel SNR selbstverständlich schlechter sein. Das kann gar nicht anders sein. Allerdings kann es genauso wenig sein, dass sich das stochastische Rauschen der Pixel beim Betrachten von mehreren Pixeln gegenseitig nicht weniger addiert, als dass dies für das sich konstruktiv addierende Signal der Fall ist. Positiv formuliert: Nicht konstruktives Rauschen der kleinen Pixel addiert sich nicht so gut wie das sich konstruktiv addierende Signal der kleinen Pixel.
Eine vergleichbare Vergrößerung ergibt sich natürlicherweise dadurch, dass man die Bilder von der hochauflösenden Kamera und der "Großpixelkamera" beide unter Benutzung des gleichen Ausgabeformats ausdruckt. Die zwei ausgedruckten Fotos werden sich dann nicht bzgl. des Rauschens unterscheiden, es sei denn man druckt sehr großformatig aus und wählt einen sehr kurzen Betrachtungsabstand, so dass dann das feinere Rauschen der hochauflösenden Kamera (und größere Bildetail) dem gröberen Rauschen der anderen Kamera gegenübersteht.
Dackelohr hat geschrieben:... eine insgesamt größere Pixelzahl des Sensors macht das effektive Gesamt-SNR nicht besser. Das ist Physik und die lässt sich nicht bescheißen.
Das stimmt einfach nicht für die Fälle, die wir bei der Fotografie betrachten, zumindest wenn man wie ich sinnvollerweise davon ausgeht, dass das meiste sichtbare Rauschen in Fotos durch die stochastische Natur des Lichts verursacht wird (-> Poisson Verteilung). Moderne Sensoren haben ein extrem niedriges Eigenrauschen und "High-ISO" Bilder sehen nicht deshalb so verrauscht aus, weil man primär das Elektronikrauschen sieht, sondern weil höhere ISO Einstellungen verringerten Lichteinfall implizieren (Blende wird kleiner und/oder Verschlusszeiten werden kürzer bei der gleichen Szene) und die stochastische Natur des Lichts sichtbarer wird. Es ist ja glaube ich allen klar, dass eine höhere ISO Einstellung keine höhere Sensorempfindlichkeit bewirkt, und bei ISO-invarianten Sensoren auch keine größere analoge Verstärkung impliziert. Ein höherer ISO Wert bedeutet (den dual-gain Architektureffekt mal ausgenommen) nur, dass die erfassten Zahlen (Photonenzählungen) durch Multiplikation vergrößert werden.
Hast Du die Abschnitte "But having too many MPixels doesn’t harm either" und "Per-pixel sensor noise" des
, den ich bereits verlinkt hatte gelesen? Man kann das auch alles mathematischer ausführen, leider ist der dazu beste Artikel nicht mehr online verfügbar.
Dackelohr hat geschrieben:- Moirés entstehen, wenn du Gitterstrukturen fotografierst, deren Abbild auf dem Sensor eine Gitterkonstante haben, die ähnlich zu der der Pixelmatrix ist. Das kann mit 61MP genauso passieren wie mit 36MP, braucht halt nur ein feineres Gitter. Die gleiche Seidenbluse aus größerer Entfernung fotografiert und du hast auch bei 61MP ein hübsches Moiré.
Wenn man nicht Äpfel mit Birnen vergleicht, sondern das Bildmotiv und den Kameraabstand gleich lässt, dann verringert sich die Gefahr der Moirébildung, weil Bildmotive normalerweise nicht unendliche feine Details haben, d.h., es eine größere Chance gibt, dass alle Bilddetails oberhalb der Gittergröße, die durch den Sensor definiert wird, liegen.
Außerdem sind Objektive Tiefpassfilter und größere Sensorauflösungen bewirken, dass die entsprechende Grenzfrequenz, die für Moirébildung nötig ist, erst bei größeren Blenden erreicht wird.
Wenn ein Sensor höher auflöst führt dies daher nicht dazu, dass Moiré einfach in anderen Situationen, aber insgesamt genauso oft, auftritt.
Dackelohr hat geschrieben:- Farbartefakte durch die Dematrizierung sind lange passé. Aktuelle Debayring-Algorithmen sind so ausgefuchst, dass da kaum visuelle Artefakte übrig bleiben, außer in bestimmten Grenzsituationen, unabhängig von der Auflösung.
Zumindest 2019 waren die Farbartefakte durch Dematrizierung noch nicht passé, wie man an den
(mit seinen großen Pixeln) erkennt (achte auf die bunte Schrift auf schwarzem Grund, die eigentlich weiß sein sollte).
Ob die Dematrizierungsalgorithmen seit 2019 so viel besser geworden sind, kann ich nicht sagen, aber es ist völlig klar, dass Verbesserungen nur durch besseres "Raten" möglich sind. Störende Artefakte werden ggf. weniger sichtbar sein, als dies bei älteren Algorithmen der Fall ist, aber kein Algorithmus kann räumliche Frequenzen, die über der Nyquistfrequenz liegen korrekt wiederherstellen. Hier hat ein hochauflösender Sensor glasklare Vorteile, auch wenn man später runterskaliert.
Dackelohr hat geschrieben:Deine Aussage zu den Freiheitsgeraden verstehe ich nicht: Was verstehst du unter "aus der Bildebene kippen"? Die Yaw- und Pitch-Bewegungen kippen den Sensor doch aus der Bildebene.
Diese Bewegungen der Kamera kippen den Sensor zwar aus der ursprünglichen Sensorebene, aber dies wird nicht durch Gegenkippen des Sensors kompensiert. Die Bildstabilisierung verschiebt für diese Fälle den Sensor lediglich in seiner XY-Ebene. Wenn man die Kamera z.B. nach unten kippt, scheint der Bildinhalt nach oben zu wandern. Dies kann man durch vertikales Verschieben des Sensors näherungsweise kompensieren. Die Kamera misst also zwar Drehbeschleunigungen, aber nur für die "Roll-Rotation" wird der Sensor um seine Z-Achse rotiert (konnte die K100D übrigens entgegen der Werbebehauptungen noch nicht, sie musste Roll-Rotationen unkompensiert lassen), für die anderen beiden Rotationsachsen wird der Sensor nur verschoben.