Warning: Illegal string offset 'url' in /www/htdocs/v241758/phpBB2/includes/page_header.php on line 514
Warning: Illegal string offset 'title' in /www/htdocs/v241758/phpBB2/includes/page_header.php on line 514
Warning: Illegal string offset 'url' in /www/htdocs/v241758/phpBB2/includes/page_header.php on line 514
Warning: Illegal string offset 'title' in /www/htdocs/v241758/phpBB2/includes/page_header.php on line 514
Warning: Illegal string offset 'url' in /www/htdocs/v241758/phpBB2/includes/page_header.php on line 514
Warning: Illegal string offset 'title' in /www/htdocs/v241758/phpBB2/includes/page_header.php on line 514
Warning: Illegal string offset 'url' in /www/htdocs/v241758/phpBB2/includes/page_header.php on line 514
Warning: Illegal string offset 'title' in /www/htdocs/v241758/phpBB2/includes/page_header.php on line 514
Warning: Illegal string offset 'url' in /www/htdocs/v241758/phpBB2/includes/page_header.php on line 514
Warning: Illegal string offset 'title' in /www/htdocs/v241758/phpBB2/includes/page_header.php on line 514
Warning: Illegal string offset 'url' in /www/htdocs/v241758/phpBB2/includes/page_header.php on line 514
Warning: Illegal string offset 'title' in /www/htdocs/v241758/phpBB2/includes/page_header.php on line 514
Warning: Illegal string offset 'url' in /www/htdocs/v241758/phpBB2/includes/page_header.php on line 514
Warning: Illegal string offset 'title' in /www/htdocs/v241758/phpBB2/includes/page_header.php on line 514 DigitalFotoNetz.de :: Thema anzeigen - Fomag-Test: Eingangsdynamik und Rauschniveau
So spannend das Ganze auch ist, ich muss mich kürzer fassen...
« ToGe » hat folgendes geschrieben:
Am Rande: Wegen der Quantisierung mit 12 Bit ist der kleinstmögliche Unterschied, den man fordern kann, 1/4096.
So weit richtig?
Nein.
Alle Zwischenwerte werden durch das Rauschen erzeugt, ähnlich dem Dithern beim Drucken. Daher ist auch immer zu fordern, dass das letzte übertragene Bit rauscht.
« ToGe » hat folgendes geschrieben:
Deshalb sehe ich nicht, warum die Eingangsdynamik von der Featurefrequenz abhängen soll.
Tut sie aber. Zur Not einfach mal ausprobieren (in Photoshop mit 32 Bit-Bildern arbeiten und sukzessive downsamplen).
« ToGe » hat folgendes geschrieben:
Wo hast du deine Information denn her?
Das Ganze ist doch noch Schulphysik.
Möglicherweise haben wir auch ein Missverständnis vorliegen, wenn Du diese Publikationen zitierst. Ich sage z.B. nicht, dass Shott-Rauschen eine niederfrequente Anregungskomponente hat (hat es sicher nicht, die Pixel rauschen unkorreliert).
Ich sage, dass man das Rauschen über den gesamten Ortsfrequenzbereich betrachten möge.
Schulphysik an:
Die Fourriertransformierte eines Dirac-Impulses ist das gleichförmige Spektrum, richtig? Deshalb hat auch ein einziges rauschendes Pixel einen Rauschanteil bei allen Ortsfrequenzen.
Schulphysik aus.
Das alles ist im Audionereich genauso. Wo das Rauschen herkommt, ist doch egal. Auch im Audiobereich kann Rauschen signalabhängig sein, daher misst man dort das sog. Ruherauschen zusätzlich zum Signal-Rauschabstand, welcher wiederum bei genormter Signalstärke (nämlich bei gegebenem Klirrfaktor) gemessen wird. Auf Imaging bezogen würde man also Schwarz- und Weissrauschen getrennt messen. Das Pendant zum Klirrfaktor sind ausfressende (lies: nichtlineare) Farben.
Geschlecht: Alter: 47
Mitglied seit: 31.01.2006
Beiträge: 1323
Wohnort: Karlsruhe
Kamera: ja
Zubehör: auch
Verfasst am:
09. Mai. 2008, 08:42 • (Kein Titel)
« falconeye » hat folgendes geschrieben:
« ToGe » hat folgendes geschrieben:
Deshalb sehe ich nicht, warum die Eingangsdynamik von der Featurefrequenz abhängen soll.
Tut sie aber. Zur Not einfach mal ausprobieren (in Photoshop mit 32 Bit-Bildern arbeiten und sukzessive downsamplen).
"Tut sie aber" ist für mich leider kein besonders überzeugendes Argument. Und der skizzierte Versuche zeigt nur, wie man sowohl die maximale Feature- als auch die maximale Rauschfrequenz halbiert. Den Zusammenhand zur Eingangsdynamik sehe ich nicht.
« falconeye » hat folgendes geschrieben:
Schulphysik an:
Die Fourriertransformierte eines Dirac-Impulses ist das gleichförmige Spektrum, richtig? Deshalb hat auch ein einziges rauschendes Pixel einen Rauschanteil bei allen Ortsfrequenzen.
Schulphysik aus.
Das könnte man auch anders sehen: Wenn du nur ein einzelnes Pixel betrachtest, gibt es nur eine einzige Ortsfrequenz.
Ich bin jetzt fünf Tage nicht da. Da ich ebenfalls sehr interessiert an diesem Thema bin, wäre ich dir sehr dankbar, wenn du bei Gelegenheit nochmal ausführlicher auf mein vorhergehendes Posting (http://forum.digitalfotonetz.de/viewtopic.php?p=609657#609657) eingehen könntest. _________________ BRGDS/TOM.
Ich bin jetzt fünf Tage nicht da. Da ich ebenfalls sehr interessiert an diesem Thema bin, wäre ich dir sehr dankbar, wenn du bei Gelegenheit nochmal ausführlicher auf mein vorhergehendes Posting eingehen könntest.
Hallo ToGe, ich werde versuchen, daran zu denken. Könntest Du bei Gelegenheit noch etwas über dein diesbzgl. einschlägiges Vorwissen kundtun? Ich denke nämlich, die Sachverhalte an sich sind eher einfach, nur das Finden der gemeinsamen Sprache nicht. Sagt Dir z.B. "Konvolution" oder "Fouriertransformierte der Dirac-Funktion" etwas? Ich frage, da ich die Begriffe meist in ihrer mathematischen Bedeutung verwende, die in der Umgangssprache dann vielleicht anders besetzt sind.
"Eingangsdynamik" ist z.B. zwar natürlich ein umgangssprachlicher Begriff, aber "16 Bit" trotz nur "12 Bit" genauen Daten erscheinen umgangssprachlich halt paradox.
Geschlecht: Alter: 47
Mitglied seit: 31.01.2006
Beiträge: 1323
Wohnort: Karlsruhe
Kamera: ja
Zubehör: auch
Verfasst am:
14. Mai. 2008, 10:01 • (Kein Titel)
Hallo falconeye, mir sagen alle drei Begriffe etwas. Ich habe mich im Studium mit Informations- und Kodierungstheorie beschäftigt, privat mit Interpolations- und Entrauschungsverfahren, und geschäftlich notgedrungen ein wenig mit Statistik. Mein Problem ist eher, dass ich deine Argumentationsketten nicht konkludent finde. Ob das daran liegt, dass deine Schlüsse falsch sind, oder ob deine Gedankensprünge zu groß sind, kann ich nicht beurteilen. Meine Vermutung ist aber: Wenn du dir ein wenig mehr Zeit nimmst, um deine Beiträge sorgfältiger auszuformulieren, dann kommen wir schneller zum Ziel. (Die Antwortlaufzeit ist dabei nicht so wichtig - wir haben diesen Thread ja mittlerweile für uns ) _________________ BRGDS/TOM.
Verfasst am:
15. Mai. 2008, 01:24 • Rausch, Teil 1
« ToGe » hat folgendes geschrieben:
wir haben diesen Thread ja mittlerweile für uns )
Ok, ich hoffe, es liest wirklich niemand mehr mit
Dies ist jetzt nur die Vorbereitung auf die eigentliche Antwort. Die Mathematik stammt von mir, ich hoffe, man versteht es trotzdem. Die Mathematik ist ein wenig vereinfacht (z.B. 1-dimensional), aber egal.
Im folgenden benutze ich x als Ortsvariable (die relative Pixelposition), d als Pixelgrösse (also <1), und k als Ortsfrequenz (>0). Die Nyquistfrequenz liegt hier bei 2*pi/d.
Zunächst nehmen wir mal an, das Bild habe ein Pixel mit leichter Unschärfe von 1/2 Pixel, z.B. durch ein Antialias-Filter. Also:
f(x):
(für d=1 gemalt, man denke sich die x-Achse mit d multipliziert).
Entsprechend hat ein Rauschpixel (voller Stärke) die Form:
p(x):
Die Fouriertransformierte eines Pixels (Stichwort: Treppenfunktion) lautet:
p(k):
Das entsprechende Powerspektrum (Absolutbeträge der Koeffizienten über die Ortsfrequenz k) sieht in einem Log-Log Plot dann so aus:
p(k):
(für d=1 gemalt, man denke sich die x-Achse durch d dividiert).
Die Nyquist-Frequenz ist als Nullstelle sichtbar.
Die Auflösung könnte man als inverse Ortsfrequenz definieren, bei dem die Kurve erstmalig einen kritischen Wert, z.B. 0.01, unterschreitet.
Das Powerspektrum des Bildes (s.o.) ergibt sich als Überlagerung und sieht im gleichen Log-Log Plot so aus:
f(k):
Man sieht, dass durch die "Verschmierung" der leichten Unschärfe von 1/2 Pixel die Auflösung wie erwartet gesunken ist, und zwar gleich auf die Hälfte (das sieht bei anderen Verschmierungskoeffizienten nicht ganz so drastisch aus). Es interessiert uns also nur der Bereich links von 3.14.
So, und nun basteln wir unser "verrauschtes" Signal f':
f'(x) = 0.9 f(x) + 0.1 p(x)
D.h. wir packen auf unser ursprüngliches Signal 10% Pixelrauschen (und normieren).
Aufgrund der Eigenschaften der Fouriertransformation ist es nun egal, ob wie die Abweichung d im Ortsfrequenzraum oder Orstraum betrachten.
d(k) = |f(k) - f'(k)|
Das Powerspektrum der durch das Rauschen induzierten Abweichung sieht nun im gleichen Log-Log Plot so aus:
d(k):
Wie man sieht, ergibt sich (im interessanten Teil links von 3.14) ein grosser Rauschanteil bis hinunter zu etwa 1 (und zu noch kleineren Ortfrequenzen, sprich grösseren Featuregrößen, wenn man nicht bei 0.01 entspr. 6 Bit abschneidet).
Dies ist die Basis meines Arguments, welches ich in einem folgenden Posting ausführen möchte: Selbst das Rauschen unkorrelierter Pixel trägt zum Rauschen bei niedrigen Ortsfrequenzen erheblich bei und senkt zudem die effektive Auflösung (da man die Differenz aus f und d für den Signal-Rausch-Abstand betrachten muss).
Auf Wunsch gibt es alle Berechnungen als Mathematica Rechenblatt zum Nachrechnen
Verfasst am:
15. Mai. 2008, 11:44 • Rausch, Teil 2
Ok, das Schwierigste liegt schon hinter uns
Dies ist nun Vorbereitung, Teil 2. Ich will hier versuchen, das Gleiche wie oben, aber ohne Formeln, zu sagen.
Wir betrachten mal ein Bild mit Pixeln, deren Helligkeitswerte alle zwischen 0 und 254 liegen sollen. Ferner sollen diese Werte rauschen, und zwar jeweils um +/-1. D.h., die Pixel sind 8 Bit genau, das letzte Bit ist dabei verrauscht. Farbrauschen lassen wir mal aussen vor.
Ich würde dies nun gerne wie folgt formulieren:
- Das Signal liegt bei 0 ... 1
- Das Quantisierungsrauschen (wegen der ganzzahligen 8-Bit Werte) liegt im Mittel bei 1/512 oder 0.0020.
- Das Pixelrauschen (das eigentliche Rauschen) liegt im Mittel bei 1/256 oder 0.0040 (bezogen auf das maximale Signal).
- Das Rauschen insgesamt ist die Norm beider Terme, also 0.0045.
- Der Signal-Rauschabstand (SNR) beträgt 222 oder 7.8 Bit.
Jetzt könnte man gemäß des Beitrags oben Signal und Rauschkurve über den Ortsfrequenzen auftragen. Oben steht, was dabei in etwa herauskäme.
Alternativ können wir aber auch das Folgende tun:
Wir tragen den Signalwert und den Rauschwert bei der halben Nyquistfrequenz des Bildes als jeweils nur 2 Punkte ein, 1 und 0.0045.
Nun halbieren wir die Auflösung des ursprünglichen Bildes per Supersampling. Dabei addieren wir jeweils 4 Nachbarpixel zu einem Neuen.
Die neuen Pixel haben die folgenden Eigenschaften:
- Werte zwischen 0 und 1020 (also schon 10 Bit Genauigkeit...) -- wegen des Rauschens kommen auch alle Zwischenwerte tatsächlich vor, selbst wenn das Signal selbst über die 4 Pixel konstant war.
- Rauschen +/-2 (man sollte +/-4 vermuten, aber wegen der statistischen Unabhängigkeit ist die Norm über die Einzelterme zu bilden, und SQRT(1^2+1^2+1^2+1^2)=2).
Also:
- Das Signal liegt bei 0 ... 1
- Das Quantisierungsrauschen (wegen der ganzzahligen 10-Bit Werte) liegt im Mittel bei 1/2048 oder 0.0005.
- Das Pixelrauschen (das eigentliche Rauschen) liegt im Mittel bei 2/1024 oder 0.0020.
- Das Rauschen insgesamt ist die Norm beider Terme, also 0.0021.
- Der Signal-Rauschabstand (SNR) beträgt 476 oder 8.9 Bit.
Wir tragen den Signalwert und den Rauschwert bei der halben Nyquistfrequenz des Bildes, also 1/4 der ursprünglichen Nyquistfrequenz, als jeweils nur 2 Punkte ein, 1 und 0.0021, ein.
Per fortgesetzter Halbierung bekommen wir nun ebenfalls eine komplette Signal und Rauschkurve, die qualitativ der des Teils 1 entspricht (1 Bit Gewinn im SNR per Halbierung der Ortsfrequenz bzw. Verdoppelung der betrachteten Featuregröße), aber intuitiver zu verstehen ist.
Teil 2 ist ein Gedankenexperiment (fortgesetzte Halbierung des Bildes), bzw. Verdoppelung des Betrachtungsabstandes.
Teil 1 diente dem Nachweis, dass das Ergebnis unabhängig vom Gedankenexperiment ist, d.h., Rauschen und Eingangsdynamik hängen tatsächlich immer von der Featuregröße (lies: der Ortsfrequenz) ab.
solche Erklärungen finde ich wirklich vorbildlich, da macht es sogar mir wieder Spass, mich mit Physik zu beschäftigen.
Apropos Rauschen: Inwieweit spielt eigentlich die Umgebungstemperatur für die digitalen Entrauschungsalgorithmen eine Rolle? Ich habe bisher keinen grossen Unterschied bemerkt zwischen Sommer und Winter. Aber ich fotografiere auch kaum Konzerte bei -20 Grad
fibbo _________________ "Corona = 1) Beer brand name, 2) common virus species 3) biggest intelligence test worldwide ever 4) Crime of the century
Zuletzt bearbeitet von fibbo am 15. Mai. 2008, 13:42, insgesamt einmal bearbeitet
Also ich hab alles kapiert, ihr nicht?
[...]
Falconeye, wenn Du es uns Halbaffen wirklich klar machen willst dann probier das mal auf die Art hier:
http://www.iap.uni-bonn.de/P2K/bec/temperature.html
solche Erklärungen finde ich wirklich vorbildlich, da macht es sogar mir wieder Spass, mich mit Physik zu beschäftigen.
Hallo fibbo, ToGe hatte versprochen, dass hier sonst keiner mehr mitliest
Ihr hört hier sozusagen gerade zwei Mathematikern beim Gespräch zu. Kann ja auch unterhaltsam sein
Was die "allgemeinverständliche" Variante angeht. Nun Temperatur kann man ja noch trivial erklären, aber versuchs mal mit dem Bose-Einstein-Kondensat, um das es beim Link ja eigentlich geht... Oder der Begründung, warum die Heisenbergsche Unschärferelation eine logische Folge des Dualitätprinzips ist (das ist nämlich der Frage hier schon ähnlicher...).
Gewisse Dinge kann man allgemeinverständlich zwar beschreiben, aber man muss die Ausführung dann einfach glauben. Geht man einen Schritt weiter (was ToGe und ich hier zu tun beschlossen haben), ist es nicht mehr allgemeinverständlich. Aber all jene mit dem Vorwissen, folgen zu können, erlangen echtes Verständnis oder die Chance, echte Fehler in der Argumentation zu finden. Darum geht es hier ja, nämlich:
Ich lege meine Karten offen auf den Tisch.
Und es geht nicht um Halbaffen. Jeder hat halt so sein Spezialgebiet
Falls ToGe und ich uns einig werden, können wir ja mal ein allgemeinverständliches Resümee posten. Daran soll es nicht scheitern. Bis dahin bitte einfach weglesen
Falls ToGe und ich uns einig werden, können wir ja mal ein allgemeinverständliches Resümee posten. Daran soll es nicht scheitern. Bis dahin bitte einfach weglesen
gute Idee ... im Moment gehts mir bischen wie Heisenberg:
je mehr ich von diesem Thread lese umso unbestimmter wird meine Vorstellung worum es geht _________________ bekennender PEN-Bruder
meine aktuellen Bilder
meine Bilder
meinePentax Ausrüstung
Apropos Rauschen: Inwieweit spielt eigentlich die Umgebungstemperatur für die digitalen Entrauschungsalgorithmen eine Rolle? Ich habe bisher keinen grossen Unterschied bemerkt zwischen Sommer und Winter. Aber ich fotografiere auch kaum Konzerte bei -20 Grad
Das in hellen Bereichen überwiegende Photonenrauschen ist temperaturunabhängig.
Das in dunklen Bereichen durchaus relevante Dunkelstromrauschen und Ausleserauschen ist hingegen stark temperaturabhängig. Beim CCD-Dunkelstromrauschen spricht man von einer Vergrößerung des Rauschens um SQRT(2) je 6°-9° Temperaturerhöhung (vgl. z.B. http://www.theta-system.de/Datasheet/SISm30bi.pdf). Für das Ausleserauschen habe ich keine Formel parat. Wenn es rein thermisches Rauschen ist, wächst das Rauschen im Auslesestrom proportional zu SQRT(T) mit der absoluten Temperatur T. Also zwischen 0° und 40° nicht sehr stark. Jedenfalls werden die CCD-Chips in der Astrophysik gekühlt.
Meines Wissens ist es den Entrauschungsalgorithmen aber piepegal, wo das Rauschen herkommt.
Zuletzt bearbeitet von falconeye am 15. Mai. 2008, 16:36, insgesamt einmal bearbeitet
...Jedenfalls werden die CCD-Chips in der Astrophysik gekühlt.
na dann wird es wohl in einigen Jahren gekühlte Kompaktknipsen mit 32Mp geben, wenn der MP-Wahnsinn noch weiter geht. Und ich hatte schon gehofft dass damit jetzt Schluss ist
fibbo _________________ "Corona = 1) Beer brand name, 2) common virus species 3) biggest intelligence test worldwide ever 4) Crime of the century
na dann wird es wohl in einigen Jahren gekühlte Kompaktknipsen mit 32Mp geben, wenn der MP-Wahnsinn noch weiter geht. Und ich hatte schon gehofft dass damit jetzt Schluss ist
Hoffe weiter. Die Kompaktknipsen haben derart winzige Pixel, dass das Photonenrauschen ohnehin überwiegen wird und dann hilft auch kein Kühlen mehr
So, nachdem Teil 1 und 2 der Vorbereitung dienten (und den Eindruck erweckten, der Faden sei verloren gegangen), hier nun zurück zum eigentlichen Thema: Eingangsdynamik und Rauschen.
Die folgenden Fragen sollen schliesslich beantwortet werden, die im Thread zuvor explizit für Widerspruch sorgten und wo ich ggfs. falsch liege:
Wieso hat ein einzelnes Pixel nicht auch nur eine einzige Ortsfrequenz?
Wie kann überhaupt die Dynamik die Bittiefe übersteigen?
Warum ist die Eingangsdynamik auf Pixelebene kein sinnvoller Messwert?
Wenn das alles wahr ist, wie sähe denn dann eine sinnvolle Definition von Eingangsdynamik und Rauschen aus?
ToGe möge weitere Fragen anfügen.
Der Reihe nach:
Wieso hat ein einzelnes Pixel nicht auch nur eine einzige Ortsfrequenz?
Nun, das wollte ich in Teil 1 erklären. Dies ist eine Folge der unintuitiven Eigenschaften der Fouriertransformation. Ein infinitesimal kleines Pixel hat übrigens ein konstantes Ortsfrequenzspektrum, also überhaupt keine identifizierbare Ortsfrequenz mehr!
Also statt einer, keine...
Dies ist übrigens tatsächlich die Ursache der Heisenbergschen Unschärferelation: Lokalisiere ich etwas im Ortsraum, verliere ich jegliche Lokalisierung im Frequenzraum und vice versa.
Ein endlich grosses Pixel hat ein Frequenzspektrum, dass bei kleinen Ortsfrequenzen konstant ist, aber in der Nähe der Nyquistfrequenz auf Null abfällt.
Wie kann überhaupt die Dynamik die Bittiefe übersteigen?
Dies, hoffe ich, konnte ich in Teil 2 erklären.
Interessiert man sich nämlich für das Bild bei reduzierter Auflösung, kann man mehrere Pixel zu einem neuen Pixel zusammenfassen, wobei jedes Pixel je Halbierung der Auflösung 2 Bit mehr Bittiefe und bis zu 1 Bit mehr Signal-über-Rauschen-Anteil gewinnt. Da die effektive Bittiefe zu kleineren Ortsfrequenzen schneller zunimmt als das Rauschen abnimmt, können wir sie im folgenden ganz vernachlässigen.
Dafür ist nur wichtig, dass der Rauschanteil der Eingangspixel Teil der Eingangsdaten ist. Sonst kann es bei "klinisch reinen" Eingangspixeln tatsächlich zu den von ToGe beschriebenen Alias-Artefakten kommen und Downsampling würde nicht helfen. Aber kein Problem: 12-Bit reichen locker aus, den Rauschanteil zu beinhalten...
Das Ganze ist auch nicht so akademisch, wie es scheint: Mit ein bisschen Abstand vom Bild lässt sich ggfs. Zeichnung in Gebieten ausmachen (z.B. grosser Text lesen), wo beim Pixelpeeping nur noch Rauschen zu sehen war.
Ein Bild mit 4608x3072 Pixeln (K20D) lässt sich 3 mal halbieren, und man erhält eine Webauflösung von 576x384, die aber 6 Bit mehr Bittiefe (also 18Bit!) und 3 Bit mehr Signal-Rauschabstand als das Original hat, entsprechend einer Reduktion von ISO1600 auf ISO200. Daher sieht man im Web auch selten Bilder mit Rauschen.
Warum ist die Eingangsdynamik auf Pixelebene kein sinnvoller Messwert?
Nun, der Grund liegt auf der Hand: weil das Rauschen ohnehin größer und die hohe Eingangsdynamik bei niedrigeren Ortsfrequenzen, wo das Rauschen viel geringer ist, entscheidend ist.
Es muss nämlich nicht so sein, dass die Eingangsdynamik mit abnehmender Ortsfrequenz ideal ansteigt. Diverse Fehler in der Kamera können dies zunichte machen, z.B. (hellere) Wölkchen und Banding.
Im folgenden gebe ich die aus Teil 1 abgeleitete ideale Signalkurve und Rauschkurve, jeweils über die Ortsfrequenz aufgetragen, qualitativ noch mal wieder (erweiterter y-Bereich):
Blau: Signalkurve über die Ortsfrequenz (prototypisch)
Rot: Rauschkurve über die Ortsfrequenz (prototypisch)
Grün: Quantisierungsrauschkurve über die Ortsfrequenz (prototypisch)
Wie man sieht, fällt der Signal-Rauschabstand mit zunehmender Ortsfrequenz schneller ab als das Signal und daher führt Rauschen zu einer Reduktion der effektiven Auflösung.
Die übliche Messung der Eingangsdynamik misst den Wert am rechten Ende der grünen Kurve. Dies ist absolut kein interessanter Wert!
--
Allerdings muss ich zugeben, dass ich hier eine lineare Eingangskurve (OECF) voraussetze. Wie Nightstalker korrekt anmerkt, ist dies für das Endergebnis unerwünscht, eine nichtlineare Kurve besser. Für In-Kamera-JPEGs ist daher die übliche Messung der Eingangsdynamik durchaus sinnvoll, um die Wirkung von EDRs und weichen Übergängen zu Schatten und Highlights bewerten zu können. Hier soll mich aber nur RAW interessieren und ich kann diese Überlegung zurückstellen.
--
Wenn das alles wahr ist, wie sähe denn dann eine sinnvolle Definition von Eingangsdynamik und Rauschen aus?
Wie man inzwischen vermuten kann, halt wirklich in der Messung von Signal- und Rauschkurven über die Ortsfrequenz!
Als Einzelzahlen könnten Integrale der entspr. Kurven dienen. Aber um Einzelzahlen geht es mir gar nicht.
Die Prozedur könnte wie folgt aussehen:
Hochaufgelöstes Testbild, gutes Objektiv, z.B. Siemenssterne und Farbkeile.
Fouriertransformation des synthetischen Druckbildes als Referenz.
Viele Testaufnahmen des Motifs (>10), jeweils bei festem ISO.
Der Mittelwert ist das Signal
Der Varianz ist das Rauschen
Per Forriertransformation wird jeweils das Powerspektrum über die Ortsfrequenz aufgetragen (duch Referenz dividiert)
Man erhält:
o Die Güte der Signalkurve (falls nämlich nicht linear, hat der Hersteller getrickst und den Bildeindruck verfälscht!).
o Die effektive Auflösung, wo der Abstand zum Rauschen einen kritischen Wert (z.B. 10%) untersteigt.
o Die Rauschkurve bei diversen ISO. Sollte die Rauschunterdrückung das Signal glattbügeln, sieht man dies sofort in der Signalkurve: Beide Kurven werden parallel abgesenkt und im Signal-Rauschabstand wird nichts gewonnen.
o Das (linksbegrenzte) Integral zwischen Signal- und Rauschkurve bis zum ersten Schnittpunkt als zentralem Messwert der Abbildungsgüte.
o Eine Testprozedur, die von der Sensorauflösung und Größe unabhängig ist. Verschiedene Kameras werden vergleichbar!
o Aussagen, ob es Probleme wie Banding, Flocking etc. gibt.
So, dies ist jetzt so ungefähr der konkrete Hintergrund, wenn ich mich nervig und genervt über die "Test"-Verfahren äussere, die man für teuer Geld am Kiosk kaufen darf.
@ToGe: Hat Dir dies jetzt irgendetwas genutzt? (-angst )
[b]..So, dies ist jetzt so ungefähr der konkrete Hintergrund, wenn ich mich nervig und genervt über die "Test"-Verfahren äussere, die man für teuer Geld am Kiosk kaufen darf.
Wir danken Ihnen für das Gespräch...
Auch wenn ich von der Mathematik und von den Details nichts verstehe, ich sehe mein vom Verstand relativiertes Bauchgefühl durch Deine Aussage bzgl. den Tests in vielen Fachzeitschriften bestätigt.
fibbo _________________ "Corona = 1) Beer brand name, 2) common virus species 3) biggest intelligence test worldwide ever 4) Crime of the century
Geschlecht: Alter: 47
Mitglied seit: 31.01.2006
Beiträge: 1323
Wohnort: Karlsruhe
Kamera: ja
Zubehör: auch
Verfasst am:
20. Mai. 2008, 19:02 • (Kein Titel)
Also:
Ich habe deine Ausführungen bezüglich der erhöhten Dynamik beim Zusammenfassen mehrerer Pixel (i.e. Absenken der Featurefrequenz) glaube ich verstanden. Sie ergibt sich automatisch als Folge des Zentralen Grenzwertsatzes (siehe Wikipedia). Du hast also Recht damit, dass ich, wenn ich mehrere Pixel zusammen fasse, jeweils ein um Wurzel (n) besseren Signal-Rauschabstand bekomme. Einen so bestimmten Signal-Rausch-Abstand müsste ich, wenn ich zusammen fasse, tatsächlich normieren - am besten zurück auf ein Pixel. Die Frage ist bloß: warum sollte ich überhaupt verschiedene Messwerte zusammen fassen???? Mich interessiert ja der Kontrastumfang per Pixel und nicht eine noch so genaue Helligkeitsmessung über (im Extremfall) die gesamte Sensorfläche. Ich kann ja in einem echten Bild auch nicht über den Ort (mehrere Pixel) oder die Zeit (mehrere Aufnahmen) den Kontrastumfang per Pixel erhöhen.
Ach ja: ich wollte auch noch feststellen, dass ich kein Mathematiker bin _________________ BRGDS/TOM.
Zum Thema eine kleine Zwischen-Info, die im Fotomagazin 2/2008 in einem Referat über Eingangs- und Ausgangsdynamik zu lesen war.
Anders Uschold schreibt da (sinngemäß): ...dass die Eingangsdynamik nicht nur von Sensor und Bildaufbereitung abhängt, sondern auch vom bei der Messung eingesetzten Objektiv (kontrastreich/kontrastarm) abhängig ist.
Mindestens insofergesehen sind dann Vergleiche zwischen verschiedenen Herstellern sowieso für die Tonne.
Ach ja: ich wollte auch noch feststellen, dass ich kein Mathematiker bin
Ähmmh, ich bin auch kein Mathematiker...
« ToGe » hat folgendes geschrieben:
Einen so bestimmten Signal-Rausch-Abstand müsste ich, wenn ich zusammen fasse, tatsächlich normieren - am besten zurück auf ein Pixel. Die Frage ist bloß: warum sollte ich überhaupt verschiedene Messwerte zusammen fassen???? Mich interessiert ja der Kontrastumfang per Pixel und nicht eine noch so genaue Helligkeitsmessung über (im Extremfall) die gesamte Sensorfläche.
Hallo ToGe,
da bin ich aber froh, dass etwas von meinem Kauderwelsch nützlich war. Zu deiner Frage: "warum sollte ich überhaupt verschiedene Messwerte zusammen fassen?" Ja, da hast Du recht. Ich habe das ja auch eher als Gedankenexperiment gemacht, um zu demonstrieren, dass ein Rauschwert immer nur bezogen auf eine Ortsfrequenz angegeben werden kann.
Aber wenn man einmal davon ausgeht, dass es neben dem Pixelrauschen auch niederfrequentes Rauschen/Störungen geben kann (Banding, Flocking, Clipping in den Tiefen etc.), so fände ich es persönlich sinnvoll, das Rauschen auch bei niedrigen Ortsfrequenzen zu messen bzw. per Fouriertransformation zu bestimmen. Banding kann z.B. viel lästiger sein, auch wenn es kaum zum Rauschen gemäß gängiger Definition beiträgt. Andererseits ist es ohnehin nützlich, Rauschen unabhängig von der Sensorauflösung zu definieren. Oder?
Ausserdem: Pixelrauschen kann man bekanntlich ja reduzieren, aber durch die Glättung senkt man dabei die Ortsfrequenz implizit auch wieder ab. Daher mein Vorschlag, beide Kurven (Signal und Rauschen über die Ortsfrequenz) einfach anzugeben. Dann sieht man, woran man ist. Analog zum Signalfrequenzgang und Rauschfrequenzgang im Audiobereich.
Eine einfache Zahl, die das Pixelrauschen messen soll, ist m.E. aus besagten Gründen jedenfalls völlig irrelevant.
Beim Kontrastumfang wiederum interessiert mich eigentlich auch nicht der einzelne Pixelkontrast, sondern der Bildeindruck beim Betrachten eines Ausdrucks. Und da mittelt das Auge durchaus signifikant grosse Bereiche. Sonst würden Dithering (z.B. bei 16 Bit Monitoren und Offset-Druckern) gar nicht funktionieren können.
Also will man auch mehr als nur den Pixelkontrast kennen. Zumal der ja unendlich (mit Quantisierungsrauschen) ist, da Pixel exakt die Helligkeit Null annehmen können. Im Gegensatz zu einem Negativ, wo sich in Abwesenheit von Pixeln ohnehin alles mathematisch ein wenig gesitteter verhält.
Für beide Aspekte habe ich mit meiner Methode (Teil 1) einen Vorschlag gemacht (die beiden Kurven halt) und die etablierten Methoden entspr. kritisiert.
ToGe, ich hoffe, ich habe Dich jetzt nicht totgeredet
@mstaudi: Warum geht mein text2schild Smiley nicht?
@mstaudi: Ok, dann musste es jetzt eben auf die harte Tour gehen. Geheimwissen halt
Zuletzt bearbeitet von falconeye am 20. Mai. 2008, 21:24, insgesamt 5-mal bearbeitet