#1 Wie weit kann/darf man Bildverarbeitung treiben? von avvhl 25.04.2017 12:52

avatar

Mit den heutigen digitalen Methoden der Astrofotografie hat man unglaubliche Möglichkeiten. Dies beginnt bei den verwendeten Kameras und endet bei der Bildver- oder -bearbeitung. Ach ja, ein einigermaßen gutes Teleskop gehört ja nach wie vor noch dazu. Ich selbst betreibe die Bildverarbeitung eher konservativ, im Sinne des Wortes. Denn die heutigen Digitalkameras liefern zusammen mit den Optiken Astrofotos, deren Farben argumentierbar recht nahe an die Realität herankommen.

Ich zeige hier einmal das Beispiel des Jupiter, aufgenommen mit meinem (relativ kleinen) Maksutov-Newton-Teleskop (knapp 8" Öffnung, 1000 mm Brennweite). Die Kamera, die ich für Planeten verwende, ist eine Farbkamera, nämlich die ZWO ASI 178MC. Mir ist das RGB-Gedöns zu aufwendig. Bis ich mit Tremor und Arthrose alles im Kasten hätte, hätte sich der Jupiter schon ein ganzes Stück weitergedreht. Also stand fest: Farbkamera! Sie besitzt einen Chip mit einer Sensorgröße von 7.4 mm x 5.0 mm (3096 x 2080 Pixel) und besticht durch die extrem hohe Auflösung von 2.4-µm-Pixeln! Die hier vorgestellte Aufnahme entstand am 30.12.2016 um 6:51 MESZ mittels Firecapture, womit ein AVI-Film von 78.7s Dauer mit 1560 frames (19 FPS) und 50.5 ms Einzelbelichtungszeit erstellt wurde. Das Stacken erfolgte mit Autostakkert2, wobei 20% der Frames benutzt wurden. In Registax wurde das Bild sodann mithilfe der 'Schwarzen Kunst' der Wavelet-Filterung manipuliert. Dann wurde, auch in Registax, noch manuelles RGB-Align durchgeführt. Am Schluß habe ich dann noch mittels Pixinsight das Rauschen reduziert. Dies ist lediglich Kosmetik und letztlich kein Informationsgewinn. Die drei Etappen sind in der Bildfolge unten dargestellt: nach dem Stacken (links), nach der Wavelet-Filterung (MItte), und nach dem Entrauschen (rechts). Es fällt natürlich sofort auf, daß die beiden Monde Io und Europa im linken Bild noch nicht sichtbar sind. Sie werden erst durch die Filterung herausgekitzelt. Fazit: auch mit einem relativ kleinen Teleskop kann man, gutes Seeing vorausgesetzt, ganz brauchbare Ergebnisse erzielen.



In der Forschung ist solches Manipulieren von Daten eigentlich verpönt, es sei denn, man gewinnt durch solche Bildanalysen Information, die man nur durch bestimmte mathematische Tricks aus den Daten herausholen kann. So hat sich beispielsweise die Wavelet-Filterung in den letzten ein, zwei Jahrzehnten etabliert. Man benutzt sie z.B., um Strukturen mit bestimmten Größenskalen hervorzuheben und quantitativ zu analysieren. Wichtig ist hier: solang man die mathematischen Methoden kennt und weiß, wann man sie wie anwenden sollte, ist das alles 'legal'. Im Amateurbereich darf man solche Methoden natürlich 'nach Lust und Laune' anwenden - der schönen Ergebnisse halber. Da Einzige, auf das man achten sollte, ist, daß man die Farben nicht 'verhunzt'; denn diese sind aussagekräftig und müssen es bleiben. Der GRF des Jupiter ist rötlich, aber nicht knallrot!


Das nächste Beispiel zeigt eine tiefe Belichtung eine recht großen Feldes (0.9° x 1.3°), welches das wechselwirkende Galaxienpaar M81 und M82 zeigt. Die Aufnahmen wurden mit einer Canon EOS 1100Da am 8" Maksutov-Newton-Teleskop gewonnen. Insgesamt wurden 192 Einzelbelichtungen à 3 Minuten gemacht, wovon mittels Deep Sky Stacker die besten ca. 75% verwendet wurden. Dies resultierte in einer Gesamtbelichtungszeit von 7.3 Stunden. Unten sind nun wiederum drei Bilder zu sehen, die das Feld für bestimmte Bildbearbeitungsstadien wiedergeben. Ganz links sehen wir das so erzielte gestackte Bild, welches unten rechts noch die Abschattung des Bildfeldes durch das kleine Prisma des Autoguiders zeigt (da wird natürlich Licht weggenommen). Dieses Bild wurde nun Astroart astrometrisch geeicht, was mithilfe von 15 - 20 Sternen im Feld geschieht (auch hier zeigt sich der große Vorteil einer großen Bildfeldes). Bei dieser Eichung erhält der Header der entsprechenden FITS-Datei die astrometrische Information, welche jedem Pixel des Bildes eine astronomische Koordinate zuordnet. Ab hier läßt sich eine solche Aufnahme auch für wissenschaftliche Zwecke einsetzen, indem man das optische Bild beispielsweise mit Beobachtungen in anderen Wellenlängenbereichen vergleicht. An dieser Stelle optimiere ich das Gamma der JPEG- oder TIF- Datei mittels Fitswork, bevor ich die Datei als JPEG- oder TIF-Bild ablege. Auf der rechten Seite sehen wir dann schließlich noch das Feld nach Unsharp Masking und Glättung des Hintergrundes, beides ebenfalls mittels Astroart bewerkstelligt. Zu guter letzt werden in IrfanView die Farbsättigung angehoben und eventuell nochmals Gamma, Kontrast oder Helligkeit leicht variiert. Auf keinen Fall sollten die RGB-Farben relativ zueinander verändert werden, weil in der Regel die Chips die Echtfarben sehr gut wiedergeben.

#2 RE: Wie weit kann/darf man Bildverarbeitung treiben? von Reverend_Coyote 26.04.2017 20:19

avatar

Hallo Uli,

was ist eigentlich sinnvoller, das RGB-Align vor oder nach den Wavelets bzw. der Dekonvolution zu machen? Ich habe da noch keine Zeit für Experimente gehabt. Mein derzeitiger Workflow (Bauchgefühl) ist Stacken, RGB-Align, Dekonvolution (Lucy-Richardson), Entrauschen (zumeist Gauss-Filter) und uU. noch weitere Schritte. Hast Du da schon Experimente mit dem Zeitpunkt des RGB-Align gemacht? Ich benutze Single-Shot Farbkameras erst seit kurzer Zeit, auch mir ist das RGB Verfahren zu zeitaufwendig, wegen den doch meist recht kurzen Schönwetterperioden.

Schöner Jupiter, übrigens.

Grüße, Coyote

#3 RE: Wie weit kann/darf man Bildverarbeitung treiben? von avvhl 27.04.2017 14:46

avatar

Lieber Gerhard,

das RGB-Align funktioniert natürlich am besten, wenn das (z.B. Planeten-)Bild schon nachgeschärft ist. Da aber die Fouriertransformation eine lineare Operation ist, kann man hier eigentlich nichts falsch machen. Dabei gehe ich natürlich davon aus, daß diese mathematischen Operationen einzeln auf die RGB-Kanäle angewendet werden. Die einzige Software, wo man das überprüfen kann, ist Pixinsight, da dort nämlich während der Berechnungen ein 'Unterhaltungsfenster' aufgemacht wird. Dort sieht man wenigstens mal, was da im Hintergrund abläuft. Und da ist es in der Tat so, wie ich annahm. Die Crux ist, daß praktisch alle hübschen Astroprogramme keinerlei Auskunft zu den Algorithmen geben. Ich habe herausgefunden, daß man am ehesten brauchbare Information erhält, wenn man 'Pixinsight' mit geeignetem Stichwort (wavelet filtering, denoise, calibration, ...) googelt. Mit etwas Glück gelangt man dann eine Seite mit detaillierterer Beschreibung; z.B. 'wavelets': http://www.deepskycolors.com/PixInsight/Wavelets.html.

#4 RE: Wie weit kann/darf man Bildverarbeitung treiben? von ctb 13.05.2017 14:27

avatar

Die Frage „Kann man ...“ (nicht im Sinne von „können“ sondern im Sinne von „dürfen“) berührt ja fast schon philosophische Gebiete. Vorsicht, das Eis ist dort dünn, ganz dünn.

Was für ein Glück: Als Physiker ist die Frage noch relativ leicht zu beantworten, denn da bestimmt die Fragestellung die Art der Methode. Natürlich müssen die Methoden (hier: Bildverarbeitungsalgorithmen) gut dokumentiert sein, damit man weiß, wie man das Ergebnis zu bewerten hat. So gesehen ist es also kein großes Wunder, dass Uli sich daran stört, wenn da „irgendwelche“, nicht dokumentierte Algorithmen auf die Pixel losgelassen werden. „Erlaubt“ ist also nicht „was gefällt“, sondern was zur Fragestellung passt. Wenn z.B. das Problem „seeing“ anliegt und es jemand mit speckle-interferometrie angehen will, dann wird (und darf) er oder sie Zwecks Bildverbesserung zur Fouriertransformation greifen. (Beispiel aus der Amateurastronomie: http://rohr.aiax.de/Speckle-Interferomet...00923%20(1).pdf, am MPI Bonn bin ich einmal einem Prof. Weigelt begegnet, der so etwas früher gemacht hatte)

Wenn es um bestimmte „Skalenlängen“ geht, dann wird man eher zur Wavelet-Transformation greifen, der – im Vergleich zur Fouriertransformation - eine etwas andere („angepasste“) Basis zugrunde liegt. Gelegentlich tragen Transformationen nicht nur zu „besseren Bildern“ bei, sondern spiegeln Skalenlängen der Astrophysik. Beispiel: Beim letzten „Tag der Astronomie“ den unsere AVV auf dem HL durchführte, sah ich in „unserer“ Kuppel ein Blatt mit einer Abbildung zum „HOLIGRAIL“ liegen. Offensichtlich wollte dort jemand damit die „Lichtwege“ bei „Gravitationslinsen“ erläutern. Ein bisschen erinnerte mich das an besagte Speckle. Obwohl ganz andere physikalische Ursachen ( Atmosphärische Dichteschwankungen vs. Gravitationsfeld z.B. von Galaxienaufen ) beobachten wir in beiden Fällen die unterschiedlichen „Lichtwege“. Darauf lässt sich Bildververarbeitung anwenden (z.B. Messung einer „typischen“ Skalenlänge), was jeweilige physikalische Rückschlüsse erlaubt.

Zurück zur Ausgangsfrage :
Wenngleich wir in der Rolle des Amateurastronomen deutlich freier in der Wahl der Mittel (Wahl der Bildverarbeitungsalgorithmen sind), sollte wir uns trotzdem fragen: Dürfen wir das ? Nur damit es „schöner“ aussieht ? Ist alles erlaubt ??

Dazu ein (fast vergessenes) Beispiel aus der Geschichte der Amateurastronomie. Etwas genauer: Aus der Geschichte der Volkssternwaren. Es ist bereits viele Jahrzehnte her, da gab es eine kleine Auseinandersetzung zwischen der Berliner „Wilhelm-Foerster-Sternwarte“ und der Münchener Volkssternware, die regelmäßig interessierte Laien zu Gast hatten, denen sie aber bei bedecktem Himmel „nichts vorzuzeigen“ konnten. In ihrer Not kam eine von den beiden (ich schreibe bewusst nicht, welche der beiden es war) auf die Idee, in solchen Fällen statt des Okulars eine Art „Diabetrachter“ in den Auszug zu schieben, so dass die Gäste zuvor hinein geschobene, „bildtechnisch bearbeitete“ Dias betrachteten, die „irgendwie“ einen „halbwegs echten“ Eindruck von einer visuellen Beobachtung geben sollten.

Darf man das ?

Vermutlich nicht, denn da können natürlich schnell die “dollsten“, von Teleskopen ganz anderen Kalibers aufgenommenen Bilder in den "Diabertrachter" geschoben werden.

Zurück zur nachträglichen Bildverarbeitung von realen CCD-Aufnahmen real existierender Teleskope. Bei „Licht betrachtet“ beginnt die Bildverarbeitung bereits innerhalb des CCD-Chips, also lange bevor die Pixel den Chip verlassen haben. Eventuelle, nachträgliche, in diesem Thread angesprochene Verarbeitungsschritte kommen also nur noch zusätzlich hinzu.

Ja … wenn man will, dann darf man jedes Teleskop selbst als „Bildverarbeitungsmaschine“ betrachten. (Das z.B. die Beugungsringe … zumindest für kleine Winkel … aus der Fouriertransformierten des Objektiv-/Spiegel-Durchmessers abgeleitet werden können … ist kein Zufall. Als Radioastronom würde man sagen: „Very Short Baseline Interferometrie“ … sozusagen VSBI )

Genau. Jetzt hab ich eine mögliche Lösung zur Frage „Darf man das ?“.

Im Grunde ist die nachträgliche, „zusätzliche“ Bildverarbeitung von Aufnahmen nichts anderes als eine Art „Verlängerung“ des Teleskops … sozusagen ein weiteres Element im „Strahlengang“.

Für mich beantworte ich die Eingangs aufgeworfene Frage nun mit: „Man darf es … wenn es offen dokumentiert ist.“

ctb

#5 RE: Wie weit kann/darf man Bildverarbeitung treiben? von Uli Klein 15.05.2017 15:54

Das Wichtigste ist allerdings, daß man die Farben, die die CCD-Chips oder CMOS-Chips bereitstellen, nicht zu sehr manipuliert. Radioastronomisch gesprochen würde dies bedeuten, daß man die Kontinuumsspektren der Quellen (zu sehr) verändern würde. Emissionsnebel strahlen nun mal purpurrot, weil die hier dominante Hα-Linie bei 6563 Å emittiert, und Reflexionsnebel strahlen blau, weil blaues Licht stärker als rotes gestreut wird (wie beim Taghimmel). Und bei manchen planetarischen Nebeln kann auch Grün und Blau vorkommen, da hier sehr energetische Photonen vom Zentralstern emittiert werden, die noch höherenergetische Anregungszustände zulassen.

Na, und wie unsere Planeten aus(zu)sehen (haben), das wissen wir wohl.

Ach ja, manchmal lichtet man die Sonne mit schmalbandigen Filtern (Hα, Ca K-Linie) ab. Dann wird die Farbe irrelevant und man mag das Bild getrost in Graustufen umwandeln.

Also: Farbe weitgehend belassen, wie die Chips sie liefern!

#6 RE: Wie weit kann/darf man Bildverarbeitung treiben? von Reverend_Coyote 04.06.2017 01:25

avatar

Hallo allerseits,

ich habe einmal eine Mondbildserie neu bearbeitet, dh. alle Schritte gleich wie zuvor, nur das RGB-Alignment diesmal als letzten Schritt durchgeführt. Zuvor hatte ich diesen Schritt direkt nach dem Stacken des Videos ausgeführt.

In der Bildschärfe war (so gut wie) kein Unterschied zu sehen, aber einige der Dekonvolutions-Ringartefakte in dunklen Mondkratern waren deutlich geringer. Künftig werde ich nun auch in der von Uli vorgeschlagenen Reihenfolge weiterarbeiten. Vielen Dank für den Hinweis!

Grüße, Gerd

Xobor Forum Software © Xobor