M42 bearbeitet mit PixInsight

Ein Kollege von der Sternwarte Dortmund hat zu Weihnachten den klaren Himmel genutzt und einige Aufnahmen von M42 erstellt. Diese Daten hat er dann verwendet, um mit ihnen das Programm PixInsight zu testen, das ihm — von mir empfohlen — als Testversion vorliegt. Er war allerdings mit den Ergebnissen nicht so recht zufrieden, insbesondere wunderte ihn die fehlende Farbe in seinen Bildern. So hat er mir die RAW Dateien dann zur Verfügung gestellt und ich habe mich ebenfalls an einer Bearbeitung versucht.

erste Bearbeitung

Mein ersten Versuch, mit diesen Daten ein ansehnliches Bild zu erstellen war dann auch nicht von Erfolg gekrönt. Ein immer noch starkes farbiges Rauschen in Vorder- und Hintergrund und dabei wenig ausgeprägte Strukturen waren das enttäuschende erste Ergebnis.

Mein Vorgehen

Für den zweiten Versuch einer Bearbeitung habe ich mir dann etwas mehr Mühe gegeben. Ich bin dabei im Wesentlichen einem Vorschlag gefolgt, den ich vor einiger Zeit bei Light Vortex Astronomy vorgefunden habe und den ich dann für meine Anwendungen geringfügig adaptiert habe:

Prozess

Hier sind alle grundlegenden Bearbeitungsschritte dargestellt, die grau hinterlegten Kästchen symbolisieren Masken-Operationen. Abhängig vom jeweiligen Objekt nutze ich dabei für die Erstellung der Maske unterschiedliche Methoden:

  • Eine Kopie des Bildes — oder ein Luminanzauszug — wird nach Bedarf über die HistogramTransformation delinearisiert und als Maske auf das ursprüngliche Bild gelegt.

  • Mit dem RangeSelecion Werkzeug werden die hellen Bereiche des Bildes selektiert. Dieses Werkzeug hat den Vorteil, dass die Auswahlkante über den SmoothnessParameter geglättet werden kann und so abrupte Wechsel in der Bearbeitung vermieden werden.

  • Mit dem StarMask Werkzeug können die gezielt die Sterne selektiert werden. Enthält ein Bild unterschiedlich große Sterne kann es sinnvoll sein, dieses Werkzeug mehrfach mit unterschiedlichen Parametern aufzurufen.

  • Eine Kombination aus bestehenden Masken, die über das PixelMath Werkzeug erstellt wird. Das ist eigentlich immer nötig, wenn das Objekt eine Nebelstruktur ist und hier die Nebelmaske der RangeSelection mit dem Ergebnis der StarMask kombiniert werden sollte.

Im Prozessbild wurden einige Punkte mit einer blauen Markierung versehen. Diese markieren Punkte im Bearbeitungsprozess, deren Ergebnisse im nachfolgenden Text dargestellt werden.

Ausgangsdaten

Für dieses Bild wurden insgesamt 15 Aufnahmen bei ISO 200 mit einer Belichtungsdauer von 120 Sekunden erstellt. Hinzu kommen noch vier Dunkelaufnahmen mit gleicher Einstellung und ein Flat. Diese Daten wurden im RAW Format der Canon EOS 60D abgelegt und müssen daher vor einer weiteren Bearbeitung in das FITS Format konvertiert werden. Dieser Schritt wird von PixInsight automatisch durchgeführt. Es wird hier das dcraw Programm genutzt, um die Bildinformationen zu gewinnen. Allerdings wird sichergestellt, dass die vom Sensor ausgelesenen Werte erhalten bleiben und das Bild nicht gestreckt wird, um es unseren Seheigenheiten anzupassen.

Daher sind in diesen Bildern tatsächlich noch alle Rohinformationen der einzelnen Pixel enthalten. Diese Bilder sind dabei eigentlich noch nicht farbig. Die Rekonstruktion der Farbinformation, die über die Bayer Maske auf dem Sensor ermittelt wird, ist hier noch nicht erfolgt.

Rohdaten

Hier ist ein Ausschnitt eines Bildes zu sehen. Erkennbar ist ein regelmäßige Rasterstruktur in den dunklen Grautönen. Hier sind insbesondere die für die Blau-Detektion zuständigen Pixel dunkler als das Umfeld (es gibr im Sternenlicht in der Regel weniger blaues als rotes und grünes Licht).

Um einen ersten Eindruck des Bildes zu gewinnen ist hier eine Version in die ich die Farbinformation wieder hinein gerechnet habe. Ansonsten wäre es recht schwierig, einen Eindruck von der Farbigkeit zu gewinnen.

Rohdaten

Der helle Fleck, in etwa in der Bildmitte ist dabei die Struktur, die im vorangehenden Graubild im Detail zu sehen ist.

Preprocessing

Dieses Datenmaterial muss, bevor ein ersten Bild entsteht nun erst noch weiter verarbeitet werden. Dazu wird in einem ersten Schritt eine Summenbild aller Dunkelabzüge erstellt. Diese wurden bei geschlossener Kamera aufgenommen und zeigen die Stärke des Verstärkerglühens des Sensors. Dieses Signal entsteht in der Kamera und ist nicht Bestandteil des Bildes. Es muss daher über die vier Bilder gemittelt werden und wird dann als Master Dark in den weiteren Verarbeitungsschritten verwendet.

Als nächstes wird das Flat Image betrachtet. Hier wurde eine gleichförmig helle Fläche durch aufgenommen. Diese sollte eigentlich gleichmäßig hell auf dem Sensor abgebildet werden. Tatsächlich ergeben sich aber kleine Helligkeitsunterschiede durch das Verstärkerglühen, diese können aber entfernt werden, indem das Master Dark von unserem Flat subtrahiert wird.

Stärkere Störungen ergeben sich aber durch Staubkörnchen auf dem Sensor und den optischen Elementen. Diese führen zu einer Abdunklung des Bildes. Mit dem Flat wird daher für jeden Pixel ermittelt, wie viel heller er ohne die Störungen im optischen System eigentlich sein sollte.

Jedes einzelne Bild wird daher bearbeitet, indem vom jeweiligen Messwert des Pixels der Dunkelstrom subtrahiert wird und dieser Wert dann anhand des Flats wieder auf korrigiert wird.

Das Ergebnis sind dann kalibrierte Einzelbilder1, die allerdings noch fast genau so aussehen, wie die ursprünglichen Rohdaten.

In den Bildern sind ausreichend Sterne vorhanden, so dass die kalibrierten Einzelbilder mit dem StarAlignment Werkzeug zur Deckung gebracht werden können. Auch wenn die Bilder unmittelbar nacheinander aufgenommen wurden, wurde ganz bewusst ein wenige Pixel großer Versatz eingestellt. So erscheinen die Sterne auf immer anderen Pixeln des Sensors und fehlerhafte Pixel können so kompensiert werden.

Nun können die Bilder auch mit dem Debayer Werkzeug in RGB Bilder umgewandelt werden. Sie sind zwar immer noch linear und erscheinen daher sehr dunkel, die Farbinformation ist aber in jedem Bild vorhanden. Jedes Pixel erhält dabei nun anstelle seines Grauwerts einen RGB Farbvektor, der anhand der Nachbarsensoren bestimmt wird.

Die 15 Einzelbilder werden dann nach der Registrierung summiert. Ein Filter verhindert dabei, dass defekte Pixel (zu hell oder zu dunkel) im Summenbild berücksichtigt werden. Durch das Aufaddieren der Bildwerte gewinnt das eigentliche Bildsignal an Stärke, während das statistische Hintergrundrauschen des Sensors im Vergleich dazu geringer wird. Es ist daher sinnvoll, möglichst viele Bilder aufzuaddieren, um diesen gewünschten Effekt zu verstärken.

Am Ende dieser Bearbeitung steht nun das eigentliche Bild, das der Nachbearbeitung übergeben werden kann. Alle nachfolgenden Schritte nutzen nun ausschließlich diesen Master.

Summenbild

Dieses Bild wurde mit der ScreenTransfetFunction automatisch gestreckt, damit die im Bild vorhandenen Informationen sichtbar werden. In der ungestreckten, linearen Form dargestellt sind höchstens die hellsten Sterne tatsächlich noch sichtbar während fast das ganze Bild in tiefem Schwarz dargestellt werden muss.

Bearbeitung des Hintergrunds

In diesem Bild ist die Lichtverschmutzung einer Großstadt deutlich als grüner Schimmer zu erkennen. Tatsächlich mit der DynamicBackgroundExtraction kann dieser Hintergrund ermittelt und entfernt werden. Dazu wird anhand von über das ganze Bild verteilte Messpunkte ein Modell des Hintergrunds erstellt und dann vom eigentlichen Bild subtrahiert. Durch diesen Verarbeitungsschritt wird zudem auch die Farbe des Hintergrunds neutralisiert und erscheint in einem hübschen dunklen Grau — theoretisch.

Bei der Aufnahmen, die hier im Ruhrgebiet erstellt werden, habe ich bislang diesen Prozess zweimal hintereinander ausgeführt. Bei diesem Bild aus der Innenstadt Dortmunds hat auch ein dritter Versuch noch einen Rest an Hintergrundhelligkeit ergeben. Und wenn man sich das Endergebnis sehr genau betrachtet, ist noch immer ein dunkler roter Schleier zu erkennen.

Summenbild ohne Lichtverschmutzung

Auch dieses Bild ist immer noch in der linearen Form gespeichert und nur für die Bearbeitung gestreckt. Das Hintergrundrauschen ist ein wenig stärker sichtbar geworden. Bei genauerer Betrachtung ist es nun aber auch bunter als zuvor. Damit wird der Hintergrund von den nachfolgenden Schritten immer neutraler dargestellt.

Bearbeitung des Farbsignals

Ausgehend von dem aktuellen Bild erfolgt nun die weitere Verarbeitung auf zwei unterschiedlichen Wegen. Zuerst einmal beschreibe ich nun, wie ich den Farbanteil weiter bearbeite.

Zunächst einmal muss auf diesem Bild ein Weißabgleich erfolgen. Dazu habe ich mehrere Regionen innerhalb des Bildes markiert die Sterne (und Hintergrund) aber keine Nebelstrukturen enthalten. Diese Regionen habe ich zu einem neuen Bild aggregiert. Verwendet wird dieses temporäre Bild vom Werkzeug ColorCalibration sowohl für den Vorder- wie für den Hintergrund.

Durch Kopieren und strecken des Bildes habe ich dann eine Maske erstellt, mit der ich die hellen Bereiche schütze und die dunklen Bereiche des Hintergrunds für die Bearbeitung selektiere.

Das feinstrukturierte Rauschen des Hintergrunds kann dabei mit dem ATrousWaveletTransform Werkzeug bearbeitet werden. Danach erfolgt eine zweite Bearbeitung mit dem MultiscaleMedianTransform Werkzeug.

Dann endlich wird dieses Bild mit dem HistogramTransform Werkzeug gestreckt und eine neue Maske für den Hintergrund erstellt. Hier erfolgt nun wieder ein Entrauschen mit den Werkzeugen ATrousWaveletTransform und ACDNR.

Mit der RangeSelection wird nun eine Maske für die hellen Bildbereiche erstellt. Diese wird deutlich erweitert um das Entstehen unerwünschter Artefakte an den Übergängen von Vorder- und Hintergrund zu verhindern. Mit dieser Maske werden nun die hellen Bildbereiche für die weitere Bearbeitung selektiert.

Aus den bisher weitgehend unberührten hellen Bildbereiche wird nun mit dem ATrousWaveletTransform Werkzeug ein Teil des feinen Rauschens entfernt.

Da ich bei diesem Teilbild im Wesentlichen nur an der Farbinformation interessiert bin, wird auf das ganze Bild eine leichte Unschärfe gerechnet. Nach dem Weichzeichnen liegt das Farbsignal vor, dass später mit dem künstlichen Luminanzsignal kombiniert wird.

Farbsignal

Bearbeitung der Luminanz

Mit der Bearbeitung des Luminanzkanals soll die Struktur des Bildes stärker hervorgehoben werden. Da hier kein dezidiertes Luminanzbild vorliegt, wird aus dem vorliegenden RGB Bild ein Luminanzkanal extrahiert. Dazu wird das ChannelExtraction Werkzeug verwendet.

Die Verarbeitung dieses Bildes gleicht in den ersten Phasen derjenigen des Farbbildes:

  • Durch Kopieren und strecken des Bildes wird eine Maske erstellt, mit der die hellen Bereiche geschützt werden.

  • Das fein strukturierte Rauschen des Hintergrunds wird mit dem ATrousWaveletTransform Werkzeug bearbeitet.

  • Es folgt eine zweite Bearbeitung mit dem MultiscaleMedianTransform Werkzeug.

  • Das Bild wird mit dem HistogramTransform Werkzeug gestreckt.

  • Es wird eine neue Maske zum Schutz der hellen Bereiche erstellt.

  • Mit den Werkzeugen ATrousWaveletTransform und ACDNR erfolgt eine weitere Entrauschung des Hintergrunds.

Die Bearbeitung des Luminanzsignals weicht dann aber ab, wenn die hellen Bereiche des Bildes bearbeitet werden. Mit den StarMask und RangeSelection Werkzeugen erstelle ich Masken, die ich mit Pixelmask kombiniere und auf mein Luminanzbild anwende. Nachdem der Hintergrund geschützt ist kann das eigentliche Signal mit den Werkzeugen LocalHistogramEqualization und HDRMultiscaleTransform verstärkt werden. Beide Werkzeuge betonen die lokalen Unterschiede in den Bildinformationen und erzeugen so ein Bild mit erheblich deutlicher sichtbaren Details.

Luminanzsignal

Kombinieren von Farb- und Luminanzbild

Die getrennt bearbeiteten Bilder mit der Farb- und Luminanzinformation können nun mit dem LRGBCombination Werkzeug wieder zusammengeführt werden. Für die Farbsättigung wird dabei ein Wert von 0,3 anstelle des Standardwert 0,5 genutzt. Damit wird der Farbanteil des neuen Bilds betont.

Auf diesem Bild finden nun noch zwei Bearbeitungsschritte statt:

  • Zunächst wird die Kontrastkurve verändert in der vergeblichen Hoffnung, die ausgebrannten Sterne im Zentrum des Nebels wieder hervorzuheben und den Kontrast in den Mitteltönen zu verstärken.

  • Danach wird auch der Kontrast der Sättigungskurve im mittleren Bereich verstärkt, damit ein etwas bunterer Eindruck entsteht.

Das auf diese Weise erzeugte Ergebnis ist erschreckend:

kombiniertes Farbbild

Es wurde nun zwar ein hübsch farbiges Farbbild erstellt, aber durch die Farbverstärkung treten die grünen Farbanteile sehr stark hervor. Für diesen Effekt gibt es jedoch mit dem SCNR Werkzeug eine schnelle Abhilfe. Bei diesem Bild habe ich mit diesem Werkzeug etwa 80% der Grünanteile entfernt.

Damit ist das Bild eigentlich fertig. Für den Ausdruck auf Fotopapier habe ich aber die Rot- und Blautöne dann noch einmal etwas verstärkt um ein auf dem Papier bunteres Bild zu erhalten.

Es bleibt dann nur noch der letzte Schritt, der Export des Bildes als JPEG Datei.

Ergebnis

Zum Ende habe ichdann noch die Aufgabe, dieses Bild auf den USB-Stick zu kopieren und bei Rossmann auszudrucken. Der Ausdruck hängt nun seit einigen Tagen an der Tür meines Arbeitszimmers.


Alle Rechte am hier verwendeten Bildmaterial liegen bei Thomas Wassmuth, Astronomischer Verein Dortmund


  1. Bei der Kalibration können noch Bias Bilder einfliessen. Bei diesen handelt es sich um Dunkelbilder, die mit der kürzesten möglichen Belichtungszeit der Kamera erstellt werden und den Nullpunkt eines Pixels ermitteln.

Weitere Artikel: