Viele Menschen interessieren sich für Astronomie und werden von den spektakulären und wunderschönen astronomischen Bildern angezogen. Aber wussten Sie, dass diese wunderschönen Bilder in der Nachbearbeitung entstehen? Einige meiner Freunde reagieren möglicherweise schockiert. Was zur Hölle? Die Astronomie bedient sich also der gleichen Tricks wie Internet-Promis? Zurück, zurück ... Geh nicht weg! Bei der „Fotobearbeitung“ in der Astronomie geht es nicht nur darum, ein Selfie zu machen und ein paar Filter anzuwenden. Es handelt sich um eine sorgfältige Arbeit, die sowohl wissenschaftliche Kenntnisse als auch künstlerische Fähigkeiten erfordert. Es kann Menschen auch helfen, das Universum intuitiver zu verstehen. Als Nächstes werde ich Ihnen anhand einiger berühmter Bilder die grundlegenden Fähigkeiten zur „Fotobearbeitung“ humanistischer Fotos erläutern. 01 Warum ist die Form dieses Bildes so seltsam? Nehmen Sie als Beispiel das „Familienporträt des Sonnensystems“, das von der Sonde Voyager 1 aufgenommen wurde. Es war Februar 1990 und Voyager 1 war 6,4 Milliarden Kilometer weit geflogen. Es blickte zurück auf das Sonnensystem und machte dieses berühmte Bild. Familienporträt des Sonnensystems, aufgenommen von Voyager 1 am 14. Februar 1990. Bildquelle: NASA Warum ist die Form dieses Bildes so seltsam? Das liegt natürlich an dem Rätsel. Der Hauptteil des Bildes besteht eigentlich aus 39 zusammengefügten Einzelfotos. Jeder Buchstabe steht für einen (im Grunde unsichtbaren) Planeten, z. B. J für Jupiter, E für Erde, V für Venus usw. Freunde, die Erfahrung mit dem Aufnehmen von Gruppenfotos haben, fragen sich vielleicht: Warum nicht einfach ein Weitwinkelobjektiv verwenden, um hier ein Familienporträt aufzunehmen? Dies liegt daran, dass das Sichtfeld astronomischer Beobachtungen normalerweise sehr, sehr klein ist. Diese Fotos sind dadurch entstanden, dass die Sonde Ganzkörperfotos des Planeten machen wollte und bei ihrem Start eine Kamera mit einem etwas größeren Sichtfeld mitbrachte. Aus der Perspektive der astronomischen Beobachtung gilt jedes kleine Foto bereits als „Weitwinkel“! Die sechs kleinen Farbbilder darum wurden von der Sonde an derselben Position mit einer Kamera mit engerem Sichtfeld aufgenommen. Als Voyager 1 diese Fotoserie aufnahm, musste es die Objektivrichtung mehrmals anpassen und die Belichtungsparameter einstellen. Bei der Bodensynthese müssen diese Änderungen originalgetreu reproduziert werden, um die Bilder an der richtigen Position zusammenzufügen. 02 Warum fehlt in der oberen rechten Ecke dieser Bilder ein Stück? Auf den Bildern unten ist in der oberen rechten Ecke eine verdächtige Lücke. Was ist los? Dies ist eigentlich Jigsaws Schuld. Die drei Bilder sind: M100 im Haar der Berenike, IC 2944 (Chicken Walker-Nebel) und Hubble Deep Space. Bildquelle: NASA Bei manchen Fotomissionen ist keine Änderung der Ausrichtung des Weltraumteleskops erforderlich, aufgrund von Design- oder technischen Einschränkungen müssen sie jedoch dennoch als Puzzle abgeschlossen werden. Beispielsweise verwendete das Hubble-Teleskop zwischen 1993 und 2009 die Wide Field and Planetary Camera (WFPC2) der zweiten Generation, die über vier 800×800 CCD-Sensoren verfügte. Die letzten Fotos, die wir sehen, sind alle aus vier Bildern zusammengefügt. Einer dieser vier CCDs ist anders. Sein Sichtfeld ist kleiner als bei den anderen, aber es hat die gleiche Anzahl an Pixeln. Auf diese Weise kann es verwendet werden, um einen Teil eines Himmelskörpers einzufangen, damit Astronomen die Details untersuchen können. So hätte beispielsweise das Foto des Adlernebels „Säulen der Schöpfung“ aussehen sollen: „Säulen der Schöpfung“, fotografiert vom Hubble-Teleskop am 1. April 1995. Bildquelle: NASA Wenn man es jedoch der Öffentlichkeit zeigt, muss dieser Winkel, der zum Vergrößern des Teils verwendet wird, reduziert werden, um mit den anderen drei Winkeln ein glattes Foto zu ergeben, wie das Bild unten, wo die Nebelsäule auf der rechten Seite von oben nach unten perfekt verbunden ist: Es gibt Gewinn und Verlust. Der Übergang zwischen den Bildern ist fließend, es entsteht jedoch eine Lücke ohne Inhalt. Astronomen haben ein Endergebnis und werden hier keinen falschen Hintergrund schaffen. Aus diesem Grund weisen viele mit dem Hubble-Teleskop aufgenommene Fotos diese charakteristische abgestufte dunkle Ecke auf. Erst mit der Weiterentwicklung zur Wide Field Camera (WFC3) der dritten Generation im Jahr 2009 verschwand diese dunkle Ecke. 03 Wenn Sie dieses Bild direkt aufnehmen, brennt Ihre Kamera durch ... Zusätzlich zu Problemen mit dem Sichtfeld werden Bilder manchmal zusammengefügt, weil die Bedingungen des Motivs zu extrem sind, um sie auf einmal zu sehen. Beispielsweise wurde der koronale Massenauswurf im Bild unten, die Wolke aus ausgeworfenem Material, vom LASCO-Spektrometer der Sonnensonde SOHO fotografiert, doch LASCO hat es nur gewagt, die Korona zu beobachten, indem es die Sonne abdeckte. Denn wenn es direkt und ungehindert in die Sonne „blickt“, ist dies der letzte Blick – das Gerät brennt auf der Stelle durch. Die Sonne in der Mitte des Bildes unten wurde vom EIT-Teleskop auf der Sonde im extremen Ultraviolettbereich fotografiert. Es wurde gegenüber der Normalgröße leicht vergrößert und in der Mitte ausgefüllt, um die Bildwirkung zu verstärken. Von diesen beiden Instrumenten wagt das eine nicht, in die Sonne zu blicken, und das andere kann die äußere Korona nicht sehen. Jeder von ihnen hat seine eigene Funktion und zusammen ergibt das Ganze etwas ganz Schönes. Koronaler Massenauswurf, 8. Januar 2002, aufgenommen von SOHO. Bildquelle: NASA In der Mitte des normalgroßen Bildes ist die Sonne kleiner | Bildnachweis: ESA/NASA/SOHO 04 Das Glätten astronomischer Fotos ist definitiv eine mühsame Aufgabe … Viele schöne astronomische Bilder wirken gewaltig, tiefgründig, transparent und klar, doch in Wirklichkeit sind die Originalbilder voller Punkte und Linien und schrecklich anzusehen. Das folgende Bild zeigt beispielsweise den Orionnebel, den der Autor im Winter 2015 aufgenommen hat. Es ist kein gutes Bild, da es eine zufällige Außenaufnahme war. Ich hatte nur eine Telekamera, um tagsüber Vogelfotos zu machen, und keine parallaktische Montierung, um die durch die Erdrotation verursachten Streifen des Sternenlichts zu vermeiden. Um die Belichtungszeit zu verkürzen, musste ich die Empfindlichkeit der Kamera sehr hoch einstellen. Sobald jedoch die Empfindlichkeit der Kamera erhöht wird, nimmt das Rauschen rapide zu, sodass es unmöglich wird zu unterscheiden, ob es sich bei einigen hellen Flecken um echte Sterne, Satelliten, Weltraumschrott oder das Rauschen der Kamera selbst handelt. Zu diesem Zeitpunkt müssen Sie Bilder überlagern, um das Signal zu verstärken und Rauschen zu unterdrücken. Achten Sie bitte auf die 4 im Bild eingekreisten Lichtpunkte. Der Orionnebel, Dezember 2015. Fotografiert von Qu Jiong Ich habe ein Dutzend Fotos gemacht, einige mit guter Qualität ausgewählt, ihre hellen Sterne sorgfältig in PS ausgerichtet und dann die oberen Ebenen auf „Abdunkeln“ eingestellt – das heißt, für jedes Pixel wird nur das dunkelste aller Ebenen angezeigt. Wenn sich dort ein echter Stern befände, müsste er auf allen Ebenen an der gleichen Stelle hell leuchten und irgendwann sichtbar werden. Handelt es sich lediglich um einen Satelliten, ein Flugzeug oder ein durch hohe Empfindlichkeit verursachtes Rauschen, wird es von anderen Ebenen als „schwarz“ bewertet und verschwindet im dunklen Hintergrund. Das überlagerte zusammengesetzte Foto sieht wie folgt aus. Das Bild ist viel klarer, die echten Sterne sind noch da und die hellen Flecken, die im Foto oben eingekreist sind, sind verschwunden. Ich habe nachgeschaut und da waren sie auf jedem Foto, sie bewegten sich langsam vor einem Sternenhintergrund. Es könnten Satelliten sein. Sieht das zusammengesetzte Foto nach der Überlagerung der Bilder nicht viel klarer aus? Bei ernsthaften astronomischen Beobachtungen ist die Bildüberlagerungstechnologie natürlich viel komplizierter als dieses „Fünf-Minuten-PS-Tutorial“. Nehmen wir das zuvor erwähnte Hubble Deep Field als Beispiel: Dieses Foto wurde Ende 1995 von einem extrem dunklen Bereich im Sternbild Großer Bär aufgenommen. Abgesehen von einigen Milchstraßensternen im Vordergrund sind fast alle der über 3.000 sichtbaren Himmelsobjekte weit entfernte Galaxien, die Milliarden von Lichtjahren entfernt sind. Das Licht so weit entfernter und schwacher Sterne zwang das Hubble-Teleskop dazu, zehn Tage und 150 Erdumrundungen zu absolvieren, wobei es insgesamt 141 Stunden Belichtungszeit auf denselben Bereich des Himmels ansammelte. Letztendlich wurden 342 Fotos ausgewählt und überlagert, Störungen durch kosmische Strahlung und Streulicht von der Erde wurden entfernt und das echte Signal wurde verstärkt, um die Hubble-Bilder aus dem Weltraum zu synthetisieren, die wir heute sehen. Hubble Deep Field (und die obere rechte Ecke fehlt wie üblich) | Bildquelle: NASA 05 Das Kolorieren astronomischer Bilder erfordert sowohl Ästhetik als auch Wissen Es genügt nicht, die Bilder zusammenzusetzen und zu stapeln, auch das Ausmalen ist sehr wichtig. Da die Originalfotos verschiedener Detektoren und Weltraumteleskope eigentlich schwarz-weiß sind, müssen diese, wenn man Farbfotos sehen möchte, nachträglich eingefärbt werden. Warum ist das Originalfoto dann schwarzweiß? Dies liegt nicht an rückständiger Technologie oder einem Mangel an Informationen, die gesammelt werden könnten. Im Gegenteil, es liegt daran, dass die Informationsmenge zu groß ist. Denn das elektromagnetische Spektrum ist sehr breit und die Farben, die das menschliche Auge und Gehirn erkennen können, sind sehr begrenzt. Alles jenseits des sichtbaren Lichtbandes ist völlig unsichtbar. Welche Farbe sollten wir den Bildern geben, die von Instrumenten in anderen Wellenlängen als dem sichtbaren Licht aufgenommen werden? Daher verwendet der Detektor einfach Hell und Dunkel, um auszudrücken, was er sieht, fügt Wellenlängeninformationen hinzu, verpackt sie und wirft sie dem Menschen zu: „Hier, dieses hier ist aus dem Mikrowellenbereich, dieses hier ist aus dem Infrarotbereich, dieses hier ist aus dem Rotlichtbereich, dieses hier ist aus dem Grünlichtbereich, dieses hier ist aus dem Blaulichtbereich, dieses hier ist aus dem Ultraviolettbereich und dieses hier ist aus dem Röntgenbereich. Sie sind alle schwarz und weiß. Sie können sich Zeit nehmen, sie anzusehen. Solange Sie sie deutlich unterscheiden können, ist es in Ordnung.“ Wie trägt man also Farbe auf? Bei astronomischen Fotos muss die Farbe jedes Pixels eine Grundlage haben. Es ist nicht wie bei den alten Fotos, die früher in Fotostudios entwickelt wurden, wo man einfach rote Farbe auf die Wangen und Lippen auftrug und das war's dann. Beim Ausmalen müssen Sie sich drei Fragen stellen: Ist es realistisch? Ist es wissenschaftlich? Ist es schön? Die Antworten auf die drei Fragen entsprechen jeweils einer Färbungsmethode und können manchmal im Widerspruch zueinander stehen. Lassen Sie uns sie unten im Detail besprechen. Wenn das Foto ursprünglich im sichtbaren Lichtbereich aufgenommen wurde, ist die Kolorierung sehr einfach. Die meisten Farbfotos der großen Planeten im Sonnensystem und ihrer umgebenden Satelliten sehen so aus. Wählen Sie einfach die Schwarzweißfilme aus, die den drei Grundfarben Blau, Grün und Rot entsprechen, rendern Sie sie entsprechend in Blau, Grün und Rot und legen Sie sie dann übereinander. Schon entsteht ein Farbfoto, das „genau wie das Original aussieht“. Diese Färbung des sichtbaren Lichtbandes wird als „natürliche Farbe“ bezeichnet. Saturn, fotografiert von Cassini am 19. Juli 2013. Bildquelle: NASA Über das sichtbare Licht hinaus müssen wir das Denken der Physik und Philosophie nutzen. Beispielsweise wurde das untenstehende, aus vier Teilen bestehende Extrem-Ultraviolettbild bei Wellenlängen von 17,1 nm, 19,5 nm, 28,4 nm und 30,4 nm aufgenommen. Ultraviolettes Licht selbst hat keine Farbe, aber um diese Bänder schnell zu identifizieren, können wir sie genauso gut in der Reihenfolge der Wellenlängen des sichtbaren Lichts einfärben, von Blau bis Rot. Diese Farbsequenz entspricht der elektromagnetischen Physik, ist also sehr leicht zu verstehen und zu merken und außerdem sehr schön! Extrem ultraviolettes Bild der Sonne, aufgenommen am 31. Dezember 2021 von SOHO. Bildquelle: NASA Ist das wahr? Ist es wissenschaftlich? Ist es schön? Wenn die letzten beiden Antworten siegen, können wir sie nutzen, um die erste Frage in Frage zu stellen: Auch wenn es uns unwirklich erscheint, liegt es daran, dass unsere Vision zu eng ist und unsere Bandbreite nicht ausreicht … Mit anderen Worten: Die Menschheit schickt um jeden Preis so viele Instrumente in den Weltraum, um wissenschaftliche Forschung zu betreiben, und nicht, um Sehenswürdigkeiten zu besichtigen. Die einzelnen Farben des sichtbaren Lichts haben im gesamten elektromagnetischen Spektrum keine Bedeutung. Solange es wissenschaftliche Informationen ausdrücken kann, können wir die sichtbare Lichtfarbe des Himmelskörpers ignorieren und ihm eine völlig andere Farbe geben. Zu diesem Zeitpunkt geben wir dem Foto eine „repräsentative Farbe“. Nehmen wir als Beispiel die „Säulen der Schöpfung“. Das Originalbild war ein Schwarzweißfoto in drei Streifen. Darunter ist das linke Bild das blaugrüne Leuchten von Sauerstoff bei 502 nm, das mittlere Bild das rote Leuchten von Wasserstoff und Stickstoff bei 657 nm und das rechte Bild das tiefrote Leuchten von Schwefel bei 673 nm, die durch die Verwendung von Filtern entsprechender Wellenlängen erzielt wurden. Diese Wellenlängen werden erkannt, weil diese Elemente wichtige Bestandteile von Himmelskörpern sind. Die Frage ist also: Was entsteht, wenn man ein Blaugrün und zwei Rottöne übereinander legt? Das Ergebnis ist folgendes. Es kommt dem wahren Aussehen des Himmelskörpers vielleicht näher, aber eine solche echte blutrote Farbe hat auf wissenschaftlicher Ebene keinen Informationsgehalt. Das Ziel der Astronomen ist Klarheit. Wie bereits erwähnt, können wir, um wissenschaftliche Informationen zu vermitteln, die „wahre Natur“ der Himmelskörper aufgeben. Auf diese Weise definieren wir Sauerstoff mit der kürzesten Wellenlänge als blau, Wasserstoff + Stickstoff als grün und Schwefel mit der längsten Wellenlänge als rot (Schwefel: Ich bin ursprünglich rot ...) und erstellen das Bild erneut. Fühlen Sie sich plötzlich so bewegt, dass Sie weinen möchten? ! (Wie bereits erwähnt, hat Hubble seine Kamera im Jahr 2009 verbessert, sodass das fehlende Stück in der oberen rechten Ecke ausgefüllt wurde.) „Säulen der Schöpfung“, fotografiert vom Hubble-Teleskop am 29. Oktober 2014. Bildquelle: NASA Dadurch werden die Bilder nicht nur farbenfroher, sondern es können auch wissenschaftliche Informationen leichter vermittelt werden. Da wir nun die Entsprechung zwischen den drei Grundfarben Blau, Grün und Rot und den verschiedenen Elementen kennen, können wir die Verteilung der Elemente in den verschiedenen Teilen der „Säulen der Schöpfung“ direkt interpretieren, was viel einfacher ist als bei der „echten“ „Säule aus Fleisch und Blut“. Es gibt auch einige Färbemethoden, die weder realistisch noch wissenschaftlich sind. Beispielsweise strahlt der Nebel dahinter im Bild NGC1850 im Grunde das rote Licht der Wasserstoff-Alpha-Linie aus. Wenn es rot gefärbt ist, wird es den wissenschaftlichen Ausdruck nicht behindern, aber der Fotoretuscheur ist sehr eigensinnig und möchte es nur in Blau ausdrücken. Diese Art der Mischung, die dem persönlichen ästhetischen Geschmack entspricht, wird als „verbesserte Farbe“ bezeichnet. NGC1850, fotografiert vom Hubble-Teleskop am 10. Juli 2001. Bildquelle: NASA Lassen Sie uns die drei Fragen zum Färben noch einmal durchgehen: Ist das wahr? Wenn es echt ist, nennen wir es „natürliche Farbe“. Ist es wissenschaftlich? Wenn wir wissenschaftlich vorgehen, nennen wir es „repräsentative Farbe“. Ist es schön? Wenn es schön ist, nennen wir es „verstärkte Farbe“. Zusammenfassend lässt sich sagen, dass die Aufnahme eines astronomischen Fotos, das Schönheit und Wissenschaft, Kunst und Realität vereint, oft die gemeinsame Anstrengung von Astronomen und Künstlern erfordert und mehrere wichtige Schritte wie das Erstellen eines Puzzles, Überlagern und Kolorieren umfasst. Ich möchte auch hinzufügen, dass einige schöne Bilder, wie etwa die Third-Person-Perspektive einer Sonde, die sich einem Planeten nähert, oder die Szene einer Überlichtgeschwindigkeitsreise mit umherfliegenden Sternen, von Künstlern erstellte Konzeptzeichnungen und keine astronomischen Fotos sind. Ich glaube, dass Sie nach der Lektüre eine Vorstellung davon haben, wie Sie wunderschöne astronomische Bilder erstellen können! Haben Sie Ihr Interesse an den Weiten des Universums überhaupt nicht verloren, sind Sie aber eher bereit, darin umherzuwandern? Autor | Qu Jiong, ein populärwissenschaftlicher Autor, hat Arbeiten im Nationalmuseum, der National Space Administration usw. veröffentlicht. Rezension | Liu Xi, Forscher am Beijing Planetarium, Wissenschaftsfilmregisseur und Autor Herausgeber | Ding Zong Dieser Artikel wird von der „Science Rumor Refutation Platform“ (ID: Science_Facts) erstellt. Bei Nachdruck bitten wir um Quellenangabe. Die Bilder in diesem Artikel stammen aus der Copyright-Galerie und dürfen nicht reproduziert werden. |
Vor Kurzem brach in einer Tiefgarage in einer Gem...
Bierbäuche kommen im Alltag bei den Menschen um u...
Heutzutage treiben viele Menschen gerne Sport. Ma...
Am 16. September veranstalteten BAK Battery und C...
Quelle: People's Daily...
Sonnenschirme, Sonnencreme, Sonnenschutzkleidung,...
Yoga liegt derzeit immer mehr im Trend, denn die ...
Eine Mahlzeit hungrig, eine Mahlzeit satt; Eine N...
Tratsch „Wer als Kind früh läuft, hat als Erwachs...
Regelmäßiges Tanzen kann bei Menschen mittleren u...
In unserer Gesellschaft treiben sowohl junge als ...
Regelmäßige körperliche Betätigung kann unseren K...
Die Taille ist der wichtigste Teil unseres Körper...
Das Thema „Ich hebe beim Schlafen gern die Hände ...
Mit den allmählichen Veränderungen in der heutige...