Da für mich persönlich die Astronomie so langsam immer langweiliger wird (2021 Narrowband von Zuhause, 2022 Wide Fields aus Namibia) überlege ich mir, worauf ich in 2023 meinen Schwerpunkt setzen könnte.
Ich müsste endlich einmal professionelle Astro-Fotos machen, soll heißen: mit Kalibrierung durch Darks, Flats, Biases und mit Dithering. Das will ich in 2023 mal durchexerzieren. Die Software SiriL steht dann als “Belohnung” bereit…
Astro-Plan 2023
Mein Astro-Szenario 2023
Ein solches Ziel (s.o.) setzt voraus, dass ich oft die Sterne fotografiere. Das funktioniert am besten mit leichtem Gerät an einem bequemen Ort. Alles “lazy”.
Allerdings sollte das Geübte dann später auch unter anderen Bedingungen anwendbar sein.
a) Montierung rausbringen und anschließen (Strom und Windows-Computer)
b) Kamera und Optik zusammenbauen, grob fokussieren auf Horizont-Objekte
b) Fein fokussieren auf Sterne (mit UV-IR-Block-Filter in Filterschublade)
c) Gut Einnorden (wegen Nachführgenauigkeit)
Dabei realistische Blende z.B. 5,6 statt 3,5 damit eine gute Abbildungsqualität erzielt werden kann
Gain-Einstellung (aka ISO): 120, 240
Sensortemperatur: -10° Celsius
a) Ab welcher Belichtungszeit wird das Tracking durch die Montierung zu ungenau?
b) Ab welcher Belichtungszeit wird der Himmel zu hell (Histogramm)?
Schlussfolgerungen:
Belichtungszeit bis 120 Sekunden (Tracking der Montierung AZ GTi mit f=135mm ist gut)
Bei Gain 200 ist der Himmelshintergrund noch dunkel
4. Schritt: Dark-Bilbliothek aufbauen
Nachdem jetzt die Belichtungszeiten (120 s) und die Gain-Einstellung (200) feststehen, kann ich eine Bibliothek von Dark-Frames aufbauen
Kamera auf -10°C herunter kühlen
Objektiv mit Deckel und schwarzem Tuch bedecken
Gleiche Einstellungen für Belichtungszeit und Gain
Die Dark-Frames nehme ich mit APT auf: je 20 einzelne je Belichtungszeit.
Ein Master-Dark erstelle ich dann mit Fitswork (Menü-Leiste -> Datei -> Masterdark/-flat erstellen).
Insgesamt habe ich jetzt folgende Dark-Library für meine Astro-Kamera ASI294MC Pro:
Belichtungszeit
Gain
Sensor Temperatur
Anzahl Darks
Ordner für Dark Frames
Master Dark
30 s
200
-10° C
20 Stück
C:\Archiv\Pictures\Library\Darks\030s200G
D_Masterdark_030G200.fit
60 s
200
-10° C
20 Stück
C:\Archiv\Pictures\Library\Darks\060s200G
D_Masterdark_060G200.fit
120 s
200
-10° C
20 Stück
C:\Archiv\Pictures\Library\Darks\120s200G
D_Masterdark_120G200.fit
120 s
300
-10° C
20 Stück
C:\Archiv\Pictures\Library\Darks\120s300G
D_Masterdark_120G300.fit
5. Schritt:Echtes Astro-Foto; d.h. kalibriert
Objekt aussuchen, das in das Gesichtsfeld passt und das noch 1-2 Stunden an meinem Ort sichtbar bleibt
Den Physiker interessiert nun eine Zustandsveränderung mit der Zeit.
Möge ein Zustand 1 (Anfang) beschrieben sein durch \( q_i(t_1), \dot{q_i(t_1} \)
und ein Zustand 2 (Ende) beschrieben sein durch \( q_i(t_1), \dot{q_i(t_1} \).
Diese beiden Punkte im Phasenraum kann man in einem Diagramm des Phasenraums graphisch darstellen.
Es gibt viele Wege auf denen man vom Zustand 1 zum Zustand 2 kommen kann.
Abbildung 1: Wege in einem Phasenraum (Github: Phasenraum.svg)
Auf jedem dieser Wege kann man das Integral entlang des Weges (nicht: Pfadintegral) der Engergie über die Zeit bilden. Diese Größe nennt man “Wirkung“.
Genaugenommen sind hier (infenitesimale) Energie-Unterschiede entlang des Weges gemeint.
Die Natur wählt nun denjenigen Weg, auf dem diese Wirkung minimal ist.
Hinter dem Begriff “minimal” steckt so eine Idee von “einfacher”, “ökonomischer”, “sparsamer”,….
Um von so einem Integral das Minimum zu finden bedient man sich der mathematischen Methode der Variationsrechnung. Da werden “kleine” Differenzen betrachtet (geschrieben als kleiner Griechischer Buchstabe Delta) und diese Differenzen werden dann als Taylorentwicklung dargestellt…
Aber welche “Energie” ist das, die wir da integrieren sollen? In der klassischen Sichtweise ist das die Lagrange-Funktion. Aber wo bekommen wir die denn her???
Wir haben da immer irgendein Kraftfeld, was zu Bewegungsgleichungen führt. Ähnlich wie wir statt eines konservativen Kraftfeldes auch das Potenzial als skalares Feld nehmen konnten, wollen wir nun statt des Potenzials die Lagrange-Funktion nehmen….
Abbildung 2: Kreuz des Südens (Google Drive: 20220629_Crux-RGB-session_1-Sta.jpg)
Aufgenommen in Kiripotib am 29.06.2022 mit Canon 50mm, ASI294MC Pro, FoV 21,6° x 14,8°, 90 x 20 sec
Abbildung 3: Teapot (Google Drive: 20220702_Teapot-RGB-session_1-1-lpc-cbg-St_2a.jpg)
Aufgenommen in Kiripotib am 02.07.2022 mit Canon 50mm, ASI294MC Pro, FoV 21,6° x 14,8°, 90 x 20 sec
Abbildung 4: Milchstraße (Google Drive: 20220621_MilkyWay_0116-0146_stitch_kleiner.jpg)
Aufgenommen in Kiripotib am 22.06.2022 mit Sigma 24mm, ASI294MC Pro, Mosaik aus 10 Fotos je 30 x 20 sec mit FoV 43,4° x 30,3°
Abbildung 5: Komet C/2022 E3 (Google Drive: 20230213_Utah_C2022E3_stacked_4.jpg)
Aufgenommen am 12.2.2023 mit dem iTelescope T2 in Utah (TOA150, QHY286C), 13x60sec, Fitswork
Abbildung 6: Banard’s Loop (Google Drive: Banard_s_Loop_2-RGB-session_1-Sta_small.jpg)
Aufgenommen in Handeloh am 15.02.2022 mit Sigma 24mm, ASI294MC Pro, FoV 43,4° x 30,3°, 30 x 120 sec mit meinem Tri-Narrowband-Filter
Seit einiger Zeit wird immer mehr von “Cloud Computing” gesprochen.
Da geht es nicht nur um das Bereistellen von Speicher in der Cloud, sondern um mehr: Computing in der Cloud.
Namhafte Anbieter (“Provider”) sind:
Google mit dem Dienst “Google Cloud Platform (GCP)”
Die Einstiegsstufe für die “Cloud” ist, wenn keine Rechenleistungen, sondern nur “Speicher” zur Verfügung gestellt werden.
Altbekannt ist Dropbox, wo man als Apple-Nutzer erstmals Dateien austauschen konnte, denn ein Apple iPhone oder iPad war ja ein abgeschlossenes System.
Für mich war wichtig, wie ich solche Fotos in meinen WordPress-Blog einbinden kann.
Auch die Telekom hat einen Cloud-Dienst. Der heisst jetzt “Magenta Cloud“.
Bei Magenta Cloud hat man als Telekom-Kunde 15 GB frei, als “MagentaCloud S” bezeichnet wird.
Für 1000 GB zahlt man 9,95 im Monat
Die Telekom hat Ende 2016 den bisherigen Cloud-Dienst namens “MediaCenter” umbenannt in “MagentaCloud”. Danach wurden alle User vollständig auf NextCloud migriert (bis Ende 2021).
Der Cloud-Speicher von Google (US-Firma Alfabet) heisst jetzt “Google Drive“.
Da hat man mit jedem Google-Konto 15 GB frei.
Dieser Speichplatz gilt für Google Drive plus Gmail plus Google Fotos.
Mit einem Monats-Abo bei “Google One” erhlt man 2000 GB für 9,99 im Monat.
Den GitHub-Dienst (gehört zu Microsoft) benutze ich für SVG- und GPX-Dateien.
Auch solche Dateien möchte ich einfach in WordPress-Blogs einbinden können.
Der Dropbox-Dienst ist ein Klassiker.
Jeder Dropbox-Account hat 2 GB frei.
Im Jahresabo bekommt man 2000 GB für 9,99 im Monat.
Ich verwende Dropbox zur Zeit (2025) für die Datensicherung meines WordPress-Blogs mit dem Plugin UpDraft.
Den Flickr-Dienst hatte ich vor Jahren für meine Fotos benutzt.
Wenn ich die Fotos wieder herunterlade möchte ich:
Der Dateiname soll erhalten bleiben: Flickr=nein
Die Auflösung soll erhalten bleiben: Flickr=ja
Die Metadaten sollen erhalten bleiben: Flickr=teils
Angeregt durch das YouTube-Video “Essential Astrophotography Accessories” des “Lazy Geek”, stelle ich hier mal schnell zusammen, welches Astro-Zubehör für mich sehr wichtig ist, aber nicht vom ersten Moment an zu meiner Grundausrüstung bei der Astrofotografie gehörte:
Zum Festzurren von Zusatzteilen am Teleskop (z.B. USB-Hub oder Nano-Computer) ist Klettband (Velcro) mit Schnalle ideal.
In manchen Fällen tut es auch ein Kabelbinder.
Ich will mit “Updraft Plus” meine WordPress-Inhalte sichern (s. Datensicherung).
Das wichtigste ist mein WordPress-Blog, der bei meinem WebProvider Strato gehostet ist.
Konfiguration von Updraft Plus
Das Plugin “Updraft Plus” ist bei meinem WordPress-Blog auf Strato aktiviert und wie folgt konfiguriert:
Backup-Ziel ist meine Dropbox mit dem Kontonamen “dietrich@kr8.de”. Dort werden die Sicherungsdatein gespeichrt im Unterordner “UpdraftPlus.Com” des Ordners “Apps”.
Dieses Dropbox-Konto ist auf ComputerAcerBaer aktiv und wird laufend synchronisiert mit dem lokalen Ordner “C:\Data\Dropbox\dietrich@kr8.de\Dropbox\…”.
Als Sicherungsrhythmus ist für Updraft Plus eingestellt:
Database: weekly
Plugins, Themes, Uploads, Others: monthly
Einspielen einer Datensicherung
Das Plugin Updraft Plus bietet eine komfortable Oberfläche zum Wiedereinspielen von Datensicherungen – natürlich in das gleiche WordPress von dem sie gesichert wurde (klassisches Backup/Restore).
Man kann die Sicherungsdatei aus dem Dropbox-Ordner aber auch nehmen und diese in eine andere WordPress-Installation einspielen (quasi Transport eines WordPress). Die Datei ist ein SQL-Skript im Text-Format. Die kann man z.B. mit SQLyog wieder in eine Datenbank einspielen.
Es ist dabei aber folgendes zu Bedenken:
Das SQL-Skript spielt SQL-Tabellen in der aktuellen Datenbank ein
Der Table-Prefix ist wp_
Datenbank-Kopien mit Updraft Plus
Wenn ich eine Updraft-Datensicherung einer WordPress-Installation in eine andere einspiele ist das nicht ganz korrekt. Ich muss einiges manuell anpassen:
In der in der Datenbanktabelle “<praefix>_options”:
der Wert für “siteurl”
In der Konfigurationsdatei “wp-config.php“:
der Datenbankname
das Table-Präfix
Siehe auch: Suchen nach dem Text “siteurl”
Die Datensicherungs-Dateien, die Updraft erzeugt passen nicht immer zu allen MySQL-Versionen. Meine Updraft-Version beim Provider Strato erzeugt bespielsweise “CREATE TABLE” mit “datetime” Spalten, die einen Defaultwert von “0000-00-00 00:00:00” haben; was bei MySQL 8 ungültig ist. Es müsste “1000-01-01 00:00:00” heissen.
Erzeugt wurde die “fehlerhafte” SQL-Datei bei meinem Provider Strato unter der MySQL-Version 5.7.38-log.
Bei einer Funktion von \(\mathbb{R} \to \mathbb{R} \) ist ja klar, was eine Ableitung (Differentialquotient) ist: Anschaulich die Änderungsrate des Funktionswerts an einer bestimmten Stelle…
Wenn der Definitionsbereich einer Funktion nicht mehr \(\mathbb{R}\) sondern \(\mathbb{R}^3\) ist, nennt man eine solche Funktion auch ein “Skalarfeld”, weil durch die Funktion jedem Punkt im Raum \(\mathbb{R}^3\) ein skalarer Wert zugeordnet wird (Beispiel: Temperatur). Eine “Änderungsrate” einer solchen Funktion wäre dann ja von der Richtung abhängig, in die ich gehe; also muss so eine “Änderungsrate” ein Vektor werden. So eine “Änderungsrate” eines Skalarfeldes nennt man dann den “Gradienten” s.u.
Sei also \( \Phi \) eine Funktion \(\Phi: \mathbb{R}^3 \to \mathbb{R} \) dann ist der Gradient von \( \Phi \) :
Generell definiert man auf einem Vektorraum dann besondere Abbildungen, sog. Differentialoperatoren. Man benutzt dazu die Koordinatenschreibweise. Wir nehmen hier immer die klassischen Cartesischen Koordinaten. Wenn man andere Koordinatensystem hat, sehen die Formeln dann etwas anders aus.
Wir nehmen als Definitionsbereich für unsere “Felder” den Vektorraum \(\mathbb{R}^3\). dann haben wir partielle Ableitungen nach den drei Koordinaten: x, y und z und man definiert als sog. Nabla-Operator:
Im einfachen Fall, wenn unser Definitionsbereich nur ein Vektorraum der Dimension 1 ist (\(\mathbb{R}^1\)), ist der Gradient einfach die erste Ableitung.
Kraftfeld und Gradient
In einem konservativen Kraftfeld F(r) kann man als Skalar ein Potential V(r) definieren, sodass die Kraft der Gradient den Potentials wird:
\( \vec{F}(r) = \nabla V(r) \)
Elektrisches Feld und Divergenz
Ein Elektrisches Feld wird durch eine ruhende elektrische Ladung erzeugt.
Ein Elektrisches Feld ist ein Vektorfeld, das man üblicherweise \( \vec{E} \) schreibt.
Feldstärke – Feldlinien – xyz
Für das von einer Elektrischen Ladung Q erzeugte E-Feld \( \vec{E} \) gilt:
\( \nabla \cdot \vec{E} = 4 \pi Q \\\)
Da die Elektrische Ladung Q sozusagen das Elektrische Feld erzeugt, nennt man es auch die Quelle des E-Feldes…
Magnetisches Feld
Ein Magnetisches Feld wird durch bewegte elektrische Ladungen erzeugt.
Ein Magnetisches Feld ist ein Vektorfeld, das man üblicherweise \( \vec{B} \) schreibt.
Für ein Magnetisches Feld gilt:
\( \nabla \cdot \vec{B} = 0 \\\)
D.h. es gibt keine Quelle und alle Feldlinien sind geschlossen…
Nachdem wir APT installiert und eingerichtet haben, sowie die nötigen Geräte (Kamera, Monierung, Fokussierer,…) erfolgreich verbunden haben, können wir mit dem Fotografieren starten.
Ausser Einzelaufnahmen mit APT kann man einen sog. Plan einrichten, um Serienaufnahmen zu machen.
Einzelaufnahmen mit APT
Einzelaufnahmen macht man, indem man auf den Reiter “Shoot” (oben rechts) klickt.
Wenn wir eine Einzelaufnahme machen wollen, muss zunächst die Kamera “connected” sein und “Live View” ausgeschaltet sein. Das erkennen wir an dem großen “C” oben links unter “Status”.
Bevor wir dann durch Klicken auf den Reiter “Shoot” das Bild auslösen, sollten wir noch Belichtungszeit (“Exp.”) und Empfindlichkeit (ISO bzw. Gain) einstellen, so dass das Bild nicht zu hell und nicht zu dunkel wird.
Warum eine Einzelaufnahme machen?
Wir möchten vielleicht nur die Funktionsfähigkeit unser Kamera und des ganzen Drum-Herum testen
Wir möchten gute Einstellungen für Belichtungszeit und Empfindlichkeit finden (dabei hilft das Histogramm)
Wir möchten überprüfen, ob wir unser gewünschtes Beobachtungsobjekt getroffen haben (dafür könnten wir die Empfindlichkeit ganz hoch einstellen ODER: Platesolving)
Das Histogramm wird aufgerufen im Reiter “Tools” durch die Schaltfläche “Histograms”. In der Histogramm-Grafik sollte der “Lichtberg” sich deutlich vom linken Rand gelöst haben (Pfeil). Ggf. müssen wir länger belichten bzw. eine höhere Empfindlichkeit einstellen. Wir müssen vermeiden, dass links etrwas abgeschnitten “geclippt” wird.
Wenn ich nun das Teleskop auf das geplante Beobachtungsobjekt ausgerichtet habe und den geplanten Bildauschnitt eingestellt habe und eine passende Belichtungszeit gefunden habe, kann ich mit der “eigentlichen” Fotoaufnahme als Serienaufnahme (engl. Sequence) beginnen.
Serienaufnahmen macht man, indem man einen sog. “Plan” erstellt und diesen dann ausführt. Bei einem Plan kann die Einzelaufnahme auch länger als 30 sec belichtet werden.
Man kann bestehende Pläne “editieren” oder einen Plan ganz neu anlegen.
Gegebenenfalls will man zusätzlich zu den Light Frames auch noch Kalibrierungs-Frames wie Dark Frames, Flat Frames, Bias Frames etc. schießen, um diese beim späteren Stacking zu verwenden.
Beim Neuanlegen eines Plans muss man den Typ angeben: Light Plan, Dark Frame Plan, Flat Frame Plan, Bias Frame Plan etc. Interessanter Weise wird bei einem “Flat Frame Plan” zugelassen, dass die Kamera nicht auf “M” steht, sondern auf “AV” steht.
Der Plan einer Serienaufnahme besteht im wesenlichen aus der Wahl von Empfindlichkeit und Belichtungszeit der Einzelaufnahmen, sowie aus der Anzahl der Einzelaufnahmen für die Serie. Die beste Belichtungszeit für die Einzelaufnahme hatten wir in den vorigen Schritten herausgefunden (Histogramm) und nun kommt es auf die Gesamtbelichtungszeit an, die gerne 2 Stunden oder mehr sein darf. Die Frage ist dabei, wann wir ins Bett gehen wollen bzw. wie lange das Objekt am Himmel für uns sichtbar ist.
Abbildung 4: APT –> Camera –> Plan Editor (Google Drive: APT-Camera-03.jpg)
Unser Plan kann aus mehreren Zeilen bestehen, die wir mit “Add as new” eingeben.
Abbildung 5: APT –> Camera –> Plan Editor –> Add as new & OK (Google Archiv: APT-Camera-04.jpg)
Nach dem Abspeichern des Plans können wir den Plan Starten – vorher müssen wir uns überlegen, ob weitere Maßnahmen erforderlich sind: z.B. Autoguiding (Nachführung), Dithering, Kühlung der Kamera,….
Plan Starten: APT –> Camera –> Start (Plan)
Abbildung 6: APT Camera Start Plan (Google Drive: APT-Camera-05.jpg)
Gegenstand des Plate Solving ist immer das aktuell aufgenommene Foto.
Point Craft: Installation und Test
Um Plate Solving mit “Point Craft” zu machen, ist es äusserst sinnvoll die Plate-Solving-Software zunächst einmal stand alone d.h. ohne APT zu testen. Wie das geht habe ich in separaten Artikeln beschrieben:
Hier können wir auch gleich “Use EOS crop factor” (neu: “Use DSLR crop factor“) ankreuzen, das werden wir später benötigen.
Plate Solving mit PlateSolve2 (Near Solving)
Nachdem ein Foto aufgenommen wurde (oder ein älteres ausgewählt wurde), sieht man es in dem Hauptfenster als “Img Preview”.
Das Plate Solving wird gestartet im Reiter “Gear” durch klicken auf die Schaltfläche “Point Craft”.
Dort kann ich unter den Schaltflächen Auto, Solve und Blind auswählen. Um es mit PlateSolve2 zu machen, klicken wir auf die Schaltfläche “Solve+”, aber mit Shift-Click, damit wir noch die Größe des Gesichtsfeldes eingeben können.
Die Gesichtsfelder meiner Optiken sind verschieden:
Optik
Sensor
Gesichtsfeld
Bogenminuten
Olympus-50mm-Objektiv
APS-C-Sensor
26,4° x 17,7°
1584′ x 1062′
ED 80/600 mit Reducer (f=510mm)
APS-C-Sensor
2,6° x 1,8°
156′ x 108′
ED 80/600 mit Barlow (f=1200mm)
APS-C Sensor
1,3° x 0,9°
78′ x 52′
Die Gesichtsfeldgröße in Bogenminuten muss man sich also für die Beobachtungsnacht aufschreiben, um sie immer schnell eingeben zu können.
Bei meinen ersten Versuchen mit PlateSolve2 bekam ich immer einen Abbruch mit “Time Out”. Erst nachdem ich bei den Point Craft Settings “Use EOS crop factor” angetickert hatte, funktionierte das PlateSolve2 richtig.
Allerdings muss ich immer eine “Approx. RA” und “Approx. DEC” eingeben, was etwas Vorbereitung erfordert.
Diese ungefähren (approx.) Koordinaten für das Near Solving kann man sich ganz einfach über die APT-Objekt-Liste holen (Schaltfläche “Objects”). Man muss ggf. vorher die Objekt-Liste von APT um ein paar Sterne erweitern bzw. für das Goto vor dem Plate Solving immer nur die Sterne verwenden, die in der APT-Objektliste als Sterne vorhanden sind.
Nach dem erfolgreichen Plate Solving werden die “Plate solving Results” angezeigt und die oben genannten “Approx.” Werte werden damit überschrieben – was gut gemeint ist, man aber wissen muss…
APT –> Reiter “Gear” –> Schaltfläche “Point Craft” –> Dialogbox “Point Craft” –> Approx. RA & DEC –> Schaltfläche “Solve”
Das Platesolving mit “Near Solving” d.h. PlateSolve2 ist viel schneller als “Blind”.
Das Eingeben einer Approx. RA und Approx. DEC wird bei APT stark vereinfacht, denn man kann durch Klicken auf die Schaltfläche “Objects” ein in der Nähe liegendes Himmelsobjekt mit seinem Namen aus dem APT-Objektkatalog auswählen; die Koordinaten sind dort dann schon hinterlegt. Diesen APT-Objektkatalog kann man nach Bedarf auch um eigene spezielle Objekte erweitern…
Ich habe zum Thema “Platesolving” ein gutes Youtube-Video gefunden:
Using Astrophotography Tool – Plate Solving (Point Craft) von “AstroQuest1”
Platesolving mit “ASPS” AllSkyPlateSolver (Blind Solving)
Focal Length set in APT it must be correct within 5%
Check the ASPS Settings form – the following should be unticked:
Ignore FITS header telescope focal length
Ignore FITS header camera pixel size
Check the version of ASPS beeing used is v1.4.5.4 or above
xyz
Nachdem ein Foto aufgenommen wurde (oder ein älteres ausgewählt wurde), sieht man es in dem Hauptfenster als “Img Preview”.
Das Plate Solving wird gestartet im Reiter “Gear” durch klicken auf die Schaltfläche “Point Craft”.
Dort kann ich unter den Schaltflächen Auto, Solve und Blind auswählen. Um es mit AllSkyPlateSolver zu machen, klicken wir auf die Schaltfläche “Blind”. Wir müssen aber vorher die Größe des Sensors (Kameramodell) und die Objektivbrennweite angeben, damit das Blind Solving auch richtig funktioniert. Das machen wir unter dem Reiter “Tools” im Bereich “Object Calculator”. Die Angabe des Kameramodells definiert die Sensorgröße (bei mir: APS-C) und sollte beim “Camera -> Connect” automatisch übernommen werden. Bei der Brennweite kann man Profile für unterschiedliche Objektive hinterlegen.
Wir nehmen wieder das am 13.8.2017 mit dem Olympus f=50 aufgenommene Foto vom Ursa Major. Wir Klicken auf die Schaltfläche “Blind” und der Solving-Prozess läuft los dabei werden die Sekunden gezählt. nach 39 Sekunden ist das Bild erfolgreich “gesolved” und die Ergebnisse werden angezeigt.
Wenn man nun wissen möchte, was man da eigentlich im Gesichtsfeld hat (OK, die Koordinaten und eine Sternkarte würden es nach einigen Minuten Aufwand wohl sagen…), klickt man einfach auf die Schaltfläche “Show” und das vorher eingestellte Planetariumsprogramm zeigt einem den Bildausschnitt.
Das Planetariumsprogramm (hier: Cartes du Ciel) muss man starten bevor man APT aufruft, dann kann APT eine Verbindung zu Cartes du Ciel herstellen.
Wenn ich nun auf die Schaltfläche “Show” klicke, werden die Plate-Solving-Ergebnisse an mein Planetariumsprogramm (bei mir: Cartes du Ciel) als “Kamerafeld (CCD)” übertragen. Dort sieht man den Bildausschnitt wie folgt: