Forum der Vereinigung der Sternfreunde

Forum of the German Amateur Astronomy Association
Aktuelle Zeit: 21. Januar 2026, 15:41:11 PM

Alle Zeiten sind UTC+02:00




Ein neues Thema erstellen  Auf das Thema antworten  [ 53 Beiträge ]  Gehe zu Seite 1 2 Nächste
Autor Nachricht
BeitragVerfasst: 28. März 2017, 14:20:06 PM 
Offline
Meister

Registriert: 06. Oktober 2016, 15:04:43 PM
Beiträge: 229
Hallo,
in den letzten Tagen habe ich wegen des guten Wetters das Selbstbauprojekt des Littrows ein wenig zurückgestellt und mich mit dem vorhandenen Equipment auseinandergesetzt.
Dabei habe ich so einige Be Sterne gemessen. Besondere Aufmerksamkeit habe ich Nu Geminorum geschenkt, denn ich hatte in einem Paper von Silaj et. Al. gelesen, dass der Be Stern in diesem System zeitlich „stark“ V/R variabel sei. Bei weiterer Recherche habe ich auch nicht (im Vergleich zu anderen) so viele Arbeiten zu diesem System gefunden. Eventuell hat da ja jemand zufällig was :wink: .
Weiter habe ich bei der Recherche etwas darüber gelesen, dass es einige Zwei/Mehrfachsysteme gibt, wo das V/R mit der Orbitalphase korreliert. Allerdings weiß ich nicht, ob es da schon Untersuchungen zu gibt.

Zu den Daten habe ich nun einige Fragen bzw. würde mich über Anregungen freuen.

Erst einmal habe ich nun die temperaturbedingte Fokusdrift unter Kontrolle, sowie das Guiding. Wobei ich beim Guiding ab und an doch noch eine Wanderung von bis zu 2 Pixeln habe.

An Korrekturdaten nutze ich Bias, Darks und Flats, was, soweit ich meine, auch gut funktioniert.

Für die Datenreduktion nutze ich im Moment BASS, denn dies ist (weil Win-basiert) in der Spek-AG der Sternwarte Lübeck bevorzugt (MIDAS wird sich wohl noch hinziehen). Aber die Probleme und Fragen werden bei anderen Programmen ja sicher genauso auftauchen.

Bei der Kalibration nach der Wellenlänge nutze ich bei jedem Spektrum die O2 Linien bei 6276, 6867, sowie die Ha Linie. Die einzige Möglichkeit einer absoluten Kalibration für einen spaltlosen Spektrografen bei R 5000 wäre doch nur, die O2 Linien zu nutzen oder? Da das aber für diese Auflösung Blends/Banden sind, frage ich mich, ob das überhaupt sinnvoll ist und wie hoch die Genauigkeit wäre. Eventuell spannend, sich mal auch an so ein Phasendiagramm zu wagen...

Und dann zur Fehlerrechnung. Ich habe mir darüber ein paar Gedanken gemacht. In dem Nu Gem Fall sind die V/R Schwankungen ja recht klein, womit die Daten auch von „besserer Qualität“ sein müssen. In meinen Augen das größte Problem stellt die Normierung auf 1 dar. Wie wird so etwas bei den Profis gehandhabt?
Ich habe mir für diesen Stern Stützstellen bei bestimmten Wellenlängen gesucht und diese auf jedes Spektrum angewandt, es sei denn das Rauschen war an dieser Stelle zu weit vom Mittel weg. Dann bin ich leicht blau/rotseits ausgewichen.
Trotzdem habe ich immer noch keine ganz passgenauen Spektren.
Dateianhang:
Normalisierung_Vergleich.png
Normalisierung_Vergleich.png [ 36.3 KiB | 7502 mal betrachtet ]
Wird dies und wenn ja wie in die Fehlerrechnung mit einbezogen? Und gibt es eigentlich in den Datenbanken, wie BeSS, festgelegte Stützstellen? Das scheint mir nicht so, weil alle Spektren scheinbar anders normiert sind. Möchte man diese Auswerten, so muss man selber erst alle normieren oder?

Bei meinen Daten habe ich für die Fehlerrechnung den Flux in einem glatten Bereich (ohne Linien) vermessen und dort den Peak zu Peak Wert (0.03) durch zwei geteilt. Das Ergebnis habe ich dann als Fehler angenommen. Ist das so richtig? Muss ich da beim V/R noch etwas beachten? Die Fehlerbalken sind ja doch recht groß, welche ich dann durch ein besseres SNR verkleinern könnte. (Im Anhang ist die Exceldatei mit den Daten).
Dateianhang:
Nu_Gem.png
Nu_Gem.png [ 30.48 KiB | 7502 mal betrachtet ]
Und wie repräsentativ ist eigentlich der Flux bei 1? Man hat doch eigentlich in den Peaks bei Emission ein besseres SNR oder in Absorption ein schlechteres SNR oder?

Was muss man denn noch so an Fehlerquellen beachten? Gibt es auch noch so etwas wie statistische Fehler dadurch, dass ich jeden Tag ziemlich genau zur gleichen Zeit gemessen habe, aber gar nicht genau weiß welche zeitlichen Abstände Sinnvoll sind?

Viele Grüße und CS
Christoph


Dateianhänge:
Nu_Gem_Monitoring.xlsx [23.92 KiB]
122-mal heruntergeladen
Nach oben
   
BeitragVerfasst: 29. März 2017, 21:13:17 PM 
Offline
Meister

Registriert: 06. Oktober 2016, 15:04:43 PM
Beiträge: 229
Hey, hier ist mal meine Idee zur Rechnung der Fehlerabschätzung. Ich hoffe, dass das nachvollziehbar ist :oops: .

Grundlage sind die Daten vom 15.02.17.

Erst habe ich geguckt, wie groß das Rauschen ist.

Flux Range vom Rauschen = 0.04 => +/- 0.02


Im ersten Beitrag hatte ich einfach die +/- 0.02 als Fehler angenommen. Nun habe ich mir da aber weiter Gedanken drüber gemacht…

Dann habe ich an den Daten vom 15.02.17 die Maxima von V Flux und R Flux genommen und das V/R ausgerechnet.

V Flux = 1.4065
R Flux = 1.4031
V/R = 1.0024


Anschließend habe ich zu V den Fehler von 0.02 addiert und von R diesen subtrahiert und dies auch andersherum gemacht, um den maximal möglichen Fehlerbereich zu erhalten.

V Flux = 1.4265
R Flux = 1.3831
V/R = 1.0314

V Flux = 1.3865
R Flux = 1.4231
V/R = 0.9743


Die Differenz aus den beiden maximal fehlerbehafteten V/R Werten habe ich dann durch zwei geteilt, um den +/- Fehlerwert zu erhalten.

Max Fluxfehler= 1.0314 - 0.9743 = 0.0571 / 2 = 0.0286

Der Fehler beträgt also +/- 0.0286

Das SNR bei den Daten beträgt im Schnitt 150 bei 30min Belichtung. Hier sollte ich wohl also nach oben korrigieren, denn ich finde, dass die Balken ziemlich groß sind.

Diese Rechnung habe ich dann auch mal Torsten Brinker aus unserer Sternwarten-Spektroskopie-FG gezeigt. Er hat dann auch eine Fehlerabschätzung durchgeführt. Bei Ihm sieht das ein wenig professioneller als bei mir aus…

Dazu hat Torsten auch mich drauf hingewiesen, dass der Fehler in der zweiten und dritten Nachkommastelle liegt, somit die vierte also wegfallen kann;)

Ich hänge das mal mit an.

Sind wir da auf dem richtigen Weg? Was gibt es noch zu berücksichtigen?

Viele Grüße und CS
Christoph


Dateianhänge:
Fehlerabschätzung_TB.pdf [95.55 KiB]
149-mal heruntergeladen
Nach oben
   
BeitragVerfasst: 29. März 2017, 21:36:46 PM 
Offline
Meister

Registriert: 06. Oktober 2016, 15:04:43 PM
Beiträge: 229
Ich noch einmal, ein wenig OT...

Abgesehen davon, dass ich keinen vollen Überblick zu den schon vorhandenen Arbeiten zu dem Nu Gem System habe, hat eventuell jemand Lust da mit zu beobachten?

Zum Umgang mit den Daten bin ich der Meinung, dass jeder sie nutzen können sollte. Allerdings sollte eine Gewisse Achtung vor der Arbeit eines anderen gewahrt werden. Daher sollte in weiterführenden Arbeiten der Urheber der Daten genannt (und wenn möglich auch informiert) werden :wink:

Viele Grüße und CS
Christoph


Nach oben
   
BeitragVerfasst: 31. März 2017, 09:23:01 AM 
Offline
Meister

Registriert: 06. Oktober 2016, 15:04:43 PM
Beiträge: 229
Hallo, ich noch mal…

Langsam entwickelt sich dieser Thread zu einer Art Tagebuch meiner Überlegungen zum Umgang mit den Daten.

Egal…

Zur Normierung. Ein Problem ist ja auch dort das Rauschen. Es kann schnell passieren, dass man die Stützstellen oberhalb oder unterhalb des Fluxes setzt. Ist es sinnvoll, wenn man aus dem Rauschen so etwas wie einen Durchschnittsflux bildet und diesen dann bei genau festgelegten Wellenlängen als Stützstellen nutzt?
Sollte dafür dann das ganze Spektrum geglättet werden oder nur kleine Intervalle, wo die Stützstellen liegen? Wenn das gesamt Spektrum geglättet wird, müsste diese Funktion ja dann Absorptions- und Emissionslinien erkennen und auslassen. Das geht sicher nur bis zu einem bestimmten SNR gut.

Soweit ich weiß, kann BASS so etwas nicht.

Viele Grüße und CS
Christoph


Nach oben
   
BeitragVerfasst: 31. März 2017, 15:59:59 PM 
Offline
Meister

Registriert: 31. Juli 2006, 16:43:32 PM
Beiträge: 3468
Hallo Christoph, besser, das wird hier kein Tagebuch für Dich sondern eine Diskussion. Sehr gut, dass Du Fehler betrachtest. Ohne die wäre Deine Messung wertlos! Die Methode der Fehlerfortpflanzung, wie sie Torsten durchgeführt hat, ist korrekt. Ich würde als Delta V und Delta R einfach die Standardabweichung im Kontinuum (= Rauschen) als begründete Abschätzung nehmen. Ihr seid damit auf dem richtigen Weg.

Ja, ihr solltet aus dem Rauschen ein linienfreies Intervall nehmen und den Durchschnittsfluss als Stützstellen nutzen. Der Intervalldurchschnitt ist dann ja schon eine Glättung. Aber eben nur zur Definition des Kontinuums. Und Vorsicht: Eine Glättung erkennt keine Linien. Sie bildet nur ein Mittel.

Ein kleines Projekt zu gestalten, ist eine gute Idee. Hier gibt es leider nur sehr wenige Beobachter…

Gruß, Thomas


Nach oben
   
BeitragVerfasst: 01. April 2017, 21:31:39 PM 
Offline
Meister

Registriert: 06. Oktober 2016, 15:04:43 PM
Beiträge: 229
Hallo Thomas,

vielen Dank!

Das ist schön zu hören.

Zur Normierung habe ich noch eine Reihe an Fragen...

Sollte dann nicht das Problem mit den nicht perfekt normierten Profilen auch in die Fehlerrechnung mit eingehen?! Wie machen Profis das? Kann man mit der angesprochenen Methode eine hinreichend genaue Normierung erreichen?

Kann sich das Profil nicht auch real ändern? Kann man da zwischen realer Änderung und schlechter Normierung unterscheiden?

Wie weit sollte man überhaupt bei der Fehlerabschätzung gehen?


Das ist schade, dass es nicht so viele Beobachter gibt. Eventuell sind ja doch einige unter den stillen Mitlesern. Ich könnte mir so ein kleines Projekt auch oder eben gut vorstellen, um sich gegenseitig bei der Verbesserung der Qualität der Messungen zu helfen. Wenn dann auch noch interessante Daten dabei raus kommen um so besser. Auch diese könnte man gemeinsam Versuchen zu interpretieren...

Ist natürlich dabei auch die Frage, auf welchem Stand wer ist. Bei einigen Daten hier im Forum sind aber zum Beispiel keine Angaben zur Fehlerabschätzung gemacht :wink:

Viele Grüße und CS
Christoph


Nach oben
   
BeitragVerfasst: 01. April 2017, 21:54:38 PM 
Offline
Meister

Registriert: 31. Juli 2006, 16:43:32 PM
Beiträge: 3468
Hallo Christoph!
Zitat:
Sollte dann nicht das Problem mit den nicht perfekt normierten Profilen auch in die Fehlerrechnung mit eingehen?! Wie machen Profis das? Kann man mit der angesprochenen Methode eine hinreichend genaue Normierung erreichen?
Natürlich! Eine gute Normierung hängt vom Stern und auch vom S/N ab. Bei Be-Sternen ist das noch einfach, doch bei z.B. WR-Sternen ist das ganz schwierig. Und es hängt auch von der Problemstellung ab. Als ich die HeII-Linie bei zeta Puppis untersucht habe (http://stsci.de/pdf/zeta1998.pdf) stand gar kein Kontinuum zur Verfügung und ich habe einfach eine gerade Linie durch zwei feste Intervalle gelegt. Für die Suche nach Windstrukturen reichte das.
Zitat:
Kann sich das Profil nicht auch real ändern? Kann man da zwischen realer Änderung und schlechter Normierung unterscheiden?
Ja, das ist i.d.R. möglich weil Profiländerungen meistens nicht nur als einheitliche Intensitätsänderungen verursacht von einer schlechten Normierungsprozeduren auftreten.
Zitat:
Wie weit sollte man überhaupt bei der Fehlerabschätzung gehen?
Mit der Fehlerfortpflanzung ist alles abgedeckt. Du musst nur wissen, welche Parameter in die partiellen Differenzenquotienten eingehen müssen. So haben wir das auch für die Äquivalentbreite gemacht. http://stsci.de/pdf/errors.pdf
Zitat:
Das ist schade, dass es nicht so viele Beobachter gibt. Eventuell sind ja doch einige unter den stillen Mitlesern. Ich könnte mir so ein kleines Projekt auch oder eben gut vorstellen, um sich gegenseitig bei der Verbesserung der Qualität der Messungen zu helfen. Wenn dann auch noch interessante Daten dabei raus kommen um so besser. Auch diese könnte man gemeinsam Versuchen zu interpretieren...
Ja, dazu motiviere auch ich immer wieder.
Zitat:
Ist natürlich dabei auch die Frage, auf welchem Stand wer ist. Bei einigen Daten hier im Forum sind aber zum Beispiel keine Angaben zur Fehlerabschätzung gemacht
Allerdings! :roll:

Gruß, Thomas


Nach oben
   
BeitragVerfasst: 03. April 2017, 10:35:02 AM 
Offline
Meister

Registriert: 17. Dezember 2006, 13:03:43 PM
Beiträge: 235
Hallo Christoph,

 

ich beobachte diesen Stern auch schon seit einigen Jahren hinsichtlich der EW von H-Alpha und H-Beta. Allerdings komme ich nur auf ein R von ca. 5000.  Anbei mal einige meiner letzten Spektren. Bezüglich der Fehler für die EW hatte ich für meine Aufnahmebedingungen mal eine Größenordnung von 5-10 % grob abgeschätzt.  Bezüglich des V/R-Verhältnisses habe ich noch keine Abschätzung des Fehlers gemacht. Nach meinem Eindruck verringert sich die EW von H-Alpha gegenwärtig. Werte für die EW von H-Alpha, so du sie ermittelt hast, würden mich sehr interessieren.

Ich beobachte bezüglich der EW etwa 20 Be-Sterne seit mehreren Jahren.

 

Viele Grüße aus dem Osten Brandenburgs

 

Bernd Hanisch

 

Gesendet: Samstag, 01. April 2017 um 21:31 Uhr
Von: "Christoph Quandt" <fg-spek-data@vdsastro.de>
An: fg-spek-admin@vdsastro.de
Betreff: [fg spektroskopie] Re: Fragen zur Reduktion und Fehlerrechnung anhand Nu Gem

Link zum neuen Beitrag: http://forum.vdsastro.de/viewtopic.php?t=4708#p29245

Das ist schade, dass es nicht so viele Beobachter gibt. Eventuell sind
ja doch einige unter den stillen Mitlesern. Ich könnte mir so ein
kleines Projekt auch oder eben gut vorstellen, um sich gegenseitig bei
der Verbesserung der Qualität der Messungen zu helfen. Wenn dann auch
noch interessante Daten dabei raus kommen um so besser. Auch diese
könnte man gemeinsam Versuchen zu interpretieren...

Ist natürlich dabei auch die Frage, auf welchem Stand wer ist. Bei
einigen Daten hier im Forum sind aber zum Beispiel keine Angaben zur
Fehlerabschätzung gemacht

Viele Grüße und CS
Christoph
 


Nach oben
   
BeitragVerfasst: 03. April 2017, 16:09:47 PM 
Offline
Meister

Registriert: 06. Oktober 2016, 15:04:43 PM
Beiträge: 229
Hey Thomas

ja, dass Be Sterne da relativ einfach sind habe ich ja z.B. an VV Cep festgestellt. Dieser ist mit dem dominierenden M-Spektrum schon anspruchsvoller!

Ich habe mich mit dem Entwickler von BASS in Verbindung gesetzt. In dem Menü, wo es um das Entfernen des kontinuums geht kann man tatsächlich nur im Rauschen die Punkte festlegen. Um das zu umgehen hat er vorgeschlagen, dass ich vorher einen Low-Pass-Filter (den gibt es auch in "Gaußausführung") nutzen könnte. An dem so gefilterten Spektrum könne ich dann die Stützpunkte setzen und dann auf das "echte" Spektrum anwenden.

Das Ergebnis sieht, würde ich sagen, gut aus. Die Passgenauigkeit liegt im Rauschen. Beim grünen Spektrum ist die Auflösung höher. Ich habe absichtlich qualitativ unterschiedliche Daten genommen.
Dateianhang:
Normierung_LowPass.png
Normierung_LowPass.png [ 34.99 KiB | 7363 mal betrachtet ]
So wie ich das verstanden habe lässt der Tiefpassfilter nur Frequenzbereiche bis zu einem vorgegebenen Bereich durch. Da dieser Filter nicht zwischen Linien und Rauschen unterscheiden kann, wirkt er gleichzeitig Auflösungsreduzierend. Was der Gaußfilter anders macht und ob der besser geeignet ist, weiß ich aber nicht.

Viele Grüße und CS
Christoph


Nach oben
   
BeitragVerfasst: 03. April 2017, 16:27:05 PM 
Offline
Meister

Registriert: 31. Juli 2006, 16:43:32 PM
Beiträge: 3468
Hallo Christoph! Zu dieser Filtertechnik kann ich nichts sagen weil ich sie nicht kenne. Mir scheint aber, dass sie nichts anderes macht als einen Mittelwert für das Intervall zu bestimmen, in den Du dann das Kontinuum legst. Das scheint mir doppelte Arbeit. Aber solange ich nicht wirklich weiß, was BASS genau macht, kann ich mich nur zurückhalten. Wenn nicht einmal der Entwickler der Software bescheid weiß, würde ich das gleich verwerfen...

Du hattest mich gefragt, wie man die EW misst, wenn man zwei Peaks hat. Das kommt darauf an, woher die Peaks kommen. Ist es ein Blend aus mehreren Linien (verschiedene geometrische und thermische Quellen), müssen die mit einem Algorithmus bzw. einem Modell je nach Objekt getrennt werden. Das kann sehr anspruchsvoll sein. Bei Be-Sternen ist das einfach weil die Halpha-Linie und bei Peaks in der gesamten Scheibe erzeugt werden. Die Peaks sind lediglich Dichteschwankungen. Also wird die EW für Halpha über die gesamte Linie bestimmt. Willst Du jedoch einzelne Schwankungen messen, muss wiederum ein Model her. Im einfachsten Fall fittest Du einen Gauß an einen Peak und der repräsentiert dann eine Seite der Scheibe. Ob das dann aussagekräftig ist, steht auf einem anderen Blatt.

Gruß, Thomas


Nach oben
   
BeitragVerfasst: 03. April 2017, 16:38:56 PM 
Offline
Meister

Registriert: 06. Oktober 2016, 15:04:43 PM
Beiträge: 229
Hey Bernd

finde ich schön, dass sich jemand meldet :wink:

Was für einen Spektrografen und welche Software nutzt Du denn? Bei mir kommt ja der MiniSpec vom Daniel zum Einsatz. Damit arbeite ich Spaltlos. Daher bin ich zum Teil an das Seeing gebunden. In der Regel komme ich auch auf eine R von um und bei 5000.

Mit der EW habe ich mich noch nicht so viel beschäftigt. In welchen Bereich integrierst Du denn für die EW?

Ich weiß nicht genau, wie BASS den Doppelpeak bei der Messung behandelt, aber ich bekomme für die Daten vom 02.04. eine EW von -3,7; integriert von 6561 A bis 6573 A.

Eine Fehlerabschätzung habe ich dafür auch noch nicht. Da muss ich mich noch einarbeiten. Aber Thomas (ich glaub mit Klaus zusammen) hat da ja ein tolles Paper zu.

Wenn Du magst, können wir uns gerne auch weiterhin austauschen. Eventuell könnten wir uns unsere Daten über Dropbox zuschicken. Wenn ich denke, dass die Qualität der Daten und die Fehlerabschätzung ausreichen, würde ich in Zukunft auch Datenbanken, wie hier im Forum oder BeSS nutzen.

Achja, in welchen Zeitabständen misst Du denn in etwa? Klar Wetter- und Zeitabhängig;)

Viele Grüße und CS
Christoph

P.S.: Da sind keine letzten Spektren :wink:


Nach oben
   
BeitragVerfasst: 03. April 2017, 17:01:10 PM 
Offline
Meister

Registriert: 06. Oktober 2016, 15:04:43 PM
Beiträge: 229
Thomas,

ja das ist in der Tat doppelte Arbeit! Der Entwickler meinte ja auch, dass das ein kleiner Umweg sei. So wie Du das beschrieben hast, sehe ich das auch.

Ich denke schon, dass der Entwickler dort Ahnung hat. Aber nicht wirklich ausführlich geantwortet. Im Windowsbereich halte ich das Programm für vielversprechend. Immerhin teilweise wird beschrieben, welche Mathematik hinter dem Programm steckt.

Nichtsdestotrotz bin ich da bei Dir, dass die Daten mindestens anzuzweifeln sind, wenn man nicht genau weiß, was mit ihnen passiert ist.

Ok, vielen Dank für die Infos zur EW! Das ist dann zum Glück für diesen Fall nicht ganz so kompliziert.

Viele Grüße und CS
Christoph


Nach oben
   
BeitragVerfasst: 03. April 2017, 21:50:01 PM 
Offline
Meister

Registriert: 17. Dezember 2006, 13:03:43 PM
Beiträge: 235
 

Hallo Christoph,

vielen Dank für deine Rückmeldung.

Was für einen Spektrografen und welche Software nutzt Du denn?

 

den DADOS mit einem Gitter mit 1200 Linien/mm und einem 25 µm-Spalt. Detektor: EOS 6 D, astromodifiziert 

Bildbearbeitung mit ImageJ, Stapeln und Wellenlängennormierung mit Excel, Kontinuumsnormierung mit MK 32, EW- und SNR- Bestimmung mit VSPEC 

 In welchen Bereich integrierst Du denn für die EW?

 

6520 A - 6600 A

Ich weiß nicht genau, wie BASS den Doppelpeak bei der Messung
behandelt, aber ich bekomme für die Daten vom 02.04. eine EW von -3,7;
integriert von 6561 A bis 6573 A.

 

... da sind links und rechts der Emission noch schwache photosphärische Absorptionen. Die zählen m.E. mit zur Linie.

Wenn Du magst, können wir uns gerne auch weiterhin austauschen.

 

Ja gern.

Eventuell könnten wir uns unsere Daten über Dropbox zuschicken.

 

Mit einer Dropbox kenne ich mich nicht aus. An die BESS-Datenbank habe ich auch schon  gedacht.

Achja, in welchen Zeitabständen misst Du denn in etwa? Klar Wetter-
und Zeitabhängig;)

 

Wie es passt. Aber  in der Regel bekomme ich nicht mehr als 2-3 Spektren pro Stern und Saison.

P.S.: Da sind keine letzten Spektren

 

Sorry. Ich hatte eine PP-Datei angehängt. Hier nochmal. Hoffentlich klappt es jetzt.
 


Nach oben
   
BeitragVerfasst: 05. April 2017, 08:48:18 AM 
Offline
Meister

Registriert: 06. Oktober 2016, 15:04:43 PM
Beiträge: 229
Hallo Thomas und alle so Mitlesenden,

eine Sache zur Fehlerrechnung ist mir noch eingefallen. Da ich mit 550mm Brennweite, einem Seeing von 3-4 und den 4.54mü Pixeln ja eher beim Undersampling bin (2-3 Pixel), kann ich doch auch nur ein bestimmtes SNR erreichen. Sollte dies in der Fehlerrechnung nicht die obere Grenze darstellen?

Und Thomas, wir hatten das Thema ja schon einmal. Wo liegt denn mein max SNR? Ich komme wohl morgen dazu ins Buch zu gucken;).


Dann habe ich gestern mal 2 Aufnahmeserien mit einem Abstand von 30 Minuten von Nu Gem gemacht. Bei der ersten habe ich eine Bessere Auflösung und ein leicht höheres SNR. Bei der zweiten Aufnahme war der Stern im Gesträuch. Also Lichtverlust durch die kleinen Äste.

Beide Messungen ergaben natürlich unterschiedliche Ergebnisse. Wenn ich dann die Daten von beiden Messungen addiere wird das SNR natürlich ein wenig besser und ich bekomme ein Ergebnis zwischen den Einzelmessungen.

1. V/R 1.028 (beste Auflösung)
2. V/R 1.034
1+2 V/R 1.032

Was sollte da nun ins Monitoring eingehen? Es liegt alles im Fehlerbereich (naja bei den großen Fehlerbalken...).

Viele Grüße und CS
Christoph


Nach oben
   
BeitragVerfasst: 05. April 2017, 12:22:32 PM 
Offline
Meister

Registriert: 31. Juli 2006, 16:43:32 PM
Beiträge: 3468
Hallo Christoph!

Das S/N ist nicht „limitiert“. Man muss nur wissen, dass der unsichtbare Samplingfehler irgendwann in den Bereich des Noise gelangt. Dein Sampling ist in der Tat etwas knapp und sollte besser bei 3-4 Pixel pro Auslösungselement (Spalt oder Seeingscheibchen) liegen. Bei 3 Pixel entspricht das einem S/N von rund 150 (Abb. 2.40 im Buch). Allerdings ändert dieser Sachverhalt nichts daran, dass Linienparameter wie z.B. die EW weiterhin bestimmt werden können.

Wenn Deine beiden Messungen von V/R eh im Fehlerbalken liegen, kannst Du den Mittelwert nehmen. Allerdings ist das dann nicht der Fehler der EW. Die Peaks sollten einen Einzelfehler wie das Rauschen im Kontinuum haben, nur skaliert mit der Linienintensität.

Gruß, Thomas


Nach oben
   
BeitragVerfasst: 05. April 2017, 15:07:08 PM 
Offline
Meister

Registriert: 06. Oktober 2016, 15:04:43 PM
Beiträge: 229
Hallo Thomas,
ok. An einem besseren Sampling arbeite ich ja schon => C8. Bedeutet für den Mini, so wie er im Moment ausgeführt ist, dass er nur noch ca. R 4000 leisten kann.

Gut, den Mittelwert habe ich dann genommen. Und ja, bisher habe ich nur das V/R in meinen Daten betrachtet. Da ist die Fehlerabschätzung genau, wie oben beschrieben ausgeführt.
Die EW und Fehlerabschätzung werde ich mir dann jetzt nach und nach angucken.

Viele Grüße und CS
Christoph


Nach oben
   
BeitragVerfasst: 05. April 2017, 15:53:54 PM 
Offline
Meister

Registriert: 06. Oktober 2016, 15:04:43 PM
Beiträge: 229
Hallo Bernd,

ich habe mir nun auch mal Deine Daten genauer angeschaut. Mir ist aufgefallen, dass Deine Peaks kleiner sind als bei mir und auch im Vergleich zu den Daten in BeSS. Allerdings passt es wohl, dass die EW sich verringert. (Ist verringern eigentlich der richtige Ausdruck? In Emission hat man doch einen negativen Wert…)
Kann es sein, dass Du den Himmelshintergrund nicht oder nicht richtig abziehst? Den Fehler habe ich am Anfang auch sehr lange gemacht.

Eine weitere Sache, die mir aufgefallen ist, ist dass die Ha Absenkung der Absorption bei Dir sehr unterschiedlich aussieht. Das ist nicht real oder? Liegt das an der Normierung?

Ich packe mal die mal zum Vergleich die grafische Darstellung der Daten hier mit rein. Bei mir gibt es keine Fehlerabschätzung. Du, Bernd, hattest ja 5-10% angegeben.
Dateianhang:
Hanisch.png
Hanisch.png [ 5.87 KiB | 7321 mal betrachtet ]
Dateianhang:
Quandt.png
Quandt.png [ 28.54 KiB | 7321 mal betrachtet ]
Ich denke, um eine bessere Basis zum Datenvergleich zu schaffen, sollten wir uns auch bei der Normierung auf bestimmte Stützstellen (X-Achse) einigen. Dies auf jeden Fall um den Ha Bereich. Wenn weiter ab davon was nicht ganz passt ist das ja nicht so von Belang.

Hier wäre es eine Idee, höher Aufgelöste Spektren aus BeSS zu bemühen, um zu vermeiden die Stützstellen in Linien zu packen.

Interessant wäre auch, welchen Einfluss der „spektroskopische Begleitstern“ von dem Be Stern hat. Durch die eher schnelle Rotation wird aber wohl der Be Stern am meisten zu einer breiteren Linie beitragen. Ich muss mich allerdings noch vernünftig mit dem System auseinandersetzten, da ich bisher hauptsächlich die Seite der Datenreduktion betrachtet habe.

Viele Grüße und CS
Christoph


Nach oben
   
BeitragVerfasst: 07. April 2017, 11:43:23 AM 
Offline
Meister

Registriert: 06. Oktober 2016, 15:04:43 PM
Beiträge: 229
Hallo,
ich setze ich im Moment mit der EW und Fehlerabschätzung dazu auseinander.

Dazu wollte ich mir erst selber Gedanken machen. Die EW wird ja als Rechteck mit voller Sättigung auf das auf 1 normierte Kontinuum dargestellt. Angegeben wird er in Angström bzw. der Einheit auf der x-Achse.

Berechnet wird die EW indem die Linie in „unendlich“ viele rechteckige Streifen unterteilt und addiert wird oder?
Hier ist dann ja schon mal die erste Sache. In Wirklichkeit können das ja nicht unendlich viele Rechtecke sein, die zur Summierung genutzt werden. Nutzen die Programme hierfür einfach die Pixel? Dann stellt die Auflösung/Dispersion doch schon einmal einen Fehlerwert dar?!

Hier wären wir wieder bei dem Problem das es Mist ist, wenn man nicht weiß, was das Programm so macht…

Wenn wir nun das Rechteck haben, dann müssten doch die linke und rechte senkrechte Seite den Fehler der spektralen Auflösung beinhalten?! Diese wiederum kann ich ohne Spalt aber auch nicht sehr genau angeben.

Die obere und untere Seite müssten ja als Fehler das Rauschen beinhalten.

Sind diese Überlegungen soweit brauchbar?

Viele Grüße und CS
Christoph


Nach oben
   
BeitragVerfasst: 07. April 2017, 14:01:29 PM 
Offline
Meister

Registriert: 31. Juli 2006, 16:43:32 PM
Beiträge: 3468
Hallo Christoph!
Zitat:
ich setze ich im Moment mit der EW und Fehlerabschätzung dazu auseinander.
Ein sehr guter Gedanke! :)
Zitat:
Dazu wollte ich mir erst selber Gedanken machen. Die EW wird ja als Rechteck mit voller Sättigung auf das auf 1 normierte Kontinuum dargestellt. Angegeben wird er in Angström bzw. der Einheit auf der x-Achse.
Ja!
Zitat:
Berechnet wird die EW indem die Linie in „unendlich“ viele rechteckige Streifen unterteilt und addiert wird oder?
Ja, unendlich viele Streifen werden durch das Integral dargestellt.
Zitat:
Hier ist dann ja schon mal die erste Sache. In Wirklichkeit können das ja nicht unendlich viele Rechtecke sein, die zur Summierung genutzt werden. Nutzen die Programme hierfür einfach die Pixel? Dann stellt die Auflösung/Dispersion doch schon einmal einen Fehlerwert dar?!
Nein, weil die ja bei einer Messung nicht variieren kann, das ist fest eingestellt.
Zitat:
Hier wären wir wieder bei dem Problem das es Mist ist, wenn man nicht weiß, was das Programm so macht…
Ja!
Zitat:
Wenn wir nun das Rechteck haben, dann müssten doch die linke und rechte senkrechte Seite den Fehler der spektralen Auflösung beinhalten?! Diese wiederum kann ich ohne Spalt aber auch nicht sehr genau angeben.
Nein, siehe oben. Die partielle Ableitung einer Konstante in der Fehlerfortpflanzung (hier der Äquivalentbreite) ist Null.
Zitat:
Die obere und untere Seite müssten ja als Fehler das Rauschen beinhalten.
Ich weiß nicht, was Du hier meinst aber in unserem Paper findet sich das ja auch in den Gleichungen (6) und (7).

Gruß, Thomas


Nach oben
   
BeitragVerfasst: 07. April 2017, 14:25:24 PM 
Offline
Meister
Benutzeravatar

Registriert: 17. Dezember 2006, 15:08:21 PM
Beiträge: 904
Wohnort: Neckarsteinach
Zitat:
Zitat:
Hier ist dann ja schon mal die erste Sache. In Wirklichkeit können das ja nicht unendlich viele Rechtecke sein, die zur Summierung genutzt werden. Nutzen die Programme hierfür einfach die Pixel? Dann stellt die Auflösung/Dispersion doch schon einmal einen Fehlerwert dar?!
Nein, weil die ja bei einer Messung nicht variieren kann, das ist fest eingestellt.
Wenn die Dispersion falsch ist, ergibt das einen systematischen Fehler in der Äquivalentbreite. Die Auflösung spielt aber keine Rolle.
Zitat:
Zitat:
Wenn wir nun das Rechteck haben, dann müssten doch die linke und rechte senkrechte Seite den Fehler der spektralen Auflösung beinhalten?! Diese wiederum kann ich ohne Spalt aber auch nicht sehr genau angeben.
Nein, siehe oben. Die partielle Ableitung einer Konstante in der Fehlerfortpflanzung (hier der Äquivalentbreite) ist Null.
Schon klar, aber einen systematischen Fehler gibt es. In der Praxis ist der Fehler der Dispersion aber i.a. nicht relevant.

Herzliche Grüße,
Otmar


Nach oben
   
BeitragVerfasst: 07. April 2017, 14:39:05 PM 
Offline
Meister

Registriert: 31. Juli 2006, 16:43:32 PM
Beiträge: 3468
Hallo Otmar, was meinst Du mit "falscher Dispersion"? Wenn Du den Fehler der Dispersion meinst, verstehe ich nicht, wie die schwanken kann. Gruß, Thomas


Nach oben
   
BeitragVerfasst: 07. April 2017, 15:12:02 PM 
Offline
Meister
Benutzeravatar

Registriert: 17. Dezember 2006, 15:08:21 PM
Beiträge: 904
Wohnort: Neckarsteinach
Hallo Thomas,
Zitat:
Hallo Otmar, was meinst Du mit "falscher Dispersion"? Wenn Du den Fehler der Dispersion meinst, verstehe ich nicht, wie die schwanken kann. Gruß, Thomas
Nicht innerhalb einer Messung, aber vielleicht zwischen der Kalibration von heute und der von gestern?

Herzliche Grüße,
Otmar


Nach oben
   
BeitragVerfasst: 07. April 2017, 15:39:20 PM 
Offline
Meister

Registriert: 31. Juli 2006, 16:43:32 PM
Beiträge: 3468
Ok, wer sowas macht, muss darauf achten.


Nach oben
   
BeitragVerfasst: 07. April 2017, 19:22:39 PM 
Offline
Meister

Registriert: 06. Oktober 2016, 15:04:43 PM
Beiträge: 229
Hallo Thomas und Otmar,

ok, also die Dispersion spielt als systematischer Fehler eine Rolle, aber eher zu vernachlässigen.

Dann soll ja die EW theoretisch nicht von der Auflösung abhängig sein. Also muss flächenmäßig sich die instrumentelle Verbreiterung bei geringerer Auflösung mit den höheren/tieferen Peaks der Linen ausgleichen oder?

Aber praktisch passt das zwischen den R 17.000 Daten aus BeSS und meinen R 5.000 nicht so wirklich. Dies liegt ja wohl an den Linien, die erst mit höherer Auflösung sichtbar werden?

Dann ein klein wenig weg vom Thema… Be Shell Sterne werden doch so definiert, dass zwischen den Peaks die Senke unter das Kontinuum gehen muss oder? (Warum das genau so ist, muss ich noch mal genau nachlesen). Aber diese Definition ist ja dann auch Auflösungsabhängig, denn bei meinen Spektren ist dies nicht der Fall. Mit welcher Auflösung werden denn Shell-Sterne definiert?
Und verhindert dies nicht auch die Vergleichbarkeit der Daten? Durch die Senke unter IC=1 muss ja der EW Wert größer sein. (also anstelle von z.B. -2.03 nur -1.23)

Da taucht noch eine Frage auf, die ich auch schon einmal hatte. Geht man bei der Angabe von der EW eigentlich immer von positiven Werten aus und nennt dazu ob Emission oder Absorption. Also wann spreche ich davon, dass die EW größer/kleiner wird?


So und dann weiter zum statistischen Fehler bei der EW. Hier habe ich doch zweimal das Rauschen zu beachten? Einmal ist ja das auf Eins normierte Kontinuum verrauscht, welches ich aber nur blau- und rotseits von dem Integrationsbereich messen kann. In der Linie gibt es keine Information. Und dann habe ich das Rauschen im Profil der Linie. Thomas, dass meinte ich mit oben und unten… .

Kann ich für das Rauschen im Profil das Rauschen von Kontinuum annehmen? Sind die Fehler vom Kontinuum und dem Profil unabhängig voneinander? Und da ich ja mit dem Rechteck a*b habe, muss ich da die Fehler noch zum Quadrat nehmen?!


Viele Grüße und CS
Christoph

P.S.: Thomas, klar weiß ich, dass ihr die Gleichungen in dem Paper serviert. Aber ich verstehe besser was dahinter steckt, wenn ich mir das Problem angucke und weiß, wie ich zu der Gleichung komme. Das habe ich im Mathematikunterricht immer gehasst. Ich musste irgendetwas rechnen und wusste nicht wozu. Ich finds cool, dass ihr euch hier im Forum auch um so schwere Geburten mit Realschulmatheverständnis kümmert :wink:


Nach oben
   
BeitragVerfasst: 07. April 2017, 20:47:20 PM 
Offline
Meister
Benutzeravatar

Registriert: 11. November 2007, 18:11:30 PM
Beiträge: 1379
Zitat:
Hallo Thomas und Otmar,
Da taucht noch eine Frage auf, die ich auch schon einmal hatte. Geht man bei der Angabe von der EW eigentlich immer von positiven Werten aus und nennt dazu ob Emission oder Absorption. Also wann spreche ich davon, dass die EW größer/kleiner wird?
Hallo Christoph,
nimm einfach die von Thomas angegebene Formel, dann erhältst Du das korrekte Vorzeichen:
Emission -
Absorption +
Viele Grüße
Christian


Nach oben
   
BeitragVerfasst: 08. April 2017, 08:16:14 AM 
Offline
Meister

Registriert: 06. Oktober 2016, 15:04:43 PM
Beiträge: 229
Hallo Christian,

danke. Ich glaube das war blöd formuliert. Ich weiß das Emission negativ und Absorption postiv angegeben werden. (Allerdings habe ich manchmal gesehen, dass auch bei Emission das Minus weggelassen wurde. Eventuell, wenn eh klar ist, dass es sich um Emission handelt.)

Wenn nun z.B. bei Y Cas eine Änderung der Ha EW von -40 auf -37 auftritt, spreche ich dann davon, dass das die EW größer oder kleiner wird? Mathematisch wird die EW ja größer aber physikalisch wird doch der Flux kleiner.

Viele Grüße und CS
Christoph


Nach oben
   
BeitragVerfasst: 08. April 2017, 13:45:44 PM 
Offline
Meister

Registriert: 31. Juli 2006, 16:43:32 PM
Beiträge: 3468
Hallo Christoph!
Zitat:
ok, also die Dispersion spielt als systematischer Fehler eine Rolle, aber eher zu vernachlässigen.
Ehrlich gesagt verstehe ich Otmar’s Argument noch nicht ganz. Woher soll eine variable und fehlerbehaftete Dispersion kommen?
Zitat:
Dann soll ja die EW theoretisch nicht von der Auflösung abhängig sein. Also muss flächenmäßig sich die instrumentelle Verbreiterung bei geringerer Auflösung mit den höheren/tieferen Peaks der Linen ausgleichen oder?
Ich meine so ist es.
Zitat:
Aber praktisch passt das zwischen den R 17.000 Daten aus BeSS und meinen R 5.000 nicht so wirklich. Dies liegt ja wohl an den Linien, die erst mit höherer Auflösung sichtbar werden?
Das weiß ich nicht.
Zitat:
Dann ein klein wenig weg vom Thema… Be Shell Sterne werden doch so definiert, dass zwischen den Peaks die Senke unter das Kontinuum gehen muss oder? (Warum das genau so ist, muss ich noch mal genau nachlesen). Aber diese Definition ist ja dann auch Auflösungsabhängig, denn bei meinen Spektren ist dies nicht der Fall. Mit welcher Auflösung werden denn Shell-Sterne definiert?
Sie werden nicht mit der Auflösung definiert sondern mit dem spektralen Phänomen. Ab welchem R das sichtbar wird, weiß ich nicht genau, die Linie muss aber natürlich aufgelöst sein.
Zitat:
Und verhindert dies nicht auch die Vergleichbarkeit der Daten? Durch die Senke unter IC=1 muss ja der EW Wert größer sein. (also anstelle von z.B. -2.03 nur -1.23)
Nein, es werden nur die Absolutwerte der Flächen addiert weil es keine negativen Flächen gibt.
Zitat:
Da taucht noch eine Frage auf, die ich auch schon einmal hatte. Geht man bei der Angabe von der EW eigentlich immer von positiven Werten aus und nennt dazu ob Emission oder Absorption. Also wann spreche ich davon, dass die EW größer/kleiner wird?
Wie gesagt, es gibt keine negativen Flächen. Das Vorzeichen ist eine Konvention der EW-Definition.
Zitat:
So und dann weiter zum statistischen Fehler bei der EW. Hier habe ich doch zweimal das Rauschen zu beachten? Einmal ist ja das auf Eins normierte Kontinuum verrauscht, welches ich aber nur blau- und rotseits von dem Integrationsbereich messen kann. In der Linie gibt es keine Information. Und dann habe ich das Rauschen im Profil der Linie. Thomas, dass meinte ich mit oben und unten… .
Die Fehlerformel beinhaltet die Mittelwerte von Linien- und Kontinuumsfluss. Das Rauschen gleicht sich also aus. Im deutschen Text http://stsci.de/pdf/fehler.pdf finden sich Grafiken, die unseren Ansatz darstellen.
Zitat:
Kann ich für das Rauschen im Profil das Rauschen von Kontinuum annehmen?
Ja!
Zitat:
Sind die Fehler vom Kontinuum und dem Profil unabhängig voneinander?
Nein! Man nutzt das S/N aus dem Kontinuum.
Zitat:
Und da ich ja mit dem Rechteck a*b habe, muss ich da die Fehler noch zum Quadrat nehmen?!
Nein! Siehe Paper.
Zitat:
Wenn nun z.B. bei Y Cas eine Änderung der Ha EW von -40 auf -37 auftritt, spreche ich dann davon, dass das die EW größer oder kleiner wird? Mathematisch wird die EW ja größer aber physikalisch wird doch der Flux kleiner.
Wie gesagt, das Vorzeichen ergibt sich aus der EW-Definition, die Flächen sind aber immer positiv.

Gruß, Thomas


Nach oben
   
BeitragVerfasst: 08. April 2017, 16:48:37 PM 
Offline
Meister
Benutzeravatar

Registriert: 11. November 2007, 18:11:30 PM
Beiträge: 1379
Zitat:
Hallo Christoph!
Zitat:
ok, also die Dispersion spielt als systematischer Fehler eine Rolle, aber eher zu vernachlässigen.
Ehrlich gesagt verstehe ich Otmar’s Argument noch nicht ganz. Woher soll eine variable und fehlerbehaftete Dispersion kommen?
Hallo Thomas,
das kann durch Temperaturunterschiede geschehen. Wenn sich der Gitterträger bei höheren Temperaturen ausdehnt, haben wir weniger Linien / mm. In der Praxis hat man es mit einem Temperaturbereich zwischen -5 und +20 C zu tun. Bei tieferen Temperaturen verzichte ich auf das Vergnügen. Außerdem gibt es Situationen mit stark fallender Temperatur. Dann ist die Liniendichte über die Breite nicht konstant. Außerdem kann die Fokussierung unterschiedlich gut sein, was sich vermutlich nicht nur auf das R auswirkt. Bin mir da aber nicht ganz sicher.
Viele Grüße
Christian


Nach oben
   
BeitragVerfasst: 08. April 2017, 18:29:52 PM 
Offline
Meister

Registriert: 31. Juli 2006, 16:43:32 PM
Beiträge: 3468
Hallo Christian,

ja, bei unter -5° hört der Beobachtungsspass definitiv auf..... ;D

Fensterglas hat einen Ausdehnungskoeffizienten von 7.6 * 10^-6 pro °C (Borosilikatglas nur halb soviel). Bei 1200 Linien pro Millimeter und einer Temperaturänderung zwischen zwei Nächten von 20°C wäre das dann rund 0.2 Linien pro Millimeter oder für ein Gitter von 70mm Länge eine Ausdehnung von etwa 1/100mm (10µm). Es kann sein, dass sich so ein Wert auf hochgenaue Echellemessungen auswirkt. Im Normalfall nehme ich sowieso vor und nach jeder Messung ein Kalibrationsspektrum auf. Das sollte das Problem kompensieren, meine ich.

Gruß, Thomas


Nach oben
   
BeitragVerfasst: 11. April 2017, 22:43:45 PM 
Offline
Meister

Registriert: 06. Oktober 2016, 15:04:43 PM
Beiträge: 229
Hallo Thomas und Christian,
ich habe grad ein wenig mehr um die Ohren.

Wir hier oben im Norden machen auch noch bis -15°C Astro… :D

Bei der Dispersion ist es so, dass ich rechnerisch auf 0.30 A/Pixel um Ha komme. Real schwankt der Wert aber zwischen 0.29 und 0.34. Dies kann viele Gründe haben. Zum einen habe ich ja keinen Spalt und bin Seeingabhängig, dann die erwähnten Temperaturschwankungen, die sich auch auf die Russentonne auswirken. Wenn ich nicht 2 Stunden vorher auskühlen lasse kann ich ca alle 8 Minuten nachfokussieren. Also stimmt der Fokus sicher nicht immer perfekt. Die dritte Sache sehe ich bei der Kalibration. Hier nutze ich meist die O2 Banden und die Ha Linie. Wenn nun die Ha Linie sich Dopplermäßig verschiebt, ist doch die so ermittelte Dispersion fehlerhaft. Sind eigentlich die tellurischen Linien in ihrer Ruhewellenlänge oder gibt es da auch Schwankungen?

Der größte Fehler entsteht wahrscheinlich bei der Kalibration.

Noch eine Sache sind die Abberationen der Optik. Zum Rand hin sind meine Spektren unscharf, da als Objektiv ein einfacher Achromat mit der jetzigen Ausleuchtung mit f4 arbeitet. Die tellurischen Linien, die ich zur Kalibration nutze, liegen in dem unscharfen Bereich.

Wo ich grad bei den tellurischen Linien bin. Kann ich die denn nun eigentlich zur absoluten Kalibrierung nutzen oder nicht? Ich habe davon gelesen, aber es noch nie so recht in der Anwendung gesehen.

Bei der Messung der EW scheint es tatsächlich Probleme bei unterschiedlichen Auflösungen zu geben. Ich konnte einige Daten von Bernd Hanisch und mir vergleichen. Beide liegen bei R 5000. Hier gibt es nur kleine Abweichungen. Im Vergleich mit R 17000 passt es nicht mehr. Wenn dann sber beide Daten R 17000 haben passt es wieder.

Jaaa, also das es keine negativen Flächen gibt hätte ich eigentlich auch gewusst, aber verdrängt gehabt :oops: ... Naja, passiert!

Ich muss gestehen, dass ich noch nicht großartig ins Paper geguckt habe. Da komme ich hoffentlich diese Woche noch zu.

Zum Nu Gem System hatte ich mir noch einige Paper runtergeladen und auch diese grob Überflogen. Also es gibt doch schon einige Messkampagnen. Gut, mit 4. Größe ist es ja auch ein attraktives Ziel. Ich habe jetzt Daten von fast einem Umlauf, mit knapp 54 Tagen. Dazu habe ich auch ein paar Datenpunkte aus BeSS ins Monitoring gepackt. Das Exceldiagramm hänge ich morgen mal an. Ich muss, bevor ich das hier reinstelle nochmal erlesen, wie Daten aus BeSS gehandhabt werden sollen.

Mit dem Fehlerbalken habe ich bei mehreren Beobachtern noch ein paar Probleme. Mal gucken.


Wird Excel eigentlich auch von Profis genutzt oder gibt es da andere/bessere Programme?

Viele Grüße und CS
Christoph


Nach oben
   
BeitragVerfasst: 12. April 2017, 09:52:11 AM 
Offline
Meister
Benutzeravatar

Registriert: 11. November 2007, 18:11:30 PM
Beiträge: 1379
Zitat:
Hallo Thomas und Christian,
ich habe grad ein wenig mehr um die Ohren.

Wir hier oben im Norden machen auch noch bis -15°C Astro… :D
Da hacken wir lieber das Eis auf und baden im See.
Zitat:
Wo ich grad bei den tellurischen Linien bin. Kann ich die denn nun eigentlich zur absoluten Kalibrierung nutzen oder nicht? Ich habe davon gelesen, aber es noch nie so recht in der Anwendung gesehen.
Ich habe das mal versucht. Wenn überhaupt, klappt das nur über einen kleinen Wellenlängenbereich. Versuche mal, mit SpectroTools Deine Kalibration zu verbessern. Dann sieht man auch die Nichtlinearität der Dispersion.
Zitat:
Jaaa, also das es keine negativen Flächen gibt hätte ich eigentlich auch gewusst, aber verdrängt gehabt :oops: ... Naja, passiert!

Christoph
Als Mathematiker kann Dir nur ein glasklares "Ja aber" entgegenschmettern. Im Sinne der Maßtheorie gibt es nur positive Flächen. Wenn man jedoch den Flächen eine Orientierung gibt, kann auch ein negatives Vorzeichen auftreten. Wenn ich zur Flächenberechnung ein Integral über die geschlossenen Randkurve verwende, hängt das Vorzeichen davon ab, ob ich die Kurve in positivem Sinn (entgegen Uhrzeigersinn) oder in negativem Sinn (im Uhrzeigersinn durchlaufe)
F = S (x dy - y dx) (S soll das Zeichen für ein geschlossenes Kurvenintegral bedeuten). Das gilt auch, wenn ich die Fläche eines Parallelograms mittels äußerem Vektorprodukt berechne. Da kommt es auf die Reihenfolge der Faktoren an. Siehe auch Theorie der Differentialformen von Cartan.
Viele Grüße
Christian


Nach oben
   
BeitragVerfasst: 13. April 2017, 11:43:07 AM 
Offline
Meister

Registriert: 06. Oktober 2016, 15:04:43 PM
Beiträge: 229
Hallo,
SpectroTools habe ich schon mal runtergeladen und es läuft auch. Schaue ich mir dann über die Tage an.

Ok, kleiner Exkurs…
Christian, meinst du mit der Orientierung für die Fläche quasi eine dritte Dimension? Also ob ich die Fläche nun von oben oder unten (oder wie auch immer orientiert) betrachte. Und zur Unterscheidung ist die eine Seite positiv und die andere negativ benannt?
Eine Fläche kann ja auch gebogen sein, wie ein Ausschnitt aus einer Kugel. Dann hätte ich doch unendlich viele Richtungen (die werden Vektoren genannt oder?)
Ja und Kurvendiskussionen habe ich ganz grau in Erinnerung. Aber so gar keinen Plan mehr von.
Ich glaube ich sollte mal gucken, ob ich das wieder alles aufgefrischt bekomme.

So und nun mal zur Fehlerabschätzung der EW. An sich sind die Gleichungen ja gar nicht so kompliziert. Mein Problem sind eher die Bezeichnungen. Ich stelle mal meine Überlegungen rein.
Dateianhang:
Fehler.png
Fehler.png [ 4.88 KiB | 7168 mal betrachtet ]
Das Sigma von W Lambda ist der gesuchte Fehler der EW. Delta W Lambda ist die gemessene EW. Diese dividiere ich durch den mittleren Fluss. Hier bekomme ich vom Programm zwei Angaben. Einmal den durchschnittlichen Fluss und einmal den RMS.
Hier weiß ich nicht, was und wieso beim RMS zum Quadrat genommen wird und wo der Unterschied vom Average Flux und RMS ist.
Den Wert des Quotienten multipliziere ich dann mit der Standardabweichung vom Flux der Linie.
Zu diesem Ergebnis addiere ich dann dann das Ergebnis der gleich aufgebauten Rechnung, nur das in dieser das Rauschen Im Kontinuum genutzt wird.

Dann noch eine Frage zur Fehlerrechnung des V/R. Dort haben wir ja als Fehler die Flux Range, also den Bereich zwischen dem kleinsten und höchsten Punkt im Rauschen angenommen.
Das BASS Programm gibt aber auch die Standardabweichung aus. Diese ist viel kleiner, was ja den Fehlerbereich auch verkleinern würde. Ist diese Standardabweichung nochmal der Mittelwert der Flux Range? Also der Bereich, wo der gemessene Wert innerhalb des gesamten Fehlerbereiches am wahrscheinlichsten ist?

So und hier dann auch mal die V/R Kurve der letzten Monate. Ich habe bis auf zwei Nächte alles mitgenommen, was so an klarem Wetter vorhanden war. Und auch wenn es nicht sonst was für eine Arbeit ist, halte ich es für richtig: This work has made use of the BeSS database, operated at LESIA, Observatoire de Meudon, France: http://basebe.obspm.fr
Die „Co-Autoren“ sind ja im Diagramm genannt.
Dateianhang:
Nu_Gem_Monitoring.png
Nu_Gem_Monitoring.png [ 17.36 KiB | 7168 mal betrachtet ]
Viele Grüße und CS
Christoph


Nach oben
   
BeitragVerfasst: 13. April 2017, 12:11:37 PM 
Offline
Meister

Registriert: 31. Juli 2006, 16:43:32 PM
Beiträge: 3468
Hallo Christoph, warum nimmst Du nicht einfach Gleichung 7 im Paper? Guß, Thomas


Nach oben
   
BeitragVerfasst: 13. April 2017, 14:27:20 PM 
Offline
Meister

Registriert: 06. Oktober 2016, 15:04:43 PM
Beiträge: 229
Hallo Thomas,

ja Mist! Ich hatte die deutsche PDF unterwegs bei schlechtem Internet runtergeladen. War dann nicht ganz vollständig, denn es ging nur bis Seite 2.

Im deutschen Paper ist es dann Gleichung 6.

Steht Delta Lambda für den Integrationsbereich der EW Messung? In der Definition ist Delta Lambda wie die FWHM/2 eingezeichnet.

Viele Grüße und CS
Christoph


Nach oben
   
BeitragVerfasst: 13. April 2017, 14:40:31 PM 
Offline
Meister

Registriert: 31. Juli 2006, 16:43:32 PM
Beiträge: 3468
Ja, das ist Gl. 6 im deutschen Paper.
Zitat:
Steht Delta Lambda für den Integrationsbereich der EW Messung?
Ja, ist der Integrationsbereich. Beachte aber, dass unter der Wurzel die Mittelwerte von Kontinuums- und Linienfluss stehen.
Zitat:
In der Definition ist Delta Lambda wie die FWHM/2 eingezeichnet.
Nein, das haben wir so nicht definiert. In Gleichung 2 ist das nur ein Faktor, der für die Bestimmung der EW nötig ist, ohne das der zunächst quantifizierbar ist. In Abbildung 2 ist das die Breite des Integrationsintervalls, die sich aus dem Mittelwert der Linienintensitäten ergeben muss. Das sieht nur auf den ersten Blick wie die FWHM aus, keinesfalls aber wie FWHM/2.

Wenn ich das richtig verstanden habe, ist Dein V/R-Fehlerbalken zu groß. Du musst die Standardabweichung des Rauschens nehmen.
Zitat:
Ist diese Standardabweichung nochmal der Mittelwert der Flux Range? Also der Bereich, wo der gemessene Wert innerhalb des gesamten Fehlerbereiches am wahrscheinlichsten ist?
Vorsicht, das Eine ist nicht das Andere. Und die Standardabweichung ist nicht der Mittelwert des Flusses!


Nach oben
   
BeitragVerfasst: 13. April 2017, 22:55:01 PM 
Offline
Meister
Benutzeravatar

Registriert: 11. November 2007, 18:11:30 PM
Beiträge: 1379
Zitat:
Hallo,
Ok, kleiner Exkurs…
Christian, meinst du mit der Orientierung für die Fläche quasi eine dritte Dimension? Also ob ich die Fläche nun von oben oder unten (oder wie auch immer orientiert) betrachte. Und zur Unterscheidung ist die eine Seite positiv und die andere negativ benannt?
Eine Fläche kann ja auch gebogen sein, wie ein Ausschnitt aus einer Kugel. Dann hätte ich doch unendlich viele Richtungen (die werden Vektoren genannt oder?)
Hallo Christoph,
die Orientierung kann nur zwei Werte annehmen:
1. Möglichkeit: Man kann die Fläche von oben oder von unten betrachten
2. Möglichkeit: Die Orientierung richtet sich nach dem Umlaufsinn des Rands.
Diese Begriffe gehen eigentlich weit über die Schulmathematik hinaus, weshalb ich hier das auch nicht weiter ausführen möchte. Ich wollte nur darauf hinweisen, daß Flächeninhalte auch einen negativen Wert haben können, je nach verwendeten Axiomen. Nimm eine Funktion zwischen x= a und x=b (a < b) die integrierbar ist und dort negative Werte annimmt, dann ist das Integral von a bis b negativ, von b bis a aber (umgekehrte Orientierung) positiv. Betrachte das bitte nur als Veranschaulichung.
Das gilt übrigens nur eingeschränkt für gekrümmte Flächen, z. B. nicht für das Möbiusband.
Viele Grüße
Christian


Nach oben
   
BeitragVerfasst: 14. April 2017, 11:13:13 AM 
Offline
Meister

Registriert: 06. Oktober 2016, 15:04:43 PM
Beiträge: 229
Hallo Christian und Thomas

Erstmal vielen Dank Christian. Ich denke mehr würde mich auch komplett verwirren :wink:

Ich würde dann gerne erst einmal noch auf die die Fehlerrechnung und die Begrifflichkeiten zurück.
BASS gibt mir für einen Integrationsbereich, wo ich das Rauschen erfassen möchte folgende Daten aus (Ich habe absichtlich die Nachkommastellen so hoch wie möglich eingestellt):
Dateianhang:
BASS.png
BASS.png [ 15.77 KiB | 7137 mal betrachtet ]
In der Fehlerabschätzung, welche im obigen Diagramm zur Anwendung kommt haben wir die Flux Range angenommen. Also den Bereich vom Max Flux zum Min Flux.

Habe ich richtig verstanden, dass der mittlere Fluss das arithmetische Mittel ist und der RMS das quadratische Mittel? Aus diesem Grund ist das quadratische Mittel dann auch höher, weil dort ja größere Werte stärker gewichtet werden.

Die Standardabweichung berechnet sich dann so, dass man erst den Mittelwert berechnet und dann die mittlere quadratische Abweichung. Aus der mittleren quadratischen Abweichung zieht man dann die Wurzel und kommt so auf die Standardabweichung?!

Stellt die Standardabweichung in der Normalverteilung dann den Bereich mit 68%, also 1 Sigma dar?

Das heißt also das 68% aller Messwerte in dem Fehlerbalken zu finden sind. Wenn ich nun eine höhere Wahrscheinlichkeit haben will, muss ich eine Fehlerabschätzung mit 2 oder 3 Sigma machen. Dadurch wird dann der Fehlerbalken größer und auch die Wahrscheinlichkeit größer, dass der Messwert in dem Fehlerbereich liegt. Allerdings ist auch die Wahrscheinlichkeit geringer, dass der Messwert über die 68% hinausgeht, was ja durch die Kurve dargestellt wird.

Was haben wir denn mit dem Max/Min Flux gemacht? Das müssten dann ja mehr als 1 Sigma sein oder?

Thomas, ich denke ich weiß dann die Gleichung richtig zu nutzen. Allerdings muss ich mir dann noch mal genau angucken, wieso die Gleichung so aufgebaut ist.

Viele Grüße und CS
Christoph


Nach oben
   
BeitragVerfasst: 14. April 2017, 11:35:00 AM 
Offline
Meister

Registriert: 31. Juli 2006, 16:43:32 PM
Beiträge: 3468
Hallo Christoph!
Zitat:
In der Fehlerabschätzung, welche im obigen Diagramm zur Anwendung kommt haben wir die Flux Range angenommen. Also den Bereich vom Max Flux zum Min Flux.
Das ist in der Physik eher unüblich. Man wählt in den allermeisten Fällen die Standardabweichung der Normalverteilung.
Zitat:
Habe ich richtig verstanden, dass der mittlere Fluss das arithmetische Mittel ist und der RMS das quadratische Mittel? Aus diesem Grund ist das quadratische Mittel dann auch höher, weil dort ja größere Werte stärker gewichtet werden.
Die entsprechende Beschreibung findet sich hier: https://de.wikipedia.org/wiki/Quadratisches_Mittel
Zitat:
Die Standardabweichung berechnet sich dann so, dass man erst den Mittelwert berechnet und dann die mittlere quadratische Abweichung. Aus der mittleren quadratischen Abweichung zieht man dann die Wurzel und kommt so auf die Standardabweichung?!
Du findest eine Erläuterung auf Seite 469 ff in unserem Buch. Die Standardabweichung ergibt sich aus der Glockenkurve der Normalverteilung bzw. Gauß-Verteilung bei sehr vielen Messwerten. Siehe hier: https://de.wikipedia.org/wiki/Normalverteilung
Zitat:
Stellt die Standardabweichung in der Normalverteilung dann den Bereich mit 68%, also 1 Sigma dar?
Ja, siehe hier: https://de.wikipedia.org/wiki/Standarda ... iagram.svg
Zitat:
Das heißt also das 68% aller Messwerte in dem Fehlerbalken zu finden sind. Wenn ich nun eine höhere Wahrscheinlichkeit haben will, muss ich eine Fehlerabschätzung mit 2 oder 3 Sigma machen.
Dadurch wird dann der Fehlerbalken größer und auch die Wahrscheinlichkeit größer, dass der Messwert in dem Fehlerbereich liegt. Allerdings ist auch die Wahrscheinlichkeit geringer, dass der Messwert über die 68% hinausgeht, was ja durch die Kurve dargestellt wird.
Ja, bei sehr schwachen Signalen werden u.U. 2 sigma oder sogar 3 sigma angegeben.
Zitat:
Was haben wir denn mit dem Max/Min Flux gemacht? Das müssten dann ja mehr als 1 Sigma sein oder?
Ja, ich würde mich auf die 1-sigma-Fehlerbalken beschränken und das immer mit angeben.
Zitat:
Thomas, ich denke ich weiß dann die Gleichung richtig zu nutzen. Allerdings muss ich mir dann noch mal genau angucken, wieso die Gleichung so aufgebaut ist.
OK!

Sorry, das ich hier auf Wikipedia verweise (Du kannst auch ein Buch nehmen). Doch wenn Du das verstehen möchtest, musst Du Dich ein klein wenig einlesen.

Ciao, Thomas


Nach oben
   
BeitragVerfasst: 20. April 2017, 17:11:24 PM 
Offline
Meister

Registriert: 06. Oktober 2016, 15:04:43 PM
Beiträge: 229
Hallo Thomas,
alles klar. Kein Problem mit den Wikipediaartikeln. Auch wenn man da ein wenig vorsichtig sein sollte.

Ich habe mich inzwischen auch mit der Kalibrierung ein wenig weiter auseinandergesetzt. Dazu habe ich mir ein hochaufgelöstes Spektrum aus BeSS vom Sawicki (Blau) genommen und ein paar tellurischen Linien identifiziert. Das Spektrum wurde mit einem LHires gewonnen und hat in Wirklichkeit nur eine R von ca 15.000 laut dem Header.
Das habe ich nun mit einem Profil von mir (Grün) verglichen. Das erste was auffiel war, dass meine Kalibration um in etwa 1,5 Angström blauseits verschoben war. Dies habe ich mehr oder weniger zurechtgerückt.

Scheinbar sind bei mir auch schon Sauerstofflinien zu sehen, wenn auch sehr schwach. So habe ich einen Low-Pass Fit (Orange) mit in etwa der Auflösung, die ich erreiche an das Sawicki gefittet (das geht auch noch besser…).

Was meint ihr dazu? Die richtigen Linien scheinen es ja zu sein. Eigentlich kann ich dann um Ha absolut kalibrieren?!

Wie gut die tellurischen Linien ausgeprägt sind, muss ich mir bei den anderen Daten noch angucken. Das hängt ja wohl auch vom Wetter/Klima bzw. von der Höhe des Objekts ab.

Für die Messung von der Auflösung habe ich die 6523A O1 Linie genommen, weil mir diese relativ isoliert erscheint. Die ca. R 5.500 passen ganz gut zum SimSpec-Sheet. Dort habe ich mit einem Seeing von 3 eine R von 5.600.
Dateianhang:
Absolut_kalib.png
Absolut_kalib.png [ 72.13 KiB | 7104 mal betrachtet ]
Viele Grüße und CS
Christoph


Nach oben
   
BeitragVerfasst: 20. April 2017, 21:03:00 PM 
Offline
Meister

Registriert: 31. Juli 2006, 16:43:32 PM
Beiträge: 3468
Hallo Christoph, was meinst Du mit "Eigentlich kann ich dann um Ha absolut kalibrieren"? Den Fluss oder die Wellenlänge? Gruß, Thomas


Nach oben
   
BeitragVerfasst: 20. April 2017, 22:31:56 PM 
Offline
Meister

Registriert: 06. Oktober 2016, 15:04:43 PM
Beiträge: 229
Hallo Thomas,

stimmt hätte ich besser formulieren müssen!

Ich meine die Wellenlänge. Beim Fluss muss ich doch noch viel mehr beachten, wie Instrument, Atmosphäre und interstellare Rötung und so weiter.

Hat so etwas ein Amateuer schon mal versucht? Das ist doch auch sicher für Profis nicht ganz einfach?!

Viele Grüße und CS
Christoph


Nach oben
   
BeitragVerfasst: 21. April 2017, 07:54:35 AM 
Offline
Meister

Registriert: 31. Juli 2006, 16:43:32 PM
Beiträge: 3468
Hallo Christoph,

ja, exakte Formulierungen sind zwar mühsam aber wichtig. Um in der Wellenlänge zu kalibrieren brauchst Du in der Wellenlänge stabile und möglichst scharfe Absorptionslinien. Bei R = 5000 ist das nicht so einfach weil Deine Linien dann relativ breit sind, wie Du im Vergleich mit Sawicki sehen kannst. Ich habe aber keine Erfahrung ohne Spalt, vielleicht kann jemand anderes hier etwas sagen. Du darfst aber keinesfalls die zentrale Absenkung bei Halpha nehmen. Die schwankt in lambda.

Die Messung des Absolut-Flusses wurde schon oft von den französischen Kollegen durchgeführt, insbesondere Christian Buil. Das funktioniert natürlich auch prinzipiell. Es fällt aber auf, dass die Amateure hier nie Fehlerbalken angeben. Ich bin hier sehr skeptisch, ob das sinnvoll durchführbar ist. Ich glaube nicht daran, dass Amateure von ihren Balkonsternwarten unter einem sehr schlechten Himmel Ergebnisse liefern können, die Profis nur mit allergrößtem Aufwand an exzellenten Orten erhalten. Bisher bin ich nicht widerlegt worden.

Aus diesem Kontext kommt auch die sog. Response Function. Auch die nutze ich nicht weil ich a) mir nicht zutraue, Absolut-Flüsse in Deutschland messen zu können, b) diese höchstens für WR-Sterne ohne Kontinuum hilfreich ist und c) schon im Flatfield steckt.

Gruß, Thomas


Nach oben
   
BeitragVerfasst: 26. April 2017, 19:42:58 PM 
Offline
Meister

Registriert: 06. Oktober 2016, 15:04:43 PM
Beiträge: 229
Hallo Thomas,

wie stabil sind denn die tellurischen Linien? Durch Turbolenzen in der Atmosphäre, sicher nicht wie im Labor?!
Ich denke aber, dass das bei R 5.500 noch keine so große Rolle spielt?

Ich habe mir heute noch einmal den gesamten Datensatz von Nu Gem vorgenommen und von der Normierung auf 1 her noch einmal verbessert, so dass die EW besser passt (Nun bei 1,2 anstatt um 2). Ich hatte einen Teil der Ha Absorption fälschlicherweise als Kontinuum angenommen.

Trotzdem habe ich noch 3 Spektren wo die neue Normierung nichts gebracht hat. Kann das da dran liegen, dass beim Abzug des Himmelshintergrundes was schief gelaufen ist?


Ja, und dann habe ich auch alle 20 Nu Gem Spektren versucht anhand der tellurischen Linien in der Wellenlänge absolut zu kalibrieren. Es hat tatsächlich bei 18 Spektren funktioniert. Es ist allerdings große Sorgfalt und Erfahrung nötig, um die schwachen Linien im Rauschen richtig zuordnen zu können. Man kann auch nicht wirklich eine genaue Aussage zu den Mindestanforderungen machen, denn es gibt viele Einflüsse. Grob sollte aber mindestens ein SNR von 100 gegeben sein.

Bei den Spektren, wo ich z.B. nur ein SNR von 80 habe aufgrund der schlechten Durchsicht durch Zirren/Feuchtigkeit konnte ich trotzdem kalibrieren, weil im Gegenzug die tell. Linien besser ausgeprägt waren.

Einzig die Spektren bei Vollmond und glasklarem Himmel fallen weg.

Verglichen habe ich immer mit Spektren aus BeSS, vor allem mit Sawicki. Der Fehler (so ich das Einschätzen kann) liegt bei dem Vergleich weit unter einem Angström. Hier wäre es wichtig für verlässliche Angaben den Fehler noch genauer zu betrachten!

Das Setup löst ja aber eh nur ca 1.2 Angström auf. Daher bin ich positiv überrascht.

Was haltet ihr davon? Wenn gewünscht, kann ich auch noch Vergleiche reinstellen.

Wäre also jetzt die Frage, was man bei der Fehlerabschätzung zur Wellenlängenkalibration beachten muss.


Zur absoluten Flusskalibration habe ich mir mal das angeschaut, was der Walker geschrieben hat. Mir fällt es schwer zu glauben, dass die französischen Kollegen das hinbekommen. Diese Response Function betrifft dann nur den Instrumentenfehler?

Viele Grüße und CS
Christoph


Nach oben
   
BeitragVerfasst: 26. April 2017, 20:19:57 PM 
Offline
Meister

Registriert: 28. November 2006, 20:30:03 PM
Beiträge: 580
Wohnort: Langenselbold
Hallo,

die Stabilität hinsichlich der WL beträgt < 1 milli Anström.

Quelle:
H. Balthasar, U. Thile, H. Wöhl, Terresttial O2 Lines Used as Wavelength References, 1982

Grüße Dieter


Nach oben
   
BeitragVerfasst: 27. April 2017, 10:52:11 AM 
Offline
Meister

Registriert: 06. Oktober 2016, 15:04:43 PM
Beiträge: 229
Hey Dieter,

vielen Dank! Damit wäre das ja für mich belanglos. Neben der spektralen Auflösung mit 1,2 Angström liegt auch die Dispersion mit 0,3 Angström/Pixel weit drüber.

Ich habe nun einfach mal alle tellurisch kalibrierten Spektren übereinander gelegt. Kann man es wagen, dort eine Kurve zu interpretieren oder ist das Blödsinn mit der geringen Auflösung und nur tellurischer Kalibration?

Auf jeden Fall shiftet in den Daten die zentrale Absorption. Ich habe da noch nie so richtig einen Vergleich gesehen. Ist das real?
Dateianhang:
Nu_Gem_Spektren.png
Nu_Gem_Spektren.png [ 153.89 KiB | 7034 mal betrachtet ]
Dateianhang:
Screenshot 2017-04-27 09.35.28.png
Screenshot 2017-04-27 09.35.28.png [ 33.01 KiB | 7034 mal betrachtet ]

Viele Grüße und CS
Christoph


Nach oben
   
BeitragVerfasst: 27. April 2017, 12:07:56 PM 
Offline
Meister

Registriert: 31. Juli 2006, 16:43:32 PM
Beiträge: 3468
Hallo Christoph!

Was meinst Du mit „Kann man es wagen, dort eine Kurve zu interpretieren…“? Von welcher „Kurve“ sprichst Du?

Ich glaube schon, dass die Verschiebung der zentralen Absorption real ist. Wenn sich das Verhältnis V/R ändert, muss sich auch die Wellenlängenposition der zentralen Absenkung (das ist keine Absorption) ändern weil deren Stärke über so kurze Zeiträume nicht besonders variiert. Das heißt wiederum, dass das Linienzentrum von Halpha sicherlich nicht bei der maximalen Linienabsenkung liegt. Darauf hatte ich aber schon hingewiesen (mein Beitrag 21. April 2017, 07:54:35 AM). Eine durch Windprozesse stark verbreiterte Emissionslinie ist für eine Wellenlängenkalibration eher nicht geeignet.

Mir fällt in Deinen Spektren auf, dass die Intensitätsstreuung aller Kontinua größer ist als die Streuung (Standardabweichung) des Einzelkontinuums. Das scheint mir nicht korrekt zu sein.

Gruß, Thomas


Nach oben
   
BeitragVerfasst: 27. April 2017, 13:23:19 PM 
Offline
Meister

Registriert: 06. Oktober 2016, 15:04:43 PM
Beiträge: 229
Hey Thomas,

mit Kurve meine ich die Variabilität der Zentralen Absenkung in den Spektren. Dort ist doch eine Kurve mit ganz kleiner Amplitude zu sehen.

Zitat:
Wenn sich das Verhältnis V/R ändert, muss sich auch die Wellenlängenposition der zentralen Absenkung (das ist keine Absorption) ändern weil deren Stärke über so kurze Zeiträume nicht besonders variiert.
Ist das nicht das Merkmal von Be-Shell-Sternen, dass dort doch eine Absorption in der Scheibe vorhanden ist? Ich habe ja nur nicht die nötige Auflösung für dieses Merkmal.
Zitat:
Das heißt wiederum, dass das Linienzentrum von Halpha sicherlich nicht bei der maximalen Linienabsenkung liegt. Darauf hatte ich aber schon hingewiesen (mein Beitrag 21. April 2017, 07:54:35 AM).
Richtig! Dort liegt die Ha Ruhewellenlänge auch nicht. Das ist nicht ganz so gut in dem Wust zu erkennen.

Zitat:
Eine durch Windprozesse stark verbreiterte Emissionslinie ist für eine Wellenlängenkalibration eher nicht geeignet.
Daher habe ich ja die tellurischen Linien genutzt. Einmal die markierte H2O Linie und dann noch, wie weiter oben gezeigt, die weniger ausgeprägten Linien um Ha.
Die Lage von Ha habe ich im Beitrag vorhin einfach nur als Anhaltspunkt markiert.


Ja, dass mit der Streuung stimmt! Das macht das Programm wohl so, damit man die Spektren auseinanderhalten kann. Wenn ich die Spektren einzeln öffne sind alle wunderbar auf 1 normiert.

Hier noch mal ein Beispiel eines einzelnen Spektrum vom 04.04.17. Markiert habe ich die 3 tell. Linien, die ich zur Kalibration verwand habe, sowie die Ha Linie.
Dateianhang:
04.04.17.png
04.04.17.png [ 30.05 KiB | 7027 mal betrachtet ]
Viele Grüße und CS
Christoph


Nach oben
   
BeitragVerfasst: 27. April 2017, 13:45:34 PM 
Offline
Meister

Registriert: 31. Juli 2006, 16:43:32 PM
Beiträge: 3468
Hi Christoph!
Zitat:
mit Kurve meine ich die Variabilität der Zentralen Absenkung in den Spektren. Dort ist doch eine Kurve mit ganz kleiner Amplitude zu sehen.
Ok! Ja, diese harmonische (?) Schwankung habe ich auch bemerkt. Allerdings ist die so klein, dass ich Fehler bei der Datenreduktion (noch) nicht ausschließen kann. Du solltest dazu prüfen, ob die Verschiebungen mit dem V/R korreliert ist. Wenn ja, ist das lediglich ein Folgeeffekt dieses Parameters.
Zitat:
Ist das nicht das Merkmal von Be-Shell-Sternen, dass dort doch eine Absorption in der Scheibe vorhanden ist? Ich habe ja nur nicht die nötige Auflösung für dieses Merkmal.
Ja, das ist Fall (b) Abb. 14.13 auf Seite 490 in unserem Buch (hänge ich hier an). Man nennt das auch Selbstabsorption der Scheibe. Deine Auflösung reicht sehr wohl dafür, sonst würdest Du diese Selbstabsorption ja nicht sehen.
Zitat:
Daher habe ich ja die tellurischen Linien genutzt. Einmal die markierte H2O Linie und dann noch, wie weiter oben gezeigt, die weniger ausgeprägten Linien um Ha.
Die Lage von Ha habe ich im Beitrag vorhin einfach nur als Anhaltspunkt markiert.
Gut! Das hatte ich übersehen.
Zitat:
Das macht das Programm wohl so, damit man die Spektren auseinanderhalten kann. Wenn ich die Spektren einzeln öffne sind alle wunderbar auf 1 normiert.
OK, das kann ich nicht beurteilen.

Gruß, Thomas


Dateianhänge:
kap12_slet.jpg
kap12_slet.jpg [ 44.66 KiB | 7024 mal betrachtet ]
Nach oben
   
BeitragVerfasst: 27. April 2017, 18:26:20 PM 
Offline
Meister

Registriert: 06. Oktober 2016, 15:04:43 PM
Beiträge: 229
Hey Thomas,

erst einmal gibt es keine Korrelation (würde ich sagen), denn die Frequenz der Lageänderung ist höher und beträgt (Zufall?) ca. 8 Tage. Das V/R benötigt ca. 54 Tage. Ich habe mir noch einmal Daten aus BeSS angeguckt und diese mit meinen verglichen. Dort sind nicht solche Schwankungen zu sehen. Allerdings ist die Datenlage auch wesentlich dünner!

Ich würde also eher davon ausgehen, dass wir hier den Fehler der Kalibration betrachten. Die größte Abweichung innerhalb des Datensatzes von 16 Spektren beträgt 0,6 Angström. Ist es Legitim dies als begründete Fehlerabschätzung nutzen, die natürlich mit mehr Daten aussagekräftiger wird?
Eine Fehlerabschätzung auf Basis aller Einflüsse erscheint mir sehr schwierig, da sehr viele Variable, wie Wassergehalt, Seeing, Auflösung, Rauschen beteiligt sind.

Ich denke, man kann das Ganze noch nicht als "echte" absolute Kalibration der Wellenlänge bezeichnen. Aber es stellt immerhin eine kleine Verbesserung gegenüber der relativen Kalibration dar.


Zitat:
Ja, das ist Fall (b) Abb. 14.13 auf Seite 490 in unserem Buch (hänge ich hier an). Man nennt das auch Selbstabsorption der Scheibe. Deine Auflösung reicht sehr wohl dafür, sonst würdest Du diese Selbstabsorption ja nicht sehen.
Thomas, hier bin ich nicht ganz bei Dir (oder verstehe/weiß noch nicht genug). Das Spektrum von Nu Gem sieht mit hoher Auflösung aktuell so aus, wie D. Allerdings reicht meine Auflösung dafür nicht aus und täuscht wohl damit B vor.

Es ist doch hier eigentlich ein geometrischer/perspektivischer Effekt oder? Shell-Sterne sind dann die, welche eine Inklination nahe 90° aufweisen. Durch die Dicke der Scheibe in diesem Winkel ist dann auf der Sichtlinie wieder so viel Material vorhanden, dass es für eine Absorption reicht?!

Diese zentrale Absenkung setzt sich dann aus dem Dopplereffekt und der Selbstabsorption zusammen?!

Viele Grüße und CS
Christoph


Nach oben
   
BeitragVerfasst: 27. April 2017, 20:14:27 PM 
Offline
Meister

Registriert: 31. Juli 2006, 16:43:32 PM
Beiträge: 3468
Hi Christoph!
Zitat:
Ist es Legitim dies als begründete Fehlerabschätzung nutzen, die natürlich mit mehr Daten aussagekräftiger wird?
Legitim ist das allemal. Selbst wenn einem nicht viele Parameter zur Verfügung stehen, die auf den Fehler einwirken, ist das besser als gar keinen Fehler anzugeben. Man muss nur immer angeben, wie man den Fehler bestimmt hat.
Zitat:
Eine Fehlerabschätzung auf Basis aller Einflüsse erscheint mir sehr schwierig, da sehr viele Variable, wie Wassergehalt, Seeing, Auflösung, Rauschen beteiligt sind.
Ja, das ist schwierig, doch zumindest kann man die Einflüsse eingrenzen. So wird sich der Wassergehalt der Atmosphäre eher nicht auf die Wellenlänge auswirken. Aber man muss mindestens darüber nachdenken.
Zitat:
Das Spektrum von Nu Gem sieht mit hoher Auflösung aktuell so aus, wie D. Allerdings reicht meine Auflösung dafür nicht aus und täuscht wohl damit B vor.
Du kannst durchaus recht haben. Ob die zentrale Absenkung in Wirklichkeit eine Absorption ist (temporär?) mag sein. Es gibt Be-Sterne, wo das variabel ist. Bei einer Auflösung von etwa 1 Angström (R = 5000) und einer FWHM von etwa 4 Ängström ist das in der Tat grenzwertig.
Zitat:
Es ist doch hier eigentlich ein geometrischer/perspektivischer Effekt oder?
Die Be-Halpha-Linie ist immer geometrisch interpretierbar. Das ist eine Rekombinationslinie der gesamten ausgedehnten Keplerscheibe.
Zitat:
Shell-Sterne sind dann die, welche eine Inklination nahe 90° aufweisen. Durch die Dicke der Scheibe in diesem Winkel ist dann auf der Sichtlinie wieder so viel Material vorhanden, dass es für eine Absorption reicht?!
So ist es.
Zitat:
Diese zentrale Absenkung setzt sich dann aus dem Dopplereffekt und der Selbstabsorption zusammen?!
Es ist nur die Selbstabsorption. Oder was meinst Du mit Dopplereffekt?

Gruß, Thomas


Nach oben
   
Beiträge der letzten Zeit anzeigen:  Sortiere nach  
Ein neues Thema erstellen  Auf das Thema antworten  [ 53 Beiträge ]  Gehe zu Seite 1 2 Nächste

Alle Zeiten sind UTC+02:00


Wer ist online?

Mitglieder in diesem Forum: Ahrefs [Bot] und 1 Gast


Du darfst keine neuen Themen in diesem Forum erstellen.
Du darfst keine Antworten zu Themen in diesem Forum erstellen.
Du darfst deine Beiträge in diesem Forum nicht ändern.
Du darfst deine Beiträge in diesem Forum nicht löschen.
Du darfst keine Dateianhänge in diesem Forum erstellen.

Suche nach:
Gehe zu:  
Powered by phpBB® Forum Software © phpBB Limited
Deutsche Übersetzung durch phpBB.de