Vergroting onder de loep, deel 2: het optimale f-getal nader beschouwd.

© 16 december 2022, Nicolàs de Hilster & starry-night.nl

Een paar jaar geleden heb ik in deel 1 van dit artikel uitgelegd wat de verhouding was tussen de pixelgrootte (|px|) van een camera en het optimale f-getal (f#). Daaruit volgde de formule f# > 3 x |px| x (i), waarbij (i) gelijk is aan 1 bij monochroomcamera’s en gelijk is aan 2 bij kleurencamera’s met een Bayer-patroon. Nu was deze methode gebaseerd op de wens een Rayleigh-object nog waar te kunnen nemen. Het is echter mogelijk het ideale f# ook op andere manieren te bepalen, ieder met een iets andere uitkomst. In dit tweede deel van Vergroting onder de Loep, komen drie andere methoden aan bod en wordt nogmaals gekeken of die factor 2 bij de kleurencamera echt wel nodig is. Daarnaast komt een methode aan bod die ons in staat stelt achteraf te bepalen of er bij een opname sprake is van over- of undersampling.

Om het wederom zo overzichtelijk mogelijk te houden is dit artikel gesplitst in een aantal onderwerpen:

 

Een nieuw begrip en formule
Voor dit Deel 2 is een nieuw begrip en bijbehorende formule nodig:

Spatial Cut-off Frequency (f0)
In de optica is de Spatial Cut-off Frequency (ruimtelijke grensfrequentie) een nauwkeurige manier om het kleinste object te kwantificeren dat door een optisch systeem kan worden opgelost. Zonder de effecten van Fraunhofer-diffractie zou een telescoop met kleine opening (zeg 5 centimeter) in theorie net zulke scherpe beelden kunnen produceren als exemplaren met een opening van tientallen meters. In het eerste deel van dit artikel hebben we reeds gezien dat de Fraunhofer-diffractie ervoor zorgt dat er een Airy-disc ontstaat met daaromheen liggende diffractieringen. Om deze reden zal een kijker met kleine diameter altijd slechter presteren dan een met grote diameter.

De hierdoor ontstane beperking heet ook wel de Spatial Cut-off Frequency (f0). Voor een perfect optisch systeem wordt deze gegeven door:

f0 = (λ x f#)-1 [cycli/µm] [1] [1]

Met λ in µm en f# het f-getal van de kijker.

 

Het ideale f# volgens de spatial cut-off frequency
Formule [1] geeft de frequentie van de Spatial Cut-off Frequency, de bijbehorende golflengte is dus (λ x f#). Passen we hier Nyquist op toe, dan vinden we de optimale pixelgrootte |px| bij:

|px| = (λ x f#) / 2 [µm] [2]

Hetgeen we eenvoudig kunnen verschrijven tot:

f# = 2 x λ-1 x |px| [2.1]

Voor groen licht (λ = 540nm), wordt dit:[2]

f# = 2 / 0.540 x |px| = 3.70 x |px| [2.2]

Waarbij deze factor 3.7 net als in het eerste deel de ondergrens is (3.7 keer de pixelgrootte is dus het minimale f-getal dat nodig is). Dit is echter ruim 20% meer dan de factor 3 die in het eerste deel van dit artikel gevonden is. Toch zijn deze twee factoren niet in tegenspraak met elkaar. De factor 3 was namelijk bepaald voor Rayleigh-objecten, terwijl de factor 3.7 bij de Spatial Cut-off Frequency hoort. Zoals in het eerste deel reeds getoond is, zijn er nog twee criteria: die van Dawes en Sparrow (zie deel 1).

Van deze drie criteria is alleen die van Sparrow ongeveer in overeenstemming met de Spatial Cut-off Frequency, er treedt namelijk bij dat criterium geen dip meer op in intensiteit tussen de twee objecten (ervan uitgaande dat beide objecten dezelfde intensiteit hebben).

 

Het ideale f# volgens Sparrow
In het eerste deel zagen we dat het Sparrow-criterium circa 77% is van het Rayleigh-criterium. Het Rayleigh-criterium was gedefinieerd als twee lichtbronnen met een onderlinge afstand van de Airy-disc radius. Bij groen licht (540nm) was deze gelijk aan:

r Airy = 1.22 x 0.540 x f# = 0.66 x f# [µm] [3.1]

Aangezien we deze radius met twee pixels moeten vastleggen, vinden we voor de pixelgrootte |px|:

|px| = (0.66 x f#) / 2 [µm] [3.2]

Hetgeen we eenvoudig verschrijven tot:

f# = 2 / 0.66 x |px| = 3 x |px|
[3.3]

Gaan we nu uit van het Sparrow-criterium, dan wordt [3.3]:

f# = 2 / (0.77 x 0.66) x |px| = 3.94 x |px|
[3.4]

Dit is een flink stuk groter en zelfs groter dan de factor 3.7 die gevonden werd via de Spatial Cut-off Frequency. Nu zit er tussen het Rayleigh-criterium en het Sparrow-criterium nog het Dawes-criterium, dus tijd om ook die te bekijken.

 

Het ideale f# volgens Dawes
Het Dawes-criterium is destijds empirisch vastgesteld door simpelweg met een bepaalde telescoop te kijken wanneer de intensiteitsdip tussen de twee objecten niet meer zichtbaar was. Dit criterium heeft dus geen natuurkundige grondslag en is afhankelijk van de waarnemer en gebruikte telescoop. Maar voor de volledigheid is het toch aardig ook met dit criterium te rekenen.

In het eerste deel zagen we dat het Dawes-criterium circa 85% is van het Rayleigh-criterium. Bij groen licht (540nm) wordt [3.3]:

f# = 2 / (0.85 x 0.66) x |px| = 3.57 x |px|
[4.1]

Dit is maar een fractie minder dan de factor 3.7 die gevonden werd via de Spatial Cut-off Frequency.

 

De invloed van seeing
Tot nog toe is er niet gekeken naar de invloed van de seeing. Bij alle tot dusver getoonde berekeningen is de seeing buiten beschouwing gelaten. Het behoeft geen betoog dat seeing een grote rol speelt bij planetaire opnames, maar hoe groot deze precies is en hoe deze het optimale f-getal beïnvloedt is echter een vraag die hier nog niet behandeld is. De afbeelding zoals deze op de beeldchip valt wordt beïnvloed door een combinatie van de Fraunhofer diffractie en de seeing. Voordat het de objectiefzijde van de telescoop binnengaat, wordt het licht van de ster tijdens het passeren uitgesmeerd door de atmosfeer, met een typische grootte van enkele boogseconden. Dit uitsmeren volgt een normale (Gaussische) verdeling. Kwantitatief wordt de waarde ervan meestal genomen als tweemaal de RMS-straal van het uitgesmeerde gebied.[3]

Afbeelding 1: De kritieke waarde van seeing en aperture voor een diffraction-limited opname.

De invloed van de seeing kan berekend worden uit de convolutie van de Fraunhofer diffractie (gebaseerd op de Bessel-functie) met de Gaussische verdeling. In de convolutie worden zowel de Bessel- als de Gauss-functie genormaliseerd naar 1 om de resulterende convolutie ook te normaliseren. Bovendien wordt de Gaussische functie geschaald om te passen bij de opening van de kijker. Wat de convolutie in feite doet, is dat voor elk punt op de 2D Fraunhofer-verdeling het omliggende gebied wordt bemonsterd met een straal die wordt gegeven door de Gauss-verdeling. De som hiervan wordt dan genomen als de intensiteitswaarde voor dat punt.[4]

Hieronder zullen we zien dat de elke boogseconde aan seeing circa tot een verdubbeling van de oversampling leidt en dat we dus slechts zeer zelden in de buurt komen van het theoretisch optimale f-getal tenzij we een kijker met kleine opening gebruiken. Hoe de seeing en kijkeropening hierop van invloed zijn, is te zien in afbeelding 1. De lijn in de grafiek laat de kritieke waarde zien waarboven een kijker bij een bepaalde seeing niet meer diffraction-limited is.

Stel dat een Celestron C11 (opening 279mm) gebruikt wordt in de opname, dan geldt dat deze bij een seeing van meer dan circa 0.5 boogseconden in groen licht van 574nm geen diffraction-limited beeld meer oplevert. Voor bijvoorbeeld een 180mm f/15 Maksutov geldt dat deze vanaf een seeing van circa 0.8 boogseconden seeing-limited wordt. Dus alleen bij een seeing die beter is dan respectievelijk 0.5 en 0.8 boogseconden gaat voor deze kijkers de regel voor het f-getal op. Als de seeing circa een boogseconde slechter is, zal het f-getal verkleind moeten worden om optimaal te samplen. In de praktijk zullen we dit niet doen, omdat de seeing tijdens de opname soms dicht bij de optimale seeing kan komen. Gaan we stacken met software als Autostakkert!, dan gaat het om de beste seeing tijdens de opname die bepaalt in hoeverre de seeing tot oversampling leidt. Is deze hoger dan de kritieke waarde, dan leidt de seeing tot oversampling.

Afbeelding 2: Het effect van seeing op oversampling.

In hoeverre oversampling optreedt is te zien in afbeelding 2, waarin de seeing tegen de oversampling factor is uitgezet. De waardes zijn gebaseerd op een achttal zonnevlek-animaties uit het onderzoek naar de relatie tussen seeing, opening en het zichtbare detailniveau van Van der Werf en mijzelf.[4] In de grafiek is data opgenomen van twee populaire kijkers onder planeetfotografen: een f/10 Schmidt Cassegrain van 279mm (11″) diameter en een f/15 Maksutov met een opening van 180mm. Zoals we hierboven gezien hebben, is de kritieke seeing voor deze twee kijkers respectievelijk 0.5 en 0.8 boogseconden (bij 574nm), onder deze waarden heeft de seeing geen effect meer en zijn de kijker diffraction-limited. De afbeelding toont de analyse met ImageJ (zie hieronder) van bovengenoemde acht zonnevlek-animaties en laat zien dat bij beide kijkers het effect van de seeing op de oversampling-factor ongeveer gelijk is (de oversampling-factor is de mate waarop oversampling in de opgenomen data optreedt en dus waardoor het optimale f-getal theoretische gedeeld kan worden zonder detail kwijt te raken). Gemiddeld is de relatie tussen seeing en oversampling-factor voor deze twee kijkers 1.6 x [seeing]0.74 (voor groen licht van 574nm). Als we gaan stacken, dan geldt dat de slechts de laagste seeing tijdens de opname van invloed is op de oversampling-factor. Tijdens een ideale avond kan deze dicht bij de kritieke seeing van de kijker komen. Bij een beste seeing van 0.6 boogseconde zal de oversampling-factor slechts circa 1.1 zijn, bij 0.7 boogseconde is dit circa 1.2 en dus zal het ideale f-getal met slechts enkele tientallen procenten bijgesteld hoeven te worden (bij de SCT iets meer dan bij de Maksutov).

 

De kleurencamera opnieuw beschouwd
Uit deel 1 van dit artikel bleek dat, doordat deze een bayer-patroon heeft, de kleurencamera per vier pixels slechts één rode, één blauwe en twee groene pixels heeft. Dit betekent dat de effectieve pixelgrootte met 2 vermenigvuldigt moet worden bij rood en blauw en met de wortel(2) bij groen. Aangezien rood en blauw de laagste resolutie hebben, zou daardoor het optimale f-getal met 2 vermenigvuldigd moeten worden.

Nu is deze conclusie op zich prima, mits van een enkelvoudige opname uitgegaan wordt, maar wat gebeurt er als we stacken? Wanneer we afbeeldingen stacken, mogen we aannemen dat de planeet niet op een stationaire positie op de chip zal staan vanwege seeing en volgfouten. Verwerkingssoftware zoals AutoStakkert!, bepaalt het middelpunt van de planeet en verplaats daarmee de data met een aantal pixels (een geheel aantal pixels naar ik aanneem, maar wellicht dat dit ook op sub-pixel niveau gebeurt). Dus stel je voor dat frame 2 een planetair centrum heeft dat 1 pixel (of een oneven aantal pixels) naar links of rechts ligt en 0 pixels naar boven/beneden, dan zorgt het stacken ervoor dat twee aangrenzende pixels worden gevuld met data. Op dezelfde manier kan frame 3 ook een oneven aantal pixels naar boven/beneden verschoven hebben, en zal dus aangrenzende pixels in die richting vullen. Ervan uitgaande dat het stacken van kleurenafbeeldingen zo werkt, dan betekent dat dat kleurencamera’s naar dezelfde f#-regel luisteren als monocamera’s (dus hoeven we niet met een factor 2 te vermenigvuldigen). Het betekent echter wel dat we meer data moeten stacken (4 keer zoveel voor R/B, 2 keer zoveel voor G) om dezelfde signaal-ruisverhouding te krijgen als bij een monochroomcamera.

 

Conclusie
Hierboven hebben we gezien dat verschillende benaderingen van dit probleem tot verschillende antwoorden leidt. Uitgaande van de Spatial Cut-off Frequency en groen licht met een golflengte van 540nm, komen we op een factor 3.7, hetgeen flink hoger is dan de factor 3.0 volgens het Rayleigh-criterium uit het eerste deel van dit artikel. Dat dit niet in tegenspraak is met elkaar, komt doordat met het Rayleigh-criterium nog niet de limiet bereikt is van wat er aan detail nog detecteerbaar is. Het Sparrow-criterium is de theoretische grens waarbij twee objecten bij gelijke intensiteit niet meer te scheiden zijn. Gaan we daarmee rekenen, dan volgt er, als we afronden, een factor 3.9. Het Dawes-criterium, dat uit empirisch onderzoek ontstaan is en aangeeft wanneer objecten visueel niet meer te scheiden zijn, leidt tot (wederom afgerond) een factor 3.6.

Criterium f# (@ 540nm)
Sparrow-criterion: 3.9 x |px|
Spatial Cut-off Frequency: 3.7 x |px|
Dawes-criterion: 3.6 x |px|
Rayleigh-criterion (uit Deel 1): 3.0 x |px|

Rest nu de vraag welke factor echt nuttig is. Als het Dawes-criterium breed toepasbaar zou zijn (dus zou gelden voor alle waarnemers en telescopen), dan zal er geen extra detail meer te zien zijn boven een factor 3.6, hetgeen goed overeenkomt met de factor 3.7 die volgt uit de Spatial Cut-off Frequency. Nu gelden de berekeningen in deze twee delen voor ideale optiek in het groene deel van het spectrum en is er nog geen rekening gehouden met aberraties, verminderd contrast en de seeing. Met name de seeing is van invloed op de kleinste details die we nog kunnen vastleggen en zorgt ervoor dat we in het algemeen de factor met enkele tientallen procenten naar beneden moeten bijstellen. De factor 3 uit het eerste deel is daarmee een veilige grens om te hanteren omdat, gezien de altijd aanwezige seeing en aberraties, het aanneembaar is dat de factor 3.7 tot oversampling gaat leiden. In tegenstelling tot zoals in het eerste deel besproken, hoeft daarbij het optimale f-getal niet aangepast te worden aan het type camera, mits aan stacking gedaan wordt. De factor ter compensatie van het sampling-interval (i) komt dus te vervallen. Wel is er bij een kleurencamera een grotere stack nodig om dezelfde signaal-tot-ruis-verhouding te halen. In formulevorm:

f# > 3 x |px|

Hieronder gaan we nog kijken of het ook aantoonbaar is dat er onder- of oversampling optreedt.

Het toetsen van over- en undersampling

Afbeelding 3: FFT van golfpatronen bij 2x (boven) en 4x oversampling. Links staat het golfpatroon met onderin een profielplot ervan, in het midden het Frequency Spectrum, rechts een profielplot daarvan.

Tot nog toe hebben we het ideale f# en de effecten van over- en undersampling alleen vanuit theoretische oogpunt bekeken. Het zou echter mooi zijn als we dit ook kunnen toetsen. Als we achteraf kunnen zien of we aan het over- of undersamplen zijn, dan krijgen we een idee of we goed bezig zijn, of dat we onze installatie wellicht moeten aanpassen. Het beeldbewerkingspakket Fiji, ook wel bekend als ImageJ, heeft precies die functionaliteit die we hiervoor nodig hebben: de Fast Fourier Transformation (FFT). De FFT is een efficiënte variant van de Discrete Fourier Transformation, een algoritme voor het analyseren van de frequenties die aanwezig zijn in een bemonsterd signaal. Door in Fiji een Fourier-transformatie op een afbeelding toe te passen, krijgen we inzicht of dit inderdaad gelukt is.

Afbeelding 3 toont hoe Fiji dit inzichtelijk maakt. De bovenste rij laat tweevoudige oversampling zien, de onderste viervoudige. Helemaal links staan afbeeldingen van golfpatronen. Bij de bovenste bestaat deze uit twee verticale lichte lijnen, gevolgd door twee donkere lijnen. De hele golf bestaat dus uit vier lijnen terwijl twee lijnen zouden volstaan om dit patroon te tekenen, dus is hier sprake van tweevoudige oversampling. Bij de onderste afbeelding is iedere hele golf uit acht lijnen opgebouwd en dus is er sprake van viervoudige oversampling. De afbeeldingen in het midden laten het Frequency Spectrum van beide patronen zien. Dit spectrum wordt in dezelfde verhouding als het bronbestand geproduceerd, is richtingsgevoelig (zie afbeelding 8) en heeft de oorsprong (0) in het centrum (dit is een gebruikerskeuze zoals we beneden zullen zien). Het midden van de afbeelding vertegenwoordigt daardoor de frequentie van 0px-1 (dus voor een golflengte van een oneindig aantal pixels), het midden van de randen (dus horizontaal links en rechts en verticaal boven en beneden van het centrum) vertegenwoordigen een frequentie van 0.5px-1 (dus voor een golflengte van 2 pixels, de ideale bemonsteringsfrequentie). Aangezien de golfrichting in de linker afbeeldingen langs de horizontale as loopt, mogen we in het bijbehorende spectrum op respectievelijk 50% (1/2) en 25% (1/4) vanuit het midden op de horizontale as de frequentiepieken verwachten (dit twee tegenovergestelde richtingen) en inderdaad zien we dit in de middelste afbeeldingen gebeuren. De rechter afbeeldingen laten dit in een profielplot zien.

Afbeelding 4: De FFT en FFTJ functies van Fiji.

Fiji laat zich gemakkelijk installeren. Na downloaden van het pakket kan het op het bureaublad worden uitgepakt. In de hoofdmap zit de hoofdapplicatie ImageJ-win64.exe. Fiji heeft twee methodes om een FFT uit te voeren. De eerste is native en heet FFT, de tweede via een plug-in die FFTJ heet en onderdeel is van de installatie. Afbeelding 4 laat zien waar de twee functies zich bevinden. De twee functies hebben ieder zo hun voordeel. FFT werkt rechtstreeks met kleurenopnames, maar FFTJ is flexibeler en produceert een wat duidelijker resultaat. Daar staat dus tegenover dat FFTJ een grijswaardenafbeelding nodig heeft. Gelukkig kan een kleurenafbeelding, na openen via File/Open, met de functie Image/Color/Split Channels opgesplitst worden in de afzonderlijke RGB kanalen die FFTJ kan gebruiken. Eventueel kan ook via Image/Color/RGB to Luminance een volledige grijswaardenafbeelding gemaakt worden. Vanaf hier zal ik alleen de FFTJ-methode gebruiken.

 

Afbeelding 5: De werkvolgorde voor FFTJ in Fiji.

Om inzichtelijk te maken wat FFTJ produceert, gaan we eerst naar twee voorbeelden kijken: witte en roze ruis. Een plaatje met witte ruis staat op WikiPedia. Met File/Open openen we deze afbeelding (zie afbeelding 5, A). Vervolgens openen we de plug-in via Plugins/FFTJ/FFTJ (afbeelding 5, B). Hier selecteren we de afbeelding als het Real part of input, laten we het Imaginary part of input op <none> staan, stellen we de Complex Number Precision in op Double Precision en de FFT Direction op forward. Klikken we nu op OK, dan opent er een Disclaimer-window (afbeelding 5, D) om aan te geven dat FFTJ gestart is. Het processen van de afbeelding kan, afhankelijk van de grootte, enkele minuten duren, waarna het FFTJ-window opent (afbeelding 5, E). Hierin stellen we de Fourier Domain Origin in op At Volume-Center en klikken we op de knop Show Frequency Spectrum (logarithmic), waarna het resultaat als afbeelding getoond wordt (afbeelding 5, F). Wat FFTJ nu gedaan heeft, is het genereren van een afbeelding (het Frequency Spectrum) met dezelfde afmetingen als het origineel en dat is gebruikt als een canvas om daarop de frequentie-componenten te tonen. Nu is het alleen nog zaak deze afbeelding te stretchen, hetgeen kan via Image/Adjust/Brightness Contrast. Dit B&C-window (afbeelding 5, G) heeft een Auto-knop, welke na een paar klikken al een redelijk resultaat geeft, waarna met de links-rechtsknoppen van het Maximum (in de rode cirkels) dit verder verfijnd kan worden. In dit voorbeeld zien we weer een plaatje met ruis. Kijken we goed, dan is er wel wat structuur zichtbaar, hetgeen al een indicatie is dat het bronbestand geen volledige white-noise was.

Afbeelding 6: van links naar rechts drie keer white-noise: het origineel, het origineel met zwart kader en het origineel 200% geschaald.

Nu we weten hoe Fiji werkt, gaan we een paar tests doen. Eerst heb ik het white-noise plaatje van een zwart kader voorzien, net alsof het white-noise gedeelte een planeet is tegen de nachtelijke achtergrond. De afbeelding is daarbij exact twee keer zo breed en twee keer zo hoog gemaakt. Daarna heb ik de oorspronkelijke white-noise afbeelding met 200% opgeschaald, waardoor deze dus net zo groot is als het exemplaar met het zwarte kader. Afbeelding 6 laat naast elkaar deze drie afbeeldingen zien. Eronder staan de bijbehorende Frequency Spectra van FFTJ en helemaal linksonder een kopie van het linker Frequency Spectrum om twee gebieden aan te geven die duidelijk donkerder zijn dan de rest, dit omdat deze gebieden ook terug te vinden zijn in de andere twee spectra.

Aangezien er hier sprake is van witte ruis, moet het hele canvas willekeurig gevuld zijn. Dat er toch nog twee donkere gebieden te zien zijn, betekent dat de bron niet 100% witte ruis bevat. De middelste afbeelding (die met white-noise en een zwart kader) bevat nog steeds de oorspronkelijke data, maar daaromheen overheerst het zwart. Het resulterende Frequency Spectrum is daardoor weer volledig gevuld met ruis, maar met als ‘bonus’ een lichter kruis door het midden ten gevolge van het zwart langs de randen van de bronafbeelding zit. De rechter afbeelding is 200% opgeblazen en dus zijn alle oorspronkelijke pixels over vier pixels verdeeld (er is hier sprake van tweevoudige oversampling). Het resulterende Frequency Spectrum laat dit zien doordat deze nu tot slechts halverwege de rand data bevat, de randen zijn vrijwel egaal zwart.

Afbeelding 7: van links naar rechts drie keer roze-noise: het origineel, het origineel met zwart kader en het origineel 200% geschaald.

Afbeelding 7 toont dezelfde processing, maar nu voor roze ruis. De bronafbeelding ziet er net zo uit als in Afbeelding 6, maar het Frequency Spectrum laat meteen zien dat de ruis niet uniform is (in het midden is de intensiteit hoger dan naar de randen). Het toevoegen van een zwart kader zorgt er wederom alleen voor dat het Frequency Spectrum ook groter wordt en weer een centraal kruis heeft. Ook hier zijn er patronen in beide Frequency Spectra herkenbaar. Bij opschalen naar 200% laat het Frequency Spectrum wederom zien dat de brondata niet alleen niet uniform is, maar ook oversampled.

Afbeelding 8: FFTJ analyse van een Jupiter-opname met een C11 EdgeHD op f/20 met een ZWO ASI174 (5.9 micron pixels).

Nu het duidelijk is hoe we de resultaten van FFTJ moeten interpreteren, kunnen we een echte foto gaan analyseren. Daartoe heb ik mijn opname van Jupiter van 24 september 2022 genomen en daarvan het oorspronkelijke groenkanaal uit AutoStakkert!3 door FFTJ gehaald (zie afbeelding 8). De opname is gemaakt met een C11 EdgeHD op f/20 en een ZWO ASI174MM met |px| = 5.9µm. Bovenin is de analyse van de oorspronkelijke stack te zien met daarnaast het Frequency Spectrum (de sterke diagonaal erin wordt door de banden van Jupiter veroorzaakt). Daaraan is duidelijk te zien dat hier sprake is van oversampling. Hoeveel dit is, is af te leiden door de oorspronkelijke afbeelding te verschalen. Linksonder is dit met 50% gedaan en het ernaast staande Frequency Spectrum laat zien dat dit bijna de correcte bemonstering is. Gaan we nog verder, naar 33% (rechtsonder), dan zien we dat het Frequency Spectrum bij de randen van de afbeelding afgeknipt wordt, hetgeen betekent dat er bij 33% sprake is van undersampling. De correcte bemonstering zit in dit geval dus ergens tussen f/10 (50%) en f/6.67 (33%). Dit lijkt echter in tegenspraak te zijn met de theorie. De camera heeft immers een pixelgrootte van 5.9µm, dus de kijker moet tenminste 3 x 5.9 = f/17.7 zijn en dat is hier met f/20 ruimschoots het geval.

Afbeelding 9: Zonnevlekken bij oplopende seeing (van links naar rechts 0″, 1″ en 2″) met eronder de daarbij behorende Frequency Spectra.

Deze schijnbare discrepantie wordt veroorzaakt door de seeing. Onlangs heb ik samen met Siebren van der Werf een artikel gepubliceerd over de invloed van seeing en het het diameter van het objectief op het detailniveau in zonnevlekwaarnemingen.[4] Om dit inzichtelijk te maken hebben we een convolutie van een Gaussische distributie met de Fraunhofer-diffractie geprogrammeerd en daarmee afbeeldingen van zonnevlekken voor verschillende typen kijkers en seeing-niveaus gegenereerd. Afbeelding 9 toont een drietal afbeeldingen zoals deze met een C11 op f/10 en een camera met een pixelgrootte van 2.95µm genomen zouden zijn bij een oplopende seeing van respectievelijk 0, 1 en 2 boogseconden. De resultaten van FFTJ laten duidelijk zien dat de seeing een significante invloed heeft op de oversampling. Zoals we hierboven gezien hebben neemt de oversampling toe met 1.6 x [seeing]0.74 (voor populaire planetaire kijkers). Dat ook bij de eerste afbeelding al sprake is van oversampling, komt doordat het bronbestand dat voor het artikel gebruikt is reeds door seeing verslechterd was. We hebben weliswaar getracht dit met deconvolutie, verdere verscherping en verschalen op te vangen, maar dat is duidelijk niet gelukt (en dat was voor dat artikel ook niet van belang, het ging erom de invloed van de seeing inzichtelijk te maken). Dat de hierboven getoonde opname van Jupiter oversampled is, komt dus vrijwel zeker door de seeing die kennelijk ergens rond de 2 boogseconden was (ervan uitgaande dat de theorie klopt en dat we inderdaad bij circa f/20 moeten fotograferen). Als we dus met FFT(J) gaan toetsen, dan moeten we er dus rekening mee houden dat de seeing een significante invloed op het Frequency Spectrum heeft.

 

copyright © 16 december 2022, Nicolàs de Hilster & starry-night.nl

Voetnoten

[1]: Saleh en Teich, p. 502.

[2]: Ik heb in deze berekeningen voor groen licht gekozen omdat zowel ons oog als de camera hier het gevoeligst zijn. Gaan we kijken naar het hele spectrum waarbinnen we fotograferen, zeg van 400nm tot en met 700nm, dan treeds er nog flinke variatie op. De factoren worden dan respectievelijk 5.0 en 2.86. Nu wordt blauw het meest verstrooid door onze atmosfeer, dus is het onwaarschijnlijk dat we in die kleur daadwerkelijk de limiet halen, zelfs al zouden we f# = 5 x |px| aanhouden.

[3]: Seykora, pp.390-91. Soms wordt de seeing ook gedefinieerd als de FWHM (Full Width at Half Maximum): FWHM=√(2ln(2))×(2×rms-radius) = 2.355σ, zie: ESO, Schaefer, p.411, Karachik, p.3.

[4]: Hilster en Werf.

 

Bibliografie

ESO, “Analysis of telescope image quality data data“, (laatst bezocht 12 augustus 2022).

Hilster, N. de, Werf, S. van der, “The effect of aperture and seeing on the visibility of sunspots when using early modern and modern telescopes of modest size”, (16-18 August 2022), DOI: arXiv:2208.07244.

Karachik, N.V., Pevtsov, A.A., Nagovitsyn, Y.A., “The effect of telescope aperture, scattered light, and human vision on early measurements of sunspot and group numbers”, (12 July 2019), p.3. DOI: arXiv:1907.04932.

Saleh, B.E.A., Teich, M.C., Fundamentals of Photonics, (Hoboken, 2019).

Schaefer, B.E., “Visibility of Sunspots”, in: The Astrophysical Journal, vol. 411, (July 1993), pp.909-919., p.411.

Seykora, E.J., “Solar Scintillation and the Monitoring of Solar Seeing”, in: Solar Physics, vol. 145, (1993), pp.390-91.

 

Leave a Comment

Scroll to Top