Vergroting onder de loep: hoe bepalen we het optimale f-getal?

© 19 september 2019, Nicolàs de Hilster & starry-night.nl

In tegenstelling tot gewone fotografie, waar over het algemeen de camera en lens van hetzelfde merk en op elkaar afgestemd zijn, wordt in de astrofotografie een kijker van een willekeurig merk A gecombineerd met een camera van een willekeurig merk B. Niet zelden wordt daartussen dan ook nog een Barlow-lens geplaatst van wederom een willekeurig ander merk. Met deze combinatie gaan we vervolgens aan de slag om zo gedetailleerd mogelijke foto’s te maken van DSO’s of de Zon, Maan en planeten.

De afbeeldingen die we in dit proces maken zijn soms spectaculair, maar het is maar de vraag of we daarbij het maximale uit onze combinatie van camera en optiek halen. Is de vergroting niet te weinig of is deze juist te veel? Hadden we economischer met onze waarneemtijd kunnen omgaan? Een zoektocht op het internet levert diverse vuistregels op waaraan de kijker/Barlow-lens/camera-combinatie zou moeten voldoen, maar lang niet altijd wordt daarbij ingegaan op de theoretische achtergrond ervan, terwijl ze lang niet altijd correct zijn. In dit artikel hoop ik wat meer duidelijkheid te scheppen in deze materie en vooral in de achterliggende natuurkundige processen. Daarnaast laat ik zien dat de huidige vuistregels een aanpassing behoeven voor de toepassing op kleurencamera’s.

Om het zo overzichtelijk mogelijk te houden is dit artikel gesplitst in een aantal onderwerpen:

De afbeeldingen van de Airy-discs met refractieringen in dit artikel zijn allemaal met behulp van PhP gegenereerd op basis van de eerste soort Besselfunctie van de eerste orde. Daarbij is gebruik gemaakt van twee grijsschalen: de ene is lineair, waarbij 0% intensiteit overeenkomt met zwart, 100% met wit en het tussengebied 8-bits verdeeld is (256 grijswaarden). De andere grijsschaal is logaritmisch, waarbij wederom 0% overeenkomt met zwart en 100% met wit, maar het tussenliggende gebied is logaritmisch verdeeld volgens de formule (log(intensity+1/255)*255)/log(255)*255 om de refractieringen inzichtelijk te maken. Afbeeldingen 1 en 2 zijn daarbij met vier refractieringen gegenereerd, de overige met twee om de afbeeldingen klein te houden.

 

Een paar begrippen en formules
In feite kunnen we de berekeningen af met een paar zeer eenvoudige formules en een handvol begrippen:

 

f-getal (f#)
Het f-getal (vanaf hier aangeduid als f#) is de verhouding tussen de diameter van het objectief van een telescoop (D) en de brandpuntsafstand (beiden in dezelfde eenheden). In formulevorm wordt dit geschreven als:

f# = f x D-1 [1]

 

Airy-disc (rAiry)

Afbeelding 1): De Airy-disc (rendering in logaritmische grijsschaal).

Als we door een telescoop kijken bij een ideaal rustige atmosfeer en met het oculair in focus, dan zien we de sterren als kleine schijfjes, de zogenoemde Airy-discs (zie afbeelding 1), met daaromheen concentrische cirkels. De Airy-discs en cirkels zijn het resultaat van diffractie door de opening van de telescoop. De Airy-disc is vernoemd naar Sir George Biddell Airy (1801 – 1892), de zevende Astronomer-Royal van Engeland, al was het fenomeen wel al eerder beschreven door Sir John Frederick William Herschel (1792 – 1871). Het is een schijf met het middelpunt op het midden van de zichtbare ster en een straal die gelijk is aan de straal van de eerste donkere diffractiering die daar omheen loopt. De kleinste straal (rAiry) die het schijfje kan krijgen bij correct scherpstellen en een ideale atmosfeer is afhankelijk van de golflengte van het licht, de opening van de telescoop en de brandpuntsafstand. De straal van de Airy-disc is een maat voor de kleinste details die we mogelijkerwijs met de telescoop kunnen waarnemen. In formulevorm wordt dit geschreven als:

r Airy = 1.22 x λ x f x D-1 [µm] [1] [2.1]

In combinatie met [1] geeft dit:

r Airy = 1.22 x λ x f# [µm] [2.2]

Voor groen licht (λ = 540nm) kan [2.2] geschreven worden als:

r Airy = 1.22 x 0.540 x f# = 0.66 x f# [µm] [2.3]

Onder ideale omstandigheden en goed in focus bij groen licht is de straal in micrometers (µm) van de Airy-disc dus alleen nog afhankelijk van het f-getal (f#). Hieronder zullen we zien hoe deze maat om te rekenen is naar het aantal pixels op de beeldchip of boogseconden aan de hemel.

 

Rayleigh-criterium (rRayleigh)

Afbeelding 2): Het Rayleigh-criterium (rendering in logaritmische grijsschaal).

Kijken we nu door de telescoop naar twee objecten die heel dicht bij elkaar staan (twee sterren of twee details op het oppervlak van een planeet), dan is het Rayleigh-criterium de minimum onderlinge afstand waarop we de twee objecten nog kunnen onderscheiden. Dit criterium is vernoemd naar de Engelsman John William Strutt FRS, 3rd Baron Rayleigh (1842 – 1919), die dit in 1879 beschreef in The London, Edinburgh, and Dublin Philosophical Magazine and Journal of Science.

In geval van een dubbelster komt het er op neer dat het intensiteitsmaximum van de ene ster op het intensiteitsminimum van de andere ligt (zie afbeelding 2). Deze onderlinge afstand is ons bekend als de Airy-disc-radius r Airy. Ook voor planetaire details geldt ditzelfde criterium: als twee evenwijdige lijnen dichter dan deze afstand van elkaar af liggen, is het vrijwel niet meer mogelijk ze van elkaar te onderscheiden.

In formulevorm is het Rayleigh-criterium dus zeer eenvoudig:

r Rayleigh = r Airy [µm] [3]

Afbeelding 3): De Dawes- en Sparrow-criteria vergelen met het Rayleigh-criterium (links met logaritmische grijsschaal, rechts lineair).

Naast het Rayleigh-criterium zijn er nog de Dawes- en Sparrow-criteria, zie afbeelding 3 en afbeelding 4. Het Dawes-criterium is ouder dan het Rayleigh-criterium en is vernoemd naar de astronoom William Rutter Dawes (1799-1868) die dit beschreef in 1867 in Memoirs of the Royal Astronomical Society, Vol. 35.[2] Dawes had empirisch vastgesteld dat het oplossend vermogen van een telescoop 4.56″ gedeeld door de lensdiameter in inches was (circa 85% is van het Rayleigh-criterium). Het Rayleigh-criterium was echter formeler, omdat het op de theoretische Airy-disc-diameter was gebaseerd, en won daardoor terrein.
In 1916 publiceerde C.M. Sparrow zijn criterium in The Astrophysical Journal met als uitgangspunt dat een dubbelster niet meer op te lossen is als de Airy-discs zoveel overlap hebben, dat de intensiteit in de het overlapgebied constant blijft (zie afbeelding 4).[3] Het Sparrow-criterium is circa 77% van het Rayleigh-criterium.
Het verschil tussen de Dawes- en Sparrow-criteria is in de logaritmische grijsschaal nauwelijks zichtbaar, maar nog goed te zien in de lineaire grijsschaal.
Recent onderzoek heeft uitgewezen dat deze criteria geen ondergrens meer hoeven te zijn.[4]

Afbeelding 4): Intensiteiten van de Rayleigh-, Dawes- en Sparrow-criteria.

 

 

Nyquist-criterium
Willen we bij digitalisering een golfvorm of een structuur zodanig vastleggen dat we deze weer uit de digitale data kunnen reconstrueren zonder de kleinste details te verliezen, dan zullen we met een hogere resolutie gegevens moeten verzamelen dan dat de kleinste details groot zijn. Volgens het Nyquist-criterium moet deze sampling-resolutie een factor 2 hoger zijn dan deze kleinst te bewaren details. Muziek wordt bijvoorbeeld digitaal gesampled bij een frequentie van 44.1khz, zodat een toonhoogte van 22khz (= bovengrens van ons gehoor) nog gereconstrueerd kan worden.

 

Pixel-grootte (|px|)
In dit artikel wordt regelmatig gesproken van de pixel-grootte, de maat in micrometers (µm) van een pixel op de beeldchip. Deze maat zal in het algemeen verkort worden weergegeven als |px|.

Camera-resolutie
De camera-resolutie is de grootte van de pixels op de beeldchip, uitgedrukt in boogseconden (“), als functie van pixel-grootte |px| (in µm) en de brandpuntsafstand (in millimeters). In formulevorm wordt dit geschreven als:

Resolutie Camera = |px| x f-1 x 206.3 [“/px] [5] [4]

Full Width Half Maximum (FWHM)

Afbeelding 5): Full Width Half Maximum.

Als onder een ideale atmosfeer het licht van een ster op een beeldchip valt, dan zal door diffractie een Airy-disc ontstaan. Plotten we de intensiteit tegen de positie langs de diameter van de Airy-disc, dan krijgen we min of meer een Gaussische kromme, ook wel bekend als de normaalverdeling (zie afbeelding 15 voor het verschil tussen de normaalverdeling en de intensiteitskromme). De diameter van de schijf waarbij 50% van de maximale intensiteit gehaald wordt (gecorrigeerd voor de intensiteit van de achtergrond), is de Full Width Half Maximum (FWHM, zie afbeelding 5). De FWHM wordt over het algemeen berekend uit de data, maar kan ook theoretische bepaald worden uit de golflengte van het licht, de opening van de telescoop en de brandpuntsafstand. Deze theoretische FWHM wordt hier verder aangeduid met FWHM Theoretisch en wordt in formulevorm geschreven als:

FWHM theoretisch = 1.028 x λ x f x D-1 [µm] [6] [5.1]

In combinatie met [1] geeft dit:

FWHM theoretisch = 1.028 x λ x f# [µm] [5.2]

Voor groen licht (λ = 540nm) kan [5.2] geschreven worden als:

FWHM theoretisch = 1.028 x 0.540 x f# = 0.56 x f# [µm] [5.3]

Afbeelding 6): Curve-fitting voor het bepalen van de Full Width Half Maximum.

Bij het bepalen van de FWHM uit de data wordt gebruik gemaakt van curve-fitting, waarbij een Gaussische kromme zo goed mogelijk wordt gefit in de data.[7] In afbeelding 6 zijn de rode stippen de data zoals uit de camera verkregen (bepaald langs de diameter van de ster). De curve wordt gefit en de FWHM volgt uit het 50% niveau van de kromme.

 

 

 

 

HFD (en HFR)

Afbeelding 7): De Half Flux Diameter.

De meer robuuste opvolger van FWHM is de Half Flux Diameter (HFD). De HFD wordt bepaald door de cirkel te bepalen waarbinnen (en buiten) de hoeveelheid energie 50% is van het volledige sterbeeld (gecorrigeerd voor de achtergrond, zie afbeelding 7).[8] De energie wordt bepaald uit de som van ADU die de sensor produceert.[9] De methode is robuuster dan de FWHM en gaat beter om met donuts (ringvormige afbeelding van een ster doordat deze uit focus is), ruis en seeing (verslechtering van het beeld door atmosferische omstandigheden) dan de FWHM. Daarnaast is de methode lineair (behalve dicht bij focus), zodat deze uitermate geschikt is om auto-focus-routines mee aan te sturen.

Ook wel gebruikt wordt de Half Flux Radius (HFR), waarvoor geldt:

HFD = 2 x HFR [px] [6]

 

 

De invloed van de kleurencamera

Afbeelding 8): Bayer en X-Trans patronen.

De formule [4] voor de resolutie van de camera en een van de vuistregels hier beneden [V2] maken gebruik van |px| in de berekening. De fabrikant van de camera specificeert de |px|, zodat wij daar onze berekeningen mee kunnen doen. Het Nyquist-criterium bepaald in grote mate hoe we de data zouden moeten gaan samplen. Bij monochroom-camera’s is de sampling-dichtheid gelijk aan |px| en het sampling-interval (i). Deze laatste is gelijk aan 1, aangezien iedere pixel data oplevert. De hart-op-hart afstand van de pixels is gelijk aan |px| en bepaalt daarmee de maximaal haalbare sampling-dichtheid.

Dit geldt echter niet voor kleuren-camera’s. Over de beeldchip ligt namelijk een laag met filters. De pixels van de beeldchip zijn allemaal monochroom, maar dankzij deze laag met filters krijgen de pixels een bepaalde vaste kleur toegewezen. Er zijn diverse manieren waarop deze filterlaag aangebracht wordt, afbeelding 8 laat daarvan het Bayer- en het X-Trans-patroon zien. Bij een Bayer-patroon is de verhouding tussen rode, groene en blauwe pixels 2:4:2, voor een X-Trans-patroon is dit 2:5:2 (voor het Bayer-patroon kan deze verhouding uiteraard vereenvoudigd worden tot 1:2:1, maar voor het vergelijk met X-Trans-patroon was het handiger dit als 2:4:2 te noteren). Aangezien het Bayer-patroon meer algemeen is, zal ik het X-Trans-patroon hier niet verder bespreken, alle verdere tekst is van toepassing op het Bayer-patroon.

Afbeelding 9): Lichtgevoeligheid van monochroom vs kleuren beeldchip.

De kleinst zichtbare details in onze foto’s zijn afhankelijk van de maat van de Airy-disc, het Rayleigh-criterium en het Nyquist-criterium. Het is bij die laatste dat het Bayer-patroon een rol gaat spelen. In tegenstelling tot een monochroomcamera, waar ongeacht de kleurenfilter iedere pixel data oplevert, leveren bij een kleurencamera alleen die pixels data in een bepaalde kleur waar ze van dat type kleurenfilter voorzien zijn. Kijken we dus naar groen licht, dan levert de helft van de pixels data, kijken we naar rood of blauw licht, dan leveren slechts een kwart van de pixels data (zie afbeelding 9).

Kijken we nu naar de kortste afstand tussen de pixels (zie afbeelding 8), dan zien we dat dit bij rood en blauw 2 x |px| is, terwijl dit voor groen √2 x |px| is. Aangezien de rode en blauwe pixels de grootste hart-op-hart afstand hebben, beperken deze de maximaal haalbare resolutie van de camera (tenzij we hem monochroom voor groen licht gaan gebruiken). Dit betekent dus dat de effectieve resolutie van een kleurencamera 2 x |px| is en dat we in onze berekeningen en bewerkingen daar rekening mee moeten houden. Om een 2-megapixel-camera toch een plaat met 2 megapixels te laten produceren worden de overige driekwart van de pixels (de helft in geval van groen) gevuld met geïnterpoleerde data (en dat is dus geen echte data!).

Een kleurencamera met een |px| van 2.9µm heeft dus dezelfde sampling-dichtheid als een monochroomcamera met een |px| van 5.8µm, maar die laatste heeft dan als voordeel, dat deze vier keer zo lichtgevoelig is als de kleurencamera (uitgaande van dezelfde quantum-efficiëntie van de beeldchip). Het grote voordeel van de kleurencamera is dat we tegelijkertijd data in rood, groen en blauw kunnen verzamelen, hetgeen het fotograferen van bijvoorbeeld snel roterende planeten met oppervlaktedetails als Jupiter vergemakkelijkt.

 

De vuistregels
Nu de theorie bekend is, kunnen we gaan kijken naar drie veelgebruikte vuistregels:

DJupiter in px = DOTA in mm [10] [V1]
f# = 3-5 x (|px| in µm) [10] [V2]
f# = 3-5 x FWHM/2 [11] [V3]

DJupiter in px = DOTA in mm
Deze formule geeft de maximum diameter in pixels die Jupiter zou mogen worden bij een kijker (OTA) met een diameter DOTA in millimeters. Is Jupiter groter, dan zouden òf de pixels te klein zijn, òf het f# van de OTA te groot. De methode wordt hier onder met twee voorbeelden geanalyseerd, de eerste aan de hand van een 11″ f/10 SCT met een 5.86µm monochroomcamera, de tweede aan de hand van een 5″ f/5 Newton met een 2.9µm kleurencamera.

f# = 3-5 x (|px| in µm)
Het f# zou een directe relatie hebben met |px|, waarbij deze 3 tot 5 keer (volgens sommigen alleen maar 5 keer) groter mag zijn dan |px| in micrometers. De methode wordt hieronder aan de hand een voorbeeld met een 11″ f/10 SCT geanalyseerd.

f# = 3-5 x FWHM/2
Het f# zou een directe relatie hebben met FWHM, waarbij deze 3 tot 5 keer (volgens sommigen wederom alleen maar 5 keer) groter mag zijn dan de halve FWHM in micrometers. De methode wordt hieronder aan de hand van een voorbeeld met een 6″ f/7 refractor met een 3.8µm monochroomcamera geanalyseerd.

 

De analyse van de vuistregels
Met behulp van de theorie is het nu mogelijk om bovenstaande vuistregels te toetsen.

 

1) DJupiter in px = DOTA in mm [V1]
Deze formule geeft de dus maximum diameter in pixels die Jupiter zou mogen worden bij een kijker met een diameter DOTA in millimeters. Een voorbeeld:

OTA : 11” SCT
(D = 279.4mm, f = 2794mm: f/10)
Camera : ZWO ASI174MM
(|px| = 5.86µm, monochroom)
DJupiter (augustus 2019) : 41”

Volgens de formule DJupiter in px = DOTA in mm zou DJupiter maximaal 279 pixels mogen worden.

Gebruik makend van [4] komen we op een camera-resolutie voor dit systeem van:

Resolutie Camera = 5.86 . 2794-1 x 206.3 = 0.43″/px [7]

Momenteel (augustus 2019) geldt DJupiter = 41″. Met de zojuist berekende resolutie van 0.43″/px zal Jupiter 41/0.43 = 95 pixels groot worden. Aangezien Jupiter volgens de vuistregel 279 pixels zou mogen zijn, mogen we een 3 x Barlow toepassen om dit te realiseren. Jupiter wordt dan 95 x 3 = 285px (slechts 2% te groot), de OTA wordt dan f/30, hetgeen niet onredelijk klinkt.

Conclusie
De methode klinkt niet onredelijk, maar om te zien of dit betekent dat DJupiter in px = DOTA in mm daadwerkelijk correct en dus algemeen toepasbaar is, moeten we eerst de andere vuistregels analyseren. Daarna gaan we aan de hand van een tweede voorbeeld deze vuistregel verder analyseren.

 

2) f# = 3-5 x (|px| in µm) [V2]
Het f# zou een directe relatie hebben met |px|, waarbij deze 3 tot 5 keer (volgens sommigen alleen maar 5 keer) groter mag zijn dan |px| in micrometers.

We hebben bij de begrippen en formules gezien dat alle objecten last hebben van diffractie en dat de kleinste objecten onder ideale omstandigheden op onze beeldchip als een Airy-disc worden afgebeeld. Om twee objecten te kunnen onderscheiden moeten ze aan het Rayleigh-criterium voldoen, die stelt dat ze alleen te onderscheiden zijn als hun onderlinge afstand gelijk is aan de Airy-disc-radius. Als we dit nu in beeld willen brengen, dan stelt het Nyquist-criterium dat we deze afstand door tweeën moeten delen.

De Airy-disc radius voor bovenstaande OTA (11″ f/10 SCT) bij groen licht volgt uit [2.3][12]:

r Airy = 0.66 x 10 = 6.6µm [8.1]

Volgens het Nyquist-criterium moeten we dit door 2 delen en dus geldt

|px| = 6.6/2 = 3.3µm [8.2]

Dus omgekeerd moet een 3.3µm pixelgrootte camera een f/10 kijker hebben. Met andere woorden:

f# = (10/3.3) x |px| = 3 x |px| [8.3]

Dit verklaart in ieder geval de factor 3 in de formule f# = 3-5 x (|px| in µm). Maar waar komt dan nu die factor 5 vandaan?

Afbeelding 10): Het Nyquist-criterium toegepast op een Rayleigh-object.

Afbeelding 10 toont ons het Nyquist-criterium in actie. Helemaal bovenaan zien we een object dat precies voldoet aan het Rayleigh-criterium (zie afbeelding 2). De linker kolom toont het object in een logaritmische grijsschaal, de rechter kolom toont exact hetzelfde object, maar dan in een lineaire grijsschaal. De tweede rij laat zien wat er gebeurt als dit object gesampled wordt met een resolutie gelijk aan de Airy-disc-radius (dit is overigens ook een gehanteerde vuistregel), hetgeen aangeduid is met “r/1.00”. De twee afbeeldingen in deze rij zijn dus wat we kunnen verwachten als een beeldchip wordt gebruikt met |px| gelijk aan r Airy.

Daaronder is te zien wat er gebeurt als precies aan het Nyquist-criterium voldaan wordt (r/2.00). Het f# is nu precies 3 x |px| en toch zien we nog steeds een enkelvoudig object. Gaan we daar een fractie overheen (r/2.04 in de afbeelding), dan beginnen we de contouren van het Rayleigh-object te zien. Ook bij grotere f# blijft het Rayleigh-object duidelijk zichtbaar.

Met andere woorden: om een Rayleigh-object te kunnen waarnemen in de data moet de sampling plaatsvinden op een interval van ten hoogste de Airy-disc-radius! Voor het f# betekent dit dat deze ten minste 3 x |px| moet zijn, maar het liefst iets groter (in het voorbeeld volstaat een factor 3.1).

De reden dat een factor 5 gebruikt wordt is mij onduidelijk gebleven, maar heeft twee mogelijke oorzaken:

  • Drievoudige sampling (geeft f# = 4.5 x |px|) [13]
  • 2D sampling-correctie (geeft f# = 4.2 x |px|) [14]

Bij de drievoudige sampling wordt simpelweg uitgegaan van een Nyquist-criterium met een factor 3 in plaats van 2. In het voorbeeld met de 11″ f/10 SCT volgt dan uit [8.1] een |px| van 2.2µm. Delen we 10 (het f# van de 11″ SCT) door 2.2, dan volgt daaruit de factor 4.5, dat na afronding 5 wordt (een handvol zeg maar, makkelijk te onthouden).

De 2D sampling-correctie zou nodig zijn omdat het Nyquist-criterium ontwikkeld zou zijn voor ééndimensionale gegevens, terwijl we hier met tweedimensionale gegevens werken. Om deze reden zou niet de enkele zijde als referentie genomen moeten worden, maar de diagonaal. De factor 3 zou dus vermenigvuldigd moeten worden met v2, hetgeen zou leiden tot een factor √2 x 3 = 4.24. Naar mijn mening is dit echter niet correct. Kijken we naar het verschil tussen CCD en CMOS sensoren, dan zien we dat bij CMOS sensoren het hele beeldveld in één keer gelezen wordt, maar bij CCD’s gaat dit kolom voor kolom. Dit betekent dat CMOS sensoren daadwerkelijk een 2D-plaatje produceren, terwijl dit bij CCD’s een serie van eendimensionale arrays is. Dit zou dan betekenen dat we voor een CMOS een andere ‘Nyquist-factor’ zouden moeten gebruiken dan bij een CCD, maar dat is uiteraard niet het geval. Hetzelfde zou gelden als we bij een beeldchip een Region Of interest (ROI) zouden kiezen die slechts 1 pixel hoog of breed is (of als we een eendimensionale beeldchip zouden gebruiken zoals in een flatbedscanner).

Maar ook als we daadwerkelijk naar de data kijken, zien we dat het Nyquist-criterium stand houdt bij rotatie. Een ander argument voor het toepassen van de 2D-sampling-correctie, zou het niet met de sensor opgelijnd zijn van de twee puntbronnen in het Rayleigh-object. Om een Rayleigh-object te samplen moeten we de onderlinge afstand tussen de twee puntbronnen door tweeën delen. Bij het volledig opgelijnd zijn van het Rayleigh-object met de sensor passen er dan dus maar twee pixels tussen de twee centers. Het Rayleigh-object heeft echter ook een breedte, maar bij een perfect aan de sensor opgelijnd beeld speelt dit geen rol.

Afbeelding 11): Verhoogde sampling-resolutie door rotatie (lineaire grijsschaal).

Gaat het object echter roteren, dan gaat dit wel een rol spelen. We moeten in de richting van de lijn tussen de twee puntbronnen gaan samplen, maar nu hebben we daar in de breedte ten minste vier pixels tot onze beschikking (bij een rotatie van 45 graden is dit opgelopen tot 6 pixels). De richting van de lijn door de twee centers is waarin we moeten gaan samplen en dus moeten we kijken welk interval er zit tussen de loodlijnen vanuit de pixels op deze lijn (zie afbeelding 11, de groene lijn is de sampling-richting, de rode lijnen zijn de loodlijnen van de pixels). In de afbeelding wordt een Rayleigh-object getoond bij een rotatie van 14 graden ten opzichte van de sensor. Niet geheel toevalligerwijs is dit de rotatie waarbij de loodlijnen een constante afstand met elkaar hebben en er een maximaal haalbare resolutie optreedt. Het sampling-interval is nu nog slechts een kwart van de pixelgrootte, oftewel een achtste van de Airy-disc-radius. Zelfs als we alleen de helderste helft van de pixels gebruiken, dan nog is het interval nooit groter dan driekwart pixel, dus circa een derde van de Airy-disc-radius. Bij deze rotatie wordt het Nyquist-criterium dus ruimschoots gehaald. De gemiddelde sampling-afstand bij rotaties van meer dan 8 graden is slechts 50% van de sampling afstand bij een volledig opgelijnd object.

 

Afbeelding 12): Een Rayleigh-object bij 45 graden rotatie en een sampling-interval gelijk aan de Airy-disc-radius (lineaire grijsschaal).

Daarnaast speelt de rotatie nog op een andere manier een rol. De Pixels zijn vierkant en bij het roteren van het Rayleigh-object ‘prikken’ de hoeken van de pixels naar binnen. Dit is bij afbeelding 101 al een beetje te zien, maar bij de ideale rotatie van 45 graden (zie afbeelding 12) is het daardoor mogelijk het Rayleigh-object zelfs met een sampling-interval gelijk aan de Airy-disc-radius (dus slechts de helft van het Nyquist-criterium) nog steeds in beeld te brengen, iets dat zonder rotatie beslist niet mogelijk is.

Afbeelding 13 laat dan ook zien dat het standaard Nyquist-criterium bij willekeurige 2D-data stand houdt. Waar in afbeelding 8 nog gebruik gemaakt werd van een Rayleigh-object dat netjes opgelijnd was met de assen van de beeldchip, is deze relatie losgelaten in afbeelding 13. De afbeelding bestaat uit zes groepen van ieder twee kolommen met Rayleigh-objecten. In de bovenste rij zijn de objecten, net als in Afbeelding 6) met de beeldchip opgelijnd, die rij daaronder heeft een oriëntatie van 15°, die daaronder van 30° en de onderste van 45°. De twee kolommen zijn zo gekozen dat de objecten telkens anders gepositioneerd zijn ten opzichte van de pixelranden.

Afbeelding 13): Het Nyquist-criterium toegepast op Rayleigh-objecten met verschillende oriëntaties (logaritmische grijsschaal).

Afbeelding 14: Een ring opgebouwd volgens het Rayleigh-criterium (lineaire grijsschaal).

De eerste groep (helemaal links) laat de originele Rayleigh-objecten zien, bij de tweede groep zijn ze volgens het Nyquist-criterium gesampled (r/2.00). Duidelijk is te zien dat het Rayleigh-object helemaal rechtsboven in deze groep nog steeds als een enkelvoudig object getoond wordt, de overige zijn reeds meervoudig. Vanaf de derde groep van links (r/2.04) zijn alle Rayleigh-objecten duidelijk meervoudig. De tweede groep van rechts (r/2.82) toont de objecten bij een sampling interval volgens de voorgestelde 2D-correctie, maar uit groepen (r/2.04) en (r/2.50) moge het duidelijk zijn dat deze sampling al ruimschoots fijn genoeg is.

Afbeelding 14 toont een animatie van een ring die uit twee delen bestaat die aan het Rayleigh-criterium voldoen. Beide delen zijn opgebouwd volgens de intensiteitskromme van een Airy-disc en hebben een onderlinge afstand van de Airy-disc-radius. De animatie gaat in stappen door het f# heen, bij factor 3 zit het omslagpunt, daaronder beginnen de ringen, eerst gedeeltelijk en vervolgens volledig, te versmelten.

De 2D-sampling-correctie kan dus achterwege gelaten worden, maar we moeten wel net boven het Nyquist-criterium blijven:

f# > 3 x |px|
[8.4]

De analyse van deze tweede vuistregel is tot nog toe volledig gebaseerd op de aanname dat een monochroomcamera gebruikt wordt. Eerder hebben we gezien dat het gebruik van een kleurencamera van invloed is. Heeft de camera een Bayer-patroon, dan dient |px| met 2 te worden vermenigvuldigd. Formule [8.4] dient dus herschreven te worden, zodat het sampling-interval (i) van de camera er in betrokken wordt:

f# > 3 x |px| x (i)
[8.5]

Met (i) = 1 voor een monochroomcamera en 2 voor een kleurencamera met een Bayer-patroon.

Conclusie
Uit bovenstaande analyse is duidelijk geworden dat f# = 3-5 x (|px| in µm) slechts ten dele geldig is. Het verdient de voorkeur net boven de factor 3 te blijven om in ieder geval in staat te zijn Rayleigh-objecten vast te leggen. De factor 5 die we tegenkomen lijkt min of meer willekeurig gekozen te zijn en is in ieder geval makkelijk te onthouden, maar zorgt wel voor oversampling. Tot slot houdt de formule geen rekening met de invloed van de kleurencamera en dient de formule dus geschreven te worden als f# > 3 x (|px| in µm) x (i), waarin (i) = 1 voor een monochroomcamera en 2 voor een kleurencamera met Bayer-patroon.

 

3) f# = 3-5 x FWHM/2 [V3]
Het f# zou een directe relatie hebben met FWHM, waarbij deze 3 tot 5 keer groter mag zijn dan de halve FWHM in micrometers. Overigens wordt door sommigen ook de hele FWHM als referentie gehanteerd.

Het idee achter deze methode is, dat je de FWHM rechtstreeks met de OTA/camera-combinatie meet. Het zou dus een zeer pragmatische oplossing zijn. Dit levert echter meteen het eerste tegenargument voor deze methode: De FWHM is afhankelijk van een combinatie van factoren. In de basis, uitgaande van ideale atmosferische omstandigheden, is de FWHM volledig afhankelijk van de Airy-disc en die is op zich weer afhankelijk van het f# van de gebruikte kijker. Je probeert dan dus het f# te bepalen door van een f# gebruik te maken. Uiteraard spelen de seeing, kwaliteit van de optiek, collimatie, focus en |px| ook een rol in de grootte van de gemeten FWHM en tezamen zorgen ze ervoor dat de FWHM altijd groter zal zijn dan de FWHM theoretisch.

Afbeelding 15): Gaussian fit in intensity data, de Airy-disc-diameter is circa twee keer de FWHM.

Uit het voorgaande stuk over de vuistregel f# = 3-5 x (|px| in µm) is het duidelijk geworden dat de sampling-dichtheid de helft van de Airy-disc-radius moet zijn. De hele FWHM gebruiken als referentie, zoals soms wordt gedaan, is dus incorrect (tenzij gedeeld door 4). Aangezien de FWHM op het 50% intensiteits-niveau wordt bepaald, zal de diameter ervan circa gelijk zijn aan de radius van de Airy-disc (zie afbeelding 15). De methode f# = 3-5 x FWHM/2 is dus gelijkwaardig aan f# = 3-5 x (|px| in µm), met als voordeel dat alle verstoringen hierin zijn inbegrepen. Het is om deze reden dat Chris Woodhouse hierover schreef dat “… the FWHM and Rayleigh Criterion have similar values and can be treated as one…”.[15]

Even een rekenvoorbeeld:

OTA : SkyWatcher Esprit 150ED
(D = 150mm, f = 1050mm: f/7)
Camera : ZWO ASI1600MM Cool
(|px| = 3.8µm, monochroom)

Uit [2.3] en [3] volgt dat r Rayleigh = 0.66 x 7 = 4.6µm en uit [5.3] dat FWHM Theoretisch = 0.56 x 7 = 3.9µm, inderdaad redelijk gelijkwaardig. Uit 130 opnames geschoten gedurende een nacht met deze combinatie volgde een FWHM van 2.2px – 4.7px (bepaald met Astro Pixel Processor, APP). Met een |px| van 3.8µm geeft dit een range van 8.4µm – 17.9µm, hetgeen geheel volgens verwachting meer is dan de theoretisch bepaalde waarden.

Berekenen we nu het f# met de laagste waarde voor FWHM uit APP, krijgen we (met de factor 5): 5 x 8.4/2 = f/21. Met het maximum van de tweede vuistregel (“5 x |px|”) wordt dit: 5 x 3.8 = f/19, inderdaad overeenkomstig (dit zou betekenen dat we een 3 x Barlow zouden kunnen gebruiken). Uitgaande van de meer correcte formule [8.5] (f# > 3 x |px| x (i)) wordt dit 3 x 3.8 x 1 = f/11 als ondergrens, we zouden dus een 2 x Barlow mogen gebruiken (met de laagste waarde van de tweede vuistregel krijgen we f/13). Gaan we echter uit van de hoogste waarde van FWHM uit APP, dan zouden we op een minder realistische waarde van f/44 uitkomen (6 x Barlow). Naar mijn mening is de gemeten FWHM daarom ook meer een goede indicatie voor het al dan niet toepassen van binning. Als de OTA/camera-combinatie inderdaad een f# oplevert dat twee keer zo groot is dan uit berekening met diameter en brandpuntsafstand, dan kan met 2 x binning tijdwinst gemaakt worden zonder dat dit ten koste van de kwaliteit gaat.

Conclusie
Hoewel FWHM Theoretisch ongeveer gelijkwaardig is aan r Airy en de beste gemeten FWHM ook daadwerkelijk leidt tot resultaten die in de buurt komen van de tweede vuistregel (3-5 x |px|), is de methode beter geschikt voor het bepalen van de binning-factor dan voor het bepalen van het f#, vooral omdat de daarvoor te meten FWHM van het f# afhankelijk is.

 

4) DJupiter in px = DOTA in mm [V1] (op herhaling)
In het eerste voorbeeld met deze formule vonden we een f# van 30. Met de tweede vuistregel (3-5 x |px|) zou dit voor de gebruikte camera met een |px| = 5.86µm ook maximaal f/30 mogen zijn, dus tot zover kloppen de vuistregels met elkaar.

Dan nu een tweede voorbeeld:

OTA : 6” Bresser Messier (D = 130mm, f = 650mm: f/5)
Camera : ZWO ASI290MC (|px| = 2.9µm, kleurencamera)
DJupiter (augustus 2019) : 41”

Volgens de formule DJupiter in px = DOTA in mm zou DJupiter maximaal 130 pixels mogen worden. Omdat we een kleurencamera gebruiken zal de sampling interval (i) twee keer |px| zijn, dus 5.8µm. Gebruik makend van [4] komen we op een camera-resolutie voor dit systeem van:

Resolutie Camera = 5.8 x 650-1 x . kjkjkjkj 206.3 = 1.84″/px [9]

Zoals eerder bepaald geldt DJupiter = 41″. Met de zojuist berekende resolutie van 1.84″/px zal Jupiter 41/1.84 = 22 pixels groot worden. De camera zal weliswaar een frame produceren waarop Jupiter 44 pixels in diameter is, maar de helft daarvan is werkelijke data, de rest geïnterpoleerd. Aangezien Jupiter volgens de vuistregel 130 pixels zou mogen zijn, zouden we een 6 x Barlow mogen toepassen om deze diameter te realiseren. Jupiter wordt dan 22 x 6 = 132px (slechts 1.5% te groot), de OTA wordt dan f/42. Het frame dat de camera produceert zal dan een Jupiter tonen van 264 pixels diameter, maar slechts de helft daarvan is echte data. Zouden we de geïnterpoleerde pixels toch in de berekeningen meenemen, dan komen we op f/21 (maar dat is dus niet correct).

Volgens de formule [8.5] (f# > 3 x |px| x (i)) en uitgaande van de werkelijke sampling-interval van 2 x 2.9µm ((i) = 2), zou de OTA maximaal f/17 mogen zijn. Zouden we toch uitgaan van de werkelijke |px| van 2.9, dan zou f/9 het maximum zijn. In beide gevallen zit de formule DJupiter in px = DOTA in mm er flink naast, ongeacht of we de geïnterpoleerde data al dan niet meenemen in beide berekeningen. De reden hiervoor is voornamelijk dat |px| en f# geen onderdeel van de formule vormen en daarmee is deze niet algemeen inzetbaar. Kennelijk is deze ooit voor een bepaalde OTA/camera-combinatie gemaakt en vervolgens gegeneraliseerd.

Keren we terug naar het eerste voorbeeld van de Jupiter-vuistregel, waar we een f/30 kijker mochten gebruiken voor een monochroomcamera met |px| = 5.86µm, dan vinden we met formule [8.5] 3 x 5.86 x 1 = f/18 (afgerond naar boven), een aanzienlijk verschil. Uiteraard moeten we voor een iets groter f# kiezen om niet op de rand van het Nyquist-criterium te zitten. Een f/20 zou dus prima zijn, daarboven gaan we oversamplen.

Conclusie
Waar het eerste voorbeeld nog heel redelijk leek, blijkt uit dit tweede voorbeeld van de Jupiter-vuistregel dat formule [V1] niet algemeen toepasbaar is maar voor een bepaalde OTA/camera-combinatie is opgesteld. Met formule [8.5] blijkt ook het eerste voorbeeld van vuistregel [V1] niet te voldoen.

 

Over over- en undersampling

Afbeelding 16): Het effect van re-sampling op over- en undersampling.

Hierboven hebben we geleerd hoe we de optiek aan de camera (of vice versa) kunnen aanpassen. Dit zal niet altijd even goed lukken en de laatste vraag die we dan ook moeten zien te beantwoorden, is hoe we met over- en undersampling moeten omgaan. Wat zijn de voor- en nadelen van beiden en zijn ze echt zo kwalijk als dat soms beweerd wordt?

Afbeelding 16 laat zien wat er gebeurt bij over- en undersampling. Helemaal bovenin is het originele object te zien, met direct daaronder het object zoals het ten gevolge van de Airy-disc op onze beeldsensor valt. Vervolgens treden er twee situaties op: links is er 30% overgesampled, rechts 30% undersampled. Vervolgens zijn de beelden teruggeschaald naar het exemplaar dat uit Airy-discs is opgebouwd en tot slot zijn deze teruggeschaalde afbeeldingen van de originele Airy-disc-versie afgetrokken en iets helderder gemaakt om de verschillen te tonen (afhankelijk van het beeldscherm is dit laatste waarschijnlijk alleen zichtbaar als de afbeelding vergroot wordt).

Uit de verschilbeelden is het verschil tussen over- en undersampling duidelijk zichtbaar. Geen van beiden geven ze (uiteraard) het originele beeld weer, maar de verschillen zijn een stuk kleiner bij oversampling dan bij undersampling. Willen we dus niet te veel details kwijtraken, dan is oversampling verstandiger dan undersampling. Vooral bij planetaire opnames is dit van essentieel belang. Als het niet te veel ten koste van de sluitertijd gaat, dan is het voordeel van oversampling dat de planeet groter op het beeldscherm gezet kan worden.

Er zitten echter ook voordelen aan undersampling, met name bij deep-sky fotografie. Zoals we boven gezien hebben, levert undersampling meer licht op, terwijl het niet noodzakelijkerwijs ten koste gaat van de kwaliteit van de opnames. Bovendien moeten we ons altijd afvragen waar we de opnames voor gaan gebruiken. Onlangs maakte astrofotograaf Bart Delsaert met een 16″ f/3.75 kijker in 25 uur een bijzonder fraaie en zeer goed geslaagde foto van M31 in een resolutie van 9300 x 6200 pixels. Op de foto is niets aan te merken, maar we mogen ons afvragen waar die resolutie voor nodig is. Zelfs een 4K Ultra HD beeldscherm (resolutie 3840 x 2160) heeft niet genoeg pixels om de foto in volle resolutie te tonen zonder in te zoomen. Is de foto bedoeld voor hoge-resolutie drukwerk (300dpi, maar 72dpi volstaat voor een poster), dan wordt het een afbeelding van 79 x 53 centimeter (of 2.4 x 2 meter bij 72dpi). Uiteraard is het prachtig dat we op ons scherm kunnen inzoomen om meer details te zien, maar door te binnen (= meer lichtopbrengst, dus kortere belichtingstijd) had de opname wellicht in een kwart (6 uur) of een zestiende (anderhalf uur) van de tijd geschoten kunnen worden.

Afbeelding 17): De voor- en nadelen van oversampling.

Afbeelding 17 laat de voor- en nadelen van oversampling zien. Stel dat we van een object 320000 es-1 ontvangen en we samplen die met een array van 16 pixels, dan levert dat 20000es-1px-1 op. Bij 2 x oversampling zakt dit naar 5000es-1px-1, maar krijgen we een 2 x grotere afbeelding. Het is dus volledig afhankelijk van wat we willen bereiken met de afbeelding of over- of undersampling voordelen heeft.

 

 

Conclusie
In dit artikel zijn we begonnen met een paar begrippen en formules te bespreken die nodig zijn om een goed beeld te krijgen van de vergroting die een bepaalde OTA/Camera-combinatie oplevert en of deze al dan niet tot oversampling leidt.

Vervolgens hebben we gekeken naar de rol van de camera, waarbij de verschillen tussen een kleuren- en monochroomcamera zijn toegelicht. Hieruit bleek dat de kleurencamera een lagere effectieve resolutie heeft dan op het eerste gezicht uit de pixelgrootte is af te leiden. Welbeschouwd zouden opnames met een kleurencamera eerst met een factor 2 gereduceerd moeten worden alvorens de afbeeldingsresolutie in overeenstemming is met de sampling-resolutie.

Een drietal populaire vuistregels zijn vervolgens bekeken en geanalyseerd, waaruit bleek dat de eerste formule, waarbij de diameter van Jupiter in pixels de diameter van de OTA in millimeter niet mocht overschrijden, niet algemeen toepasbaar was. De tweede formule, die stelt dat het f-getal van de OTA in relatie staat tot de pixelgrootte van de camera, was weliswaar ten dele correct, maar van de daarbij gebruikte factoren van 3 en 5 keer de pixelgrootte was alleen de factor 3 als ondergrens op de natuurkunde terug te voeren. Daarnaast houdt de formule geen rekening met het type camera (kleur of monochroom), waarvoor in de berekeningen een correctie-factor nodig is (1 voor monochroom, 2 voor kleur). De laatste vuistregel, die stelt dat het f-getal in relatie staat tot de gemeten Full Width Half Maximum (FWHM), is wellicht beter voor het bepalen van de binning-factor, dan voor het bepalen van het f-getal, omdat de voor de formule noodzakelijke meting van het f-getal afhankelijk is.

Tot slot is gekeken naar de effecten van over- en undersampling, waaruit is gebleken dat beiden niet perse fout zijn en zelfs hun voordelen hebben. Oversampling heeft voordelen bij planeetfotografie (waar undersampling voorkomen moet worden), terwijl undersampling tijdwinst kan opleveren bij deep-sky opnames.

Uit dit artikel is gebleken dat het f-getal minimaal 3 keer de pixelgrootte moet zijn, en dat die factor vermenigvuldigd moet worden met 1 voor een monochroomcamera en met 2 voor een Bayer-patroon-beeldchip ter compensatie van het sampling-interval (i). In formulevorm:

f# > 3 x |px| x (i)

 

copyright © 19 september 2019, Nicolàs de Hilster & starry-night.nl

Voetnoten

[1]: Suiter, pp.12-13.

[2]: Dawes, pp.158-159.

[3]: Sparrow.

[4]: Tsang e.a.

[5]: Woodhouse, p.35. Crossley, M., “CCD arc-sec/pixel & Focal Ratio:”, http://www.wilmslowastro.com/software/formulae.htm#ARCSEC_PIXEL. Dit is overeenkomstig met hetgeen in Stellarium 0.18.2 gebruikt wordt. De term 206.3 komt hierbij voort uit het aantal boogseconden per radiaal: 180/π x 60 x 60 = 206265. Doordat |px| in µm gegeven is en f in mm, moet dit getal door 1000 gedeeld worden. De uitkomst van de formule is in boogseconden per pixel.

[6]: Moore, S., “What is the best pixel size?”, http://www.stanmooreastro.com/pixel_size.htm. Voor de theoretische waarde, zie https://www.telescope-optics.net/diffraction_image.htm.

[7]: Carsten, “Night sky image processing – Part 5: Measuring FWHM of a star using curve fitting – A Simple C++ implementation”, Lost infinity
Reaching for the stars, https://www.lost-infinity.com/night-sky-image-processing-part-5-measuring-fwhm-of-a-star-using-curve-fitting-a-simple-c-implementation/

[8]: Carsten, “Night sky image processing – Part 6: Measuring the Half Flux Diameter (HFD) of a star – A Simple C++ implementation”, Lost infinity
Reaching for the stars, https://www.lost-infinity.com/night-sky-image-processing-part-6-measuring-the-half-flux-diameter-hfd-of-a-star-a-simple-c-implementation/.
Miyashita, K., “Half Flux Diameter: -Applicate to determination for faint star event-”, http://www005.upp.so-net.ne.jp/k_miyash/occ02/halffluxdiameter/halffluxdiameter_en.html
Diffraction Limited, “Half-Flux Diameter (HFD)”, http://www.diffractionlimited.com/help/maximdl/Half-Flux.htm

[9]: ADU = Analog to Digital Unit, ook wel bekend als DN: Digital Number. Deze twee waarden zijn echter niet noodzakelijkerwijs hetzelfde. De ADU is afhankelijk van de ADC (Analog to Digital Converter) in de camera. Een ZWOASI1600MM Cool heeft een 12bits ADC, terwijl SGP de data als 16bit opslaat, waarbij er dus een omrekening plaatsvindt. Verwerk je data met PixInsight, dan is worden pixelwaardes in 16bits DN getoond. Maak je met deze camera masters in APP, dan kan je ervoor kiezen dat ze als 32bits masters worden opgeslagen en is wederom een omrekening nodig.

[10]: Sterrenkijken in de Stad (Rhea), “Jupiter (met animatie) en Saturnus 29/30 Juni 2019”, www.Astroforum.nl, 03-07-19, 13:08

[11]: Moore, S., “What is the best pixel size?”, http://www.stanmooreastro.com/pixel_size.htm

[12]: Uiteraard kunnen we dit ook voor alle f# berekenen. Volgens [2.3] is rAiry = 0.66 x f#. Volgens het Nyquist-criterium moeten we rAiry door tweeën delen om |px| te krijgen, dus |px| = rAiry / 2 = (0.66 x f#) / 2 = 0.33 x f#. Omgekeerd geldt dan f# = 1 / 0.33 x |px| = 3 x |px|.

[13]: Crossley, M., “CCD Planetary Critical Sampling”, http://www.wilmslowastro.com/software/formulae.htm#CCD_Sampling

[14]: Er is wel voorgesteld dat in een 2D array de sampling-frequentie met √2 moet worden vermenigvuldigd, zie bijvoorbeeld Woodhouse, p.35, maar met zijn opmerking “Classical (Nyquist) sampling theorems might suggest two pixels are required to resolve a pair of stars but experts settle on a number closer to 3.3 adjacent pixels to guarantee the resolution of two points. (Stars do not always align themselves conveniently with the sensor grid…” (mijn nadruk) lijkt hij niet overtuigd, vooral omdat er geen referentie hiervoor gegeven wordt. In kritische applicaties (zowel contractueel als financieel) als LIDAR Topographic Surveying wordt echter de factor 2 in de basis aangehouden en hooguit verhoogt om gedeeltelijk onder vegetatie verborgen objecten toch te kunnen vastleggen (Triglav Cekada e.a.: 406-411). Ook de hierboven getoonde simulatie is een sterke indicatie dat de correctie niet nodig is.

[15]: Woodhouse, p.33.

 

Bibliografie

Dawes, R.W., “Catalogue of Micrometrical Measurements of Double Stars”, in Memoirs of the Royal Astronomical Society, Vol. 35, pp.137-502. Bibcode: 1867MmRAS..35..137D.

Lord Rayleigh, F.R.S., “Investigations in optics, with special reference to the spectroscope”, in: Philosophical Magazine. 5. 8 (49), pp.261-274. doi:10.1080/14786447908639684.

Smith, G.H., Ceragioli, R., Berry, R., Telescopes, Eyepieces, Astrographs: Design, Analysis and Performance of Modern Astronomical Optics, (Richmond (VA), 2012).

Sparrow, C. M. (1916). “On Spectroscopic Resolving Power”, in: The Astrophysical Journal. 44: 76, pp.76-86, doi:10.1086/142271.

Suiter, H.R., Star Testing Astronomical Telescopes: A manual for optical evaluation and adjustment, (Richmond (VA), 2013).

Triglav Cekada, M., Crosilla, F., Fras, M., (2010). “Theoretical LiDAR point density for topographic mapping in the largest scales.”, in: Geodetski Vestnik. 54, pp.403-416. (10.15292/geodetski-vestnik.2010.03.389-402), http://www.geodetski-vestnik.com/54/3/gv54-3_403-416.pdf.

Tsang, M., Nair, R., Lu, X.M., “Quantum Theory of Superresolution for Two Incoherent Optical Point Sources”, in: Physical Review X 6, 2016, https://journals.aps.org/prx/pdf/10.1103/PhysRevX.6.031033

Woodhouse, C., The Astrophotography Manual: A practical and Scientific Approach to Deep Sky Imaging, (New York, Oxon, 2017).

5 comments on “Vergroting onder de loep: hoe bepalen we het optimale f-getal?

  1. Bakx

    Wow! Een nieuw standaard werk?

    Ik was ook al aan Suiter begonnen, om mijn Newton te startesten en collimatie te controlleren. Maar ik kom er niet doorheen. 🙂

  2. Groenewold

    Je conclusie, klopt dat wel overigens? Minimaal 3 x |px| x i. Dat zou betekenen dat ik met mijn Canon 6D, minimaal op F39 uitkom. Maar ik neem op op F4… 🙂

Leave a Reply