Campionamento e focale equivalente nella fotografia astronomica

Nelle osservazioni visuali le immagini vengono ingrandite attraverso gli oculari. Nella fotografia astronomica non ha più senso parlare di ingrandimento, perché al posto dell’occhio si inserisce un sensore digitale senza obiettivo e l’immagine, a rigor di logica, non viene ingrandita. In questi casi si parla di scala dell’immagine o campionamento, le grandezze che determinano “l’ingrandimento” delle immagini digitali.

Il campionamento, o scala dell’immagine, rappresenta la dimensione angolare di cielo che riesce a riprendere un singolo pixel del sensore. Quindi, questo determina anche il più piccolo dettaglio che è possibile, in teoria, risolvere. Una scala dell’immagine di 2”/pix (secondi d’arco su pixel) indica che ogni pixel inquadra una porzione di cielo con lato di 2”. Poiché i pixel sono i punti che formeranno l’immagine digitale, tutto quello che ha dimensioni inferiori a 2” non sarà mai risolto dal sensore. Questo prescinde dalla turbolenza atmosferica e da diametro dello strumento e rappresenta una specie di potenziale. È infatti certo che un’ipotetica scala dell’immagine di 40”/pixel non risolverà mai delle strutture di galassie o nebulose inferiori a questo valore. D’altra parte non è detto, anzi, non è proprio possibile dai nostri cieli, che un campionamento di 0,5”/pixel riesca a mostrarci dettagli di questa dimensione angolare perché saranno rovinati dalla turbolenza atmosferica, anche se usassimo un telescopio in grado di mostrarceli. Il campionamento, quindi, non determina direttamente la risoluzione dell’immagine ma ci permette di capire parametri fondamentali come il campo di ripresa che si ha con una certa accoppiata telescopio – sensore, quindi dà indicazioni su quali soggetti possiamo riprendere al meglio e se saremo limitati o meno dalla turbolenza atmosferica.

Calcolare il campionamento di un’immagine è facile utilizzando la seguente formula:

C = (Dp /F) x 206265,

dove C = campionamento (in secondi d’arco su pixel) , Dp = dimensioni dei pixel del sensore utilizzato e F = focale del telescopio. Dp e F devono avere le stesse unità di misura; 206265 è il fattore di conversione tra radianti e secondi d’arco. Di solito le dimensioni dei pixel sono espresse in micron, mentre quelle della focale in millimetri. Niente paura: un micron corrisponde a 0,001 millimetri.

 

Campionamento ideale nelle fotografie a lunga esposizione

Un principio, detto criterio di Nyquist, applicato al campo ottico afferma che per sfruttare una determinata risoluzione occorre che il più piccolo dettaglio visibile cada almeno su due pixel adiacenti. Se consideriamo che nel mondo reale è meglio se il più piccolo dettaglio risolvibile cada su almeno 3 pixel, possiamo giungere a importanti conclusioni su quale possa essere il massimo campionamento efficace nella fotografia a lunga esposizione. Se la risoluzione massima a cui possiamo ambire è determinata dalla turbolenza media ed è intorno ai 2,5-3”, a prescindere dal diametro del telescopio, significa che le scale dell’immagine più basse che possiamo usare prima di avere l’effetto delle stelle a pallone e dettagli sempre sfocati sono dell’ordine di 0,8”-1”/pixel. Nelle condizioni medie, di fatto non conviene quasi mai lavorare con scale più piccole di 1”-1,5”/pixel.

L’effetto più grave di quello che si chiama sottocampionamento, cioè lavorare con scale più grandi, è mostrare stelle così piccole che potrebbero diventare quadrate, perché questa è la forma dei pixel, ma d’altra parte avremo sempre dettagli degli oggetti estesi ben definiti e contrastati, con una profondità in termini di magnitudine ancora ottima. L’effetto di un sovracampionamento, cioè di una scala dell’immagine più bassa di quella limite, è quello di restituire stelle sempre molto grandi e dettagli degli oggetti estesi sfocati e indistinti. Come se non bastasse, un sovracampionamento produce anche una perdita, a volte notevole, di profondità perché la luce si espande su più pixel invece di venir concentrata in una piccola area. Il mio consiglio, quindi, è di non esagerare con la scala dell’immagine e di preferire immagini “meno ingrandite” ma più definite a improbabili zoom che mostrerebbero nient’altro che un campo confuso e molto rumoroso. Questo ragionamento vale sia per le riprese telescopiche, in cui si dà per scontato che il seeing sia il limite alla risoluzione rispetto al diametro dello strumento, che per le fotografie attraverso obiettivi e teleobiettivi, in cui il limite deriva dal potere risolutivo dell’ottica.

Conoscendo il campionamento e il numero di pixel dei lati del sensore, possiamo subito comprendere quanto sarà grande il nostro campo di ripresa e capiremo se sarà possibile riprendere al meglio un’estesa nebulosa o una debole galassia.

Districandosi in questa specie di giungla, potremo costruire un setup più specifico per la tipologia di oggetti che più ci piace. A livello generale e personale, finché useremo delle semplici reflex digitali non vale la pena farsi troppi conti perché tanto per queste non c’è molta scelta a livello di dimensioni dei pixel e del formato del sensore. Quando invece parliamo di CCD (o CMOS) astronomici, che dobbiamo scegliere con molta attenzione, il campionamento che otterremo con il nostro setup rappresenta il punto più importante per la scelta. Sarà infatti inutile, e frustrante, usare un sensore con pixel di 5 micron su un telescopio Schmidt-Cassegrain da 1,5-2 metri di focale, che ci darà un campionamento di 0,70-0,50”/pix e potrebbe venir sfruttato in pieno solo dal deserto di Atacama. Nelle nostre località otterremo sempre stelle a “pallone” e oggetti diffusi molto deboli e rumorosi, tanto da richiedere ore e ore di integrazione per mostrare dettagli interessanti. Un risultato simile si sarebbe ottenuto con una scala dell’immagine anche tre volte superiore e un tempo di integrazione totale dalle 4 alle 9 volte inferiore.

Avere pixel molto piccoli comporta anche una perdita di sensibilità e dinamica, perché un pixel più piccolo raccoglie meno luce e può contenere molti meno elettroni di uno più grande, con la conseguenza che il range dinamico del sensore si può ridurre anche di 5 volte tra pixel da 5,6 micron e da 9 micron. Poiché un sensore astronomico è qualcosa che dovrebbe durare per molti anni e le serate buone si possono contare in un anno sulle dita di due mani, è meglio sceglierne uno che si accoppi in modo perfetto al nostro telescopio. Se ci piacciono primi piani di galassie è meglio ingrandire le immagini in elaborazione che lavorare a una scala piccolissima.

 

Campionamento ideale nell’imaging in alta risoluzione

Quando parliamo di fotografia in alta risoluzione le cose cambiano drasticamente perché, grazie a pose molto brevi e un enorme numero di frame catturati, possiamo sperare di abbattere il muro eretto dalla turbolenza atmosferica media e spingerci verso la risoluzione teorica dello strumento, fino a un limite di circa 0,3” nelle zone più favorevoli e nelle migliori serate. Quando il seeing collabora, quindi, possiamo impostare la scala dell’immagine sui limiti di risoluzione teorica dello strumento che stiamo utilizzando. Una buona relazione per determinare la risoluzione alle lunghezze d’onda visibili è quella di Dawes:

PR = 120/D

Dove PR = potere risolutivo, in secondi d’arco, e D = diametro del telescopio espresso in millimetri.

Come già detto, affinché il sensore sia in grado di vedere questa risoluzione occorre che questa cada su 3-4 pixel: né molto più, né molto meno. In queste circostanze, allora, il nostro obiettivo sarà quello di lavorare a cavallo del campionamento ottimale, che può essere espresso dalla semplice formula:

Cott= 37/D

Dove D = diametro del telescopio espresso in millimetri e Cott = campionamento ottimale, espresso in secondi d’arco su pixel. Come possiamo vedere dal confronto con la formula di Dawes, cambia di fatto solo il coefficiente numerico, che è inferiore di poco più di tre volte, proprio come abbiamo detto con le parole. Il valore ottenuto, come quello della formula di Dawes, rappresenta un punto di riferimento alle lunghezze d’onda visibili e non un numero da rispettare in modo rigoroso. Scostamenti del 10-20% sono ancora accettabili e, anzi, incoraggiati, poiché ogni sensore, telescopio e soggetto possono preferire valori leggermente diversi dalla semplice teoria con cui abbiamo ottenuto questi.

I valori che raggiungiamo sono tutti piuttosto piccoli ed ecco spiegato il motivo per cui nell’imaging planetario è preferibile usare sensori con pixel di dimensioni ridotte, tra i 3 e i 7 micron al massimo: l’opposto di quanto si preferisce fare nella fotografia a lunga esposizione.

Nonostante questo, i rapporti focale tipici si aggirano tra f20-22 (per pixel da 3,7 micron) e f 30-35 (per pixel da 5,6 micron) e si rende necessario inserire oculari o lenti di Barlow per aumentare la focale nativa del telescopio. Invece di fare complicati calcoli sul rapporto focale raggiunto con un certo oculare o Barlow, per capire a quale campionamento reale si sta operando il modo migliore è fare dei test riprendendo un pianeta, ad esempio Giove. Misurando l’estensione in pixel e confrontandola con il diametro apparente che si può leggere da ogni software di simulazione del cielo, possiamo trovare il campionamento reale della ripresa applicando questa formula:

Ccalc = dang/dlin

Dove dang  sono le dimensioni angolari (in secondi d’arco) e dlin  il diametro misurato dell’immagine, espresso in pixel. Il campionamento restituito sarà in secondi d’arco su pixel. A questo punto la focale con cui è stata fatta la ripresa sarà:

Feq = (Dp/ C) x 206265

Dove Dp  sono le dimensioni dei pixel del sensore, espresse in millimetri e C il campionamento (calcolato sull’immagine o stimato, non cambia). La focale restituita sarà in millimetri. Il rapporto focale sarà dato dalla semplice relazione Feq / D, con D = diametro del telescopio, in millimetri. Queste formule sono valide in generale, quindi anche per le riprese del profondo cielo.

Anche in questa circostanza, avere a disposizione miliardi di pixel è dannoso, e molto più rispetto alla fotografia del profondo cielo (in cui il danno principale è l’esigenza di avere telescopi dall’enorme capo corretto, quindi molto costosi). Poiché il campionamento ideale è fissato e i pianeti hanno dimensioni angolari ridotte, per ottenere ottime immagini non potremo avere, ad esempio, Giove esteso per 4 milioni di pixel. Il sovracampionamento nell’imaging in alta risoluzione è distruttivo e sarebbe sempre da evitare, molto più che nella fotografia a lunga esposizione nella quale, almeno, possiamo sperare di allungare il tempo di integrazione per sopperire in parte al danno che abbiamo fatto.

Nella fotografia in alta risoluzione “ingrandire” troppo l’immagine ci allontanerà sempre da un risultato ottimo. Anche se all’inizio potrebbe sembrare che ottenere delle “pizze” ingrandite a dismisura possa essere entusiasmante, in barba ai teorici del campionamento ideale, stiamo osservando un risultato che è sempre peggiore rispetto a quanto avremmo ottenuto con “l’ingrandimento” giusto. Non è un’opinione, è un fatto e anche se non piace non si può cambiare.

Se i pianeti saranno estesi al massimo qualche centinaio di pixel (se abbiamo strumenti oltre i 20 cm), che ce ne facciamo di un sensore che ne possiede diversi milioni? Niente, a meno che non ci vogliamo dedicare espressamente a panorami lunari, ma anche in queste circostanze ci sono comunque dei limiti. Usare sensori con più di 2-3 milioni di pixel per fare imaging in alta risoluzione non è una buona soluzione perché si riduce di molto il framerate, cioè la frequenza con cui si acquisiscono le immagini, che in alta risoluzione è fondamentale avere almeno a 15-20 frame al secondo (fps).

Una libreria di miei fit grezzi per fare pratica

L’astronomia è condivisione, sia se la facciamo per hobby che per professione. La condivisione diventa necessaria quando parliamo di dati, di fotografie e di tutto ciò che può essere utile alla scienza o nell’apprendere nozioni in un campo nuovo. Se nessuno condividesse le proprie esperienze sarebbero molto pochi gli appassionati del cielo e ancora meno i progressi fatti dalla scienza negli ultimi secoli.

Spesso mi hanno chiesto quale fosse il segreto delle mie immagini, quale magica pozione utilizzassi per elaborarle. Molti sono infatti convinti che la magia di una foto la si crei nella fase di elaborazione, dove con qualche software potente come Photoshop potremo estrarre dettagli sorprendenti di una nebulosa, magari partendo da una sfocata fotografia a un segnale stradale. Certo, tutto è possibile, anche questo, ma credo che sarebbe bello partire da un’immagine reale e fare tutte quelle operazioni che non alterano il segnale catturato. L’obiettivo di un’elaborazione, sia pur estetica, di una fotografia astronomia dovrebbe essere quello di mostrare al meglio tutto il segnale catturato, senza cambiarlo, senza interpretare la realtà che resta quella che il nostro sensore digitale ha catturato. La tentazione di passare dalla fase di elaborazione a quella di fotoritocco può essere grande, soprattutto quando la nostra voglia di ottenere buoni risultati si trasforma in frustrazione vedendo in giro capolavori in apparenza irraggiungibili.

La fase fondamentale della realizzazione di un’ottima immagine astronomica si affronta sempre durante lo scatto, sul campo, spesso al freddo e all’umido. E’ una fase che spesso inizia prima dello scendere del buio, quando dobbiamo trovare il luogo adatto, privo di luci e di umidità, allineare il cercatore, collimare lo strumento (se serve), stazionare in modo perfetto la montatura verso il polo, scegliere il soggetto migliore per la serata e la strumentazione, che deve avere certe caratteristiche, impostare la guida, curare l’inquadratura, la messa a fuoco e poi sperare che per almeno 3-4 ore vada tutto bene, perché quando tutto funziona ed è stato ottimizzato l’unico segreto è questo: esporre, esporre ed esporre per 3-4-5 e più ore. Solo in rarissimi casi si possono ottenere splendide fotografie con un tempo di integrazione totale inferiore a un’ora e sempre la potenziale bellezza di uno scatto aumenta all’incrementare del tempo che gli dedichiamo, non di fronte al computer a elaborarlo ma sotto il cielo, a raccogliere fotoni che hanno viaggiato per migliaia o milioni di anni luce.

Proprio per dare un punto di riferimento a chi cerca di addentrarsi nel mondo della fotografia a lunga esposizione del profondo cielo o per tutti coloro che vogliono capire come migliorare i propri risultati, ho messo a disposizione una serie di fit scattati al cielo coon differenti strumenti e sensori. Per questioni di spazio non ho potuto mettere a disposizione i file singoli con i frame di calibrazione ma solo i file grezzi calibrati e sommati. Potete utilizzarli per fare pratica, divertirvi con gli amici, provare a scovare (e ce ne sono molti) i difetti. Potete pubblicarli per uso non commerciale citando sempre l’autore. Non dovete mai, in nessun caso, eliminare i riferimenti per l’autore o, peggio, spacciarli per vostri perché se vi becco sono cavoli amari 🙂 .

Alcune immagini non le ho elaborate neanche io ancora, per mancanza di tempo, quindi non ho la minima idea di come potranno venire. Molte altre, invece, le trovate elaborate nella mia gallaery su astrobin: http://www.astrobin.com/users/Daniele.Gasparri/collections/253/

Ecco l’elenco completo da cui poter scaricare le immagini. I file sono compressi in formato zip. All’interno troverete il file fit. Ho scelto questo formato, che Photoshop non legge a meno di scaricare il programma gratuito Fits Liberator, perché è lo standard internazionale per tutti i dati astronomici. Tutti i software appositi lo leggono, compreso Deep Sky Stacker, Nebulosity, Iris, Registax, MaxIm DL, PixInsight, AstroArt…

Mettete questo post tra i preferiti perché con il tempo verrà aggiornato con nuovi scatti, compresi quelli in alta risoluzione:

Come fotografare in modo spettacolare i colori delle stelle

Fare foto al telescopio, inseguendo nebulose, galassie e ammassi stellari è il sogno proibito di molti appassionati di astronomia, che spesso si infrange di fronte alle difficoltà tecniche, strumentali ed economiche richieste. Non si deve avere fretta, è un percorso che va fatto con pazienza e determinazione: questo è quanto viene detto sempre. Sì, d’accordo, ma da qualche parte dovremo pur cominciare, no? Magari abbiamo a disposizione una reflex digitale e un piccolo telescopio e ci piacerebbe iniziare a fare qualche semplice scatto, giusto per provare.

Di solito si comincia a fare foto alla Luna, poi a qualche pianeta brillante. Per andare oltre e fare le lunghe esposizioni richieste per immortalare gli oggetti del cielo profondo serve un salto di qualità non indifferente: una montatura equatoriale molto robusta, uno strumento buono dal punto di vista ottico e meccanico, un sistema di controllo dell’inseguimento, detto autoguida. Il fiume da guadare è piuttosto largo e profondo, soprattutto se non disponiamo di una montatura equatoriale all’altezza.

Prima di decidere se accontentarsi di quello che si ha, o svuotare il portafogli e ipotecare il futuro con il proprio partner, che potrebbe non apprezzare la vostra decisione, possiamo dedicarci a un tipo di fotografia astronomica attraverso il telescopio che non richiede costosi strumenti, né complesse montature. Anzi, a dire la verità non richiede neanche di inseguire le stelle!

La tecnica che sto per descrivere è stata portata alla ribalta negli anni ’80 e ’90 da un astronomo dell’Anglo Australian Observatory, che i più esperti forse già avranno sentito nominare: David Malin. Munito di una semplice attrezzatura e un po’ di inventiva si era chiesto, grazie al suo background scientifico: è possibile riprendere il colore delle stelle in modo più efficace rispetto a quanto accade in una normale fotografia? Non è infatti difficile notare come molte delle foto del profondo cielo mostrino stelle tendenzialmente bianche. Solo con una grossa dose di manipolazione software i più bravi astrofotografi riescono a tirare fuori qualche tonalità, ma non è una strada molto agevole, né spettacolare.

Partiamo allora dal principio alla base di questa nostra nuova esperienza di fotografia astronomica: le stelle si mostrano di diversi colori. A parte gli astri di classe A, come Vega, che appaiono completamente bianchi, tutti gli altri puntini sono colorati, anche se i nostri occhi faticano a notare la tonalità a causa della scarsa saturazione e della minore efficienza del nostro sistema visivo in condizioni di bassa illuminazione. Le fotocamere, però, non hanno questi problemi e per di più potremo aumentare la saturazione quanto vogliamo in fase di elaborazione per esasperare le differenze di colore delle stelle. Non si tratta di un mero esercizio di astrofotografia e di elaborazione: i colori delle stelle, reali, dipendono dalla loro temperatura superficiale. Possiamo quindi fare anche della scienza dall’esperienza che stiamo per fare, cosa che non guasta mai.

Quando fotografiamo una stella ben messa a fuoco dal telescopio la sua luce si concentra in pochissimi pixel che spesso diventano rapidamente saturi, se non in fase di acquisizione quando andiamo a regolare curve e livelli con qualche software. Da questa considerazione è nata l’idea geniale di Malin: per mostrare il colore delle stelle dobbiamo far espandere la loro luce su un’area maggiore, in modo che non si rischi di saturare i pixel. Il metodo migliore per fare questo prevede di sfocare leggermente l’immagine: semplice quanto efficace. Per dare un tocco estetico alla nostra futura foto, la tecnica di Malin considera un dettaglio geniale: la sfocatura progressiva, senza il moto di inseguimento delle stelle.

Ecco quindi quello che dobbiamo fare:

  • Colleghiamo la nostra reflex al telescopio. Se non sappiamo come fare, siamo nel posto migliore: contattate i tecnici di Teleskop Service Italia che vi consiglieranno gli accessori necessari (sono tutti economici). Il telescopio più adatto, al contrario di quelli usati per fare ottime foto al cielo, è un rifrattore, anche di piccolo diametro e non necessariamente apocromatico. In linea di principio, comunque, tutti gli strumenti vanno bene, compresi obiettivi e teleobiettivi fotografici;
  • Scegliamo un campo ricco di stelle brillanti. In queste serate autunnali le Pleiadi o il doppio ammasso del Perseo sono perfetti, se lavoriamo almeno a 400 mm di focale. Se abbiamo un campo molto largo perché usiamo un teleobiettivo, meglio andare verso la cintura di Orione;
  • Mettiamo a fuoco come se dovessimo scattare una perfetta foto astronomica, aiutandoci con la modalità live view;
  • Impostiamo sensibilità almeno a 400 ISO, modalità di scatto in formato RAW e posa Bulb. Meglio avere un telecomando per controllare l’esposizione della reflex senza doverla toccare. In mancanza di telecomando ci dobbiamo accontentare della posa massima consentita: 30 secondi, e dell’autoscatto;
  • Appena iniziamo lo scatto disattiviamo il moto di inseguimento siderale. Possiamo in ogni caso selezionare la modalità autoscatto, anche con il telecomando della reflex, e avere qualche secondo di tempo per disattivare il moto orario prima che inizi lo scatto. Si può anche provare a fare una variante interessante: 10 secondi di foto con messa a fuoco perfetta e moto orario acceso e poi il resto (sempre in uno scatto singolo) senza inseguimento e con la sfocatura progressiva che stiamo per vedere;
  • Toccando molto leggermente il focheggiatore, mentre la posa va avanti e le stelle si sposteranno, variamo in modo continuo e molto delicato la messa a fuoco, fino al termine dello scatto, compreso tra i 60 e i 120 secondi. Il fuoco non dovrebbe variare moltissimo, ma di quanto ruotare la manopola del focheggiatore lo capiremo dopo il primo tentativo. Ora osserviamo il risultato ed emozioniamoci, perché abbiamo fatto una foto sia artistica che scientifica, molto più didattica di tanti scatti fatti da astrofotografi esperti e purtroppo così pieni di elaborazione da aver perso quasi del tutto il contatto con la realtà.
Gli spettacolari colori delle Pleiadi, catturati con la tecnica descritta nel post attraverso un rifrattore da 106 mm e Canon 450D. Posa singola di circa 90 secondi.

Gli spettacolari colori delle Pleiadi, catturati con la tecnica descritta nel post attraverso un rifrattore da 106 mm e Canon 450D. Posa singola di circa 90 secondi.

 

Cosa accade in pratica quando applichiamo questa tecnica? La non compensazione del moto terrestre produce sul sensore le classiche tracce stellari. La sfocatura progressiva durante l’esposizione trasforma le tracce in tanti piccoli coni, la cui larghezza e lunghezza dipendono dal tempo di esposizione e dall’intensità della sfocatura. In questo modo la nostra immagine contiene molta più dinamica rispetto a una classica posa: le stelle più brillanti mostreranno il colore nella parte terminale del cono, quando la loro luce si sarà distribuita su un numero sufficientemente grande di pixel per evitare la saturazione. Le stelle più deboli avranno coni più brevi ma sempre colorati, soprattutto nella parte iniziale vicina al punto di fuoco.

La fase di elaborazione, spesso temuta e odiata, è semplicissima, anche se abbastanza importante. La saturazione dei colori delle stelle è per natura piuttosto contenuta. A questo però è facile porre rimedio con qualsiasi programma di elaborazione delle immagini. E’ infatti sufficiente aumentare la saturazione del colore di almeno il 50% per far emergere finalmente un campo pieno di evidenti sfumature e affascinanti contrasti. Non è necessario fare altro.

I colori delle stelle e l’estetica dell’immagine risultante dipendono dalla lunghezza e dalla larghezza dei coni stellari, quindi dalla focale di ripresa, dal tempo di esposizione, dall’intensità della sfocatura. Le variabili in gioco sembrano complicare la nostra ripresa, ma questa è una delle rare e piacevoli situazioni nelle quali la pratica è molto più semplice di qualsiasi spiegazione.

Qualcuno riconosce il campo inquadrato? La scala è la stessa della fotografia delle Pleiadi, solo che in questo caso ci sono molti più colori: è un vero spettacolo!

Qualcuno riconosce il campo inquadrato? La scala è la stessa della fotografia delle Pleiadi, solo che in questo caso ci sono molti più colori: è un vero spettacolo!

Il consiglio principale, quindi, è quello di fare esperienza e dare sfogo alla vostra fantasia. Sono sufficienti pochi minuti ed un paio di tentativi per trovare già il giusto compromesso che soddisfa il vostro gusto estetico. E, chissà, proprio come accade in altri ambiti della società, i nostri scatti creativi potrebbero riportare di moda questa tecnica, che molti nativi digitali, purtroppo, neanche conoscono. Eppure è utile, divertente e piuttosto artistica. A questo punto, allora, osservando i nostri capolavori un paio di domande sono obbligatorie: a quali temperature corrispondono i colori che stiamo osservando? Sono più calde le stelle rosse o blu? E di quanto? Scopriamolo da soli con enorme soddisfazione: è il bello dell’astronomia amatoriale!

Montare un filtro da 2″ davanti ad un obiettivo fotografico

Geoptik produce da tempo un interessante raccordo, che permette di montare filtri da 2″ su obiettivi con filetto da 58mm ( http://www.teleskop-express.it/adattatori-verso-2/1285-adattatore-filtri-2-geoptik.html ). Tenuto conto che la fotografia astronomica a grande campo è da diversi anni che sta attraendo nuovi astrofotografi, specie grazie all’interessamento anche dei fotografi paesaggisti in prevalenza, in tanti si pongono il problema nel caso dovessero montare un filtro per riprendere, ad esempio un halpha oppure un filtro LPR.

Nel caso si possieda una Canon in formato APS-C la soluzione è semplice, ci sono i filtri EOS-Clip della Astronomik, ma per chi possiede reflex di altre marche? Qualcosa sembra muoversi sul fronte Sony, grazie all’interessamento di Hutec, ma al momento chi ha una reflex al di fuori di Canon, purtroppo, non ha moltissime scelte. Una soluzione è quella di montare un filtro da 2″ davanti al nostro obiettivo, ma se non ha il filetto M58, ma più grande, come posso fare se volessi usare l’adattatore Geoptik?

Per fortuna Amazon ci viene incontro! Infatti basta prendere degli anelli Step Down, che costano davvero poco, un esempio: https://www.amazon.it/49mm-Anelli-Lenti-Adattatore-Filtri/dp/B008H2HUC4/ref=sr_1_3?ie=UTF8&qid=1478534130&sr=8-3&keywords=step+down+ring

In questo modo, spendendo meno di 10€, possiamo montare il nostro bel filtro e fare quello che vogliamo. Però la vignettatura introdotta, quanto mi inciderà e a che focali?

Bene, qui si sviluppa il nostro piccolo test. Ho montato la serie di anelli Step Down, fino al filetto M58 per poi montare l’adattatore Geoptik, su 2 obiettivi Canon in mio possesso e usati con una reflex Full Frame.

Attenzione!!!! I risultati sono stati ottenuti con una reflex full frame, quindi con un formato APS-C le tolleranze sono maggiori.

Qui sono stati montati gli anelli Step Down e l’adattatore Geoptim 30A193 su di un Canon 17-40L

img_9141

Ovviamente più la focale è bassa, più avremo l’effetto vignettatura, che a focali ultragrandandolari assume una rilevanza da..buco della serratura!

Qui a 17mm, immagine inutilizzabile

17-40_17mm

Qui invece a 40mm, l’immagine diventa usabile, tenuto conto della fisiologica vignettatura di ogni obiettivo

17-40_40mm

Con focali da 100 e 400mm ovviamente nessun problema:

100-400_100mm 100-400_200mm

Gli obiettivi usati hanno un diametro per i filtri da 77mm, bello grande, quindi più anelli dobbiamo mettere, più il nostro filtro si sposterà lontano dalla lente e…vignetteremo. Sicuramente la configurazione che ho usato è una delle peggiori possibili come tolleranze, diametro grande e sensore full frame.

In linea di massima si può dire che con reflex full frame ed obiettivi con diametro sui 77mm, la focale minima usabile parte da 30mm circa. Con sensore APS-C e obiettivi con diametro minore, ovviamente avremo MOLTA più tolleranza per operare a focali ultragrandangolari.

A mio avviso vale la pena provare, per neanche 10€ + adattatore Geoptik 30A193, provare a montare un filtro da 2″ sulla nostra reflex e tentare qualche bella ripresa. Ad esempio io proverò a riprendere in halpha, con una Sony A7s modificata e a focali dai 50mm in su, il complesso di nebulose in Orione con il suo anello di Barnard, vediamo cosa salterà fuori e se la vignettatura causerà problemi o meno, buone riprese a grande campo a tutti!

Tutorial Heq5 Kit Cinghie Rowan

Abbiamo il piacere di presentarvi qui di seguito uno splendido articolo, scritto dal nostro amico Lorenzo Sestini, Presidente del Nuovo Gruppo Astrofili Arezzo, che gentilmente ci ho fornito il permesso di ripostare il suo articolo, apparso in originale sul blog dell’Osservatorio Astronomico di Arezzo, dal titolo “Tutorial Heq5 Kit Cinghie Rowan”.

Buona lettura!

 


 

Questo che vi propongo è una specie di istruzione di montaggio per il kit modifica cinghie Heq5 Pro Rowan Engineering Ltd acquistato da Telescope Service Italia.

Kit modifica cinghie Heq5 Pro Rowan Engineering Ltd

Non vi dirò se la montatura migliora o no, non ho ancora avuto modo di testare la suddetta modifica. Posso solo aiutarvi passo passo nel montaggio semplice. Chi ha dimestichezza non avrà nessun problema chi invece è poco “adatto” non deve avere timore. Se si segue questo tutorial passo passo non avrete problemi. Meglio comunque farlo fare ad un amico “smanettone”. Insomma se siete tipi da ufficio e calza maglia lasciate fare per non fare danni.

Vi dico subito che il kit è ben fatto, Tutto imbustato perfettamente con la divisione degli ingranaggi per Ar e Dec. State attenti a non invertire i pezzi che se a prima vista sembrano uguali in realtà non lo sono.

Ecco il kit Rowan a Cinghie.

Il kit in questione è stato montato da me con l’aiuto di Luca Vincenti.

Bene, nel frattempo aprite la vostra confezione e lasciate tutto da una parte.

Cominciamo a preparare la nostra bella Heq5 Pro.

Poniamo sopra un tavolo con la parte dei motori rivolta verso l’alto. Si può fare il tutto anche con la testa nel cavalletto ma fidatevi, fate in questo modo. Rischiate di perdere qualche vite. In questo modo vi rimane tutto nel tavolo.

Smontate le 6 viti del coperchio copri motore. Queste poi riponetele in una bustina. Non vi serviranno più.

Una volta aperta noterete subito il grasso sporco, o pulito, a seconda di quanto nuova è la vostra montatura, che dovrete eliminare. Vale la pena avere le cinghi solo per non stare tutte le volte a ingrassare la montatura in questa parte di meccanica. Non scordatevi comunque che la vite senza fine ha bisogno di grasso.

Date una pulita con un panno.

Cominciamo a svitare. Quanto mi piace smontare, fin da piccolo smontavo tutto. Iniziamo dall’ingranaggio fissato nel perno della vite senza fine. Insomma l’ingranaggio più grande.

Prendete la chiave a brugola che viene data in dotazione con il kit e svitate.

Attenzione che ci sono due viti di fissaggio in questo ingranaggio. Svitate prima la vite che va nella parte piana dell’albero della vite senza fine. Poi l’altra. Niente di fondamentale importanza ma ricordo che il tutorial è per quelli da “ufficio”.

Una volta sfilato l’ingranaggio “viene via senza sforzo” pulitelo e scriveteci con un pennarello da dove lo avete cavato. Se qualche cosa andasse storto avrete sempre il vecchio kit pronto per il rimontaggio.

Procedete anche per l’altro ingranaggio.

Bene, ecco qua tutta la sporcizia sotto gli ingranaggi. Pulite! Svitate le due viti che vedete in foto della scocca anteriore della montatura. Poi girate la montatura e svitate le altre tre viti.

Le viti non sono uguali. Tre piu lunghe e 2 corte. Non mischiate. Una volta aperto il carter anteriore avrete modo di vedere il cuore della montatura. La scheda principale. Bene quelli che vedete sono tutti i collegamenti elettronici. I spinotti piu a destra e piu a sinistra sono rispettivamente Ar e Dec. Con l’aiuto di un cacciavite piccolo staccateli. Non tirateli dai fili!!! Ormai che ci siamo se volete illuminare il vostro canocchiale polare esiste il mini kit da attaccare nello spinotto con filo nero e rosso per attaccarcelo. Questo spinotto porta corrente al led dell’illuminatore polare.

Cominciamo a smontare un motore! Non abbiate paura. Non si rompe niente. Prima di smontarlo fate un pallino con un pennarello nero su dove stava alloggiato. Può servire anche se poi il montaggio è obbligato. “ufficio, ricordate”.

Svitate solo le tre viti che attaccano nel telaio della montatura. Sono tre! Non 4 come si potrebbe pensare con l’immagine sotto. Un foro è li per bellezza nel telaio.

Una volta preso in mano il motore puliamo, e svitiamo i due grani presenti laterali al motore sempre con la brugola in dotazione.

Una volta svitato i grani “senza cavarli dalla sede, puliamo tutta la sporcizia anche qui. Per grassi più ostinati utilizzare un pennellino con un pò di benzina.

Ecco pulito il tutto.

Avrete anche a parte un estrattore. Si può farne a meno ma per il costo che ha vi conviene comprarlo. Nella foto sotto ho provato il pezzo ma ancora aspettate ad utilizzarlo. Prima dobbiamo fare un altra operazione.

Dobbiamo smontare il carterino di alluminio del motore. Segnate in tutti e tre gli angoli con un pennarello. Fate dopo ricombaciare i segni per rimontarlo. Non occorre super precisione.

Svitate le viti a brugola e sfilate il carter di alluminio. Avrete cosi in mano il motorino passo passo nudo e crudo.

Inserite l’estrattore e con l’aiuto di un pappagallo tenete forte il pezzo. Avvitate con forza la vite e vedrete che il piccolo ingranaggio del motore si sfilerà piano piano.

Ecco qua!

Riponete tutti gli ingranaggi per bene in una bustina. Non mischiate con l’altro motore! Tre ingranaggi per movimento. Ar e Dec.

Inserite il primo ingranaggio del kit Rowan, e misurate con un calibro 5,5 mm dal motore. Miraccomando fate questa operazione con cura.

Stringete i grani del pezzetto e fate attenzione. Non strigete a morte perche sono piccoli e si rischia spanature. Due grani. Fate un pò alla volta, prima con uno e poi con un altro fino al completo serraggio.

Rimontate il carterino facendo attenzione ai segni del pennarello.

Inserite il pezzo di teflon. Attenzione qui perche ho trovato difficoltà all’inserimento. Il foro del carter e precisissimo. Si deve premere fortemente per infilare.

Fate un pò alla volta con l’aiuto di un martellino in gomma. Se andate troppo “giù” non si torna in “sù”. E’ talmente duro che con cavolo che riuscirte a sfilarlo di nuovo senza piegare niente. Fate piano piano e a occhio controllate che sia in linea con l’altro pezzo che avete montato prima.

Il rondellone o guida di teflon ha una contro battuta sotto. Fate in modo che non sia accostatissimo. Va allentato e fatto calare. Mi sono arrivati questi pezzo troppo serrati. Fate in modo che il rondellone di teflon ruoti bene, anche con un pò di gioco. E’ solo una sede! Non serve precisione al millimetro.

Non ci resta di rimontare il motore con le sue tre viti. Ricordate il pallino di riferimento. Attenzione ai cavi del motorino passo passo. Nel frattempo infilateli dentro per bene senza farli infrenare. Dopo li riprenderete dal d’avanti dellamontatura per riattacarli alle loro sedi. Inseriamo l’ulitmo ingranaggio nella vite senza fine.

In questo caso è solo infilato. Dovrete regolare l’altezza con i due grani di sotto. A occhio alzate e mettete in linea il tutto. Stringete prima il grano dove nell’albero è piana la sede. Poi serrate l’altro di controspinta.

Inserite la cinghia come in figura.

Figo no?

Ripetete il tutto con l’altro motore! Non cambia niente. solo che per la declinazione avremo il pezzo di teflon più piccolo.

Inserite lo spessore dato in dotazione e rimettete il coperchio con le viti in kit più lunghe e il gioco è fatto.

Ecco qua la nostra bella montatura modificata.

Abbiamo acceso subito la montatura e devo dire che vale la pena solo per non sentire più il rumore metallico degli ingranaggi. Ora è silenziosissima. Si sente solo i motorini passo passo già silenziosi di suo. Ora non resta che provare sul campo quanto possa migliorare per l’autoguida. Ai prossimi aggiornamenti.

Lorenzo Sestini.

 


Credit: http://www.lorenzosestini.it/tutorial-heq5-kit-cinghie-rowan.html

CCD, CMOS, CMOS retroilluminati: a che punto siamo?

Agli inizi degli anni ’90/fine anni ’80 sono comparse le prime ccd sul mercato (SBIG, etc), caratterizzate da sensori microscopici (conservo una bellissima Meade Pictor 416XT da ben 768×512 pixel, rigorosamente rettangolari), è iniziata la lenta rivoluzione per l’astronomia amatoriale, che ha portato la schiera degli astrofotografi ad ampliarsi moltissimo rispetto a 20 anni fa, oltre a consentire anche l’inizio delle possibilità di ricerche ad utilità scientifica dal giardino di casa.

All’inizio, come per tutte le nuove tecnologie, le CCD erano estremamente costose, ma poi piano piano, le dinamiche della produzione su scala industriale e vendita globale, hanno portato il costo ad un livello accessibile a molti.

Poi verso l’inizio degli anni ’10 hanno iniziato a diffondersi i sensori CMOS di medio formato sulle DSLR (prima erano presenti nelle webcam, ovviamente in risoluzioni basse, ricordate la Toucam?) e qui è iniziata la prima rivoluzione dopo il CCD, consentendo di impiegare con profitto le DSLR in astrofotografia. Un solo nome: Canon EOS 350D, una camera che ha segnato la storia della nostra passione. Però i CMOS erano caratterizzati da un discreto rumore, a differenza dei CCD. Ricordate quanti progetti per raffreddare le prime webcam modificate le reflex?  Nel frattempo i CCD hanno continuato il loro sviluppo, portando, ad oggi, la diffusione di un sensore in tantissimi modelli di diverse marche: il KAF-8300, che è stato il primo sensore CCD con una discreta risoluzione ad un costo accessibile.

Da pochi mesi hanno iniziato a comparire, nel mercato astronomico (prima hanno sempre fatto la loro comparsa in quello fotografico) i CMOS retroilluminati. Questa tipologia di sensori va ad equipaggiare alcuni modelli di camere raffreddate della ASI e della QHY. La caratteristica che sale subito all’occhio è il prezzo molto molto competitivo rispetto ad una risoluzione equivalente, ma CCD.

La domanda è: ne vale la pena di spendere per un CMOS retroilluminato, rispetto ad un CCD?

Prima andiamo a fare un piccolo riassuntino veloce veloce delle caratteristiche tecnico/costruttive di queste 3 tipologie di sensori.

Premesso che TUTTI i sensori hanno come elemento base e comune il fotodiodo (l’elemento sensibile che genera la carica elettrica quando colpito da un fotone), ecco le differenze principali.

CCD: è conoscenza diffusa che ha un basso rumore, questo perchè da quando il fotodiodo genera la carica elettrica, passa attraverso pochi nodi nel sensore, prima di arrivare al convertitore analogico/digitale che trasforma il segnale da analogico a, per l’appunto, digitale. Qui tutti i fotodiodi sono dedicati alla lettura della luce e l’uniformità del segnale generato è molto alta, per questo la qualità d’immagine è molto alta, con un basso rumore.

CMOS: qui ogni fotodiodo è accompagnato da un convertitore, che trasforma l’energia luminosa ricevuta da ogni fotodiodo in carica elettrica. Ma nel mezzo ci sono anche amplificatori di segnale, riduttori di rumore e circuiti di digitalizzazione che fanno uscire un segnale digitale dal sensore e non analogico come nei ccd. Il fatto che ogni fotodiodo genera una conversione porta ad avere una mancanza di uniformità nel segnale per ragioni prettamente statistiche, dato che la ripetibilità esatta di un’operazione non è mai standard al 100% (pensate a quanti pixel ci sono in un sensore..). Però il consumo di corrente è più basso rispetto ai ccd e..la produzione in scala industriale, unito al continuo sviluppo, ha portato ai risultati qualitativi che tutti oggi vediamo.

CMOS Retroilluminato: tralasciando il ccd retroilluminato che non ha importanza rilevante nella fascia consumer di riferimento per l’astrofilo, questi sensori sono l’evoluzione dei precedenti CMOS e secondo me sono il futuro per l’imaging estetico in astrofotografia.

Potete osservare come nei CMOS tradizionali  i fotodiodi siano sotto la circuiteria, mentre nei retroilluminati è posta sopra.

cmos vs cmos retroilluminato

Come l’illustrazione raffigura in modo, secondo me, efficace, nei CMOS tradizionali la circuiteria funge da diaframma, disperdendo una parte del segnale entrante. Nei CMOS retroilluminati, invece, la circuiteria è posta sotto i fotodiodi (lo stesso concetto si applica anche ai CCD retroilluminati).

Il risultato? nelle caratteristiche di molti sensori CMOS retroilluminati della Sony che equipaggiano camere ASI e QHY vediamo una Q.E. tra il 70% e l’80%. E’ un valore MOLTO alto per uno standard CMOS! Certo, le microlenti aiutano (ma anche il KAF 8300 le usa..), ma se incrociate Q.E., megapixel e costo della camera raffreddata….siamo tranquillamente al 50% del prezzo di una camera equipaggiata con sensore CCD di ultima generazione con risoluzione e Q.E. simile.

Ma come vanno le camere con CMOS retroilluminato rispetto alle CCD di ultima generazione?

Io inizierei a parlare nell’ambito Sony. Ho preso 2 dark di riferimento, da 5 minuti, eseguiti con una Atik 428ex ed una Asi 178MMC, entrambe con il TEC al 100%.

L’Atik 428ex è equipaggiata con un Sony ICX694 che ha una Q.E. di circa il 76% a 550nm. (link)

La Asi 178MMC invece monta un Sony IMX174, retroilluminato, che ha una Q.E. stimata intorno al 70-75% a 550nm.

I dark li vedete così come li apre nebulosity e poi una versione con un po’ di stretch, in modo da tirar fuori il rumore sottostante.

 

Atik 428ex

428ex_5m         428ex_5m_stretch

 

Asi 178MMC

178mmc_5m        178mmc_5m_stretc

Potete notare, nelle versioni con i livelli compressi, come il sensore CMOS retroilluminato abbia un rumore di fondo molto superiore rispetto al CCD. Però ci sono 800€ di differenza tra una camera e l’altra, oltre a qualche mpx di risoluzione. Tralascio la questione dimensione dei pixel.

Ok, il CMOS retroilluminato è più rumoroso e si sapeva, ma che succede se calibro l’immagine, come devo fare con qualsiasi CCD?

Ecco un jpg di M27 in OIII, calibrato con dark e bias e tirato solamente nei livelli al limite del rumore.

oiii_calibrato

Come potete notare il risultato è assolutamente apprezzabile, tenuto conto che la ripresa è stata fatta dal centro città, in ottobre, con il soggetto basso.

Il segnale del sensore CCD è ancora indiscutibilmente superiore, però calibrando le immagini, per fini di imaging estetico, a mio avviso i sensori CMOS retroilluminati sono una scelta fantastica per chi vuole una camera di ripresa raffreddata a basso costo e potersi divertire senza spendere una cifra.

I prezzi delle 2 camere: 1770€ per la Atik 428ex e 918€ per la ASI 178MMC.

In preparazione il test della ASI 178MMC, lo troverete sempre sul nostro blog!

Come osservare e fotografare pianeti e stelle di giorno

L’astronomia amatoriale è una disciplina affascinante, che ci permette di organizzare viaggi indimenticabili pur rimanendo ben saldi a terra. Possiamo scegliere di scorrazzare tra i pianeti, disegnare i crateri della Luna, oppure possiamo cercare di fare foto o addirittura attività di ricerca che di solito conducono gli astronomi professionisti. Insomma, tra tutte le scienze, e probabilmente tra molte altre attività che potremo mai fare, l’astronomia rappresenta l’emblema della libertà più assoluta, anche perché abbiamo a disposizione miliardi di anni luce di Universo da percorrere a una velocità ben superiore a quella della luce, muovendo semplicemente il nostro telescopio.

L’astronomia pratica, tuttavia, ha un grosso problema, banale quanto fastidioso, soprattutto nelle fredde serate invernali: può essere fatta solo di notte. Di giorno, con l’ingombrante presenza del Sole, possiamo sperare di osservare e fotografare solo lui, il nostro enorme faro cosmico, con strumenti e accorgimenti particolari: un po’ poco, soprattutto conoscendo la bellezza e la vastità che presenti oltre la sua accecante luce. La domanda, allora, può venir spontanea, sebbene in apparenza ingenua: possiamo fare osservazioni e fotografie anche di giorno? Certo: possiamo osservare con un radiotelescopio potente, che non teme neanche le nuvole, oppure inviare nello spazio il nostro setup a far concorrenza al telescopio spaziale Hubble e il problema sarebbe risolto. Facile, no?

In realtà, senza scomodare accorgimenti che oggi suonano come pura fantascienza, si può fare un po’ di astronomia anche di giorno, al di là del Sole. Se la nostra passione sono i pianeti, le foto in alta risoluzione o semplicemente avere nuove sfide da vincere, l’astronomia di giorno diventa un’importante risorsa che potrà farci divertire e ottenere ottimi risultati.

Per convincervi che la mia precedente frase non è il classico delirio che si presenta prima o poi a ogni astrofilo che deve sopportare un interminabile periodo di meteo indecente, cominciamo a chiederci: cos’è che impedisce di vedere le stelle di giorno?La risposta è istintiva: il Sole! Ma siamo sicuri? Perché tutti i telescopi spaziali possono osservare il cielo anche con il Sole sopra l’orizzonte? La luce solare è una condizione necessaria ma non sufficiente a nascondere le stelle di giorno, tanto che nello spazio il cielo appare nero come la pece e si possono vedere le stelle anche con il Sole. La responsabile ultima è la nostra atmosfera: l’aria che respiriamo non è perfettamente trasparente ma intercetta una piccola parte della luce solare e la riflette poi in ogni direzione. Questo fenomeno, conosciuto come diffusione, è il responsabile del nostro cielo chiaro di giorno: le stelle non si vedono a causa dell’enorme inquinamento luminoso prodotto dal Sole, che viene diffuso dalla nostra atmosfera e rende il cielo molto brillante.

Ora possiamo fare un altro passo allora, chiedendoci: c’è modo, restando qui sulla Terra, e senza usare un radiotelescopio, di osservare il cielo di giorno? La risposta è sì, ma in realtà la domanda non è ancora necessaria, perché ci sono già alcuni corpi celesti che possiamo osservare di giorno, anche se a occhio nudo crediamo di non vederli. Prima però, proprio come in un film, mi piace creare un po’ di suspance andando a indagare meglio le ragioni per cui dovremo tirare fuori il telescopio anche di giorno (per la felicità di mogli, compagne, figli e datori di lavoro).

 

Perché fare foto di giorno

In realtà fare osservazioni di giorno, al di là del Sole, ha molti risvolti interessanti, che voglio riassumere in pochi e sintetici punti, per andare poi al nocciolo della questione:

  • Per sfida personale;
  • Per il gusto di trovare oggetti che erroneamente reputavamo invisibili con la luce del giorno;
  • Perché non abbiamo tempo di notte, o fuori fa freddo quando non c’è il Sole;
  • Perché alcuni soggetti danno il meglio di sé, sia in fotografia che in osservazione, di giorno. Mercurio e Venere si osservano e fotografano molto meglio quando sono alti sull’orizzonte rispetto al crepuscolo. La Luna in fase ridotta, che mostra regioni spettacolari come il Mare Crisium, si può osservare e fotografare con soddisfazione solo quando è a poche decine di gradi dal Sole, quindi di giorno, se non vogliamo essere distrutti dalla turbolenza atmosferica alle basse altezze sull’orizzonte, come accade anche per Mercurio e Venere;
  • Alcuni fenomeni, come occultazioni, congiunzioni, eclissi dei satelliti di Giove, non sempre capitano di notte: vogliamo farci fermare allora da un po’ di luce solare?
  • Chi monitora i pianeti ha necessità di riprenderli e/o osservarli per più tempo possibile, quindi anche di giorno, soprattutto quando la loro separazione è inferiore ai 40° dalla nostra Stella. In queste condizioni, inoltre, i professionisti non possono osservare e molti amatori si dirigono verso altri soggetti. E’ proprio qui che la probabilità di scoprire qualche fenomeno particolare aumenta di molto: una nuova tempesta di sabbia su Marte, una mega tempesta su Saturno, una gigantesca nube di ammoniaca che fa sparire un’intera banda equatoriale di Giove… Sappiamo infatti che la legge di Murphy è impietosa: se qualcosa di spettacolare deve succedere nel cielo, lo farà di certo di giorno. E noi, allora, la aggiriamo osservando anche quando nessuno pensa che si possa fare!
  • Sempre per la legge di Murphy, se una grande cometa, con una magnitudine di -7. si rendesse visibile a 15-20 gradi dall’orizzonte e in una posizione dell’eclittica che rendesse impossibile osservarla dal nostro emisfero (in pratica tutte le grandi comete degli ultimi 19 anni!) l’alternativa sarebbe volare in Australia o fare fotografie di giorno. E noi le faremo (anche se un viaggio in Australia è senza dubbio più interessante)!

Insomma, oltre al lato ludico/personale c’è un’oggettiva prospettiva scientifica, che interessa di sicuro gli osservatori e gli astroimager più esperti: osservare di giorno, visto che la nostra tecnologia lo consente, è di certo qualcosa da provare prima o poi, anche se con le dovute precauzioni.

Perché osservare e fotografare di giorno? Ecco un motivo: occultazione Luna-Venere del 16 giugno 2007 alle ore 15 locali. Se avessimo aspettato il calar del Sole ce la saremmo persa!

Perché osservare e fotografare di giorno? Ecco un motivo: occultazione Luna-Venere del 16 giugno 2007 alle ore 15 locali. Se avessimo aspettato il calar del Sole ce la saremmo persa!

 

Luna e Venere, sempre presenti a occhio nudo

A molti sarà di sicuro già capitato di osservare la Luna a occhio nudo, anche di giorno, senza particolari difficoltà. In effetti il nostro satellite si può vedere fino a poche decine di gradi di distanza dal Sole. Osservato al telescopio, soprattutto nelle giornate molto limpide, si mostra già interessante e ricco di particolari.

C’è però un altro corpo celeste che è visibile senza ausilio ottico, in pieno giorno: Venere. Il fatto che non l’abbiamo mai visto non è un indicatore affidabile sulla sua reale osservabilità. Con una magnitudine media di circa -4.5, in effetti, Venere è l’unico oggetto di apparenza stellare che può essere visto a occhio nudo di giorno, a patto che sia ad almeno 20° di distanza dal Sole. Un cielo limpido, che si mostra con una marcata tonalità azzurra, aiuta molto nell’impresa di scovare il pianeta a occhio nudo, ma in realtà la parte più difficile dell’impresa coinvolge il nostro sistema di interpretazione delle immagini, ovvero il cervello. Trovare un punto luminoso su uno sfondo brillante e circa uniforme è un’operazione che il nostro occhio, a livello ottico, è perfettamente in grado di fare, ma il nostro computer biologico fatica a elaborare nella maniera corretta i dati. Il risultato è spesso sorprendente: se non sappiamo bene dove guardare potremmo cercare il pianeta di giorno per ore senza vederlo. Se invece sappiamo dove dirigere il nostro sguardo, con un errore di circa 1-2° al massimo, allora il pianeta diventa evidente perché è sempre piuttosto contrastato rispetto al fondo cielo. All’improvviso, dopo tanto cercare, ci apparirà in quella spessa coperta azzurra un piccolo buco da cui filtra la luce puntiforme del pianeta a noi più vicino:“Come ho fatto a non vederlo prima?” E’ sempre questa la domanda che ci si pone con estrema sorpresa e molta soddisfazione per aver visto una “stella” nel cielo illuminato dal Sole. Per identificarlo con meno difficoltà è sempre opportuno nascondere il Sole dietro un ostacolo naturale o artificiale (una collina, degli alberi, una casa…) e scandagliare bene la zona di cielo in cui dovrebbe trovarsi (aiutiamoci con un software planetario).

Venere di giorno si può rintracciare con facilità anche a occhio nudo, se sappiamo bene dove guardare. Riuscite a trovarlo in questa foto scattata con un cellulare?

Venere di giorno si può rintracciare con facilità anche a occhio nudo, se sappiamo bene dove guardare. Riuscite a trovarlo in questa foto scattata con un cellulare?

Al telescopio, Venere, osservato di giorno, dà il meglio di sé, per due motivi:

  • Possiamo ammirarlo quando è molto alto sull’orizzonte, senza aspettare il tramonto o l’alba, quindi, se abbiamo l’accortezza di nascondere il Sole dietro un ostacolo naturale ed evitare che scaldi il tubo ottico, la turbolenza sarà sempre minore e la visione più dettagliata;
  • Il pianeta è molto luminoso. Se lo puntiamo con il cielo già scuro del crepuscolo, la sua luminosità inganna l’esposimetro del nostro sistema visivo, che ce lo mostrerà sempre troppo brillante, come se fosse una fotografia “bruciata”. Il risultato? Perdita di ogni tipo di dettaglio e un certo fastidio nella visione. Di giorno, invece, grazie al contrasto molto più basso tra il fondo cielo e Venere, il cervello applica la giusta esposizione e il pianeta non è mai sovraesposto. L’osservazione è molto più rilassante e spettacolare, perché potremo scorgere con relativa facilità alcune sfumature nella spessa atmosfera venusiana, anche senza l’uso di filtri colorati o grossi strumenti. Personalmente tutte le migliori osservazioni e fotografie di Venere le ho fatte di giorno, tra le 12 e le 16 locali.
Venere mostra molti dettagli, sia in visuale che, soprattutto, in fotografia. Il segreto? Osservare di giorno, quando il pianeta è alto nel cielo.

Venere mostra molti dettagli, sia in visuale che, soprattutto, in fotografia. Il segreto? Osservare di giorno, quando il pianeta è alto nel cielo.

 

Mercurio e oltre: a volte meglio di giorno, ma solo per i più esperti

Quanto scriverò da questo punto in poi prevede delle operazioni delicate, soprattutto per il puntamento, che devono essere fatte solo da persone ormai esperte di osservazioni e fotografia. La tecnica, infatti, spesso implica di fare un salto prima sul Sole, con tutti i rischi che ne conseguono se non si usa un filtro solare e molta attenzione. Leggere quindi bene quanto segue, se vogliamo proseguire con il nostro tour del cielo diurno.

 

Purtroppo a occhio nudo il gioco è già finito: il giro turistico del Cosmo termina con l’emozione e la sfida di trovare Venere, ma con un telescopio possiamo esplorare l’invisibile e fare altre spettacolari osservazioni.

Le particolari condizioni in cui si presenta Venere, ovvero un pianeta che non si allontana mai dal Sole per più di poche decine di gradi, sono ancora più esasperate per Mercurio. Per il più piccolo pianeta del Sistema Solare non abbiamo molta scelta: le osservazioni di giorno sono le UNICHE che danno qualche soddisfazione. E’ inutile cercare di fare i testardi e aspettare anni per trovare un buon seeing e trasparenza all’alba o al tramonto, con il Sole sotto l’orizzonte e il pianeta ben visibile a occhio nudo: non avremo mai una visione nitida come di giorno. Questo vale ancora di più se l’obiettivo è fare foto.

Mercurio di giorno mostra tenui chiaroscuri che non vedremo mai al crepuscolo

Mercurio di giorno mostra tenui chiaroscuri che non vedremo mai al crepuscolo

Più facile e spettacolare di Mercurio, Marte è un altro soggetto ghiotto per fare osservazioni. Quando la sua separazione è maggiore di 60° dal Sole, il pianeta rosso ha ancora una discreta luminosità e diametro angolare per mostrare dettagli. Grazie alla sua colorazione rossastra, che contrasta in modo netto con l’azzurro del cielo, marte_giornol’osservazione di Marte di giorno può essere spettacolare, soprattutto quando il Sole si sta avviando verso il tramonto (o poco dopo l’alba). In un certo senso, per chi non è abituato a osservare i pianeti, l’esperienza diurna migliora la visione perché diminuisce i contrasti e impedisce, proprio come accade per Venere, di avere un’immagine troppo luminosa, quindi sovraesposta e povera di particolari. Il rapido tempo di esposizione del nostro occhio, inoltre, ha anche il potere di congelare il seeing molto meglio rispetto a quanto accade di notte, con la visione notturna e un tempo di esposizione che viene incrementato automaticamente dal nostro cervello. In un certo senso ed entro determinati limiti, di giorno la visione migliora anche a seguito di questo fenomeno, lo stesso per cui gli astroimager planetari tendono a fare esposizioni più brevi possibili per congelare il seeing.

Con Giove iniziamo invece ad avere qualche difficoltà. Visibile solo oltre i 45° di elongazione, si presenta spesso come un disco quasi trasparente, ma ricco comunque di contrasti, anche se non riusciremo a vedere i più minuti dettagli della sua atmosfera. Meglio non esagerare con gli ingrandimenti, almeno all’inizio, per non perderlo tra la luce del cielo.

Per Saturno, invece, le cose cambiano e trovarlo rappresenta quasi una sfida, che è facile da vincere con il pianeta oltre i 60° di separazione dal Sole, un cielo molto trasparente e la nostra stella prossima all’orizzonte. Anche in questo caso meglio iniziare con ingrandimenti modesti per trovarlo: circa 50-100X al massimo e poi, se serve, aumentarli (di poco).

Urano e, ancora peggio, Nettuno, dovrebbero essere off limits, ma non si sa mai: con un cielo limpido di montagna, una separazione di almeno 90°, un filtro polarizzatore e un buon occhio, potremo riuscire a scorgere Urano: nessuna speranza, invece, per Nettuno.

Se vogliamo andare oltre i pianeti, possiamo fare un bel tour delle stelle brillanti: snobbate di notte perché poco interessanti (a ragione), di giorno diventano delle gemme da scovare in un mare d’azzurro, come un prezioso tesoro. Ecco allora che non avremo alcun problema nel puntare Sirio, Capella, Altair, Deneb, Vega, Betelgeuse, Antares e Aldebaran. Unica richiesta: cielo terso e almeno 45° di separazione dal Sole!

Le stelle si possono vedere anche di giorno! Ma è in fotografia che le cose migliorano e anche di molto

Le stelle si possono vedere anche di giorno! Ma è in fotografia che le cose migliorano e anche di molto

 

Come puntare di giorno

Prima di uscire con il Sole alto e cominciare a osservare stelle e pianeti, è meglio dare qualche consiglio utile per fare una cosa che di notte è semplice, ma di giorno un po’ meno: a parte la Luna e Venere, nessun altro oggetto si vede a occhio nudo, spesso nemmeno con un piccolo cercatore, quindi: come facciamo a puntare qualcosa che non possiamo vedere finché non è nel campo dell’oculare? Si potrebbe dire: con il puntamento automatico! La risposta è sì, ma con qualche differenza rispetto alla notte. Di giorno, infatti, non possiamo fare l’allineamento della montatura, perché le stelle non si vedono: come fare?

Semplice: dobbiamo connettere la nostra montatura al computer, bypassando la pulsantiera e interfacciandola con un software planetario, come Cartes du ciel. Grazie ai driver Ascom, questa soluzione è abbastanza semplice e molti fotografi già la usano per curare le sessioni di ripresa notturna. Controllando la montatura con il planetario possiamo fare una cosa che molte pulsantiere non permettono: puntare un oggetto celeste ben visibile, sincronizzarla sulle sue coordinate e poi spostarci nella direzione in cui vogliamo osservare l’invisibile.

L’unico oggetto celeste sempre presente, a parte qualche volta la Luna, è il Sole ma è anche il più pericoloso. Per puntare tutti gli altri corpi celesti di giorno occorre quindi quasi sempre sincronizzare la nostra montatura sul Sole, puntandolo a mano. Come ben sappiamo, è assolutamente fondamentale evitare che la luce del Sole entri senza essere filtrata nel telescopio e nel cercatore. Quindi, il primo passo da fare è preparare il setup come se dovessimo osservare il Sole: coprire il cercatore e inserire di fronte l’obiettivo del telescopio un filtro solare sicuro, come l’Astrosolar. Puntiamo la nostra stella con il metodo dell’ombra, poi centriamola osservando dall’oculare (con il telescopio che ha il filtro solare ben saldo e sicuro!). Sincronizziamo la montatura e poi diciamo al planetario (o alla pulsantiera, se lo permette) di andare dove vogliamo: Mercurio, Venere, Marte, qualche stella… È importante scegliere soggetti distanti almeno 15 gradi dal chiarore solare per evitare che parte della sua luce entri nello strumento (e per vedere qualcosa!). Una volta che il telescopio si è spostato verso la destinazione, possiamo togliere il filtro solare e scoprire il cercatore. Con una buona vista e un cercatore da almeno 50 mm di diametro, quasi tutti i soggetti (tranne Saturno) dovrebbero essere visibili attraverso le sue lenti, una cosa molto comoda per poter effettuare un preciso centraggio.

Il successo del puntamento dipende in modo critico dal perfetto stazionamento della montatura equatoriale (non confondete lo stazionamento con l’allineamento del GOTO!), che può essere fatto solo di notte. Ecco quindi che sarebbe meglio lasciare il telescopio montato dalla sera prima e pronto anche al nostro tour diurno.

Se vogliamo spostarci verso oggetti molto distanti è meglio andare per piccoli passi: puntiamo prima un corpo celeste luminoso, come Venere, per sincronizzare di nuovo la montatura e poi spostiamoci verso la destinazione: meglio non fare spostamenti superiori a 40 gradi perché il puntamento non sarà mai precisissimo.

Una cosa fondamentale riguarda poi la messa a fuoco: di giorno, anche per oggetti luminosi come Venere, se il telescopio non è già vicino al punto di fuoco potremo non vedere la sagoma sfocata del pianeta, anche se questo è al centro del campo: assicuriamoci quindi di aver fatto una buona messa a fuoco prima sul Sole e di non cambiare oculare, altrimenti dovremo armarci di pazienza e muovere il fuoco fino a trovare l’oggetto, che sarà visibile solo quando saremo quasi al punto di fuoco. Una cosa simile si deve fare se vogliamo fare foto: facciamo il fuoco prima sul Sole e a una focale non troppo elevata (meglio al fuoco diretto), così saremo sicuri che se il corpo celeste verrà puntato lo vedremo.

 

Qualche consiglio per le riprese fotografiche

Se vogliamo usare il nostro occhio per osservare, dobbiamo accontentarci di scegliere solo le giornate con il cielo più terso, in modo che i contrasti aumentino al punto da garantire osservazioni molto piacevoli, se non migliori rispetto alla notte. Se invece siamo interessati a fare riprese in alta risoluzione, e in generale a capire quanto in profondità si può vedere anche con il Sole sopra l’orizzonte, allora le cose cambiano molto e potremo restare sorpresi di quanto sia possibile fare. Per capire il trucco che c’è alla base di proficue riprese (non più osservazioni ma fotografie!) diurne, dobbiamo riproporre una domanda alla quale non ho ancora dato risposta: c’è modo, restando qui sulla Terra, e senza usare un radiotelescopio, di osservare il cielo di giorno? Fino a questo momento abbiamo visto che non serve nulla per osservare i principali pianeti, né le stelle, perché anche se non li vediamo in modo spettacolare come di notte, questi in realtà ci sono e si possono osservare al telescopio, se non addirittura a occhio nudo. Tuttavia, grazie alla grande sensibilità dei sensori digitali, possiamo davvero fare qualcosa per migliorare di molto la situazione in fotografia.

La risposta alla domanda ne prevede allora un’altra: di che colore è il cielo di giorno? Se non abitiamo in pianura Padana, la risposta non ammette eccezioni: azzurro! Cosa vuol dire, a livello più fisico, questo? Che l’aria che respiriamo preferisce diffondere in ogni direzione più la luce azzurra rispetto a quella rossa, visto che quella solare è in realtà bianca e così sarebbe dovuto apparire il cielo se tutti i colori fossero stati diffusi allo stesso modo.

Senza entrare in profonde spiegazioni fisiche, il principio alla base della diffusione della luce da parte di molecole di gas è descritto da un processo chiamato diffusione di Rayleigh. Per i nostri scopi ci basta solo un dato, che è la conferma quantitativa della nostra semplice osservazione sul colore del cielo: la percentuale di luce diffusa è inversamente proporzionale alla quarta potenza della lunghezza d’onda. In parole semplici, all’aumentare della lunghezza d’onda della luce diminuisce drasticamente la percentuale che viene diffusa dall’aria. Ecco quindi che la luce blu viene diffusa circa 16 volte più di quella del vicino infrarosso, che ha una lunghezza d’onda circa doppia e perché per le onde radio giorno o notte non fa alcuna differenza.

La diffusione di Rayleigh in funzione della lunghezza d'onda spiega perché il cielo è azzurro e rappresenta un'interessante scappatoia per fare ottime fotografie diurne.

La diffusione di Rayleigh in funzione della lunghezza d’onda spiega perché il cielo è azzurro e rappresenta un’interessante scappatoia per fare ottime fotografie diurne.

Eureka! Abbiamo trovato il modo per fare fotografie di giorno di soggetti brillanti, come se il Sole quasi non ci fosse: basta usare un filtro passa infrarosso. Più grande è la lunghezza d’onda utilizzata, maggiore sarà il contrasto tra il fondo cielo e il corpo celeste. Volete una prova? Guardate la seguente immagine che ritrae Giove ripreso allo stesso orario con diversi filtri:

All'aumentare della lunghezza d'onda diminuisce la luminosità del fondo cielo e i corpi celesti, come in questo caso Giove, emergono in modo sempre più netto.

All’aumentare della lunghezza d’onda diminuisce la luminosità del fondo cielo e i corpi celesti, come in questo caso Giove, emergono in modo sempre più netto.

Per poter sfruttare questo trucco ci serve un sensore monocromatico, o al limite una reflex full spectrum, ovvero modificata per renderla sensibile anche all’infrarosso. Questi dispositivi sono sensibili, sia pur in forma ridotta, fino a circa 1100 nm, una regione molto interessante per i nostri scopi. Ottime sono le camere planetarie monocromatiche, spesso usate anche per l’autoguida, come la sempre verde ASI 120MM. Con questi sensori possiamo usare filtri passa infrarosso da 800 e persino 1000 nm (1 micron). In questa zona poco esplorata del vicino infrarosso, il cielo diventa talmente scuro che non solo possiamo fare fotografie alla Luna, Venere, Mercurio, Marte, Giove e Saturno come se fosse notte, ma è addirittura possibile riprendere corpi celesti che nessuno si sarebbe aspettato: i quattro principali satelliti di Giove, ad esempio, tutte le stelle brillanti fino a magnitudine 5-6 e persino oggetti spettacolari come brillanti comete.

Ecco allora che in questo modo, anche con strumenti modesti, a partire da 8-10 centimetri, il cielo diurno mostra tutto ciò che ai nostri occhi apparirebbe ben visibile di notte: fantastico, vero?

satelliti_giove_giorno

In conclusione di un post piuttosto lungo, non mi resta che lanciare un paio di sfide: qual è il corpo celeste più debole che è possibile osservare o fotografare con il Sole sopra l’orizzonte? È possibile ottenere un’immagine di un soggetto deep sky brillante, ad esempio le Pleiadi, o la nebulosa di Orione, di giorno? Per queste imprese i miei consigli sono semplici: 1) Cielo terso come mai si vede dalla pianura; 2) oggetto alto sull’orizzonte almeno 30° e più lontano possibile dal Sole, 3) Sole in prossimità del tramonto o dell’alba.

Riprese diurne estreme: la cometa McNaught del gennaio 2007 a 15 ° dal Sole e con una magnitudine di circa -7, ripresa con un telescopio da 25 cm diaframmato a 3 cm e filtro IR da 1000 nm. D'ora in poi non ci perderemo più un raro evento astronomico solo perché si verifica di giorno, alla faccia della legge di Murphy!

Riprese diurne estreme: la cometa McNaught del gennaio 2007 a 15 ° dal Sole e con una magnitudine di circa -7, ripresa con un telescopio da 25 cm diaframmato a 5 cm e filtro IR da 1000 nm. D’ora in poi non ci perderemo più un raro evento astronomico solo perché si verifica di giorno, alla faccia della legge di Murphy!

 

Per il momento i corpi celesti più deboli che ho ripreso sono i satelliti di Giove, che hanno luminosità inferiori a quella delle stelle principali delle Pleiadi o del cuore della nebulosa di Orione: questi due, quindi, sono soggetti ben alla portata della nostra voglia di astronomia anche di giorno. La caccia è aperta!

 

P.S. Non vale scattare foto deep sky durante un’eclisse totale di Sole!

Collimazione facile e precisa di un Newton

Collimazione facile e precisa di un Newton

Nella grande panoramica dei telescopi, il Newton è da sempre considerato uno schema ottico che offre una buona apertura in rapporto al costo, grazie alla facilità nella costruzione, rispetto ad altri schemi (rifrattori, SC, etc).
Però la bestia nera della maggior parte degli astrofili è sempre lei: la collimazione.

“Il Newton è bello, tanta apertura, veloce anche in foto, universale, si, ma….”

Ma.
Ma collimiamolo facilmente! Da anni si legge su internet della collimazione dei newtoniani usando la barlow abbinata al collimatore laser. Personalmente ho sperimentato a fondo una combinazione delle 2 cose che vorrei proporvi, senza imbarcarsi in costosi collimatori dalle mille funzionalità, perché a volte si può avere molto con poco!

Setup usato:
Collimatore laser TSLA: http://www.teleskop-express.it/collimazione/226-tsla-ts-optics.html
Lente di barlow…qualsiasi! Io ne ho usata una molto economica: http://www.teleskop-express.it/barlow-e-riduttori/170-tsb21-ts-optics.html

Se poi proprio vogliamo giocarcela ancora meglio, sarebbe fantastico modificare il Newton con uno dei kit di collimazione Astronomy Expert ora disponibili per i GSO (in arrivo anche quelli Skywatcher a fine ottobre!)
http://www.teleskop-express.it/collimazione/2560-ae-collimation-tool-per-newton-gso-passo-metrico-astronomy-expert.html

collimatore per newton e barlow per collimazione telescopio newton

 

Step 1: collimazione del secondario

Iniziamo a collimare il secondario come sempre: inseriamo solo il laser nel focheggiatore e muoviamo le 3 vitine di regolazione del secondario, in modo portare il puntino rosso del laser al centro del bollino bianco incollato sul primario

collimazione_secondario_newton

Bene, ora siamo pronti per la collimazione del primario:

 

Step 2: collimazione del primario

Non tocchiamo il laser (assicuriamoci di averlo montato con la finestrella che guardi dalla nostra parte, mentre siamo posizionati sulla cella del primario) e dobbiamo operare come segue:

Sbloccare le viti di blocco del vostro newton, cella del primario (fare riferimento al manuale di istruzioni..o a noi!)
Portare il raggio laser verso il foro centrale di ritorno, come da immagini, usando le viti di collimazione della cella del primario (come prima, fare riferimento alle istruzioni o a noi per un aiuto)

collimazione_primario_1_newton

collimazione_primario_2_newton

A questo punto siete abbastanza collimati, ma non perfettamente, perché il laser ed i vari riduttori da 2” a 31,8mm hanno delle tolleranze meccaniche tra di loro che rendono la collimazione con il laser, sul primario, buona, ma non perfetta.

Raggiungiamo la perfezione!

 

Step 3: la collimazione fine del primario

Adesso rimuoviamo il laser e montiamo la nostra barlow sul telescopio, inserendo poi nuovamente il laser come se fosse un oculare. Accendiamo il laser e dovremmo vedere qualcosa di molto interessante.
La barlow ha l’effetto di “spalmare” il fascio del laser, che andando a proiettarsi sull’anellino bianco che va ad indicare il centro del primario, produce un’ombra. Essendo circolare il nostro bollino adesivo sul primario, il cerchio avrà anche un suo centro..ovviamente!
Guardate la figura: si vede la macchia del laser, con l’ombra del bollino del primario. Notate anche che al centro dell’ombra ci sono 3 cerchietti concentrici di diffrazione che vanno ad indicare il centro della nostra riflessione (se il bollino è posizionato bene è anche il centro del primario).

Dobbiamo portare questi cerchietti nel centro del foro di ritorno, usando le viti di collimazione del primario, in modo da avere una collimazione a prova di star test!

collimazione_primario_3_newton

notate come non è detto che l’ombra sia concentrica al foro, dalle mie esperienze ho potuto notare come è sempre meglio fare riferimento ai cerchietti centrali di diffrazione per ottenere un’ottima collimazione.

collimazione_primario_4_newton

Adesso facciamo la prova del nove, nel nostro caso posizionando il newton sul nostro banco ottico e..vediamo come va!

Come potete vedere dall’immagine, il telescopio è veramente molto ben collimato, semplicemente guardando il laser e le ombre di ritorno, senza andare ad impazzire con altri sistemi più o meno difficili o costosi.

collimazione_newton_star_test

ATTENZIONE: i giochi meccanici nella chiusura dei raccordi e del laser possono determinare un disassamento dello stesso con l’asse ottico del telescopio. Come potete vedere dalle immagini, nel newton di prova c’è un portaoculari classico con 2 viti di blocco. Con alcuni accorgimenti possiamo ottenere buoni risultati, senza dover andare ad adoperare dei sistemi di chiusura autocentranti (che avrebbero anche cattive ripercussioni sul backfocus disponibile).

Il riduttore da 2” a 31,8mm posizionatelo in modo che la vite vada tra le 2 del portaoculari da 2” del focheggiatore
Prima di serrare il riduttore da 31,8mm, con la mano, tenetelo per premuto sul portaoculari da 2” del focheggiatore, in modo da garantire la massima planarità
Quando inserire il laser e la barlow, il discorso è lo stesso: premeteli sempre nel portaoculari

Cosa succede se collimo bene, ma poi vedo che le figure di intra ed extra sono diverse? Avete il focheggiatore che non è montato in modo parallelo all’asse ottico!
Si può rimediare? Certamente, però è una bella rottura…soluzione? Semplice: se fate foto collimate con il focheggiatore in posizione di messa a fuoco, se fate visuale fatelo con il focheggiatore estratto nel punto di fuoco dato dall’oculare più potente che avete. In questo modo andate ad ottimizzare la collimazione nella posizione di fuoco durante l’utilizzo, avendo così la miglior resa possibile.

Se avete qualche domanda, dubbio, non esitate a scrivermi: rc@teleskop-express.it

I Newton odierni sono strumenti ottimi, che costano poco e possono dare tanto, usiamoli nel modo giusto!

Testiamo la linearità del nostro sensore digitale

Uno dei grandi vantaggi dei sensori digitali è la cosiddetta linearità, o risposta lineare. Di cosa si tratta? In pratica un sensore produce un’immagine la cui intensità è direttamente proporzionale alla luminosità dell’oggetto o al tempo di esposizione. Se ad esempio facciamo una foto di una stella non variabile, questo implica che se si raddoppia l’esposizione raddoppierà il segnale (la luminosità) che il sensore avrà registrato dalla stella. Detto in questi termini sembra la scoperta dell’acqua calda e si fatica persino a capirne l’utilità; anzi, gli astrofotografi più esperti neanche lo vedono come un vantaggio e vedremo presto il perché.

Che i sensori abbiano una risposta lineare all’intensità luminosa che li colpisce non è una cosa scontata. L’altro strumento che usiamo per osservare il mondo, l’occhio, NON possiede una risposta di questo tipo, ma logaritmica: in pratica l’intensità percepita da tutti gli occhi umani cresce con il logaritmo dell’intensità luminosa che lo colpisce. In questo modo, quindi, quando vediamo una sorgente che ci appare il doppio più luminosa di un’altra, la reale differenza di luminosità non è di due volte ma molto più alta. Il caso classico è rappresentato dalla scala delle magnitudini, in cui tra una stella di magnitudine 2 e una di magnitudine 4 non c’è una differenza di 2 volte come suggerisce l’occhio ma di ben oltre 6 volte. Questa curva di risposta meno ripida di una retta consente al nostro occhio di sopportare enormi differenze di luminosità senza avere particolari problemi perché di fatto schiaccia le reali differenze di luminosità e ce le fa percepire come se fossero molto più ridotte di quanto siano. Di fatto, per chi conosce un po’ il gergo della fotografia astronomica, l’occhio umano opera uno stretch logaritmico automatico su ogni immagine che registra.

Perché allora i sensori digitali possiedono una risposta lineare, così differente da quella dell’occhio umano? E perché questa sembra così importante tanto da dedicarle un post? La risposta è semplice: la linearità nella risposta è fondamentale se si vogliono effettuare precise stime di luminosità degli astri. L’introduzione dei sensori digitali nell’astronomia (professionale) ha prodotto una grande rivoluzione che ha consentito di arrivare persino a scoprire la debolissima traccia lasciata da un pianeta extrasolare in transito di fronte al disco luminoso della propria stella.

In ambito prettamente astrofotografico questo che è un enorme vantaggio viene ribaltato e si trasforma in uno svantaggio: gran parte dell’elaborazione di una foto estetica si basa infatti sui cosiddetti stretch, ovvero sull’alterare la risposta portandola da lineare a logaritmica. Questa operazione consente di osservare sullo schermo del computer sia dettagli molto deboli che molto brillanti. Se si fosse avuto un sensore già con una risposta logaritmica come il nostro occhio sarebbe stato quindi più facile ottenere fotografie estetiche, in un certo senso!

In realtà la risposta lineare del sensore serve anche per chi fa fotografia estetica e permette di correggere i principali difetti delle immagini attraverso i dark frame e i flat field. Quest’ultimi sono importantissimi nel poter disporre di un’immagine da elaborare priva di difetti macroscopici e dalla quale potremo discernere molto bene dettagli reali da artefatti dovuti a polvere sul sensore o alla vignettatura del telescopio. Se il sensore non ha risposta lineare per certi livelli di luminosità, i flat field potrebbero non correggere le immagini e il risultato potrebbe essere disastroso.

Chi si dedica alla ricerca, anche in ambito amatoriale, soprattutto fotometrica, ha l’assoluta necessità di sapere se e quanto è lineare la risposta del proprio sensore, altrimenti rischia di misurare magnitudini del tutto sballate rispetto ai dati reali. Ecco allora che ho trasformato un argomento che poco interessava in uno dei mille problemi aggiuntivi che si trovano ad affrontare tutti coloro che usano camere digitali: i sensori hanno una risposta lineare? Se sì, per tutto l’intervallo di luminosità consentito? Come possiamo capire come si comporta il nostro sensore?

Come al solito parto con le notizie brutte: non è scontato che la risposta del sensore sia lineare su tutto l’intervallo di luminosità che riesce a darci, anzi, i sensori delle reflex e in generale tutti quelli dotati di un meccanismo chiamato porta antiblooming (ABG) hanno un ristretto intervallo di linearità. Questo si traduce nell’impossibilità di fare misure fotometriche e spesso anche nella difficoltà quasi estrema di ottenere flat field che correggano bene le immagini estetiche. Quindi, se avete fatto del flat field e avete notato che “non flattano” la risposta potrebbe essere questa: non li avete fatti nell’intervallo di linearità del sensore, che potrebbe essere molto limitato.

La prossima domanda allora è scontata: come misuro l’intervallo di linearità del sensore? Come faccio a capire quando smette di comportarsi bene e inizia a fornire valori sballati di luminosità?

È qui che arriva la bella notizia, perché possiamo fare un test rapido e molto semplice, di giorno e stando comodi dentro casa. Di modi per fare questo test ce ne sono diversi, qui spiego quello più facile, rapido e chiaro. L’idea alla base è chiara: disporre di una fonte di luce fissa e fare una serie di scatti con tempo crescente, in modo da coprire tutta (o quasi) la gamma di luminosità concessa dall’elettronica del sensore. Poi misureremo la luminosità della sorgente in funzione del tempo di esposizione e costruiremo un bel grafico. Se la risposta è lineare, i punti si disporranno su una retta, altrimenti inizieranno a fare strane curve e potremo così individuare l’intervallo di luminosità in cui potremo effettuare i nostri flat field o misurare la luminosità delle stelle senza problemi.

Ora che abbiamo capito l’idea alla base, cerchiamo di metterla in pratica. Intanto la fonte di luce: ideale è una lampada a led, anche una torcia. Se abbiamo una flatbox le cose saranno ancora più semplici. Non è necessario montare la camera su un telescopio ma è sicuramente più comodo. Se non abbiamo grossi problemi, possiamo montare il telescopio in casa e metterci sopra la flat box. L’idea è quella di ottenere dei flat field con diversi tempi di esposizione, idealmente da 1 a 20-30 o più secondi, in modo che la luminosità media dell’esposizione più breve sia attorno a 1000-1500 ADU e quella dell’esposizione più lunga raggiunga la saturazione, circa a 65000 ADU se usiamo camere da 16 bit. In questi casi visualizzare l’istogramma ci sarà molto utile. Se la luminosità della flatbox è troppo forte possiamo inserire un filtro nella nostra fotocamera (tanto la linearità non dipende dalla lunghezza d’onda) o schermare la luce della flatbox con qualche foglio bianco.

A questo punto, in binning 1 (cioè a piena risoluzione) e con il sensore raffreddato (per chi se lo può permettere) effettuiamo degli scatti a esposizioni crescenti, partendo da 1 secondo fino ad arrivare alla saturazione, incrementando di un secondo ogni volta. Ripetiamo questa procedura 3 volte per avere una buona statistica (in pratica alla fine costruiremo 3 grafici indipendenti e vedremo i risultati) che ci permetterà di escludere eventuali variazioni della sorgente di luce. In alternativa possiamo mediare 5-6 singoli scatti per ogni intervallo di esposizione (ognuno dei quali calibrato con dark o con bias), come ho fatto nei risultati che troverete alla fine di questo post. Se abbiamo tempo e un CCD raffreddato, sarebbe meglio catturare circa 3-5 dark frame per ogni esposizione. Naturalmente non servono flat field perché stiamo analizzando di fatto dei flat field. Se abbiamo sensori non raffreddati non facciamo i dark ma i bias: una ventina di scatti con camera al buio e il più breve tempo di posa concesso dall’elettronica.

In fase di elaborazione non dovremo far nulla se non calibrare le nostre esposizioni. Attenzione in questo punto: i bias frame vanno bene per tutti gli scatti, mentre i dark frame sono collegati a ogni esposizione, quindi NON usiamo dark da 5 secondi per correggere le immagini da 2 secondi. So che alcuni software applicano un dark frame adattivo, ma non dobbiamo neanche pensarci!

Con le immagini calibrate adesso passiamo alla fase più noiosa: dobbiamo scegliere un’area di circa 50X50 pixel, sempre la stessa per ogni scatto e illuminata in modo circa uniforme, e annotarci il valore medio di luminosità, espresso in ADU.

In alternativa, se non ci sono forti variazioni di luminosità nell’intero campo, potremo usare tutta l’immagine come area di misurazione. Questo ci evita di dover tracciare un riquadro su ogni esposizione ma la precisione ne risentirà. Se i nostri speciali flat field possiedono variazioni di luminosità superiori al 10% nelle varie zone dell’immagine, siamo costretti a scegliere una piccola area verso il centro e con un’illuminazione più uniforme. La richiesta di luminosità uniforme lungo l’area di cui vogliamo misurare l’intensità luminosa è fondamentale per evitare che la misura venga falsata da porzioni che si trovano già oltre il range di linearità rispetto ad altre.

I programmi per fare questa misura sono quelli tipicamente astronomici, come AstroArt e MaxIm DL. Con MaxIm DL basta aprire l’immagine calibrata che si vuole misurare, visualizzare la finestra “Information Window” (View –> Information Window), e poi da questa scegliere la modalità “Area”. Di default compariranno le informazioni relative a tutta l’immagine, compresa quella che a noi maggiormente interessa: il valore medio della luminosità (Average), espresso in ADU. Se vogliamo o dobbiamo restringere l’area di misurazione, si deve tracciare un rettangolo sull’immagine con il mouse, ciccando con il tasto sinistro, tenendo premuto e trascinando il rettangolo che si formerà. In questo caso è assolutamente necessario annotarsi la posizione e le dimensioni della finestra di misurazione perché dovrà essere identica per ogni immagine che vorremo misurare, nella medesima posizione. Una volta tracciata l’area, la finestra “Information Window” ci darà le sue coordinate (quindi potremo ridisegnarla uguale senza problemi anche sulle altre esposizioni) e naturalmente i valori di luminosità media.

Area di misurazione della luminosità media con MaxIm DL e rispettiva "Information Window".

Area di misurazione della luminosità media con MaxIm DL e rispettiva “Information Window” in cui possiamo trovare la sua posizione e la luminosità media (Average).

 

Analizziamo le immagini

Bene, per ognuna delle immagini calibrate con dark frame o bias frame annotiamoci il relativo tempo di esposizione e il valore medio di luminosità. Importiamo i dati in un foglio di calcolo e cominciamo con le nostre analisi.

Come programma possiamo usare Excel o il gratuito Gnumeric, che funziona sia per Windows che per Linux. In ogni caso le operazioni da fare sono poche e semplici: si tratta infatti di costruire qualche grafico e magari fare una regressione lineare sui dati. Niente paura, spiego tutto nei prossimi punti.

  • Il primo grafico che dobbiamo fare mette in correlazione il tempo di esposizione e il valore medio di ADU misurato per ogni immagine. Sull’asse x va quindi il tempo di esposizione dei nostri speciali flat field, sull’asse y i valori medi di ADU. Da questo grafico, se abbiamo fatto tutte le misure per bene, dovremo trovare dei punti che si dispongono su una retta perfetta: caspita, il sensore è perfettamente lineare allora! No, non necessariamente. Questo è il primo grafico e serve per vedere se ci sono stati errori macroscopici nella fase di acquisizione ed estrapolazione dei dati (o se il sensore fa proprio schifo!). Con il grande intervallo di luminosità sull’asse y è impossibile vedere piccole deviazioni dal comportamento lineare. Quando la situazione può ingannare l’occhio (cioè quasi sempre), ecco che subentra una cosa che gli uomini hanno inventato tanto tempo fa e che i più, ahimé, disprezzano: si chiama scienza, in questo caso un po’ di statistica. La domanda a cui vogliamo rispondere è la seguente: il grafico ci sembra perfetto perché è così o perché siano stati ingannati? La risposta l’ho già data implicitamente qualche riga sopra, meglio quindi procedere spediti per vedere che avevo ragione;
Di primo acchitto il grafico sembra molto bello, ma l'occhio inganna...

Di primo acchitto il grafico sembra molto bello, ma l’occhio inganna…

 

  • A dominare il grafico non sono le probabili piccole deviazioni dal comportamento lineare ma il fatto che la luminosità cambia di migliaia di ADU lungo l’asse Y. Per togliere questo comportamento e mettere a nudo le più piccole imperfezioni del nostro sensore, dobbiamo fare quella che viene chiamata regressione lineare o fit lineare e analizzare i residui. In pratica diciamo al software di “unire” i punti con la migliore retta che è possibile costruire, poi sottrarremo i valori della retta ai punti reali e analizzeremo quelli che vengono chiamati residui, ovvero i punti depurati dell’andamento principale che ci impediva di vedere nel dettaglio il loro comportamento. Se i punti sono davvero tutti sulla retta come sembra dal primo grafico, i loro residui saranno tutti nulli o disposti in modo casuale attorno allo zero, e noi saremo contentissimi perché avremo in tasca il sensore digitale più preciso dell’Universo intero. Tranquilli, non c’è pericolo di cadere in questa eventualità…
    Sembra tutto complicato ma non lo è. Ci sono diversi modi per fare un fit lineare e poi sottrarne i valori ai dati. Con il programma Gnumeric, ad esempio, un modo molto rapido e user friendly è farlo fare in modo grafico al programma. Nelle opzioni di costruzione del grafico (che si attivano quando vogliamo costruire un nuovo grafico o quando facciamo doppio click su uno già creato), se ci posizioniamo sulla serie di dati immessi e clicchiamo sul punsalte “Aggiungi” potremo scegliere una bella “Trend line to serie 1”, in particolare del tipo “Lineare”. Nel nuovo menù che si apre basta accertarsi che l’opzione “Affine” sia selezionata e già potremo vedere una bella retta sovrapposta ai nostri dati.
In gnumeric, in pratica un clone gratis di Excel, possiamo fare tutti i calcoli che vogliamo. In questo caso ci serve un fit lineare e poi magari di visualizzare l'equazione della retta.

In gnumeric, in pratica un clone gratis di Excel, possiamo fare tutti i calcoli che vogliamo. In questo caso ci serve un fit lineare e poi magari di visualizzare l’equazione della retta.

 

  • Non abbiamo ancora finito, però. Clicchiamo ancora su “Aggiungi” e selezioniamo “Equazione to Regressione lineare 1”. Confermiamo tutto e vedremo comparire nel grafico sia la retta di fitting che l’equazione che la descrive. A questo punto dobbiamo creare una nuova colonna nel nostro foglio di lavoro, alla quale applichiamo l’equazione a ogni tempo di esposizione. In questo modo invece di una retta troveremo dei punti che si sovrappongono a essa in modo perfetto. Non c’è bisogno di graficarli; questi ci servono per fare la successiva operazione: creare i residui. I punti appena ottenuti sono quelli che si avrebbero in una situazione ideale in cui la risposta è rappresentata da un’unica e perfetta retta. I nostri punti sperimentali, invece, non avranno questa bella proprietà. Per capire quanto se ne discostano basta creare una nuova colonna in cui calcoliamo la differenza Osservato – Calcolato per ogni tempo di esposizione.

dati_better

  • Proviamo ora a costruire un grafico di questi residui in funzione del tempo di esposizione o, meglio, del valore medio di ADU corrispondente e vedremo che quella che prima era una retta perfetta ora in realtà è molto diversa.
Ora le cose sono più chiare e i dati non sono poi così ben disposti su una retta, che in questo caso dovrebbe essere parallela all'asse x!

Ora le cose sono più chiare e i dati non sono poi così ben disposti su una retta, che in questo caso dovrebbe essere parallela all’asse x!

 

Questo è il grafico davvero importante, perché ci dice come cambia il comportamento del nostro sensore in funzione della luminosità. Nella migliore delle ipotesi vedremo un intervallo lungo fino ad almeno 30 mila ADU in cui i punti si trovano su una retta quasi perfetta e poi divergono. Questo è il caso classico delle camere CCD scientifiche, tipicamente monocromatiche e prive della porta antiblooming.

Nella peggiore delle ipotesi, ovvero nel caso di camere CCD o reflex dedicate all’imaging estetico, le cose saranno ben peggiori, con diversi andamenti di “linearità” prima della saturazione. In questi casi diventa impossibile fare fotometria di alta precisione e spesso è complicato anche fare corretti flat field per riprese con soggetti deboli.

 

Due esempi reali

Ho effettuato il test di linearità appena esposto per due sensori CCD. Il primo, un Kak-402 con microlenti che equipaggia una SBIG ST-7XME, è il tipico sensore scientifico: monocromatico e senza antiblooming. Il secondo, un Kaf-8300 che equipaggia molte camere CCD, in questo caso una Moravian G2-8300 monocromatica, dotato di porta antiblooming, quindi più adatto all’imaging estetico.

I risultati evidenziano molte differenze. Se a prima vista i grafici della luminosità media in funzione del tempo di esposizione sono identici, o addirittura sembrano migliori nella Moravian (ma solo perché non si è raggiunta la saturazione, cosa che è avvenuta con la SBIG):

 

Test di linearità per due sensori CCD. Questi i grafici degli ADU medi in funzione del tempo di esposizione. Ci dicono poco e potrebbero ingannare.

Test di linearità per due sensori CCD. Questi i grafici degli ADU medi in funzione del tempo di esposizione. Ci dicono poco e potrebbero ingannare.

 

 Il fitting lineare con conseguente analisi dei residui rivela la reale situazione:

 Analisi dei residui: ora è fin troppo evidente quale sia il sensore migliore quanto a risposta lineare. Il Kaf 8300 presenta delle vere e proprie montagne russe!

Analisi dei residui: ora è fin troppo evidente quale sia il sensore migliore quanto a risposta lineare. Il Kaf 8300 presenta delle vere e proprie montagne russe!

 

Come si può vedere, la SBIG, a partire da circa 2000 ADU e fino a 25000 presenta una linearità che sfiora la perfezione, con un comportamento da manuale. Gli scostamenti dalla retta ideale sono dell’ordine dello 0,01%, ovvero di una parte su 10 mila. Questo consente ad esempio di mettere in evidenza senza problemi differenze di magnitudine dell’ordine del millesimo e rivelare quindi anche pianeti extrasolari in transito. Oltre i 30 mila ADU il comportamento comincia lentamente a divergere dalla linearità, sebbene bisogna superare i 40 mila per avere una non linearità dell’ordine dell’1%.

D’altra parte il grafico dei residui del Kaf-8300 è molto meno regolare. Si possono vedere almeno tre zone indipendenti, ognuna approssimabile con una retta di diverso coefficiente angolare: la prima fino a 9 mila ADU, la seconda da 10 mila a circa 18 mila e la terza da 20 mila a 30 mila, prima della naturale deviazione asintotica verso i valori di saturazione.  Questo è un problema se si vuole fare fotometria di alta precisione, in pratica impossibile, ma anche per i flat field. Quale valore usare per fare corretti flat field? La risposta forse già l’abbiamo vista da qualche altra parte, ma ora ne abbiamo la prova: per correggere un fondo cielo che tipicamente ha valori di poche migliaia di ADU, occorre che il flat field sia fatto nel primo intervallo di linearità, ovvero quello fino a 9000 ADU. In pratica, un buon flat field per un sensore di questo tipo è la media di tanti singoli flat che hanno come luminosità di picco circa 8000, massimo 9000 ADU. Per la ST-7XME invece, e in generale per tutte le camere sprovviste di porta antiblooming, i flat field si possono fare attorno a 25 mila ADU, in modo da avere il maggior rapporto segnale/rumore pur rimanendo ancora entro la zona perfettamente lineare.

 

Il test può essere fatto anche con le reflex senza problemi: basta scattare in formato raw agli ISO che di solito si usano per fare riprese astronomiche. In questo caso sarebbe interessante capire se e quanto varia la linearità della risposta in funzione degli ISO e in generale come si comportano questi sensori. Basta provare!

Elaborazione di una mia immagine: ecco i risultati!

Poco più di due settimane fa ho reso pubblici i file grezzi di una mia immagine astronomica, chiedendo a tutti gli interessati di elaborarla, a condizione di elencare i passaggi fatti e i software utilizzati. Ne è venuto fuori un progetto molto interessante, con la partecipazione di molti appassionati ed esperti di fotografia astronomica che hanno interpretato secondo il loro gusto personale i dati che avevo messo a disposizione. In questo post sono raccolte tutte le elaborazioni di chi ha partecipato, corredate di foto finali, di passaggi effettuati e a volte persino di screenshot e di processi eseguiti, in modo che chiunque possa riprodurre il risultato.

Prima di lasciarvi alle elaborazioni, mi piace tirare delle conclusioni, che per alcuni sono ovvie ma per altri meno:

  • Ogni immagine ha un impatto diverso su chi la osserva perché c’è una componente di interpretazione personale nel restituire i colori e i contrasti. Non troverete quindi due immagini uguali, ma…;
  • A prescindere dall’impatto estetico, un’attenta analisi mostra che tutte le elaborazioni mostrano circa gli stessi dettagli. Cambiano i contrasti, il livello di rumore, i colori, la saturazione… ma la forma, le dimensioni e la presenza o meno dei dettagli sono uguali per ogni foto e questo significa due cose: a) nessuno ha barato creando artefatti più o meno voluti e b) La fotografia astronomica non è arte ma deve rispecchiare la realtà. Non è foto ritocco ma elaborazione, spesso con metodi e processi rigorosi, che mira a mostrare nel miglior modo possibile ciò che è stato catturato e non ha lo scopo di migliorare in modo arbitrario i dettagli laddove il segnale non c’è;
  • A prescindere dal gusto personale, dalle ricette e persino dai software usati, quando si applica un buon procedimento di elaborazione il risultato tende a convergere e prescinde da cosa si è utilizzato per arrivarci. Ci sono software più specifici, altri meno; altri ancora sono potentissimi e alcuni richiedono più manualità da parte dell’utente ma alla fine, quando si ha una minima padronanza dei processi e si ha ben chiaro il legame stretto tra la fotografia e la realtà, i risultati convergono. Alcuni utenti meno esperti hanno forse esagerato abbassando curve e livelli e facendo quasi scomparire le tenui volute di polvere che abbracciano tutto il campo. E’ in questo caso che entra in gioco l’esperienza di elaborazione e la conoscenza del soggetto che si è ripreso. Questo significa che la fotografia astronomica non si improvvisa ma che sotto c’è un grande lavoro di esperienza e di studio, sia delle tecniche che dei soggetti astronomici.

Detto questo, vi lascio alle elaborazioni degli utenti che hanno partecipato a questo progetto, ringraziandoli pubblicamente.

La mia elaborazione, invece, corredata da tutti i passaggi fatti ed eseguita con software differenti rispetto alla maggioranza dei collaboratori, la trovate scaricando questo PDF. In fondo all’articolo è possibile visualizzare il collage di tutte le elaborazioni fatte per avere una panoramica d’insieme.

Elaborazione di: Daniele Gasparri

Elaborazione di: Daniele Gasparri

 

Ruggiero Carpagnano

Partendo dal file grezzo ho usato solo Pixinsight. Ho allegato uno screen shot dei processi usati.

Prima ho croppato l’immagine, poi ho usato il DBE. Dopo sistemato il fondo cielo e calibrato i colori con il Backgroundcalibration e il Colorcalibration. Successivamente ho applicato uno stretch STF sull’histogramtrasformation.

Ho creato una maschera di luminanza, l’ho clonata e dalla seconda mi sono creato una maschera di stella con Trouswavelet e l’ho sottratta alla prima maschera per averne una solo della nebulosità.

Ho applicato quest’ultima maschera alla foto e ho alzato un po la saturazione con le curve e poi un pochino (ma proprio poco) la curva del rosso per esaltare la nebulosità oscura.

Con Clonestamp ho eliminato i pixel caldi colorati.

Mantenendo applicata la maschera ho dato un paio di passati al 35% con LHE (uno con il Kernel basso ed uno alto) per esaltare il contrasto.

Un paio di passaggi di HDR per recuperare il nucleo.

StarMask e Morphologic per ridurre le stelle e una leggera deconvoluzione.

Con la maschera di stelle applicata ho cercato di sistemare la dominante gialla sulle stelle con al curva giallo/celeste.

Una passattina di ACDRN per il rumore

Ed una correzione con SCNR per eliminare il verde in eccesso.

Elaborazione di: Ruggiero Carpagnano

Elaborazione di: Ruggiero Carpagnano

 

Davide De Col

Ecco la mia versione della tua immagine con i seguenti passaggi interamente in Pixinsight:

  • Crop
  • Pulizia dei gradienti con il DBE
  • Background neutralization
  • Color calibration
  • Deconvoluzione
  • Masked stretch
  • Curve con saturazione e luminanza
  • ACDNR
  • Histogram transformation
  • Local histogram equalization per provare a dare profondità
  • Riduzione stelline
  • Saturazione stelline
  • Tgvdenoise
  • HDRmultiscaleTransform
  • Riduzione del rumore
  • SCNR
Elaborazione di: Davide De Col

Elaborazione di: Davide De Col

 

Paolo Demaria

Come software ho impiegato CCDStack (gestione colori, DPP e deconvoluzione), PixInsight LE (saturazione) e Photoshop CS2 (livelli, curve con maschere, riduzione rumore e correzione hotpixel).

Elaborazione di: Paolo Demaria

Elaborazione di: Paolo Demaria

 

Piermario Gualdoni

Ho aderito al tuo suggerimento per quanto riguarda l’elaborazione della tua Iris Nebula e la condivisione delle tecniche utilizzate.
Premetto che io riprendo con CCD mono, per cui il mio workflow è un pò diverso da quello che ti descriverò, comunque molti punti sono in comune. Sono partito dal tuo file già calibrato:
1) Preprocessing in Pixinsight:
– Histogram Transformation per lo stretching
– Automatic Background Extraction in divisione

2) Salvataggio come TIFF 16bit e Importazione in Photoshop CC dove effettuo quasi tutto il processing estetico:
– Applicazione della corrispondenza colori
– Denoise selettivo sulle zone a basso segnale con Topaz Denoise
– In camera raw aumento del contrasto, della saturazione e variazione della temperatura colore a gusto personale
– Riduzione dei diametri stellari con filtro minimo
– Aumento del colore sulle stelle tramite maschera di livello
– Aumento della nitidezza a zone tramite selezione sfumata
– Applicazione di Detail Extractor e Pro Contrast tramite plug in Nik Suite
– Finitura dei colori tramite correzione colore selettiva
– Ottimizzazione finale a gusto personale

Elaborazione di: Piermario Gualdoni

Elaborazione di: Piermario Gualdoni

 

Domenico De Luca

Ciao Daniele ti allego il JPG. Ho usato PixInsight e Photoshop; i tool te li elenco in sequenza.

1) PixInsight:

-Background Neutralization

-Color calibration

-Dynamic Background Extraction

-Histogram strech per passare a foto non lineare

-Dark structure ehnance

-Deconvoluzione

-HDR

-Saturazione

-Multiscale Median Trasform

2) Passaggio in Photoshop:

-Colore selettivo

Elaborazione di: Domenico De Luca

Elaborazione di: Domenico De Luca

 

Edoardo Luca Radice

Innanzi tutto ho ripetuto la calibrazione e l’integrazione in modo da cancellare gli hot pixel presenti nell’immagine.
Non ho usato i flat perché mancano i relativi dark e/o i BIAS (con i quali avrei potuto riscalare i dark dei light) e quindi è impossibile rimuovere la componente additiva dal master flat.
Visto che c’erano dei gradienti da I.L. abbastanza invadenti ho deciso, prima di fare l’integrazione, di applicare ABE (Automatic Background Extractor) a tutti il light impostando a 1 il grado del polinomio interpolatore, in questo modo ottengo un background col gradiente lineare che rimuove gran parte dell’inquinamento luminoso. Per farlo ho creato un image container per eseguire l’operazione in batch su tutti il light.
Fatto ciò ho integrato le immagini usando come peso la stima del rumore e un algoritmo di pixel rejection in modo da cancellare gli hot pixel senza degradare il segnale (Winsorized Sigma Clip)
Terminata l’integrazione ho eseguito un Crop per eliminare le aree non perfettamente sovrapposte.

Questi sono stati i passaggi di elaborazione:
– DBE (Dynamic Background Extractor) con correzione a divisione (per correggere la vignettatura e neutralizzare il fondo cielo);

– Ho applicato un RGB working Space uniforme e lineare (propedeutico alla deconvoluzione di immagini RGB);
– Deconvoluzione con una PSF gaussiana da 1,6 pixel usando un’opportuna maschera stellare per il deringing;
– Riduzione del rumore utilizzando TGVDenoise;
– Aggiustamento manuale dei colori con AssistedColorCalibration;
– Delinearizzazione, prima con una lieve trasformazione di istogramma, poi con MaskedStretch in modo da esaltare le parti deboli senza saturare il centro della nebulosa;
– Ripristino dell’RGBWorkingSpace sRGB (gamma 2.2);
– Compressione del Range Dinamico con HDRMultiscaleTranform utilizzando un’opportuna maschera di luminanza per non comprimere troppo le parti deboli;
– Sistemazione del contrasto tramite classica “curva ad S” con i canali RGB come target;
– Accentuazione delle zone scure tramite LocalHistogramEqualization anche qui con la consueta maschera di luminanza per non “uccidere” le parti deboli;
– Applicazione di una curva di saturazione (con la stessa maschera di LHE) per aumentare un pochino il colore;
-tocco finale con SCNR per rimuovere una il rumore verdastro ancora presente sulle parti più deboli.

Edorardo ha anche messo a disposizione le icone di processo utilizzate in PixInsight per reflicare i suoi risultati. Si possono scaricare qui.

Elaborazione di: Edoardo Luca Radice

Elaborazione di: Edoardo Luca Radice

 

Maximilian Iesse

Per mancanza di tempo sono passato direttamente alla elaborazione del “grezzo finale”.

Vado con ordine per i passaggi e programmi utilizzati:

Pixinsight:

  1. Dynamic crop: per ritagliare e lasciare fuori l’effetto mosaico
  2. Automatic background extractor, 1 volta in sottrazione ed una volta in divisione
  3. Color calibration
  4. Histogram transformation: per “strechare” l’immagine, in più passaggi
  5. HDR multiscale transformation: per cercare di recuperare un poco la parte interna alla nebulosa essendo un po’ bruciata
  6. Deconvolution: per aumentare la nitidezza, parametro StdDev portato a 1 per minimizzare gli artefatti

Paintshop:

  1. Mappatura toni locali: per contrastare maggiormente le nebulosità

Photoshop:

  1. Creata una maschera con la bacchetta magica, a partire dalle parti non luminose, lasciando fuori stelle e parti più visibili della nebulosa
  2. Riduci il rumore: per ridurre un po’ il rumore dovuto alla deconvoluzione
  3. Dopo aver invertito la maschera, ho fatto la correzione colori selettiva, lavorando per lo più su rossi e blu.
  4. Con il comando clone ho rimosso i difetti di pixel più evidenti

Questi sono i passaggi che ho fatto.

Il coma non ho idea di come correggerlo in post produzione.

Elaborazione di: Maximilian Iesse

Elaborazione di: Maximilian Iesse

 

Rossano Cortona

E stato usato esclusivamente Pixinsight:

1)    Histogram Trasformation

2)    Dynamic crop

3)    Automatic background extractor

4)    Background neutralization

5)    HDR multiscale trasform

6)    Star mask

7)    Morfological tranformation

8)    Mask invert

9)   Courve trasformation

10) ACDNR

11) Luminance Mask

12) Courve trasformation

13) DarkStructureEnhance

Elaborazione di: Rossano Cortona

Elaborazione di: Rossano Cortona

 

Elisabetta Trebeschi

Ciao, ho provato a elaborare il tuo file con il metodo che utilizzo ultimamente. Sw usati DSS, Lightroom (per abitudine sarebbe stato uguale e più ordinato con camera raw) e Photoshop.

1 – prima di tutto ho aperto il tuo file fits su DSS (NON ho fatto l’elaborazione da zero con lights – dark – flat);

2 – ho cliccato su azzera per riportare ai valori di default nei tre tabs (rgb/luminanza/saturazione);

3 – ho allineato i tre livelli rgb, una piccola correzione alla curva ed ho aumentato la saturazione a 15%, poi ho salvato in tiff 16bit;

4 – ho importato il file su Lightroom* e dato le impostazioni base, curve di viraggio e dettagli

– sulla destra ho clonato dei pixel verdi;

5 – ho aperto il file in photoshop per applicare il filtro “minimo” sulle stelle per rimpicciolirle:

Selezione->intervallo colore e con il contagocce ho selezionato una stella per ammorbidire la selezione. Selezione->modifica->espandi 4px. Selezione->modifica->sfuma 2px. Filtro->altro->minimo. Modifica->dissolvi minimo; dove non indicato ho lasciato le impostazioni di default.

 

* non pensavo di applicare il filtro minimo in photoshop altrimenti avrei aperto il file tid da lì usato il filtro Camera Raw per dare le impostazioni date con LR.

Elaborazione di: Elisabetta Trebeschi

Elaborazione di: Elisabetta Trebeschi

 

Alessio Vaccaro

In allegato c’è il mio “lavoro”. Cavolo! è la prima volta che metto mano su un CCD del genere! Fino ad ora ho solo lavorato con una Canon EOS 60D. Ho avuto un bel po’ di difficoltà a lavorare con i FITS a 32bit, non ci sono abituato!

Ecco il processing, più o meno dettagliato:

–          Dal grezzo che mi hai dato ho estratto un MONO con MaximDL;

–          A questo canale MONO applico una deconvoluzione “Maximum Entropy” con molte iterazioni (40-50) (sempre con MaximDL);

–          Dopo la deconvoluzione salvo il tutto in FIT 32bit. Apro il MONO_DEC appena salvato con PixInsight LE e, dopo aver fatto lo stretching logaritmico dell’istogramma, rimuovo un po’ di rumore alle basse frequenze (Wavelets) e alle alte (SGBNR). Salvo in TIF 16bit. Il MONO_DEC è pronto per Photoshop. Ora passo all’RGB;

–          Apro il file RGB (praticamente quello che mi hai dato tu) con MaximDL e faccio un binning 2×2. Salvo in FIT 32 bit;

–          Apro questo file con PixInsight e faccio lo stretching logaritmico stando attento a non tirare su troppo rumore. Salvo in TIF 32bit;

–          Apro i due file MONO_DEC e RGB su Photoshop e inizio a fare un trattamento separato sui due;

–          Il MONO_DEC prima viene smoothato da un paio di sfocature gaussiane poco evidenti che applico in modalità “schiarisci” e “normale” per appiattire il fondo cielo e per aumentare la profondità dell’immagine;

–          Dopo applico un Passa Alto sul MONO_DEC per risaltare i dettagli della nebulosa. Questo lo faccio con 2 raggi diversi: uno piccolo (dell’ordine dei 20-30px) e l’altro intorno ai 150-300px. Ovviamente tutto questo con le maschere e su dei livelli diversi che vengono “sovrapposti”. La luminanza è pronta;

–          Importo l’RGB su Photoshop, sistemo un attimo le curve e i livelli, aumento la saturazione e lo sovrappongo a tutti i livelli in modalità “colora”. Un po’ di ritocchi al colore (bilanciamento, curve, livelli, ecc..) a piacimento e poi è fatta;

–          Unisco tutto: ottengo l’immagine. Tocco finale che aumenta la profondità dell’immagine e dà un tocco un po’ più “magico” al tutto: prendo l’immagine appena ottenuta, la copio, la sovrappongo alla stessa, applico una sfocatura di 4-5 px e la metto in modalità “schiarisci”. Si ottiene quello che vedi!

Un bel casotto! Ci sono parecchi passaggi da programma in programma per compensare la mancanza di licenza in alcuni programmi (funzioni limitate). Questo è un workflow che ho “studiato”/scoperto/perfezionato in questi giorni, spero che il risultato sia di tuo gradimento!

Elaborazione di: Alessio Vaccaro

Elaborazione di: Alessio Vaccaro

 

Vincenzo Iodice

Mi sono permesso di realizzare queste elaborazioni, discutibili, però mi è piaciuto mettere in evidenza le nebulosità che sembrano siano presenti intorno alla IRIS. Nella prima foto le ho evidenziate in rosso, nella seconda in blu.

Le operazioni che ho fatto sono semplicemente, importarle ed elaborarle in DSS i light, dark e flat, inserendo il debayer giusto. All’elaborazione finale in DSS ho solo settato la saturazione a 18 per far emergere un minimo di colori.

In seguito ho aperto il file TIF con PS, ed ho solo giocato con i valori tonali e di saturazione mettendo in evidenza ora il rosso ora il blu.

Infine ho applicato i filtri polvere e grana e maschera di contrasto per aumentare un po’ il contrasto tutto qui.

Il risultato non è eccelso, ma le mie conoscenze si fermano qui.

Termino complimentandomi per i sui articoli sul blog sono molto utili.

Elaborazione di: Vincenzo Iodice

Elaborazione di: Vincenzo Iodice

 

Cristian Mari

Sono partito dallo stack, non so perchè pixinsight non voleva allinearmi i vari light ma va bene lo stesso.

Elaborazione eseguita totalmente in pixisight
Fase Lineare:

  • Dynamic PSF su una trentina di stelle;
  • Creata maschera stellare da utilizzare come deringhingh template nel processo di deconvoluzione, a cui passi pure l’immagine risultante del dynamyc psf;
  • Applicata la deconvoluzione con una 50 ina di passaggi;
  • Split dei 3 canali RGB e applicato processo linear fit prendendo come riferimento il canale verde;
  • Ricomposizione in rgb da channel combination;
  • Trasformazione in non lineare da ScreenTransferFunction applicato all’histogram transofrmation.

Fase non lineare:

  • Creazione di una maschera stellare ottenuta in pixel math dalla max() di tre maschere create su tre livelli di intensità e dimensione stellare;
  • Applico la starmask invertita per lavorare sulle polveri;
  • Sempre con la maschera attivata applico un processo di HDRMultiscaletransform lasciando i parametri di default;
  • Giocherello sulle curve;
  • Inverto la maschera per lavorare sulle stelle e applico una deconvoluzione leggera a 10 passaggi;
  • ColorSaturation per aggiustare l’azzuro e salvataggio in jpg.
Elaborazione di: Cristian Mari

Elaborazione di: Cristian Mari

 

Marco Boscolo

Ciao, ho ottenuto questa elaborazione eseguendo questi passaggi:
DEEP SKY STACKER
– selezione 90% delle immagini migliori (25 su 31)
– Impostazioni immagine –> taglio mediano kappa-sigma (K=2 , iterazioni = 5)
– Dark –> mediano
– flat mediano
Ottenuta l’immagine:
– Luminanza: mezzitoni = 48.8, Chiari = 30
– Saturazione = 20%
– Livelli RGB portati all’altezza del primo flesso inferiore della curva
-Salvataggio tiff applicando i cambiamenti

PHOTOSHOP:
– ritaglio immagine per migliorare l’inquadratura dovuta alla rotazione di campo
– regolazione livello neri
– aprendo una copia dell’immagine a parte in scala di grigi esalto i dettagli nebulari (esagerando per tirar fuori il più possibile)
e applico un leggero passaggio di noise ninja
– Copio questa immagine ottenuta nell’immagine principale impostando la tendina di somma livello da “Normale” a “Luminosità” e setto opacità al 75%
– ricalibro i livelli
– aumento saturazione +30
– applicazione del plugin (gratuito) HLVG
– riduzione del rumore mediante azione “deep noise reduction” ( il livello ottenuto lo sommo a 50% per non perdere troppo dettaglio)
– applico azione local contrast enhancement sommando( il livello ottenuto lo sommo a 30%)

Elaborazione di: Marco Boscolo

Elaborazione di: Marco Boscolo

 

Marco Burali

Partito dal file già preparato con colore. In maxln-dl sviluppato il segnale con ddp a controllo curva in manuale usando l’impostazione set-user-filter, poi ho applicato una seconda funzione ddp in modalità FFT-deconvolutiva e di contrasto, anche qui controllo curva segnale in manuale, leggero filtro locale adattivo per aumentare leggermente il contrasto, riequilibtio colore con la funzione Color-Bilance sul fondocielo salvato in Tiff: Portato in PS6, apertura con Camera Raw, regolazione contrasto e Chiarezza, poi leggerissimo ritocco con Esposizione gamma per la riduzione del rumore di fondo, conversione profilo in CMYK, regolazione livelli e allineamento istogramma, riconversione in RGB, regolazione bilanciamento colore, protezione delle stelle e apertura plug-in NIK e utilizzo della funzione Color-Efex- Detail Estractor saturazione colore al 30% e valore di estrazione sagnale al 12%, in modalità selezione inversa, apertura di maschera di livello e regolazione livelli RGB sulle polveri. Unito tutto in unico livello, selezione nucleo- sfumatura e ottimizzazione del contrasto e regolazione dei livelli rgb, deselezione e salvataggio. Lavoro molto sbrigativo ma secondo me buono. Spero di essere stato utile

Elaborazione di: Marco Burali

Elaborazione di: Marco Burali

 

Anna Luongo

  • tono automatico
  • colore automatico
  • livello automatico
  • curve output 62 input 19
  • filtro rc astro grandientxterminator
  • azioni astronomy tools  lighten only DSO and dimmer stars
  • increase star color
  • fade sharpen to mostly lighten
  • space noise reduction
  • enhance dso and reduce stars
  • lazo selezione centrale sfuma 18 maschera di contrasto fattore 96 raggio 3 soglia 0
  • selezione inversa curve output 98 imput 41
  • e poi ho salvato….
  • non sono riuscita a capire come fare a mettere in evidenza i colori…..

 

Elaborazione di: Anna Luongo

Elaborazione di: Anna Luongo