Cosa sono e come ottenere ottimi flat field

Chi si interessa di astronomia pratica e magari ha amici astrofotografi, avrà di certo sentito nominare i frame di calibrazione, in particolare i flat field. Chi ha iniziato a fotografare da poco avrà già individuato in queste due strane parole un nemico troppo grosso da sconfiggere, tanto che potrebbe pure aver deciso di voltarsi dall’altra parte e di far finta che non esita. Chi fotografa da più tempo, o chi si impegna nel campo della ricerca con mezzi amatoriali, ha capito come padroneggiarli, ma fatica ancora a reputarli tanto importanti da meritare di essere diffusi come se fossero il verbo supremo della fotografia a lunga posa degli oggetti celesti. In questo post capiremo cosa sono i flat field, perché sono importanti e come farli diventare le nostre migliori risorse per trasformare un’immagine astronomica in un potenziale capolavoro.

 

Cosa sono i flat field

I flat field sono delle speciali immagini di calibrazione che hanno l’unico compito di mappare le differenze di sensibilità dei pixel del CCD e le disomogeneità del piano focale. Tra queste rientrano difetti sempre presenti come la vignettatura, ovvero una caduta di luce ai bordi, ma anche polvere e sporcizia depositati sui filtri, sui correttori o sulla finestra del CCD stesso.

A parte la differente sensibilità dei pixel, tutti gli altri difetti da correggere dipendono in modo critico dal setup utilizzato, dall’orientazione della camera e dalla messa a fuoco. Basta variare anche di poco il punto di fuoco, ad esempio, per avere una diversa forma della polvere e della sporcizia sul campo ripreso; è sufficiente ruotare di qualche grado la camera per cambiare l’orientazione della vignettatura e dell’eventuale polvere e rendere quindi impossibile una correzione dell’immagine.

La prima regola, fondamentale, per i flat field è quindi la seguente: questi devono essere ripresi con lo stesso setup delle immagini che vogliamo correggere, con la medesima messa a fuoco e orientazione della camera. Al limite, se si fanno riprese RGB con ruota portafiltri e filtri parafocali, è ammesso fare i flat field, per ogni filtro, alla fine della sessione di ripresa, anche se sarebbe preferibile, soprattutto per lavori di precisione, fare flat field per ogni filtro prima di cambiarlo e passare a fare riprese con il successivo

 

I flat field servono davvero?

Per molto tempo, soprattutto a causa della relativa difficoltà nel fare corretti flat field, si è diffusa la versione astrofotografica della classica leggenda della volpe e dell’uva: fare dei buoni flat è difficile, quindi non sono poi così necessari. Basta saper usare Photoshop o PixInsight e tutto si risolve con dei bellissimi flat sintetici. Questa è una cosa orribile da dire e persino da pensare: toglietevi dalla testa di poter fare a meno dei flat field e di poterli creare con qualche programma di elaborazione. Nessun osservatorio professionale e nessun astrofotografo di alto livello fanno una cosa del genere e un motivo c’è. I flat field sono infatti fondamentali per ottenere immagini scientificamente accurate ma anche godibili dal punto di vista estetico, soprattutto per soggetti deboli. Chi non riesce ad apprezzarli, magari suggerendo di farli sintetici con qualche programma, non ha mai visto un buon flat field e il vero e proprio miracolo che può fare alle nostre immagini. Su questo punto, quindi, non si discute: sia che voi siate astrofotografi con ambizioni altissime o appassionati della domenica che scattano con un astroinseguitore e qualche malandato obiettivo fotografico ogni morte di Papa, i flat field sono l’unico vero strumento che può  trasformare ogni vostra foto in un potenziale capolavoro: non c’è elaborazione successiva che possa sostituirli.

Ecco allora la seconda regola: tutti coloro che fanno riprese del cielo profondo dovrebbero imparare a riprendere i flat field e usarli per correggere le proprie immagini. Per tutti si intende sia chi usa un telescopio che chi si accontenta di un obiettivo a grande campo.

 

I flat field eliminano tutti i gradienti di luce dovuti alla strumentazione usata. Non eliminano i gradienti presenti nel cielo ma cancellano polvere e vignettatura, e questa è un grandissimo aiuto per tutti i soggetti molto deboli.

I flat field eliminano tutti i gradienti di luce dovuti alla strumentazione usata. Non eliminano i gradienti presenti nel cielo ma cancellano polvere e vignettatura, e questa è un grandissimo aiuto per tutti i soggetti molto deboli. A sinistra un’immagine senza calibrazione con master flat field. A destra la stessa immagine calibrata: i dettagli sono molto più evidenti e il gradiente di luce con simmetria circolare è completamente sparito.

 

Un flat ti salva la vita: quando gli oggetti sono deboli, il campo pieno di polvere e il telescoio vignetta che è una bellezza, solo un buon flat field può salvare la nostra serata e mostrarci dettagli sull'oggetto catturato che non credevamo possibili. A inistra una situazione in apparenza compromessa. A destra la stessa immagine dopo la correzione con un buon flat field. Una trasformazione del genere non sarebbe  mai stata possibile a posteriori con nessun programma di elaborazione. Se pensate che una situazione del genere sia un'eccezione vi sbagliate. Anche se non ve ne accorgete, ogni immagine nasconde schifezze del genere che devono e possono essere corrette solo con un buon flat field.

Un flat ti salva la vita: quando gli oggetti sono deboli, il campo pieno di polvere e il telescoio vignetta che è una bellezza, solo un buon flat field può salvare la nostra serata e mostrarci dettagli sull’oggetto catturato che non credevamo possibili. A inistra una situazione in apparenza compromessa. A destra la stessa immagine dopo la correzione con un buon flat field. Una trasformazione del genere non sarebbe mai stata possibile a posteriori con nessun programma di elaborazione. Se pensate che una situazione del genere sia un’eccezione vi sbagliate. Anche se non ve ne accorgete, ogni immagine nasconde schifezze del genere che devono e possono essere corrette solo con un buon flat field.

 

Come fare un buon flat field

La nostra terza regola è semplice, ma richiederà diverse spiegazioni: un flat field è un’immagine di una sorgente uniformemente illuminata, priva di stelle, effettuata alla giusta esposizione, con il medesimo setup utilizzato per riprendere l’immagine che vogliamo correggere.

In questa frase si nascondono tutte le difficoltà nel riprendere un corretto flat field. Per non creare dispersione con parole superflue, vediamo le tappe fondamentali da seguire e i concetti da fissare bene in mente:

  • Un flat field è di fatto una particolare immagine di luce. E cosa abbiamo imparato dalla fotografia astronomica? Che in generale una buona foto è la media di diversi scatti che consentono di ridurre il rumore e che a questi scatti bisogna sottrarre il dark frame. Ecco allora la quarta regola: un buon flat field si ottiene dalla media di almeno una ventina di singoli scatti, tutti uguali, a cui poi sottraiamo il relativo master dark frame, ottenuto dalla mediana di almeno 5-7 scatti. In pratica bisogna trattare i flat field come se fossero una sessione (particolare) di fotografia astronomica. Al limite, soprattutto se usiamo una reflex, possiamo sostituire i dark frame con i bias frame: l’importante è che i singoli scatti di flat siano calibrati o con i dark o con i bias. Una volta eseguite queste operazioni possiamo mediare i flat calibrati, senza effettuare alcun allineamento, e si costruisce il nostro bellissimo master flat field. Molti software generano il master flat field in modo autoatico prima di calibrare i frame di luce, quindi di questa operazione possiamo non farci carico noi, a meno che non vogliamo avere il pieno controllo su quello che accade (e non è una cattiva idea questa!);
  • Il master flat field viene normalizzato al valore medio di ADU pari a 1 e poi diviso dall’immagine che vogliamo correggere. Questa operazione viene fatta dal software che si utilizza e noi non dobbiamo preoccuparcene più di tanto perché, se tutto è stato fatto nel modo giusto, l’immagine corretta presenterà un fondo cielo privo di vignettatura e di zone più chiare o scure dovute a polvere o sporcizia. Tutto molto semplice, vero? Abbiamo già finito, siamo tutti contenti… Non proprio.
A sinistra un singolo frame di flat field ben eseguito. A destra la media di 35 singoli scatti. Soffriamo già molto per far uscire un minimo di segnale dai soggetti astronomici con ore e ore di posa, non roviniamo tutto con dei flat non buoni: mediamo molti scatti per non aggiungere rumore.

A sinistra un singolo frame di flat field ben eseguito. A destra la media di 35 singoli scatti. Soffriamo già molto per far uscire un minimo di segnale dai soggetti astronomici con ore e ore di posa, non roviniamo tutto con dei flat non buoni: mediamo molti scatti per non aggiungere rumore.

Se siete stati infatti ben attenti, non vi ho detto come fare nella pratica un buon flat field: è questo il punto più delicato. Ecco allora qualche spunto per non dover diventare matti:

  • Flat box o generatori di flat field: sono una delle più grandi novità dell’astrofotografia dopo la maschera di bahtninov, un’idea semplice ma che ha rivoluzionato il modo di fare i flat field. Si tratta di speciali tappi da applicare all’obiettivo del telescopio, con dei led all’interno che illuminano una superficie semitrasparente che ne
    Generatore di flat field d aporre di fronte l'obiettivo del telescopio e con luce regolabile in intensità

    Generatore di flat field d aporre di fronte l’obiettivo del telescopio e con luce regolabile in intensità

    diffonde la luce in modo uniforme. Sono molto semplici e comodi da usare, non richiedono una lampada esterna, una superficie illuminata e neanche di spostare il telescopio, così possiamo fare i flat field tra un filtro e un altro senza perdere il puntamento;

  • Fogli o magliette bianche: sono i metodi storici, decisamente meno comodi delle flat box, e vanno bene per tutti gli strumenti, sebbene siano più indicati per diametri superiori ai 15 cm, per i quali costruire (o comprare) una flat box può essere dispendioso. In questi casi ci si arrangia: si pone di fronte al telescopio un foglio da disegno o un semplice A4 (dipende dalla larghezza dell’obiettivo), bloccandolo con una punta di nastro adesivo. Ci si assicura che l’obiettivo non sia ostruito dal nastro e che il foglio sia ben in tensione, poi si pensa alla fonte di luce: una normale lampada a LED, persino il flash della fotocamera del proprio cellulare, ad almeno a un metro di distanza e sistemata da qualche parte in modo stabile (ad esempio su un piccolo treppiede, su un muro, sul tetto della macchina…). È fondamentale che il fascio di luce sia perpendicolare al foglio che copre il telescopio per assicurare un’illuminazione omogenea: sarà quindi necessario portare il tubo ottico parallelo al terreno. Si può sostituire, soprattutto in caso di emergenza, il foglio da disegno con una maglia bianca, ancorata al tubo con abbondante nastro adesivo per assicurare che sia ben tesa e che non presenti pieghe di fronte all’apertura del telescopio.

 

Il tempo di esposizione

Eccoci arrivati alla questione più importante di tutte, all’operazione che se non è fatta bene può rovinare tutto quello che è stato eseguito fino a questo momento, compresi gli scatti che vogliamo calibrare con i nostri flat field. Trovare il giusto tempo di esposizione per i flat field sembra quasi un’oscura arte, ma con un po’ di nozioni sui sensori digitali e le loro proprietà possiamo fare chiarezza una volta per tutte.

Intanto iniziamo subito con il dare informazioni sulla durata minima degli scatti, che è determinata dalla velocità degli otturatori. Una buona regola empirica ci dice che il tempo sotto il quale non bisogna mai scendere è pari a circa 100 volte quello minimo che è possibile scattare. Questo accorgimento evita di riprendere di fatto l’immagine dell’otturatore che libera prima una parte del campo e poi l’altra, falsando i nostri flat field (l’otturatore non può sparire all’istante!). Per le reflex, capaci di scatti di 1/4000 di secondo, possiamo usare scatti da 1/40 di secondo in su. Per le camere CCD astronomiche dotate di otturatore meccanico parliamo di almeno 4-5 secondi. Per le camere digitali non dotate di otturatore è meglio stare almeno tra i 5 e i 6 secondi. Possiamo aumentare quanto vogliamo l’esposizione ma non dovremo mai andare sotto questi valori.

L’altro fattore che ci permette di scegliere il giusto tempo di esposizione, e/o la potenza della luce, o la distanza della lampada, è rappresentato dalla dinamica del sensore digitale e su questo punto si sono narrate le più disparate leggende, spesso con molte imprecisioni.

Per chi fosse interessato, nel prossimo paragrafo ci sarà qualche spiegazione tecnica in più. Al momento, infatti, ci interessa il lato pratico e in questi casi la regola aurea è semplice: un buon flat field deve avere la luminosità di picco più alta possibile prima di uscire dall’intervallo di linearità del proprio sensore.

Il pregio di ogni sensore digitale, infatti, è di avere una risposta lineare, ovvero l’intensità del segnale è direttamente proporzionale alla luminosità reale della sorgente o, in alternativa, al tempo di esposizione. Così, se per un’esposizione di 5 secondi ho un segnale di luminosità pari a 5000 ADU, raddoppiando l’esposizione avrò un segnale di 10 mila ADU, esattamente il doppio. Analogamente, se raddoppio la luminosità della sorgente, a parità di tempo di esposizione, dovrò avere il doppio del segnale. In un mondo ideale tutti i sensori digitali sono perfettamente lineari fino a quasi i livelli di saturazione del contatore analogico-digitale (65535 ADU per contatori a 16 bit), ma nel nostro imperfetto mondo amatoriale non è così ed è qui che sorgono i problemi: se infatti i flat field non sono fatti nello stesso intervallo di linearità delle immagini che vogliamo correggerem non avremo mai una calibrazione perfetta. Questo inciderà, poi, sui dettagli visibili e sulla qualità generale delle immagini.

Dopo aver fatto lustri di esperienza con i più disparati sensori digitali, ecco le mie indicazioni:

  • Se disponete di una camera CCD (o CMOS) con la porta antiblooming e contatore analogico-digitale a 16 bit, un buon flat field dovrebbe avere luminosità di picco attorno agli 8-9000 ADU. Solo nel caso in cui il fondo cielo delle immagini da correggere oltrepassi questi valori (ma allora avremo sbagliato i tempi di esposizione) si possono ottenere flat field la cui luminosità media (questa volta MEDIA, non di picco) abbia valori più simili possibile al fondo cielo delle immagini da calibrare. Se preferiamo visualizzare l’istogramma invece dei numeri, allora nel primo caso, con il fondo cielo delle immagini da correggere basso, un buon flat si ottiene con l’istogramma a circa 1/6 della scala massima;
  • Se disponete di una camera CCD senza porta antiblooming, quindi di grado scientifico, le cose sono molto semplici: un buon flat field si ottiene con un’esposizione che permette di arrivare a una luminosità di picco pari a circa la metà della luminosità massima consentita, meglio se un poco meno. Per convertitori analogico-digitali a 16 bit questo significa avere picchi di luminosità tra i 25 mila e i 30 mila ADU. Per gli amanti dell’istogramma, il picco dovrebbe stare circa a metà;
  • Per le reflex digitali varrebbe il punto 1) ma a causa del contatore a 14 bit i valori sono tutti scalati e non sempre di facile lettura perché molti software poi convertono la luminosità in scala a 16 bit. Per tagliare la testa al toro, quindi, meglio guardare l’istogramma, che dovrebbe stare a circa 1/3 della scala massima. Si tratta di valori leggermente superiori rispetto al caso 1) perché bisogna fare i conti anche con il rumore di questi sensori: avere flat troppo deboli potrebbe causare più problemi che altro. In questo caso gli scatti dovrebbero essere fatti a ISO bassi (non bisogna scattare alla stessa sensibilità dei frame da correggere, per i flat non serve, anzi, è deleterio perché introdurrebbe rumore) e in modo automatico, facendo scegliere alla fotocamera l’esposizione corretta, magari dicendole di sottoesporre di 1 stop. Se si usano obiettivi o teleobiettivi, il diaframma, invece, deve essere lo stesso usato per fare le foto che si vogliono calibrare. Anche in questi casi, se si è fatto l’errore di fare riprese astronomiche con un fondo cielo molto luminoso, i flat field dovrebbero avere un istogramma il cui picco cada nella stessa zona di luminosità.

È molto importante, una volta trovata l’esposizione giusta, a prescindere dal sensore usato, raccogliere almeno una ventina di flat field, meglio se sono 30: più ne medieremo e migliore sarà il risultato finale.

Queste sono indicazioni generali che vanno bene per tutti i casi. Ciò non toglie che ognuno di noi possa sperimentare: cosa succede ad esempio, se eseguo due set di flat identici, uno con la giusta esposizione e un altro invece con l’istogramma a 2/3 della scala? Funzionano lo stesso? Potrebbe essere, perché tutto dipende dalle proprietà del proprio sensore digitale. I valori dati, quindi, vanno bene in generale sempre, ma non è detto che siano gli unici possibili.  Se vogliamo andare nel dettaglio e capire meglio la storia della giusta esposizione dei flat field, dobbiamo comprendere meglio come funziona un sensore digitale e la sua elettronica.

 

 ADU e full well capacity: andiamo un po’ più a fondo

Ogni sensore digitale cattura la luce attraverso l’effetto fotoelettrico, descritto in modo completo per la prima volta da Albert Einstein nei primi del ‘900 (e che gli valse il premio Nobel). In pratica, per certi materiali, come il silicio, la luce visibile che li colpisce riesce a strappare un numero di elettroni dal reticolo cristallino proporzionale all’intensità della sorgente. Applicando una differenza di potenziale agli estremi del materiale, gli elettroni strappati via vengono fatti fluire ai lati, quindi raccolti, conteggiati e trasformati in segnali luminosi digitali, grazie al contatore analogico-digitale.

 

Ogni pixel di un sensore ha un numero finito di elettroni che può catturare. Quando il contenitore si riempie si arriva alla saturazione. Il numero di elettroni che può contenere un pixel è chiamato Full Well Capacity. L’elettronica del CCD trasforma il numero di elettroni in livelli di luminosità. Per i sensori astronomici i livelli di luminosità disponibili sono in generale 65536, pari a 16 bit. Un’elettronica fatta bene dovrebbe allora riempire questi livelli in modo tale che alla luminosità 0 corrisponda un pixel senza elettroni raccolti e al valore 65535 il massimo numero di elettroni che il pixel contiene. In questo modo si ha la massima efficienza nel convertire la full well capacity in dinamica reale dell’immagine.

Per fare questa operazione in modo adeguato, l’elettronica si serve di quello che viene chiamato guadagno. Si tratta di un coefficiente moltiplicativo da applicare al numero di elettroni raccolti, il cui meccanismo è molto semplice da comprendere. Supponiamo di avere un sensore con full well capacity di ogni pixel pari a 100 mila elettroni, e supponiamo di voler distribuire al meglio tutta questa dinamica nei 65536 livelli di grigio disponibili in un convertitore a 16 bit. Affinché si sfrutti al meglio questo contenitore, occorrerà stipare 100 mila elettroni in 65536 livelli di luminosità, ovvero assegnare a ogni livello di luminosità 1,5 elettroni. Questo è il guadagno: il numero di elettroni necessari per far conteggiare un livello di luminosità al contatore analogico digitale. In un mondo ideale, quindi, parlare di full well capacity in termini di elettroni o di livelli di luminosità è uguale.

In un mondo reale le cose non stanno così perché il guadagno di un sensore non è mai impostato in modo così preciso da far coincidere la saturazione reale dei pixel con quella del contatore analogico-digitale. Di solito si tiene un po’ di margine, assicurandosi che la saturazione reale avvenga prima di quella del contatore. Di conseguenza, per molte camere CCD già verso i 50 mila ADU si ha di fatto la saturazione ma i valori possono cambiare di molto da modello a modello. In questi termini, parlare di ADU come il discriminante per un buon flat field è, a voler essere pignoli, un po’ approssimativo. Quando ad esempio ho detto che per camere senza antiblooming si dovrebbe arrivare a circa metà della dinamica, ci si dovrebbe riferire alla dinamica reale, ovvero al numero di elettroni e non al corrispettivo ADU, perché ci sono camere CCD che a 50 mila ADU presentano già saturazione e altre che lo fanno a 60 mila: in questi casi qual è il valore da prendere come riferimento per avere un flat field, esposto alla vera metà della dinamica? In realtà questa è una questione di “lana caprina” perché le differenze tra i CCD amatoriali non sono così grosse e delicate da rendere necessario l’uso poco pratico della dinamica reale in termini di elettroni e di fare poi la conversione attraverso il guadagno per capire a quanti ADU corrisponde il giusto intervallo.

Se siamo perfezionisti, tuttavia, un buon consiglio è di effettuare un test di linearità del nostro sensore. In questo modo, lavorando in ADU, possiamo vedere dove si verifica la reale saturazione e capire anche qual è la massima luminosità da poter utilizzare per i nostri flat field prima che la risposta cominci a diventare non lineare. Ecco quindi giustificati i valori dati in precedenza, un po’ conservativi e definiti indicativi per ottenere un buon flat field. Ecco, inoltre, giustificato il senso di un mio precedente post in cui si parlava di test di linearità e si arrivava a definire i valori ottimali per fare i flat field, che guardacaso corrispondono a quelli menzionati in questo caso e presi come universali.

CCD, CMOS, CMOS retroilluminati: a che punto siamo?

Agli inizi degli anni ’90/fine anni ’80 sono comparse le prime ccd sul mercato (SBIG, etc), caratterizzate da sensori microscopici (conservo una bellissima Meade Pictor 416XT da ben 768×512 pixel, rigorosamente rettangolari), è iniziata la lenta rivoluzione per l’astronomia amatoriale, che ha portato la schiera degli astrofotografi ad ampliarsi moltissimo rispetto a 20 anni fa, oltre a consentire anche l’inizio delle possibilità di ricerche ad utilità scientifica dal giardino di casa.

All’inizio, come per tutte le nuove tecnologie, le CCD erano estremamente costose, ma poi piano piano, le dinamiche della produzione su scala industriale e vendita globale, hanno portato il costo ad un livello accessibile a molti.

Poi verso l’inizio degli anni ’10 hanno iniziato a diffondersi i sensori CMOS di medio formato sulle DSLR (prima erano presenti nelle webcam, ovviamente in risoluzioni basse, ricordate la Toucam?) e qui è iniziata la prima rivoluzione dopo il CCD, consentendo di impiegare con profitto le DSLR in astrofotografia. Un solo nome: Canon EOS 350D, una camera che ha segnato la storia della nostra passione. Però i CMOS erano caratterizzati da un discreto rumore, a differenza dei CCD. Ricordate quanti progetti per raffreddare le prime webcam modificate le reflex?  Nel frattempo i CCD hanno continuato il loro sviluppo, portando, ad oggi, la diffusione di un sensore in tantissimi modelli di diverse marche: il KAF-8300, che è stato il primo sensore CCD con una discreta risoluzione ad un costo accessibile.

Da pochi mesi hanno iniziato a comparire, nel mercato astronomico (prima hanno sempre fatto la loro comparsa in quello fotografico) i CMOS retroilluminati. Questa tipologia di sensori va ad equipaggiare alcuni modelli di camere raffreddate della ASI e della QHY. La caratteristica che sale subito all’occhio è il prezzo molto molto competitivo rispetto ad una risoluzione equivalente, ma CCD.

La domanda è: ne vale la pena di spendere per un CMOS retroilluminato, rispetto ad un CCD?

Prima andiamo a fare un piccolo riassuntino veloce veloce delle caratteristiche tecnico/costruttive di queste 3 tipologie di sensori.

Premesso che TUTTI i sensori hanno come elemento base e comune il fotodiodo (l’elemento sensibile che genera la carica elettrica quando colpito da un fotone), ecco le differenze principali.

CCD: è conoscenza diffusa che ha un basso rumore, questo perchè da quando il fotodiodo genera la carica elettrica, passa attraverso pochi nodi nel sensore, prima di arrivare al convertitore analogico/digitale che trasforma il segnale da analogico a, per l’appunto, digitale. Qui tutti i fotodiodi sono dedicati alla lettura della luce e l’uniformità del segnale generato è molto alta, per questo la qualità d’immagine è molto alta, con un basso rumore.

CMOS: qui ogni fotodiodo è accompagnato da un convertitore, che trasforma l’energia luminosa ricevuta da ogni fotodiodo in carica elettrica. Ma nel mezzo ci sono anche amplificatori di segnale, riduttori di rumore e circuiti di digitalizzazione che fanno uscire un segnale digitale dal sensore e non analogico come nei ccd. Il fatto che ogni fotodiodo genera una conversione porta ad avere una mancanza di uniformità nel segnale per ragioni prettamente statistiche, dato che la ripetibilità esatta di un’operazione non è mai standard al 100% (pensate a quanti pixel ci sono in un sensore..). Però il consumo di corrente è più basso rispetto ai ccd e..la produzione in scala industriale, unito al continuo sviluppo, ha portato ai risultati qualitativi che tutti oggi vediamo.

CMOS Retroilluminato: tralasciando il ccd retroilluminato che non ha importanza rilevante nella fascia consumer di riferimento per l’astrofilo, questi sensori sono l’evoluzione dei precedenti CMOS e secondo me sono il futuro per l’imaging estetico in astrofotografia.

Potete osservare come nei CMOS tradizionali  i fotodiodi siano sotto la circuiteria, mentre nei retroilluminati è posta sopra.

cmos vs cmos retroilluminato

Come l’illustrazione raffigura in modo, secondo me, efficace, nei CMOS tradizionali la circuiteria funge da diaframma, disperdendo una parte del segnale entrante. Nei CMOS retroilluminati, invece, la circuiteria è posta sotto i fotodiodi (lo stesso concetto si applica anche ai CCD retroilluminati).

Il risultato? nelle caratteristiche di molti sensori CMOS retroilluminati della Sony che equipaggiano camere ASI e QHY vediamo una Q.E. tra il 70% e l’80%. E’ un valore MOLTO alto per uno standard CMOS! Certo, le microlenti aiutano (ma anche il KAF 8300 le usa..), ma se incrociate Q.E., megapixel e costo della camera raffreddata….siamo tranquillamente al 50% del prezzo di una camera equipaggiata con sensore CCD di ultima generazione con risoluzione e Q.E. simile.

Ma come vanno le camere con CMOS retroilluminato rispetto alle CCD di ultima generazione?

Io inizierei a parlare nell’ambito Sony. Ho preso 2 dark di riferimento, da 5 minuti, eseguiti con una Atik 428ex ed una Asi 178MMC, entrambe con il TEC al 100%.

L’Atik 428ex è equipaggiata con un Sony ICX694 che ha una Q.E. di circa il 76% a 550nm. (link)

La Asi 178MMC invece monta un Sony IMX174, retroilluminato, che ha una Q.E. stimata intorno al 70-75% a 550nm.

I dark li vedete così come li apre nebulosity e poi una versione con un po’ di stretch, in modo da tirar fuori il rumore sottostante.

 

Atik 428ex

428ex_5m         428ex_5m_stretch

 

Asi 178MMC

178mmc_5m        178mmc_5m_stretc

Potete notare, nelle versioni con i livelli compressi, come il sensore CMOS retroilluminato abbia un rumore di fondo molto superiore rispetto al CCD. Però ci sono 800€ di differenza tra una camera e l’altra, oltre a qualche mpx di risoluzione. Tralascio la questione dimensione dei pixel.

Ok, il CMOS retroilluminato è più rumoroso e si sapeva, ma che succede se calibro l’immagine, come devo fare con qualsiasi CCD?

Ecco un jpg di M27 in OIII, calibrato con dark e bias e tirato solamente nei livelli al limite del rumore.

oiii_calibrato

Come potete notare il risultato è assolutamente apprezzabile, tenuto conto che la ripresa è stata fatta dal centro città, in ottobre, con il soggetto basso.

Il segnale del sensore CCD è ancora indiscutibilmente superiore, però calibrando le immagini, per fini di imaging estetico, a mio avviso i sensori CMOS retroilluminati sono una scelta fantastica per chi vuole una camera di ripresa raffreddata a basso costo e potersi divertire senza spendere una cifra.

I prezzi delle 2 camere: 1770€ per la Atik 428ex e 918€ per la ASI 178MMC.

In preparazione il test della ASI 178MMC, lo troverete sempre sul nostro blog!

Come osservare e fotografare pianeti e stelle di giorno

L’astronomia amatoriale è una disciplina affascinante, che ci permette di organizzare viaggi indimenticabili pur rimanendo ben saldi a terra. Possiamo scegliere di scorrazzare tra i pianeti, disegnare i crateri della Luna, oppure possiamo cercare di fare foto o addirittura attività di ricerca che di solito conducono gli astronomi professionisti. Insomma, tra tutte le scienze, e probabilmente tra molte altre attività che potremo mai fare, l’astronomia rappresenta l’emblema della libertà più assoluta, anche perché abbiamo a disposizione miliardi di anni luce di Universo da percorrere a una velocità ben superiore a quella della luce, muovendo semplicemente il nostro telescopio.

L’astronomia pratica, tuttavia, ha un grosso problema, banale quanto fastidioso, soprattutto nelle fredde serate invernali: può essere fatta solo di notte. Di giorno, con l’ingombrante presenza del Sole, possiamo sperare di osservare e fotografare solo lui, il nostro enorme faro cosmico, con strumenti e accorgimenti particolari: un po’ poco, soprattutto conoscendo la bellezza e la vastità che presenti oltre la sua accecante luce. La domanda, allora, può venir spontanea, sebbene in apparenza ingenua: possiamo fare osservazioni e fotografie anche di giorno? Certo: possiamo osservare con un radiotelescopio potente, che non teme neanche le nuvole, oppure inviare nello spazio il nostro setup a far concorrenza al telescopio spaziale Hubble e il problema sarebbe risolto. Facile, no?

In realtà, senza scomodare accorgimenti che oggi suonano come pura fantascienza, si può fare un po’ di astronomia anche di giorno, al di là del Sole. Se la nostra passione sono i pianeti, le foto in alta risoluzione o semplicemente avere nuove sfide da vincere, l’astronomia di giorno diventa un’importante risorsa che potrà farci divertire e ottenere ottimi risultati.

Per convincervi che la mia precedente frase non è il classico delirio che si presenta prima o poi a ogni astrofilo che deve sopportare un interminabile periodo di meteo indecente, cominciamo a chiederci: cos’è che impedisce di vedere le stelle di giorno?La risposta è istintiva: il Sole! Ma siamo sicuri? Perché tutti i telescopi spaziali possono osservare il cielo anche con il Sole sopra l’orizzonte? La luce solare è una condizione necessaria ma non sufficiente a nascondere le stelle di giorno, tanto che nello spazio il cielo appare nero come la pece e si possono vedere le stelle anche con il Sole. La responsabile ultima è la nostra atmosfera: l’aria che respiriamo non è perfettamente trasparente ma intercetta una piccola parte della luce solare e la riflette poi in ogni direzione. Questo fenomeno, conosciuto come diffusione, è il responsabile del nostro cielo chiaro di giorno: le stelle non si vedono a causa dell’enorme inquinamento luminoso prodotto dal Sole, che viene diffuso dalla nostra atmosfera e rende il cielo molto brillante.

Ora possiamo fare un altro passo allora, chiedendoci: c’è modo, restando qui sulla Terra, e senza usare un radiotelescopio, di osservare il cielo di giorno? La risposta è sì, ma in realtà la domanda non è ancora necessaria, perché ci sono già alcuni corpi celesti che possiamo osservare di giorno, anche se a occhio nudo crediamo di non vederli. Prima però, proprio come in un film, mi piace creare un po’ di suspance andando a indagare meglio le ragioni per cui dovremo tirare fuori il telescopio anche di giorno (per la felicità di mogli, compagne, figli e datori di lavoro).

 

Perché fare foto di giorno

In realtà fare osservazioni di giorno, al di là del Sole, ha molti risvolti interessanti, che voglio riassumere in pochi e sintetici punti, per andare poi al nocciolo della questione:

  • Per sfida personale;
  • Per il gusto di trovare oggetti che erroneamente reputavamo invisibili con la luce del giorno;
  • Perché non abbiamo tempo di notte, o fuori fa freddo quando non c’è il Sole;
  • Perché alcuni soggetti danno il meglio di sé, sia in fotografia che in osservazione, di giorno. Mercurio e Venere si osservano e fotografano molto meglio quando sono alti sull’orizzonte rispetto al crepuscolo. La Luna in fase ridotta, che mostra regioni spettacolari come il Mare Crisium, si può osservare e fotografare con soddisfazione solo quando è a poche decine di gradi dal Sole, quindi di giorno, se non vogliamo essere distrutti dalla turbolenza atmosferica alle basse altezze sull’orizzonte, come accade anche per Mercurio e Venere;
  • Alcuni fenomeni, come occultazioni, congiunzioni, eclissi dei satelliti di Giove, non sempre capitano di notte: vogliamo farci fermare allora da un po’ di luce solare?
  • Chi monitora i pianeti ha necessità di riprenderli e/o osservarli per più tempo possibile, quindi anche di giorno, soprattutto quando la loro separazione è inferiore ai 40° dalla nostra Stella. In queste condizioni, inoltre, i professionisti non possono osservare e molti amatori si dirigono verso altri soggetti. E’ proprio qui che la probabilità di scoprire qualche fenomeno particolare aumenta di molto: una nuova tempesta di sabbia su Marte, una mega tempesta su Saturno, una gigantesca nube di ammoniaca che fa sparire un’intera banda equatoriale di Giove… Sappiamo infatti che la legge di Murphy è impietosa: se qualcosa di spettacolare deve succedere nel cielo, lo farà di certo di giorno. E noi, allora, la aggiriamo osservando anche quando nessuno pensa che si possa fare!
  • Sempre per la legge di Murphy, se una grande cometa, con una magnitudine di -7. si rendesse visibile a 15-20 gradi dall’orizzonte e in una posizione dell’eclittica che rendesse impossibile osservarla dal nostro emisfero (in pratica tutte le grandi comete degli ultimi 19 anni!) l’alternativa sarebbe volare in Australia o fare fotografie di giorno. E noi le faremo (anche se un viaggio in Australia è senza dubbio più interessante)!

Insomma, oltre al lato ludico/personale c’è un’oggettiva prospettiva scientifica, che interessa di sicuro gli osservatori e gli astroimager più esperti: osservare di giorno, visto che la nostra tecnologia lo consente, è di certo qualcosa da provare prima o poi, anche se con le dovute precauzioni.

Perché osservare e fotografare di giorno? Ecco un motivo: occultazione Luna-Venere del 16 giugno 2007 alle ore 15 locali. Se avessimo aspettato il calar del Sole ce la saremmo persa!

Perché osservare e fotografare di giorno? Ecco un motivo: occultazione Luna-Venere del 16 giugno 2007 alle ore 15 locali. Se avessimo aspettato il calar del Sole ce la saremmo persa!

 

Luna e Venere, sempre presenti a occhio nudo

A molti sarà di sicuro già capitato di osservare la Luna a occhio nudo, anche di giorno, senza particolari difficoltà. In effetti il nostro satellite si può vedere fino a poche decine di gradi di distanza dal Sole. Osservato al telescopio, soprattutto nelle giornate molto limpide, si mostra già interessante e ricco di particolari.

C’è però un altro corpo celeste che è visibile senza ausilio ottico, in pieno giorno: Venere. Il fatto che non l’abbiamo mai visto non è un indicatore affidabile sulla sua reale osservabilità. Con una magnitudine media di circa -4.5, in effetti, Venere è l’unico oggetto di apparenza stellare che può essere visto a occhio nudo di giorno, a patto che sia ad almeno 20° di distanza dal Sole. Un cielo limpido, che si mostra con una marcata tonalità azzurra, aiuta molto nell’impresa di scovare il pianeta a occhio nudo, ma in realtà la parte più difficile dell’impresa coinvolge il nostro sistema di interpretazione delle immagini, ovvero il cervello. Trovare un punto luminoso su uno sfondo brillante e circa uniforme è un’operazione che il nostro occhio, a livello ottico, è perfettamente in grado di fare, ma il nostro computer biologico fatica a elaborare nella maniera corretta i dati. Il risultato è spesso sorprendente: se non sappiamo bene dove guardare potremmo cercare il pianeta di giorno per ore senza vederlo. Se invece sappiamo dove dirigere il nostro sguardo, con un errore di circa 1-2° al massimo, allora il pianeta diventa evidente perché è sempre piuttosto contrastato rispetto al fondo cielo. All’improvviso, dopo tanto cercare, ci apparirà in quella spessa coperta azzurra un piccolo buco da cui filtra la luce puntiforme del pianeta a noi più vicino:“Come ho fatto a non vederlo prima?” E’ sempre questa la domanda che ci si pone con estrema sorpresa e molta soddisfazione per aver visto una “stella” nel cielo illuminato dal Sole. Per identificarlo con meno difficoltà è sempre opportuno nascondere il Sole dietro un ostacolo naturale o artificiale (una collina, degli alberi, una casa…) e scandagliare bene la zona di cielo in cui dovrebbe trovarsi (aiutiamoci con un software planetario).

Venere di giorno si può rintracciare con facilità anche a occhio nudo, se sappiamo bene dove guardare. Riuscite a trovarlo in questa foto scattata con un cellulare?

Venere di giorno si può rintracciare con facilità anche a occhio nudo, se sappiamo bene dove guardare. Riuscite a trovarlo in questa foto scattata con un cellulare?

Al telescopio, Venere, osservato di giorno, dà il meglio di sé, per due motivi:

  • Possiamo ammirarlo quando è molto alto sull’orizzonte, senza aspettare il tramonto o l’alba, quindi, se abbiamo l’accortezza di nascondere il Sole dietro un ostacolo naturale ed evitare che scaldi il tubo ottico, la turbolenza sarà sempre minore e la visione più dettagliata;
  • Il pianeta è molto luminoso. Se lo puntiamo con il cielo già scuro del crepuscolo, la sua luminosità inganna l’esposimetro del nostro sistema visivo, che ce lo mostrerà sempre troppo brillante, come se fosse una fotografia “bruciata”. Il risultato? Perdita di ogni tipo di dettaglio e un certo fastidio nella visione. Di giorno, invece, grazie al contrasto molto più basso tra il fondo cielo e Venere, il cervello applica la giusta esposizione e il pianeta non è mai sovraesposto. L’osservazione è molto più rilassante e spettacolare, perché potremo scorgere con relativa facilità alcune sfumature nella spessa atmosfera venusiana, anche senza l’uso di filtri colorati o grossi strumenti. Personalmente tutte le migliori osservazioni e fotografie di Venere le ho fatte di giorno, tra le 12 e le 16 locali.
Venere mostra molti dettagli, sia in visuale che, soprattutto, in fotografia. Il segreto? Osservare di giorno, quando il pianeta è alto nel cielo.

Venere mostra molti dettagli, sia in visuale che, soprattutto, in fotografia. Il segreto? Osservare di giorno, quando il pianeta è alto nel cielo.

 

Mercurio e oltre: a volte meglio di giorno, ma solo per i più esperti

Quanto scriverò da questo punto in poi prevede delle operazioni delicate, soprattutto per il puntamento, che devono essere fatte solo da persone ormai esperte di osservazioni e fotografia. La tecnica, infatti, spesso implica di fare un salto prima sul Sole, con tutti i rischi che ne conseguono se non si usa un filtro solare e molta attenzione. Leggere quindi bene quanto segue, se vogliamo proseguire con il nostro tour del cielo diurno.

 

Purtroppo a occhio nudo il gioco è già finito: il giro turistico del Cosmo termina con l’emozione e la sfida di trovare Venere, ma con un telescopio possiamo esplorare l’invisibile e fare altre spettacolari osservazioni.

Le particolari condizioni in cui si presenta Venere, ovvero un pianeta che non si allontana mai dal Sole per più di poche decine di gradi, sono ancora più esasperate per Mercurio. Per il più piccolo pianeta del Sistema Solare non abbiamo molta scelta: le osservazioni di giorno sono le UNICHE che danno qualche soddisfazione. E’ inutile cercare di fare i testardi e aspettare anni per trovare un buon seeing e trasparenza all’alba o al tramonto, con il Sole sotto l’orizzonte e il pianeta ben visibile a occhio nudo: non avremo mai una visione nitida come di giorno. Questo vale ancora di più se l’obiettivo è fare foto.

Mercurio di giorno mostra tenui chiaroscuri che non vedremo mai al crepuscolo

Mercurio di giorno mostra tenui chiaroscuri che non vedremo mai al crepuscolo

Più facile e spettacolare di Mercurio, Marte è un altro soggetto ghiotto per fare osservazioni. Quando la sua separazione è maggiore di 60° dal Sole, il pianeta rosso ha ancora una discreta luminosità e diametro angolare per mostrare dettagli. Grazie alla sua colorazione rossastra, che contrasta in modo netto con l’azzurro del cielo, marte_giornol’osservazione di Marte di giorno può essere spettacolare, soprattutto quando il Sole si sta avviando verso il tramonto (o poco dopo l’alba). In un certo senso, per chi non è abituato a osservare i pianeti, l’esperienza diurna migliora la visione perché diminuisce i contrasti e impedisce, proprio come accade per Venere, di avere un’immagine troppo luminosa, quindi sovraesposta e povera di particolari. Il rapido tempo di esposizione del nostro occhio, inoltre, ha anche il potere di congelare il seeing molto meglio rispetto a quanto accade di notte, con la visione notturna e un tempo di esposizione che viene incrementato automaticamente dal nostro cervello. In un certo senso ed entro determinati limiti, di giorno la visione migliora anche a seguito di questo fenomeno, lo stesso per cui gli astroimager planetari tendono a fare esposizioni più brevi possibili per congelare il seeing.

Con Giove iniziamo invece ad avere qualche difficoltà. Visibile solo oltre i 45° di elongazione, si presenta spesso come un disco quasi trasparente, ma ricco comunque di contrasti, anche se non riusciremo a vedere i più minuti dettagli della sua atmosfera. Meglio non esagerare con gli ingrandimenti, almeno all’inizio, per non perderlo tra la luce del cielo.

Per Saturno, invece, le cose cambiano e trovarlo rappresenta quasi una sfida, che è facile da vincere con il pianeta oltre i 60° di separazione dal Sole, un cielo molto trasparente e la nostra stella prossima all’orizzonte. Anche in questo caso meglio iniziare con ingrandimenti modesti per trovarlo: circa 50-100X al massimo e poi, se serve, aumentarli (di poco).

Urano e, ancora peggio, Nettuno, dovrebbero essere off limits, ma non si sa mai: con un cielo limpido di montagna, una separazione di almeno 90°, un filtro polarizzatore e un buon occhio, potremo riuscire a scorgere Urano: nessuna speranza, invece, per Nettuno.

Se vogliamo andare oltre i pianeti, possiamo fare un bel tour delle stelle brillanti: snobbate di notte perché poco interessanti (a ragione), di giorno diventano delle gemme da scovare in un mare d’azzurro, come un prezioso tesoro. Ecco allora che non avremo alcun problema nel puntare Sirio, Capella, Altair, Deneb, Vega, Betelgeuse, Antares e Aldebaran. Unica richiesta: cielo terso e almeno 45° di separazione dal Sole!

Le stelle si possono vedere anche di giorno! Ma è in fotografia che le cose migliorano e anche di molto

Le stelle si possono vedere anche di giorno! Ma è in fotografia che le cose migliorano e anche di molto

 

Come puntare di giorno

Prima di uscire con il Sole alto e cominciare a osservare stelle e pianeti, è meglio dare qualche consiglio utile per fare una cosa che di notte è semplice, ma di giorno un po’ meno: a parte la Luna e Venere, nessun altro oggetto si vede a occhio nudo, spesso nemmeno con un piccolo cercatore, quindi: come facciamo a puntare qualcosa che non possiamo vedere finché non è nel campo dell’oculare? Si potrebbe dire: con il puntamento automatico! La risposta è sì, ma con qualche differenza rispetto alla notte. Di giorno, infatti, non possiamo fare l’allineamento della montatura, perché le stelle non si vedono: come fare?

Semplice: dobbiamo connettere la nostra montatura al computer, bypassando la pulsantiera e interfacciandola con un software planetario, come Cartes du ciel. Grazie ai driver Ascom, questa soluzione è abbastanza semplice e molti fotografi già la usano per curare le sessioni di ripresa notturna. Controllando la montatura con il planetario possiamo fare una cosa che molte pulsantiere non permettono: puntare un oggetto celeste ben visibile, sincronizzarla sulle sue coordinate e poi spostarci nella direzione in cui vogliamo osservare l’invisibile.

L’unico oggetto celeste sempre presente, a parte qualche volta la Luna, è il Sole ma è anche il più pericoloso. Per puntare tutti gli altri corpi celesti di giorno occorre quindi quasi sempre sincronizzare la nostra montatura sul Sole, puntandolo a mano. Come ben sappiamo, è assolutamente fondamentale evitare che la luce del Sole entri senza essere filtrata nel telescopio e nel cercatore. Quindi, il primo passo da fare è preparare il setup come se dovessimo osservare il Sole: coprire il cercatore e inserire di fronte l’obiettivo del telescopio un filtro solare sicuro, come l’Astrosolar. Puntiamo la nostra stella con il metodo dell’ombra, poi centriamola osservando dall’oculare (con il telescopio che ha il filtro solare ben saldo e sicuro!). Sincronizziamo la montatura e poi diciamo al planetario (o alla pulsantiera, se lo permette) di andare dove vogliamo: Mercurio, Venere, Marte, qualche stella… È importante scegliere soggetti distanti almeno 15 gradi dal chiarore solare per evitare che parte della sua luce entri nello strumento (e per vedere qualcosa!). Una volta che il telescopio si è spostato verso la destinazione, possiamo togliere il filtro solare e scoprire il cercatore. Con una buona vista e un cercatore da almeno 50 mm di diametro, quasi tutti i soggetti (tranne Saturno) dovrebbero essere visibili attraverso le sue lenti, una cosa molto comoda per poter effettuare un preciso centraggio.

Il successo del puntamento dipende in modo critico dal perfetto stazionamento della montatura equatoriale (non confondete lo stazionamento con l’allineamento del GOTO!), che può essere fatto solo di notte. Ecco quindi che sarebbe meglio lasciare il telescopio montato dalla sera prima e pronto anche al nostro tour diurno.

Se vogliamo spostarci verso oggetti molto distanti è meglio andare per piccoli passi: puntiamo prima un corpo celeste luminoso, come Venere, per sincronizzare di nuovo la montatura e poi spostiamoci verso la destinazione: meglio non fare spostamenti superiori a 40 gradi perché il puntamento non sarà mai precisissimo.

Una cosa fondamentale riguarda poi la messa a fuoco: di giorno, anche per oggetti luminosi come Venere, se il telescopio non è già vicino al punto di fuoco potremo non vedere la sagoma sfocata del pianeta, anche se questo è al centro del campo: assicuriamoci quindi di aver fatto una buona messa a fuoco prima sul Sole e di non cambiare oculare, altrimenti dovremo armarci di pazienza e muovere il fuoco fino a trovare l’oggetto, che sarà visibile solo quando saremo quasi al punto di fuoco. Una cosa simile si deve fare se vogliamo fare foto: facciamo il fuoco prima sul Sole e a una focale non troppo elevata (meglio al fuoco diretto), così saremo sicuri che se il corpo celeste verrà puntato lo vedremo.

 

Qualche consiglio per le riprese fotografiche

Se vogliamo usare il nostro occhio per osservare, dobbiamo accontentarci di scegliere solo le giornate con il cielo più terso, in modo che i contrasti aumentino al punto da garantire osservazioni molto piacevoli, se non migliori rispetto alla notte. Se invece siamo interessati a fare riprese in alta risoluzione, e in generale a capire quanto in profondità si può vedere anche con il Sole sopra l’orizzonte, allora le cose cambiano molto e potremo restare sorpresi di quanto sia possibile fare. Per capire il trucco che c’è alla base di proficue riprese (non più osservazioni ma fotografie!) diurne, dobbiamo riproporre una domanda alla quale non ho ancora dato risposta: c’è modo, restando qui sulla Terra, e senza usare un radiotelescopio, di osservare il cielo di giorno? Fino a questo momento abbiamo visto che non serve nulla per osservare i principali pianeti, né le stelle, perché anche se non li vediamo in modo spettacolare come di notte, questi in realtà ci sono e si possono osservare al telescopio, se non addirittura a occhio nudo. Tuttavia, grazie alla grande sensibilità dei sensori digitali, possiamo davvero fare qualcosa per migliorare di molto la situazione in fotografia.

La risposta alla domanda ne prevede allora un’altra: di che colore è il cielo di giorno? Se non abitiamo in pianura Padana, la risposta non ammette eccezioni: azzurro! Cosa vuol dire, a livello più fisico, questo? Che l’aria che respiriamo preferisce diffondere in ogni direzione più la luce azzurra rispetto a quella rossa, visto che quella solare è in realtà bianca e così sarebbe dovuto apparire il cielo se tutti i colori fossero stati diffusi allo stesso modo.

Senza entrare in profonde spiegazioni fisiche, il principio alla base della diffusione della luce da parte di molecole di gas è descritto da un processo chiamato diffusione di Rayleigh. Per i nostri scopi ci basta solo un dato, che è la conferma quantitativa della nostra semplice osservazione sul colore del cielo: la percentuale di luce diffusa è inversamente proporzionale alla quarta potenza della lunghezza d’onda. In parole semplici, all’aumentare della lunghezza d’onda della luce diminuisce drasticamente la percentuale che viene diffusa dall’aria. Ecco quindi che la luce blu viene diffusa circa 16 volte più di quella del vicino infrarosso, che ha una lunghezza d’onda circa doppia e perché per le onde radio giorno o notte non fa alcuna differenza.

La diffusione di Rayleigh in funzione della lunghezza d'onda spiega perché il cielo è azzurro e rappresenta un'interessante scappatoia per fare ottime fotografie diurne.

La diffusione di Rayleigh in funzione della lunghezza d’onda spiega perché il cielo è azzurro e rappresenta un’interessante scappatoia per fare ottime fotografie diurne.

Eureka! Abbiamo trovato il modo per fare fotografie di giorno di soggetti brillanti, come se il Sole quasi non ci fosse: basta usare un filtro passa infrarosso. Più grande è la lunghezza d’onda utilizzata, maggiore sarà il contrasto tra il fondo cielo e il corpo celeste. Volete una prova? Guardate la seguente immagine che ritrae Giove ripreso allo stesso orario con diversi filtri:

All'aumentare della lunghezza d'onda diminuisce la luminosità del fondo cielo e i corpi celesti, come in questo caso Giove, emergono in modo sempre più netto.

All’aumentare della lunghezza d’onda diminuisce la luminosità del fondo cielo e i corpi celesti, come in questo caso Giove, emergono in modo sempre più netto.

Per poter sfruttare questo trucco ci serve un sensore monocromatico, o al limite una reflex full spectrum, ovvero modificata per renderla sensibile anche all’infrarosso. Questi dispositivi sono sensibili, sia pur in forma ridotta, fino a circa 1100 nm, una regione molto interessante per i nostri scopi. Ottime sono le camere planetarie monocromatiche, spesso usate anche per l’autoguida, come la sempre verde ASI 120MM. Con questi sensori possiamo usare filtri passa infrarosso da 800 e persino 1000 nm (1 micron). In questa zona poco esplorata del vicino infrarosso, il cielo diventa talmente scuro che non solo possiamo fare fotografie alla Luna, Venere, Mercurio, Marte, Giove e Saturno come se fosse notte, ma è addirittura possibile riprendere corpi celesti che nessuno si sarebbe aspettato: i quattro principali satelliti di Giove, ad esempio, tutte le stelle brillanti fino a magnitudine 5-6 e persino oggetti spettacolari come brillanti comete.

Ecco allora che in questo modo, anche con strumenti modesti, a partire da 8-10 centimetri, il cielo diurno mostra tutto ciò che ai nostri occhi apparirebbe ben visibile di notte: fantastico, vero?

satelliti_giove_giorno

In conclusione di un post piuttosto lungo, non mi resta che lanciare un paio di sfide: qual è il corpo celeste più debole che è possibile osservare o fotografare con il Sole sopra l’orizzonte? È possibile ottenere un’immagine di un soggetto deep sky brillante, ad esempio le Pleiadi, o la nebulosa di Orione, di giorno? Per queste imprese i miei consigli sono semplici: 1) Cielo terso come mai si vede dalla pianura; 2) oggetto alto sull’orizzonte almeno 30° e più lontano possibile dal Sole, 3) Sole in prossimità del tramonto o dell’alba.

Riprese diurne estreme: la cometa McNaught del gennaio 2007 a 15 ° dal Sole e con una magnitudine di circa -7, ripresa con un telescopio da 25 cm diaframmato a 3 cm e filtro IR da 1000 nm. D'ora in poi non ci perderemo più un raro evento astronomico solo perché si verifica di giorno, alla faccia della legge di Murphy!

Riprese diurne estreme: la cometa McNaught del gennaio 2007 a 15 ° dal Sole e con una magnitudine di circa -7, ripresa con un telescopio da 25 cm diaframmato a 5 cm e filtro IR da 1000 nm. D’ora in poi non ci perderemo più un raro evento astronomico solo perché si verifica di giorno, alla faccia della legge di Murphy!

 

Per il momento i corpi celesti più deboli che ho ripreso sono i satelliti di Giove, che hanno luminosità inferiori a quella delle stelle principali delle Pleiadi o del cuore della nebulosa di Orione: questi due, quindi, sono soggetti ben alla portata della nostra voglia di astronomia anche di giorno. La caccia è aperta!

 

P.S. Non vale scattare foto deep sky durante un’eclisse totale di Sole!

Come, dove e quando ammirare le magnifiche aurore boreali

Da Settembre a inizio Aprile di ogni anno, per una nicchia di osservatori dell’emisfero boreale che vivono nei pressi del circolo polare artico, si apre la stagione più bella dell’anno, quella delle aurore boreali. Mentre alle medie latitudini dobbiamo fare i conti con la stagione delle piogge per antonomasia, l’autunno e l’inizio della primavera, o con le nebbie dell’inverno, c’è una parte del mondo e una crescente schiera di appassionati di cielo e Natura che attendono con ansia il periodo migliore per fare l’esperienza naturalistica più bella della propria vita. Questo post rappresenta una piccola guida per tutti coloro che almeno una volta nella vita vorranno ammirare lo spettacolo più bello e impressionante che potremo mai vedere su questo piccolo pianeta azzurro.

 

Cosa sono le aurore secondo la scienza

A livello prettamente fisico, le aurore polari sono delle chiazze di luce, tipicamente verde, che si mostrano nei cieli notturni a latitudini molto settentrionali (aurore boreali) o meridionali (aurore australi), estremamente variabili in forme, colori e intensità e che a volte possono diventare più luminose della Luna piena e muoversi con una rapidità pari a quella di un fulmine.

Alla base di questo particolare fenomeno ci sono due ingredienti: il Sole e il campo magnetico terrestre. Senza entrare in nozioni troppo tecniche, le aurore si producono quando le particelle cariche espulse dal Sole e chiamate vento solare vengono incanalate verso le regioni polari dalle linee del campo magnetico terrestre e arrivano a impattare con gli strati più alti della nostra atmosfera. Ogni volta che una particella di vento solare, che viaggia a diverse centinaia di chilometri al secondo(!), collide con un atomo o una molecola che compone la nostra aria (tipicamente ossigeno e azoto) strappa degli elettroni e ionizza l’atomo colpito. Circa un miliardesimo di secondo più tardi l’atomo riacquista l’elettrone perso e questa transizione fa emettere luce. Le aurore polari sono quindi il modo in cui gli atomi cercano di tornare al loro stato iniziale dopo essere stati letteralmente sconvolti da collisioni violentissime. Ma mai una ferita causata da una collisione a centinaia di migliaia di chilometri l’ora si manifesta con uno spettacolo tanto sublime. Sì, perché al di là della sterile spiegazione fisica, le aurore sono uno spettacolo che deve essere visto, anche se non si conosce la teoria di fondo; deve essere contemplato in rigoroso silenzio e mostrando un doveroso rispetto per la magnificenza della Natura, che si rivela a noi con un’eleganza senza eguali spesso proprio in risposta a eventi dall’enorme violenza.

Dinamica per la formazione delle aurore: alcune particelle cariche provenienti dal Sole riescono a penetrare il campo magnetico terrestre nei pressi dei poli e dallo scontro con le molecole d'aria si innescano le aurore.

Dinamica per la formazione delle aurore: alcune particelle cariche provenienti dal Sole riescono a penetrare il campo magnetico terrestre nei pressi dei poli e dallo scontro con le molecole d’aria si innescano le aurore.

 

Cosa sono le aurore, secondo la nostra vista

Ecco allora che esiste un’altra spiegazione alla domanda “Cosa sono le aurore?” che trascende qualsiasi razionalità, qualsiasi oggettività e lascia libero sfogo alle emozioni e alle descrizioni di chi quel fiume di luce irrequieto nel cielo l’ha visto con i propri occhi e l’ha subito con tutto sé stesso.

In una normale serata nel circolo polare artico si potrà sempre osservare un debole arco verdastro, simile a una striscia di foschia o a una nuvola illuminata dai lampioni, come è comune osservare dalle nostre inquinate città. “E’ quella lì l’aurora? Una striscia lattiginosa che somiglia alla Via lattea estiva o al cielo di Milano quando sta per arrivare la nebbia? E i colori delle foto non ci sono?” Sono queste le domande che ho sentito da chi si è spinto fin lassù, in Islanda o in Lapponia, e non è stato particolarmente fortunato. Togliendo il punto interrogativo, invece, si trasformano in affermazioni spesso dette da chi le aurore, quelle vere, non le ha mai viste e, forse, non si è mai spostato oltre i 60° di latitudine nord.

Le aurore, infatti, possono essere lievi e potenti, appena accennate o illuminare il paesaggio circostante, sembrare statiche o muoversi con la violenza di un fiume in piena. Tutto dipende dal Sole e, in parte, anche dalla Terra. Le aurore possono spingersi fino a latitudini medie, a Londra o Parigi, persino in Italia (l’ultima aurora italiana risale al 2003) ma sono solo una blanda copia di quello che si vedrebbe nella giusta località, lì nel grande nord.

Ecco allora che durante i momenti di maggiore attività, quando si verificano delle tempeste geomagnetiche, l’aurora diventa più spettacolare di qualsiasi fotografia, perché uno scatto statico non può catturare il movimento rapidissimo di strutture di luce che si espandono su tutto il cielo e che mostrano dettagli fini impossibili da immortalare in una fotografia esposta per qualche secondo. Nei momenti in cui l’attività è almeno moderata le aurore diventano uno spettacolo che non si può dimenticare, che sovrasta qualsiasi altra cosa vista fino a quel momento, in grado di proiettare senza problemi ombre in terra o di rendersi visibili quando ancora c’è la luce del tramonto. Immaginate una tavola bianca sulla quale far scorrere in modo casuale e caotico tre grossi pennelli imbevuti di colore fino a gocciolare: verde, giallo, rosso, e tutte le sfumature che si formano quando quelle strisciate si incontrano, si sovrappongono, si fondono insieme creando mulinelli di colore che all’improvviso sembrano aprirsi come un ombrello e cadere come pioggia su di noi. Non c’è ombrello che possa ripararci da tanta bellezza, né, per fortuna, alcun timore che giustifichi una fuga al riparo. Non c’è pericolo, se non quello di esporre i nostri occhi a una bellezza che in pochi riescono ad assimilare senza emozionarsi, senza far scendere una lacrima, senza gridare di gioia al cielo e abbracciare a caso tutte quelle sconosciute persone che impavide si sono ritrovate a osservare insieme lo stesso fenomeno. In un momento, quando lo decide il cielo a suo insindacabile giudizio, tutto cambia, tutto si accende. Il freddo scompare, il tempo si ferma, il cuore inizia a far rumore e niente sarà più lo stesso. Un secondo o dieci, un’ora o 5 minuti: nessuno sa quanto durerà ma basterà comunque a impressionare quell’immagine sin nella parte più profonda della nostra anima, per sempre. Altro che fotografia: le aurore, quelle vere, sono molto più belle, evidenti e spettacolari se ammirate a occhio nudo!

C'è davvero bisogno di descrivere a parole la bellezza dell'aurora?

C’è davvero bisogno di descrivere a parole la bellezza dell’aurora? Per capire quanto è brillante, questa foto  stata fatta al tramonto. In primo piano Venere, in alto a sinistra le Pleiadi.

 

Dove, quando e quanto tempo?

Il dove è semplice: la massima frequenza (e spettacolarità) di attività aurorale si verifica proprio a cavallo del circolo polare artico. Per noi europei ci sono solo due possibilità: la parte settentrionale della Scandinavia o l’Islanda, entrambi dei luoghi incantevoli anche a livello paesaggistico. Se cerchiamo la vacanza della vita allora bisogna andare in Islanda, girarsi l’isola a bordo di un’auto e allontanarsi dalla capitale se si vuole vedere per bene l’aurora. Durata consigliata: da 10 giorni in su.

Per un’esperienza meno impegnativa dal punto di vista temporale ed economico, la regione della Lapponia attorno al parco nazionale di Abisko è perfetta e gode a detta di molti delle condizioni meteo più favorevoli dell’intero nord. In questa, che è la zona meno abitata dell’Europa, ci sono pochi hotel, ma tutti sono attrezzati per l’osservazione delle aurore (e molti hanno anche splendide piste da sci, per gli amanti), con ampi piazzali bui, baite con vetrate e riscaldate, e visite guidate (molto costose però!). In effetti posso confermare che il microclima attorno ad Abisko è unico e assicura molte più nottate serene dell’Islanda o dell’alternativa più economica di tutte: Tromsø. Questa cittadina è situata sulla costa norvegese ed è immersa nei tipici fiordi che caratterizzano questa terra. Sebbene in linea d’aria disti poche centinaia di chilometri dall’entroterra lappone, gode di un clima molto diverso: il freddo non è mai eccessivo perché risente della corrente del golfo, ma in compenso il meteo è in media molto più brutto e instabile dell’entroterra. Può capitare anche una settimana di cielo totalmente coperto: e che ce ne facciamo di temperature più clementi se poi l’aurora non la possiamo vedere? In ogni caso questa è la meta più economica: a titolo di esempio, un viaggio di 3 notti e 4 giorni compreso di volo, hotel, abbigliamento termico e automobile a noleggio può costare circa 500 euro a persona a Tromsø e fino al doppio ad Abisko. Per l’Islanda i prezzi sono ancora più alti.

Percentuale di notti in cui si vede l'aurora: né troppo a nord, né troppo a sud. In Islanda e nella parte settentrionale della Scandinavia l'aurora, anche minima, c'è sempre.

Percentuale di notti in cui si vede l’aurora: né troppo a nord, né troppo a sud. In Islanda e nella parte settentrionale della Scandinavia l’aurora, anche minima, c’è sempre.

 

Per il quando, invece, le cose si complicano un po’.

Le tempeste magnetiche e i momenti in cui le aurore sono più intense si possono provare a prevedere con al massimo 2-3 giorni di preavviso, quindi a meno di non essere degli avventurieri disposti a prenotazioni last minute, dobbiamo arrenderci all’idea che in questo tipo di viaggio serva anche un po’ di fortuna. Può succedere che in una settimana non si riesca a vedere quasi mai un’aurora decente e poi questa esploda il giorno che siamo tornati a casa (o il giorno prima di arrivare.. Una triste storia vera). Oltre a programmare un soggiorno più lungo di un paio di notti, ci sono degli accorgimenti che potrebbero migliorare le nostre possibilità.

L’attore principale di questa opera teatrale ricca di meravigliosi e improvvisi colpi di scena è il Sole, con la sua attività. Ci sono due principali meccanismi con cui si possono innescare spettacolari aurore e il più importante è causato dai CME, espulsioni di massa coronale, e dai brillamenti; entrambi sono fenomeni generati dalle grandi macchie solari. Non si possono prevedere ma è indubbio che più macchie ci sono sul Sole e maggiore è la possibilità che qualche particella in più venga scagliata nello spazio e arrivi fino alla Terra. Ragionando quindi sul lungo periodo, i momenti in cui le aurore sono più intense sono a cavallo dei massimi di attività del Sole. La notizia brutta è che il massimo solare è passato nel 2012-2013 e ora siamo diretti verso un minimo dell’attività. Le grandi aurore sono quindi più rare perché a reggere la baracca c’è in pratica solo il secondo, e più debole, meccanismo: i buchi coronali. Si tratta di veri e propri buchi nell’atmosfera del Sole (corona solare) dovuti alla debolezza locale del campo magnetico solare. In questo modo le particelle di vento solare che partono dalla superficie non vengono intrappolate o deviate dalla corona in modo efficiente e possono raggiungere la Terra in maggiori quantità, scatenando tempeste magnetiche anche con un Sole privo di macchie, quindi senza il motore principale che alimenta il fenomeno. Per ritrovare aurore molto brillanti per gran parte del tempo, quindi andare quasi a colpo sicuro, bisogna aspettare il prossimo massimo solare, previsto per il 2023-2024. Se non siamo così pazienti e accettiamo il rischio di non riuscire a vedere una tempesta ma ci accontentiamo di una modesta attività aurorale (sempre presente), allora tutti gli anni sono buoni, anche se ci sono periodi più favorevoli di altri.

Sembra una banalità ma meglio chiarire anche questo aspetto per chi magari non è proprio esperto del grande nord: di sicuro dobbiamo andare quando esiste la notte astronomica, escludendo i mesi da aprile ad agosto, in cui la luce solare non abbandona mai la scena e vedere l’aurora è impossibile. I momenti migliori, sia dal punto di vista climatico che dell’attività, si verificano a cavallo degli equinozi, quindi seconda metà di settembre o seconda metà di marzo. Si potrebbe anche pensare di fare una follia: andare a dicembre quando è sempre notte e si possono vedere le aurore 24 ore al giorno (o quasi) ma io lo sconsiglio. Le temperature sono basse, anche -40°C in Lapponia (più clementi lungo la costa norvegese e islandese ma siamo sempre molto sotto lo zero); la Natura, che è favolosa, non si può ammirare in pieno, girare in auto è certamente più pericoloso, il clima è peggiore e le aurore tendono a essere un po’ più pigre rispetto ai periodi a cavallo degli equinozi, quando si può godere di 12 ore di luce e altrettante di buio. Alcuni fotografi preferiscono le notti con la Luna perché illumina il paesaggio ma io consiglio di scegliere dei periodi a cavallo della Luna nuova. Mai andare con la Luna piena perché le aurore, anche quelle intense, saranno sovrastate dalla luminosità del nostro satellite naturale e rese meno spettacolari.

La durata del soggiorno dipende dai nostri impegni: si può fare un week end lungo di 3 notti, come ho fatto io per due anni di seguito, e avere una fortuna sfacciata di trovare sia il sereno che una tempesta magnetica che ha illuminato a giorno il paesaggio (ma era a cavallo del massimo solare, in pratica era più difficile non trovare un’aurora intensa che trovarla!), oppure optare per un soggiorno più lungo e con ritmi più blandi. Una settimana, quindi, sembra essere il compromesso ideale tra spesa, impegno e possibilità di trovare un’aurora in forma e tempo bello.

Per godersi lo spettacolo in sicurezza e con le maggiori possibilità di trovare tempo bello, è meglio seguire qualche semplice consiglio.

Tempesta magnetica, con indice Kp pari a 7: il cielo si accende di colori in movimento.

Tempesta magnetica, con indice Kp pari a 7: il cielo si accende di colori in movimento.

Come organizzare il viaggio

Il viaggio inizia almeno 2-3 mesi prima, se vogliamo trovare condizioni economiche vantaggiose. Se sappiamo muoverci su internet, si può organizzare tutto da soli. Quello che ci serve sono:

  • Voli di andata e ritorno per la località scelta. expedia.it o www.skyscanner.it per trovare le migliori tariffe;
  • Dove soggiornare. Anche qui possiamo controllare expedia.it o www.booking.com ad esempio. Il consiglio è scegliere un hotel attrezzato non nel centro di una città, così se il tempo sarà bello potremo ammirare l’aurora addirittura dalla finestra della camera, come è capitato a me una notte di quasi tre anni fa. In alternativa, se preferiamo spendere meno, potremo scegliere una sistemazione in città, ad esempio Tromso, ma dobbiamo essere coscienti che dovremo comunque spostarci, anche di diversi chilometri, per vedere bene l’aurora;
  • Noleggio auto. Stiamo andando in luoghi selvaggi e con spazi enormi: è impensabile cercare di spostarsi con mezzi pubblici (che spesso neanche ci sono). Un’automobile è obbligatoria, quindi, sia per raggiungere l’hotel dall’aeroporto che per visitare le zone alla ricerca della natura diurna e dell’aurora notturna. Le condizioni meteo infatti non sono stabili e può capitare, soprattutto se ci troviamo lungo la costa norvegese, di dover affrontare centinaia di chilometri di guida per trovare un cielo sereno. Dobbiamo quindi essere mentalmente pronti al nostro obiettivo: se vogliamo vedere l’aurora potremo doverla cercare con le unghie e con i denti. Le strade sono generalmente tenute bene ma nei mesi invernali, fino ad aprile, sono spesso coperte di ghiaccio. Le auto noleggiate hanno equipaggiamento invernale e sono dotate di ruote chiodate per affrontare quasi ogni terreno (persino laghi e fiumi ghiacciati, ho già provato), quindi la guida, se condotta con molta prudenza, è di certo più sicura di quanto accade nelle nostre città quando cade il primo nevischio misto ad acqua. Nei principali aeroporti: Kiruna se si sceglie Abisko, Tromso se si sceglie la costa, Reykjavik per l’Islanda, sono presenti le principali agenzie di noleggio, quindi possiamo dare un’occhiata a expedia.it o www.rentalcars.com per noleggiare la nostra auto, orientativamente quando scegliamo di prenotare il volto. Se abbiamo un hotel nel centro di una città, l’auto serve a prescindere dal meteo perché dobbiamo allontanarci dalle luci il più possibile per ammirare al meglio lo spettacolo (l’ho già detto, ma se l’ho ripetuto anche qui un motivo c’è!);
  • Noleggio abbigliamento termico. Per quanti vestiti pesanti decideremo di portare in valigia, non saranno mai abbastanza per proteggerci dalla notte artica. Il consiglio è quindi semplice: lasciare a casa l’armadio della roba pesante e noleggiare direttamente sul posto l’abbigliamento adatto. Per circa 30-40 euro al giorno si può prendere tutto l’occorrente: scarponi da neve, tuta imbottita simile a quelle degli astronauti, guanti, cappello ed eventualmente maschera per gli occhi. Su internet si trovano molti negozi di noleggio nelle principali città. Alcuni hotel, soprattutto nella zona di Abisko, forniscono direttamente il servizio di noleggio dell’abbigliamento: basta contattarli (tutti parlano inglese).
    Un consiglio è d’obbligo se avete intenzione di fare molti spostamenti, soprattutto in Scandinavia. L’abbigliamento che noleggiate in città più miti come Tromso non è adatto alle rigide notti della Lapponia, pur essendo vicine in linea d’aria e quindi raggiungibili in auto in un paio d’ore: tenetelo presente per non dover soffrire il freddo per tutta la notte e nel caso fate presente al negozio di noleggio che volete abbigliamento adatto anche per climi più freddi.
  • Tour guidati. In Islanda, ma soprattutto in Scandinavia, ci sono molte agenzie che organizzano tour guidati per osservare le aurore. La realtà, secondo me, è che non servono: basta un’auto e un posto scuro per ammirare l’aurora senza l’aiuto di una guida che vi chiederà prezzi stratosferici. Questa è una costante di quelle regioni: tour, escursioni e visite guidate potrebbero costare anche ben oltre 100 euro a persona; valutate quindi bene se ne vale la pena o meno.
  • Cellulare e un piano dati adatto all’estero. Probabilmente vi sconvolgerà la cosa, ma anche nel posto più remoto della Lapponia, in mezzo a un lago ghiacciato che si perde a vista d’occhio, senza la minima presenza di civiltà per decine e decine di chilometri, il vostro cellulare segnerà piena ricezione della rete 4G. Se avevate in mente di staccare dalla vita di tutti i giorni, allora meglio spegnere il telefono perché non siete in un paese sufficientemente arretrato da permettervi l’isolamento completo. In realtà, scherzi a parte, la ricezione cellulare in posti deserti e difficili come la Lapponia è estremamente comoda e importante, perché di fatto non saremo mai isolati dal mondo e in caso di aiuto basterà fare una telefonata. Il consiglio, quindi, anche per avere a disposizione mappe della zona e un collegamento a internet per controllare meteo e previsioni dell’aurora, è quello di attivare un’offerta internet valida per l’estero con il proprio operatore e affrontare quindi il viaggio avventuroso in maniera molto più tranquilla.
Il magnifico deserto di ghiaccio della Lapponia.

Il magnifico deserto di ghiaccio della Lapponia.

 

Altri spiccioli consigli per un viaggio indimenticabile

  • In caso di problemi, tenete presente che siete in un posto estremamente civile: se le sporadiche auto vi vedranno a bordo strada con le 4 frecce accese o con gli abbaglianti di notte, si fermeranno tutte per assicurarsi che state bene e che non vi serve aiuto. Se non volete essere disturbati o creare falsi allarmi, quindi, spegnete frecce e fari: è il modo per dire che non vi serve aiuto.
  • La popolazione è generalmente molto disponibile e cordiale. Se vi serve qualcosa non abbiate paura a chiedere. Se siete in macchina lungo la Northern Lights road, nel mezzo della tundra lappone, e non sapete dove fermare la vostra auto e scendere per ammirare l’aurora perché la neve ai lati della strada è alta un metro, potrete parcheggiare nel cortile di una delle poche casette che incontrerete sul percorso. E sebbene per noi appaia impossibile che un proprietario di casa accolga tre auto piene di gente incappucciata, che parlano una lingua straniera e che hanno occupato il suo suolo, con un saluto, una lunga chiacchierata e un invito a parcheggiare di fronte alla sua porta e restare a osservare l’aurora lì tutta la notte, in Lapponia questo succede davvero e non si rischia un colpo di fucile, come può invece capitare nelle nostre ben più pericolose campagne;
  • L’attività dell’aurora si può tenere sotto controllo in tempo reale e si possono avere anche previsioni abbastanza accurate fino a 48 ore. Ci sono tanti siti da controllare quindi per capire cosa ci aspetta nel futuro prossimo. Eccone un paio: spaceweather.com e http://www.aurora-service.eu/aurora-forecast/ . Le intensità delle aurore si misurano spesso con un indice denominato Kp: valori inferiori a 3 indicano un’aurora molto debole. Da 3 a 5 indicano un’attività moderata che comincia a essere spettacolare e oltre 5 assicurano uno spettacolo tanto luminoso da abbronzare, di quelli che non si scorderanno mai più. Più è intensa la tempesta magnetica e più a sud scendono le aurore. Ecco allora che se l’indice Kp arriva a 9 queste si possono vedere, seppur tenui e in lontananza, persino nel nord Italia! I valori possono cambiare nel giro di un’ora, quindi teniamoli sott’occhio sempre: le previsioni a breve termine, come in meteorologia, sono decisamente più affidabili, quindi se entro qualche ora è prevista una tempesta è molto probabile che ci sarà!
Una spettacolare aurora al tramonto, dal cortile di casa di un ospitale abitante di quelle fredde e spettacolari regioni.

Una spettacolare aurora al tramonto, dal cortile di casa di un ospitale abitante di quelle fredde e spettacolari regioni.

 

Come osservarle e fotografarle

Le aurore sono uno spettacolo che non richiede strumenti per essere ammirato: serve solo un cielo libero da nuvole e lontano dalle luci delle città. Per questo motivo, se siamo muniti di auto e di una mappa sul cellulare, possiamo scegliere i posti più belli e suggestivi per godersi lo spettacolo. Possiamo scegliere un suggestivo lago ghiacciato, come mi è capitato due anni fa, o un fiordo non ancora congelato in cui si rifletteranno le luci dell’aurora: le opportunità per rendere ancora più indimenticabile la nostra avventura sono tantissime e le possiamo trovare con le nostre forze, perché questo è un viaggio in cui possiamo decidere noi cosa fare, dove e in che modo, in piena libertà. Se abbiamo l’abbigliamento giusto la notte non sembrerà molto fredda, grazie anche all’umidità in genere sempre bassa e potremo starcene fuori per ore. Le aurore in generale si vedono meglio nella prima parte della notte, ma sono sempre molto imprevedibili, un po’ come le stelle cadenti. Anche nella serata in apparenza più tranquilla può verificarsi un momento

Quando l'aurora fa sul serio diventa più luminosa delle stelle più brillanti, cancellandole letteralmente dal cielo.

Quando l’aurora fa sul serio diventa più luminosa delle stelle più brillanti, cancellandole letteralmente dal cielo.

in cui di punto in bianco tutto si accende come se ci fosse un incendio in cielo. E in effetti questo è quanto è accaduto a me ormai quasi due anni fa. Di ritorno da una bella serata in Lapponia, l’aurora sembrava ormai essersi spenta, con il cielo che era diventato nero come la pece a causa dell’assenza totale di luci. Dopo un rifornimento di carburante in una remota stazione, a un certo punto, guardando dal parabrezza, notai che il cielo si era improvvisamente tinto di verde. Gettata l’auto su una provvidenziale piazzola di sosta e scesi senza nemmeno indossare i pesanti abiti termici, abbiamo assistito a uno spettacolo di indescrivibile potenza, che riesco ancora ad ammirare nitidamente mentre sto scrivendo queste parole, con il cuore che ricomincia a battere all’impazzata e le mani che sudano, proprio come in quel momento, in cui a -18°C in felpa e scarpe da ginnastica sentivo tutto tranne che freddo.

Se vogliamo tentare di immortalare uno spettacolo del genere, ci basta una camera digitale, meglio una reflex con obiettivo grandangolare da 8-14-18 mm, su un modesto treppiede da pochi euro. A seconda della potenza dell’aurora possiamo impostare 800 ISO, diaframma tutto aperto e scatti da qualche secondo fino a 30 secondi. Andare oltre non conviene anche con aurore deboli perché le foto verrebbero mosse a causa del moto della Terra e dell’aurora stessa. Nei momenti più intensi ho visto un mio amico scattare a mano a 3200 ISO e 1/15 di secondo a f3.5 e bruciare alcune parti della foto a causa della potenza dell’aurora!

Se volete vedere altre mie foto delle aurore, cliccate qui.

Se volete leggere il resoconto del mio ultimo viaggio, scritto in tempo reale, cliccate qui.

 

 

Sistemi portatili per la fotografia astronomica..a confronto!

Chi si dedica alla fotografia astronomica, sia i più esperti che chi è agli inizi, deve fare i conti con l’autoguida e con la necessità di collegare la camera di guida a un computer che gestisca questa importantissima fase. Un notebook è obbligatorio per chi usa una camera CCD per fare riprese, mentre chi impiega le reflex ha a disposizione una soluzione chiamata autoguida standalone che permette, previa molta pazienza e/o denaro, di non utilizzare il computer.

Qualsiasi sia la vostra situazione, a meno di non disporre di un osservatorio privato (magari), usare un computer durante le sessioni di fotografia astronomica ha molti inconvenienti, tra cui:

  • Dover trasportare un pesante e ingombrante notebook con noi e sistemarlo in un luogo sicuro, che nel buio della notte e nelle impervie situazioni in cui piazziamo i telescopi (erba alta, alberi, terreno scosceso…) non è proprio semplice;
  • L’alto consumo di corrente, che supera spesso i 3-4 ampere e costringe a essere dipendenti dalla corrente elettrica o a viaggiare con ingombranti e pesanti batterie da auto per non rimanere a secco durante la notte.
  • Inoltre i notebook di solito hanno un’alimentazione superiore a 12V, il che rende necessario collegare un inverter ad una batteria (= altro esborso economico)

Fino a qualche anno fa non c’erano molte alternative: o un notebook, magari piccolino, o un’autoguida standalone che spesso, però, rappresenta quasi un terno al lotto perché è sicuramente più difficile da gestire rispetto a quanto possano fare software come MaxIm DL o PHD.

Oltre un anno fa, PrimaLuceLab ha introdotto sul mercato Eagle, un sistema che racchiude all’interno di un unico case modulare, un bridge di alimentazione, un vero e proprio computer desktop con Windows 10 Enterprise modificato e ottimizzato per Eagle e quindi per l’uso astronomico e la possibilità di installarlo in diversi punti tra montatura e telescopio grazie al sistema Plus. Eagle non è solamente un “contenitore”, ma al suo interno contiene una suite di diversi software oltre al fatto che possiamo installare tutti i programmi che vogliamo, inoltre potendo essere montato in modo solidale con il nostro strumento, possiamo staccare tutto insieme, riporre e…in 2 minuti abbiamo smontato e rimontato! Ovviamente come in tutte le cose ci sono i pro ed i contro, andiamo ad analizzarli.

Se Eagle rappresenta, al momento attuale, la più avanzata soluzione dedicata per l’astrofotografo itinerante, è anche vero che il costo non è detto che sia alla portata di tutti vista la mole di caratteristiche avanzate implementate. La domanda posta è: si riesce ad alleggerire lo stesso il setup, perdendo ovviamente di funzionalità complessive, ma ad un minor prezzo?

Ora ci sono i Windows Tablet, dei tablet che montano una versione ottimizzata (=depotenziata) di Windows, ma che sono pratici quanto un normale tablet Android o iOS. Una soluzione del genere permette di avere una versatilità simile a quella di un di un pc, sul quale possiamo installare i nostri programmi per la gestione della ripresa e della guida, con la comodità di un tablet, compreso un consumo nettamente ridotto rispetto ai notebook. Di fatto possiamo trasformare, almeno la fase di autoguida, come se fosse fatta con una camera standalone, solo che avremo la potenza di un software installato come PHD, l’economicità di una camera usb  con porta ST4 e la comodità di uno schermo LCD da almeno 7 pollici, senza gli ingombri e i problemi tipici di un computer, anche se dobbiamo vedere dove sistemare il tablet dato che non prevede sei sistemi di montaggio nativi sul nostro telescopio.

Ma se invece vogliamo tenerci il nostro PC/Tablet e abbiamo solo l’esigenza di ottimizzare il più possibile il setup (cavi, hub usb, bridge di alimentazione..), abbiamo una reale alternativa senza doverci autocostruire qualcosa noi?  Per fortuna si, ci ha pensato Geoptik con il Various power supply, che è un bridge di alimentazione avanzato con un hub usb integrato. Offre 4 prese USB 2.0, 1 uscita da 5A (jack 2.1×5.5), 2 uscite jack da 2A (2.1×5.5), 2 uscite per fasce anticondensa kendrik compatibili, 2 prese accendisigari, 1 uscita con regolazione del voltaggio (ideale per alimentare le reflex usando una falsa batteria) e di serie viene fornito con un cavo di alimentazione che si collega direttamene ad una batteria da auto, dato che il Varius alimenta tutto, dalla montatura alle camere CCD. Il various si può installare sul telescopio (non in modo solidale come Eagle, ma comunque ha una basetta per rimuoverlo facilmente) e tutti i device sono connessi a lui. Quindi esce un cavo usb che andrà al nostro PC/Tablet.

Per scrivere questo post mi sono indirizzato sul tablet più economico che si possa trovare in giro: si chiama Mediacom WinPad W700, un oggetto con schermo da 7 pollici, dotato di Windows 10 e dal prezzo di circa 40 euro (sì, 40 euro!). Dopo averlo provato per più di un mese posso dare qualche consiglio per farlo funzionare al meglio e per gestire, proprio come se fosse un normale pc, le fasi di guida e persino di acquisizione delle immagini, sebbene con qualche limite.

Il tablet ha un processore quadcore da 1,33 GHz, un GB di RAM e solo 16 GB di spazio disco, che può essere aumentato grazie allo slot per una microSD. Il punto debole di questa soluzione è la presenza di una sola porta micro-usb, quella che in pratica si usa per ricaricarlo. Come facciamo allora per farlo funzionare? E un GB di RAM basta per la nostra sessione di riprese?

Le risposte sono affermative, a patto di comprare qualche altro economico accessorio e di ottimizzare un poco il sistema operativo.

Il tablet Windows Winpad W700: la soluzione più economica per gestire le nostre sessioni di fotografia astronomica

Il tablet Windows Winpad W700: la soluzione più economica per gestire le nostre sessioni di fotografia astronomica

Ottimizzazione del sistema operativo

Windows 10, al contrario degli immediati predecessori, è un sistema leggero e stabile, che non ha problemi anche con driver vecchi (ci ho fatto girare camere SBIG del 2005). Il GB di RAM di cui è dotato il tablet è più che sufficiente se si disattivano servizi inutili come l’assistente vocale Cortana e si eliminano le (poche) animazioni grafiche. In questo modo il sistema operativo usa solo mezzo GB di RAM; il restante è tutto per noi e vista la leggerezza dei programmi di guida e di acquisizione è una quantità più che sufficiente. A meno che non si abbiano dei problemi di instabilità nativa che però non ho riscontrato sui due esemplari che ho testato, ci sono tre operazioni importanti da fare per rendere Windows ancora più veloce e stabile:

  • Disattivare l’avvio rapido del sistema operativo, che è attivato di default e che a volte può causare il riavvio improvviso del tablet poco dopo che è stato acceso (nelle opzioni di risparmio energia, alla voce Scegliere cosa fanno i pulsanti di accensione, si clicca su Modifica le impostazioni attualmente non disponibili e su Impostazioni di arresto deselezionare Avvio Rapido);
  • Se si utilizza solo per le sessioni fotografiche, il consiglio è di tenerlo scollegato dalla rete internet e in questo modo NON fargli mai scaricare gli aggiornamenti di Windows, che tendono a essere pesanti e a riempire il poco spazio disponibile. Questo non toglie che sul campo potremo collegarlo via wireless a una rete locale e così controllare con il nostro smartphone da dentro la macchina o dentro casa come sta andando la sessione di ripresa (su questo tornerò alla fine del post);
  • Disattivare la sospensione automatica dopo qualche minuto e attivare solo lo spegnimento dello schermo. In questo modo eviteremo la possibile sospensione dell’attività durante le sessioni di fotografia e allo stesso tempo faremo spegnere lo schermo al tablet quando tutto andrà bene durante la serata e non ci sarà bisogno di toccarlo;
  • Attivare la modalità Desktop di default (Impostazioni à Sistema à Modalità tablet e alla voce All’accesso impostare Vai al desktop). Windows può essere usato anche in modalità tablet ma questa soluzione per i nostri scopi è molto scomoda; meglio usare il classico ambiente che abbiamo a disposizione su ogni computer.

 

A confronto:

  • Eagle: è un sistema completo e modulare, che si monta direttamente sul nostro telescopio, ottimizzando trasportabilità, funzionalità e possibilità di automazione
  • Tablet: può gestire solamente ed in modo “basilare” le funzionalità di acquisizione e autoguida, inoltre non si può montare sul nostro telescopio in modo solidale.
  • Varius: essendo un bridge avanzato di alimentazione con hub usb integrato, esce solo un cavo verso il nostro PC/Tablet (il Tablet può essere anche quello proposto, per dire). Il Varius ha una basetta per poterlo installare sul nostro strumento, ma poi va rimosso, non essendo solidale come Eagle.

 

L’ alimentazione

La batteria del tablet dura poco, circa 3 ore se si utilizza in modo normale e per di più non ci sono porte usb per collegare la nostra strumentazione. Come facciamo? C’è una soluzione rapida, leggera ed economica.

Per l’alimentazione possiamo comprare un economico power bank. Il tablet in autoguida e con schermo spento consuma circa 0,7 Ampere. Un power bank da 5 Volt (il tablet va a 5 Volt) e 13-15 Ampere costa una ventina di euro (https://www.amazon.it/EasyAcc-Brilliant-Caricatore-15000%C2%A0mAh-Smartphone/dp/B00M8UFTQA/ref=sr_1_2?s=electronics&ie=UTF8&qid=1474975624&sr=1-2&keywords=power+bank+15000) e consente di avere l’alimentazione per circa 18 ore, a cui aggiungere le tre ore della batteria del tablet, per un totale di almeno 20 ore, a essere piuttosto conservativi: in pratica ci possiamo fare tranquillamente due notti senza ricaricarlo. Ovviamente questo calcolo si applica solamente alla batteria del tablet, se ci colleghiamo altri device (montatura, etc) la durata si ridurrà.

A confronto:

  • Eagle: avendo un bridge di alimentazione integrato, alimenta dalla montatura alla camera ccd raffreddata, basta collegarlo ad una fonte di alimentazione adeguata. Tutti i cavi di alimentazione dei nostri device partono da Eagle. Può fornire una potenza di alimentazione di 3A e 5A a seconda della porta utilizzata.
  • Tablet: non prevede nativamente di alimentare il nostro setup, quindi dobbiamo prevedere di creare un sistema per alimentare i device che però non richiedono un’assorbimento di oltre 500mAh, dato che saranno collegati all’hub usb esterno, mentre se richiedono alimentazione superiore (camere ccd raffreddate, montatura, etc) dovremo prevedere di aggiungere un altro sistema di alimentazione.
  • Varius: basta collegare il cavo fornito ad una batteria da auto con un Amperaggio adeguato (consiglio minimo 50Ah per una nottata fredda di astrofotografia) e collegare tutti i device al Varius, che li alimenterà oltre a collegarli al nostro PC/Tablet.

 

Porte USB e collegamenti

Come facciamo invece per le porte usb? E magari tenere il tablet collegato al power bank contemporaneamente? C’è un piccolo trucco. Dobbiamo comprare, per pochi euro un cavo OTG a Y, come questo: https://www.amazon.it/gp/product/B00M1H5348/ref=oh_aui_detailpage_o01_s00?ie=UTF8&psc=1 (io ho esattamente questo modello).

Agganciato alla presa micro usb del tablet, permette di collegare delle periferiche e di alimentare sia queste che il tablet. Il cavo funziona solo se alimentato da una fonte esterna: dal tablet non esce corrente come nei normali cavi OTG (ma vi può entrare). La fonte esterna sarà il nostro power bank. All’unica porta USB di questo cavo possiamo collegare un piccolo hub a 4 o 6 porte e il gioco è fatto. L’hub riceve infatti l’alimentazione dal power bank, che alimenterà tutte le periferiche che ci collegheremo, compresa una camera di guida e potremo quindi usare la nostra configurazione come se fosse un normale computer. Il consiglio è quello di acquistare anche mouse e tastiera wireless: per circa 20 euro avremo un piccolo ricevitore da collegare a una delle porte USB, che ci permetterà di usare mouse e tastiera al posto del touch, che è pure piuttosto impreciso (per 40 euro non si può pretendere di più). L’uso di mouse e tastiera wireless, oltre a eliminare due cavi, consente di occupare solo una delle porte usb del nostro hub e quindi di avere a disposizione una maggiore potenza di fuoco per collegarci quello che vogliamo.

A questo punto il nostro setup è pronto: il tablet funziona esattamente come un normale computer, quindi non c’è molto altro da aggiungere. Possiamo collegare le periferiche che vogliamo e installare driver e programmi, scaricandoli da internet o, meglio, importandoli da una chiavetta USB (così teniamo il tablet sempre scollegato dalla rete per impedire installazione di aggiornamenti e/o rallentamenti vari: non vorremo mica che si blocchi installando degli aggiornamenti durante la serata con il cielo migliore della nostra vita, vero!?). Tenete conto che se collegate device che richiedono ulteriore alimentazione rispetto a quella fornita dalle porte USB, dovrete collegarci una fonte di alimentazione supplementare.

Ecco la configurazione con porte USB e alimentata da un power bank da 26 Ampere pronta per la serata di fotografia astronomica. Autonomia stimata: 40 ore

Ecco la configurazione con porte USB e alimentata da un power bank da 26 Ampere pronta per la serata di fotografia astronomica. Autonomia stimata: 40 ore

 

Risultati

Ho provato il WinPad W700 con diverse configurazioni e sottoponendolo anche a qualche stress. Ho installato senza problemi i driver delle camere CCD che utilizzo, una ST-7XME e un ST-2000XCM della SBIG e quelli di una camera planetaria che ho utilizzato come autoguida attraverso PHD. Ho fatto girare la versione 5 di MaxIm DL, che gestisce sia la fase di ripresa che di autoguida, senza particolari problemi, oltre a PHD. Anche i driver ascom funzionano, così come programmi quali Cartes du Ciel. Non ho provato Stellarium perché è troppo pesante e in generale non consiglio di installarci software per il fotoritocco come Photoshop e PixInsight: questo tablet infatti va bene solo per gestire l’autoguida e al limite la fase di ripresa, mentre Eagle permette di eseguire qualsiasi tipo di operazione, essendo un computer vero e proprio.

Non ho provato a utilizzarlo per l’imaging planetario ma posso affermare senza problemi che NON è indicato, sia per la poca RAM che per l’esiguo spazio di archiviazione. In ogni caso consiglio di acquistare una micro SD da 32GB, che si trova a una decina di euro, per avere così spazio a sufficienza per accumulare molti dati durante le serate di ripresa del profondo cielo.

Uno screenshot direttamente dal Winpad W700 di MaxIm DL durante l'acquisizione e la guida sul finire di una serata di fotografica.

Uno screenshot direttamente dal Winpad W700 di MaxIm DL durante l’acquisizione e la guida sul finire di una serata di fotografica.

In commercio ci sono tablet più performanti, naturalmente, ma ho voluto testare la soluzione più economica per capire quali fossero le sue potenzialità. Per chi usa una reflex digitale rappresenta un’alternativa molto economica e migliore rispetto alle camere autoguida standalone (che devono essere alimentate comunque!) e gestire quindi la sola fase di guida. In generale anche per gli astrofotografi itineranti che desiderano togliere peso e cavi dalla loro macchina è una valida alternativa per gestire anche la fase di acquisizione. Ovviamente dovremo vedere dove e come appendere i vari cavi, power bank, tablet, dove posizionare la tastiera, etc.

A confronto:

  • Eagle: ovviamente è molto più performante di un economico tablet e consente di svolgere tutte le operazioni desiderate, oltre a fornire la flessibilità di utilizzo grazie al bridge di alimentazione integrato. Non ha problemi per eseguire qualsiasi software, così come per elaborare e acquisire filmati planetari con camere dotate anche di porta USB 3.0.
  • Tablet: ideale se abbiamo un setup molto leggero anche in termini di assorbimento della corrente, infatti le ccd raffreddate andrebbero comunque alimentate a parte, così come anche la montatura va alimentata a parte. In sostanza dovremo prevedere di alimentare ogni device in modo autonomo tranne quelli puramente USB. Questo porta a preferire il tablet se si riprende con una reflex non raffreddata, gestendo solamente l’autoguida e al massimo le riprese tramite un programma di terze parti.
  • Varius: può gestire tranquillamente, come alimentazione, montatura, camere raffreddate, fasce anticondensa. E’ stato pensato per le sessioni deepsky, mentre l’uso con camere planetarie sarà limitato dalla presenza di un hub usb 2.0 e dalla lunghezza del cavo derivante, oltre al limite fisico del la nostra macchina di ripresa. I software da eseguire dipendono dalla potenza del nostro PC/Tablet

 

Bonus: controllare il tablet in remoto

Queste poche righe in realtà sono generiche e consentono di visualizzare il desktop del computer/tablet che sta facendo le riprese da qualsiasi dispositivo, anche uno smartphone. Ci sono diversi metodi, ma il mio preferito è il seguente. Quello che serve è una rete locale che può essere creata con un piccolo router wifi da collegare a una presa USB (non serve internet!) e il programma VNC. Sul computer/tablet si installerà il software gratuito chiamato tight VNC, mentre sullo smartphone un’applicazione gratuita chiamata VNC Viewer. Si collegano entrambi i dispositivi alla rete locale, sul computer che controlla la sessione di ripresa si avvia Tight VNC e ci si annota l’indirizzo IP che gli è stato assegnato (Nella finestra di ricerca digitare cmd e premere invio; poi dal prompt dei comandi che si apre digitare Ipconfig, premere invio e leggere la voce IPv4 Adress); questo indirizzo deve essere immesso nell’applicazione VNC Viewer quando si deve configurare il computer a cui vorremmo connetterci. Il WinPad W700 si controlla in remoto che è un piacere e non ha mai mostrato rallentamenti.

A confronto:

  • Eagle: genera di automatico una rete WiFi e basterà connettersi con il device che vogliamo usare per controllarlo. Il tempo di latenza è inferiore rispetto al VNC, perchè usa un sistema differente.
  • Tablet: dobbiamo creare noi la nostra rete VNC, operazione consigliata a chi ha almeno un po’ di esperienza informatica. Sicuramente per i meno esperti si può usare TeamViewer come alternativa al VNC.
  • Varius: stesso discorso del Tablet, possiamo scegliere se affidarci ad un cavo sub 2.0 con lunghezza max 3mt circa, oppure creare anche qui una rete per il controllo in remoto.

 

Il Tablet è il Sacro Graal per la fotografia astronomica? Non proprio

La soluzione proposta qui comporta una spesa minima ma ha naturalmente delle limitazioni. Il tablet ha una risoluzione dello schermo di soli 1024X600 pixel e con appena 7 pollici di diagonale richiede una buona vista. L’hardware funziona e sembra stabile, ma nulla si sa sulla sua durata nel tempo. Il touch screen su uno schermo così piccolo non è comodo da usare, tanto che è indispensabile una tastiera e un mouse esterni. I collegamenti sono affidabili ma richiedono un minimo di manualità ed è necessario seguire le indicazioni per l’assemblaggio e l’ottimizzazione del setup proposte nel post. Insomma, si tratta di una soluzione che funziona certamente ma che non si può sostituire a oggetti di maggiore potenza, eleganza e affidabilità, come il sistema Eagle di PrimaLuceLab, che è molto più potente, versatile e pronto all’uso e ha materiali di ben altra fattura rispetto alla plastica e allo schermo minuscono di un tablet economico. La soluzione di Eagle, per chi fa della fotografia itinerante il suo stile di vita, possiede camere CCD con grossi sensori e magari vuole controllare focheggiatori elettrici, plate solving e in generale una complessa sessione di fotografia astronomica è sicuramente da preferire a un tablet dalla limitata potenza di calcolo e di memoria che non ce la farebbe proprio se si carica oltre la gestione della guida e della semplice acquisizione delle immagini.

E’ anche vero che il Varius della Geoptik è una buona soluzione per avere tutti i nostri device alimentati, collegati e con solo 1 cavo che va verso il nostro PC/Tablet.

D’altra parte si tratta di due soluzioni molto diverse; sarebbe come confrontare una vecchia reflex Canon 350D che si trova usata a meno di 200 euro con una nuovissima full frame Canon 7D Mark II: entrambe sono in grado di produrre dei risultati, ma la 7D possiede una potenza inarrivabile per la vetusta 350D e con la seria possibilità che questa potrà durare per ben più a lungo della configurazione più economica. Il Varius si colloca a metà tra i 2, come prezzo, funzionalità e possibilità.

A confronto:

  • Eagle: in un unico oggetto racchiude un vero e proprio pc, un bridge di alimentazione per tutti i nostri device e la possibilità di montarlo sul nostro setup, senza poi smontarlo ad ogni utilizzo. E’ in grado di fare tutto, dal deepsky alle riprese planetarie, specie nella versione Observatory. Inoltre è tutto integrato a livello software.
  • Tablet: ha dalla sua l’economicità e la compattezza, ideale per operazioni di base come autoguida e gestire l’acquisizione, ma per alimentare i nostri device (tranne quelli USB) dobbiamo pensare ad altre fonti di alimentazione. Va bene per gestire sessioni “semplici” sul deepsky, mentre per le riprese planetarie il framerate della camera si abbasserà moltissimo per via dell’hardware economico.
  • Varius: essendo solamente un bridge di alimentazione con hub usb 2.0 integrato, richiede sempre e comunque di essere collegato al nostro PC/Tablet. Offre molte possibilità di alimentazione, in pratica può alimentare qualsiasi cosa vogliamo connetterci. Rispetto al tablet, se ci colleghiamo un PC performante, possiamo eseguire tutte le operazioni che vogliamo, con limitazioni per l’uso con camere planetarie in fase di acquisizione. Si può montare e rimuovere dal nostro setup con la basetta fornita di serie.

 

 

Testiamo la linearità del nostro sensore digitale

Uno dei grandi vantaggi dei sensori digitali è la cosiddetta linearità, o risposta lineare. Di cosa si tratta? In pratica un sensore produce un’immagine la cui intensità è direttamente proporzionale alla luminosità dell’oggetto o al tempo di esposizione. Se ad esempio facciamo una foto di una stella non variabile, questo implica che se si raddoppia l’esposizione raddoppierà il segnale (la luminosità) che il sensore avrà registrato dalla stella. Detto in questi termini sembra la scoperta dell’acqua calda e si fatica persino a capirne l’utilità; anzi, gli astrofotografi più esperti neanche lo vedono come un vantaggio e vedremo presto il perché.

Che i sensori abbiano una risposta lineare all’intensità luminosa che li colpisce non è una cosa scontata. L’altro strumento che usiamo per osservare il mondo, l’occhio, NON possiede una risposta di questo tipo, ma logaritmica: in pratica l’intensità percepita da tutti gli occhi umani cresce con il logaritmo dell’intensità luminosa che lo colpisce. In questo modo, quindi, quando vediamo una sorgente che ci appare il doppio più luminosa di un’altra, la reale differenza di luminosità non è di due volte ma molto più alta. Il caso classico è rappresentato dalla scala delle magnitudini, in cui tra una stella di magnitudine 2 e una di magnitudine 4 non c’è una differenza di 2 volte come suggerisce l’occhio ma di ben oltre 6 volte. Questa curva di risposta meno ripida di una retta consente al nostro occhio di sopportare enormi differenze di luminosità senza avere particolari problemi perché di fatto schiaccia le reali differenze di luminosità e ce le fa percepire come se fossero molto più ridotte di quanto siano. Di fatto, per chi conosce un po’ il gergo della fotografia astronomica, l’occhio umano opera uno stretch logaritmico automatico su ogni immagine che registra.

Perché allora i sensori digitali possiedono una risposta lineare, così differente da quella dell’occhio umano? E perché questa sembra così importante tanto da dedicarle un post? La risposta è semplice: la linearità nella risposta è fondamentale se si vogliono effettuare precise stime di luminosità degli astri. L’introduzione dei sensori digitali nell’astronomia (professionale) ha prodotto una grande rivoluzione che ha consentito di arrivare persino a scoprire la debolissima traccia lasciata da un pianeta extrasolare in transito di fronte al disco luminoso della propria stella.

In ambito prettamente astrofotografico questo che è un enorme vantaggio viene ribaltato e si trasforma in uno svantaggio: gran parte dell’elaborazione di una foto estetica si basa infatti sui cosiddetti stretch, ovvero sull’alterare la risposta portandola da lineare a logaritmica. Questa operazione consente di osservare sullo schermo del computer sia dettagli molto deboli che molto brillanti. Se si fosse avuto un sensore già con una risposta logaritmica come il nostro occhio sarebbe stato quindi più facile ottenere fotografie estetiche, in un certo senso!

In realtà la risposta lineare del sensore serve anche per chi fa fotografia estetica e permette di correggere i principali difetti delle immagini attraverso i dark frame e i flat field. Quest’ultimi sono importantissimi nel poter disporre di un’immagine da elaborare priva di difetti macroscopici e dalla quale potremo discernere molto bene dettagli reali da artefatti dovuti a polvere sul sensore o alla vignettatura del telescopio. Se il sensore non ha risposta lineare per certi livelli di luminosità, i flat field potrebbero non correggere le immagini e il risultato potrebbe essere disastroso.

Chi si dedica alla ricerca, anche in ambito amatoriale, soprattutto fotometrica, ha l’assoluta necessità di sapere se e quanto è lineare la risposta del proprio sensore, altrimenti rischia di misurare magnitudini del tutto sballate rispetto ai dati reali. Ecco allora che ho trasformato un argomento che poco interessava in uno dei mille problemi aggiuntivi che si trovano ad affrontare tutti coloro che usano camere digitali: i sensori hanno una risposta lineare? Se sì, per tutto l’intervallo di luminosità consentito? Come possiamo capire come si comporta il nostro sensore?

Come al solito parto con le notizie brutte: non è scontato che la risposta del sensore sia lineare su tutto l’intervallo di luminosità che riesce a darci, anzi, i sensori delle reflex e in generale tutti quelli dotati di un meccanismo chiamato porta antiblooming (ABG) hanno un ristretto intervallo di linearità. Questo si traduce nell’impossibilità di fare misure fotometriche e spesso anche nella difficoltà quasi estrema di ottenere flat field che correggano bene le immagini estetiche. Quindi, se avete fatto del flat field e avete notato che “non flattano” la risposta potrebbe essere questa: non li avete fatti nell’intervallo di linearità del sensore, che potrebbe essere molto limitato.

La prossima domanda allora è scontata: come misuro l’intervallo di linearità del sensore? Come faccio a capire quando smette di comportarsi bene e inizia a fornire valori sballati di luminosità?

È qui che arriva la bella notizia, perché possiamo fare un test rapido e molto semplice, di giorno e stando comodi dentro casa. Di modi per fare questo test ce ne sono diversi, qui spiego quello più facile, rapido e chiaro. L’idea alla base è chiara: disporre di una fonte di luce fissa e fare una serie di scatti con tempo crescente, in modo da coprire tutta (o quasi) la gamma di luminosità concessa dall’elettronica del sensore. Poi misureremo la luminosità della sorgente in funzione del tempo di esposizione e costruiremo un bel grafico. Se la risposta è lineare, i punti si disporranno su una retta, altrimenti inizieranno a fare strane curve e potremo così individuare l’intervallo di luminosità in cui potremo effettuare i nostri flat field o misurare la luminosità delle stelle senza problemi.

Ora che abbiamo capito l’idea alla base, cerchiamo di metterla in pratica. Intanto la fonte di luce: ideale è una lampada a led, anche una torcia. Se abbiamo una flatbox le cose saranno ancora più semplici. Non è necessario montare la camera su un telescopio ma è sicuramente più comodo. Se non abbiamo grossi problemi, possiamo montare il telescopio in casa e metterci sopra la flat box. L’idea è quella di ottenere dei flat field con diversi tempi di esposizione, idealmente da 1 a 20-30 o più secondi, in modo che la luminosità media dell’esposizione più breve sia attorno a 1000-1500 ADU e quella dell’esposizione più lunga raggiunga la saturazione, circa a 65000 ADU se usiamo camere da 16 bit. In questi casi visualizzare l’istogramma ci sarà molto utile. Se la luminosità della flatbox è troppo forte possiamo inserire un filtro nella nostra fotocamera (tanto la linearità non dipende dalla lunghezza d’onda) o schermare la luce della flatbox con qualche foglio bianco.

A questo punto, in binning 1 (cioè a piena risoluzione) e con il sensore raffreddato (per chi se lo può permettere) effettuiamo degli scatti a esposizioni crescenti, partendo da 1 secondo fino ad arrivare alla saturazione, incrementando di un secondo ogni volta. Ripetiamo questa procedura 3 volte per avere una buona statistica (in pratica alla fine costruiremo 3 grafici indipendenti e vedremo i risultati) che ci permetterà di escludere eventuali variazioni della sorgente di luce. In alternativa possiamo mediare 5-6 singoli scatti per ogni intervallo di esposizione (ognuno dei quali calibrato con dark o con bias), come ho fatto nei risultati che troverete alla fine di questo post. Se abbiamo tempo e un CCD raffreddato, sarebbe meglio catturare circa 3-5 dark frame per ogni esposizione. Naturalmente non servono flat field perché stiamo analizzando di fatto dei flat field. Se abbiamo sensori non raffreddati non facciamo i dark ma i bias: una ventina di scatti con camera al buio e il più breve tempo di posa concesso dall’elettronica.

In fase di elaborazione non dovremo far nulla se non calibrare le nostre esposizioni. Attenzione in questo punto: i bias frame vanno bene per tutti gli scatti, mentre i dark frame sono collegati a ogni esposizione, quindi NON usiamo dark da 5 secondi per correggere le immagini da 2 secondi. So che alcuni software applicano un dark frame adattivo, ma non dobbiamo neanche pensarci!

Con le immagini calibrate adesso passiamo alla fase più noiosa: dobbiamo scegliere un’area di circa 50X50 pixel, sempre la stessa per ogni scatto e illuminata in modo circa uniforme, e annotarci il valore medio di luminosità, espresso in ADU.

In alternativa, se non ci sono forti variazioni di luminosità nell’intero campo, potremo usare tutta l’immagine come area di misurazione. Questo ci evita di dover tracciare un riquadro su ogni esposizione ma la precisione ne risentirà. Se i nostri speciali flat field possiedono variazioni di luminosità superiori al 10% nelle varie zone dell’immagine, siamo costretti a scegliere una piccola area verso il centro e con un’illuminazione più uniforme. La richiesta di luminosità uniforme lungo l’area di cui vogliamo misurare l’intensità luminosa è fondamentale per evitare che la misura venga falsata da porzioni che si trovano già oltre il range di linearità rispetto ad altre.

I programmi per fare questa misura sono quelli tipicamente astronomici, come AstroArt e MaxIm DL. Con MaxIm DL basta aprire l’immagine calibrata che si vuole misurare, visualizzare la finestra “Information Window” (View –> Information Window), e poi da questa scegliere la modalità “Area”. Di default compariranno le informazioni relative a tutta l’immagine, compresa quella che a noi maggiormente interessa: il valore medio della luminosità (Average), espresso in ADU. Se vogliamo o dobbiamo restringere l’area di misurazione, si deve tracciare un rettangolo sull’immagine con il mouse, ciccando con il tasto sinistro, tenendo premuto e trascinando il rettangolo che si formerà. In questo caso è assolutamente necessario annotarsi la posizione e le dimensioni della finestra di misurazione perché dovrà essere identica per ogni immagine che vorremo misurare, nella medesima posizione. Una volta tracciata l’area, la finestra “Information Window” ci darà le sue coordinate (quindi potremo ridisegnarla uguale senza problemi anche sulle altre esposizioni) e naturalmente i valori di luminosità media.

Area di misurazione della luminosità media con MaxIm DL e rispettiva "Information Window".

Area di misurazione della luminosità media con MaxIm DL e rispettiva “Information Window” in cui possiamo trovare la sua posizione e la luminosità media (Average).

 

Analizziamo le immagini

Bene, per ognuna delle immagini calibrate con dark frame o bias frame annotiamoci il relativo tempo di esposizione e il valore medio di luminosità. Importiamo i dati in un foglio di calcolo e cominciamo con le nostre analisi.

Come programma possiamo usare Excel o il gratuito Gnumeric, che funziona sia per Windows che per Linux. In ogni caso le operazioni da fare sono poche e semplici: si tratta infatti di costruire qualche grafico e magari fare una regressione lineare sui dati. Niente paura, spiego tutto nei prossimi punti.

  • Il primo grafico che dobbiamo fare mette in correlazione il tempo di esposizione e il valore medio di ADU misurato per ogni immagine. Sull’asse x va quindi il tempo di esposizione dei nostri speciali flat field, sull’asse y i valori medi di ADU. Da questo grafico, se abbiamo fatto tutte le misure per bene, dovremo trovare dei punti che si dispongono su una retta perfetta: caspita, il sensore è perfettamente lineare allora! No, non necessariamente. Questo è il primo grafico e serve per vedere se ci sono stati errori macroscopici nella fase di acquisizione ed estrapolazione dei dati (o se il sensore fa proprio schifo!). Con il grande intervallo di luminosità sull’asse y è impossibile vedere piccole deviazioni dal comportamento lineare. Quando la situazione può ingannare l’occhio (cioè quasi sempre), ecco che subentra una cosa che gli uomini hanno inventato tanto tempo fa e che i più, ahimé, disprezzano: si chiama scienza, in questo caso un po’ di statistica. La domanda a cui vogliamo rispondere è la seguente: il grafico ci sembra perfetto perché è così o perché siano stati ingannati? La risposta l’ho già data implicitamente qualche riga sopra, meglio quindi procedere spediti per vedere che avevo ragione;
Di primo acchitto il grafico sembra molto bello, ma l'occhio inganna...

Di primo acchitto il grafico sembra molto bello, ma l’occhio inganna…

 

  • A dominare il grafico non sono le probabili piccole deviazioni dal comportamento lineare ma il fatto che la luminosità cambia di migliaia di ADU lungo l’asse Y. Per togliere questo comportamento e mettere a nudo le più piccole imperfezioni del nostro sensore, dobbiamo fare quella che viene chiamata regressione lineare o fit lineare e analizzare i residui. In pratica diciamo al software di “unire” i punti con la migliore retta che è possibile costruire, poi sottrarremo i valori della retta ai punti reali e analizzeremo quelli che vengono chiamati residui, ovvero i punti depurati dell’andamento principale che ci impediva di vedere nel dettaglio il loro comportamento. Se i punti sono davvero tutti sulla retta come sembra dal primo grafico, i loro residui saranno tutti nulli o disposti in modo casuale attorno allo zero, e noi saremo contentissimi perché avremo in tasca il sensore digitale più preciso dell’Universo intero. Tranquilli, non c’è pericolo di cadere in questa eventualità…
    Sembra tutto complicato ma non lo è. Ci sono diversi modi per fare un fit lineare e poi sottrarne i valori ai dati. Con il programma Gnumeric, ad esempio, un modo molto rapido e user friendly è farlo fare in modo grafico al programma. Nelle opzioni di costruzione del grafico (che si attivano quando vogliamo costruire un nuovo grafico o quando facciamo doppio click su uno già creato), se ci posizioniamo sulla serie di dati immessi e clicchiamo sul punsalte “Aggiungi” potremo scegliere una bella “Trend line to serie 1”, in particolare del tipo “Lineare”. Nel nuovo menù che si apre basta accertarsi che l’opzione “Affine” sia selezionata e già potremo vedere una bella retta sovrapposta ai nostri dati.
In gnumeric, in pratica un clone gratis di Excel, possiamo fare tutti i calcoli che vogliamo. In questo caso ci serve un fit lineare e poi magari di visualizzare l'equazione della retta.

In gnumeric, in pratica un clone gratis di Excel, possiamo fare tutti i calcoli che vogliamo. In questo caso ci serve un fit lineare e poi magari di visualizzare l’equazione della retta.

 

  • Non abbiamo ancora finito, però. Clicchiamo ancora su “Aggiungi” e selezioniamo “Equazione to Regressione lineare 1”. Confermiamo tutto e vedremo comparire nel grafico sia la retta di fitting che l’equazione che la descrive. A questo punto dobbiamo creare una nuova colonna nel nostro foglio di lavoro, alla quale applichiamo l’equazione a ogni tempo di esposizione. In questo modo invece di una retta troveremo dei punti che si sovrappongono a essa in modo perfetto. Non c’è bisogno di graficarli; questi ci servono per fare la successiva operazione: creare i residui. I punti appena ottenuti sono quelli che si avrebbero in una situazione ideale in cui la risposta è rappresentata da un’unica e perfetta retta. I nostri punti sperimentali, invece, non avranno questa bella proprietà. Per capire quanto se ne discostano basta creare una nuova colonna in cui calcoliamo la differenza Osservato – Calcolato per ogni tempo di esposizione.

dati_better

  • Proviamo ora a costruire un grafico di questi residui in funzione del tempo di esposizione o, meglio, del valore medio di ADU corrispondente e vedremo che quella che prima era una retta perfetta ora in realtà è molto diversa.
Ora le cose sono più chiare e i dati non sono poi così ben disposti su una retta, che in questo caso dovrebbe essere parallela all'asse x!

Ora le cose sono più chiare e i dati non sono poi così ben disposti su una retta, che in questo caso dovrebbe essere parallela all’asse x!

 

Questo è il grafico davvero importante, perché ci dice come cambia il comportamento del nostro sensore in funzione della luminosità. Nella migliore delle ipotesi vedremo un intervallo lungo fino ad almeno 30 mila ADU in cui i punti si trovano su una retta quasi perfetta e poi divergono. Questo è il caso classico delle camere CCD scientifiche, tipicamente monocromatiche e prive della porta antiblooming.

Nella peggiore delle ipotesi, ovvero nel caso di camere CCD o reflex dedicate all’imaging estetico, le cose saranno ben peggiori, con diversi andamenti di “linearità” prima della saturazione. In questi casi diventa impossibile fare fotometria di alta precisione e spesso è complicato anche fare corretti flat field per riprese con soggetti deboli.

 

Due esempi reali

Ho effettuato il test di linearità appena esposto per due sensori CCD. Il primo, un Kak-402 con microlenti che equipaggia una SBIG ST-7XME, è il tipico sensore scientifico: monocromatico e senza antiblooming. Il secondo, un Kaf-8300 che equipaggia molte camere CCD, in questo caso una Moravian G2-8300 monocromatica, dotato di porta antiblooming, quindi più adatto all’imaging estetico.

I risultati evidenziano molte differenze. Se a prima vista i grafici della luminosità media in funzione del tempo di esposizione sono identici, o addirittura sembrano migliori nella Moravian (ma solo perché non si è raggiunta la saturazione, cosa che è avvenuta con la SBIG):

 

Test di linearità per due sensori CCD. Questi i grafici degli ADU medi in funzione del tempo di esposizione. Ci dicono poco e potrebbero ingannare.

Test di linearità per due sensori CCD. Questi i grafici degli ADU medi in funzione del tempo di esposizione. Ci dicono poco e potrebbero ingannare.

 

 Il fitting lineare con conseguente analisi dei residui rivela la reale situazione:

 Analisi dei residui: ora è fin troppo evidente quale sia il sensore migliore quanto a risposta lineare. Il Kaf 8300 presenta delle vere e proprie montagne russe!

Analisi dei residui: ora è fin troppo evidente quale sia il sensore migliore quanto a risposta lineare. Il Kaf 8300 presenta delle vere e proprie montagne russe!

 

Come si può vedere, la SBIG, a partire da circa 2000 ADU e fino a 25000 presenta una linearità che sfiora la perfezione, con un comportamento da manuale. Gli scostamenti dalla retta ideale sono dell’ordine dello 0,01%, ovvero di una parte su 10 mila. Questo consente ad esempio di mettere in evidenza senza problemi differenze di magnitudine dell’ordine del millesimo e rivelare quindi anche pianeti extrasolari in transito. Oltre i 30 mila ADU il comportamento comincia lentamente a divergere dalla linearità, sebbene bisogna superare i 40 mila per avere una non linearità dell’ordine dell’1%.

D’altra parte il grafico dei residui del Kaf-8300 è molto meno regolare. Si possono vedere almeno tre zone indipendenti, ognuna approssimabile con una retta di diverso coefficiente angolare: la prima fino a 9 mila ADU, la seconda da 10 mila a circa 18 mila e la terza da 20 mila a 30 mila, prima della naturale deviazione asintotica verso i valori di saturazione.  Questo è un problema se si vuole fare fotometria di alta precisione, in pratica impossibile, ma anche per i flat field. Quale valore usare per fare corretti flat field? La risposta forse già l’abbiamo vista da qualche altra parte, ma ora ne abbiamo la prova: per correggere un fondo cielo che tipicamente ha valori di poche migliaia di ADU, occorre che il flat field sia fatto nel primo intervallo di linearità, ovvero quello fino a 9000 ADU. In pratica, un buon flat field per un sensore di questo tipo è la media di tanti singoli flat che hanno come luminosità di picco circa 8000, massimo 9000 ADU. Per la ST-7XME invece, e in generale per tutte le camere sprovviste di porta antiblooming, i flat field si possono fare attorno a 25 mila ADU, in modo da avere il maggior rapporto segnale/rumore pur rimanendo ancora entro la zona perfettamente lineare.

 

Il test può essere fatto anche con le reflex senza problemi: basta scattare in formato raw agli ISO che di solito si usano per fare riprese astronomiche. In questo caso sarebbe interessante capire se e quanto varia la linearità della risposta in funzione degli ISO e in generale come si comportano questi sensori. Basta provare!

Elaborazione di una mia immagine: ecco i risultati!

Poco più di due settimane fa ho reso pubblici i file grezzi di una mia immagine astronomica, chiedendo a tutti gli interessati di elaborarla, a condizione di elencare i passaggi fatti e i software utilizzati. Ne è venuto fuori un progetto molto interessante, con la partecipazione di molti appassionati ed esperti di fotografia astronomica che hanno interpretato secondo il loro gusto personale i dati che avevo messo a disposizione. In questo post sono raccolte tutte le elaborazioni di chi ha partecipato, corredate di foto finali, di passaggi effettuati e a volte persino di screenshot e di processi eseguiti, in modo che chiunque possa riprodurre il risultato.

Prima di lasciarvi alle elaborazioni, mi piace tirare delle conclusioni, che per alcuni sono ovvie ma per altri meno:

  • Ogni immagine ha un impatto diverso su chi la osserva perché c’è una componente di interpretazione personale nel restituire i colori e i contrasti. Non troverete quindi due immagini uguali, ma…;
  • A prescindere dall’impatto estetico, un’attenta analisi mostra che tutte le elaborazioni mostrano circa gli stessi dettagli. Cambiano i contrasti, il livello di rumore, i colori, la saturazione… ma la forma, le dimensioni e la presenza o meno dei dettagli sono uguali per ogni foto e questo significa due cose: a) nessuno ha barato creando artefatti più o meno voluti e b) La fotografia astronomica non è arte ma deve rispecchiare la realtà. Non è foto ritocco ma elaborazione, spesso con metodi e processi rigorosi, che mira a mostrare nel miglior modo possibile ciò che è stato catturato e non ha lo scopo di migliorare in modo arbitrario i dettagli laddove il segnale non c’è;
  • A prescindere dal gusto personale, dalle ricette e persino dai software usati, quando si applica un buon procedimento di elaborazione il risultato tende a convergere e prescinde da cosa si è utilizzato per arrivarci. Ci sono software più specifici, altri meno; altri ancora sono potentissimi e alcuni richiedono più manualità da parte dell’utente ma alla fine, quando si ha una minima padronanza dei processi e si ha ben chiaro il legame stretto tra la fotografia e la realtà, i risultati convergono. Alcuni utenti meno esperti hanno forse esagerato abbassando curve e livelli e facendo quasi scomparire le tenui volute di polvere che abbracciano tutto il campo. E’ in questo caso che entra in gioco l’esperienza di elaborazione e la conoscenza del soggetto che si è ripreso. Questo significa che la fotografia astronomica non si improvvisa ma che sotto c’è un grande lavoro di esperienza e di studio, sia delle tecniche che dei soggetti astronomici.

Detto questo, vi lascio alle elaborazioni degli utenti che hanno partecipato a questo progetto, ringraziandoli pubblicamente.

La mia elaborazione, invece, corredata da tutti i passaggi fatti ed eseguita con software differenti rispetto alla maggioranza dei collaboratori, la trovate scaricando questo PDF. In fondo all’articolo è possibile visualizzare il collage di tutte le elaborazioni fatte per avere una panoramica d’insieme.

Elaborazione di: Daniele Gasparri

Elaborazione di: Daniele Gasparri

 

Ruggiero Carpagnano

Partendo dal file grezzo ho usato solo Pixinsight. Ho allegato uno screen shot dei processi usati.

Prima ho croppato l’immagine, poi ho usato il DBE. Dopo sistemato il fondo cielo e calibrato i colori con il Backgroundcalibration e il Colorcalibration. Successivamente ho applicato uno stretch STF sull’histogramtrasformation.

Ho creato una maschera di luminanza, l’ho clonata e dalla seconda mi sono creato una maschera di stella con Trouswavelet e l’ho sottratta alla prima maschera per averne una solo della nebulosità.

Ho applicato quest’ultima maschera alla foto e ho alzato un po la saturazione con le curve e poi un pochino (ma proprio poco) la curva del rosso per esaltare la nebulosità oscura.

Con Clonestamp ho eliminato i pixel caldi colorati.

Mantenendo applicata la maschera ho dato un paio di passati al 35% con LHE (uno con il Kernel basso ed uno alto) per esaltare il contrasto.

Un paio di passaggi di HDR per recuperare il nucleo.

StarMask e Morphologic per ridurre le stelle e una leggera deconvoluzione.

Con la maschera di stelle applicata ho cercato di sistemare la dominante gialla sulle stelle con al curva giallo/celeste.

Una passattina di ACDRN per il rumore

Ed una correzione con SCNR per eliminare il verde in eccesso.

Elaborazione di: Ruggiero Carpagnano

Elaborazione di: Ruggiero Carpagnano

 

Davide De Col

Ecco la mia versione della tua immagine con i seguenti passaggi interamente in Pixinsight:

  • Crop
  • Pulizia dei gradienti con il DBE
  • Background neutralization
  • Color calibration
  • Deconvoluzione
  • Masked stretch
  • Curve con saturazione e luminanza
  • ACDNR
  • Histogram transformation
  • Local histogram equalization per provare a dare profondità
  • Riduzione stelline
  • Saturazione stelline
  • Tgvdenoise
  • HDRmultiscaleTransform
  • Riduzione del rumore
  • SCNR
Elaborazione di: Davide De Col

Elaborazione di: Davide De Col

 

Paolo Demaria

Come software ho impiegato CCDStack (gestione colori, DPP e deconvoluzione), PixInsight LE (saturazione) e Photoshop CS2 (livelli, curve con maschere, riduzione rumore e correzione hotpixel).

Elaborazione di: Paolo Demaria

Elaborazione di: Paolo Demaria

 

Piermario Gualdoni

Ho aderito al tuo suggerimento per quanto riguarda l’elaborazione della tua Iris Nebula e la condivisione delle tecniche utilizzate.
Premetto che io riprendo con CCD mono, per cui il mio workflow è un pò diverso da quello che ti descriverò, comunque molti punti sono in comune. Sono partito dal tuo file già calibrato:
1) Preprocessing in Pixinsight:
– Histogram Transformation per lo stretching
– Automatic Background Extraction in divisione

2) Salvataggio come TIFF 16bit e Importazione in Photoshop CC dove effettuo quasi tutto il processing estetico:
– Applicazione della corrispondenza colori
– Denoise selettivo sulle zone a basso segnale con Topaz Denoise
– In camera raw aumento del contrasto, della saturazione e variazione della temperatura colore a gusto personale
– Riduzione dei diametri stellari con filtro minimo
– Aumento del colore sulle stelle tramite maschera di livello
– Aumento della nitidezza a zone tramite selezione sfumata
– Applicazione di Detail Extractor e Pro Contrast tramite plug in Nik Suite
– Finitura dei colori tramite correzione colore selettiva
– Ottimizzazione finale a gusto personale

Elaborazione di: Piermario Gualdoni

Elaborazione di: Piermario Gualdoni

 

Domenico De Luca

Ciao Daniele ti allego il JPG. Ho usato PixInsight e Photoshop; i tool te li elenco in sequenza.

1) PixInsight:

-Background Neutralization

-Color calibration

-Dynamic Background Extraction

-Histogram strech per passare a foto non lineare

-Dark structure ehnance

-Deconvoluzione

-HDR

-Saturazione

-Multiscale Median Trasform

2) Passaggio in Photoshop:

-Colore selettivo

Elaborazione di: Domenico De Luca

Elaborazione di: Domenico De Luca

 

Edoardo Luca Radice

Innanzi tutto ho ripetuto la calibrazione e l’integrazione in modo da cancellare gli hot pixel presenti nell’immagine.
Non ho usato i flat perché mancano i relativi dark e/o i BIAS (con i quali avrei potuto riscalare i dark dei light) e quindi è impossibile rimuovere la componente additiva dal master flat.
Visto che c’erano dei gradienti da I.L. abbastanza invadenti ho deciso, prima di fare l’integrazione, di applicare ABE (Automatic Background Extractor) a tutti il light impostando a 1 il grado del polinomio interpolatore, in questo modo ottengo un background col gradiente lineare che rimuove gran parte dell’inquinamento luminoso. Per farlo ho creato un image container per eseguire l’operazione in batch su tutti il light.
Fatto ciò ho integrato le immagini usando come peso la stima del rumore e un algoritmo di pixel rejection in modo da cancellare gli hot pixel senza degradare il segnale (Winsorized Sigma Clip)
Terminata l’integrazione ho eseguito un Crop per eliminare le aree non perfettamente sovrapposte.

Questi sono stati i passaggi di elaborazione:
– DBE (Dynamic Background Extractor) con correzione a divisione (per correggere la vignettatura e neutralizzare il fondo cielo);

– Ho applicato un RGB working Space uniforme e lineare (propedeutico alla deconvoluzione di immagini RGB);
– Deconvoluzione con una PSF gaussiana da 1,6 pixel usando un’opportuna maschera stellare per il deringing;
– Riduzione del rumore utilizzando TGVDenoise;
– Aggiustamento manuale dei colori con AssistedColorCalibration;
– Delinearizzazione, prima con una lieve trasformazione di istogramma, poi con MaskedStretch in modo da esaltare le parti deboli senza saturare il centro della nebulosa;
– Ripristino dell’RGBWorkingSpace sRGB (gamma 2.2);
– Compressione del Range Dinamico con HDRMultiscaleTranform utilizzando un’opportuna maschera di luminanza per non comprimere troppo le parti deboli;
– Sistemazione del contrasto tramite classica “curva ad S” con i canali RGB come target;
– Accentuazione delle zone scure tramite LocalHistogramEqualization anche qui con la consueta maschera di luminanza per non “uccidere” le parti deboli;
– Applicazione di una curva di saturazione (con la stessa maschera di LHE) per aumentare un pochino il colore;
-tocco finale con SCNR per rimuovere una il rumore verdastro ancora presente sulle parti più deboli.

Edorardo ha anche messo a disposizione le icone di processo utilizzate in PixInsight per reflicare i suoi risultati. Si possono scaricare qui.

Elaborazione di: Edoardo Luca Radice

Elaborazione di: Edoardo Luca Radice

 

Maximilian Iesse

Per mancanza di tempo sono passato direttamente alla elaborazione del “grezzo finale”.

Vado con ordine per i passaggi e programmi utilizzati:

Pixinsight:

  1. Dynamic crop: per ritagliare e lasciare fuori l’effetto mosaico
  2. Automatic background extractor, 1 volta in sottrazione ed una volta in divisione
  3. Color calibration
  4. Histogram transformation: per “strechare” l’immagine, in più passaggi
  5. HDR multiscale transformation: per cercare di recuperare un poco la parte interna alla nebulosa essendo un po’ bruciata
  6. Deconvolution: per aumentare la nitidezza, parametro StdDev portato a 1 per minimizzare gli artefatti

Paintshop:

  1. Mappatura toni locali: per contrastare maggiormente le nebulosità

Photoshop:

  1. Creata una maschera con la bacchetta magica, a partire dalle parti non luminose, lasciando fuori stelle e parti più visibili della nebulosa
  2. Riduci il rumore: per ridurre un po’ il rumore dovuto alla deconvoluzione
  3. Dopo aver invertito la maschera, ho fatto la correzione colori selettiva, lavorando per lo più su rossi e blu.
  4. Con il comando clone ho rimosso i difetti di pixel più evidenti

Questi sono i passaggi che ho fatto.

Il coma non ho idea di come correggerlo in post produzione.

Elaborazione di: Maximilian Iesse

Elaborazione di: Maximilian Iesse

 

Rossano Cortona

E stato usato esclusivamente Pixinsight:

1)    Histogram Trasformation

2)    Dynamic crop

3)    Automatic background extractor

4)    Background neutralization

5)    HDR multiscale trasform

6)    Star mask

7)    Morfological tranformation

8)    Mask invert

9)   Courve trasformation

10) ACDNR

11) Luminance Mask

12) Courve trasformation

13) DarkStructureEnhance

Elaborazione di: Rossano Cortona

Elaborazione di: Rossano Cortona

 

Elisabetta Trebeschi

Ciao, ho provato a elaborare il tuo file con il metodo che utilizzo ultimamente. Sw usati DSS, Lightroom (per abitudine sarebbe stato uguale e più ordinato con camera raw) e Photoshop.

1 – prima di tutto ho aperto il tuo file fits su DSS (NON ho fatto l’elaborazione da zero con lights – dark – flat);

2 – ho cliccato su azzera per riportare ai valori di default nei tre tabs (rgb/luminanza/saturazione);

3 – ho allineato i tre livelli rgb, una piccola correzione alla curva ed ho aumentato la saturazione a 15%, poi ho salvato in tiff 16bit;

4 – ho importato il file su Lightroom* e dato le impostazioni base, curve di viraggio e dettagli

– sulla destra ho clonato dei pixel verdi;

5 – ho aperto il file in photoshop per applicare il filtro “minimo” sulle stelle per rimpicciolirle:

Selezione->intervallo colore e con il contagocce ho selezionato una stella per ammorbidire la selezione. Selezione->modifica->espandi 4px. Selezione->modifica->sfuma 2px. Filtro->altro->minimo. Modifica->dissolvi minimo; dove non indicato ho lasciato le impostazioni di default.

 

* non pensavo di applicare il filtro minimo in photoshop altrimenti avrei aperto il file tid da lì usato il filtro Camera Raw per dare le impostazioni date con LR.

Elaborazione di: Elisabetta Trebeschi

Elaborazione di: Elisabetta Trebeschi

 

Alessio Vaccaro

In allegato c’è il mio “lavoro”. Cavolo! è la prima volta che metto mano su un CCD del genere! Fino ad ora ho solo lavorato con una Canon EOS 60D. Ho avuto un bel po’ di difficoltà a lavorare con i FITS a 32bit, non ci sono abituato!

Ecco il processing, più o meno dettagliato:

–          Dal grezzo che mi hai dato ho estratto un MONO con MaximDL;

–          A questo canale MONO applico una deconvoluzione “Maximum Entropy” con molte iterazioni (40-50) (sempre con MaximDL);

–          Dopo la deconvoluzione salvo il tutto in FIT 32bit. Apro il MONO_DEC appena salvato con PixInsight LE e, dopo aver fatto lo stretching logaritmico dell’istogramma, rimuovo un po’ di rumore alle basse frequenze (Wavelets) e alle alte (SGBNR). Salvo in TIF 16bit. Il MONO_DEC è pronto per Photoshop. Ora passo all’RGB;

–          Apro il file RGB (praticamente quello che mi hai dato tu) con MaximDL e faccio un binning 2×2. Salvo in FIT 32 bit;

–          Apro questo file con PixInsight e faccio lo stretching logaritmico stando attento a non tirare su troppo rumore. Salvo in TIF 32bit;

–          Apro i due file MONO_DEC e RGB su Photoshop e inizio a fare un trattamento separato sui due;

–          Il MONO_DEC prima viene smoothato da un paio di sfocature gaussiane poco evidenti che applico in modalità “schiarisci” e “normale” per appiattire il fondo cielo e per aumentare la profondità dell’immagine;

–          Dopo applico un Passa Alto sul MONO_DEC per risaltare i dettagli della nebulosa. Questo lo faccio con 2 raggi diversi: uno piccolo (dell’ordine dei 20-30px) e l’altro intorno ai 150-300px. Ovviamente tutto questo con le maschere e su dei livelli diversi che vengono “sovrapposti”. La luminanza è pronta;

–          Importo l’RGB su Photoshop, sistemo un attimo le curve e i livelli, aumento la saturazione e lo sovrappongo a tutti i livelli in modalità “colora”. Un po’ di ritocchi al colore (bilanciamento, curve, livelli, ecc..) a piacimento e poi è fatta;

–          Unisco tutto: ottengo l’immagine. Tocco finale che aumenta la profondità dell’immagine e dà un tocco un po’ più “magico” al tutto: prendo l’immagine appena ottenuta, la copio, la sovrappongo alla stessa, applico una sfocatura di 4-5 px e la metto in modalità “schiarisci”. Si ottiene quello che vedi!

Un bel casotto! Ci sono parecchi passaggi da programma in programma per compensare la mancanza di licenza in alcuni programmi (funzioni limitate). Questo è un workflow che ho “studiato”/scoperto/perfezionato in questi giorni, spero che il risultato sia di tuo gradimento!

Elaborazione di: Alessio Vaccaro

Elaborazione di: Alessio Vaccaro

 

Vincenzo Iodice

Mi sono permesso di realizzare queste elaborazioni, discutibili, però mi è piaciuto mettere in evidenza le nebulosità che sembrano siano presenti intorno alla IRIS. Nella prima foto le ho evidenziate in rosso, nella seconda in blu.

Le operazioni che ho fatto sono semplicemente, importarle ed elaborarle in DSS i light, dark e flat, inserendo il debayer giusto. All’elaborazione finale in DSS ho solo settato la saturazione a 18 per far emergere un minimo di colori.

In seguito ho aperto il file TIF con PS, ed ho solo giocato con i valori tonali e di saturazione mettendo in evidenza ora il rosso ora il blu.

Infine ho applicato i filtri polvere e grana e maschera di contrasto per aumentare un po’ il contrasto tutto qui.

Il risultato non è eccelso, ma le mie conoscenze si fermano qui.

Termino complimentandomi per i sui articoli sul blog sono molto utili.

Elaborazione di: Vincenzo Iodice

Elaborazione di: Vincenzo Iodice

 

Cristian Mari

Sono partito dallo stack, non so perchè pixinsight non voleva allinearmi i vari light ma va bene lo stesso.

Elaborazione eseguita totalmente in pixisight
Fase Lineare:

  • Dynamic PSF su una trentina di stelle;
  • Creata maschera stellare da utilizzare come deringhingh template nel processo di deconvoluzione, a cui passi pure l’immagine risultante del dynamyc psf;
  • Applicata la deconvoluzione con una 50 ina di passaggi;
  • Split dei 3 canali RGB e applicato processo linear fit prendendo come riferimento il canale verde;
  • Ricomposizione in rgb da channel combination;
  • Trasformazione in non lineare da ScreenTransferFunction applicato all’histogram transofrmation.

Fase non lineare:

  • Creazione di una maschera stellare ottenuta in pixel math dalla max() di tre maschere create su tre livelli di intensità e dimensione stellare;
  • Applico la starmask invertita per lavorare sulle polveri;
  • Sempre con la maschera attivata applico un processo di HDRMultiscaletransform lasciando i parametri di default;
  • Giocherello sulle curve;
  • Inverto la maschera per lavorare sulle stelle e applico una deconvoluzione leggera a 10 passaggi;
  • ColorSaturation per aggiustare l’azzuro e salvataggio in jpg.
Elaborazione di: Cristian Mari

Elaborazione di: Cristian Mari

 

Marco Boscolo

Ciao, ho ottenuto questa elaborazione eseguendo questi passaggi:
DEEP SKY STACKER
– selezione 90% delle immagini migliori (25 su 31)
– Impostazioni immagine –> taglio mediano kappa-sigma (K=2 , iterazioni = 5)
– Dark –> mediano
– flat mediano
Ottenuta l’immagine:
– Luminanza: mezzitoni = 48.8, Chiari = 30
– Saturazione = 20%
– Livelli RGB portati all’altezza del primo flesso inferiore della curva
-Salvataggio tiff applicando i cambiamenti

PHOTOSHOP:
– ritaglio immagine per migliorare l’inquadratura dovuta alla rotazione di campo
– regolazione livello neri
– aprendo una copia dell’immagine a parte in scala di grigi esalto i dettagli nebulari (esagerando per tirar fuori il più possibile)
e applico un leggero passaggio di noise ninja
– Copio questa immagine ottenuta nell’immagine principale impostando la tendina di somma livello da “Normale” a “Luminosità” e setto opacità al 75%
– ricalibro i livelli
– aumento saturazione +30
– applicazione del plugin (gratuito) HLVG
– riduzione del rumore mediante azione “deep noise reduction” ( il livello ottenuto lo sommo a 50% per non perdere troppo dettaglio)
– applico azione local contrast enhancement sommando( il livello ottenuto lo sommo a 30%)

Elaborazione di: Marco Boscolo

Elaborazione di: Marco Boscolo

 

Marco Burali

Partito dal file già preparato con colore. In maxln-dl sviluppato il segnale con ddp a controllo curva in manuale usando l’impostazione set-user-filter, poi ho applicato una seconda funzione ddp in modalità FFT-deconvolutiva e di contrasto, anche qui controllo curva segnale in manuale, leggero filtro locale adattivo per aumentare leggermente il contrasto, riequilibtio colore con la funzione Color-Bilance sul fondocielo salvato in Tiff: Portato in PS6, apertura con Camera Raw, regolazione contrasto e Chiarezza, poi leggerissimo ritocco con Esposizione gamma per la riduzione del rumore di fondo, conversione profilo in CMYK, regolazione livelli e allineamento istogramma, riconversione in RGB, regolazione bilanciamento colore, protezione delle stelle e apertura plug-in NIK e utilizzo della funzione Color-Efex- Detail Estractor saturazione colore al 30% e valore di estrazione sagnale al 12%, in modalità selezione inversa, apertura di maschera di livello e regolazione livelli RGB sulle polveri. Unito tutto in unico livello, selezione nucleo- sfumatura e ottimizzazione del contrasto e regolazione dei livelli rgb, deselezione e salvataggio. Lavoro molto sbrigativo ma secondo me buono. Spero di essere stato utile

Elaborazione di: Marco Burali

Elaborazione di: Marco Burali

 

Anna Luongo

  • tono automatico
  • colore automatico
  • livello automatico
  • curve output 62 input 19
  • filtro rc astro grandientxterminator
  • azioni astronomy tools  lighten only DSO and dimmer stars
  • increase star color
  • fade sharpen to mostly lighten
  • space noise reduction
  • enhance dso and reduce stars
  • lazo selezione centrale sfuma 18 maschera di contrasto fattore 96 raggio 3 soglia 0
  • selezione inversa curve output 98 imput 41
  • e poi ho salvato….
  • non sono riuscita a capire come fare a mettere in evidenza i colori…..

 

Elaborazione di: Anna Luongo

Elaborazione di: Anna Luongo

Provate a elaborare una mia immagine astronomica

Molti astronomi amatoriali, soprattutto nel campo della fotografia astronomica, non rivelano mai, se non in modo parziale e con molta riluttanza, i propri segreti di elaborazione delle immagini, credendo che il sudore versato per imparare alcune efficienti tecniche di elaborazione debba servire per mantenere una posizione di vantaggio sugli altri.
Io, tuttavia, non ho mai sposato questa filosofia anche perché stiamo facendo, volenti o nolenti, scienza, o almeno stiamo analizzando dati reali che devono produrre risultati reali, per di più come un hobby e non come lavoro. Per confermare la realtà di ogni elaborazione serve che, come in ogni processo scientifico, il risultato sia ripetibile da tutti gli altri dopo che questi sono stati cottettamente informati di cosa è stato fatto. La bravura di uno scienziato e anche di un astrofotografo non è nell’ottenere risultati unici e di portarsi il segreto nella tomba, ma di arrivare per primo a tali livelli, di sviluppare metodi, tecniche e percorsi innovativi che permettano di sfruttare ancora meglio la strumentazione e il cielo sotto cui è stata usata. Si verrà allora ricordati non solo per le belle foto ma anche per aver dato un fondamentale contributo alla crescita di una comunità, perché convidivere un viaggio con tanti appassionati è sempre meglio che sovrastare il prossimo con la propria saccenza. Se nessuno avesse mai comunicato le proprie scoperte in fotografia astronomica staremmo ancora inseguendo le stelle con un oculare a reticolo illuminato e in altri ambiti ben più importanti il mondo sarebbe stato molto più arretrato.

Con questo spirito di collaborazione, invece che di competizione, propongo questo primo post in cui metto a disposizione dei dati acquisiti con la mia strumentazione su un soggetto astronomico e invito chiunque fosse interessato a elaborare l’immagine e a convidivere il suo processo di elaborazione.
Il modo per partecipare è semplice:

  1. Da questo link si può scaricare una mia sessione fotografica sulla IRIS nebula, eseguita lo scorso 3 Agosto con un telescopio Newtoniano da 25 cm f4.8, montatura Ioptron iEQ45 e camera CCD a colori ST-2000XCM. Il file compresso (sono comunque 191 MB) contiene i light, i dark e i flat per chi volesse partire da zero. In alternativa, nella cartella principale trovate già il file grezzo da elaborare, frutto della media di 28 scatti da 720 secondi;
  2. Ognuno può elaborare (solo per uso personale e per questo progetto) nel modo che vuole l’immagine, che può poi inviarmi via mail (in versione jpg) a danielegasparri [at] yahoo.it (sostituite [at] con la @) corredandola con i passaggi e i software utilizzati (non serve descrivere in dettaglio tutti i parametri impostati per i filtri, ma sarebbe bello elencare tutti i tools e i passaggi fatti per arrivare al risultato);
  3. Le immagini elaborate e inviate alla mia mail, complete dei passi elaborativi effettuati, verranno pubblicate in questo post, corredate dal nome dell’utente (se non volete comparire con nome e cognome segnalatemelo via mail) e rappresenteranno un’ottima base di confronto tra diverse tecniche e differenti software di elaborazione;
  4. Dopo circa una settimana pubblicherò anche il mio risultato e i passi effettuati. Non lo faccio prima per non influenzare le vostre elaborazioni.

I dati che scaricherete non sono volutamente di qualità eccelsa perché sono stati ripresi con strumentazione economica accessibile a molti amatori (avrei potuto farvi elaborare un’immagine di Hubble ma non sarebbe stata molto indicativa delle immagini medie che ottengono gli astrofotografi!): si noterà il coma ai bordi del campo, qualche problema con l’inquadratura, qualche gradiente residuo dovuto a infiltrazioni di luce dal cielo e dalla strada vicina e dei colori duri da bilanciare perché ho ripreso senza un filtro taglia infrarosso, sfruttando quindi tutta la sensibilità della mia camera CCD a colori. Il cielo sotto cui è stata scattata questa immagine aveva una qualità media pari a 21.3 magnitudini su secondi d’arco al quadrato, non male per la nostra inquinata Penisola.

L’obiettivo di un’elaborazione (estetica) è semplice: estrapolare tutto il segnale ripreso, riuscendo a gestire bene le zone in cui questo è più forte e quelle in cui è più debole, minimizzare i difetti estetici e restituire allo stesso tempo un’immagine gradevole alla vista ma attinente alla realtà. Qualche informazione sulla natura della Iris Nebula può aiutare: si tratta di una zona ricca di gas freddo e polveri. Nei pressi della stella centrale questo diventa visibile come una nebulosa a riflessione, che ha un colore blu-azzurro. Lontano dalla luce della stella, gas e polveri diventano oscuri e asumono una tonalità leggermente virata verso il rosso/marrone.

Buona elaborazione!

Come fare ottime fotografie del Sole in H-alpha con una camera a colori

Fotografare il Sole attraverso un telescopio solare in H-alpha è una delle attività più belle e rilassanti dell’astronomia amatoriale, sia per la spettacolarità dei dettagli visibili, sia perché si può fare a qualsiasi ora del giorno (NON della nottee!) in pochi minuti.

Se però tutto fosse davvero facile e immediato, questo mio post si concluderebbe ora e non avrebbe neanche avuto senso scriverlo. Purtroppo, quindi, le cose sono leggermente diverse.

Un telescopio solare in H-alpha (o in altre lunghezze d’onda, come il calcio) mostra solo una piccolissima finestra di luce, che di fatto è monocromatica. Questo lo possiamo notare quando facciamo osservazioni: in H-alpha il Sole si presenta monocolore, di un rosso intenso privo di sfumature di tonalità. Non potrebbe essere altrimenti poiché non passa nessun’altra lunghezza d’onda se non quella dell’idrogeno Alpha a 656,3 nm. Per questo motivo, se vogliamo ottenere fotografie di ottima risoluzione ed estetica, è fortemente consigliato utilizzare una camera monocromatica e colorare poi la nostra foto in fase di elaborazione, se vogliamo dargli una parvenza di colori (sebbene non corretti perché stiamo lavorando su una sola lunghezza d’onda).

Le camere monocromatiche però non sono tanto diffuse come quelle a colori, soprattutto perché in questa categoria rientrano anche le reflex (molto meglio se modificate!). Cosa accade allora se proviamo a fare una foto (o un filmato) con una camera a colori attraverso un telescopio solare? Che se non stiamo attenti lo scatto sarà da buttare.

Le camere a colori, infatti, hanno dei filtri rossi, verdi e blu direttamente sui pixel del sensore e in questo modo riescono a catturare un’immagine a colori in un unico scatto. Quando lavoriamo però nella regione H-alpha, quindi nel rosso profondo, solo i pixel rossi, che sono solo ¼ del totale, riceveranno una grande quantità di luce: questo porta subito una cospicua perdita di risoluzione. Come se non bastasse, poi, la sorgente monocromatica inganna il software di controllo della fotocamera (e i nostri occhi che guardano lo schermo) restituendoci nella maggioranza dei casi un Sole uniformemente rosso e privo di tutti quei dettagli che risultavano evidenti all’oculare. Questo succede perché se cerchiamo di regolare la giusta luminosità complessiva, andremo per forza di cose a saturare l’immagine nel canale rosso, nonostante a monitor il disco solare ci sembri ancora piuttosto scuro e l’istogramma totale sembrerebbe confermare la nostra sensazione (sbagliando).

Tipica fotografia solare scattata con una camera a colori (scatto singolo di un video). Dove sono finiti i dettagli del disco? E le protuberanze perché sono così deboli? E’ tutta una questione di corretta esposizione…

Tipica fotografia solare scattata con una camera a colori (scatto singolo di un video). Dove sono finiti i dettagli del disco? E le protuberanze perché sono così deboli? E’ tutta una questione di corretta esposizione…

Come possiamo ottenere buone immagini del Sole in H-alpha anche con camere a colori? È possibile?

Certo che è possibile, basta solo applicare la giusta tecnica, che in qualche modo prevede di ingannare il sensore e il software di controllo della camera a colori.

La notizia migliore arriva dalla scarsa qualità della griglia di filtri colorati posta di fronte a ogni sensore a colori: i filtri blu e soprattutto verdi, infatti, sono parzialmente trasparenti alla lunghezza d’onda H-alpha, come si vede nell’immagine precedente, nella quale, a rigore di logica, solo il canale rosso avrebbe dovuto contenere informazione.  Possiamo allora sfruttare a nostro vantaggio questo “difetto”: l’obiettivo è infatti quello di concentrarci sul canale verde, che possiede la migliore risoluzione di tutti (perché i filtri verdi coprono metà del sensore). In fase di elaborazione, poi, estrarremo solo questo come se fosse un’immagine monocromatica da elaborare, dimenticando (quasi) il rosso (saturato) e il blu (troppo debole e con poca risoluzione).

Il punto fondamentale, quindi, è trovare in fase di ripresa la giusta combinazione tra esposizione e guadagno, tale per cui si abbia la corretta luminosità per il canale verde, trascurando quello che succede nel rosso, che sarà sempre saturo. La cosa interessante è che quando raggiungeremo la luminosità corretta per il canale verde l’immagine del Sole ci apparirà, all’improvviso, ricca di colori tendenti al magenta e pullulerà di tutti quei dettagli che prima, curando solo la luminosità del canale rosso, non riuscivamo a scorgere. A questo punto facciamo filmati (se abbiamo camere planetarie) o effettuiamo almeno una trentina di scatti (se abbiamo una reflex) e prepariamoci alla fase di elaborazione.

Eccoli i dettagli che vedevamo anche all’oculare! Con le camere a colori bisogna concentrarci nell’ottenere la giusta luminosità per il canale verde, saturando il rosso. In questo modo vedremo apparire i dettagli sulla nostra immagine e in fase di elaborazione useremo solo il canale verde per estrapolare tutti i dettagli.

Eccoli i dettagli che vedevamo anche all’oculare! Con le camere a colori bisogna concentrarci nell’ottenere la giusta luminosità per il canale verde, saturando il rosso. In questo modo vedremo apparire i dettagli sulla nostra immagine e in fase di elaborazione useremo solo il canale verde per estrapolare tutti i dettagli.

L’allineamento e lo stacking si fanno normalmente come se fosse una comune immagine. Quando avremo l’immagine raw dovremo, prima di fare qualsiasi altra cosa, estrarre il canale verde. L’estrazione del canale verde si può fare con ogni software a partire dall’immagine a colori. Con Photoshop, ad esempio, possiamo aprire l’immagine, posizionarci sul canale verde e fare copia e incolla in una nuova immagine. Con MaxIm DL basta dare il comando “Color –> Split tricolor”. In alternativa, se abbiamo usato Registax per fare la somma dei nostri scatti (con Autostakkert questo “trucco” non funziona), possiamo salvare l’immagine in formato fit e provvederà lui, in automatico, a separare i canali in altrettanti file.

Ora dobbiamo elaborare leggermente la nostra immagine estratta dal canale verde con i soliti filtri di contrasto. Tutti i programmi vanno bene ma presto vi accorgerete che farà la sua comparsa una strana e fastidiosa griglia: si tratta della traccia lasciata dalla matrice di filtri colorati della camera di ripresa. Possiamo eliminare questo difetto all’istante: basta applicare, prima di qualsiasi altra elaborazione, un filtro gaussiano di raggio (circa) 1 pixel. In Photoshop il filtro si trova in “Filtro –> Sfocatura –> Controllo sfocatura” ma consiglio di applicarlo con software dedicati come MaxIm DL, Registax o IRIS; quest’ultimo è il migliore. Con questa operazione preliminare saremo in grado di applicare filtri di constrasto (maschere sfocate o wavelet) in modo molto più efficace.

Effetto di un filtro gaussiano su un'immagine solare ottenuta con una camera a colori ed estratta dal canale verde. In questo modo si ridimensiona moltissimo l'effetto della griglia di filtri posta sopra il sensore.

Effetto di un filtro gaussiano su un’immagine solare ottenuta con una camera a colori ed estratta dal canale verde. In questo modo si ridimensiona moltissimo l’effetto della griglia di filtri posta sopra il sensore.

 

Con l’immagine del canale verde elaborata ci accorgeremo presto che le protuberanze sembreranno spente e deboli. In questo caso ci viene in aiuto il vantaggio di aver fatto foto con una camera a colori, perché non dovremo fare una nuova ripresa sovraesposta per il disco per estrapolare il segnale delle protuberanze, ma basterà recuperare il canale rosso della nostra immagine di partenza a colori. Se il disco è saturo, le protuberanze si dovrebbero vedere molto bene e a questo punto potremmo trasferire questa informazione sulla nostra immagine estrapolata dal canale verde (e già elaborata) per ottenere una fotografia solare completa, con dettagli della cromosfera e delle protuberanze.

Vediamo il tutto con un esempio pratico. A questo link potete scaricare i due canali, rosso e verde, estratti da un’immagine a colori ed entrambi elaborati con pochi filtri di contrasto (dopo il solito gaussiano, o filtro sfocatura, di raggio 1 pixel per togliere la griglia di filtri).

Apriamo le immagini in Photoshop e copiamo l’immagine estratta da quello che era il canale rosso sull’immagine che proveniva dal canale verde.

Il canale verde conteneva dettagli del disco, quello rosso le protuberanze. Possiamo prendere il meglio da entrambe le immagini senza sacrificare nulla. Copiamo l’immagine che era stata estratta dal canale rosso sopra quella che era stata estratta dal canale verde.

Il canale verde conteneva dettagli del disco, quello rosso le protuberanze. Possiamo prendere il meglio da entrambe le immagini senza sacrificare nulla. Copiamo l’immagine che era stata estratta dal canale rosso sopra quella che era stata estratta dal canale verde.

Poniamo l’opacità di questo nuovo livello a zero e spostiamoci sul livello di sfondo rappresentato dal fu canale verde. Con lo strumento bacchetta magica e tolleranza alta, tipicamente tra 50 e 100 (in questo caso ho usato 80) clicchiamo in un punto qualsiasi del fondo cielo. Magicamente si formerà una selezione attorno al disco solare che non includerà le protuberanze.

Dobbiamo selezionare tutto tranne il disco, comprendendo nella selezione anche le eventuali deboli protuberanze del nostro originario canale verde.

Dobbiamo selezionare tutto tranne il disco, comprendendo nella selezione anche le eventuali deboli protuberanze del nostro originario canale verde.

A questo punto il gioco è semplice: sfumiamo la selezione di un pixel. Ora spostiamoci sul livello contenente l’immagine proveniente dal canale rosso (senza aumentarne l’opacità), facciamo copia (ctrl+c) e incolla (ctrl+v) e la “magia” è completa: comparirà un nuovo livello contenente solo la parte esterna della cromosfera, con le protuberanze ben visibili!

Un anello di fuoco attorno al Sole: sono comparse le protuberanze che erano tanto evidenti in quello che era il canale rosso della nostra foto.

Un anello di fuoco attorno al Sole: sono comparse le protuberanze che erano tanto evidenti in quello che era il canale rosso della nostra foto.

Giochiamo un po’ con l’opacità per regolare la luminosità di questo anello attorno al nostro Sole e poi uniamo i livelli. La nostra immagine è completa. Potremo volerla colorare, ma su questo argomento tornerò con un post adatto, così anche chi utilizza camere monocromatiche potrà trovare ottimi spunti per rendere ancora più bella ogni immagine solare. Nel frattempo, avete idee/suggerimenti su come come dare il colore alla nostra immagine solare in H-alpha, prima che vi sveli la mia ricetta preferita?

In questo caso ho impostato l’opacità del livello con le protuberanze al 53% e regolato le curve per far vedere bene le protuberanze più deboli ma senza creare un vistoso e brutto effetto di anello di fuoco attorno al Sole.

In questo caso ho impostato l’opacità del livello con le protuberanze al 53% e regolato le curve per far vedere bene le protuberanze più deboli ma senza creare un vistoso e brutto effetto di anello di fuoco attorno al Sole.

Come correggere le stelle allungate nelle nostre foto

Quante volte vi è successo di litigare con l’inseguimento del telescopio o con l’autoguida che sembra dotata di una propria, sadica, intelligenza e che ogni tanto si diverte a far uscire le stelle mosse sulle nostre sudatissime foto? Di solito, presi anche dallo sconforto, si prendono gli scatti rovinati e si buttano ma quest’operazione, viste le difficoltà affrontate per ottenere quegli scatti, non dovrebbe mai essere fatta alla leggera.

Per fortuna nella maggioranza dei casi possiamo recuperare le nostre foto, a patto che le stelle abbiano ancora una parvenza di astri puntiformi e non siano delle linee lunghe decine di pixel.

Ci sono due modi di aggredire questo problema, in base a quanto è grave:

 

Su una sessione di ripresa solo un paio di scatti mostrano stelle un po’ allungate, mentre gli altri sono tutti buoni. In questo caso una scuola di pensiero dominante prevede di non includere i pochi scatti venuti male nella somma. In realtà, se non vogliamo perdere neanche un po’ del sudato segnale, possiamo includere nella somma anche le poche immagini non perfette, a patto che le combiniamo con un algoritmo del tipo “Sigma Clip”. In pratica, al di là dell’interpretazione prettamente matematica, questo modo di mediare gli scatti tende a escludere tutti quei dettagli transienti che non compaiono nella maggioranza degli scatti. In questo modo possiamo includere immagini attraversate da aerei e satelliti senza che questi diventino visibili sull’immagine grezza da elaborare e anche nel caso di stelle non perfettamente puntiformi il difetto non verrà mostrato, se la maggioranza delle foto incluse nella somma avrà stelle perfette.

 

Tutte le foto che vogliamo sommare presentano stelle leggermente allungate. Questo è il caso più disperato, in cui tutti vorrebbero buttare il lavoro di una notte. Per fortuna a tutto (o quasi) c’è rimedio. Intanto usiamo tutti gli scatti per fare la somma e ricavare l’immagine grezza, che naturalmente in questa situazione mostrerà anch’essa le stelle leggermente allungate. A questo punto elaboriamola come se niente fosse, facendo stretch, regolando colori e chi più ne ha più ne metta. Come atto finale, poi, cerchiamo di porre rimedio a quelle brutte stelle allungate. Se l’immagine ha un grande formato, come quello tipico delle reflex, possiamo ridurre il difetto riducendo le dimensioni dell’immagine anche del 50%. I sensori da diversi milioni di pixel ci consentiranno ancora di avere un’immagine di generose dimensioni, più incisa, con meno difetti, tra cui stelle di certo meno allungate. Se il difetto persiste, o se non abbiamo grossi sensori da poterci permettere di perdere metà dei pixel, possiamo attaccare il problema in modo più creativo. Spesso una leggera deconvoluzione mitiga il brutto effetto, ma è complicata da usare e richiede immagini con ottimo segnale. Esiste un metodo, più semplice ed efficace, che si può attuare manualmente con Photoshop o qualsiasi altro programma di elaborazione grafica, in pochi ma efficaci modi:

  • Apriamo la nostra immagine in Photoshop;
  • Ruotiamola in modo che l’allungamento delle stelle sia perfettamente verticale o orizzontale. Questa operazione è fondamentale: se l’allungamento è diagonale potremo avere molti più problemi del previsto (ma potete, anzi, dovete provare!);
  • Selezioniamo tutta l’immagine, copiamola e incolliamola su un nuovo livello. D’ora in poi lavoreremo su questo;
  • Dobbiamo selezionare le stelle e solo le stelle. Di solito io procedo con lo strumento bacchetta magica con tolleranza attorno a 60 e con click successivi, tenendo premuto il tasto “shift”, seleziono tutte le zone contenenti il fondo cielo. In questo modo, in realtà, si seleziona tutto fuorché le stelle, ma poi con il comando “Selezione –> Inversa” otterremo la selezione sugli astri. Questa operazione è molto comune nell’elaborazione delle fotografie del profondo cielo, poiché si tende a separare l’oggetto e lo sfondo dal campo stellare, che ha caratteristiche che richiedono un’elaborazione differente, per questo motivo la do per scontata in questa situazione (ma magari ci torneremo in qualche post futuro). Nel nostro caso usiamo la selezione delle nostre stelle per fare un mezzo “miracolo”;
  • Dopo aver selezionato le stelle invertendo la selezione faticosamente fatta, espandiamola di un pixel e sfumiamola di altrettanto. A questo punto attorno alle stelle, almeno la grande maggioranza e di certo le più brillanti, quindi le più allungate, avremo tanti piccoli cerchietti. Il “miracolo” avviene nel passo successivo;

 

Selezioniamo le stelle, espandiamo e sfumiamo la selezione di un pixel

Selezioniamo le stelle, espandiamo e sfumiamo la selezione di un pixel

  • Applichiamo un filtro che in pochi conosceranno. Si chiama “Sposta” o “Offset” se abbiamo la versione in inglese. Si trova in “Filtro –> Altro –> Sposta”. Si aprirà una finestra in cui potremo far scorrere due cursori che sposteranno le nostre stelle di una quantità che imposteremo noi. Nel nostro caso dobbiamo spostare il contenuto della selezione di una piccola quantità, quasi sempre un pixel, nella direzione perpendicolare all’allungamento. Se le stelle sono allungate lungo l’asse verticale, dovremo quindi spostare lungo l’asse orizzontale; viceversa se l’allungamento è orizzontale (ecco perché prima ho detto di orientare in modo furbo l’immagine!). Il verso non è importante, quindi è indifferente se impostiamo un valore di +1 o -1. Confermiamo e osserviamo cosa succede: tutte le stelle della nostra selezione si sono spostate di un pixel in una direzione! Ma come può aiutarci questo a correggerne l’allungamento? È nel prossimo punto che avviene la “magia”:
Applichiamo il filtro "Sposta" lungo la direzione perpendicolare all'allungamento

Applichiamo il filtro “Sposta” lungo la direzione perpendicolare all’allungamento

  • Togliamo la selezione e impostiamo il modo di unione di questo livello su “Schiarisci” (in basso a destra, nella scheda “Livelli”; di default è impostato su “Normale”) e osserviamo cosa accade: solo la porzione delle stelle che si trova spostata di un pixel nel livello superiore viene aggiunta al livello inferiore contenente l’immagine originale e le stelle diventano all’improvviso molto più rotonde!
Combiniamo i livelli con il metodo "Schiarisci" e uniamoli: le stelle ora sono molto più rotonde di prima!

Combiniamo i livelli con il metodo “Schiarisci” e uniamoli: le stelle ora sono molto più rotonde di prima!

Abbiamo appena compiuto un’operazione che sembra davvero fantascienza, ma è reale e ben spiegabile, anche se, come è facile intuire, non bisogna abusarne e di certo non bisogna applicarla se vogliamo usare le nostre immagini per scopi scientifici. Si tratta di un mero ritocco estetico che però è in grado di salvare la nostra serata, trasformando un’immagine mediocre con astri allungati in uno scatto che non contiene più neanche il ricordo delle imprecazioni dette durante la serata e nella prima parte dell’elaborazione, quando pensavamo che sarebbe stato tutto da cestinare.

Per far capire quanto sia semplice l’operazione, ho preparato un file immagine di Photoshop contenente una mia foto rovinata da una guida poco precisa. Potete scaricarlo qui e fare pratica. In questo file ho già copiato l’immagine sul livello superiore che useremo per spostare le stelle e già fatto la selezione delle stelle per voi (già espansa e sfumata, quindi non dovete fare nulla): basta caricarla con il comando “Selezione –> Carica selezione” (si chiama “Stelle”). A questo punto applichiamo, al Livello 1, il filtro “Sposta” con movimento di un pixel lungo l’asse orizzontale. Confermiamo e impostiamo il metodo di unione di questo livello su “schiarisci”: improvvisamente vedremo l’immagine sottostante con le stelle molto più rotonde. Uniamo i livelli e salviamo la nostra immagine rinata a una nuova, insperata, vita!

Conoscevate questo metodo? Quali altri espedienti conoscete per porre rimedio a stelle leggermente allungate?