Appunti di spettroscopia, qualche risultato

Negli ultimi tempi i contributi su questo blog sono fioccati, con risultati davvero notevoli ed articoli di assoluto rilievo! Dai contributi del nostro eccellente Daniele Gasparri a quelli di profilo scientifico di Albino Carbognani: non ci siamo davvero fatti mancare nulla. O quasi….

In effetti, ci abbiamo pensato un po’ su, ma tra la grande divulgazione tecnica e i profili scientifici più alti qualcosina, ancora, mancava… Mancava il contributo di astrofili comuni, astrofili come noi, magari molto specializzati! Contributi di profilo tecnico, con un taglio operativo, ma sempre con uno sguardo, una strizzata d’occhio, al mondo scientifico. Ad avviso di chi scrive, interventi come quello che vi sto introducendo, dovrebbero rappresentare, specie in tempi in cui è molto ampia la possibilità di accesso e di condivisione paritaria delle informazioni, un vero riferimento per tutti gli astrofili, e forse indicare quello che si potrebbe considerare come il solo, vero obiettivo tecnico finale, per una ampia parte degli astrofili amatoriali: fornire un proprio, personale, preziosissimo ed apprezzatissimo contributo alla ricerca scientifica! Naturalmente, ciò non può che riguardare soprattutto e in particolare gli astrofili con un po’ più esperienza alle spalle, ma senza escludere mai nessuno.

Certo, i contributi di profilo scientifico vengono spesso forniti in silenzio, senza clamori, senza luci della ribalta, e forse anche per ciò finiscono con l’essere interesse solo di pochi. Non fanno sgranare gli occhi ai bambini, alla vista di tutti quei colori. E non sono comprensibili direttamente ad una vasta platea di uditori generalisti. Ma sono proprio questi contributi a rendere il maggior servizio alla scienza e a far progredire DAVVERO il sapere umano!

Passo quindi a presentarvi, quest’oggi, il contributo di un grande astrofilo, oltre che di un grande amico e di un vero e proprio vulcano di idee, risorse ed ingegno: Claudio Balcon. Nel ringraziarlo personalmente, e a titolo di TS Italia tutta, per aver dedicato parte del suo, pur già ridotto, tempo libero per redigere questo articolo, mi limito a concludere rimarcando il fatto che, qui, si ha a che fare con una passione vera e profonda, di quelle che ci mostrano come la grandezza, per un astrofilo, non si misuri col portafogli, ma soprattutto con l’orologio, oltre che con la testa e con il cuore!

Grazie Claudio!

Buona lettura.

 

LUCA ZANCHETTA – TELESKOP SERVICE ITALIA

 

 


0

Innanzitutto una piccola introduzione di storia della spettroscopia. A dispetto di quanto si potrebbe pensare, la spettroscopia ha avuto inizio molto molto tempo fa, fin dai tempi di Tolomeo, o addirittura prima: nonostante l’altissimo valore del contributo dato da Tolomeo, infatti, non si può scordare che egli condusse i propri studi riprendendo il lavoro effettuato già molto prima di lui da Ipparco, il quale classificò le stelle non solo per intensità ma anche per colore, in particolare distinguendole tra bianche e rosse.

Tuttavia lo scopo di questo articolo è molto più attuale e richiede, quindi, un salto temporale in avanti di almeno un paio di millenni! Nel mondo contemporaneo non ci sono di certo difficoltà ad avere accesso ad articoli, lezioni universitarie, trattati di varia natura in tutti i campi della scienza. C’è una cosa però che in nessun caso riusciremo a trovare preconfezionata in forma digitale, ovvero l’emozione! La scarica di adrenalina pura che ti investe quando sei proprio tu, di persona, quello che ha conseguito un risultato tecnico e scientifico che fino a prima ti sembrava impossibile; e che magari è anche una prima volta, in termini di risultato, dal punto di vista scientifico.

Quando guardiamo un oggetto scarsamente luminoso, il nostro occhio non riesce a percepirne i colori, in quanto attiva dei recettori a maggior sensibilità in grado di discernere solamente vari livelli di grigio. Se osserviamo la nebulosa di Orione con un binocolo o un piccolo telescopio, ad esempio, notiamo solamente un chiarore blu-verde, ben lontano dalle complesse dominanti cromatiche che emergono nelle immagini fotografiche più profonde che libri, riviste e internet ci offrono a pioggia; immagini che forse, in prima battuta, da neofiti, anche noi speravamo di vedere, immergendoci nel tripudio di una molteplicità di brillanti colori.

L’avvento della pellicola fotografica prima, e della camera CCD/CMOS poi, ci ha consentito, tuttavia, di arrivare laddove il nostro occhio non può assolutamente arrivare. I sensori elettronici a colori consentono di ottenere tre immagini nelle bande di colore rosso, verde e blu (RGB) che, una volta composte, riproducono la gamma cromatica tipica della nostra capacità visiva. I vantaggi di questi dispositivi sono molteplici: dalla possibilità di poter impostare tempi di esposizione enormemente superiori al tempo equivalente alla nostra capacità visiva, a quella di utilizzare una efficienza quantica fino a oltre 100 volte superiore a quella dell’occhio e persino a quella della pellicola fotografica. Fra i sensori a colori, tuttavia, non esiste di fatto uno standard rigoroso per quanto riguarda la curva di risposta delle bande RGB, ed è pertanto difficile confrontare misure fotometriche riprese con camere a colori diverse tra loro.

A differenza dei micro-filtri RGB integrati, nonché dei tradizionali kit RGB di filtri in cella ad uso ritrattistico, quelli fotometrici UBVRI sono normalizzati e consentono di ottenere misure calibrate secondo standard riconosciuti in ambito scientifico mondiale. Naturalmente la standardizzazione di questi filtri pone anche dei limiti: qualora volessimo, infatti, aumentare la risoluzione spettrale sarebbe necessario incrementare il numero di filtri con bande passanti più strette e contigue. Il vantaggio di questo sistema, anche se crea qualche lineamento di complessità in fase di ripresa, è quello di coprire tutta l’area geometrica del sensore, consentendo quindi di analizzare più soggetti contemporaneamente, ma in questo caso ciò va a scapito nuovamente della praticità operativa, in quanto diventa necessario provvedere a realizzare un numero elevato di pose per ciascun campo inquadrato.

Prendendo in considerazione, ad esempio, dei filtri dotati di una banda da 1nm, e volendo coprire tutto lo spettro del visibile, sarebbero necessari centinaia e centinaia di filtri, per ciascuno dei quali diventa indispensabile effettuare altrettante riprese. Questa strada, perciò, risulta essere una decisamente improponibile…

Per avere risoluzioni spettrali superiori a quelle ottenibili con i filtri fotometrici si utilizzano quindi gli spettroscopi. Le caratteristiche di questi strumenti, come quelle dei telescopi ai quali sono collegati, dipendono fortemente dagli obiettivi che si vogliono raggiungere, ad esempio: classificazione spettrale delle stelle, misura della velocità di rotazione delle galassie, analisi chimica delle nubi interstellari, ricerca di pianeti extrasolari o altro ancora.

Personalmente ho scelto di operare nel campo della spettroscopia a bassa risoluzione. La strumentazione che utilizzo è quindi composta da un telescopio Newton da 8” F5, da un acromatico 80/400 di guida, da uno spettroscopio, da una camera di guida CMOS e una camera di ripresa CCD di buona qualità.

Lo spettroscopio è composto da una fenditura regolabile, da un collimatore da 32mm di focale, da un reticolo di diffrazione a trasmissione da 100 righe/mm, rimovibile dal percorso ottico, e da un obbiettivo da 32mm.

1
Figura 1

 

Con il reticolo rimosso, agendo sulla fenditura, si agisce selezionando l’oggetto da analizzare; per essere più precisi, più che di fenditura dovremmo parlare di una “maschera” poiché, data la corta focale del telescopio, una fenditura propriamente detta non dovrebbe essere più ampia di pochi micron: risulta quindi evidente che mantenere un soggetto, spesso dotato di una luminosità superficiale molto debole, perfettamente centrato su una fenditura propriamente detta per i lunghi tempi necessari ad effettuare una acquisizione di segnale di valore, non è cosa semplice… Pertanto, al suo posto, una più semplice “maschera” viene impiegata, al solo ed esclusivo scopo di evitare la presenza di stelle luminose e di disturbo laddove si andrà poi a disperdere lo spettro.

La figura 1, di cui sopra, è stata ripresa durante la fase di iniziale aggiustamento della posizione delle lame della fenditura, per centrare il nucleo di due galassie (NGC7319 e NGC7320) appartenenti al famoso quintetto di Stephan.

2
Figura 2

 

La figura 2 è stata ottenuta con la stessa strumentazione, ma senza l’interposizione dello spettroscopio, con un tempo di integrazione di circa due ore. La larghezza della maschera, simulata con il rettangolo rosso, è di circa quindici pixel, approssimativamente cinque volte il valore del FWHM delle stelle presenti.

3
Figura 3

 

La figura 3, rappresenta lo spettro ottenuto con circa novanta minuti di integrazione, chiaramente risultante dall’interposizione del reticolo di diffrazione tra OTA e camera di ripresa. Per allineare le immagini, realizzate con pose da cinque minuti, è stata utilizzata una stella presente all’interno della fenditura e visibile nell’ordine zero dello spettro. Le righe verticali sono dovute all’atmosfera terrestre, generate prevalentemente dalle lampade dell’illuminazione pubblica. Le righe orizzontali sono gli spettri degli oggetti selezionati.

In particolare, il riquadro individuato con la lettera A, evidenzia lo spettro della galassia NGC7319, mentre quello indicato con la lettera B individua quello relativo alla galassia NGC7320. Le altre righe orizzontali sono spettri di stelle appartenenti alla nostra galassia. La galassia NCG7319 presenta delle intense righe di emissione, evidenziate nella foto con le frecce, caratteristica che contraddistingue la presenza di un nucleo attivo: si tratta quindi di una galassia di tipo Seyfert.

4

Figura 4

 

Il grafico della figura 4 è stato ottenuto elaborando la figura 3, togliendo il contributo del cielo e, successivamente, tarando la sola dispersione. Per effettuare la taratura è stata presa come riferimento una stella di classe A, nel caso specifico Vega, che è caratterizzata da righe di assorbimento dell’idrogeno ben evidenti. In verde sono riportate le righe di emissione di alcuni elementi in quiete e le barrette orizzontali evidenziano lo spostamento verso il rosso della NGC7319. La velocità di allontanamento indicativamente risulta essere di 6700km/s. Il segnale disperso dello spettro della galassia NGC7320 è basso e rumoroso e non presenta righe che emergono dal continuo.

La spettroscopia a bassa risoluzione di oggetti deboli, effettuata con piccoli telescopi, può fornire informazioni scientificamente di grande interesse, qualora la dispersione del poco segnale raccolto sia in buona parte concentrata in poche righe di emissione.

5
Figura 5

 

La figura 5 è stata ottenuta con una integrazione di dieci minuti ed è relativa al quasar 3C273. Rispetto alla figura 3, la mascheratura qui utilizzata è stata più larga e, come conseguenza, la risoluzione spettrale del fondo cielo è risultata un po’ meno definita. La risoluzione limitata dalla maschera di soggetti estesi è indipendente dal seeing, mentre quella relativa a soggetti puntiformi è direttamente condizionata dal seeing e dagli errori di inseguimento.

6
Figura 6

 

La figura 6 è stata ottenuta eliminando dalla figura 5 il fondo cielo e tarando lo spettro sia in dispersione che in ampiezza. Per eseguire le tarature è stata utilizzata la stella Denebola. Le prime tre righe della serie di Balmer dell’idrogeno sono particolarmente intense rispetto alle altre e risultano spostate verso il rosso. La velocità di allontanamento è di poco inferiore al 16% della velocità della luce, che corrisponde, secondo la legge di Hubble, ad una distanza di oltre 2 miliardi di anni luce.

7
Figura 7

 

La notte del 22 dicembre scorso, nella galassia CGCG58-57 è stata segnalata una probabile supernova di magnitudine 16,4 da parte del ASAS-SN, denominata AT2016izg. La sera del 23 dicembre ho deciso di verificare le modifiche che avevo apportato allo spettroscopio, puntando proprio quella probabile supernova. La figura 7 è la ripresa effettuata con circa un’ora di posa; le barrette rosse evidenziano la supernova in questione.
La sera stessa ho estratto lo spettro della SN e, dopo aver eseguito le necessarie tarature in dispersione ed ampiezza, ho osservato un profilo che avevo già visto altrove: si poteva riconoscere l’ampia e profonda banda di assorbimento del silicio. Successivamente mi sono collegato a “GELATO”, ho caricato il file dello spettro della probabile supernova e dopo pochi secondi è comparso l’esito dell’analisi: supernova Ia, al 100%.

8
Figura 8

 

La figura 8 è stata scarica da “GELATO”. Qualche giorno dopo è arrivata la conferma ufficiale con ATEL 9904 da parte del Mayall/KOSMOS che si trattava proprio di una supernova tipo Ia.

Questa è solo una piccola panoramica di risultati ottenibili con strumentazione amatoriale ed uno spettroscopio fatto in casa. L’emozione provata in quell’istante, ovviamente, è il vero motore di tutto, è quell’emozione di cui accennavo all’inizio, ed è ciò che sprona uno spettrofilo a portare avanti le sue ricerche, migliorando la propria strumentazione e migliorandosi sempre!

Come fotografare una bellissima Mineral Moon

La Luna è l’oggetto celeste più fotografato e fotogenico. A piccoli o alti ingrandimenti, di notte e persino di giorno, in fase sottile o quando è quasi piena, è un obiettivo che garantisce sempre un grande spettacolo.

L’unico problema del nostro satellite sono i colori. Illuminato dalla luce del Sole, quel pezzo di roccia che ci orbita intorno da 4,5 miliardi di anni mostra una colorazione priva delle bellissime sfumature che invece possiamo trovare facilmente su Marte, Giove, Saturno, per non parlare degli oggetti del profondo cielo. La sua superficie scura, dalla brillanza simile a quella dell’asfalto appena steso, sembra essere priva di quei contrasti cromatici che incantano i nostri occhi e ci consegnano un Universo pieno di colori.

La Luna ha dei colori? Ha tonalità reali? E nel caso, come possiamo superare le limitazioni dei nostri occhi e osservare queste sfumature?
La risposta è affermativa e prevede di applicare una semplice tecnica chiamata Mineral Moon. Prima, però, dobbiamo capire quali sono i veri colori della Luna, se ne ha.

La superficie selenica è composta da rocce simili a quelle terrestri e, proprio come qui sulla Terra, ci sono zone in cui la composizione chimica può cambiare, a seconda del tipo di minerali prevalenti. Ogni minerale ha una colorazione tipica, anche se questa è spesso molto più tenue di quella che può percepire l’occhio. Se varia l’abbondanza di un certo minerale, è allora scontato pensare che possa cambiare, in modo leggero, il colore. Sulla Terra possiamo capire meglio la situazione: le zone del deserto del Sahara sono rosate, mentre quelle del deserto australiano appaiono rosse. Sulla Luna accade una cosa simile, anche se le differenze cromatiche sono molto tenui e visibili solo attraverso un’opportuna tecnica fotografica.

La Mineral Moon è una tecnica molto semplice di fotografia che prevede di catturare immagini a grande campo del nostro satellite con sensori a colori e di applicare una semplice tecnica di elaborazione che ci permetterà di estrapolare la grande quantità di informazione contenuta nelle nostre fotografie.

 

La strumentazione

La strumentazione adatta è costituita da una normale reflex, anche non modificata, al fuoco diretto di un telescopio che NON sia un rifrattore acromatico, poiché questi soffrono di cromatismo. Tutti i catadiottrici e i telescopi Newton sono perfetti allo scopo (e anche i rifrattori apocromatici veri, cioè con almeno 3 lenti). Non importa il diametro perché non siamo interessati, almeno all’inizio, a una stratosferica risoluzione. Le foto più spettacolari, infatti, si ottengono includendo tutto il disco lunare nel campo inquadrato, magari in prossimità della Luna piena, così sappiamo anche cosa fare in quelle notti di solito poco prolifiche per le osservazioni astronomiche.

 

Tecnica di ripresa

L’acquisizione delle immagini non è dissimile da quella necessaria per fotografare i pianeti. Si catturano tanti frame, in formato grezzo (raw) tutti identici. È importante raccogliere tanti scatti per aumentare la dinamica dell’immagine e ottenere così un’immagine in cui i colori saranno ben visibili. Non c’è un limite ma in generale sarebbe meglio catturare almeno 100 frame, scattando a bassa sensibilità, magari 100 ISO. Non aumentare la sensibilità di scatto perché si incrementa il rumore e diminuisce la dinamica, che è l’unica cosa che davvero conta in questo caso.

I momenti migliori per fare gli scatti sono quando il nostro satellite si trova molto alto sull’orizzonte. Questa richiesta è fondamentale per evitare che la nostra atmosfera alteri in modo irreversibile i tenui colori che vogliamo estrapolare.

 

Elaborazione

Dopo aver allineato e sommato i singoli scatti con programmi come Registax o Autostakkert, cercando di scartarne il meno possibile, tanto la risoluzione effettiva non conta molto, dobbiamo lavorare sull’immagine grezza in due fasi, una dedicata esclusivamente al colore e l’altra alla risoluzione.

Creiamo due copie identiche della nostra immagine grezza. Useremo una di queste come canale di crominanza, al quale quindi cercheremo di estrarre al meglio i colori tralasciando i contrasti. L’altra versione la trasformeremo in bianco e nero e applicheremo delle maschere di contrasto, concentrandoci solo sul lato dei contrasti e della risoluzione. Questa sarà la base di “luminanza” che poi coloreremo con la versione a cui avremo estrapolato i colori. Agendo in questo modo possiamo sfruttare sia l’informazione cromatica che quella spaziale, senza sacrificare nulla del segnale che abbiamo raccolto con tanta fatica.

Sulla copia dedicata al colore non dobbiamo applicare alcuna maschera di contrasto ma agire in due modi. Prima di tutto dobbiamo eliminare la dominante giallastra tipica del nostro satellite, che rappresenta solo il contributo della luce solare. Per fare questo possiamo operare un bilanciamento del bianco, selezionando come punto campione una zona dalla colorazione neutra (di solito NON nei piatti mari, che tendono a essere azzurri). A volte anche la funzione “colore automatico” di Photoshop aiuta molto e restituisce un’immagine priva di dominante generale. L’obiettivo è avere un’immagine che sembra (ma non lo è) in bianco e nero, senza dominanti.

A questo punto possiamo passare alla fase successiva: aumentare la saturazione del colore fino a far comparire i colori ma senza creare artefatti. In generale è meglio procedere a piccoli passi, aumentando la saturazione di circa il 30% ogni volta invece che farlo in un’unica soluzione. Piano piano vedremo la Luna colorarsi. Ci fermeremo solo quando cominceremo a vedere il rumore di fondo e l’immagine diventerà molto granulosa. Non bisogna applicare altri strani filtri, come quelli fotografici, che fanno più danni che altro: ricordiamo infatti che stiamo cercando di rappresentare la realtà come è e non come vorremmo che fosse!

Ecco i colori della Luna! L’immagine, però, non è proprio bella a livello estetico, ecco perché abbiamo a disposizione l’altra copia trasformata in bianco e nero e a cui abbiamo applicato qualche maschera di contrasto per renderla bella.

I colori ci sono ma l'immagine è molto granulosa. Non importa, per questo abbiamo creato una versione di luminanza che coloreremo con questa.

I colori ci sono ma l’immagine è molto granulosa. Non importa, per questo abbiamo creato una versione di luminanza che coloreremo con questa.

Prendiamo allora la nostra crominanza, un po’ brutta, e copiamola sulla versione di luminanza, trasformata in immagine a colori. Allineiamo i due livelli e impostiamo il modo di unione su “colore”. Come per magia, l’informazione del colore viene trasferita sulla versione esteticamente più gradevole e la nostra Mineral Moon è pronta!

Le due versioni a confronto. A sinistra ci siamo concentrati solo sulla luminanza e sui dettagli. A destra solo sul colore. Ora dobbiamo unire al meglio le due informazioni.

Le due versioni a confronto. A sinistra ci siamo concentrati solo sulla luminanza e sui dettagli. A destra solo sul colore. Ora dobbiamo unire al meglio le due informazioni.

 

Sovrapponendo il file di crominanza a quello di luminanza e unendo con il metodo "colore" ecco che la magia è completa: una foto che mostra i dettagli e i veri colori della Luna!

Sovrapponendo il file di crominanza a quello di luminanza e unendo con il metodo “colore” ecco che la magia è completa: una foto che mostra i dettagli e i veri colori della Luna!

La Mineral Moon

La Mineral Moon

I colori sono reali? Certo! Anche se l’occhio non li percepisce, non vuol dire che non esistono, piuttosto che il nostro apparato visivo non ha la sensibilità sufficiente a restituirceli, come d’altra parte accade a tutti gli oggetti del profondo cielo. La realtà è molto più ampia del piccolo spicchio accessibile al nostro occhio. In un certo senso, allora, è più corretto dire che è la versione monocromatica che noi possiamo vedere di solito, della Luna e delle nebulose, a non essere reale, perché la realtà, indagata con strumenti più sensibili e oggettivi, mostra un Universo pieno di colori!

Immagini di questo tipo, oltre a essere belle per la vista, contengono dati interessanti dal punto di vista geologico. Certo, la precisione nel determinare gli elementi prevalenti non è elevatissima ma possiamo dire, ad esempio, che le zone rosse sono povere di ferro e in generale più antiche, mentre quelle blu rivelano aree ricche di titanio. Chissà che un giorno anche queste nostre foto non serviranno ai primi minatori lunari come indicazione su dove trovare maggiori quantità dei preziosi minerali che cercheranno di estrarre.

Albino Carbognani: piccoli punti di luce che si muovono in cielo

Quando si parla di nomi come questo, ogni presentazione risulta superflua; tuttavia non posso fare a meno di spendere alcune brevi parole su Albino Carbognani, che oltre ad essere uno dei grandi nomi dell’astronomia nel nostro paese, e un amico di vecchia data, si rivela essere persona sempre capace di sorprendere. Uno di quelli che riesce a mostrarti, a farti capire davvero, che chi nasce astrofilo, astrofilo rimane. Per tutta la vita! Al di là dei successi conseguiti nel mondo scientifico; al di là della ricerca professionale; al di là persino degli strumenti pazzeschi coi quali puoi operare ogni santo giorno, fino a renderli routine.

L’astrofilia, ci insegna Albino, è qualcosa in più, qualcosa che va oltre la semplice osservazione amatoriale del cielo.

L’astrofilia è contemplazione, l’astrofilia è stupore, l’astrofilia è passione; grande, che non si spegne mai. È quella strana forma di sana follia che ti fa svegliare nel cuore della notte, anche se qualcuno all’altro capo del letto ti invita a restare; anche se fuori c’è un mondo assonnato, avvolto dal gelo. Ti fa alzare, preparare, impegnare e faticare per ore, se serve, al solo scopo di poter osservare ancora una volta quel piccolo puntino luminoso lassù… È quell’istinto che ti spinge a fare e impegnarti ancora, con il cuore, con l’anima, con il poco tempo libero che hai, con i conti che non tornano mai, anche quando già in tanti, prima di te, si sono cimentati con quel CCD su quella galassia.

È un desiderio, una fame, che non passa mai; neanche quando sai, come il nostro Albino, che lo strumento che stai per usare, il TUO telescopio, l’estrinsecazione materiale di ciò che fa di te un astrofilo, all’osservatorio non farebbe nemmeno la funzione di guida.

Ecco, questo è il modo in cui voglio introdurre oggi lo splendido articolo di Albino, che pubblico qui sotto: un grande lavoro, di un grande amico, ma soprattutto di un grande astrofilo!

 

LUCA ZANCHETTA – TELESKOP SERVICE ITALIA

 

 


 

Piccoli punti di luce che si muovono in cielo

Come e perché fare la fotometria degli asteroidi

 

Albino Carbognani, Ph.D.

Spesso e volentieri gli astrofili che usano telescopio, montatura computerizzata e camera CCD hanno come obiettivo principale l’astrofotografia di oggetti deep-sky, cioè la ripresa di nebulose, ammassi stellari e galassie, principalmente per fini estetici con la rincorsa al dettaglio più tenue. Si tratta di una attività che può dare molte soddisfazioni, i sottili disegni delle nebulose e le delicate trame delle galassie hanno il loro indubbio fascino. Peraltro l’astrofotografa richiede un notevole investimento in attrezzatura piuttosto sofisticata, senza contare il tempo che richiede per ottenere buoni risultati.

Considerato l’investimento sulla strumentazione può essere interessante chiedersi come si possa svolgere anche una attività interessante dal punto di vista scientifico: l’imaging deep-sky non esaurisce sicuramente tutte le possibilità di utilizzo. Certo, quando si fa scienza si devono compiere delle misure e questo può complicare la strada da percorrere per ottenere dei risultati, ma la soddisfazione alla fine sarà veramente notevole. Sotto questo punto di vista gli asteroidi offrono diverse possibilità entusiasmanti!

 

L’astrometria dei NEA

La prima attività scientifica cui si può pensare quando si tratta di corpi minori è la caratterizzazione orbitale degli asteroidi near-Earth (NEA). Si tratta degli asteroidi che con la loro orbita possono passare a meno di 0,3 UA dalla Terra. Sulla scala dei milioni di anni le orbite dei NEA sono talmente instabili (cioè caotiche) che rappresentano un potenziale rischio impatto per il nostro pianeta. Complessivamente ne sono noti più di 15.600 e negli ultimi anni la media delle nuove scoperte è di circa 1000 ogni anno. Grosso modo è noto il 95% dei NEA con diametro pari o superiore al km, poco meno di 1000 oggetti. L’obiettivo ora è la scoperta e caratterizzazione della maggior parte degli oggetti con diametro superiore ai 140 m, attività che richiederà ancora parecchi anni per essere portata a termine perché più si scende con il diametro e maggiore è il numero degli oggetti. Il valore minimo di 140 m per il diametro può sembrare piccolo, in realtà non lo è affatto se si considera che la celebre Catastrofe di Tunguska del 30 giugno 1908 è stata provocata dalla caduta di un piccolo asteroide di soli 50 metri di diametro! In effetti il danno che un asteroide è in grado di provocare è sì proporzionale alla massa ma anche al quadrato della velocità di caduta. Essendo quest’ultima dell’ordine di svariate decine di km/s ecco che anche un piccolo oggetto può causare un danno rilevante.

Un tipico NEA è quindi un oggetto “piccolo” e anche molto scuro perché la superficie assorbe gran parte della luce solare. Per questo motivo un NEA può essere scoperto solo quando è già in prossimità della Terra e approssimativamente nella direzione opposta al Sole. A questo scopo è necessario impiegare grandi telescopi con ampi campi di vista, in grado di scansionare l’intera sfera celeste nel più breve tempo possibile e ripetere il processo in continuazione. Chiaramente attrezzature di questo tipo sono oltre le possibilità di un astrofilo. In effetti le survey che si occupano della scoperta dei NEA sono tutte statunitensi, fra quelle di maggior successo ci sono la Catalina Sky-Survey in Arizona, che utilizza due telescopi da 68 e 150cm di apertura, e Pan-STARSS nelle Hawaii con due telescopi da 180 cm di diametro.

Il contributo degli astrofili diventa importante nella fase successiva alla discovery, quando gli oggetti appena scoperti vengono inseriti nella NEO Confirmation Page (NEOCP) del Minor Planet Center per la conferma e la determinazione preliminare dell’orbita. Peraltro contribuire alla caratterizzazione astrometrica di un NEA, oltre al valore scientifico del lavoro, ha il suo indubbio fascino!

Purtroppo però, negli ultimi anni si è assistito ad un progressivo aumento della magnitudine dei NEA da confermare, come è logico aspettarsi visto che tutti gli asteroidi “grossi” oramai sono noti. Di conseguenza, mentre nel 2005 anche con un piccolo telescopio da 25-30 cm di diametro c’era solo l’imbarazzo della scelta perché gli oggetti avevano una magnitudine apparente attorno alla +18, ora si veleggia attorno alla +20 con tendenza a salire. Chiaramente se il diametro del telescopio è troppo piccolo, diventa difficile ottenere delle immagini misurabili per dare il proprio contributo.

Tuttavia la determinazione dell’orbita non esaurisce tutto quello che si può fare su un NEA o, meglio, su un asteroide di Fascia Principale (MBA). Infatti, una volta nota l’orbita, dell’asteroide in sé non conosciamo ancora niente. Per questo il passo successivo all’astrometria è la fotometria, che permette di studiare fisicamente l’asteroide: in primo luogo di determinare il periodo di rotazione. La buona notizia è che si tratta di un campo di ricerca dove anche con un piccolo telescopio si può dare il proprio contributo e che si possono fare delle scoperte del tutto inattese!

Attualmente, nel database del Minor Planet Center ci sono circa 474.000 asteroidi numerati, di cui appena 20.200 (circa il 4,3 %), hanno un nome. Dai dati presenti nell’Asteroid Lightcurve Database, uno dei punti di riferimento per chi si occupa di fotometria degli asteroidi, gli oggetti numerati di cui è noto il periodo di rotazione sono circa 16.000, pochissimi rispetto al totale dei numerati: solo il 3,4%. Considerate le magnitudini in ballo per un tipico MBA (da +14 alla +16), si tratta di un settore dove si può dare il proprio contributo originale anche con telescopi di piccolo diametro (20-30 cm). La caratterizzazione fisica degli asteroidi è un campo di ricerca con ampie possibilità di sviluppo, anche per i prossimi anni, e poi fare la fotometria degli asteroidi permette di caratterizzare fisicamente questi antichi testimoni dell’evoluzione del Sistema Solare.

 

La strumentazione per la fotometria

Vediamo qualche indicazione strumentale sul “setup ideale” da utilizzare per la fotometria degli asteroidi. Prima di tutto il telescopio deve avere almeno 20 cm di diametro e deve essere accessoriato con una buona camera CCD a 16 bit, cioè con circa 216 = 65.536 livelli di intensità possibili. La camera deve essere almeno raffreddata con una cella Peltier avente un delta T di 30-40 °C rispetto alla temperatura ambiente e deve essere del tipo non-ABG, cioè senza antiblooming. L’antiblooming, utile per l’estetica delle foto deep-sky, non deve essere presente perché con quest’ultimo si perde in sensibilità, risoluzione e risposta lineare tutte caratteristiche importanti quando si fa ricerca scientifica. Il sensore deve essere del tipo in bianco/nero per massimizzare l’efficienza quantica e la camera può essere dotata di una ruota portafiltri con filtri standard B, V, R e I di Johnson-Cousins. La scala dell’immagine CCD può oscillare da 1 a 2 secondi d’arco per pixel, dipende dalle condizioni di seeing locali, in modo tale che il diametro stellare sia descritto da almeno 2-3 pixel. In ogni caso, per questo tipo di lavoro non sono necessarie le lunghe focali tipiche delle riprese planetarie in alta risoluzione, o i lunghissimi tempi di posa caratteristici della fotografia deep-sky.

Per avere misure fotometriche attendibili è necessario che l’immagine dell’asteroide non sia in saturazione ed è obbligatorio fare i file di calibrazione standard da applicare alle immagini, riprese ovviamente nel formato FITS (Flexible Image Transport System) standard. Da evitare nel modo più assoluto formati compressi come il jpg perché si perde l’informazione fotometrica. I file di calibrazione necessari sono il master dark, ottenuto dalla mediana di alcune decine di dark frame presi alla stessa temperatura e identico tempo di esposizione delle immagini e il master flat, ottenuto dalla media di almeno alcune decine di flat frame singoli, ovviamente ciascuno corretto con il proprio master dark.

La presenza di un telescopio di guida e di una camera di autoguida con porta ST4 da collegare alla montatura può non essere necessaria se la montatura equatoriale è sufficientemente stabile e robusta, visto che i tempi di posa tipici sono al più di alcuni minuti. La montatura equatoriale deve essere preferibilmente del tipo a forcella per evitare i problemi fotometrici che può dare il meridian flip, l’inversione degli assi che avviene attorno al passaggio in meridiano e che, di solito, affligge le equatoriali alla tedesca. Per compensare il meridian flip si può ritardare il più a lungo possibile l’inversione della montatura in questo modo si possono ottenere curve di luce più continue, cioè senza “gradini”. Caldamente consigliata infine la presenza del computer per il puntamento automatico, per non perdere tempo prezioso nella fase di ricerca degli asteroidi in cielo.

Per quanto riguarda la scelta dei target interessanti, NEA o MBA, si possono consultare le ultime pagine del Minor Planet Bulletin (vedi http://www.minorplanet.info/mpbdownloads.html), la rivista scientifica internazionale liberamente disponibile in pdf e punto di riferimento per professionisti e non per quanto riguarda la fotometria degli asteroidi.

 

La fotometria d’apertura

In astrofisica con il generico termine fotometria si indica lo studio della radiazione ottica emessa da un corpo celeste, avente una lunghezza d’onda fra 400 e 700 nm (1 nm = 10-9 m). Si parla invece di radiometria quando si considera anche la radiazione emessa al di fuori dell’intervallo del visibile.

In una tipica immagine con una posa superiore alla decina di secondi, le sorgenti puntiformi (stelle, asteroidi ecc.), vengono convolute dagli effetti della turbolenza atmosferica, dall’ottica del telescopio, dalle vibrazioni del tubo ottico e così via. Il risultato è che la distribuzione della luce sul sensore può essere descritta da una superficie gaussiana. Di solito la fotometria che viene fatta sulle immagini CCD, dopo la correzione per master dark e master flat, è la fotometria d’apertura. Con questa tecnica si sovrappone al target un anulus di misura con un diametro pari a 3 volte la full width at half maximum (FWHM), cioè la larghezza a mezza altezza del tipico profilo gaussiano che ha la sorgente puntiforme. Prendere 3 volte la FWHM di una sorgente puntiforme equivale a prendere un anello con un diametro pari a circa 7,1 volte il valore di sigma della gaussiana (vale la relazione 1 FWHM 2,355), quindi con 3 FWHM si è sicuri di includere praticamente tutto il segnale proveniente dalla sorgente puntiforme e raccolto dai pixel del CCD.

a

Figura 1. Gli anulus di misura di una sessione di fotometria d’apertura riguardante l’asteroide near-Earth 2002 WP. I cerchi gialli sono per il target, il verde è per la prima stella di confronto, i cerchi rossi sono per le altre quattro stelle di confronto.

Il CCD è un dispositivo a risposta lineare quindi l’intensità I di una stella (in unità arbitrarie), ottenuta sommando l’intensità di tutti i pixel che compongono l’immagine della stella (o dell’asteroide), all’interno dell’anello di misura sarà direttamente proporzionale al flusso luminoso ricevuto. All’intensità I del target va però tolto il valore del segnale proveniente dal fondo cielo e non dalla sorgente che ci interessa. Il valore della intensità del fondo cielo si ottiene leggendo il valore di intensità dei pixel posti in un anello più esterno ma concentrico a quello di misura della sorgente, possibilmente senza stelle di fondo (vedi Fig. 1). Se indichiamo con B il valore del fondo cielo (che si ottiene dal valore medio del pixel del fondo moltiplicato per il numero di pixel misurati del target), il segnale del solo target sarà dato da:

1  (1)

Noto il segnale S della sorgente, si può calcolare quella che è nota come magnitudine strumentale:

2  (2)

Qui t è il tempo di posa dell’immagine e S/t è una quantità proporzionale al flusso della sorgente. In questo modo si possono confrontare le magnitudini strumentali dello stesso target ma riprese con tempi di posa diversi.

Una volta misurata la magnitudine strumentale del target e delle stelle di confronto si può ottenere la variazione di magnitudine del target in funzione del tempo usando la tecnica della fotometria differenziale. La fotometria differenziale consiste essenzialmente nel misurare la differenza di magnitudine strumentale fra il target e la media delle magnitudini strumentali di due o più stelle di confronto scelte nello stesso campo di vista. Rispetto alla fotometria calibrata quella differenziale non richiede particolari condizioni di trasparenza costante del cielo e fornisce una buona accuratezza quando si tratta di misurare piccole variazioni di luminosità (inferiori al decimo di magnitudine), perché sia la luce del target sia delle stelle di confronto attraversano la stessa air-mass e, se hanno colore simile, subiscono anche gli stessi effetti di estinzione atmosferica.

In effetti, volendo essere pignoli, la differenza delle magnitudini strumentali differisce di una quantità proporzionale alla differenza degli indici di colore CI dalla differenza delle magnitudini apparenti vere secondo l’equazione:

3  (3)

Tuttavia, nel caso degli asteroidi che riflettono la luce del Sole gli indici di colore sono grossomodo simili a quelli della nostra stella (B-V = 0,66 e V-R = 0,53), e se anche si osserva senza filtri ma si usano come stelle di confronto quelle di tipo solare, allora le differenze delle magnitudini strumentali saranno praticamente uguali alle differenze delle magnitudini apparenti perché il secondo termine della Eq. (3) si annulla o è molto piccolo.

Ovviamente, visto che gli asteroidi si spostano in cielo sia per effetto del moto orbitale attorno al Sole sia per effetto del moto eliocentrico della Terra, il set di stelle di confronto utilizzabile per la fotometria differenziale cambia da una sera all’altra (o da un’ora all’altra nel caso di NEA veloci), e una delle prime difficoltà da superare sarà il “raccordo” fra le curve di luce appartenenti a sessioni diverse, specialmente se il periodo di rotazione è molto lungo. Il problema del raccordo delle sessioni è evidente nel caso della semplice fotometria differenziale, mentre si riduce notevolmente con la fotometria assoluta, calibrata usando come riferimento fotometrico le stelle di confronto del campo di vista. Non entreremo nel dettaglio della fotometria calibrata, ma i cataloghi stellari utilizzabili, entro alcuni centesimi di magnitudine e per target fino alla mag +15, come riferimento per le magnitudini sono l’UCAC4 (USNO CCD Astrograph Catalog), il CMC15 (Carlsberg Meridian Catalogue) e l’ultima release dell’APASS (AAVSO Photometric All-Sky Survey).

La selezione dell’asteroide da osservare avviene in base agli obiettivi che ci si propone di raggiungere, alla magnitudine apparente, alla velocità angolare, al range di air-mass e al numero di ore che un asteroide può essere osservato (in generale più sono e meglio è). Anche in condizioni di bassa turbolenza atmosferica, il target deve essere ad almeno 25° di altezza sull’orizzonte (air-mass = 2,4), in modo da minimizzare gli effetti deleteri del cattivo seeing e dell’assorbimento atmosferico che abbassano il rapporto segnale/rumore.

Gli asteroidi si spostano sulla sfera celeste, non sono target statici specialmente i near-Earth, di conseguenza il tempo di esposizione è determinato in base alla necessità di avere una immagine del target relativamente puntiforme sull’immagine, anche se in campo fotometrico una certa elongazione è ben tollerata dai software di misura. Un tempo di esposizione ragionevole (in minuti) sarà dato dalla FWHM (in secondi d’arco) diviso per la velocità angolare del target (secondi d’arco/minuto). In questo modo si raddoppiano le dimensioni della FWHM nella direzione del moto dell’asteroide, una elongazione ancora facilmente misurabile. Le esposizioni tipiche sono di 30-240 s per i MBA, la cui velocità angolare tipica è di 0,5 arcsec/minuto, e di 5-120 s per i NEA con velocità tipiche di 5-10 arcsec/minuto.

Fissato il tempo di esposizione bisogna verificare su immagini di prova che il valore del rapporto segnale/rumore (o SNR, Signal to Noise Ratio), sia adeguato alla incertezza fotometrica che si vuole raggiungere. Questo è un punto importante, spesso sottovalutato: non basta che l’asteroide sia genericamente visibile sull’immagine per avere automaticamente una buona fotometria. Facendo qualche stima si trova che per avere una precisione fotometrica con una incertezza di 0,02 mag è necessario avere SNR 50. Un valore eccellente è SNR 100, perché l’incertezza scende a 0,01 mag mentre un valore ancora accettabile, specialmente per asteroidi con una discreta ampiezza della curva di luce, è SNR 25 a cui corrisponde una incertezza di circa 0,04 mag. Di solito il SNR viene stimato direttamente dal software fotometrico quindi non è necessario avventurarsi in calcoli complessi.

Uno dei software di riferimento per la fotometria degli asteroidi, sia differenziale sia calibrata, è MPO Canopus (http://www.minorplanetobserver.com/MPOSoftware/MPOCanopus.htm) di Brian Warner. Per la verità con Canopus è possibile anche la fotometria delle stelle variabili anche se non è il suo utilizzo principale. Questo programma richiede un certo periodo per l’apprendimento del corretto utilizzo, fase che non va saltata pena il rischio di ottenere risultati fotometrici errati o poco attendibili. Caldamente consigliata anche la lettura del libro “A Practical Guide to Lightcurve Photometry and Analysis”, scritto dallo stesso Warner ed edito dalla Springer, in cui vengono illustrati in dettaglio i principi della fotometria asteroidale. Sono diversi i settori dove la fotometria degli asteroidi può dare un contributo, fra questi vedremo in dettaglio:

  1. La determinazione del periodo di rotazione

  2. La spin-barrier e la “caccia” ai large super-fast rotator

b

Figura 2. Una tipica sessione di MPO Canopus dopo l’analisi di Fourier, con la curva di luce dell’asteroide in fase e il corrispondente spettro dei periodi.

 

Determinazione del periodo di rotazione di un asteroide

Una tipica sessione di fotometria differenziale per la determinazione del periodo di rotazione di un asteroide vede la ripresa di immagini in modalità “fitta”, cioè una dietro l’altra, per una durata di diverse ore. Nel caso di asteroidi con periodo di rotazione completamente sconosciuto l’osservazione fotometrica deve essere fatta su almeno 2-3 notti consecutive prima di sperare di avere una buona misura (a meno che l’asteroide non sia un rotatore lento!). Generalmente, i periodi sono di 6-8 ore quindi almeno due-tre sessioni lunghe sono il minimo per avere una buona probabilità di successo. A questa segue la fase di riduzione dei dati: scelta delle stelle di confronto nel campo di vista, misura della magnitudine strumentale del target e delle confronto, calcolo della media delle magnitudini strumentali delle stelle di confronto da sottrarre al target e, infine, plot della magnitudine differenziale in funzione del tempo. Può capitare che una delle stelle scelta per il confronto non sia costante, in questo caso ci potrebbe scappare anche la scoperta di una nuova stella variabile. Per togliersi il dubbio è bene consultare il catalogo VSX, il Variable Star indeX, dell’AAVSO.

Da una o più sessioni della durata di alcune ore si otterrà la tipica curva di luce in fase di forma genericamente bimodale, cioè con due massimi e due minimi, come ci si aspetta da un generico corpo irregolare di forma allungata in rotazione attorno al proprio asse (Fig. 3). Ovviamente non sempre è così, ci possono essere curve trimodali o più complesse. In generale, vale la regola statistica che maggiore è l’ampiezza della curva di luce e più è probabile che la curva sia bimodale.

c

Figura 3. La curva di luce di un asteroide in rotazione attorno al proprio asse è una funzione periodica di periodo P e la forma più probabile è quella bimodale, cioè con due massimi e due minimi a seconda della superficie, più o meno estesa, illuminata dal Sole e rivolta verso la Terra. L’ampiezza della curva di luce si misura dal massimo al minimo assoluto.

Per la determinazione del periodo di rotazione degli asteroidi si usa l’analisi di Fourier. In MPO Canopus i dati fotometrici con le magnitudini ridotte di ogni sessione vengono fittate con una serie di Fourier di grado m finito a scelta. La stima del miglior periodo P che fitta tutti i dati è quello che fornisce il minore scarto fra la curva di Fourier teorica e i valori osservati della magnitudine (spettro dei periodi). Attenzione però: minimizzare lo scarto non garantisce l’unicità della soluzione per il periodo P, specie se la curva di luce è simmetrica, cioè massimi e minimi sono uguali fra loro o i dati non coprono una intera rotazione dell’asteroide! E ora vediamo perché può essere interessante determinare il periodo di rotazione di un asteroide.

d

Figura 4. La curva di luce in fase, il fit di Fourier al 4° ordine e lo spettro dei periodi per l’asteroide di fascia principale 3433 Fehrenbach. L’ampiezza del curva di luce è abbastanza elevata e l’incertezza sui singoli punti è di circa 0,02 magnitudini. Lo spettro dei periodi mostra un minimo principale attorno alle 4 ore (soluzione bimodale) ed un minimo secondario attorno alle 2 ore (soluzione monomodale).

 

La cohesionless spin-barrier e gli asteroidi Large Super-Fast Rotator

Gli asteroidi sono corpi celesti soggetti ad interazione collisionale e la popolazione che vediamo oggi nella Fascia Principale (o main-belt), la zona di spazio compresa fra le orbite di Marte e Giove, è il risultato di miliardi di anni di evoluzione con gli asteroidi che si sono ripetutamente scontrati fra di loro. Questo ha portato alla distruzione parziale dei corpi maggiori, che sono in grado di resistere meglio alle collisioni, e alla distruzione parziale o totale dei corpi più piccoli. La scoperta delle famiglie di asteroidi fatta dall’astronomo giapponese Hirayama nel 1918 supporta questo quadro evolutivo.

L’analisi dei periodi di rotazione dei MBA e dei NEA che da essa derivano, mostra un comportamento che, a prima vista, non ci si aspetterebbe. Se si riporta su un grafico il periodo di rotazione di ciascun asteroide in funzione del diametro si scopre un comportamento affascinante: al di sopra di circa 150-200 metri di diametro i periodi di rotazione sono pari o superiori a circa 2,2 ore, mentre per i corpi più piccoli si possono avere valori anche di molto inferiori (Fig. 6).

Il valore limite di circa 2,2 ore è noto come “cohesionless spin-barrier”, cioè barriera rotazionale senza coesione. Per spiegare la presenza di questa “soglia di sbarramento” si ipotizza che gli asteroidi più piccoli di circa 150-200 m di diametro siano blocchi monolitici, le “schegge” createsi nella collisione di asteroidi con diametro maggiore, mentre i corpi più grandi sarebbero oggetti fratturati dalle collisioni e composti di blocchi più piccoli, non coesi fra di loro, ma tenuti semplicemente insieme dalla reciproca forza di gravità (struttura a “rubble-pile” senza coesione). Un notevole esempio di asteroide rubble-pile è il NEA (25143) Itokawa, esplorato nel 2005 dalla sonda giapponese Hayabusa (Fig. 5).

e

Figura 5. L’asteroide (25143) Itokawa ripreso dalla sonda giapponese Haybusa nel 2005. Itokawa è lungo circa 500 m e non presenta crateri da impatto sulla superficie, segno che si tratta di un aggregato di rocce e polveri risultato di una collisione catastrofica che ha smembrato l’asteroide progenitore (ISAS, JAXA).

Che le cose stiano così è dimostrato dal fatto che, se si calcola teoricamente il periodo limite di un asteroide sferico con una struttura a rubble-pile e una densità media di 2,2 g/cm3, si trova proprio un periodo limite di circa 2,2 ore. Per ottenere la formula che ci serve basta osservare che il periodo limite teorico per un asteroide rubble pile senza coesione (che chiameremo Plim), si trova imponendo che l’accelerazione superficiale dovuta alla rotazione dell’asteroide di raggio R e massa totale M sia pari a quella di gravità dell’asteroide stesso (condizione di moto circolare). In questo modo si impone la condizione che i blocchi superficiali di cui è fatto l’asteroide rubble-pile seguano un’orbita circolare con raggio pari a quello del corpo stesso. Per il periodo limite si trova:

4  (4)

Nella Eq. (4) G è la costante di gravitazione universale e vale G = 6,674x10-11 m3 kg-1 s-2, mentre ρ è la densità media dell’asteroide. Si può verificare che per ρ = 2200 kg/m3 (equivalenti a 2,2 g/cm3), si ottiene un periodo limite di circa 2,2 ore. Se il periodo di rotazione diminuisce al di sotto di Plim, l’equilibrio si rompe e l’asteroide si separa nei blocchi distinti di cui è composto. Notare come questo risultato sia indipendente dal diametro stesso dell’asteroide: che sia grande o piccolo un asteroide rubble-pile che ruota troppo veloce si sfascia comunque! Secondo questo modello un asteroide rubble-pile che si trova con un periodo di rotazione al di sotto di quello della spin-barrier si frammenterà dando vita, ad esempio, ad un sistema binario. In effetti uno dei meccanismi più noti per la formazione degli asteroidi binari vede la fissione rotazionale di asteroidi rubble-pile che, a causa dell’effetto YORP, sono scesi con il periodo di rotazione al di sotto del valore della spin-barrier. Questo meccanismo spiega abbastanza bene le caratteristiche rotazionali dei primari fra le coppie di asteroidi, oggetti che hanno orbita eliocentrica simile ma che non sono legati gravitazionalmente.

Abbiamo detto che gli asteroidi con diametri più piccoli di 150-200 metri sono invece considerati veri e propri blocchi monolitici, cioè frammenti collisionali, in grado di ruotare più velocemente del valore limite dato dalla spin-barrier a causa delle intense forze di coesione interne che tengono unito il corpo. Tuttavia ci sono delle eccezioni a questa “regola”, cioè esistono alcuni asteroidi con un diametro superiore ai 200 m (quindi rubble-pile secondo il modello precedente), che però hanno un periodo di rotazione al di sotto della spin-barrier.

Il primo oggetto scoperto a violare palesemente la cohesionless spin-barrier è stato l’asteroide 2001 OE84 nel 2002. Si tratta di un asteroide near-Earth che ruota in 0,4865 ore con un diametro di circa 700 metri. Altro notevole oggetto è l’asteroide main-belt (335433) 2005 UW163 che ha un periodo di rotazione di 1,290 ore e una dimensione di 600 metri, scoperto nel 2014. Uno degli ultimi asteroidi scoperti di questo tipo è il near-Earth 2011 UW158, che ha un periodo di rotazione di 0,6107 ore e una dimensione di 300×600 metri determinata tramite osservazioni radar. Ad ora però nessun asteroide con un diametro maggiore di 1 km ruota più rapidamente di 2,2 ore.

Gli asteroidi che violano la spin-barrier sono chiamati Large Super-Fast Rotator (LSFR). La loro esistenza è stata teorizzata per la prima volta da Holsapple nel 2007 e la teoria è stata successivamente arricchita e perfezionata da Sánchez e Scheeres nel 2014. Questi ultimi autori hanno esplorato la possibilità che, grazie alle forze di van der Waals che si esercitano fra i grani di regolite interstiziali, un asteroide con una struttura a rubble-pile possa avere una forza coesiva diversa da zero. In questo teoria i grani di regolite agirebbero come una specie di “colla” in grado di tenere coesi i blocchi di maggiori dimensioni.

f

Figura 6. La frequenza di rotazione degli asteroidi (espressa in rotazioni al giorno), in funzione del diametro in km. La linea tratteggiata orizzontale è la spin-barrier, che equivale a circa 10 rotazioni/giorno. I triangoli rossi sono i sistemi binari, mentre quello verdi sono gli asteroidi con precessione dello spin (tumbler). Per spiegare l’andamento del periodo vs. diametro per gli asteroidi si ipotizza che gli oggetti più piccoli di circa 150-200 m di diametro siano blocchi monolitici, mentre i corpi più grandi sarebbero oggetti fratturati dalle collisioni composti di blocchi più piccoli, non coesi fra di loro, tenuti insieme dalla reciproca forza di gravità (struttura a “rubble-pile” senza coesione). Immagine tratta dall’Asteroid Lightcurve Photometry Database (http://alcdef.org/).

 

La “caccia” agli asteroidi LSFR

La forza di coesione della regolite inizia a diventare importante solo per corpi inferiori ai 10 km di diametro, quindi la ricerca di LSFR va fatta su asteroidi relativamente piccoli. Risulta chiaro che la fotometria degli asteroidi è una tecnica essenziale per andare a caccia degli asteroidi LSFR. Tuttavia l’osservazione dei piccoli MBA può essere difficoltosa. Ad esempio, se consideriamo un tipico asteroide di tipo S con 1 km di diametro posto a 2,5 UA dal Sole, all’opposizione avrà una magnitudine apparente di +20,3. Questo valore è piuttosto alto e fare la fotometria con piccoli strumenti diventa difficile. Per questo motivo è molto più facile andare alla ricerca di LSFR nella popolazione degli asteroidi near-Earth quando fanno il loro flyby con la Terra. I NEA hanno dimensioni che rientrano in quelle tipiche in cui si possono trovare i LSFR e possono diventare sufficientemente luminosi da essere osservati agevolmente anche in piccoli strumenti. L’unica “pecca” di questa strategia osservativa è che il moto proprio di un NEA può essere elevato e una sessione con le stesse stelle di confronto può diventare davvero breve se il campo di vista non è sufficientemente ampio. Per non avere troppi problemi con la durata della sessione ci si può limitare a considerare oggetti con un moto proprio non superiore ai 10 arcsec/minuto. Si tratta di osservazioni non facili ma che possono dare informazioni preziose sulla costituzione fisica dei piccoli asteroidi. Vale la pena andare a caccia di LSFR!

g

Figura 6. L’asteroide 2014 VQ è un NEA candidato ad essere un LSFR scoperto nel novembre 2014. Ha un periodo di rotazione di soli 7minuti e una dimensione che può andare da 165 metri (se di tipo V) a 267 metri (se di tipo S).

 

Conclusioni

Come abbiamo visto in questo breve articolo la fotometria degli asteroidi può portare a dei risultati davvero molto interessanti, sia per quanto riguarda lo studio dei singoli oggetti sia per quanto riguarda lo studio di intere popolazioni. Non abbiamo esplorato tutte le possibilità di studio ma quanto detto dovrebbe dare un’idea di quello che si può ottenere. Gli asteroidi meritano di essere studiati, come amo ripetere la migliore motivazione per fare la fotometria di un asteroide è che “non si può mai sapere quello che si troverà osservando quei piccoli punti di luce che si muovono in cielo!”.

Fotografiamo la superficie di Venere!

Venere sta dominando queste serate di fine inverno e dominerà le albe di tutta la primavera, quindi non possiamo non parlare di questo faro del cielo. Non sarà però il solito post che ci insegna a osservare le solite fasi di Venere, anzi, tutt’altro!

Il nostro gemello, con dimensioni e massa molto simili, è in realtà una vera e propria Nemesi: l’atmosfera è decine di volte più densa, composta quasi per intero da anidride carbonica e con minacciose nuvole di acido solforico. Sulla superficie la temperatura, di giorno come di notte, ai poli come all’equatore, è stabile, da chissà quanto tempo, allo stratosferico valore di +460°C. Venere è un forno inospitale per qualsiasi forma di vita e per di più la sua superficie è del tutto nascosta alla nostra vista da chilometri di nuvole che non lasciano mai neanche uno spiraglio ai nostri telescopi.

Per centinaia di anni dopo l’invenzione del telescopio, nessun essere umano è riuscito a capire cosa si nascondesse sotto le nuvole venusiane, fino a quando negli anni ‘60 le prime sonde sovietiche giunsero sull’inospitale superficie.

La mappatura completa di Venere è stata effettuata dalla sonda Magellano che negli anni ’80, grazie a un radar, ha composto la prima mappa geologica e altimetrica del pianeta. Anche se noi non lo possiamo vedere, Venere ha crateri da impatto, montagne, pianure, colline, scarpate e valli. Ma siamo sicuri che non ci sia alcun modo per sbirciare la superficie venusiana senza dover friggere a bordo di un’improbabile astronave che tenta di superare quelle fitte nuvole? La Natura in questo caso ci dà una grossa mano.

La superficie di Venere, a causa dell’enorme temperatura, emette radiazione elettromagnetica, proprio come un pezzo di ferro rovente. Con un picco verso i 4 micron ma una coda di emissione che arriva anche a 800 nm, questa radiazione termica riesce a uscire in parte dalla spessa atmosfera. Attorno alla lunghezza d’onda di 1000 nm (1 micron), infatti, l’atmosfera venusiana diventa trasparente e il calore della superficie può uscire nello spazio ed essere quindi osservato. La radiazione termica di Venere è molto più debole della luce solare riflessa dall’alta atmosfera ma se ci concentriamo sul lato non illuminato quando il pianeta mostra una fase molto sottile, allora l’impossibile diventa possibile.

Con un filtro infrarosso da un micron (1000 nm) e una camera planetaria, meglio se monocromatica, o una camera CCD per profondo cielo e un telescopio da almeno 15 cm su montatura motorizzata, è possibile fare una serie di fotografie a lunga esposizione, bruciando la falcetta di Venere e lasciando che la più debole radiazione termica del lato non illuminato venga alla luce. Non potremo mai osservarla all’oculare del telescopio perché i nostri occhi non sono sensibili agli infrarossi, ma abbiamo appena scritto la ricetta per una fotografia molto speciale.

La tecnica migliore prevede di acquisire immagini a una focale non troppo elevata, poiché si tratta a tutti gli effetti di una ripresa deep-sky e non più in alta risoluzione. Focali comprese tra i 2 e i 3 metri sono ottime per questo scopo. Dobbiamo aumentare l’esposizione e/o il guadagno, senza curarci della luminosità della parte illuminata.
La magnitudine superficiale del lato non illuminato è di circa 12 su ogni secondo d’arco quadrato, circa come quella del pianeta Nettuno e molto più alta di ogni oggetto del profondo cielo. Sebbene quindi si possa osservare la debole radiazione anche con tempi di posa brevi, di circa 0,2 secondi, per avere un ottimo segnale è meglio fare tante esposizioni con tempi compresi tra 2 e 5 secondi. Se la montatura è ben stazionata al polo non si avranno neanche problemi di inseguimento. Più frame si acquisiscono e meglio è, tanto non ci sono problemi di rotazione del pianeta. L’unica limitazione è rappresentata dal fatto che è necessario fare una ripresa del genere con il Sole tramontato e con il fondo cielo scuro.

Luce cinerea? Sì, ma di Venere e non è riflessa!

Luce cinerea? Sì, ma di Venere e non è riflessa!

Se siamo bravi e pazienti e magari disponiamo di una camera CCD per le riprese del profondo cielo, oltre al suggestivo chiarore della parte non illuminata, che renderà Venere simile alla luce cinerea lunare, potremo mettere in evidenza anche strutture superficiali. Il principio è semplice: le montagne e gli altopiani avranno temperature minori rispetto alle valli e alle grandi pianure, quindi emetteranno meno radiazione termica.

In effetti, con esposizioni lunghe, telescopi da almeno 15 centimetri, una fase della parte non illuminata inferiore al 25%, un cielo ormai scuro e acquisendo qualche centinaio di frame, è possibile mostrare la traccia inequivocabile di dettagli superficiali. Questa è una piccola rivoluzione per noi: con la nostra strumentazione possiamo fotografare la superficie di Venere, in barba a tutti quei tossici e infernali strati nuvolosi!

Non ci credete? E allora osservate questa foto che ritrae i principali dettagli superficiali, che ho composto con le immagini ottenute nel 2009 e il 18-19 febbraio scorsi. Questo è l’aspetto del nostro pianeta gemello e questo è quello che si potrà vedere da qui a pochi giorni prima della congiunzione con il Sole del 23 Marzo. Ma poi, all’alba, i giochi potranno ricominciare di nuovo e almeno fino alla metà di maggio potremo ancora cacciare questa elusiva “luce cinerea” venusiana con i nostri strumenti. Non lasciamoci sfuggire questa ghiotta occasione, altrimenti dovremo aspettare più di un anno per riprovare l’impresa!

Dettagli superficiali di Venere

Dettagli superficiali di Venere

 

Campionamento e focale equivalente nella fotografia astronomica

Nelle osservazioni visuali le immagini vengono ingrandite attraverso gli oculari. Nella fotografia astronomica non ha più senso parlare di ingrandimento, perché al posto dell’occhio si inserisce un sensore digitale senza obiettivo e l’immagine, a rigor di logica, non viene ingrandita. In questi casi si parla di scala dell’immagine o campionamento, le grandezze che determinano “l’ingrandimento” delle immagini digitali.

Il campionamento, o scala dell’immagine, rappresenta la dimensione angolare di cielo che riesce a riprendere un singolo pixel del sensore. Quindi, questo determina anche il più piccolo dettaglio che è possibile, in teoria, risolvere. Una scala dell’immagine di 2”/pix (secondi d’arco su pixel) indica che ogni pixel inquadra una porzione di cielo con lato di 2”. Poiché i pixel sono i punti che formeranno l’immagine digitale, tutto quello che ha dimensioni inferiori a 2” non sarà mai risolto dal sensore. Questo prescinde dalla turbolenza atmosferica e da diametro dello strumento e rappresenta una specie di potenziale. È infatti certo che un’ipotetica scala dell’immagine di 40”/pixel non risolverà mai delle strutture di galassie o nebulose inferiori a questo valore. D’altra parte non è detto, anzi, non è proprio possibile dai nostri cieli, che un campionamento di 0,5”/pixel riesca a mostrarci dettagli di questa dimensione angolare perché saranno rovinati dalla turbolenza atmosferica, anche se usassimo un telescopio in grado di mostrarceli. Il campionamento, quindi, non determina direttamente la risoluzione dell’immagine ma ci permette di capire parametri fondamentali come il campo di ripresa che si ha con una certa accoppiata telescopio – sensore, quindi dà indicazioni su quali soggetti possiamo riprendere al meglio e se saremo limitati o meno dalla turbolenza atmosferica.

Calcolare il campionamento di un’immagine è facile utilizzando la seguente formula:

C = (Dp /F) x 206265,

dove C = campionamento (in secondi d’arco su pixel) , Dp = dimensioni dei pixel del sensore utilizzato e F = focale del telescopio. Dp e F devono avere le stesse unità di misura; 206265 è il fattore di conversione tra radianti e secondi d’arco. Di solito le dimensioni dei pixel sono espresse in micron, mentre quelle della focale in millimetri. Niente paura: un micron corrisponde a 0,001 millimetri.

 

Campionamento ideale nelle fotografie a lunga esposizione

Un principio, detto criterio di Nyquist, applicato al campo ottico afferma che per sfruttare una determinata risoluzione occorre che il più piccolo dettaglio visibile cada almeno su due pixel adiacenti. Se consideriamo che nel mondo reale è meglio se il più piccolo dettaglio risolvibile cada su almeno 3 pixel, possiamo giungere a importanti conclusioni su quale possa essere il massimo campionamento efficace nella fotografia a lunga esposizione. Se la risoluzione massima a cui possiamo ambire è determinata dalla turbolenza media ed è intorno ai 2,5-3”, a prescindere dal diametro del telescopio, significa che le scale dell’immagine più basse che possiamo usare prima di avere l’effetto delle stelle a pallone e dettagli sempre sfocati sono dell’ordine di 0,8”-1”/pixel. Nelle condizioni medie, di fatto non conviene quasi mai lavorare con scale più piccole di 1”-1,5”/pixel.

L’effetto più grave di quello che si chiama sottocampionamento, cioè lavorare con scale più grandi, è mostrare stelle così piccole che potrebbero diventare quadrate, perché questa è la forma dei pixel, ma d’altra parte avremo sempre dettagli degli oggetti estesi ben definiti e contrastati, con una profondità in termini di magnitudine ancora ottima. L’effetto di un sovracampionamento, cioè di una scala dell’immagine più bassa di quella limite, è quello di restituire stelle sempre molto grandi e dettagli degli oggetti estesi sfocati e indistinti. Come se non bastasse, un sovracampionamento produce anche una perdita, a volte notevole, di profondità perché la luce si espande su più pixel invece di venir concentrata in una piccola area. Il mio consiglio, quindi, è di non esagerare con la scala dell’immagine e di preferire immagini “meno ingrandite” ma più definite a improbabili zoom che mostrerebbero nient’altro che un campo confuso e molto rumoroso. Questo ragionamento vale sia per le riprese telescopiche, in cui si dà per scontato che il seeing sia il limite alla risoluzione rispetto al diametro dello strumento, che per le fotografie attraverso obiettivi e teleobiettivi, in cui il limite deriva dal potere risolutivo dell’ottica.

Conoscendo il campionamento e il numero di pixel dei lati del sensore, possiamo subito comprendere quanto sarà grande il nostro campo di ripresa e capiremo se sarà possibile riprendere al meglio un’estesa nebulosa o una debole galassia.

Districandosi in questa specie di giungla, potremo costruire un setup più specifico per la tipologia di oggetti che più ci piace. A livello generale e personale, finché useremo delle semplici reflex digitali non vale la pena farsi troppi conti perché tanto per queste non c’è molta scelta a livello di dimensioni dei pixel e del formato del sensore. Quando invece parliamo di CCD (o CMOS) astronomici, che dobbiamo scegliere con molta attenzione, il campionamento che otterremo con il nostro setup rappresenta il punto più importante per la scelta. Sarà infatti inutile, e frustrante, usare un sensore con pixel di 5 micron su un telescopio Schmidt-Cassegrain da 1,5-2 metri di focale, che ci darà un campionamento di 0,70-0,50”/pix e potrebbe venir sfruttato in pieno solo dal deserto di Atacama. Nelle nostre località otterremo sempre stelle a “pallone” e oggetti diffusi molto deboli e rumorosi, tanto da richiedere ore e ore di integrazione per mostrare dettagli interessanti. Un risultato simile si sarebbe ottenuto con una scala dell’immagine anche tre volte superiore e un tempo di integrazione totale dalle 4 alle 9 volte inferiore.

Avere pixel molto piccoli comporta anche una perdita di sensibilità e dinamica, perché un pixel più piccolo raccoglie meno luce e può contenere molti meno elettroni di uno più grande, con la conseguenza che il range dinamico del sensore si può ridurre anche di 5 volte tra pixel da 5,6 micron e da 9 micron. Poiché un sensore astronomico è qualcosa che dovrebbe durare per molti anni e le serate buone si possono contare in un anno sulle dita di due mani, è meglio sceglierne uno che si accoppi in modo perfetto al nostro telescopio. Se ci piacciono primi piani di galassie è meglio ingrandire le immagini in elaborazione che lavorare a una scala piccolissima.

 

Campionamento ideale nell’imaging in alta risoluzione

Quando parliamo di fotografia in alta risoluzione le cose cambiano drasticamente perché, grazie a pose molto brevi e un enorme numero di frame catturati, possiamo sperare di abbattere il muro eretto dalla turbolenza atmosferica media e spingerci verso la risoluzione teorica dello strumento, fino a un limite di circa 0,3” nelle zone più favorevoli e nelle migliori serate. Quando il seeing collabora, quindi, possiamo impostare la scala dell’immagine sui limiti di risoluzione teorica dello strumento che stiamo utilizzando. Una buona relazione per determinare la risoluzione alle lunghezze d’onda visibili è quella di Dawes:

PR = 120/D

Dove PR = potere risolutivo, in secondi d’arco, e D = diametro del telescopio espresso in millimetri.

Come già detto, affinché il sensore sia in grado di vedere questa risoluzione occorre che questa cada su 3-4 pixel: né molto più, né molto meno. In queste circostanze, allora, il nostro obiettivo sarà quello di lavorare a cavallo del campionamento ottimale, che può essere espresso dalla semplice formula:

Cott= 37/D

Dove D = diametro del telescopio espresso in millimetri e Cott = campionamento ottimale, espresso in secondi d’arco su pixel. Come possiamo vedere dal confronto con la formula di Dawes, cambia di fatto solo il coefficiente numerico, che è inferiore di poco più di tre volte, proprio come abbiamo detto con le parole. Il valore ottenuto, come quello della formula di Dawes, rappresenta un punto di riferimento alle lunghezze d’onda visibili e non un numero da rispettare in modo rigoroso. Scostamenti del 10-20% sono ancora accettabili e, anzi, incoraggiati, poiché ogni sensore, telescopio e soggetto possono preferire valori leggermente diversi dalla semplice teoria con cui abbiamo ottenuto questi.

I valori che raggiungiamo sono tutti piuttosto piccoli ed ecco spiegato il motivo per cui nell’imaging planetario è preferibile usare sensori con pixel di dimensioni ridotte, tra i 3 e i 7 micron al massimo: l’opposto di quanto si preferisce fare nella fotografia a lunga esposizione.

Nonostante questo, i rapporti focale tipici si aggirano tra f20-22 (per pixel da 3,7 micron) e f 30-35 (per pixel da 5,6 micron) e si rende necessario inserire oculari o lenti di Barlow per aumentare la focale nativa del telescopio. Invece di fare complicati calcoli sul rapporto focale raggiunto con un certo oculare o Barlow, per capire a quale campionamento reale si sta operando il modo migliore è fare dei test riprendendo un pianeta, ad esempio Giove. Misurando l’estensione in pixel e confrontandola con il diametro apparente che si può leggere da ogni software di simulazione del cielo, possiamo trovare il campionamento reale della ripresa applicando questa formula:

Ccalc = dang/dlin

Dove dang  sono le dimensioni angolari (in secondi d’arco) e dlin  il diametro misurato dell’immagine, espresso in pixel. Il campionamento restituito sarà in secondi d’arco su pixel. A questo punto la focale con cui è stata fatta la ripresa sarà:

Feq = (Dp/ C) x 206265

Dove Dp  sono le dimensioni dei pixel del sensore, espresse in millimetri e C il campionamento (calcolato sull’immagine o stimato, non cambia). La focale restituita sarà in millimetri. Il rapporto focale sarà dato dalla semplice relazione Feq / D, con D = diametro del telescopio, in millimetri. Queste formule sono valide in generale, quindi anche per le riprese del profondo cielo.

Anche in questa circostanza, avere a disposizione miliardi di pixel è dannoso, e molto più rispetto alla fotografia del profondo cielo (in cui il danno principale è l’esigenza di avere telescopi dall’enorme capo corretto, quindi molto costosi). Poiché il campionamento ideale è fissato e i pianeti hanno dimensioni angolari ridotte, per ottenere ottime immagini non potremo avere, ad esempio, Giove esteso per 4 milioni di pixel. Il sovracampionamento nell’imaging in alta risoluzione è distruttivo e sarebbe sempre da evitare, molto più che nella fotografia a lunga esposizione nella quale, almeno, possiamo sperare di allungare il tempo di integrazione per sopperire in parte al danno che abbiamo fatto.

Nella fotografia in alta risoluzione “ingrandire” troppo l’immagine ci allontanerà sempre da un risultato ottimo. Anche se all’inizio potrebbe sembrare che ottenere delle “pizze” ingrandite a dismisura possa essere entusiasmante, in barba ai teorici del campionamento ideale, stiamo osservando un risultato che è sempre peggiore rispetto a quanto avremmo ottenuto con “l’ingrandimento” giusto. Non è un’opinione, è un fatto e anche se non piace non si può cambiare.

Se i pianeti saranno estesi al massimo qualche centinaio di pixel (se abbiamo strumenti oltre i 20 cm), che ce ne facciamo di un sensore che ne possiede diversi milioni? Niente, a meno che non ci vogliamo dedicare espressamente a panorami lunari, ma anche in queste circostanze ci sono comunque dei limiti. Usare sensori con più di 2-3 milioni di pixel per fare imaging in alta risoluzione non è una buona soluzione perché si riduce di molto il framerate, cioè la frequenza con cui si acquisiscono le immagini, che in alta risoluzione è fondamentale avere almeno a 15-20 frame al secondo (fps).

La calibrazione delle immagini digitali

Per fare ottime fotografie a lunga esposizione degli oggetti del cielo profondo servono pochi ingredienti ma ben amalgamati: 1) Un cielo ottimo lontano dalle luci della città, 2) Una montatura equatoriale precisa che possa fare anche autoguida, 3) Una camera digitale, 4) Una buona tecnica di ripresa. In questa ricetta non trova posto l’elaborazione e non è un caso, perché una buona tecnica di elaborazione si impara con il tempo e può solo far uscire al meglio tutto il segnale raccolto durante la fase di acquisizione. Se non abbiamo fatto tutto per bene potremmo essere anche i maghi di Photoshop ma dai nostri scatti non uscirà niente di buono.

Una delle fasi più importanti della fotografia astronomica a lunga esposizione (quindi no imaging planetario) è la cosiddetta calibrazione, una tecnica che prevede di acquisire due – tre set di particolari immagini che hanno il compito di correggere gli inevitabili difetti del sensore e del campo. Sono passaggi che si potrebbero fare anche in fase di elaborazione, si potrebbe pensare, ma non daranno mai e poi mai gli stessi risultati di frame di calibrazione genuini ottenuti sul campo. Volenti o nolenti dobbiamo imparare come ottenere questi scatti perché fanno parte integrante della tecnica di ripresa. Ecco allora quali sono i frame di calibrazione e le loro caratteristiche. In seguito vedremo come applicarli.

 

Dark frame: sono immagini ottenute con il CCD al buio, con la stessa sensibilità, temperatura e durata delle immagini del cielo (che chiameremo anche immagini di luce) e servono per eliminare parte del rumore, cosiddetto termico, che si ripete uguale da una foto all’altra, spesso come pixel più luminosi della media. Il rumore termico si riduce con l’abbassarsi della temperatura del sensore, ma non sparirà mai a meno di usare l’azoto liquido e arrivare ad almeno -100°C. I dark frame, quindi, vanno ripresi (quasi) sempre, anche se sembra che non ve ne sia bisogno. Ce ne potremo pentire quando vedremo comparire, sulle immagini di luce sommate, il temutissimo rumore a pioggia anche con CCD molto evolute. Se il sensore ha il controllo della temperatura possiamo riprendere i dark frame anche con calma a casa e creare una vera e propria libreria da rinnovare una volta l’anno, risparmiando quindi molto tempo. Con le reflex digitali, che non hanno il controllo di temperatura del sensore, fare i dark frame è difficile e creare una libreria impossibile, per questo motivo si potrebbero preferire altri frame di calibrazione.

Un master dark frame ottenuto con una camera CCD ST-2000XCM, temperatura di -10°C e 720 secondi di esposizione.

Un master dark frame ottenuto con una camera CCD ST-2000XCM, temperatura di -10°C e 720 secondi di esposizione.

 

Bias frame: sono immagini ottenute con la stessa sensibilità dei frame da calibrare e con tempo di esposizione pari a zero o comunque il più basso possibile, con il sensore al buio. Questi frame hanno lo scopo di catturare solo il rumore introdotto dall’elettronica del sensore. Possono sostituire i dark frame in quelle circostanze in cui a dominare non è il rumore termico ma quello elettronico (pose brevi, sensore raffreddato a oltre -30°C, riprese fatte con reflex senza controllo di temperatura).

Un master bias ottenuto mediando 50 frame. Da notare il confronto con il master dark precedente. ebbene nascoste dai pixel caldi, anche in quello sono presenti le colonne di pixel caldi tipici del rumore dell'elettronica. Questa è la prova che un dark frame contiene anche l'informazione catturata dai bias e che i due set di calibrazione sono complementari.

Un master bias ottenuto mediando 50 frame. Da notare il confronto con il master dark precedente. ebbene nascoste dai pixel caldi, anche in quello sono presenti le colonne di pixel caldi tipici del rumore dell’elettronica. Questa è la prova che un dark frame contiene anche l’informazione catturata dai bias e che i due set di calibrazione sono complementari.

 

Flat field: sono essenziali per ogni fotografia, a volte persino quando si fanno riprese in alta risoluzione di oggetti estesi come il Sole, o riprese a grande campo con obiettivi grandangolari. Pochi astrofotografi sono consapevoli della trasformazione che subisce la propria foto quando viene corretta con degli ottimi flat field. Di questi, comunque, ne abbiamo già parlato, quindi non mi dilungherò. Sono delle speciali immagini ottenute con la stessa configurazione di quelle che vogliamo calibrare, in cui si punta una sorgente di luminosità fissa e uniforme su tutto il campo. I flat field mappano la sensibilità del campo inquadrato, includendo la differente risposta dei pixel, vignettatura e polvere lungo il treno ottico. Non possono quindi essere ripresi con calma a casa perché necessitano dell’identica configurazione ottica delle immagini di luce, compresa messa a fuoco ed eventuali filtri. Un buon flat field si ottiene con la sensibilità al minimo e impostando un tempo di esposizione tale per cui il picco di luminosità nell’immagine cada a circa 1/3 della scala per le reflex, a ½ per le CCD senza antiblooming (25-30 mila ADU) e circa 1/7 (8000 ADU) per le camere CCD (e CMOS) dedicate all’imaging estetico, quindi con porta antiblooming. L’unico legame con le immagini di luce è la stessa configurazione ottica: esposizione, sensibilità e temperatura possono variare, anche se per le camere CCD dotate di otturatore meccanico è meglio esporre per almeno 4-5 secondi ed evitare di riprendere quindi parte dell’otturatore che si apre.

Master flat field ottenuto facendo la media di 37 scatti da 5 secondi calibrati con master bias. I flat field devono essere sempre calibrati con i relativi dark o con i bias.

Master flat field ottenuto facendo la media di 37 scatti da 5 secondi calibrati con master bias. I flat field devono essere sempre calibrati con i relativi dark o con i bias.

 

Come nel caso delle immagini di luce, non si acquisisce una sola esposizione per ogni set di calibrazione, piuttosto almeno 10, meglio 20 immagini per ogni categoria. Il numero dipende da noi e non ha alcun legame con la quantità di immagini da correggere. Questo è molto importante per non introdurre nuovo rumore nei frame che vogliamo calibrare. La media (o mediana, nel caso di dark e bias) dei frame di calibrazione va a comporre quello che si chiama master. Ogni singolo scatto di luce deve venir calibrato, prima che sia combinato, con i relativi master (dark e/o bias, flat). Anche i flat field, che sono speciali immagini di luce, devono venir calibrati, prima di essere mediati e creare il relativo master, con un master dark frame o master bias frame. Di solito a questo intricato intreccio ci pensa il software usato ma meglio essere consapevoli di quello che andrà a fare.

Come si usano i frame di calibrazione? Quali servono per le nostre esigenze? Ci sono diverse combinazioni possibili. Ecco quelle consigliate, anche se ognuno di noi può fare le prove che vuole.

 

  • Camera CCD raffreddata con controllo della temperatura, con pose di luce più lunghe di 5 minuti e flat field esposti per non più di 20 secondi.

In questa situazione la combinazione migliore è quella di acquisire tutti i frame di calibrazione. I dark frame correggeranno le immagini di luce e i bias frame correggeranno i flat field. Poi i flat field calibrati verranno mediati e il master flat verrà applicato alle immagini di luce a cui sarà stato sottratto il master dark. I dark frame contengono anche l’informazione dei bias frame, cioè il rumore dell’elettronica, quindi quando li sottraiamo stiamo togliendo anche il bias. Il bias frame può sostituire i dark frame su pose di breve durata come quelle tipiche dei flat field. In questo modo evitiamo di dover riprendere dei dark frame anche per correggere i flat e possiamo usare i bias che sono sempre uguali poiché non dipendono dalla durata dell’esposizione, né dalla temperatura;

  • Camera CCD raffreddata con controllo temperatura, pose di luce più lunghe di 5 minuti e flat field più lunghi di 3 minuti.

Un’eventualità del genere si verifica quando si fanno riprese in banda stretta. In questi casi è meglio lasciar perdere i bias e riprendere dark frame sia per le pose del cielo che per i flat field. I due set sono indipendenti perché legati alla temperatura e al tempo di posa delle rispettive immagini da correggere. Si correggeranno quindi i flat field con i relativi dark frame e le immagini di luce con gli altri, poi si applicherà il master flat field a ogni singola immagine di luce;

  • Camera CCD raffreddata con esposizioni più brevi di 3-5 minuti. In questi casi i dark frame possono essere superflui, se la camera lavora a temperature molto basse. Flat field e immagini di luce possono quindi venir calibrati solo con i bias frame.
  • Reflex digitale.
    In queste circostanze i dark frame potrebbero non essere la scelta migliore perché se la temperatura del sensore cambia, anche di un paio di gradi, i benefici saranno sostituiti dai danni. L’unico rimedio è riprendere sempre flat field e bias frame, in buone quantità, e affidarsi anche alla tecnica del dithering in fase di acquisizione delle immagini di luce, per evitare il rumore a pioggia tipico di queste situazioni.

Sembra tutto molto complicato ma in realtà non lo è, grazie anche ai software che ci evitano di dover creare noi stessi i file master. L’importante, comunque, è prendere mano con la tecnica di acquisizione perché una mancanza sul campo ci potrebbe far buttare l’intera sessione. Per capire come fare poi la calibrazione attraverso i programmi astronomici avremo tante, troppe, notti nuvolose per studiare, tanto i file acquisiti non scapperanno dal pc.

 

 

Una libreria di miei fit grezzi per fare pratica

L’astronomia è condivisione, sia se la facciamo per hobby che per professione. La condivisione diventa necessaria quando parliamo di dati, di fotografie e di tutto ciò che può essere utile alla scienza o nell’apprendere nozioni in un campo nuovo. Se nessuno condividesse le proprie esperienze sarebbero molto pochi gli appassionati del cielo e ancora meno i progressi fatti dalla scienza negli ultimi secoli.

Spesso mi hanno chiesto quale fosse il segreto delle mie immagini, quale magica pozione utilizzassi per elaborarle. Molti sono infatti convinti che la magia di una foto la si crei nella fase di elaborazione, dove con qualche software potente come Photoshop potremo estrarre dettagli sorprendenti di una nebulosa, magari partendo da una sfocata fotografia a un segnale stradale. Certo, tutto è possibile, anche questo, ma credo che sarebbe bello partire da un’immagine reale e fare tutte quelle operazioni che non alterano il segnale catturato. L’obiettivo di un’elaborazione, sia pur estetica, di una fotografia astronomia dovrebbe essere quello di mostrare al meglio tutto il segnale catturato, senza cambiarlo, senza interpretare la realtà che resta quella che il nostro sensore digitale ha catturato. La tentazione di passare dalla fase di elaborazione a quella di fotoritocco può essere grande, soprattutto quando la nostra voglia di ottenere buoni risultati si trasforma in frustrazione vedendo in giro capolavori in apparenza irraggiungibili.

La fase fondamentale della realizzazione di un’ottima immagine astronomica si affronta sempre durante lo scatto, sul campo, spesso al freddo e all’umido. E’ una fase che spesso inizia prima dello scendere del buio, quando dobbiamo trovare il luogo adatto, privo di luci e di umidità, allineare il cercatore, collimare lo strumento (se serve), stazionare in modo perfetto la montatura verso il polo, scegliere il soggetto migliore per la serata e la strumentazione, che deve avere certe caratteristiche, impostare la guida, curare l’inquadratura, la messa a fuoco e poi sperare che per almeno 3-4 ore vada tutto bene, perché quando tutto funziona ed è stato ottimizzato l’unico segreto è questo: esporre, esporre ed esporre per 3-4-5 e più ore. Solo in rarissimi casi si possono ottenere splendide fotografie con un tempo di integrazione totale inferiore a un’ora e sempre la potenziale bellezza di uno scatto aumenta all’incrementare del tempo che gli dedichiamo, non di fronte al computer a elaborarlo ma sotto il cielo, a raccogliere fotoni che hanno viaggiato per migliaia o milioni di anni luce.

Proprio per dare un punto di riferimento a chi cerca di addentrarsi nel mondo della fotografia a lunga esposizione del profondo cielo o per tutti coloro che vogliono capire come migliorare i propri risultati, ho messo a disposizione una serie di fit scattati al cielo coon differenti strumenti e sensori. Per questioni di spazio non ho potuto mettere a disposizione i file singoli con i frame di calibrazione ma solo i file grezzi calibrati e sommati. Potete utilizzarli per fare pratica, divertirvi con gli amici, provare a scovare (e ce ne sono molti) i difetti. Potete pubblicarli per uso non commerciale citando sempre l’autore. Non dovete mai, in nessun caso, eliminare i riferimenti per l’autore o, peggio, spacciarli per vostri perché se vi becco sono cavoli amari 🙂 .

Alcune immagini non le ho elaborate neanche io ancora, per mancanza di tempo, quindi non ho la minima idea di come potranno venire. Molte altre, invece, le trovate elaborate nella mia gallaery su astrobin: http://www.astrobin.com/users/Daniele.Gasparri/collections/253/

Ecco l’elenco completo da cui poter scaricare le immagini. I file sono compressi in formato zip. All’interno troverete il file fit. Ho scelto questo formato, che Photoshop non legge a meno di scaricare il programma gratuito Fits Liberator, perché è lo standard internazionale per tutti i dati astronomici. Tutti i software appositi lo leggono, compreso Deep Sky Stacker, Nebulosity, Iris, Registax, MaxIm DL, PixInsight, AstroArt…

Mettete questo post tra i preferiti perché con il tempo verrà aggiornato con nuovi scatti, compresi quelli in alta risoluzione:

Come fotografare in modo spettacolare i colori delle stelle

Fare foto al telescopio, inseguendo nebulose, galassie e ammassi stellari è il sogno proibito di molti appassionati di astronomia, che spesso si infrange di fronte alle difficoltà tecniche, strumentali ed economiche richieste. Non si deve avere fretta, è un percorso che va fatto con pazienza e determinazione: questo è quanto viene detto sempre. Sì, d’accordo, ma da qualche parte dovremo pur cominciare, no? Magari abbiamo a disposizione una reflex digitale e un piccolo telescopio e ci piacerebbe iniziare a fare qualche semplice scatto, giusto per provare.

Di solito si comincia a fare foto alla Luna, poi a qualche pianeta brillante. Per andare oltre e fare le lunghe esposizioni richieste per immortalare gli oggetti del cielo profondo serve un salto di qualità non indifferente: una montatura equatoriale molto robusta, uno strumento buono dal punto di vista ottico e meccanico, un sistema di controllo dell’inseguimento, detto autoguida. Il fiume da guadare è piuttosto largo e profondo, soprattutto se non disponiamo di una montatura equatoriale all’altezza.

Prima di decidere se accontentarsi di quello che si ha, o svuotare il portafogli e ipotecare il futuro con il proprio partner, che potrebbe non apprezzare la vostra decisione, possiamo dedicarci a un tipo di fotografia astronomica attraverso il telescopio che non richiede costosi strumenti, né complesse montature. Anzi, a dire la verità non richiede neanche di inseguire le stelle!

La tecnica che sto per descrivere è stata portata alla ribalta negli anni ’80 e ’90 da un astronomo dell’Anglo Australian Observatory, che i più esperti forse già avranno sentito nominare: David Malin. Munito di una semplice attrezzatura e un po’ di inventiva si era chiesto, grazie al suo background scientifico: è possibile riprendere il colore delle stelle in modo più efficace rispetto a quanto accade in una normale fotografia? Non è infatti difficile notare come molte delle foto del profondo cielo mostrino stelle tendenzialmente bianche. Solo con una grossa dose di manipolazione software i più bravi astrofotografi riescono a tirare fuori qualche tonalità, ma non è una strada molto agevole, né spettacolare.

Partiamo allora dal principio alla base di questa nostra nuova esperienza di fotografia astronomica: le stelle si mostrano di diversi colori. A parte gli astri di classe A, come Vega, che appaiono completamente bianchi, tutti gli altri puntini sono colorati, anche se i nostri occhi faticano a notare la tonalità a causa della scarsa saturazione e della minore efficienza del nostro sistema visivo in condizioni di bassa illuminazione. Le fotocamere, però, non hanno questi problemi e per di più potremo aumentare la saturazione quanto vogliamo in fase di elaborazione per esasperare le differenze di colore delle stelle. Non si tratta di un mero esercizio di astrofotografia e di elaborazione: i colori delle stelle, reali, dipendono dalla loro temperatura superficiale. Possiamo quindi fare anche della scienza dall’esperienza che stiamo per fare, cosa che non guasta mai.

Quando fotografiamo una stella ben messa a fuoco dal telescopio la sua luce si concentra in pochissimi pixel che spesso diventano rapidamente saturi, se non in fase di acquisizione quando andiamo a regolare curve e livelli con qualche software. Da questa considerazione è nata l’idea geniale di Malin: per mostrare il colore delle stelle dobbiamo far espandere la loro luce su un’area maggiore, in modo che non si rischi di saturare i pixel. Il metodo migliore per fare questo prevede di sfocare leggermente l’immagine: semplice quanto efficace. Per dare un tocco estetico alla nostra futura foto, la tecnica di Malin considera un dettaglio geniale: la sfocatura progressiva, senza il moto di inseguimento delle stelle.

Ecco quindi quello che dobbiamo fare:

  • Colleghiamo la nostra reflex al telescopio. Se non sappiamo come fare, siamo nel posto migliore: contattate i tecnici di Teleskop Service Italia che vi consiglieranno gli accessori necessari (sono tutti economici). Il telescopio più adatto, al contrario di quelli usati per fare ottime foto al cielo, è un rifrattore, anche di piccolo diametro e non necessariamente apocromatico. In linea di principio, comunque, tutti gli strumenti vanno bene, compresi obiettivi e teleobiettivi fotografici;
  • Scegliamo un campo ricco di stelle brillanti. In queste serate autunnali le Pleiadi o il doppio ammasso del Perseo sono perfetti, se lavoriamo almeno a 400 mm di focale. Se abbiamo un campo molto largo perché usiamo un teleobiettivo, meglio andare verso la cintura di Orione;
  • Mettiamo a fuoco come se dovessimo scattare una perfetta foto astronomica, aiutandoci con la modalità live view;
  • Impostiamo sensibilità almeno a 400 ISO, modalità di scatto in formato RAW e posa Bulb. Meglio avere un telecomando per controllare l’esposizione della reflex senza doverla toccare. In mancanza di telecomando ci dobbiamo accontentare della posa massima consentita: 30 secondi, e dell’autoscatto;
  • Appena iniziamo lo scatto disattiviamo il moto di inseguimento siderale. Possiamo in ogni caso selezionare la modalità autoscatto, anche con il telecomando della reflex, e avere qualche secondo di tempo per disattivare il moto orario prima che inizi lo scatto. Si può anche provare a fare una variante interessante: 10 secondi di foto con messa a fuoco perfetta e moto orario acceso e poi il resto (sempre in uno scatto singolo) senza inseguimento e con la sfocatura progressiva che stiamo per vedere;
  • Toccando molto leggermente il focheggiatore, mentre la posa va avanti e le stelle si sposteranno, variamo in modo continuo e molto delicato la messa a fuoco, fino al termine dello scatto, compreso tra i 60 e i 120 secondi. Il fuoco non dovrebbe variare moltissimo, ma di quanto ruotare la manopola del focheggiatore lo capiremo dopo il primo tentativo. Ora osserviamo il risultato ed emozioniamoci, perché abbiamo fatto una foto sia artistica che scientifica, molto più didattica di tanti scatti fatti da astrofotografi esperti e purtroppo così pieni di elaborazione da aver perso quasi del tutto il contatto con la realtà.
Gli spettacolari colori delle Pleiadi, catturati con la tecnica descritta nel post attraverso un rifrattore da 106 mm e Canon 450D. Posa singola di circa 90 secondi.

Gli spettacolari colori delle Pleiadi, catturati con la tecnica descritta nel post attraverso un rifrattore da 106 mm e Canon 450D. Posa singola di circa 90 secondi.

 

Cosa accade in pratica quando applichiamo questa tecnica? La non compensazione del moto terrestre produce sul sensore le classiche tracce stellari. La sfocatura progressiva durante l’esposizione trasforma le tracce in tanti piccoli coni, la cui larghezza e lunghezza dipendono dal tempo di esposizione e dall’intensità della sfocatura. In questo modo la nostra immagine contiene molta più dinamica rispetto a una classica posa: le stelle più brillanti mostreranno il colore nella parte terminale del cono, quando la loro luce si sarà distribuita su un numero sufficientemente grande di pixel per evitare la saturazione. Le stelle più deboli avranno coni più brevi ma sempre colorati, soprattutto nella parte iniziale vicina al punto di fuoco.

La fase di elaborazione, spesso temuta e odiata, è semplicissima, anche se abbastanza importante. La saturazione dei colori delle stelle è per natura piuttosto contenuta. A questo però è facile porre rimedio con qualsiasi programma di elaborazione delle immagini. E’ infatti sufficiente aumentare la saturazione del colore di almeno il 50% per far emergere finalmente un campo pieno di evidenti sfumature e affascinanti contrasti. Non è necessario fare altro.

I colori delle stelle e l’estetica dell’immagine risultante dipendono dalla lunghezza e dalla larghezza dei coni stellari, quindi dalla focale di ripresa, dal tempo di esposizione, dall’intensità della sfocatura. Le variabili in gioco sembrano complicare la nostra ripresa, ma questa è una delle rare e piacevoli situazioni nelle quali la pratica è molto più semplice di qualsiasi spiegazione.

Qualcuno riconosce il campo inquadrato? La scala è la stessa della fotografia delle Pleiadi, solo che in questo caso ci sono molti più colori: è un vero spettacolo!

Qualcuno riconosce il campo inquadrato? La scala è la stessa della fotografia delle Pleiadi, solo che in questo caso ci sono molti più colori: è un vero spettacolo!

Il consiglio principale, quindi, è quello di fare esperienza e dare sfogo alla vostra fantasia. Sono sufficienti pochi minuti ed un paio di tentativi per trovare già il giusto compromesso che soddisfa il vostro gusto estetico. E, chissà, proprio come accade in altri ambiti della società, i nostri scatti creativi potrebbero riportare di moda questa tecnica, che molti nativi digitali, purtroppo, neanche conoscono. Eppure è utile, divertente e piuttosto artistica. A questo punto, allora, osservando i nostri capolavori un paio di domande sono obbligatorie: a quali temperature corrispondono i colori che stiamo osservando? Sono più calde le stelle rosse o blu? E di quanto? Scopriamolo da soli con enorme soddisfazione: è il bello dell’astronomia amatoriale!

Montare un filtro da 2″ davanti ad un obiettivo fotografico

Geoptik produce da tempo un interessante raccordo, che permette di montare filtri da 2″ su obiettivi con filetto da 58mm ( http://www.teleskop-express.it/adattatori-verso-2/1285-adattatore-filtri-2-geoptik.html ). Tenuto conto che la fotografia astronomica a grande campo è da diversi anni che sta attraendo nuovi astrofotografi, specie grazie all’interessamento anche dei fotografi paesaggisti in prevalenza, in tanti si pongono il problema nel caso dovessero montare un filtro per riprendere, ad esempio un halpha oppure un filtro LPR.

Nel caso si possieda una Canon in formato APS-C la soluzione è semplice, ci sono i filtri EOS-Clip della Astronomik, ma per chi possiede reflex di altre marche? Qualcosa sembra muoversi sul fronte Sony, grazie all’interessamento di Hutec, ma al momento chi ha una reflex al di fuori di Canon, purtroppo, non ha moltissime scelte. Una soluzione è quella di montare un filtro da 2″ davanti al nostro obiettivo, ma se non ha il filetto M58, ma più grande, come posso fare se volessi usare l’adattatore Geoptik?

Per fortuna Amazon ci viene incontro! Infatti basta prendere degli anelli Step Down, che costano davvero poco, un esempio: https://www.amazon.it/49mm-Anelli-Lenti-Adattatore-Filtri/dp/B008H2HUC4/ref=sr_1_3?ie=UTF8&qid=1478534130&sr=8-3&keywords=step+down+ring

In questo modo, spendendo meno di 10€, possiamo montare il nostro bel filtro e fare quello che vogliamo. Però la vignettatura introdotta, quanto mi inciderà e a che focali?

Bene, qui si sviluppa il nostro piccolo test. Ho montato la serie di anelli Step Down, fino al filetto M58 per poi montare l’adattatore Geoptik, su 2 obiettivi Canon in mio possesso e usati con una reflex Full Frame.

Attenzione!!!! I risultati sono stati ottenuti con una reflex full frame, quindi con un formato APS-C le tolleranze sono maggiori.

Qui sono stati montati gli anelli Step Down e l’adattatore Geoptim 30A193 su di un Canon 17-40L

img_9141

Ovviamente più la focale è bassa, più avremo l’effetto vignettatura, che a focali ultragrandandolari assume una rilevanza da..buco della serratura!

Qui a 17mm, immagine inutilizzabile

17-40_17mm

Qui invece a 40mm, l’immagine diventa usabile, tenuto conto della fisiologica vignettatura di ogni obiettivo

17-40_40mm

Con focali da 100 e 400mm ovviamente nessun problema:

100-400_100mm 100-400_200mm

Gli obiettivi usati hanno un diametro per i filtri da 77mm, bello grande, quindi più anelli dobbiamo mettere, più il nostro filtro si sposterà lontano dalla lente e…vignetteremo. Sicuramente la configurazione che ho usato è una delle peggiori possibili come tolleranze, diametro grande e sensore full frame.

In linea di massima si può dire che con reflex full frame ed obiettivi con diametro sui 77mm, la focale minima usabile parte da 30mm circa. Con sensore APS-C e obiettivi con diametro minore, ovviamente avremo MOLTA più tolleranza per operare a focali ultragrandangolari.

A mio avviso vale la pena provare, per neanche 10€ + adattatore Geoptik 30A193, provare a montare un filtro da 2″ sulla nostra reflex e tentare qualche bella ripresa. Ad esempio io proverò a riprendere in halpha, con una Sony A7s modificata e a focali dai 50mm in su, il complesso di nebulose in Orione con il suo anello di Barnard, vediamo cosa salterà fuori e se la vignettatura causerà problemi o meno, buone riprese a grande campo a tutti!

Cosa sono e come ottenere ottimi flat field

Chi si interessa di astronomia pratica e magari ha amici astrofotografi, avrà di certo sentito nominare i frame di calibrazione, in particolare i flat field. Chi ha iniziato a fotografare da poco avrà già individuato in queste due strane parole un nemico troppo grosso da sconfiggere, tanto che potrebbe pure aver deciso di voltarsi dall’altra parte e di far finta che non esita. Chi fotografa da più tempo, o chi si impegna nel campo della ricerca con mezzi amatoriali, ha capito come padroneggiarli, ma fatica ancora a reputarli tanto importanti da meritare di essere diffusi come se fossero il verbo supremo della fotografia a lunga posa degli oggetti celesti. In questo post capiremo cosa sono i flat field, perché sono importanti e come farli diventare le nostre migliori risorse per trasformare un’immagine astronomica in un potenziale capolavoro.

 

Cosa sono i flat field

I flat field sono delle speciali immagini di calibrazione che hanno l’unico compito di mappare le differenze di sensibilità dei pixel del CCD e le disomogeneità del piano focale. Tra queste rientrano difetti sempre presenti come la vignettatura, ovvero una caduta di luce ai bordi, ma anche polvere e sporcizia depositati sui filtri, sui correttori o sulla finestra del CCD stesso.

A parte la differente sensibilità dei pixel, tutti gli altri difetti da correggere dipendono in modo critico dal setup utilizzato, dall’orientazione della camera e dalla messa a fuoco. Basta variare anche di poco il punto di fuoco, ad esempio, per avere una diversa forma della polvere e della sporcizia sul campo ripreso; è sufficiente ruotare di qualche grado la camera per cambiare l’orientazione della vignettatura e dell’eventuale polvere e rendere quindi impossibile una correzione dell’immagine.

La prima regola, fondamentale, per i flat field è quindi la seguente: questi devono essere ripresi con lo stesso setup delle immagini che vogliamo correggere, con la medesima messa a fuoco e orientazione della camera. Al limite, se si fanno riprese RGB con ruota portafiltri e filtri parafocali, è ammesso fare i flat field, per ogni filtro, alla fine della sessione di ripresa, anche se sarebbe preferibile, soprattutto per lavori di precisione, fare flat field per ogni filtro prima di cambiarlo e passare a fare riprese con il successivo

 

I flat field servono davvero?

Per molto tempo, soprattutto a causa della relativa difficoltà nel fare corretti flat field, si è diffusa la versione astrofotografica della classica leggenda della volpe e dell’uva: fare dei buoni flat è difficile, quindi non sono poi così necessari. Basta saper usare Photoshop o PixInsight e tutto si risolve con dei bellissimi flat sintetici. Questa è una cosa orribile da dire e persino da pensare: toglietevi dalla testa di poter fare a meno dei flat field e di poterli creare con qualche programma di elaborazione. Nessun osservatorio professionale e nessun astrofotografo di alto livello fanno una cosa del genere e un motivo c’è. I flat field sono infatti fondamentali per ottenere immagini scientificamente accurate ma anche godibili dal punto di vista estetico, soprattutto per soggetti deboli. Chi non riesce ad apprezzarli, magari suggerendo di farli sintetici con qualche programma, non ha mai visto un buon flat field e il vero e proprio miracolo che può fare alle nostre immagini. Su questo punto, quindi, non si discute: sia che voi siate astrofotografi con ambizioni altissime o appassionati della domenica che scattano con un astroinseguitore e qualche malandato obiettivo fotografico ogni morte di Papa, i flat field sono l’unico vero strumento che può  trasformare ogni vostra foto in un potenziale capolavoro: non c’è elaborazione successiva che possa sostituirli.

Ecco allora la seconda regola: tutti coloro che fanno riprese del cielo profondo dovrebbero imparare a riprendere i flat field e usarli per correggere le proprie immagini. Per tutti si intende sia chi usa un telescopio che chi si accontenta di un obiettivo a grande campo.

 

I flat field eliminano tutti i gradienti di luce dovuti alla strumentazione usata. Non eliminano i gradienti presenti nel cielo ma cancellano polvere e vignettatura, e questa è un grandissimo aiuto per tutti i soggetti molto deboli.

I flat field eliminano tutti i gradienti di luce dovuti alla strumentazione usata. Non eliminano i gradienti presenti nel cielo ma cancellano polvere e vignettatura, e questa è un grandissimo aiuto per tutti i soggetti molto deboli. A sinistra un’immagine senza calibrazione con master flat field. A destra la stessa immagine calibrata: i dettagli sono molto più evidenti e il gradiente di luce con simmetria circolare è completamente sparito.

 

Un flat ti salva la vita: quando gli oggetti sono deboli, il campo pieno di polvere e il telescoio vignetta che è una bellezza, solo un buon flat field può salvare la nostra serata e mostrarci dettagli sull'oggetto catturato che non credevamo possibili. A inistra una situazione in apparenza compromessa. A destra la stessa immagine dopo la correzione con un buon flat field. Una trasformazione del genere non sarebbe  mai stata possibile a posteriori con nessun programma di elaborazione. Se pensate che una situazione del genere sia un'eccezione vi sbagliate. Anche se non ve ne accorgete, ogni immagine nasconde schifezze del genere che devono e possono essere corrette solo con un buon flat field.

Un flat ti salva la vita: quando gli oggetti sono deboli, il campo pieno di polvere e il telescoio vignetta che è una bellezza, solo un buon flat field può salvare la nostra serata e mostrarci dettagli sull’oggetto catturato che non credevamo possibili. A inistra una situazione in apparenza compromessa. A destra la stessa immagine dopo la correzione con un buon flat field. Una trasformazione del genere non sarebbe mai stata possibile a posteriori con nessun programma di elaborazione. Se pensate che una situazione del genere sia un’eccezione vi sbagliate. Anche se non ve ne accorgete, ogni immagine nasconde schifezze del genere che devono e possono essere corrette solo con un buon flat field.

 

Come fare un buon flat field

La nostra terza regola è semplice, ma richiederà diverse spiegazioni: un flat field è un’immagine di una sorgente uniformemente illuminata, priva di stelle, effettuata alla giusta esposizione, con il medesimo setup utilizzato per riprendere l’immagine che vogliamo correggere.

In questa frase si nascondono tutte le difficoltà nel riprendere un corretto flat field. Per non creare dispersione con parole superflue, vediamo le tappe fondamentali da seguire e i concetti da fissare bene in mente:

  • Un flat field è di fatto una particolare immagine di luce. E cosa abbiamo imparato dalla fotografia astronomica? Che in generale una buona foto è la media di diversi scatti che consentono di ridurre il rumore e che a questi scatti bisogna sottrarre il dark frame. Ecco allora la quarta regola: un buon flat field si ottiene dalla media di almeno una ventina di singoli scatti, tutti uguali, a cui poi sottraiamo il relativo master dark frame, ottenuto dalla mediana di almeno 5-7 scatti. In pratica bisogna trattare i flat field come se fossero una sessione (particolare) di fotografia astronomica. Al limite, soprattutto se usiamo una reflex, possiamo sostituire i dark frame con i bias frame: l’importante è che i singoli scatti di flat siano calibrati o con i dark o con i bias. Una volta eseguite queste operazioni possiamo mediare i flat calibrati, senza effettuare alcun allineamento, e si costruisce il nostro bellissimo master flat field. Molti software generano il master flat field in modo autoatico prima di calibrare i frame di luce, quindi di questa operazione possiamo non farci carico noi, a meno che non vogliamo avere il pieno controllo su quello che accade (e non è una cattiva idea questa!);
  • Il master flat field viene normalizzato al valore medio di ADU pari a 1 e poi diviso dall’immagine che vogliamo correggere. Questa operazione viene fatta dal software che si utilizza e noi non dobbiamo preoccuparcene più di tanto perché, se tutto è stato fatto nel modo giusto, l’immagine corretta presenterà un fondo cielo privo di vignettatura e di zone più chiare o scure dovute a polvere o sporcizia. Tutto molto semplice, vero? Abbiamo già finito, siamo tutti contenti… Non proprio.
A sinistra un singolo frame di flat field ben eseguito. A destra la media di 35 singoli scatti. Soffriamo già molto per far uscire un minimo di segnale dai soggetti astronomici con ore e ore di posa, non roviniamo tutto con dei flat non buoni: mediamo molti scatti per non aggiungere rumore.

A sinistra un singolo frame di flat field ben eseguito. A destra la media di 35 singoli scatti. Soffriamo già molto per far uscire un minimo di segnale dai soggetti astronomici con ore e ore di posa, non roviniamo tutto con dei flat non buoni: mediamo molti scatti per non aggiungere rumore.

Se siete stati infatti ben attenti, non vi ho detto come fare nella pratica un buon flat field: è questo il punto più delicato. Ecco allora qualche spunto per non dover diventare matti:

  • Flat box o generatori di flat field: sono una delle più grandi novità dell’astrofotografia dopo la maschera di bahtninov, un’idea semplice ma che ha rivoluzionato il modo di fare i flat field. Si tratta di speciali tappi da applicare all’obiettivo del telescopio, con dei led all’interno che illuminano una superficie semitrasparente che ne
    Generatore di flat field d aporre di fronte l'obiettivo del telescopio e con luce regolabile in intensità

    Generatore di flat field d aporre di fronte l’obiettivo del telescopio e con luce regolabile in intensità

    diffonde la luce in modo uniforme. Sono molto semplici e comodi da usare, non richiedono una lampada esterna, una superficie illuminata e neanche di spostare il telescopio, così possiamo fare i flat field tra un filtro e un altro senza perdere il puntamento;

  • Fogli o magliette bianche: sono i metodi storici, decisamente meno comodi delle flat box, e vanno bene per tutti gli strumenti, sebbene siano più indicati per diametri superiori ai 15 cm, per i quali costruire (o comprare) una flat box può essere dispendioso. In questi casi ci si arrangia: si pone di fronte al telescopio un foglio da disegno o un semplice A4 (dipende dalla larghezza dell’obiettivo), bloccandolo con una punta di nastro adesivo. Ci si assicura che l’obiettivo non sia ostruito dal nastro e che il foglio sia ben in tensione, poi si pensa alla fonte di luce: una normale lampada a LED, persino il flash della fotocamera del proprio cellulare, ad almeno a un metro di distanza e sistemata da qualche parte in modo stabile (ad esempio su un piccolo treppiede, su un muro, sul tetto della macchina…). È fondamentale che il fascio di luce sia perpendicolare al foglio che copre il telescopio per assicurare un’illuminazione omogenea: sarà quindi necessario portare il tubo ottico parallelo al terreno. Si può sostituire, soprattutto in caso di emergenza, il foglio da disegno con una maglia bianca, ancorata al tubo con abbondante nastro adesivo per assicurare che sia ben tesa e che non presenti pieghe di fronte all’apertura del telescopio.

 

Il tempo di esposizione

Eccoci arrivati alla questione più importante di tutte, all’operazione che se non è fatta bene può rovinare tutto quello che è stato eseguito fino a questo momento, compresi gli scatti che vogliamo calibrare con i nostri flat field. Trovare il giusto tempo di esposizione per i flat field sembra quasi un’oscura arte, ma con un po’ di nozioni sui sensori digitali e le loro proprietà possiamo fare chiarezza una volta per tutte.

Intanto iniziamo subito con il dare informazioni sulla durata minima degli scatti, che è determinata dalla velocità degli otturatori. Una buona regola empirica ci dice che il tempo sotto il quale non bisogna mai scendere è pari a circa 100 volte quello minimo che è possibile scattare. Questo accorgimento evita di riprendere di fatto l’immagine dell’otturatore che libera prima una parte del campo e poi l’altra, falsando i nostri flat field (l’otturatore non può sparire all’istante!). Per le reflex, capaci di scatti di 1/4000 di secondo, possiamo usare scatti da 1/40 di secondo in su. Per le camere CCD astronomiche dotate di otturatore meccanico parliamo di almeno 4-5 secondi. Per le camere digitali non dotate di otturatore è meglio stare almeno tra i 5 e i 6 secondi. Possiamo aumentare quanto vogliamo l’esposizione ma non dovremo mai andare sotto questi valori.

L’altro fattore che ci permette di scegliere il giusto tempo di esposizione, e/o la potenza della luce, o la distanza della lampada, è rappresentato dalla dinamica del sensore digitale e su questo punto si sono narrate le più disparate leggende, spesso con molte imprecisioni.

Per chi fosse interessato, nel prossimo paragrafo ci sarà qualche spiegazione tecnica in più. Al momento, infatti, ci interessa il lato pratico e in questi casi la regola aurea è semplice: un buon flat field deve avere la luminosità di picco più alta possibile prima di uscire dall’intervallo di linearità del proprio sensore.

Il pregio di ogni sensore digitale, infatti, è di avere una risposta lineare, ovvero l’intensità del segnale è direttamente proporzionale alla luminosità reale della sorgente o, in alternativa, al tempo di esposizione. Così, se per un’esposizione di 5 secondi ho un segnale di luminosità pari a 5000 ADU, raddoppiando l’esposizione avrò un segnale di 10 mila ADU, esattamente il doppio. Analogamente, se raddoppio la luminosità della sorgente, a parità di tempo di esposizione, dovrò avere il doppio del segnale. In un mondo ideale tutti i sensori digitali sono perfettamente lineari fino a quasi i livelli di saturazione del contatore analogico-digitale (65535 ADU per contatori a 16 bit), ma nel nostro imperfetto mondo amatoriale non è così ed è qui che sorgono i problemi: se infatti i flat field non sono fatti nello stesso intervallo di linearità delle immagini che vogliamo correggerem non avremo mai una calibrazione perfetta. Questo inciderà, poi, sui dettagli visibili e sulla qualità generale delle immagini.

Dopo aver fatto lustri di esperienza con i più disparati sensori digitali, ecco le mie indicazioni:

  • Se disponete di una camera CCD (o CMOS) con la porta antiblooming e contatore analogico-digitale a 16 bit, un buon flat field dovrebbe avere luminosità di picco attorno agli 8-9000 ADU. Solo nel caso in cui il fondo cielo delle immagini da correggere oltrepassi questi valori (ma allora avremo sbagliato i tempi di esposizione) si possono ottenere flat field la cui luminosità media (questa volta MEDIA, non di picco) abbia valori più simili possibile al fondo cielo delle immagini da calibrare. Se preferiamo visualizzare l’istogramma invece dei numeri, allora nel primo caso, con il fondo cielo delle immagini da correggere basso, un buon flat si ottiene con l’istogramma a circa 1/6 della scala massima;
  • Se disponete di una camera CCD senza porta antiblooming, quindi di grado scientifico, le cose sono molto semplici: un buon flat field si ottiene con un’esposizione che permette di arrivare a una luminosità di picco pari a circa la metà della luminosità massima consentita, meglio se un poco meno. Per convertitori analogico-digitali a 16 bit questo significa avere picchi di luminosità tra i 25 mila e i 30 mila ADU. Per gli amanti dell’istogramma, il picco dovrebbe stare circa a metà;
  • Per le reflex digitali varrebbe il punto 1) ma a causa del contatore a 14 bit i valori sono tutti scalati e non sempre di facile lettura perché molti software poi convertono la luminosità in scala a 16 bit. Per tagliare la testa al toro, quindi, meglio guardare l’istogramma, che dovrebbe stare a circa 1/3 della scala massima. Si tratta di valori leggermente superiori rispetto al caso 1) perché bisogna fare i conti anche con il rumore di questi sensori: avere flat troppo deboli potrebbe causare più problemi che altro. In questo caso gli scatti dovrebbero essere fatti a ISO bassi (non bisogna scattare alla stessa sensibilità dei frame da correggere, per i flat non serve, anzi, è deleterio perché introdurrebbe rumore) e in modo automatico, facendo scegliere alla fotocamera l’esposizione corretta, magari dicendole di sottoesporre di 1 stop. Se si usano obiettivi o teleobiettivi, il diaframma, invece, deve essere lo stesso usato per fare le foto che si vogliono calibrare. Anche in questi casi, se si è fatto l’errore di fare riprese astronomiche con un fondo cielo molto luminoso, i flat field dovrebbero avere un istogramma il cui picco cada nella stessa zona di luminosità.

È molto importante, una volta trovata l’esposizione giusta, a prescindere dal sensore usato, raccogliere almeno una ventina di flat field, meglio se sono 30: più ne medieremo e migliore sarà il risultato finale.

Queste sono indicazioni generali che vanno bene per tutti i casi. Ciò non toglie che ognuno di noi possa sperimentare: cosa succede ad esempio, se eseguo due set di flat identici, uno con la giusta esposizione e un altro invece con l’istogramma a 2/3 della scala? Funzionano lo stesso? Potrebbe essere, perché tutto dipende dalle proprietà del proprio sensore digitale. I valori dati, quindi, vanno bene in generale sempre, ma non è detto che siano gli unici possibili.  Se vogliamo andare nel dettaglio e capire meglio la storia della giusta esposizione dei flat field, dobbiamo comprendere meglio come funziona un sensore digitale e la sua elettronica.

 

 ADU e full well capacity: andiamo un po’ più a fondo

Ogni sensore digitale cattura la luce attraverso l’effetto fotoelettrico, descritto in modo completo per la prima volta da Albert Einstein nei primi del ‘900 (e che gli valse il premio Nobel). In pratica, per certi materiali, come il silicio, la luce visibile che li colpisce riesce a strappare un numero di elettroni dal reticolo cristallino proporzionale all’intensità della sorgente. Applicando una differenza di potenziale agli estremi del materiale, gli elettroni strappati via vengono fatti fluire ai lati, quindi raccolti, conteggiati e trasformati in segnali luminosi digitali, grazie al contatore analogico-digitale.

 

Ogni pixel di un sensore ha un numero finito di elettroni che può catturare. Quando il contenitore si riempie si arriva alla saturazione. Il numero di elettroni che può contenere un pixel è chiamato Full Well Capacity. L’elettronica del CCD trasforma il numero di elettroni in livelli di luminosità. Per i sensori astronomici i livelli di luminosità disponibili sono in generale 65536, pari a 16 bit. Un’elettronica fatta bene dovrebbe allora riempire questi livelli in modo tale che alla luminosità 0 corrisponda un pixel senza elettroni raccolti e al valore 65535 il massimo numero di elettroni che il pixel contiene. In questo modo si ha la massima efficienza nel convertire la full well capacity in dinamica reale dell’immagine.

Per fare questa operazione in modo adeguato, l’elettronica si serve di quello che viene chiamato guadagno. Si tratta di un coefficiente moltiplicativo da applicare al numero di elettroni raccolti, il cui meccanismo è molto semplice da comprendere. Supponiamo di avere un sensore con full well capacity di ogni pixel pari a 100 mila elettroni, e supponiamo di voler distribuire al meglio tutta questa dinamica nei 65536 livelli di grigio disponibili in un convertitore a 16 bit. Affinché si sfrutti al meglio questo contenitore, occorrerà stipare 100 mila elettroni in 65536 livelli di luminosità, ovvero assegnare a ogni livello di luminosità 1,5 elettroni. Questo è il guadagno: il numero di elettroni necessari per far conteggiare un livello di luminosità al contatore analogico digitale. In un mondo ideale, quindi, parlare di full well capacity in termini di elettroni o di livelli di luminosità è uguale.

In un mondo reale le cose non stanno così perché il guadagno di un sensore non è mai impostato in modo così preciso da far coincidere la saturazione reale dei pixel con quella del contatore analogico-digitale. Di solito si tiene un po’ di margine, assicurandosi che la saturazione reale avvenga prima di quella del contatore. Di conseguenza, per molte camere CCD già verso i 50 mila ADU si ha di fatto la saturazione ma i valori possono cambiare di molto da modello a modello. In questi termini, parlare di ADU come il discriminante per un buon flat field è, a voler essere pignoli, un po’ approssimativo. Quando ad esempio ho detto che per camere senza antiblooming si dovrebbe arrivare a circa metà della dinamica, ci si dovrebbe riferire alla dinamica reale, ovvero al numero di elettroni e non al corrispettivo ADU, perché ci sono camere CCD che a 50 mila ADU presentano già saturazione e altre che lo fanno a 60 mila: in questi casi qual è il valore da prendere come riferimento per avere un flat field, esposto alla vera metà della dinamica? In realtà questa è una questione di “lana caprina” perché le differenze tra i CCD amatoriali non sono così grosse e delicate da rendere necessario l’uso poco pratico della dinamica reale in termini di elettroni e di fare poi la conversione attraverso il guadagno per capire a quanti ADU corrisponde il giusto intervallo.

Se siamo perfezionisti, tuttavia, un buon consiglio è di effettuare un test di linearità del nostro sensore. In questo modo, lavorando in ADU, possiamo vedere dove si verifica la reale saturazione e capire anche qual è la massima luminosità da poter utilizzare per i nostri flat field prima che la risposta cominci a diventare non lineare. Ecco quindi giustificati i valori dati in precedenza, un po’ conservativi e definiti indicativi per ottenere un buon flat field. Ecco, inoltre, giustificato il senso di un mio precedente post in cui si parlava di test di linearità e si arrivava a definire i valori ottimali per fare i flat field, che guardacaso corrispondono a quelli menzionati in questo caso e presi come universali.