Testiamo la linearità del nostro sensore digitale

Uno dei grandi vantaggi dei sensori digitali è la cosiddetta linearità, o risposta lineare. Di cosa si tratta? In pratica un sensore produce un’immagine la cui intensità è direttamente proporzionale alla luminosità dell’oggetto o al tempo di esposizione. Se ad esempio facciamo una foto di una stella non variabile, questo implica che se si raddoppia l’esposizione raddoppierà il segnale (la luminosità) che il sensore avrà registrato dalla stella. Detto in questi termini sembra la scoperta dell’acqua calda e si fatica persino a capirne l’utilità; anzi, gli astrofotografi più esperti neanche lo vedono come un vantaggio e vedremo presto il perché.

Che i sensori abbiano una risposta lineare all’intensità luminosa che li colpisce non è una cosa scontata. L’altro strumento che usiamo per osservare il mondo, l’occhio, NON possiede una risposta di questo tipo, ma logaritmica: in pratica l’intensità percepita da tutti gli occhi umani cresce con il logaritmo dell’intensità luminosa che lo colpisce. In questo modo, quindi, quando vediamo una sorgente che ci appare il doppio più luminosa di un’altra, la reale differenza di luminosità non è di due volte ma molto più alta. Il caso classico è rappresentato dalla scala delle magnitudini, in cui tra una stella di magnitudine 2 e una di magnitudine 4 non c’è una differenza di 2 volte come suggerisce l’occhio ma di ben oltre 6 volte. Questa curva di risposta meno ripida di una retta consente al nostro occhio di sopportare enormi differenze di luminosità senza avere particolari problemi perché di fatto schiaccia le reali differenze di luminosità e ce le fa percepire come se fossero molto più ridotte di quanto siano. Di fatto, per chi conosce un po’ il gergo della fotografia astronomica, l’occhio umano opera uno stretch logaritmico automatico su ogni immagine che registra.

Perché allora i sensori digitali possiedono una risposta lineare, così differente da quella dell’occhio umano? E perché questa sembra così importante tanto da dedicarle un post? La risposta è semplice: la linearità nella risposta è fondamentale se si vogliono effettuare precise stime di luminosità degli astri. L’introduzione dei sensori digitali nell’astronomia (professionale) ha prodotto una grande rivoluzione che ha consentito di arrivare persino a scoprire la debolissima traccia lasciata da un pianeta extrasolare in transito di fronte al disco luminoso della propria stella.

In ambito prettamente astrofotografico questo che è un enorme vantaggio viene ribaltato e si trasforma in uno svantaggio: gran parte dell’elaborazione di una foto estetica si basa infatti sui cosiddetti stretch, ovvero sull’alterare la risposta portandola da lineare a logaritmica. Questa operazione consente di osservare sullo schermo del computer sia dettagli molto deboli che molto brillanti. Se si fosse avuto un sensore già con una risposta logaritmica come il nostro occhio sarebbe stato quindi più facile ottenere fotografie estetiche, in un certo senso!

In realtà la risposta lineare del sensore serve anche per chi fa fotografia estetica e permette di correggere i principali difetti delle immagini attraverso i dark frame e i flat field. Quest’ultimi sono importantissimi nel poter disporre di un’immagine da elaborare priva di difetti macroscopici e dalla quale potremo discernere molto bene dettagli reali da artefatti dovuti a polvere sul sensore o alla vignettatura del telescopio. Se il sensore non ha risposta lineare per certi livelli di luminosità, i flat field potrebbero non correggere le immagini e il risultato potrebbe essere disastroso.

Chi si dedica alla ricerca, anche in ambito amatoriale, soprattutto fotometrica, ha l’assoluta necessità di sapere se e quanto è lineare la risposta del proprio sensore, altrimenti rischia di misurare magnitudini del tutto sballate rispetto ai dati reali. Ecco allora che ho trasformato un argomento che poco interessava in uno dei mille problemi aggiuntivi che si trovano ad affrontare tutti coloro che usano camere digitali: i sensori hanno una risposta lineare? Se sì, per tutto l’intervallo di luminosità consentito? Come possiamo capire come si comporta il nostro sensore?

Come al solito parto con le notizie brutte: non è scontato che la risposta del sensore sia lineare su tutto l’intervallo di luminosità che riesce a darci, anzi, i sensori delle reflex e in generale tutti quelli dotati di un meccanismo chiamato porta antiblooming (ABG) hanno un ristretto intervallo di linearità. Questo si traduce nell’impossibilità di fare misure fotometriche e spesso anche nella difficoltà quasi estrema di ottenere flat field che correggano bene le immagini estetiche. Quindi, se avete fatto del flat field e avete notato che “non flattano” la risposta potrebbe essere questa: non li avete fatti nell’intervallo di linearità del sensore, che potrebbe essere molto limitato.

La prossima domanda allora è scontata: come misuro l’intervallo di linearità del sensore? Come faccio a capire quando smette di comportarsi bene e inizia a fornire valori sballati di luminosità?

È qui che arriva la bella notizia, perché possiamo fare un test rapido e molto semplice, di giorno e stando comodi dentro casa. Di modi per fare questo test ce ne sono diversi, qui spiego quello più facile, rapido e chiaro. L’idea alla base è chiara: disporre di una fonte di luce fissa e fare una serie di scatti con tempo crescente, in modo da coprire tutta (o quasi) la gamma di luminosità concessa dall’elettronica del sensore. Poi misureremo la luminosità della sorgente in funzione del tempo di esposizione e costruiremo un bel grafico. Se la risposta è lineare, i punti si disporranno su una retta, altrimenti inizieranno a fare strane curve e potremo così individuare l’intervallo di luminosità in cui potremo effettuare i nostri flat field o misurare la luminosità delle stelle senza problemi.

Ora che abbiamo capito l’idea alla base, cerchiamo di metterla in pratica. Intanto la fonte di luce: ideale è una lampada a led, anche una torcia. Se abbiamo una flatbox le cose saranno ancora più semplici. Non è necessario montare la camera su un telescopio ma è sicuramente più comodo. Se non abbiamo grossi problemi, possiamo montare il telescopio in casa e metterci sopra la flat box. L’idea è quella di ottenere dei flat field con diversi tempi di esposizione, idealmente da 1 a 20-30 o più secondi, in modo che la luminosità media dell’esposizione più breve sia attorno a 1000-1500 ADU e quella dell’esposizione più lunga raggiunga la saturazione, circa a 65000 ADU se usiamo camere da 16 bit. In questi casi visualizzare l’istogramma ci sarà molto utile. Se la luminosità della flatbox è troppo forte possiamo inserire un filtro nella nostra fotocamera (tanto la linearità non dipende dalla lunghezza d’onda) o schermare la luce della flatbox con qualche foglio bianco.

A questo punto, in binning 1 (cioè a piena risoluzione) e con il sensore raffreddato (per chi se lo può permettere) effettuiamo degli scatti a esposizioni crescenti, partendo da 1 secondo fino ad arrivare alla saturazione, incrementando di un secondo ogni volta. Ripetiamo questa procedura 3 volte per avere una buona statistica (in pratica alla fine costruiremo 3 grafici indipendenti e vedremo i risultati) che ci permetterà di escludere eventuali variazioni della sorgente di luce. In alternativa possiamo mediare 5-6 singoli scatti per ogni intervallo di esposizione (ognuno dei quali calibrato con dark o con bias), come ho fatto nei risultati che troverete alla fine di questo post. Se abbiamo tempo e un CCD raffreddato, sarebbe meglio catturare circa 3-5 dark frame per ogni esposizione. Naturalmente non servono flat field perché stiamo analizzando di fatto dei flat field. Se abbiamo sensori non raffreddati non facciamo i dark ma i bias: una ventina di scatti con camera al buio e il più breve tempo di posa concesso dall’elettronica.

In fase di elaborazione non dovremo far nulla se non calibrare le nostre esposizioni. Attenzione in questo punto: i bias frame vanno bene per tutti gli scatti, mentre i dark frame sono collegati a ogni esposizione, quindi NON usiamo dark da 5 secondi per correggere le immagini da 2 secondi. So che alcuni software applicano un dark frame adattivo, ma non dobbiamo neanche pensarci!

Con le immagini calibrate adesso passiamo alla fase più noiosa: dobbiamo scegliere un’area di circa 50X50 pixel, sempre la stessa per ogni scatto e illuminata in modo circa uniforme, e annotarci il valore medio di luminosità, espresso in ADU.

In alternativa, se non ci sono forti variazioni di luminosità nell’intero campo, potremo usare tutta l’immagine come area di misurazione. Questo ci evita di dover tracciare un riquadro su ogni esposizione ma la precisione ne risentirà. Se i nostri speciali flat field possiedono variazioni di luminosità superiori al 10% nelle varie zone dell’immagine, siamo costretti a scegliere una piccola area verso il centro e con un’illuminazione più uniforme. La richiesta di luminosità uniforme lungo l’area di cui vogliamo misurare l’intensità luminosa è fondamentale per evitare che la misura venga falsata da porzioni che si trovano già oltre il range di linearità rispetto ad altre.

I programmi per fare questa misura sono quelli tipicamente astronomici, come AstroArt e MaxIm DL. Con MaxIm DL basta aprire l’immagine calibrata che si vuole misurare, visualizzare la finestra “Information Window” (View –> Information Window), e poi da questa scegliere la modalità “Area”. Di default compariranno le informazioni relative a tutta l’immagine, compresa quella che a noi maggiormente interessa: il valore medio della luminosità (Average), espresso in ADU. Se vogliamo o dobbiamo restringere l’area di misurazione, si deve tracciare un rettangolo sull’immagine con il mouse, ciccando con il tasto sinistro, tenendo premuto e trascinando il rettangolo che si formerà. In questo caso è assolutamente necessario annotarsi la posizione e le dimensioni della finestra di misurazione perché dovrà essere identica per ogni immagine che vorremo misurare, nella medesima posizione. Una volta tracciata l’area, la finestra “Information Window” ci darà le sue coordinate (quindi potremo ridisegnarla uguale senza problemi anche sulle altre esposizioni) e naturalmente i valori di luminosità media.

Area di misurazione della luminosità media con MaxIm DL e rispettiva "Information Window".

Area di misurazione della luminosità media con MaxIm DL e rispettiva “Information Window” in cui possiamo trovare la sua posizione e la luminosità media (Average).

 

Analizziamo le immagini

Bene, per ognuna delle immagini calibrate con dark frame o bias frame annotiamoci il relativo tempo di esposizione e il valore medio di luminosità. Importiamo i dati in un foglio di calcolo e cominciamo con le nostre analisi.

Come programma possiamo usare Excel o il gratuito Gnumeric, che funziona sia per Windows che per Linux. In ogni caso le operazioni da fare sono poche e semplici: si tratta infatti di costruire qualche grafico e magari fare una regressione lineare sui dati. Niente paura, spiego tutto nei prossimi punti.

  • Il primo grafico che dobbiamo fare mette in correlazione il tempo di esposizione e il valore medio di ADU misurato per ogni immagine. Sull’asse x va quindi il tempo di esposizione dei nostri speciali flat field, sull’asse y i valori medi di ADU. Da questo grafico, se abbiamo fatto tutte le misure per bene, dovremo trovare dei punti che si dispongono su una retta perfetta: caspita, il sensore è perfettamente lineare allora! No, non necessariamente. Questo è il primo grafico e serve per vedere se ci sono stati errori macroscopici nella fase di acquisizione ed estrapolazione dei dati (o se il sensore fa proprio schifo!). Con il grande intervallo di luminosità sull’asse y è impossibile vedere piccole deviazioni dal comportamento lineare. Quando la situazione può ingannare l’occhio (cioè quasi sempre), ecco che subentra una cosa che gli uomini hanno inventato tanto tempo fa e che i più, ahimé, disprezzano: si chiama scienza, in questo caso un po’ di statistica. La domanda a cui vogliamo rispondere è la seguente: il grafico ci sembra perfetto perché è così o perché siano stati ingannati? La risposta l’ho già data implicitamente qualche riga sopra, meglio quindi procedere spediti per vedere che avevo ragione;
Di primo acchitto il grafico sembra molto bello, ma l'occhio inganna...

Di primo acchitto il grafico sembra molto bello, ma l’occhio inganna…

 

  • A dominare il grafico non sono le probabili piccole deviazioni dal comportamento lineare ma il fatto che la luminosità cambia di migliaia di ADU lungo l’asse Y. Per togliere questo comportamento e mettere a nudo le più piccole imperfezioni del nostro sensore, dobbiamo fare quella che viene chiamata regressione lineare o fit lineare e analizzare i residui. In pratica diciamo al software di “unire” i punti con la migliore retta che è possibile costruire, poi sottrarremo i valori della retta ai punti reali e analizzeremo quelli che vengono chiamati residui, ovvero i punti depurati dell’andamento principale che ci impediva di vedere nel dettaglio il loro comportamento. Se i punti sono davvero tutti sulla retta come sembra dal primo grafico, i loro residui saranno tutti nulli o disposti in modo casuale attorno allo zero, e noi saremo contentissimi perché avremo in tasca il sensore digitale più preciso dell’Universo intero. Tranquilli, non c’è pericolo di cadere in questa eventualità…
    Sembra tutto complicato ma non lo è. Ci sono diversi modi per fare un fit lineare e poi sottrarne i valori ai dati. Con il programma Gnumeric, ad esempio, un modo molto rapido e user friendly è farlo fare in modo grafico al programma. Nelle opzioni di costruzione del grafico (che si attivano quando vogliamo costruire un nuovo grafico o quando facciamo doppio click su uno già creato), se ci posizioniamo sulla serie di dati immessi e clicchiamo sul punsalte “Aggiungi” potremo scegliere una bella “Trend line to serie 1”, in particolare del tipo “Lineare”. Nel nuovo menù che si apre basta accertarsi che l’opzione “Affine” sia selezionata e già potremo vedere una bella retta sovrapposta ai nostri dati.
In gnumeric, in pratica un clone gratis di Excel, possiamo fare tutti i calcoli che vogliamo. In questo caso ci serve un fit lineare e poi magari di visualizzare l'equazione della retta.

In gnumeric, in pratica un clone gratis di Excel, possiamo fare tutti i calcoli che vogliamo. In questo caso ci serve un fit lineare e poi magari di visualizzare l’equazione della retta.

 

  • Non abbiamo ancora finito, però. Clicchiamo ancora su “Aggiungi” e selezioniamo “Equazione to Regressione lineare 1”. Confermiamo tutto e vedremo comparire nel grafico sia la retta di fitting che l’equazione che la descrive. A questo punto dobbiamo creare una nuova colonna nel nostro foglio di lavoro, alla quale applichiamo l’equazione a ogni tempo di esposizione. In questo modo invece di una retta troveremo dei punti che si sovrappongono a essa in modo perfetto. Non c’è bisogno di graficarli; questi ci servono per fare la successiva operazione: creare i residui. I punti appena ottenuti sono quelli che si avrebbero in una situazione ideale in cui la risposta è rappresentata da un’unica e perfetta retta. I nostri punti sperimentali, invece, non avranno questa bella proprietà. Per capire quanto se ne discostano basta creare una nuova colonna in cui calcoliamo la differenza Osservato – Calcolato per ogni tempo di esposizione.

dati_better

  • Proviamo ora a costruire un grafico di questi residui in funzione del tempo di esposizione o, meglio, del valore medio di ADU corrispondente e vedremo che quella che prima era una retta perfetta ora in realtà è molto diversa.
Ora le cose sono più chiare e i dati non sono poi così ben disposti su una retta, che in questo caso dovrebbe essere parallela all'asse x!

Ora le cose sono più chiare e i dati non sono poi così ben disposti su una retta, che in questo caso dovrebbe essere parallela all’asse x!

 

Questo è il grafico davvero importante, perché ci dice come cambia il comportamento del nostro sensore in funzione della luminosità. Nella migliore delle ipotesi vedremo un intervallo lungo fino ad almeno 30 mila ADU in cui i punti si trovano su una retta quasi perfetta e poi divergono. Questo è il caso classico delle camere CCD scientifiche, tipicamente monocromatiche e prive della porta antiblooming.

Nella peggiore delle ipotesi, ovvero nel caso di camere CCD o reflex dedicate all’imaging estetico, le cose saranno ben peggiori, con diversi andamenti di “linearità” prima della saturazione. In questi casi diventa impossibile fare fotometria di alta precisione e spesso è complicato anche fare corretti flat field per riprese con soggetti deboli.

 

Due esempi reali

Ho effettuato il test di linearità appena esposto per due sensori CCD. Il primo, un Kak-402 con microlenti che equipaggia una SBIG ST-7XME, è il tipico sensore scientifico: monocromatico e senza antiblooming. Il secondo, un Kaf-8300 che equipaggia molte camere CCD, in questo caso una Moravian G2-8300 monocromatica, dotato di porta antiblooming, quindi più adatto all’imaging estetico.

I risultati evidenziano molte differenze. Se a prima vista i grafici della luminosità media in funzione del tempo di esposizione sono identici, o addirittura sembrano migliori nella Moravian (ma solo perché non si è raggiunta la saturazione, cosa che è avvenuta con la SBIG):

 

Test di linearità per due sensori CCD. Questi i grafici degli ADU medi in funzione del tempo di esposizione. Ci dicono poco e potrebbero ingannare.

Test di linearità per due sensori CCD. Questi i grafici degli ADU medi in funzione del tempo di esposizione. Ci dicono poco e potrebbero ingannare.

 

 Il fitting lineare con conseguente analisi dei residui rivela la reale situazione:

 Analisi dei residui: ora è fin troppo evidente quale sia il sensore migliore quanto a risposta lineare. Il Kaf 8300 presenta delle vere e proprie montagne russe!

Analisi dei residui: ora è fin troppo evidente quale sia il sensore migliore quanto a risposta lineare. Il Kaf 8300 presenta delle vere e proprie montagne russe!

 

Come si può vedere, la SBIG, a partire da circa 2000 ADU e fino a 25000 presenta una linearità che sfiora la perfezione, con un comportamento da manuale. Gli scostamenti dalla retta ideale sono dell’ordine dello 0,01%, ovvero di una parte su 10 mila. Questo consente ad esempio di mettere in evidenza senza problemi differenze di magnitudine dell’ordine del millesimo e rivelare quindi anche pianeti extrasolari in transito. Oltre i 30 mila ADU il comportamento comincia lentamente a divergere dalla linearità, sebbene bisogna superare i 40 mila per avere una non linearità dell’ordine dell’1%.

D’altra parte il grafico dei residui del Kaf-8300 è molto meno regolare. Si possono vedere almeno tre zone indipendenti, ognuna approssimabile con una retta di diverso coefficiente angolare: la prima fino a 9 mila ADU, la seconda da 10 mila a circa 18 mila e la terza da 20 mila a 30 mila, prima della naturale deviazione asintotica verso i valori di saturazione.  Questo è un problema se si vuole fare fotometria di alta precisione, in pratica impossibile, ma anche per i flat field. Quale valore usare per fare corretti flat field? La risposta forse già l’abbiamo vista da qualche altra parte, ma ora ne abbiamo la prova: per correggere un fondo cielo che tipicamente ha valori di poche migliaia di ADU, occorre che il flat field sia fatto nel primo intervallo di linearità, ovvero quello fino a 9000 ADU. In pratica, un buon flat field per un sensore di questo tipo è la media di tanti singoli flat che hanno come luminosità di picco circa 8000, massimo 9000 ADU. Per la ST-7XME invece, e in generale per tutte le camere sprovviste di porta antiblooming, i flat field si possono fare attorno a 25 mila ADU, in modo da avere il maggior rapporto segnale/rumore pur rimanendo ancora entro la zona perfettamente lineare.

 

Il test può essere fatto anche con le reflex senza problemi: basta scattare in formato raw agli ISO che di solito si usano per fare riprese astronomiche. In questo caso sarebbe interessante capire se e quanto varia la linearità della risposta in funzione degli ISO e in generale come si comportano questi sensori. Basta provare!

Qualche consiglio sul primo telescopio

E’ la domanda più classica di tutte, che mi viene fatta spesso. Invece di rispondere privatamente uno per uno ripetendo, alla fine, sempre gli stessi concetti, ecco qua qualche consiglio spicciolo per acquistare un telescopio.

Il primo consiglio è di essere consapevoli. Acquistare un telescopio è solo il coronamento di un percorso di apprendimento del cielo che deve essere già stato fatto. Sappiamo riconoscere le costellazioni? Sappiamo cosa aspettarci dall’osservazione al telescopio? Abbiamo già usato un binocolo? Se la risposta è no, allora facciamo un passo indietro necessario per evitarci cocenti delusioni. Acquistiamo delle carte celesti, o scarichiamoci qualche app di simulazione del cielo, cominciamo a riconoscere le costellazioni, la stella polare, a capire come si muove il cielo. Acquistiamo un binocolo astronomico, magari un 10X50, e iniziamo a fare pratica con questo, perché le cose che potremo vedere saranno molte e già spettacolari. Frequentiamo un’associazione astrofili, che ci farà provare diversi ottimi telescopi e alla fine saremo pronti per il grande salto.

Approfondiremo questi singoli argomenti (il cielo a occhio nudo e con un binocolo) in altri post, perché qui assumiamo che il cielo lo conosciamo e siamo in grado di fare una scelta consapevole.

Ci sono delle domande che dobbiamo porci per acquistare il primo telescopio, con la consapevolezza che non esiste lo strumento ideale che faccia tutto in modo perfetto:

  • Quanto sono disposto a spendere? Un telescopio è uno strumento di precisione, non un giocatolo, che quindi ha un costo. Se siamo disposti a spendere diverse centinaia di euro per uno smartphone che dovrà essere sostituito dopo un paio d’anni, perché non spendere qualche centinaio di euro almeno per il primo telescopio che può durare una vita? Uno smartphone per andare su Facebook merita davvero un budget maggiore di un telescopio che ci farà esplorare l’Universo? Detto questo, il budget minimo dovrebbe essere sui 200-300 euro. Sotto questa cifra compreremo solo dei costosi giocattoli;
  • Da dove osservo? Molti oggetti celesti hanno bisogno di cieli scuri. Se ci troviamo in città non potremo mai sperare di osservare galassie, nebulose e ammassi stellari in modo soddisfacente, quindi sarà inutile comprare un telescopio ingombrante e in teoria potente, quando la grande luce della città non ce lo farà mai usare bene;
  • Cosa voglio osservare principalmente? Pianeti e Luna, magari anche qualche ammasso stellare, oppure oggetti del cielo profondo come galassie e nebulose?
  • Devo spostarmi per cercare un cielo scuro? Se sì, allora meglio non comprare un telescopio lungo più di un metro che non entra nella nostra utilitaria;
  • Vorrei fare delle foto serie in futuro, al di là di qualche scatto alla Luna?

Quante domande! Nessuna paura, adesso facciamo chiarezza, magari iniziando con qualche consiglio utile:

  1. Se il budget è limitato a poche centinaia di euro, meglio non scegliere un telescopio computerizzato perché per mantenere basso il prezzo bisogna sacrificare la potenza ottica. E cosa ce ne facciamo di un’elettronica che trova gli oggetti, se poi il telescopio non ce li fa vedere? In altre parole: se la coperta è corta meglio dare spazio al diametro e meno all’elettronica. In ballo ci sono centinaia di euro di differenza tra uno strumento “manuale” e uno stesso dotato di elettronica, che però hanno la stessa “potenza”;
  2. Il mercato propone strumenti già pronti, qundi equipaggiati di treppiede, montatura e telescopio, ma questo non toglie che noi possiamo creare lo strumento che vogliamo acquistando a parte montatura e tubo ottico.
  3. Per fare fotografia astronomica attraverso il telescopio serve necessariamente una montatura equatoriale che spesso costa molto più del telescopio stesso. Le montature equatoriali che equipaggiano gli strumenti di piccolo diametro saranno adeguate per fare qualche scatto ai pianeti attraverso lo strumento o per fare foto a grande campo senza usare il telescopio, a patto di motorizzarle in ascensione retta. Non serve il puntamento automatico e non bisogna usare montature altazimutali. Non acquistiamo quindi il primo telescopio sperando di poterci fare splendidi scatti a nebulose e galassie, ma al limite solo per iniziare a imparare i rudimenti della fotografia astronomica, che rappresenta uno step successivo e molto più costoso.

Bene, adesso passiamo ai consigli più mirati, tenendo presente che queste sono indicazioni di massima e fatte sulla base della mia esperienza.

    Un rifrattore acromatico da 90 mm su una piccola montatura equatoriale: un ottimo inizio per Luna e pianeti

Un rifrattore acromatico da 90 mm su una piccola montatura equatoriale: un ottimo inizio per Luna e pianeti

Per osservare pianeti e Luna, anche da cieli non bui come quelli di città e pianura, e magari avere la possibilità, in futuro, di fare qualche foto, ci serve un telescopio su montatura equatoriale. Lo strumento ideale è un rifrattore acromatico o un Mak da 90 mm (meglio 127 ma saliamo di budget) su una montatura equatoriale almeno EQ3-EQ3.2 (o NEQ3). Questa configurazione sarà poi personalizzabile in futuro. Si potrà scegliere di cambiare il tubo ottico con uno più potente, visto che una EQ3 può reggere bene, in visuale, anche strumenti più potenti come il classico C8, uno Schmidt-Cassegrain popolarissimo. Si potrà scegliere di aggiungere la motorizzazione e persino un GOTO (puntamento automatico). La montatura, poi, potrà essere usata anche come base per fare fotografia astronomica con obiettivi fino a 300 mm di focale o piccoli telescopi da 60-70 mm di diametro, dotandola anche solo di un semplice motorino, molto più economico del GOTO.

Per capire la differenza tra uno sturmento con elettronica e uno della stessa “potenza” ma senza elettronica, qui c’è un rifrattore da 90 mm manuale su una piccola montatura equatoriale che potrà essere motorizzata per pochi euro, mentre qui c’è uno strumento di uguale potenza su una montatura altazimutale computerizzata: potenza uguale ma al costo di 200 euro in più e senza la versatilità di una piccola montatura equatoriale (che ad esempio potrà essere usata come astroinseguitore per fare foto a grande campo togliendo il telescopio). Da tenere in mente che se osserviamo dalla città ci potremo dedicare solo a Luna, pianeti e qualche stella doppia: tutti oggetti molto facili da trovare a mano attraverso il cercatore.

 

Newton GSO da 150 mm su montatura EQ3 manuale: un ottimo inizio per il profondo cielo, con uno sguardo alla fotografia astronomica (non attraverso lo strumento!)

Newton GSO da 150 mm su montatura EQ3 manuale: un ottimo inizio per il profondo cielo.

Se abitiamo sotto cieli molto scuri e/o abbiamo la possibilità, nonché l’intenzione, di trasferirci verso le Alpi o gli Appennini per fare osservazioni degli oggetti del cielo profondo, senza precluderci la possibilità di imparare a fare qualche foto, allora strumenti da 90-100 mm ci staranno stretti perché nebulose e galassie vogliono grandi diametri. In questo caso la configurazione ideale sarebbe quella di un telescopio newtoniano da 150 mm, proprio su montatura EQ3. Difficile salire con il diametro mantenendo la configurazione Newton, perché servirebbe una montatura più robusta, quindi costosa. In alternativa, però, uno Schmidt-Cassegrain da 150-200 mm, sulla stessa montatura, potrebbe essere un setup leggero e tuttofare, adatto sia per la città che per i cieli scuri. Il problema? Che costa più di un semplice Newton da 15 cm di diametro. In questi casi il puntamento automatico potrebbe essere utile per trovare con rapidità gli oggetti celesti. Se non vogliamo rinunciarci dobbiamo aggiongere i soliti 200-300 euro, a parità di diametro dello strumento e di montatura.

 

 

 

    Un dobson da 200 mm è la scelta migliore per spazzolare nebulose, galassie e ammassi, a patto di avere un cielo buio.

Un dobson da 200 mm è la scelta migliore per spazzolare nebulose, galassie e ammassi, a patto di avere un cielo buio.

Se disponiamo di cieli scuri e non siamo interessati alla fotografia a lunga posa, ma magari ci accontenteremo di qualche scatto alla Luna, allora via la montatura equatoriale, che spesso costa più del telescopio vero e proprio, e dirigiamoci verso le configurazioni Dobson: in pratica un tubo ottico in configurazione Newton (la più economica) che poggia su una spartana base in legno. Non potremo motorizzarla (almeno non con poco denaro) e non ci permetterà mai di fare foto a lunga posa come una montatura equatoriale (neanche se la motorizziamo!) ma per lo stesso costo avremo a disposizione uno strumento molto più potente dal punto di vista ottico. In questo caso un Dobson da 200 mm di diametro è uno strumento che sotto un cielo scuro ci farà già vedere cose meravigliose. Se vogliamo spendere meno possiamo considerare il fratello minore da 150 mm. Meglio non esagerare con il diametro oltre questo valore perché aumenterà il peso, l’ingombro e la difficoltà di gestire un telescopio alto quasi quanto noi.

 

Se siamo già determinati e vogliamo fare un acquisto una volta per tutte, allora le possibilità sono due:

  • Montatura HEQ5, EQ6 o equivalenti Ioptron e Celestron, con GOTO, e uno Schmidt-Cassegrain da 200 mm (il classico C8, ad esempio) se vogliamo fare fotografie e buone osservazioni sia dei pianeti che del profondo cielo;
  • Dobson da 10-12 pollici, di qualsiasi marca, eventualmente con GOTO, ma solo se potremo sfruttarlo sotto cieli scuri (e se riusciamo a trasportarlo!), se siamo interessati solo all’osservazione. Avere a disposizione uno strumento da più di 20 cm per fare osservazioni del cielo profondo ha senso solo se lo potremo portare sotto cieli non compromessi dall’inquinamento luminoso.

 

Qualsiasi sarà la vostra scelta, ricordate un paio di cose:

Elaborazione di una mia immagine: ecco i risultati!

Poco più di due settimane fa ho reso pubblici i file grezzi di una mia immagine astronomica, chiedendo a tutti gli interessati di elaborarla, a condizione di elencare i passaggi fatti e i software utilizzati. Ne è venuto fuori un progetto molto interessante, con la partecipazione di molti appassionati ed esperti di fotografia astronomica che hanno interpretato secondo il loro gusto personale i dati che avevo messo a disposizione. In questo post sono raccolte tutte le elaborazioni di chi ha partecipato, corredate di foto finali, di passaggi effettuati e a volte persino di screenshot e di processi eseguiti, in modo che chiunque possa riprodurre il risultato.

Prima di lasciarvi alle elaborazioni, mi piace tirare delle conclusioni, che per alcuni sono ovvie ma per altri meno:

  • Ogni immagine ha un impatto diverso su chi la osserva perché c’è una componente di interpretazione personale nel restituire i colori e i contrasti. Non troverete quindi due immagini uguali, ma…;
  • A prescindere dall’impatto estetico, un’attenta analisi mostra che tutte le elaborazioni mostrano circa gli stessi dettagli. Cambiano i contrasti, il livello di rumore, i colori, la saturazione… ma la forma, le dimensioni e la presenza o meno dei dettagli sono uguali per ogni foto e questo significa due cose: a) nessuno ha barato creando artefatti più o meno voluti e b) La fotografia astronomica non è arte ma deve rispecchiare la realtà. Non è foto ritocco ma elaborazione, spesso con metodi e processi rigorosi, che mira a mostrare nel miglior modo possibile ciò che è stato catturato e non ha lo scopo di migliorare in modo arbitrario i dettagli laddove il segnale non c’è;
  • A prescindere dal gusto personale, dalle ricette e persino dai software usati, quando si applica un buon procedimento di elaborazione il risultato tende a convergere e prescinde da cosa si è utilizzato per arrivarci. Ci sono software più specifici, altri meno; altri ancora sono potentissimi e alcuni richiedono più manualità da parte dell’utente ma alla fine, quando si ha una minima padronanza dei processi e si ha ben chiaro il legame stretto tra la fotografia e la realtà, i risultati convergono. Alcuni utenti meno esperti hanno forse esagerato abbassando curve e livelli e facendo quasi scomparire le tenui volute di polvere che abbracciano tutto il campo. E’ in questo caso che entra in gioco l’esperienza di elaborazione e la conoscenza del soggetto che si è ripreso. Questo significa che la fotografia astronomica non si improvvisa ma che sotto c’è un grande lavoro di esperienza e di studio, sia delle tecniche che dei soggetti astronomici.

Detto questo, vi lascio alle elaborazioni degli utenti che hanno partecipato a questo progetto, ringraziandoli pubblicamente.

La mia elaborazione, invece, corredata da tutti i passaggi fatti ed eseguita con software differenti rispetto alla maggioranza dei collaboratori, la trovate scaricando questo PDF. In fondo all’articolo è possibile visualizzare il collage di tutte le elaborazioni fatte per avere una panoramica d’insieme.

Elaborazione di: Daniele Gasparri

Elaborazione di: Daniele Gasparri

 

Ruggiero Carpagnano

Partendo dal file grezzo ho usato solo Pixinsight. Ho allegato uno screen shot dei processi usati.

Prima ho croppato l’immagine, poi ho usato il DBE. Dopo sistemato il fondo cielo e calibrato i colori con il Backgroundcalibration e il Colorcalibration. Successivamente ho applicato uno stretch STF sull’histogramtrasformation.

Ho creato una maschera di luminanza, l’ho clonata e dalla seconda mi sono creato una maschera di stella con Trouswavelet e l’ho sottratta alla prima maschera per averne una solo della nebulosità.

Ho applicato quest’ultima maschera alla foto e ho alzato un po la saturazione con le curve e poi un pochino (ma proprio poco) la curva del rosso per esaltare la nebulosità oscura.

Con Clonestamp ho eliminato i pixel caldi colorati.

Mantenendo applicata la maschera ho dato un paio di passati al 35% con LHE (uno con il Kernel basso ed uno alto) per esaltare il contrasto.

Un paio di passaggi di HDR per recuperare il nucleo.

StarMask e Morphologic per ridurre le stelle e una leggera deconvoluzione.

Con la maschera di stelle applicata ho cercato di sistemare la dominante gialla sulle stelle con al curva giallo/celeste.

Una passattina di ACDRN per il rumore

Ed una correzione con SCNR per eliminare il verde in eccesso.

Elaborazione di: Ruggiero Carpagnano

Elaborazione di: Ruggiero Carpagnano

 

Davide De Col

Ecco la mia versione della tua immagine con i seguenti passaggi interamente in Pixinsight:

  • Crop
  • Pulizia dei gradienti con il DBE
  • Background neutralization
  • Color calibration
  • Deconvoluzione
  • Masked stretch
  • Curve con saturazione e luminanza
  • ACDNR
  • Histogram transformation
  • Local histogram equalization per provare a dare profondità
  • Riduzione stelline
  • Saturazione stelline
  • Tgvdenoise
  • HDRmultiscaleTransform
  • Riduzione del rumore
  • SCNR
Elaborazione di: Davide De Col

Elaborazione di: Davide De Col

 

Paolo Demaria

Come software ho impiegato CCDStack (gestione colori, DPP e deconvoluzione), PixInsight LE (saturazione) e Photoshop CS2 (livelli, curve con maschere, riduzione rumore e correzione hotpixel).

Elaborazione di: Paolo Demaria

Elaborazione di: Paolo Demaria

 

Piermario Gualdoni

Ho aderito al tuo suggerimento per quanto riguarda l’elaborazione della tua Iris Nebula e la condivisione delle tecniche utilizzate.
Premetto che io riprendo con CCD mono, per cui il mio workflow è un pò diverso da quello che ti descriverò, comunque molti punti sono in comune. Sono partito dal tuo file già calibrato:
1) Preprocessing in Pixinsight:
– Histogram Transformation per lo stretching
– Automatic Background Extraction in divisione

2) Salvataggio come TIFF 16bit e Importazione in Photoshop CC dove effettuo quasi tutto il processing estetico:
– Applicazione della corrispondenza colori
– Denoise selettivo sulle zone a basso segnale con Topaz Denoise
– In camera raw aumento del contrasto, della saturazione e variazione della temperatura colore a gusto personale
– Riduzione dei diametri stellari con filtro minimo
– Aumento del colore sulle stelle tramite maschera di livello
– Aumento della nitidezza a zone tramite selezione sfumata
– Applicazione di Detail Extractor e Pro Contrast tramite plug in Nik Suite
– Finitura dei colori tramite correzione colore selettiva
– Ottimizzazione finale a gusto personale

Elaborazione di: Piermario Gualdoni

Elaborazione di: Piermario Gualdoni

 

Domenico De Luca

Ciao Daniele ti allego il JPG. Ho usato PixInsight e Photoshop; i tool te li elenco in sequenza.

1) PixInsight:

-Background Neutralization

-Color calibration

-Dynamic Background Extraction

-Histogram strech per passare a foto non lineare

-Dark structure ehnance

-Deconvoluzione

-HDR

-Saturazione

-Multiscale Median Trasform

2) Passaggio in Photoshop:

-Colore selettivo

Elaborazione di: Domenico De Luca

Elaborazione di: Domenico De Luca

 

Edoardo Luca Radice

Innanzi tutto ho ripetuto la calibrazione e l’integrazione in modo da cancellare gli hot pixel presenti nell’immagine.
Non ho usato i flat perché mancano i relativi dark e/o i BIAS (con i quali avrei potuto riscalare i dark dei light) e quindi è impossibile rimuovere la componente additiva dal master flat.
Visto che c’erano dei gradienti da I.L. abbastanza invadenti ho deciso, prima di fare l’integrazione, di applicare ABE (Automatic Background Extractor) a tutti il light impostando a 1 il grado del polinomio interpolatore, in questo modo ottengo un background col gradiente lineare che rimuove gran parte dell’inquinamento luminoso. Per farlo ho creato un image container per eseguire l’operazione in batch su tutti il light.
Fatto ciò ho integrato le immagini usando come peso la stima del rumore e un algoritmo di pixel rejection in modo da cancellare gli hot pixel senza degradare il segnale (Winsorized Sigma Clip)
Terminata l’integrazione ho eseguito un Crop per eliminare le aree non perfettamente sovrapposte.

Questi sono stati i passaggi di elaborazione:
– DBE (Dynamic Background Extractor) con correzione a divisione (per correggere la vignettatura e neutralizzare il fondo cielo);

– Ho applicato un RGB working Space uniforme e lineare (propedeutico alla deconvoluzione di immagini RGB);
– Deconvoluzione con una PSF gaussiana da 1,6 pixel usando un’opportuna maschera stellare per il deringing;
– Riduzione del rumore utilizzando TGVDenoise;
– Aggiustamento manuale dei colori con AssistedColorCalibration;
– Delinearizzazione, prima con una lieve trasformazione di istogramma, poi con MaskedStretch in modo da esaltare le parti deboli senza saturare il centro della nebulosa;
– Ripristino dell’RGBWorkingSpace sRGB (gamma 2.2);
– Compressione del Range Dinamico con HDRMultiscaleTranform utilizzando un’opportuna maschera di luminanza per non comprimere troppo le parti deboli;
– Sistemazione del contrasto tramite classica “curva ad S” con i canali RGB come target;
– Accentuazione delle zone scure tramite LocalHistogramEqualization anche qui con la consueta maschera di luminanza per non “uccidere” le parti deboli;
– Applicazione di una curva di saturazione (con la stessa maschera di LHE) per aumentare un pochino il colore;
-tocco finale con SCNR per rimuovere una il rumore verdastro ancora presente sulle parti più deboli.

Edorardo ha anche messo a disposizione le icone di processo utilizzate in PixInsight per reflicare i suoi risultati. Si possono scaricare qui.

Elaborazione di: Edoardo Luca Radice

Elaborazione di: Edoardo Luca Radice

 

Maximilian Iesse

Per mancanza di tempo sono passato direttamente alla elaborazione del “grezzo finale”.

Vado con ordine per i passaggi e programmi utilizzati:

Pixinsight:

  1. Dynamic crop: per ritagliare e lasciare fuori l’effetto mosaico
  2. Automatic background extractor, 1 volta in sottrazione ed una volta in divisione
  3. Color calibration
  4. Histogram transformation: per “strechare” l’immagine, in più passaggi
  5. HDR multiscale transformation: per cercare di recuperare un poco la parte interna alla nebulosa essendo un po’ bruciata
  6. Deconvolution: per aumentare la nitidezza, parametro StdDev portato a 1 per minimizzare gli artefatti

Paintshop:

  1. Mappatura toni locali: per contrastare maggiormente le nebulosità

Photoshop:

  1. Creata una maschera con la bacchetta magica, a partire dalle parti non luminose, lasciando fuori stelle e parti più visibili della nebulosa
  2. Riduci il rumore: per ridurre un po’ il rumore dovuto alla deconvoluzione
  3. Dopo aver invertito la maschera, ho fatto la correzione colori selettiva, lavorando per lo più su rossi e blu.
  4. Con il comando clone ho rimosso i difetti di pixel più evidenti

Questi sono i passaggi che ho fatto.

Il coma non ho idea di come correggerlo in post produzione.

Elaborazione di: Maximilian Iesse

Elaborazione di: Maximilian Iesse

 

Rossano Cortona

E stato usato esclusivamente Pixinsight:

1)    Histogram Trasformation

2)    Dynamic crop

3)    Automatic background extractor

4)    Background neutralization

5)    HDR multiscale trasform

6)    Star mask

7)    Morfological tranformation

8)    Mask invert

9)   Courve trasformation

10) ACDNR

11) Luminance Mask

12) Courve trasformation

13) DarkStructureEnhance

Elaborazione di: Rossano Cortona

Elaborazione di: Rossano Cortona

 

Elisabetta Trebeschi

Ciao, ho provato a elaborare il tuo file con il metodo che utilizzo ultimamente. Sw usati DSS, Lightroom (per abitudine sarebbe stato uguale e più ordinato con camera raw) e Photoshop.

1 – prima di tutto ho aperto il tuo file fits su DSS (NON ho fatto l’elaborazione da zero con lights – dark – flat);

2 – ho cliccato su azzera per riportare ai valori di default nei tre tabs (rgb/luminanza/saturazione);

3 – ho allineato i tre livelli rgb, una piccola correzione alla curva ed ho aumentato la saturazione a 15%, poi ho salvato in tiff 16bit;

4 – ho importato il file su Lightroom* e dato le impostazioni base, curve di viraggio e dettagli

– sulla destra ho clonato dei pixel verdi;

5 – ho aperto il file in photoshop per applicare il filtro “minimo” sulle stelle per rimpicciolirle:

Selezione->intervallo colore e con il contagocce ho selezionato una stella per ammorbidire la selezione. Selezione->modifica->espandi 4px. Selezione->modifica->sfuma 2px. Filtro->altro->minimo. Modifica->dissolvi minimo; dove non indicato ho lasciato le impostazioni di default.

 

* non pensavo di applicare il filtro minimo in photoshop altrimenti avrei aperto il file tid da lì usato il filtro Camera Raw per dare le impostazioni date con LR.

Elaborazione di: Elisabetta Trebeschi

Elaborazione di: Elisabetta Trebeschi

 

Alessio Vaccaro

In allegato c’è il mio “lavoro”. Cavolo! è la prima volta che metto mano su un CCD del genere! Fino ad ora ho solo lavorato con una Canon EOS 60D. Ho avuto un bel po’ di difficoltà a lavorare con i FITS a 32bit, non ci sono abituato!

Ecco il processing, più o meno dettagliato:

–          Dal grezzo che mi hai dato ho estratto un MONO con MaximDL;

–          A questo canale MONO applico una deconvoluzione “Maximum Entropy” con molte iterazioni (40-50) (sempre con MaximDL);

–          Dopo la deconvoluzione salvo il tutto in FIT 32bit. Apro il MONO_DEC appena salvato con PixInsight LE e, dopo aver fatto lo stretching logaritmico dell’istogramma, rimuovo un po’ di rumore alle basse frequenze (Wavelets) e alle alte (SGBNR). Salvo in TIF 16bit. Il MONO_DEC è pronto per Photoshop. Ora passo all’RGB;

–          Apro il file RGB (praticamente quello che mi hai dato tu) con MaximDL e faccio un binning 2×2. Salvo in FIT 32 bit;

–          Apro questo file con PixInsight e faccio lo stretching logaritmico stando attento a non tirare su troppo rumore. Salvo in TIF 32bit;

–          Apro i due file MONO_DEC e RGB su Photoshop e inizio a fare un trattamento separato sui due;

–          Il MONO_DEC prima viene smoothato da un paio di sfocature gaussiane poco evidenti che applico in modalità “schiarisci” e “normale” per appiattire il fondo cielo e per aumentare la profondità dell’immagine;

–          Dopo applico un Passa Alto sul MONO_DEC per risaltare i dettagli della nebulosa. Questo lo faccio con 2 raggi diversi: uno piccolo (dell’ordine dei 20-30px) e l’altro intorno ai 150-300px. Ovviamente tutto questo con le maschere e su dei livelli diversi che vengono “sovrapposti”. La luminanza è pronta;

–          Importo l’RGB su Photoshop, sistemo un attimo le curve e i livelli, aumento la saturazione e lo sovrappongo a tutti i livelli in modalità “colora”. Un po’ di ritocchi al colore (bilanciamento, curve, livelli, ecc..) a piacimento e poi è fatta;

–          Unisco tutto: ottengo l’immagine. Tocco finale che aumenta la profondità dell’immagine e dà un tocco un po’ più “magico” al tutto: prendo l’immagine appena ottenuta, la copio, la sovrappongo alla stessa, applico una sfocatura di 4-5 px e la metto in modalità “schiarisci”. Si ottiene quello che vedi!

Un bel casotto! Ci sono parecchi passaggi da programma in programma per compensare la mancanza di licenza in alcuni programmi (funzioni limitate). Questo è un workflow che ho “studiato”/scoperto/perfezionato in questi giorni, spero che il risultato sia di tuo gradimento!

Elaborazione di: Alessio Vaccaro

Elaborazione di: Alessio Vaccaro

 

Vincenzo Iodice

Mi sono permesso di realizzare queste elaborazioni, discutibili, però mi è piaciuto mettere in evidenza le nebulosità che sembrano siano presenti intorno alla IRIS. Nella prima foto le ho evidenziate in rosso, nella seconda in blu.

Le operazioni che ho fatto sono semplicemente, importarle ed elaborarle in DSS i light, dark e flat, inserendo il debayer giusto. All’elaborazione finale in DSS ho solo settato la saturazione a 18 per far emergere un minimo di colori.

In seguito ho aperto il file TIF con PS, ed ho solo giocato con i valori tonali e di saturazione mettendo in evidenza ora il rosso ora il blu.

Infine ho applicato i filtri polvere e grana e maschera di contrasto per aumentare un po’ il contrasto tutto qui.

Il risultato non è eccelso, ma le mie conoscenze si fermano qui.

Termino complimentandomi per i sui articoli sul blog sono molto utili.

Elaborazione di: Vincenzo Iodice

Elaborazione di: Vincenzo Iodice

 

Cristian Mari

Sono partito dallo stack, non so perchè pixinsight non voleva allinearmi i vari light ma va bene lo stesso.

Elaborazione eseguita totalmente in pixisight
Fase Lineare:

  • Dynamic PSF su una trentina di stelle;
  • Creata maschera stellare da utilizzare come deringhingh template nel processo di deconvoluzione, a cui passi pure l’immagine risultante del dynamyc psf;
  • Applicata la deconvoluzione con una 50 ina di passaggi;
  • Split dei 3 canali RGB e applicato processo linear fit prendendo come riferimento il canale verde;
  • Ricomposizione in rgb da channel combination;
  • Trasformazione in non lineare da ScreenTransferFunction applicato all’histogram transofrmation.

Fase non lineare:

  • Creazione di una maschera stellare ottenuta in pixel math dalla max() di tre maschere create su tre livelli di intensità e dimensione stellare;
  • Applico la starmask invertita per lavorare sulle polveri;
  • Sempre con la maschera attivata applico un processo di HDRMultiscaletransform lasciando i parametri di default;
  • Giocherello sulle curve;
  • Inverto la maschera per lavorare sulle stelle e applico una deconvoluzione leggera a 10 passaggi;
  • ColorSaturation per aggiustare l’azzuro e salvataggio in jpg.
Elaborazione di: Cristian Mari

Elaborazione di: Cristian Mari

 

Marco Boscolo

Ciao, ho ottenuto questa elaborazione eseguendo questi passaggi:
DEEP SKY STACKER
– selezione 90% delle immagini migliori (25 su 31)
– Impostazioni immagine –> taglio mediano kappa-sigma (K=2 , iterazioni = 5)
– Dark –> mediano
– flat mediano
Ottenuta l’immagine:
– Luminanza: mezzitoni = 48.8, Chiari = 30
– Saturazione = 20%
– Livelli RGB portati all’altezza del primo flesso inferiore della curva
-Salvataggio tiff applicando i cambiamenti

PHOTOSHOP:
– ritaglio immagine per migliorare l’inquadratura dovuta alla rotazione di campo
– regolazione livello neri
– aprendo una copia dell’immagine a parte in scala di grigi esalto i dettagli nebulari (esagerando per tirar fuori il più possibile)
e applico un leggero passaggio di noise ninja
– Copio questa immagine ottenuta nell’immagine principale impostando la tendina di somma livello da “Normale” a “Luminosità” e setto opacità al 75%
– ricalibro i livelli
– aumento saturazione +30
– applicazione del plugin (gratuito) HLVG
– riduzione del rumore mediante azione “deep noise reduction” ( il livello ottenuto lo sommo a 50% per non perdere troppo dettaglio)
– applico azione local contrast enhancement sommando( il livello ottenuto lo sommo a 30%)

Elaborazione di: Marco Boscolo

Elaborazione di: Marco Boscolo

 

Marco Burali

Partito dal file già preparato con colore. In maxln-dl sviluppato il segnale con ddp a controllo curva in manuale usando l’impostazione set-user-filter, poi ho applicato una seconda funzione ddp in modalità FFT-deconvolutiva e di contrasto, anche qui controllo curva segnale in manuale, leggero filtro locale adattivo per aumentare leggermente il contrasto, riequilibtio colore con la funzione Color-Bilance sul fondocielo salvato in Tiff: Portato in PS6, apertura con Camera Raw, regolazione contrasto e Chiarezza, poi leggerissimo ritocco con Esposizione gamma per la riduzione del rumore di fondo, conversione profilo in CMYK, regolazione livelli e allineamento istogramma, riconversione in RGB, regolazione bilanciamento colore, protezione delle stelle e apertura plug-in NIK e utilizzo della funzione Color-Efex- Detail Estractor saturazione colore al 30% e valore di estrazione sagnale al 12%, in modalità selezione inversa, apertura di maschera di livello e regolazione livelli RGB sulle polveri. Unito tutto in unico livello, selezione nucleo- sfumatura e ottimizzazione del contrasto e regolazione dei livelli rgb, deselezione e salvataggio. Lavoro molto sbrigativo ma secondo me buono. Spero di essere stato utile

Elaborazione di: Marco Burali

Elaborazione di: Marco Burali

 

Anna Luongo

  • tono automatico
  • colore automatico
  • livello automatico
  • curve output 62 input 19
  • filtro rc astro grandientxterminator
  • azioni astronomy tools  lighten only DSO and dimmer stars
  • increase star color
  • fade sharpen to mostly lighten
  • space noise reduction
  • enhance dso and reduce stars
  • lazo selezione centrale sfuma 18 maschera di contrasto fattore 96 raggio 3 soglia 0
  • selezione inversa curve output 98 imput 41
  • e poi ho salvato….
  • non sono riuscita a capire come fare a mettere in evidenza i colori…..

 

Elaborazione di: Anna Luongo

Elaborazione di: Anna Luongo

La (vera) potenza di un telescopio

“Che bello questo telescopio, quanto ingrandisce?”

È questa la domanda che spesso mi fanno durante le serate pubbliche, ed è la stessa domanda che feci io al mio ottico di fiducia quando dovetti scegliere il mio primo strumento, nel lontano 1993.

Se la domanda è sensata, la risposta è spesso spiazzante, soprattutto nelle sfumature più ironiche, che possono suonare più o meno così: “In teoria anche un milione di volte”, oppure: “Niente, se non ci metti l’oculare”, o ancora: “Infinito!”. Benché ironiche, queste tre risposte raccontano a modo loro i pezzi di una realtà che spesso spiazza chi non conosce ancora il mondo dell’astronomia amatoriale: l’ingrandimento di uno strumento può essere piccolo o grande a piacere, perché dipende dagli oculari che si usano, ma l’immagine che otterremo non sarà sempre nitida e luminosa.

A livello prettamente matematico, l’ingrandimento di uno strumento è dato dal rapporto tra la focale del telescopio, che è fissa, e la focale di un accessorio, che si chiama oculare e che serve per rendere visibile l’immagine all’occhio. Di oculari ce ne sono moltissimi, dalla focale di 2 millimetri a 40 e più millimetri. Inoltre, altri accessori, chiamati lenti di Barlow, possono raddoppiare, triplicare o addirittura quintuplicare gli ingrandimenti, a parità di oculare. Di conseguenza, un telescopio da 1000 mm di focale può lavorare da 10 a 2000 ingrandimenti o più, se inseriamo 2 lenti di Barlow da 5X. “Caspita, a 10 mila ingrandimenti riuscirò a vedere persino la bandiera lasciata dagli astronauti sulla Luna!” No, purtroppo le cose non stanno così. Io, a 10 anni, quando iniziai a fare astronomia non lo sapevo, ma presto mi resi conto di tutto ciò quando comprai un oculare da 4 mm di focale e una lente di Barlow 2X, superando i 400 ingrandimenti con il mio piccolo rifrattore da 90 mm di diametro e vedendo praticamente nulla persino sulla brillante Luna.

L’ingrandimento di ogni telescopio non rappresenta una misura della sua “potenza”, piuttosto è solo il mezzo con cui cerchiamo di sfruttare al massimo le sue prestazioni, che sono fissate dal diametro dell’obiettivo e dalla qualità con cui sono stati lavorati lenti e specchi.

Le quantità fondamentali di uno strumento astronomico sono la capacità di raccolta della luce, che permette di osservare oggetti più deboli di quelli visibili a occhio nudo, e il potere risolutivo, ovvero la capacità di mostrare piccoli dettagli degli oggetti astronomici. Entrambe queste due quantità dipendono prima di tutto da quanto è largo il telescopio, cioè dal diametro delle lenti o dello specchio primario. Questi elementi ottici devono naturalmente essere lavorati in modo preciso, affinché non ne vengano intaccate le prestazioni determinate dalle leggi della fisica. Ecco, allora, perché non è possibile costruire un telescopio con una semplice lente di ingrandimento o con uno specchio da barba che ingrandisce le immagini: la loro lavorazione è di gran lunga insufficiente per fare osservazioni anche solo decenti.

Se la qualità con cui sono lavorati gli elementi è buona, il diametro rappresenta l’unico (o quasi) elemento per valutare la potenza di un telescopio, perché è questo che determina il potere risolutivo e quanta luce posso raccogliere dagli oggetti deboli. Attraverso l’ingrandimento si cercherà di arrivare al limite delle possibilità del telescopio, ma non potremo mai aumentarne le prestazioni oltre quelle determinate dal suo diametro (e qualità ottica).

Se ora inseriamo nel contesto anche gli oggetti astronomici che ci piacerebbe osservare, si capisce anche un’altra cosa che a me, tanto tempo fa, stupì non poco: tranne i pianeti, tutti i più brillanti oggetti del cielo profondo, ovvero ammassi stellari, nebulose e galassie, hanno un’estensione angolare simile, o addirittura superiore, a quella della Luna piena vista a occhio nudo! Il problema, quindi, nella grande maggioranza dei casi non è ingrandire l’oggetto per osservarlo meglio, ma riuscire a trovare un ingrandimento, di solito modesto, tale per cui entra nel campo e allo stesso tempo la sua luce non viene diluita così tanto da risultare quasi invisibile.

Quasi tutti gli oggetti del cielo profondo vengono osservati al meglio tra i 30 e i 150 ingrandimenti, a prescindere dal diametro del telescopio. La loro debolezza intrinseca rende quasi sempre vano ogni tentativo di osservazione in alta risoluzione, cercando dettagli piccolissimi che non potremmo mai vedere.

Solo con l’osservazione di pianeti, Luna e stelle doppie si possono aumentare gli ingrandimenti fino a cercare di sfruttare tutto il potere risolutivo dello strumento. Una regola empirica vuole che, per osservare tutti i minuti dettagli di oggetti brillanti, l’ingrandimento massimo debba essere compreso tra le 2 e le 2,5 volte il diametro del telescopio espresso in millimetri. Ecco allora che un telescopio da 100 mm di diametro può sfruttare con profitto ingrandimenti fino a 200-250 volte e solo su soggetti brillanti che mostrano dettagli ad alto contrasto e luminosità (e nelle serate “buone”!). Questo ingrandimento è sufficiente per sfruttare il potere risolutivo dello strumento. Continuare a ingrandire è possibile ma l’effetto è simile a quello che si ottiene ingrandendo a dismisura una fotografia sul computer.

L’esempio con una fotografia calza molto bene e fa capire alla perfezione la situazione (rima fatta!). Immaginiamo di avere un’immagine con una risoluzione superiore a quella dello schermo; se vogliamo vedere tutto il campo ripreso dobbiamo ridurne le dimensioni: quest’osservazione a basso ingrandimento ci fa percepire meno dettagli piccoli, perché anche se ci sono il nostro occhio non li riesce a vedere. Ingrandendo l’immagine perdiamo la visione d’insieme ma possiamo arrivare a vedere sempre maggiori dettagli. Alle dimensioni originali otteniamo di fatto quello che per un telescopio è il massimo ingrandimento utile: stiamo osservando una piccola porzione dell’immagine ma riusciamo ad ammirare tutti i piccoli dettagli che prima non potevamo percepire (sebbene fossero presenti). Se continuiamo a ingrandire ben oltre le dimensioni originali non otteniamo alcun miglioramento della visione, perché abbiamo già visto tutta la risoluzione catturata dalla foto, che è stata fissata al momento dello scatto e che nessun ingrandimento può alterare.

 

Ingrandire un oggetto è come fare zoom su una fotografia: quando superiamo un certo ingrandimento l'immagine si sfoca e non ci restituisce più dettagli.

Ingrandire un oggetto è come fare zoom su una fotografia: quando superiamo un certo ingrandimento l’immagine si sfoca e non ci restituisce più dettagli.

 

Ingrandire molto serve solo per Luna, pianeti e stelle doppie, ma occhio a non esagerare altrimenti si avrà l'effetto simile a quello della precedente fotografia.

Ingrandire molto serve solo per Luna, pianeti e stelle doppie, ma occhio a non esagerare altrimenti si avrà l’effetto simile a quello della precedente fotografia.

Ecco allora che abbiamo imparato una cosa molto importante, che è fondamentale per fare il primo passo verso l’astronomia amatoriale e capire anche di chi ci si può fidare quando vogliamo dei consigli sull’acquisto di un telescopio. Il mio ottico, tanto tempo fa, quando gli feci quella domanda sugli ingrandimenti mi consigliò un telescopio che poteva arrivare a quasi 600 volte, invece di un altro che non avrebbe superato i 300 ingrandimenti. Entrambi erano rifrattori da 90 mm di diametro, solo che uno aveva una focale di 500 mm e l’altro di un metro. Secondo voi, ora che sapete come stanno le cose, avrei dovuto fidarmi della sua competenza astronomica?

Provate a elaborare una mia immagine astronomica

Molti astronomi amatoriali, soprattutto nel campo della fotografia astronomica, non rivelano mai, se non in modo parziale e con molta riluttanza, i propri segreti di elaborazione delle immagini, credendo che il sudore versato per imparare alcune efficienti tecniche di elaborazione debba servire per mantenere una posizione di vantaggio sugli altri.
Io, tuttavia, non ho mai sposato questa filosofia anche perché stiamo facendo, volenti o nolenti, scienza, o almeno stiamo analizzando dati reali che devono produrre risultati reali, per di più come un hobby e non come lavoro. Per confermare la realtà di ogni elaborazione serve che, come in ogni processo scientifico, il risultato sia ripetibile da tutti gli altri dopo che questi sono stati cottettamente informati di cosa è stato fatto. La bravura di uno scienziato e anche di un astrofotografo non è nell’ottenere risultati unici e di portarsi il segreto nella tomba, ma di arrivare per primo a tali livelli, di sviluppare metodi, tecniche e percorsi innovativi che permettano di sfruttare ancora meglio la strumentazione e il cielo sotto cui è stata usata. Si verrà allora ricordati non solo per le belle foto ma anche per aver dato un fondamentale contributo alla crescita di una comunità, perché convidivere un viaggio con tanti appassionati è sempre meglio che sovrastare il prossimo con la propria saccenza. Se nessuno avesse mai comunicato le proprie scoperte in fotografia astronomica staremmo ancora inseguendo le stelle con un oculare a reticolo illuminato e in altri ambiti ben più importanti il mondo sarebbe stato molto più arretrato.

Con questo spirito di collaborazione, invece che di competizione, propongo questo primo post in cui metto a disposizione dei dati acquisiti con la mia strumentazione su un soggetto astronomico e invito chiunque fosse interessato a elaborare l’immagine e a convidivere il suo processo di elaborazione.
Il modo per partecipare è semplice:

  1. Da questo link si può scaricare una mia sessione fotografica sulla IRIS nebula, eseguita lo scorso 3 Agosto con un telescopio Newtoniano da 25 cm f4.8, montatura Ioptron iEQ45 e camera CCD a colori ST-2000XCM. Il file compresso (sono comunque 191 MB) contiene i light, i dark e i flat per chi volesse partire da zero. In alternativa, nella cartella principale trovate già il file grezzo da elaborare, frutto della media di 28 scatti da 720 secondi;
  2. Ognuno può elaborare (solo per uso personale e per questo progetto) nel modo che vuole l’immagine, che può poi inviarmi via mail (in versione jpg) a danielegasparri [at] yahoo.it (sostituite [at] con la @) corredandola con i passaggi e i software utilizzati (non serve descrivere in dettaglio tutti i parametri impostati per i filtri, ma sarebbe bello elencare tutti i tools e i passaggi fatti per arrivare al risultato);
  3. Le immagini elaborate e inviate alla mia mail, complete dei passi elaborativi effettuati, verranno pubblicate in questo post, corredate dal nome dell’utente (se non volete comparire con nome e cognome segnalatemelo via mail) e rappresenteranno un’ottima base di confronto tra diverse tecniche e differenti software di elaborazione;
  4. Dopo circa una settimana pubblicherò anche il mio risultato e i passi effettuati. Non lo faccio prima per non influenzare le vostre elaborazioni.

I dati che scaricherete non sono volutamente di qualità eccelsa perché sono stati ripresi con strumentazione economica accessibile a molti amatori (avrei potuto farvi elaborare un’immagine di Hubble ma non sarebbe stata molto indicativa delle immagini medie che ottengono gli astrofotografi!): si noterà il coma ai bordi del campo, qualche problema con l’inquadratura, qualche gradiente residuo dovuto a infiltrazioni di luce dal cielo e dalla strada vicina e dei colori duri da bilanciare perché ho ripreso senza un filtro taglia infrarosso, sfruttando quindi tutta la sensibilità della mia camera CCD a colori. Il cielo sotto cui è stata scattata questa immagine aveva una qualità media pari a 21.3 magnitudini su secondi d’arco al quadrato, non male per la nostra inquinata Penisola.

L’obiettivo di un’elaborazione (estetica) è semplice: estrapolare tutto il segnale ripreso, riuscendo a gestire bene le zone in cui questo è più forte e quelle in cui è più debole, minimizzare i difetti estetici e restituire allo stesso tempo un’immagine gradevole alla vista ma attinente alla realtà. Qualche informazione sulla natura della Iris Nebula può aiutare: si tratta di una zona ricca di gas freddo e polveri. Nei pressi della stella centrale questo diventa visibile come una nebulosa a riflessione, che ha un colore blu-azzurro. Lontano dalla luce della stella, gas e polveri diventano oscuri e asumono una tonalità leggermente virata verso il rosso/marrone.

Buona elaborazione!

Cosa si vede con un telescopio amatoriale?

Il cielo è ricco di meraviglie, le cui forme e colori sono ben più vasti di tutte le opere d’arte mai concepite dall’uomo. Basta fare una rapida ricerca su internet con parole chiave come “galassie” o “nebulose” per innamorarsi dell’Universo. Proprio come un’irrazionale e irrefrenabile cotta adolescenziale, è questo il momento in cui rischiamo di perdere la lucidità e la calma, perché molto spesso si salta subito a una conclusione inevitabile: “Voglio vedere anche io quelle meraviglie, in diretta sul cielo, voglio comprare un telescopio e abbronzarmi con tutta quella luce e quei colori che mostra l’Universo!”

Purtroppo con questo post ho il poco gradevole compito di riportare tutti con i piedi per terra e di far capire quali sono i limiti e le possibilità che offre un telescopio amatoriale accoppiato al nostro strumento di osservazione, in gergo chiamato occhio.

Tutte le fotografie che possiamo osservare su internet sono, appunto, fotografie, ovvero rappresentazioni della realtà catturate attraverso strumenti molto più potenti dei nostri limitati occhi.

Il limite più grosso che ci impedirà sempre e comunque di avere le bellissime visioni, contrastate e colorate, che ci mostra invece google con estrema facilità è la modesta sensibilità del nostro occhio. Strumento formidabile per farci adattare e sopravvivere nell’aspro ambiente naturale, la nostra vista non ha dovuto di certo svilupparsi per osservare oggetti che fino all’invenzione del telescopio nessuno sapeva neanche che esistessero.

Arriviamo quindi alla prima e fondamentale regola che discrimina tra l’osservazione visuale e la fotografia: il nostro occhio non è abbastanza sensibile per vedere i contrasti e quasi sempre persino i colori di qualsiasi tipo di oggetto celeste, a esclusione delle stelle brillanti e dei pianeti. Non c’è telescopio che tenga: potremmo persino mettere l’occhio all’oculare di un telescopio da 10 metri di diametro ma tanto non riusciremmo a vedere una galassia colorata, come invece permette di fare la fotografia con strumenti persino più modesti di un telescopio giocattolo da 50 euro. Il motivo per cui molti appassionati passano spesso alla fotografia è per scoprire contrasti e sfumature di colore che solo i sensibili apparati fotografici possono rivelarci.

A prescindere dal colore, anche i contrasti percepiti degli oggetti variano molto tra l’osservazione e la fotografia. Come regola molto empirica e un po’ approssimata, ma che rende bene l’idea di quanta differenza ci sia tra quello che vediamo su uno schermo e quello che percepiamo all’oculare di un telescopio, non si fa un grande errore nell’affermare che tra una fotografia e l’osservazione visuale c’è di mezzo un fattore 10 in termini di diametro. Poiché il diametro del telescopio è ciò che per gran parte determina la visibilità e il contrasto degli oggetti osservati, quello che una buona fotografia mostra attraverso un telescopio di 10 centimetri di diametro è visibile, senza troppi sforzi, attraverso uno strumento 10 volte più grande, ovvero di un metro di diametro.

 

Impietoso confronto tra la fotografia, a sinistra, e quello che invece vede l'occhio attraverso lo stesso strumento e il medesimo cielo. Le immagini sono alla stessa scala!

Impietoso confronto tra la fotografia, a sinistra, e quello che invece vede l’occhio attraverso lo stesso strumento e il medesimo cielo. Le immagini sono alla stessa scala!

 

Confronto tra la resa di una fotografia a lunga esposizione ottenuta con un telescopio da 70 m di diametro, a sinistra, e la visione all'oculare di un telescopio binoculare da 60 cm di diametro. Al netto dei colori, tra osservazione e fotografia c'è una differenza di circa un fattore 10 a livello di diametro del telescopio.

Confronto tra la resa di una fotografia a lunga esposizione ottenuta con un telescopio da 70 m di diametro, a sinistra, e la visione all’oculare di un telescopio binoculare da 60 cm di diametro. Al netto dei colori, tra osservazione e fotografia c’è una differenza di circa un fattore 10 a livello di diametro del telescopio.

Poiché un telescopio da un metro di diametro non si trova in commercio per pochi euro, detta così sembra che sto dicendo che l’osservazione visuale sia una perdita di tempo: non è assolutamente vero. Quanto detto fino ad ora serve come terapia d’urto per farvi comprendere che non bisogna guardare le fotografie e sperare di osservare la stessa cosa attraverso il medesimo telescopio, perché non succederà mai.

Dopo aver distrutto tutte le false aspettative, è arrivato il momento di costruirne di nuove e sicuramente veritiere, perché una bella notizia in tutto questo pessimismo cosmico c’è: l’osservazione visuale può essere spettacolare e appagante, solo in modo diverso rispetto alle sensazioni e alle visioni che trasmette una fotografia astronomica. Quello che una fotografia astronomica, per quanto bella, non trasmetterà mai, è l’emozione di stare di fronte a un oggetto distante migliaia, se non milioni di anni luce, senza il freddo filtro del monitor di un computer. Quando si è all’oculare non importa se i contrasti sono deboli e i colori assenti, perché si è in contatto diretto con l’Universo, perché i nostri occhi stanno ricevendo luce che ha attraversato a 300 mila km/s i posti più remoti e affascinanti dell’Universo e in quel momento ha deciso di mostrarsi a noi e solo a noi, per regalarci uno sfuggente, quanto meraviglioso, sguardo verso il passato del Cosmo, un passato per noi presente, eppure distante migliaia, milioni di anni. Osservare il cielo al telescopio è il modo migliore e più emozionante per viaggiare a velocità incredibile a bordo di una immensa macchina del tempo ed esplorare luoghi e spazi dove nessun uomo è mai arrivato e che in pochi hanno persino osservato. E’ come stare in prima fila a uno, dieci, mille spettacoli teatrali; è come visitare milioni di musei, è come vivere mille vite tutte insieme.. E quando la nostra mente, impegnata nel comprendere la vastità e la grandiosità di quello che stiamo vedendo, ci fa percepire quel brivido di sfuggente consapevolezza che dura un millesimo di secondo o forse meno, ci si sente con un pizzico di orgoglio e tanta soddisfazione inquilini protagonisti e non più timidi ospiti di questo meraviglioso Universo.

Per osservare al meglio gli oggetti celesti serve prima di tutto un cielo scuro, lontano dalle luci delle città. Questo vale per le stelle, le nebulose, le galassie, gli ammassi stellari, ovvero per tutti gli oggetti a esclusione di Luna e pianeti, che invece possono essere osservati anche dalle inquinate città. Un cielo scuro di campagna o, meglio, di montagna, in notti in cui non è presente la Luna, è un requisito fondamentale per poter fare ottime osservazioni (e fotografie). Parleremo in un altro post della qualità del cielo e di come stimarla in dettaglio. Per ora accontentiamoci di qualche riferimento grossolano. Un cielo sufficientemente buio è infatti quello che nelle notti estive mostra con facilità la Via Lattea, spessa striscia di luce tagliata in due da un solco più scuro, che parte da sopra la testa e finisce verso l’orizzonte sud. Nelle notti invernali si deve percepire, seppur in modo molto attenuato, la stessa striscia. In tutti gli altri mesi dell’anno, invece, un buon indicatore della qualità del cielo è il piccolo carro: se riusciamo a vedere senza difficoltà tutte le stelle (non del grande carro, ma del piccolo!) allora il cielo è buono per fare proficue osservazioni telescopiche. La differenza tra un cielo illuminato e uno lontano dalle luci (e senza Luna) è enorme e può fare da discriminante, in molte occasioni, tra non vedere un oggetto e osservarlo quasi (QUASI!) come in fotografia.

Con un buon cielo a disposizione, occorre uno strumento che consenta di farcelo sfruttare, ovvero un telescopio. Anche su questo torneremo più volte, ma per ora capiamo bene i punti fondamentali, che sono due:

  • La potenza di un telescopio è determinata in larga parte dal diametro del suo obiettivo. Più è grande e più dettagli posso vedere;
  • Non c’è congegno elettronico che possa migliorare le prestazioni ottiche di un telescopio. Posso equipaggiare uno strumento con GPS, computer potenti, persino con generatori nucleari che garantiscono una vita (del telescopio, meno la nostra!) di centinaia di anni senza dover ricaricare le batterie, ma nessuno di questi congegni ci farà vedere meglio un oggetto, perché tutto dipende da quanto è larga la superficie che deve raccogliere la luce dell’Universo.

Detto questo, per osservare e non semplicemente intravedere gli oggetti del cielo profondo e i dettagli dei pianeti, serve uno strumento di un certo diametro. Fino a qualche lustro fa, il costo elevato degli strumenti costringeva a iniziare con telescopi da 60-80 mm di diametro, a volte 114: troppo poco per osservare con soddisfazione qualcosa oltre i crateri lunari, gli anelli di Saturno e qualche banda su Giove. Con la produzione cinese i prezzi si sono molto abbassati e oggi un telescopio già sufficientemente potente per poter osservare con relativa facilità centinaia di oggetti celesti (o migliaia) può costare meno di uno smartphone alla moda e durare sicuramente di più. Il diametro minimo, quindi, che permette di vedere buoni dettagli è intorno ai 15, meglio 20 centimetri. La configurazione migliore è quella Newton, perché più economica anche se ingombrante. In alternativa uno Schmidt-Cassegrain unisce anche leggerezza e compattezza. Cosa ci mettiamo sotto al telescopio, ovvero la montatura e gli eventuali sistemi computerizzati per puntare e seguire gli oggetti sono degli optional che facilitano la nostra vita ma non migliorano di certo le visioni che avremo. Per questo motivo, dal punto di vista delle visioni offerte all’oculare, un dobson da 20 centimetri, ovvero un telescopio newtoniano su un supporto molto spartano, che costa meno di 500 euro, offre le stesse prestazioni di uno Schmidt-Cassegrain su una pesante montatura equatoriali motorizzata, dal prezzo superiore ai 2000 euro. Quest’ultimo è uno strumento dedicato anche alla fotografia, utilissimo per puntare velocemente gli oggetti celesti e che ci evita di imparare a conoscere il cielo perché fa quasi tutto da solo.

Scendere sotto il diametro di 15 centimetri è consigliabile solo se siamo interessati all’osservazione di pianeti e stelle doppie, o se abitando in città, senza possibilità di spostarci, siamo obbligati a restringere il campo a queste categorie di oggetti brillanti. In questa situazione un rifrattore da 90-100 mm di focale, un Newton da 114-130 mm o un Maksutov o Schmidt-Cassegrain da 10-13 centimetri sono la scelta migliore, perché tanto non potremo mai sperare di sfruttare la grande capacità di raccolta della luce di diametri maggiori visto il luogo dal quale osserveremo e i pianeti presentano già interessanti dettagli con diametro di 10 centimetri.
Capito come funziona a grandi linee l’osservazione visuale e da cosa dipende, la domanda che sorge, direi spontanea, è la seguente: ma cosa posso sperare di vedere in concreto al variare del diametro del telescopio e della qualità del cielo?

Posto che i contrasti e i dettagli dipendono in modo forte dall’esperienza dell’osservatore (all’inizio sarà difficile vedere qualcosa, poi già dopo una settimana si vedrà molto di più) e dall’acutezza visiva, ho cercato di preparare una tabella in cui ci si può fare un’idea. La notizia buona è che quanto state per vedere rappresenta una situazione piuttosto pessimistica: con l’avanzare dell’esperienza la visione migliorerà nettamente.

Qualche oggetto del profondo cielo osservato con un telescopio da 50 mm di diametro (o un binocolo) sotto un cielo scuro.

Qualche oggetto del profondo cielo osservato con un telescopio da 50 mm di diametro (o un binocolo) sotto un cielo scuro.

 

Qualche oggetto del profondo cielo osservato con un telescopio da 150 mm di diametro sotto un cielo scuro.

Qualche oggetto del profondo cielo osservato con un telescopio da 150 mm di diametro sotto un cielo scuro.

 

Qualche oggetto del profondo cielo osservato con un telescopio da 250 mm di diametro sotto un cielo scuro.

Qualche oggetto del profondo cielo osservato con un telescopio da 250 mm di diametro sotto un cielo scuro.

 

Cosa dire invece di Luna e pianeti? Qui l’occhio si riprende la sua (parziale) rivincita, soprattutto sulla Luna, che mostra dettagli molto simili a quelli di una buona fotografia, con contrasti emozionanti e spettacolari giochi di luce.
Un po’ più difficoltosa l’osservazione dei pianeti luminosi, ma per un mero gioco di illusioni: durante le prime esperienze tutti i pianeti appariranno sempre troppo piccoli nel campo dell’oculare, eppure Giove, a 40 ingrandimenti è già grande quanto la Luna piena vista a occhio nudo. In questo contesto non bisogna cercare l’ingrandimento smodato (termine tecnicissimo!) ma convincere il cervello che stiamo vedendo un’immagine già sufficientemente grande a 150-200 ingrandimenti. Andare oltre questi valori necessita di telescopi da almeno 150 mm di diametro e una notevole stabilità dell’atmosfera.

Marte, a sinistra, e Giove, a destra, visti attraverso uno strumento da 100 mm di diametro a circa 200 ingrandimenti. Con il progredire dell'esperienza si vedranno molti più dettagli di queste due, pessimistiche, simulazioni.

Marte, a sinistra, e Giove, a destra, visti attraverso uno strumento da 100 mm di diametro a circa 200 ingrandimenti. Con il progredire dell’esperienza si vedranno molti più dettagli di queste due, pessimistiche, simulazioni.

 

A sinistra: tipico panorama lunare visibile già con strumenti da 80 mm di diametro a 100-150 ingrandimenti. A destra, lo stato dell'arte dell'osservazione lunare, grazie alla maestria di Giorgio Bonacorsi e un piccolo rifrattore da 80 mm di diametro. Riuscite a comprendere quanto conta l'esperienza?

A sinistra: tipico panorama lunare visibile già con strumenti da 80 mm di diametro a 100-150 ingrandimenti. A destra, lo stato dell’arte dell’osservazione lunare, grazie alla maestria di Giorgio Bonacorsi e un piccolo rifrattore da 80 mm di diametro. Riuscite a comprendere quanto conta l’esperienza?

 

Stesso strumento, stessa serata, stesso ingrandimento ma diversi osservatori, uno esperto e l'altro alla prima esperienza. Il modo migliore per migliorare non è comprare sempre nuovi e più potenti telescopi ma allenarsi sotto cieli scuri.

Stesso strumento, stessa serata, stesso ingrandimento ma diversi osservatori, uno esperto e l’altro alla prima esperienza. Il modo migliore per migliorare non è comprare sempre nuovi e più potenti telescopi ma allenarsi sotto cieli scuri.