PDA

Visualizza Versione Completa : post utile per tutti, e domande su ripresa planetaria e settaggi



cherubino
12-12-2013, 11:12
aspettate che re-inserisco il tutto

cherubino
12-12-2013, 11:14
Ho eseguito alcune prove nella settimana passata usando una camera ASI 120MM e un rifrattore 152/1800 per riprendere Giove.
Ho dedotto quanto segue, o meglio, mi si sono instillati i seguenti dubbi:

1) lavorare con FPS molto alti è controproducente (vero?). Nel senso che i dettagli che le immagini hanno, anche con filmati da 3/4/5000 frame, sono moltissimi ma restano "spalmati" e, anche lavorando con i wavelet in modalità tradizionale o gaussiana li lasciano "sbiaditi". Qui un esempio.
5000 frame di cui sommati il 45%, focale 3600 + filtro IR-CUT

5321

situazione simile ma con FPS portato da 45 a 20

5322

2) sul web ho trovato (scarsissime) informazioni riguardo il corretto utilizzo del frame rate a seconda del seeing e del diametro dello strumento.
Tutti a parlare di pixel, di come devi allineare, ma nessuno o quasi che si soffermi sui primi importantissimi aspetti: la regolazione del modo di ripresa.
E senza una ripresa fatta bene NON si va da nessuna parte…

3) mi sembra di capire che esista una qualche correlazione tra il GAIN e il tempo di esposizione che permette di compensare il segnale finale.
Insomma.. il concetto è che, a parità di condizioni di contorno (seeing e strumento) se riprendo a 512x400 e quasi 4 metri di focale Giove e ottengo un FPS di 45/50 circa ottengo immagini da elaborare meno "dense" di quanto non ottenga se lavoro a 800x800 con FPS di 20.
Qualcuno ha voglia di esprimersi a riguardo?

Paolo

cherubino
12-12-2013, 11:21
altra cosa:

4) mi succede che su alcune riprese, in fase di elaborazione compaia un "cerchio" concentrico al pianeta. Si vede abbastanza bene in questa:

5323

Poiché non accade su tutti i filmati (anche ripresi nello stesso modo) mi sono domandato "perché"?
Spulciando il web ho trovato pochissimo a riguardo ma mi sembra di aver letto alcune affermazioni del tipo:

"è un problema che si manifesta quando, in fase di ripresa, il pianeta "balla" troppo" oppure viene inseguito male"

Così ho provato a correggere l'inseguimento durante le riprese usando i moti lettrici fini dello strumento spostandolo un po' qui e un po' la (ma non di molto sia chiaro) e mi sembra di notare un enorme aumento della presenza di questo cerchio nelle riprese così effettuate.

Considerazioni in merito?

Paolo

babbo
12-12-2013, 12:47
mi succede che su alcune riprese, in fase di elaborazione compaia un "cerchio" concentrico al pianeta
Hai provato a controllare i singoli fotogrammi per vedere se hanno lo stesso problema? Pool diceva che è un problema di focus mentre il Conte dava la colpa all'allineamento delle immagini. Marco invece parlava di wavelet esasperati. Porebbero essere tutte e tre?:biggrin:

lavorare con FPS molto alti è controproducente (vero?)
Io aumento il framerate quando l'immagine è traballante. Spero che in 60 fotogrammi qualcuno esca meglio degli altri. Se invece ne ho solo 30, la probabilità è inferiore. Nulla di scientifico, potrei sbagliare.

nessuno o quasi che si soffermi sui primi importantissimi aspetti: la regolazione del modo di ripresa.E senza una ripresa fatta bene NON si va da nessuna parte…
e qui, purtroppo, se non c'è seeing ..... Pensa che il Fidone G., punta il telescopio e se Giove si muove troppo, spegne tutto e fa altro. Ad ogni tipo di seeing le regolazioni saranno differenti. Io porto gain, brightness ed exposure al massimo, e poi regolo verso il basso finché la camera mi restituisce buoni dettagli. Poi passo alle altre regolazioni.

mi sembra di capire che esista una qualche correlazione tra il GAIN e il tempo di esposizione che permette di compensare il segnale finale.
gain/framerate o gain/exposure? non ho mai riflettuto su questo, ma sono curioso di sentire le risposte.

cherubino
12-12-2013, 12:56
quindi FPS sempre al massimo possibile?

Di conseguenza: sempre meglio lavorare con campi ristretti? Quindi meglio 512x400 invece di 800x800 (gli FPS aumentano diminuendo il campo di sensore usato).

Altra cosa…

Con AUTOSTAKKERT io posso solamente scegliere la PERCENTUALE di frame da usare in un filmato. Ammettiamo di avere un filmato di 5000 frames su Giove con una curva (autostakkert2 dopo l'analisi ti da un andamento come un sismografo che ti indica quanti frame sono sopra al 50% e quanti sotto). Amettiamo di avere il 50% dei frame sopra il 50%, se io ne uso solo il 30% vorrà dire che il programma, automaticamente, mi usa per lo stacking solo quelli, giusto?) Quindi dovrei usare, in questo modo, solo i (5000x30%) migliori 1500 frame del filmato.

In REGISTAX 6, per le immagini in bianco e nero devo usare solo i WAVELET ed eventualmente il DENOISE o anche qualcosa d'altro?

Paolo

pool187
12-12-2013, 13:22
i cerchi concentrici in questo caso può essere residuo di cromatica ...sennò può essere una delle tre cause sopra elencate da babbo...la più frequente è l'uso esagerato dei wavelets...ma anche un cattivo focus può crearli...

paolo.

babbo
12-12-2013, 14:11
i cerchi concentrici in questo caso può essere residuo di cromatica ...sennò può essere una delle tre cause sopra elencate da babbo...la più frequente è l'uso esagerato dei wavelets...ma anche un cattivo focus può crearli...
paolo.
in pratica, bisogna mettersi sulla tavola e aspettare l'onda perfetta. Al residuo di cromatica non avevo mai pensato, visto che Giove lo riprendo in b/n, e non sono ancora così allenato da vederla in un 90/900.
Ho anche sentito parlare di differenziale tra gain e gamma....QUI! (http://astroimaging.forumfree.it/?t=64868857)
Come possiamo sbrogliare la matassa?:whistling:

pool187
12-12-2013, 14:25
naturalmente parliamo di residuo cromatico solo con rifrattori acromatici...

quella cosa del differenziale...è molto succulenta...

AndreBell85
12-12-2013, 14:58
Aspettate un attimo... Babbo ha risposto a una cosa diversa da quella che intendeva cherubino o sbaglio?

È la quantità di fotogrammi oppure la velocità di acquisizione espressa in Frame per secondo?
Maggiori saranno i frames acquisiti e sicuramente più probabilità ci sono di lavorare su più frames "buoni". Ma mi sembra di aver capito che la domanda fosse diversa... ovvero... acquisire ad una velocità elevata può incidere sulla qualità dei frames?

A quanto ne so non dovrebbe essere così, a patto che una grande quantità di frames riescano a passare attraverso il bus dati senza dover essere compressi e sempre che l'esposizione non sia "inferiore" a tale velocità di trasmissione.

Personalmente ho dei dubbi su questa teoria ma così c'è scritto su alcuni libri. Se non mi sbaglio..

cicciohouse
12-12-2013, 16:44
Non sono un esperto in merito, ma ringrazio cherubino per l'apertura del post, utile anche a chi come me vorrebbe iniziare a riprendere il planetario con la (modesta) attrezzatura che ha a disposizione.

Mi sento di voler fare, se possibile, un minimo di chiarezza almeno sui concetti base della ripresa hi-res, che sono di fatto quasi mutuati dalla fotografia tradizionale, dando il mio miserrimo contributo da teorico (per adesso).

Stabiliamo i parametri fondamentali di acquisizione:

1) Frame per secondo (FPS): è il numero di "scatti" che la videocamera effettua ogni secondo e il range che ci interessa arriva fino al massimo a circa 60 immagini al secondo (alcune camere si possono spingere anche a 120).
Questo parametro dipende sia dalle nostre impostazioni che dal tempo di esposizione, che a sua volta deve essere adeguatamente scelto a seconda della luminositá dell'oggetto da riprendere, dalla lunghezza focale del nostro strumento, ma deve tenere conto anche ad esempio dell'uso di eventuali filtri che attenuano appunto la luminositá. La diretta conseguenza di tutto ciò è che non è affatto vero che dobbiamo riprendere il maggior numero di frame in assoluto, ma il maggior numero di frame compatibilmente con la corretta esposizione (e che il seeing ci permette).

2) Tempo di esposizione (del singolo frame): questo parametro può essere direttamente mutuato dalla fotografia tradizionale ed è appunto il tempo che il sensore della videocamera rimane esposto alla luce ad ogni frame.
È subito chiaro che, come detto sopra, il tempo di esposizione condiziona il numero di frame per secondo, nel senso che se io espongo a 1/60 di secondo, allora il numero maggiore di FPS non potrà superare 60 per secondo, ossia è ovvio che non potrò usare un FPS di 80 senza modificare necessariamente il tempo di esposizione. Tuttavia se riprendo a 1/60 di sec, allora potrei (per assurdo) usare anche un FPS di 1 al secondo, ovvero riprendere un'immagine al secondo esposta di 1/60 di secondo!
Quindi ricapitolando, il tempo di esposizione rappresenta il tetto massimo oltre il quale il FPS non può spingersi.

3) GAIN: è il guadagno, ossia un parametro meramente digitale che agisce sul segnale DOPO che la videocamera ha acquisito la luce e ha trasformato i dati appunto in segnale. Aumentandolo si amplifica effettivamente il segnale, ma anche il rumore (generalmente definito, e non specifico di un certo tipo).
Se vogliamo è come scegliere di volta in volta gli ISO sulla fotocamera: servirà a raggiungere una corretta esposizione, ma a scapito del rumore. Deve quindi essere usato con una certa parsimonia...

To be continued...

marcom73
12-12-2013, 18:20
sempre mutuando dal mondo della fotografia terrestre, io sono piuttosto convinto del fatto che " più veloce è meglio è".....
essendo la ripresa in HI RES a tutti gli effetti una ripresa di oggetti in rapido movimento ( a causa del seeing e non di altro ) la volocità di ripresa è importante perchè altrimenti il singolo frame conterrà solo l'immagine MOSSA del soggetto.

ma l'esperimento di Cherubino è interessante perchè dimostra che non è sempre vero quanto detto sopra. ma da cosa dipende questo ? qual'è il limite oltre il quale non andare ?

immagino che molto dipende da come lavora il software di elaborazione: se lo STACK lavora con algoritmi che paragonano più frames e alla fine mediano l'informazione probabilmente la ricerca della nitidezza spasmotica del singolo frames, oltre un certo limite, non è solo inutile ma addirittura deleteria...

per quanto riguarda l'uso del ROI ( region of interest ), sinceramente non mi convince: nel caso di Giove ad esempio, se dobbiamo ricorrere al ROI significa che molto probabilmente stiamo sottosfruttando il potenziale CAMERA / TELESCOPIO... da li anche la mancanza di particolari: il bersaglio è troppo piccolo!

se chi lavora a 8000 di focale relativa ottiene ottimi risultati un motivo ci sarà ! 1800 o 3600 non bastano : io proverei con una TELEVUE 3X... e vedrai che rimarrai sorpreso....

cherubino
12-12-2013, 18:27
con un 15 cm?

Sei sicuro? perché io ESEGUO, lo sai…

Ma mi è stato detto che il campionamento corretto è intorno ai 3 metri e mezzo…

Paolo

marcom73
12-12-2013, 18:34
secondo me si.... ma non come si dice, non vorrei fare il ...... con il ....... degli altri :rolleyes:

se ti piace fare HI RES credo che di certo potresti trovare applicazione di tale pregiata lente sia con Morgana, sia un domani con il tuo nuovo fiammante Newton f5 (http://www.teleskop-express.de/shop/product_info.php/info/p5783_GSO-Carbon-Fibre-Newtonian-Telescope-10--F-5---Tube-made-in-Germany.html) ....

5334



:whistling:

cicciohouse
13-12-2013, 10:15
sempre mutuando dal mondo della fotografia terrestre, io sono piuttosto convinto del fatto che " più veloce è meglio è".....
essendo la ripresa in HI RES a tutti gli effetti una ripresa di oggetti in rapido movimento ( a causa del seeing e non di altro ) la volocità di ripresa è importante perchè altrimenti il singolo frame conterrà solo l'immagine MOSSA del soggetto.

ma l'esperimento di Cherubino è interessante perchè dimostra che non è sempre vero quanto detto sopra. ma da cosa dipende questo ? qual'è il limite oltre il quale non andare ?

immagino che molto dipende da come lavora il software di elaborazione: se lo STACK lavora con algoritmi che paragonano più frames e alla fine mediano l'informazione probabilmente la ricerca della nitidezza spasmotica del singolo frames, oltre un certo limite, non è solo inutile ma addirittura deleteria...

per quanto riguarda l'uso del ROI ( region of interest ), sinceramente non mi convince: nel caso di Giove ad esempio, se dobbiamo ricorrere al ROI significa che molto probabilmente stiamo sottosfruttando il potenziale CAMERA / TELESCOPIO... da li anche la mancanza di particolari: il bersaglio è troppo piccolo!

se chi lavora a 8000 di focale relativa ottiene ottimi risultati un motivo ci sarà ! 1800 o 3600 non bastano : io proverei con una TELEVUE 3X... e vedrai che rimarrai sorpreso....


Il punto che hai toccato, dimostrato sul campo da cherubino, direi è fondamentale.

Continuando brevemente il mio intervento precedente, a questo punto il parametro forse chiave di tutto è la Luminositá adeguata del singolo frame, che come detto dipende dal tempo di esposizione usato.
In questo senso il valore da ricordare è 180 ADU, o comunque circa l'85% della luminositá massima (circa 200 ADU). Utile in questo senso è l'istogramma che è possibile visionare in molti software di acquisizione, al pari dell'istogramma dell'esposizione che si trova sulle reflex.

Volendo fare un esempio: se per avere la corretta esposizione devo esporre a 1/30 di sec, allora posso riprendere a 30 FPS. Però se il seeing non me lo permette sarò costretto ad aumentare il numero di FPS per esempio a 60 con conseguente tempo di esposizione di 1/60 sec e, di conseguenza, dovrò aumentare il GAIN per mantenere una corretta esposizione del soggetto ripreso. Questo ovviamente comporterà un incremento del rumore (è come fotografare a 800 iso anziché a 400).

Per cui, penso che questa possa essere una prima risposta al problema sollevato da Marco e trovato da Paolo: teoricamente bisogna cercare di riprendere al valore minore possibile di FPS consentito dal seeing, pena un incremento della rumorosità dell'immagine finale.

Ultima riflessione: il numero di frame ripresi, come sappiamo, andranno poi sommati per formare l'immagine grezza (RAW) con software di stacking.
Sommare più immagini ci permette di incrementare il segnale utile e quindi tirare fuori più dettaglio.
Fermo restando che la lunghezza dei filmati da riprendere è condizionata dalla rotazione dei pianeti e varia con la risoluzione del nostro sistema di ripresa, la domanda che ci si pone subito successivamente è: QUANTI FRAME devo sommare mediamente?
A questo proposito è bene ricordare che l'incremento del segnale dovuto alla somma dei frame aumenta con la radice quadrata del numero di frame totali. All'atto pratico ciò significa che oltre i 1000 frame totali, si ha solo un piccolo guadagno in termini di segnale.












Inviato dal mio iPad con Tapatalk HD

KRK
13-03-2015, 20:52
Riprendo questo topic in quanto ultimamente sono riuscito ad ottenere alcuni risultati interessanti con il mio setup. Dico alcuni proprio perchè su 10 giorni in cui ho effettuato riprese solo in alcune occasioni il risultato è stato discreto e quasi esente da qualche difetto. In particolare le mie immagini soffrono spesso dei maledetti cerchi concentrici (onion rings) e da quello che mi sembra di aver capito da una lunga ricerca in rete (si trova veramente poco di preciso in merito) la causa è da attribuire a riprese effettuate tenendo il guadagno troppo basso. A questo punto uno si chiederebbe: ok, ma se alzo troppo il guadagno poi ho un rumore eccessivo... in effetti è vero ma c'è di positivo che riprendendo con un guadagno superiore al 50% della scala è possibile accorciare i tempi di esposizione e far "volare" il frame rate della camera. Acquisendo quindi un numero ben superiore di fotogrammi senza sbalzi di luminosità in teoria si riuscirebbe a mediare il rumore in fase di somma delle pose. Daccordo, ho scoperto l' acqua calda ma se questo è il deterrente per evitarmi i fastidiosi cerchietti, sono ben disposto a sacrificare un poco di omogeneità sull' immagine finale che poi non è detto. Circa l' argomento in questione personalmente dico che è giusto secondo il mio punto di vista, riprendere sempre ad alto numero di fps a questo punto per poi pre-processare la ripresa prima di effettuare lo stack. Effettuerò dei test...:cool:

Huniseth
13-03-2015, 23:13
Allora. .. in fatto di prove sono un esperto..
I cerchi concentrici.... un po di cromatismo sui bordi che inpasta il dettaglio localmente, c'è quasi sempre e con qualunque telescopio, ma la colpa maggiore è da attribuire al seeing, troppo ballerino, che è causa anche del cromatismo. Ovviamente in quella zona i wavelet esaltano il difetto.

FPS - io parlo per diametri fino al 180 - a focale nativa, 2700, riesco a tenere tempi di esposizione in grado di supportare il frame rate di 30 fts, con guadagno tenuto basso. Se metto la barlow non ci sto più dentro, anche con Giove molto luminoso, e l'ho provato con almeno 4 camere diverse.
Per avere tempi su 1/25 devo alzare di molto il guadagno, il che aumenta anche di parecchio il rumore, in ogni caso i 30 fts non li faccio lo stesso.

-. Domandona: come ..zzo fate a fare i 60 fts con tempi di esposizione che non mi passano 1/15 - 1/25? Non riesco a capacitarmi... o li impostate a muzzo anche se non li fa? - e parlo del mak180, non di un 127.

Altra cosa - tenendo l'immagine al limite della luminosità non riesco ad avere immagini passabili in elaborazione, devono essere più luminose. (lo dico perchè si dice ti tenere la luminosità bassa per non bruciare i dettagli, ma non bisogna esagerare col basso...)

Altra cosa... una immagine più piccola da la dimensione del frame più piccola e quindi più facilmente acquisibile sul pc - Ad esempio, la dfk31 a immagine piena (e sulla Luna lo è sempre) mi manda in crisi il pc.

Altra cosa... col tempo di 1/60 di esposizione (già difficilino da avere) col cavolo che riprendete a 60 fts - non c'è ancora il teletrasporto velocità luce fra camera e hard disk.

cherubino
14-03-2015, 11:01
Gli orion rings, come li chiamate, sono il lascio di un settario insufficiente della GAMMA più che del GUADAGNO.
Il problema è che aumentare il GAMMA porta ad una riduzione di alcune sfumature. Amen.
Questo soprattutto con le camerini CMOS.
Altissimi FPS francamente non servono quasi a nulla, se non a ridurre la lunghezza in secondi del filmato e ridurre l'eventuale effetto di rotazione del pianeta (Giove soprattutto).

Come mai HUNI tu non riesca a lavorare a 40/50 FPS francamente non riesco proprio a capirlo, forse tari in modo sbagliato la camera oppure usi un ROI troppo elevato..

Paolo

KRK
14-03-2015, 11:14
In realtà ho provato ad aumentare il gamma portandolo al 40% anche... il risultato è stata una immagine appiattita dal gradiente troppo omogeneo e i cerchi sono rimasti. Parlando ieri sera con alcuni astroimagers più bravi di me, mi hanno detto che il gamma lo tengono sempre al minimo, lavorando col gain mai al di sotto del 50%. Giustifico questa teoria per un semplice motivo: i cerchi concentrici sono causati dalla non eguale luminosità dei fotogrammi causata dal seeing... in presenza di forti turbolenze l' istogramma subisce sbalzi nell' ordine di 7/8 punti percentuale dal valore del 70%. Lo scopo è quello di mantenere la luminosità lineare il più possibile senza tutti questi sbalzi quindi in linea teorica: fps alti con guadagno elevato è uguale a riprendere molti frames in meno tempo ma congelando il seeing appunto e ricavandone altrettanti di eguale luminosità. Dal momento che il software di stacking non può fare miracoli, se abbiamo molte differenze tra un fotogramma e l' altro, i bordi soffriranno di scarsa dinamica in ogni caso e i cerchi saranno sempre presenti. Devo confrontare alcuni log file di immagini riuscite con altri dai quali ho riscontrato questo problema... vi terrò informati.

alextar
14-03-2015, 13:30
A mio modesto, anzi, modestissimo avviso i cerchi dipendono da un inseguimento non perfetto. L'ho realizzato usando pipp e spuntando l'opzione immagine planetaria, il software forza la centratura del soggetto et voilà, il cerchio è servito. Lo stesso filmato, per depurato dai passaggi troppo mossi, restituisce una immagine priva dell'odioso cerchio

Huniseth
14-03-2015, 22:03
L'inseguimento conta, ma il programma di allineamento serve a quello..cioè ad allineare.... chiaramente se l'immagine è stabile è meglio.

La velocità fts dipende dal tempo di esposizione, se è mono di 1/40 i 30 fts non esistono. A 2700 col mak 180 ci riesco, con la barlow assolutamente no. Alzare il guadagno o il gamma peggiora solo la ripresa e basta.
Cosa pensate di congelare alzando l'fts? Il pesce? con seeing scarso le immagini sono distorte, e sommare frame storti non porta a niente. Registax che può fare? sommare un cratere ovale con uno quadrato?