Visualizza Versione Completa : M106 del 15 Febbraio
Ciao a tutti,
M106 ripresa nella notte tra il 14 e 15 Febbraio, sempre dal terrazzo di casa :)
37099
Dati di ripresa e full res qui:
https://www.astrobin.com/23ih4m/B/
Che dire, un po' una delusione, non sono riuscito a far uscire molto colore... nei prossimi giorni proverò a rielaborare da zero. Da quello che ho visto su questo forum e in giro su internet la zona non è popolata solo da stelle rosso/gialle, spero di non aver fatto qualche errore in fase di ripresa.
Consigli e critiche molto più che ben accetti, anche perchè non so per quale motivo ma in fase di elaborazione lineare mi ritrovo sempre con background di questo tipo (a "chiazze"), che sia un po' di IL?
37101
Grazie!
Ciao Rick la foto non e' male, ci sono bei dettagli sulla galassia, non male da un cielo cittadino, comlimenti..
Premetto di non aver mai usato un sensore a colori nel deep sky, quindi non so bene come si comportano, pero' anche la galassia manca di colore...potresti provare a saturarla un po in fase di elaborazione e vedere che succede.. Quel fondo cielo in fase lneare credo sia ok...
Fai il dithering tra una posa e l'altra? Con i CMOS e' essenziale farlo o il fondo cielo presentera' poi il tipico rumore a pioggia (nella tua foto non si nota , quindi immagino che lo fai).
A parte cio' davvero mi sembra ottima, forse un pelo fuori fuoco...o il seeing ti ha ingigantito le stelle...:)
Un saluto e a presto
Marco Rapino
18-02-2020, 09:27
Bella foto! Per la mancanza di colore posso dirti che condivido lo stesso problema. Purtroppo dai cieli urbani è molto più difficile tirare fuori il colore, soprattutto quello corretto che non viri la tinta di tutta l'immagine verso il verde o magenta (in caso di fotocamere a colori per via della matrice di Bayer).
Il lavoro che va fatto in fase di elaborazione è di gran lunga superiore a quello che deve fare chi vive sotto un cielo di classe 3-4 o inferiore, con una fotocamera mono e filtri a banda stretta già la cosa cambia, in OSC invece i filtri IDAS e simili alterano comunque il colore generale dell'immagine.
Detto questo, secondo me spingendo un pochino in saturazione con una maschera di luminanza alla quale sottrai la star mask, dovresti avere un risultato ancora migliore :)
Le stelle bianche possono essere a causa di:
- saturazione dei nuclei per esposizioni troppo lunghe o con ISO/gain troppo spinti
- utilizzo di filtri dual/single NB
Dato che le tue pose sono da 150", allora ti chiedo se hai usato qualche filtro.
Le "chiazze" di cui parli tu mi fanno pensare a qualcosa di diverso dall'inquinamento luminoso, perché di solito questo genera un gradiente nel cielo e non un disturbo a macchia di leopardo, forse in fase di background removal qualcosa non va come dovrebbe? Usi ABE o DBE? Se ti va e hai tempo dicci che tipo di workflow hai seguito.
Tante domande, lo so, ma è per capire meglio dove possano essere questi problemi che hai evidenziato!
Detto questo, rimane una bella foto, non scoraggiarti! Col tempo migliorerà l'elaborazione in Pixinsight come per tutti noi e in futuro ci concederemo un upgrade che soffra meno i cieli delle nostre città :)
Grazie a tutti per i feedback.
Probabilmente 150s senza filtri sono decisamente troppi, ho analizzato alcuni light ed effettivamente ho portato quasi tutte le stelle molto vicine alla saturazione (mediamente 0.9 per canale con picchi di 0.98).
Un'altra cosa che mi viene in mente é quella di essere piú selettivo nella selezione dei subs, mi sono lasciato prendere la mano dall'integrare il piú possibile ma effettivamente con SubFrameSelector ho moltissimi frame con SNR molto piú basso di altri e FWHM elevato (>4pixel).
Anche la messa a fuoco potrebbe aver avuto qualche problema, l'ho fatta verso l'una e non l'ho piú toccata fino alle 5, sarebbe stato opportuno probabilmente rivederla ogni ora.
Per quanto riguarda il dithering, con Blink vedo effettivamente che i frame non sono sempre nella stessa posizione e "camminano" verso destra andando avanti con le esposizioni. Probabilmente c'é stato anche un problema con il bilanciamento del setup o la guida.
Vorrei anche provare a ricalibrare i dark senza optimization - visto che ho amp glow - come da suggerimento di Marco sul post "Strana luci sui dark frame". Onestamente credevo che l'optimization non sarebbe comunque entrata in gioco se i dark hanno la stessa esposizione dei light, evidentemente mi sbagliavo :)
Capitolo filtri: ieri é arrivato l'IDAS LPS P2, che ho selezionato per eliminare degli importanti gradienti a sud (lampione autostradale a sodio), purtroppo a nord ho luce tendente al bianco, penso si tratti di LED. Non ho ancora avuto modo di provare il filtro, nel caso lo cambio se non vedo miglioramenti.
Grazie ancora
Usi ABE o DBE? Se ti va e hai tempo dicci che tipo di workflow hai seguito.
Certamente, magari riusciamo a migliorare questa elaborazione :)
Come detto nella risposta precedente ho integrato ottimizzando i dark, sbagliando a questo punto, e usando LocalNormalization nel tentativo di uniformare il background.
Crop poi BE usando DBE con una 20ina di campioni per riga, eliminando quelli autogenerati sul segnale della galassia e sistemando gli altri per non includere stelle.
Deconvolution usando external PSF (forse qui ho spinto troppo).
BackgroundNeutralization, anche se non ho notato alcun effetto.
PhotometricColorCalibration
SCNR per rimuovere il verde (amount 1.0)
MLT (molto aggressivo) per ridurre il rumore, applicando una maschera di luminanza inversa
HT per delinearizzare e bilanciare canali senza clip, abbassato leggermente i toni medi per scurire il fondo cielo
TGVD per ulteriore riduzione rumore su luminanza e crominanza (solo su crominanza sembra non avere effetto nemmeno spingendo moltissimo)
HDRMultiscaleTransform per HDR e ho sommato il "prima" e il "dopo" con pixelmath cercando di ottenere un risultato quanto piú naturale possibile.
CurvesTrasformation per saturare un po' la luminanza di m106 e delle stelle (range mask)
LHE per aumentare un po' il contrasto nella galassia - l'intento era quello di dare un po' di tridimensionalitá, vista l'orientamento dell'oggetto, per me molto suggestivo
MLT e unsharp mask per avere un po' piú di nitidezza
In linea di massima é andata cosí :)
Marco Rapino
18-02-2020, 12:02
Allora, il workflow mi sembra ottimo e molto simile a quello che seguo io, l'unica differenza è che io anticipo la PCC prima della deconvoluzione, ma questo non impatta su nulla in quanto si parla di segnale RGB e non di luminanza sulla quale agisce quest'ultima.
L'SCNR se posso dirti la mia, lo farei a più step invece che direttamente a 1.0, lo trovo più comodo e con un risultato leggermente migliore.
MLT stessa cosa, più iterazioni e meno amount tende a dare un risultato migliore, generalmente sono più conservativo per quanto riguarda la NR in fase lineare perché voglio evitare di perdere troppi dettagli, quindi se ho un'immagine molto rumorosa do una seconda passata più aggressiva post stretch, i miei tool preferiti sono ACDNR (che funziona meglio in fase non lineare) e MMT.
Per il resto ci siamo, il flusso è praticamente identico al mio, poi ovviamente i processi che uso dipendono dal soggetto in questione e dalla qualità del segnale :)
Noto che non hai usato LocalHistogramTransformation, a mio avviso funziona molto bene per creare maggior contrasto nell'immagine, senza esagerare ovviamente, non vado mai sopra 0.5 di amount!
Ultima cosa, per il background removal prova anche una semplice passata in ABE mettendo come esponente della funzione 1, ovvero una funzione lineare. Funge molto bene per togliere il primo strato di gradiente, poi se hai un fondo cielo complesso passa a DBE.
Ottimo LN, lo uso anche io soprattutto se c'è la luna e fa la differenza se usato bene!
Discorso filtri: per i LED il D2 funziona bene, però il LED è infame, ha il picco nelle regioni dello spettro broadband e qualcosa sacrificherai, ma tra un cielo bianco con SNR di un posacenere e un ragionevole sacrificio di segnale bisogna optare per la seconda secondo me..purtroppo questi sono i cieli che abbiamo e, almeno personalmente, mi è difficile andare su in montagna. Tra l'altro dovrei anche attrezzarmi a livello di alimentazione perché non ho nulla al momento!
Concludendo, visto il tuo workflow, credo che tu abbia già tirato fuori tanto dai tuoi dati, quindi ben fatto! :)
Credo che il problema - almeno uno dei tanti - sia una correzione eccessiva dei flat, che a questo punto credo di aver completamente sbagliato.
Ho rieseguito calibrazione, CC, debayer e integration con e senza flat. Questo il risultato.
Con flat
37107
Senza flat (solo calibrazione dark)
37108
ABE a integrazione calibrata con flat
37109
ABE a integrazione calibrata senza flat
37110
Dettaglio su M106 senza flat
37111
Tra le altre cose, i master corretti con i flat tendono decisamente verso il rosso in autostretch (linked channels), mentre quelli senza flat mi sembrano piú bilanciati.
A questo punto ripartiamo dalle basi: come devo farli questi flat? :)
Questi li avevo fatti con una flatbox, stessi settings dei light ed esposizione tale da avere il picco nell'istogramma circa a metá.
Grazie mille per i suggerimenti!
Marco Rapino
19-02-2020, 09:45
Anche io uso una flat box, avendo una reflex uso gli stessi settaggi dei light, ma metto modalità A per scegliere il tempo in modo tale da avere una esposizione ben bilanciata.
Premesso che: prendere dei flat scientificamente accurati avendo un valore di ADU del 45-50% rispetto alla full well capacity del sensore può essere un processo lungo e tedioso, ho trovato personalmente che la cosa più importante è avere un'esposizione ben bilanciata (senza guardare troppo gli ADU) e soprattutto uniforme sul sensore. A me una cosa simile era successa quando sul pannello led c'erano dei piccoli aloni di umidità, perché ho fatto la stupidaggine di tirarlo fuori da dentro casa quando fuori era freddo ed umido e tadà! Si sono formate delle micro particelle di acqua a chiazze sul pannello...
In quel caso Rick ho buttato i flat ed elaborato senza, croppando per la vignettatura e rimuovendo una piccola macchia di polvere usando (dei dell'astrofotografia non fulminatemi vi prego) CosmeticCorrection.
In quel caso Rick ho buttato i flat ed elaborato senza, croppando per la vignettatura e rimuovendo una piccola macchia di polvere usando (dei dell'astrofotografia non fulminatemi vi prego) CosmeticCorrection.
In realtá é quello che ho fatto stanotte, fortunatamente non avevo macchie visibili e ho lavorato solo sulla vignettatura :)
Ho rielaborato a partire dal masterlight ottenuto senza flat, facendo attenzione a non essere troppo aggressivo in fase lineare, sopratutto con deconvolution e noise reduction.
Finalmente si vede colore! Ancora parecchio rumore e blur qua e la ma penso vada meglio del tentativo precedente.
37114
https://www.astrobin.com/23ih4m/D/
Marco Rapino
19-02-2020, 11:14
Meravigliosa, bravo Rick e sono contento che sei riuscito a salvare l'immagine, non c'è cosa che mi rovina di più la settimana di un dataset buttato a mare!
Meravigliosa, bravo Rick e sono contento che sei riuscito a salvare l'immagine, non c'è cosa che mi rovina di più la settimana di un dataset buttato a mare!
Grazie, ho dimenticato di dire che per la saturazione ho sperimentato molto superficialmente una tecnica interessante letta su un libro.
Sostanzialmente si tratta di usare MLT per separare le strutture in layer (wavelet), al fine di processare selettivamente ogni struttura lavorando poi di fino aumentando e diminuendo i layer su MLT per creare scale piú o meno ampie, ricostruendo di volta in volta le immagini complete usando PixelMath.
É un lavoro molto lungo e faticoso ma lavorare sui singoli layer con le opportune maschere potrebbe offrire possibilitá praticamente illimitate (ammesso che le sappia sfruttare) :)
Mauri740
19-02-2020, 19:18
Sicuramente sarà per una serie sfortunata di coincidenze ma anche il mio tentativo su M106 dello scorso anno, è stato caratterizzato dalla stessa esperienza di rick dove anche la mia galassia, se corretta con i flat, presentava la quasi totale mancanza di colore e dettaglio mentre la versione senza flat risultava assai più satura e dettagliata. Non so spiegare come questo sia avvenuto, certo che la stessa galassia con quasi lo stesso setup che restituisca lo stesso inconveniente è parecchio interessante.
Questa la versione con i flat:
https://live.staticflickr.com/7831/46740439994_92205d078f_c.jpg (https://flic.kr/p/2edhYp5)M106 finale- (https://flic.kr/p/2edhYp5) by Maurizio Bracco (https://www.flickr.com/photos/160789300@N04/), su Flickr
Questa la versione senza i flat dove logicamente ho croppato per eliminare l’evidente vignettatura:
https://live.staticflickr.com/65535/49557683002_8a760d1cdb_c.jpg (https://flic.kr/p/2ivf5Ao)crop 106 ps dbe (https://flic.kr/p/2ivf5Ao) by Maurizio Bracco (https://www.flickr.com/photos/160789300@N04/), su Flickr
visto lo scarso risultato, ricordo di non aver voluto perdere troppo tempo nel tentativo di salvare qualcosa di assai modesto. Pazienza.
Coincidenza curiosa :thinking:
Nella prima elaborazione sono quasi certo di aver esagerato con la riduzione del rumore in fase lineare, pero' considerata la quantitá di background al centro dell'immagine rimossa dal flat sbagliato, non mi sorprenderebbe se avesse "asportato" anche gran parte del segnale.
In ogni caso mi pare di capire empiricamente che i flat non sono fatti alla perfezione é molto meglio non usarli, eventualmente croppando.
Come raggiungere questa "perfezione" ancora lo devo capire pero'... :hm:
Mauri740
20-02-2020, 12:58
Con un qualsiasi sensore a 16 Bit raggiungi teoricamente 65535 Adu quindi 65535 livelli di grigio. Oltre a questo valore adu avresti saturazione del pixel quindi nessuna possibilità di percepire altro segnale utile. Tutto questo in teoria.
Poni solo per puro esempio un Sony ICX413AQ che equipaggia le qhy8l ed affini, questo sensore viene dato per 65535 Adu ma in realtà oltre i 25.000 va a saturare quindi oltre non lavora, questa è la FWC. Questo perché? Semplice, dinamica e FWC sono due cose diverse. A logica dovresti calcolare la media degli adu che un flat deve avere, senza che esso sia saturo, partendo da un valore massimo che sia sfruttabile appieno, non da un valore che indica parzialmete questa situazione. Da questo concetto capisci che fare un flat basandoti sull' intera gamma, che non può essere totalmente utile, non ha tanto senso. Tu mi dirai ma allora i 65535 (16 bit) cosa sono? Specchietto per le allodole? No, niente affatto. Questo valore non indica la gamma dinamica del sensore a 16bit , ma la dinamica di conversione dove il segnale dopo la conversione A/D passa ad un valore compreso tra 0 e 65535.
Se con questo sensore, calcoli l’esposizione del flat per il 33% dell’intera gamma dinamica 65535 li avrai posizionati a 21.000 Adu circa, se li calcoli partendo dalla FWC li avrai a 8200adu circa, quindi si avrebbe una notevole differenza.
Ci sono comunque molte scuole di pensiero, chi espone per metà della dinamica, chi espone per un terzo della dinamica e poi c'è chi espone per un terzo della FWC, senza contare chi i flat non li fa neanche credendoli superflui.
Powered by vBulletin® Version 4.2.5 Copyright © 2024 vBulletin Solutions Inc. All rights reserved.