PDA

Visualizza Versione Completa : Impiego del sensore al variare della risoluzione impostata nelle reflex



DavideP
03-05-2020, 15:34
Ciao a tutti amici e amiche del forum, in questi giorni leggendo qualche discussione sul forum mi sono imbattuto in alcuni discorsi circa la ripresa di oggetti con la relfex usata come surrogato di una camera planetaria, o comunque dedicata all'astrofotografia, previo settaggio di alcuni parametri di ripresa dei video

non mi sono chiare alcune cose e volevo chiedervi se potevate aiutarmi

non ho capito come funziona il discorso del cambio di risoluzione, cioè....sulla mia reflex per esempio si possono scegliere varie risoluzioni sia per foto che per video, ma cosa succede al sensore?

viene usato sempre tutta la superficie anche se poi i pixel effettivamente usati sono di meno?

viene usata solo una parte del sensore?

per esempio per i video posso scegliere 1920x1080 25fps........1280x720 24fps........1280x720 50fps.......640x480 25fps
mentre per le foto da 5184x3456......fino a 720x480 con alcune impostazioni intermedie...

per i video per esempio se seleziono 1920x1080 userà comunque tutto il sensore anche se sono inferiori ai 5184x3456, lo stesso per 640x480 che sono ancora meno?
se ne usasse solo una parte, tipo quella centrale per esempio?
se no che fine fanno i pixel che non compongono l'immagine finale, ma che esistono inevitabilmente sul sensore?

gianluca74
03-05-2020, 18:27
Argomento molto interessante.
Ti dico la mia, salvo smentite.

Per quello che so, quando usi una DSLR per fare un video il sensore viene esposto alla luce (lo specchio si alza e l'otturatore meccanico resta aperto) e il processore legge il segnale fermando la lettura con un intervallo pari al frame rate che viene impostato dall'utente. Se c'è la "p" (1080p) significa che la lettura è fatta dall'alto verso il basso in sequenza pixel dopo pixel, e ci pensa poi sempre il processore a mettere insieme tutto.

Tornando alla domanda, quando catturo video a risoluzione inferiore a quella nativa del sensore (come avviene per la maggior parte delle DSLR che arrivano max a 2k o 4k contro le decine di Mpx disponibili) entra in gioco il/i processore/i facendo un downscaling
Che è esattamente quello che succede, ma al contrario (li si parla di upscaling), nelle TV 4K a cui arriva se va bene un segnale full HD

L'unica parte del sensore che perdi è quella dovuta al diverso fattore di forma (foto 3:2 - video 4:3, 16:9...)
Basta provare a mettere la camera su cavalletto e fare uno scatto e una piccola ripresa video. Nel video ci sarà un leggero rifilo del campo inquadrato.
Questo non vuol dire però che la fotocamera spegne dei pixel, ma che l'elettronica fa un crop.

Non entro in merito delle modalità di crop e downscaling che di fatto non conosco e che molto probabilmente variano da modello a modello.

Resto però curioso sui possibili vantaggi impostando la DSLR a, per esempio, 640x480 anziche fullHD

luca.g
03-05-2020, 20:39
seguo, sono interessato anche io all'argomento. Se faccio un video alla stessa risoluzione di un ccd, otterrò la stessa immagine di un ccd? Diminuire la risoluzione prima, o effettuare un crop dopo è la stessa cosa?

Inviato dal mio VTR-L09 utilizzando Tapatalk

DavideP
04-05-2020, 12:20
ho fatto un po' di prove....

trattasi di un quadro a matita a circa 5 metri di distanza, la dimensione del quadro è di circa 80 cm x 30 cm

lo so che non ha niente a che vedere con una ripresa astronomica, ma per ora mi interessa capire il discorso dell'impegno del sensore e del funzionamento del discorso risoluzione

ho fatto due scatti, uno a risoluzione massima 5184x3456 e uno a 1920x1280

poi ho fatto delle riprese usando tutte le impostazioni disponibili sulla fotocamera, quindi:

640x480 25fps
1280x720 50fps
1920x1088 24fps
1920x1088 25fps

poi ho scoperto che tra le impostazioni video c'è un fantomatico zoom digitale, che va da 3x minimo a 10x massimo regolabile premendo una combinazione di tasti, non sono particolarmente entusiasta di questi zoom digitali, ma ho voluto provare anche quello, quindi:

1920x1088 25fps 3x
1920x1088 25fps 10x

gli scatti li ho lasciati così, mentre i filmati li ho elaborati con registax come se si trattasse di astrofoto e producendo alla fine un'immagine per ognuno dei filmati senza applicare nessun tipo di regolazione in modo da avere per tutte le immagini le stesse caratteristiche di elaborazione

qui di seguito metto i vari confronti che ho fatto ingrandendo le immagini fino ad avere la stessa dimensione di un particolare su tutte le immagini, prendendo come riferimento quella più grande ovvero quella scattata a 1920x1088 25fps 10x che è quella sotto in tutte le immagini di confronto

confronto con elaborazione filmato 640x480

38315

confronto con elaborazione filmato 1280x720

38316

confronto con elaborazione filmato 1920x1088

38317

confronto con elaborazione filmato 1920x1088 3x

38318



questi i confronti con gli scatti singoli.....sempre con l'immagine ottenuta dall'elaborazione del filmato da 1920x1088 25fps 10x che risulta indubbiamente la migliore e io continuo a non capire il perchè....

confronto con singolo scatto 5184x3456

38319

confronto con singolo scatto 1920x1280

38320


ora.....è quest'ultima che mi ha spiazzato più di tutte le altre...hanno la stessa risoluzione 1920x1088 il filmato e 1920x1280 la foto, anzi la foto singola ha qualche pixel in più...eppure è evidentemente più sgranata di quella estratta dall'elaborazione del filmato, da dove se li è presi i pixel che contengono più dettaglio? se li è inventati?


seconda cosa, volendo utilizzare la reflex come surrogato di una camera dedicata, conviene utilizzare questa configurazione di impostazioni di ripresa ovvero la 1920x1088 25fps 10x che è quella che ha dato risultati migliori, ma come fa ad ottenere questo dettaglio?
non dovrebbe utilizzare comunque tutto il sensore anche ingrandendo l'immagine con questo incomprensibile zoom digitale? e utilizzandolo non dovrebbe avvenire il contrario, cioè l'immagine dovrebbe avere meno pixel e quindi meno dettaglio, invece l'immagine è sempre da 1920x1088 pixel e maggior dettaglio....non capisco...

gianluca74
04-05-2020, 15:05
Ciao DavideP,
secondo me ti sei perso un paio di concetti per strada... e sei andato a confrontare mele con pere e non mele con mele :biggrin:

Hai fatto tutti confronti con l'immagine ottenuta con registax dal video 1920x1080 con zoom digitale 10X
Innanzi tutto anche se non ci fosse lo zoom, il tiff elaborato da Registax sarebbe comunque migliore dello scatto singolo (che è il motivo per cui si fa stack da filmato)

Poi, pur non conoscendo bene quella funzione di zoom digitale 10x, non può che essere qualcosa di calcolato da un algoritmo del processore della fotocamera e quindi già artefatto di suo e ottimizzato (non sappiamo però in che modo).

Ma anche lasciando da parte questo punto, se per il confronto scali le immagini fino ad avere la stessa dimensione del soggetto inquadrato, è ovvio che per raggiungere questa equivalenza la foto che devi ingrandire va oltre la sua massima risoluzione con conseguente perdita di dettaglio/qualità (sono curioso però di capire quanto hai dovuto ingrandire lo scatto singolo, ci darebbe un'idea di cosa fa quello zoom 10x)

Io ti suggerisco di lasciare da parte lo zoom digitale per un attimo e confrontare il frame singolo di un video a 1920x1080 con uno scatto singolo di equivalente dimensione e poi col file di Registax
Solo così potrai avere un'idea pulita (più o meno) di cosa esce dalla macchina.

gianluca74
04-05-2020, 15:35
Diminuire la risoluzione prima, o effettuare un crop dopo è la stessa cosa?

Direi di no perchè la dimensione del sensore non cambia.
Che tu faccia un filmato full HD o 640x480 il campo inquadrato è sempre lo stesso.

A parità di strumento di ripresa una luna piena, ad esempio, ti occuperà la stessa porzione di fotogramma sia che tu stia riprendendo in fullHD sia che tu lo stia facendo a 640x480, quindi dovrai croppare entrambi allo stesso modo.
Nel secondo caso però ci saranno molti meno pixel in gioco (tra l'altro pure frutto di un'interpolazione), e di conseguenza otterrai una risoluzione inferiore.

Angelo_C
04-05-2020, 16:39
Infatti, da quello che so il sensore di tutte le reflex/mirrorless viene sempre usato tutto, poi il processore interno fa un resize "al volo" all'impostazione selezionata, prima di registrarlo sul supporto di memoria.
Solo i sensori CMOS dedicati per riprese astronomiche hanno la funzione ROI, ovvero di poter usare solo parzialmente il sensore; mentre per i CCD (sempre astronomici) c'è (oltre al ROI) anche la possibilità del bining.

DavideP
04-05-2020, 18:57
gianluca74 .....scusami, manon ho capito quello che hai scritto, comunque i fattori di zoom sono scritti in alto nell'etichetta di photoshop relativa all'immagine presa in considerazione come anche la risoluzione

DavideP
05-05-2020, 09:38
eccomi...
vediamo se ho capito ;)

questo è il confronto fra un singolo frame di un video da 1920x1088 24fps, senza zoom senza niente, ho solo corretto un po' i livelli e aggiunto una maschera di contrasto, e un singolo scatto a 1920x1280

38328

gianluca74
05-05-2020, 10:38
Ecco appunto, vedi che non c'è gran differenza?

Condensando quello che ho detto prima (tendo ad essere prolisso lo so abbiate pazienza... :biggrin::hm:) in pratica per fare il confronto tu ingrandivi oltre la risoluzione massima la foto e quindi ottenevi la sgranatura.
Quando fai paragoni devi basarti su risoluzioni equivalenti o estrarre un crop al 100% dello stesso dettaglio da entrambe le immagini ma senza ridimensionare.

DavideP
05-05-2020, 10:52
quindi se ho capito bene anche se imposto 640x480 la macchina utilizza tutto il sensore e poi fa un'elaborazione software per arrivare alla risoluzione impostata perdendo dei pixel per strada visto che poi non sono più recuprabili, nel video credo che faccia la stessa cosa, quello che non capisco è quella funzione zoom, sembra che faccia una specie di ritaglio dell'immagine ottenuta usando tutto il sensore per poi riportare la dimensione a 1920x1088 però non ha molto senso, anche perchè sul quadro ha un suo perchè, ma ho provato a fare dei video alla luna in questa modalità, ma sono inguardabili...

forse è proprio questo il vantaggio delle fotocamere planetarie o dedicate all'astrofotografia, riprendere un filmato a risoluzione nativa occupando tutto il sensore perchè essendo piccolino non ci sono parti nere che vengono scartate come nella ripresa per esempio di un pianeta con la reflex dove tutto il fotogramma è nero tranne la piccola parte che interessa.

per esempio utilizzando la reflex per fare una ripresa a giove ottengo un fotogramma nero con al centro un puntino luminoso di circa 1,2mm di diametro, cosa che, facendo qualche calcolo che spero essere esatto, si traduce in un'immagine di circa 250x250 pixel che però sono interpolati chissà quante volte per avere l'immagine finale, mentre nella camera planetaria sarebbero utilizzati i pixel reali del sensore che verrebbe sfruttato quasi nella sua interezza

Angelo_C
05-05-2020, 13:02
Con i pianeti anche i piccoli sensori delle camere planetarie, spesso non vengono utilizzate in toto, per questo c'è la funzione ROI (region of interest) che ti permette di utilizzare solo parte del sensore (quella dove c'è effettivamente il pianeta), riducendo il peso del filmato e nel contempo aumentando il framerate.

DavideP
05-05-2020, 17:48
mmh....ma quindi per ottenere un buon filmato che sia il meglio possibile da quello che si può ottenere dal sistema telescopio, eventuali barlow, fotocamera, filtri ecc...è meglio avere un framerate alto a discapito della risoluzione o un framerate più basso ma con più risoluzione?

nel caso specifico delle impostazioni sulla reflex che ho, sarebbe meglio se usassi 1920x1088 a 24fps avendo così più risoluzione ( quindi più dettaglio? ) oppure 1280x720 a 50fps ottenendo così meno risoluzione, ma più framerate?

ho notato che ad elaborare un filmato con più risoluzione ci impiega di più anche se i frame sono di meno, ovviamente per ottenere lo stesso numero di frame con un più basso framerate dovrei fare un filmato più lungo

quale sarebbe il settaggio di modalità di risoluzione video migliore secondo voi, fermo restando che ogni telescopio ha un limite di risoluzione oltre il quale è impensabile spingersi, per ottenere la massima efficienza possibile?

Angelo_C
06-05-2020, 12:54
Più che di risoluzione, meglio parlare di formato.

In ogni caso quello di cui si deve tenere conto è il campionamento, quindi se per quello ottimale ad esempio servono (in base allo strumento e alle dimensione del pixel) 2000 mm di focale, con quella si riprende.
Poi dalla focale di ripresa si calcolano le dimensioni del disco planetario sul sensore.

Ora se ad esempio, alla focale di campionamento ottimale il pianeta occupa 200x200 px, se la camera ha un formato 1280x960 px è inutile riprendere a pieno formato, perché riprenderesti il pianeta con una marea di "nero" intorno; molto meglio usare il ROI ed impostare una "finestra" ad esempio di 320x240 px, in tal modo, riduci le dimensioni del filmato ed aumenti al framerate (che per congelare il seeing è meglio).