Mauro Narduzzi ha scritto:
astroaxl ha scritto:
Non sono d'accordo con te sui calcoli perché la QE è calcolata sulla superficie del pixel che comunque sia risulta sempre sensibile al 60% indipendentemente dalla sua dimensione. Se riprendiamo un oggetto che emette 100 fotoni al secondo, di questi 60 verranno catturati dal pixel della 16803, 77 da quello della h694; la 694 essendo più piccolo andrà in saturazione prima rispetto all'altro ma sempre di più ne avrà catturati. Ovviamente se si va oltre il valore della Full well del pixel della 694 il vantaggio sarà tutto della 16803 ma sotto il limite di quel valore il vantaggio è della prima; fatto sta che evidentemente la sensibilità della H694 è sufficiente a mostrare quel qualcosa di fondo. Il punto è che sembra che chi vuole integrare oltre le 5 ore su oggetti della 22 mag sia un pazzo perché qualcuno fa 1 ora di integrazione sul doppio del Perseo che si vede ad occhio nudo.

Il tuo esempio vale solo nel caso di sorgente puntiforme, la risposta all'impulso è esattamente come dici. Ma ai telescopi non arrivano impulsi, bensì onde piane.
Il concetto è abbastanza semplice: hai due catini che raccolgono acqua, il catino più grande raccoglie molti più litri di quello più piccolo. Entrambi hanno un foro, quello grande ha un foro più grande, quello piccolo ha un foro più piccolo. Alla fine dei giochi, il livello dell'acqua nel catino più piccolo sarà più alto di quello più grande, ma il contenuto in litri è ancora a vantaggio di quello più grande. Se allarghi ancora di più il foro al catino più grandi puoi arrivare a pareggiare o addirittura invertire del tutto il vantaggio.
Se ora quadruplichi i catini grandi e piccoli fai anche il binning

Il sensore più piccolo è un po' più efficiente, ma la sensibiltà è ancora dalla parte del sensore con pixel più grandi. Poi dovremo metterci anche il read noise (parametro dove i sensori Sony eccellono e non è un parametro di poco conto), ma qua il dicorso si fa più complicato e nel paragone non ce lo infili.... comunque è grosso modo così, la sensibilità è direttamente proporzionale alla dimensione del pixel con la QE che diventa un fattore correttivo che varia al variare della lunghezza d'onda.
Sul tempo di integrazione non c'è nulla da dire. E' teoria dei segnali, quindi è ovvio che più integri e più SNR hai. Poi uno è liberissimo di dire che il SNR ottenuto sia sufficiente, per qualcun altro non lo sarà, ma è una decisione soggettiva.
Ciao
Mauro
Ho capito il concetto ma di fatto si vanno a prendere in considerazione solo una parte dei parametri da considerare come dici tu, quando invece ce ne sono molti altri. Nel finale, come ripeto, quello che conta è il risultato che è questo: la sensibilità della H694 è più che sufficiente a tirare fuori le deboli nebulosità del fondo cielo sia in questo caso che in altri. Poi come avevo detto magari potersi permettere la Apogee, vorrei pure vedere che sia peggiore di una camera che costa 3 volte meno. Gli astrofotografi sono tutto meno che sciocchi.
MauroSky ha scritto:
...mi sembrava che fosse da qualche parte..
chiudo aggiungendo questa foto all'elenco che tu hai fatto prima ,
qui i tempi sono in secondi non in ore..
http://www.astrobin.com/117613/90min rgb +80L tot. 170minuti > meno di tre ore
se il tempo di Ha lo togli avrai sempre una gran fotona , come è ovvio che sia ,
inquanto si aggiunge ad una rgb pulita.
Senti Maurosky, io non riesco a capire cosa c'è di difficile nel concetto. Non puoi continuare a fare paragoni sull'integrazione tra un soggetto di 20 mag con uno di 8mag. E' ovvio che su quello più luminoso sarà sufficiente un integrazione inferiore. Non so se ti è mai capitato di fotografare la galassia di Andromeda. Se ti è capitato o ti capiterà vedrai che la parte più luminosa del bulge avrà un segnale pulito anche con 3 pose da 8 minuti, mentre i bracci esterni avranno una grana fortissima. Questo perché per farli vedere la quantità di stretch sull'esterno deteriorerà il segnale debole che è stato raccolto. E come farai tu ha togliere la grana? Ovvero come farai tu a fare in modo che lo stretch non rovini il segnale raccolto? Semplicemente integrando un tempo sufficiente a che l'operazione di elaborazione sia innocua per il tuo segnale. Per la galassia di Andromeda questo tempo può essere breve perché comunque sia e' un soggetto visibile ad occhio nudo, per soggetti che si vedono solo perché vengono sommate una certa quantità di pose la cosa si complica. Possiamo parlare di algoritmi per la riduzione rumore per pulire il segnale ma si tratta di algoritmi alla fine sottrattivi per cui applicandoli laddove c'è poco segnale ti fanno perdere l'informazione raccolta per cui se non si vogliono perdere dati dal momento che sembra che ti pesi raccoglierli

nemmeno è corretto perderseli uilizzando il denoise! Non ti voglio convincere a fare una cosa che non vuoi, ci mancherebbe, ognuno è libero di fare le scelte che vuole, l'importante è capire che il ragionamento del quale è convinto è sbagliato di fondo. Poi se vuoi continuare a fare la breve integrazione che fai sei liberissimo di farla ma la qualità della foto non farà mai il salto. Ripeto per chiudere: oggetti luminosi è sufficiente poca integrazione, soggetti deboli che si mostrano solo dopo lo stack di varie pose serve molta integrazione, tutto questo con lo scopo di pulire il segnale in modo da poterle staccare dal fondo cielo. Ora se il concetto è più chiaro bene, altrimenti fa niente, l'importante è che non mi fai un altro dei tuoi esempi postando una foto di M42 con "solo 7 minuti di integrazione".