Aggiornamento.
Ho fatto qualche esperimento cercando di combinare più di un set RGB (Marco ne avrebbe almeno 4 di qualità simile più altri due meno buoni).
L'idea sarebbe la solita: migliorare qualità e ridurre il rumore sommando prima diversi raw dello stesso canale e poi i tre canali insieme.
Questo, ovviamente, richiede di derotare prima i singoli canali ad un tempo comune, e poi i tre canali. Non ho usato WinJupos ma mi sono scritto il mio software. Lo scopo, prima di tutto, era di prendere in mano l'intero processo per trovare i punti che possono essere colli di bottiglia.
Credo di averne trovato un paio, che possono vanificare anche la procedura in WJ.
Prima mostro il migliore RGB che ho ottenuto combinando solo un set R, G e B. Il risultato penso sia simile a quello che si potrebbe ottenere derotando i tre canali con WJ (quasi non serve visto che sono ripresi a un minuto l'uno dall'altro).
Da notare che ho elaborato in modo che il rumore non sia visibile (mi sono convinto che questo criterio è l'unico che ha senso; il perché lo spiegherò in altra occasione). Non ho usato nessun filtro "strano", niente che possa manipolare l'informazione in maniera non prevedibile (per esempio nessun nessun nessun filtro anti rumore). Ho usato solo una deconvoluzione (ottima) seguita da una serie di Maschere di contrasto e un filtro passa basso.
Allegato:
jVFgvBr.jpg [ 12.36 KiB | Osservato 1238 volte ]
Ho quindi affrontato il problema di derotare più raw dello stesso canale, per sommarli assieme. E qua ho scoperto una cosa interessante: per prima cosa la derotazione dei raw dello stesso canale è più critica. Se si sbagliano le posizioni relative di R, G e B di qualche pixel si ottengono delle frange colorate che spesso non si notano se non guardando con attenzione. Invece, se c'è un errore relativo di pochi pixel su due frame dello stesso canale, questo comporta la perdita di tutto il dettaglio a quella scala. In pratica, se i vari punti dell'immagine non sono allineati al pixel o quasi, si perde risoluzione e l'unico vantaggio che si ottiene è ridurre il rumore.
Ho notato subito che si producevano (anche dopo la derotazione) errori di posizione relativa di diversi pixel. Ho osservato che I raws non sono nemmeno tutti uguali come dimensione e forma: alcuni sono anche 7-9 pixel più grandi di altri. Alcuni sono più schiacciati, altri meno altri hanno la sagoma ellittica che non corrisponde con l'asse equatoriale, altri sono a uovo.Piccole differenze che però, maneggiando passo passo il processo, sono state evidenti.
Ora la questione è quale sia la causa. Sgombriamo subito il campo dalle ipotesi di tipo ottico e meccanico (non esistono aberrazioni ottiche che ingrandiscono o rimpiccioliscono l'immagine o la schiacciano ecc. ecc. Mi sarei aspettato che, visto che la focale resta costante e il CCD è sempre lo stesso, l'immagine avesse sempre le stesse dimensioni. Invece no.
La prima causa che credo di aver individuato è la turbolenza atmosferica, non tanto in sé ma in relazione al processo di Stacking. L'imagine, infatti, da un frame all'altro del video si deforma continuamente. In teoria, in media, l'immagine finale dovrebbe essere "rotonda" ma questo evidentemente non succede perfettamente.
In parte questo dipende proprio dall'uso di un sistema di stacking così detto multipoint (è stato usato AS2 per preparare i raw), che divide l'immagine in tanti tasselli che cerca di allineare fra di loro.
Quello che sembra accadere è che i dettagli all'interno di ciascuna delle aree del multipoint sono allineati fra di loro, ma la posizione relativa di questi tasselli può cambiare da un raw elaborato all'altro. Ecco allora che il pianeta non è perfettamente tondo, non è perfettamente ellittico ma può avere forme più complesse.
Guardando attentamente il bordo dell'ìimmagine sopra si può osservare che a ore 5 e ore 11 deborda un po' di colore rosso, mentre a ore 9 deborda il blu, che significa che il pianeta R si allunga di più a ore 5 e 11 e il pianeta B si allunga di più a ore 9.
Bene. Allora ohi proceduto allineando con la massima precisione i frame dello stesso canale, usando un metodo che consente anche di deformare i frame (allungarli in un o l'altra direzione e/o ruotrali leggermente) per ottenere la migliore sovrapposizione possibile. E ho trovato che, questo gioco di tasselli multipoint fa sì che quando alcuni dettagli in un punto del pianeta si allineano perfettamente su due frame, in altri punti non sia allineano più. Insomma, le aree in cui il multipoint ha diviso l'immagine sono in posizioni relative diverse. Non molto ma quanto basta per compromettere il dettaglio più fine.
E vengo alla conclusione. Questo è un RGB ottenuto combinando 2 R 2 G e 2 B. Ill miglioramento è poco per i motivi appena detta. Più di due set RGB non portano vantaggio alcuno. Ora proverò a manipolare direttamente il video.
Allegato:
jupiterr2g2b2.jpg [ 16.15 KiB | Osservato 1238 volte ]