Di nuovo Ciao a tutti.
Non so quanti abbiano avuto la pazienza di leggere il mio intervento oppure probabilmente è semplicemente sfuggito. Comunque, continuando sulla mia linea di osservazione "tecnica" delle immagini (sui miei gusti personali mi sono già espresso) vorrei, di nuovo, ribadire che tecnicamente non c'è grande differenza tra un'immagine a 16bit o a 32 o HDR in termini di contenuti. Quello che effettivamente varia è la precisione del tono che par una HDR (ma non è detto poichè dipende sempre dalla dinamica originale di acquisizione nel nostro caso poichè noi non facciamo bracketing da comporre in HDR, acquisiamo già una HDR) può essere variata a piacimento. Ciò detto bisogna considerare che le nostre immagini, così come escono dalle normali (le pro hanno anche l'acquisizione HDR) camere ccd sono in formato integer, ovvero discrete entro un intervallo espresso dal numero di bit utilizzato (ma anche dal gain e dalla Full Well). Questo significa che, semplicemente partendo da una immagine normale, non è possibile generare una HDR. E' possibile lavorare in HDR ovvero elaborare in precisione di virgola mobile. Sommare/mediare/SigmaClippare etc. una serie di immagini, può certamente dare risultati decimali per pixel che è opportuno conservare per l'elaborazione. Questo aiuta con il rumore digitale, l'aliasing e la precisione. I dettagli, in senso spaziale poichè di risoluzione parliamo, non aumentano o diminuiscono in HDR rispetto all'originale! La loro rappresentazione invece ci è, in piccola misura in quanto dobbiamo fare i conti con il sistema occhio/cervello, semplificata. La questione colore invece è, a mio parere, ancora diversa. Mentre possiamo caratterizzare un sistema in una notte ed in una data posizione per ottenere la perfetta calibrazione del punto di bianco (tipicamente a 5600K), come facciamo a stabilire il punto di nero? Il vero problema sta proprio lì. Probabilmente, per qualsiasi punto si decida di utilizzare in questa immagine come punto di "nero" staremo andando a valutare un punto in cui c'è sicuramente qualcosa (gas, polveri ecc.) e questo ci falsa la partenza della scala di grigi nell'RGB, portando ad un viraggio di qualche tipo. Anche a me personalmente piacciono i colori e tento sempre di utilizzarli come unlteriore scala di percezione di contrasto, un pò come detto da Marco_Angy. Il fatto però è diverso in quanto. l'illuminazione descritta da Marco, è di tipo percettivo sottrattivo, ovvero si parte da uno spettro di emissione per poi incontrare oggetti di qualsivoglia natura che, in base alle loro caratteristiche fisiche, andranno ad assorbire/scatterare/riflettere in maniera diversa le varie lunghezze d'onda, dandoci la percezione del colore. I soggetti astronomici, in generale, sono soggetti ad emissione e quindi vanno considerati diversamente! Volete sapere di che colore esattamente è la rosetta? Leggetene lo spettro! Se pensate a come la vedremmo noi, allora potremmo addirittura chiederci SE la vedremmo, avendo linee di emissione talmente scarse e strette. Volete sapere che colore ha l'idrogeno due volte ionizzato? Ci sono siti che ve ne danno una resa "standard" RGB partendo da una fotocolorimetria del soggetto in laboratorio. Quanto è saturo? dipende dal suo stato ecc. Una cosa va detta però, un elemento chimico ionizzato che emetta luce, non varia di colore ma solo di intensità luminosa percepita mentre, se esaltiamo i colori saturandoli, di solito, ne variamo anche il colore. Nell'esempio che ci ha fornito Francesco, con il confronto tra il puro RGB (che dovremmo assumere come calibrato G2V e quindi colorimetricamente assimilalbile alla rosetta come noi la percepiremmo se fosse illuminata dal nostro sole) e l'elaborazione con la rimappatura dei toni e l'amplificazione delle distanze sulle scale percettive dei nostri conicelli (PixInside non ha nulla di straordinario in termini di algoritmi, la matematica non è un'opinione e le stesse cose si possono fare in PS, sapendo come funzionano gli algoritmi interni. Le uniche operazioni non effettuabili in PS sono quelle nel dominio delle frequenze, ovvero le deconvoluzioni e le FFT). PixInside, ha un'approccio elaborativo diverso e certamente più ragionato, con operatori che sono stati pensati appositamente per le immagini di tipo astronomico, da ciò è più semplice il workflow ed è più intuitivo sapere cosa fare. Ad ogni modo, tornando all'immagine, se provate a piazzare dei color pickers nelle stesse aree dell'immagine RGB e di quella elaborata, effettuando una lettura di tipo HSB, potrete vedere l'angolo esatto di colore corrispondente. Mentre per le parti rosse, dopo l'elaborazione, l'angolo viene mantenuto piottosto precisamente (è quindi stata aumentata solo efficacemente la saturazione percepita e la luminosità), per le parti blu c'è una rotazione anche di 72° il che vuol dire che dati originariamente blu nell'RGB, sono diventati gialloverdi nell'elaborazione. Questo è conseguenza del tipo di saturazione che è stata effettuata. Se aumentiamo la saturazione semplicemente in uno spazio colore RGB, otteniamo un preciso mantenimento dell'angolo HUE ma cambiamo radicalmente la intensità luminosa percepita. Se invece aumentiamo la saturazione in uno spazio colore Lab, manteniamo perfettamente la luminosità percepita, ma variamo l'angolo HUE. Come vedete, se davvero vogliamo rispettare i dati di partenza, dobbiamo tenere presente parecchi fattori. In questo senso continuo a credere che non stiamo facendo nulla di male, stiamo solamente interpretando e portando all'attenzione del nostro occhio/cervello dei dati già presenti nell'immagine, aprendo una personale "finestra" e mostrando il panorama che più ci ha colpito!
Ciao da JOE
|