Ciao a tutti,
wow quanto dibbattere su questa immagine! Ovviamente non entro assolutamente sulle questioni "personali" ma penso e provo a dire la mia sulle immagini. Innanzitutto sono d'obbligo i complimenti a chi ha acquisito i dati, davvero ottimi, ed anche a chi si è divertito ad elaborarli mettendoci dentro la sua personalità e "creatività".
L'immagine elaborata da Vittorino è senz'altro più "canonica" con contrasti ai quali siamo più abituati ed un equilibrio generale direi ottimo. Da contro io la trovo un tantino troppo monocromatica.
In quella interpretata da Francesco, i contrasti sono stati molto più spinti così come, non tanto la saturazione, quanto la differenza di tristimolo. Mi spiego meglio, è stata effettuata una elaborazione che amplificava le differenze tra i colori che noi percepiamo sottoforma, non tanto di intensità relativa di segnale RGB ma piuttosto dello stimolo che i nostri sensori (i conicelli SML) inviano al cervello che poi li interpretano. E' un pochino come la tecnica che spesso adotto io e che chiamo MFM (man From Mars). Personalmente ritengo che però questo esaltazione, in questo caso, abbia prodotto dei viraggi nelle alte luci del punto di bianco, introducendo dei gialli eccessivi. Questo capita facilmente data la nostra sensibilità incrociata dei cnicelli ML che ci danno il 5600K come punto bianco (solare). Inoltre l'utilizzo di maschere sfocate o filtri Hi-Pass multidimensionali (tipo wavelet) può creare "artefatti". Si tratta di filtri di tipo edge e quindi, se da un lato incrementano le alte luci, dall'altro abbassano le basse. Quando si utilizza un tale lavoro sugli edge dei particolari a bassa, media ma soprattutto alta frequenza (particolari fini) bisogna stare attenti poichè si aumenta senz'altro la sensazione di "dettaglio" (ma non è che ci siano più dettagli in una o nell'altra immagine, camba solo il microcontrasto che ci fa cadere l'attenzione su di uno o sull'altro particolare) ma si tende a scurire ed affogare i particolari scuri. Occorre sempre effettuare un lavoro di screen o lighting dei dettagli scuriti, utilizzando frequenze più elevate. In questo modo si aumenta il contrasto dei bordi ma non si scurisce eccessivamente l'interno del dettaglio stesso (tipo polveri).
In quanto all'HDR, vorrei farvi notare che, tutto il nostro materiale è HDR (High Dynamic Range) in quanto oltre la latitudine di posa rappresentabile o percepibile dal mezzo tecnico o dal nostro occhio. Detto ciò, l'HDR in termini digitali, altro non è che l'uso, o di valori elevati di spazi di campionamento in bit per accomodare quanti più livelli possibile senza distorsioni e/o saturazioni, oppure più propriamente, la rappresentazione dei dati utilizzando non più un integrale, ma il floating point. Non si hanno così livelli discreti (da 0 a x livelli rappresentabili) ma livelli che vanno da 0 a 1 in cui il massimo è 1 ma con tutta la precisione decimale necessaria. Basta infatti spostare la virgola per decuplicare la precisione sino a matchare il più possibile il dato "reale". L'HDR non è certo una novità, esiste da almeno 30 anni e mi chiedo: cosa significa elaborare in HDR? Il vero vantaggio consiste nel fatto che si è più precisi, lavorando con quanti decimali si vuole, e quindi c'è meno rumore digitale ed aliasing. Di fatto però qualsiasi immagine astrofotografica contiene ben più toni e "livelli" non solo di quanti rappresentabili su di un monitor, ma addirittura di quanti da noi discernibili! Noi non vediamo più di 40 livelli differenti di grigio e quindi qualsiasi rappresentazione di un soggetto che ha milioni di differenti livelli di luminosità, deve essere un compromesso od una "finestra" aperta su questo o quello per poter essere da noi "vista".
Il cervello ha i suoi modi per comprimere e rappresentare queste latitutini di posa e quindi, conoscendo i meccanismi, può essere "ingannato".
Esistono svariati algoritmi di compressione per le immagini HDR ed ogniuno è stato messo a punto per soddisfare specifiche esigenze e adattamenti alla visione. Esistono algoritmi tipo Drago, adaptative, photoreceptor, linear space ecc. Esistono software in grado di mappare (tonemapping) i dati HDR utilizzando un metodo tra questi. Quest'operazione consente in maniera velocissima (basta un click) di adattare la distribuzione dei livelli d'istogramma di un soggetto astronomico qualsivoglia, alla nostra percezione privilegiando i toni, i colori, la saturazione i contrasti ecc.
Sperimentare con software HDR l'elaborazione di materiale astronomico, credo sia cosa buona e giusta od almeno pertinente. Ripeto, per me quello che conta è come noi percepiamo e vediamo le cose, conoscendo questo possiamo interpretarle come più ci aggrada, privilegiando questo o quell'aspetto che ci colpisce. La "verità" sta solo nei dati, una volta che li rappresentiamo in qualsiasi forma, li "adattiamo" alle nostre possibilità sensoriali e quindi (nel senso del dato numerico) creiamo artefazione. Ma se vogliamo pensare a noi esseri umani come elemento finale della catena, dobbiamo dire che ciò che noi siamo in grado di vedere e percepire è la realtà! In questo caso le immagini che vediamo ed elaboriamo, sono la nostra realtà e quindi molto vicine al vero, anche se interpretato.
Scusate il papiro...
Ciao da JOE