Ciao Pierpaolo, non mi è chiaro il senso delle tue tre domande, ma cercherò di spiegarti alcuni concetti su cui ragionare.
Partiamo dal presupposto che tutto è relativo, quindi anche i colori possono essere interpretati in modo differente, o non percepiti dal nostro occhio semplicemente perchè questo non è in grado di leggere determinate frequenze (ovvero colori), ma ciò non vuol dire che questi colori "non esistono"
Infatti, in natura, esistono una miriade di colori che hanno una lunghezza d'onda tale che il nostro occhio non è in grado di percepire, ma oggi sappiamo che anche se a noi invisibili, questi colori esistono.
Oltre a ciò, In determinate situazioni, il nostro occhio non "vede correttamente" determinati colori.
Se, per esempio, tu andassi in acqua a 40 metri di profondità con una bella muta subacquea di colore rosso Ferrari, ti accorgeresti che la tua bella muta rossa si è trasformata magicamente in un color grigio scuro.
Questo perchè, a quelle profondità, la luce viene rifratta dall'acqua che, per densità e composizione chimica, enfatizza le frequenze verso il blu, affievolendo quelle del rosso.
In questa situazione l'occhio umano non percepisce il colore rosso, ed anche fotograficamente la situazione non muterebbe, Infatti se scattassi una foto alla tua muta rossa con queste condizioni, senza un adeguato sistema di flash o riflettori, verrebbe una foto cromaticamente virata sul blu, anche se nella realtà la tua muta E' e rimane sempre rossa.
Tornando al nostro segmento di interesse, guardando un bel tramonto vedremo il sole di colore rosso. Questo fenomeno si chiama estinzione atmosferica ed è esattamente il solito concetto dell'acqua spiegato precedentemente. Se fotografi oggetti astronomici bassi sull'orizzonte, questi subiranno una variazione cromatica dovuta proprio al fenomeno dell'estinzione atmosferica.
Tutto l'ambaradan di spiegazione è per farti capire che in fotografia possono esserci molteplici fattori che influenzano il risultato finale.
Anche il sensore CCD che andremo ad utilizzare può dare risultati differenti rispetto ad altri.
Ci sono sensori più sensibili alla lunghezza d'onda del rosso ed altri più performanti su quelle del blu. Anche in questo caso, fotografando il solito soggetto, otterremmo risultati cromaticamente differenti.
pierpaolo_P ha scritto:
Ci sono quindi delle regole generiche (per qualche oggetto ci saranno le eccezioni) a cui attenersi?
Certamente! altrimenti, per quanto già sopra spiegato, sarebbe una "babele" cromatica
I colori che esistono in natura possiamo riprodurli abbastanza fedelmente in fotografia, attenendoci a determinati requisiti, in base allo scenario su cui andiamo ad operare.
Se fotografo sott'acqua dovrò munirmi di un impianto di illuminazione adatto a questo scenario.
Se fotografo la morosa in riva al mare basta che imposto un tempo di esposizione corretto alle condizioni di luce ed il gioco è fatto. In questo caso il risultato, cromaticamente parlando, è semplice ed intuitivo, questo perchè possiamo vedere fisicamente i colori reali dello scenario che abbiamo appena fotografato.
Nella fotografia astronomica, non possiamo vedere fisicamente dal vivo i colori reali del soggetto che andiamo a fotografare, anzi...il soggetto proprio "non lo vediamo", quindi dovremo agire in modo tale che tutti i fattori che possono influenzare cromaticamente la nostra fotografia debbano essere neutralizzati.
Per quanto sappiamo sull'estinzione atmosferica, dovremmo fotografare sempre il più vicino possibile allo zenit.
Dobbiamo bilanciare il sensore che andremo ad utilizzare, questo perchè, come già spiegato, ogni sensore risponde in modo differente in base alla sua sensibilità.
Per farlo occorre utilizzare una stella di classe spettrale uguale al Sole. Ci sono molte stelle con queste caratteristiche (esiste in rete un elenco completo) e si chiamano G2V star.
La procedura è semplice e si fa una sola volta.
Si punta una G2V star scelta in modo che sia il più vicino possibile allo Zenit.
Si imposta il tempo di esposizione a 2 minuti e fotografiamo sui 3 filtri RGB.
Apriamo i tre file R,G,B che abbiamo ottenuto in un SW che sia in grado di leggere l'ADU dei 3 fotogrammi, quindi annotiamo le tre letture ADU. Con questi dati e 2 conti matematici siamo in grado di bilanciare correttamente i tempi di esposizione per ogni singolo canale, in modo da ottenere una immagine cromaticamente bilanciata, quindi dai colori perfettamente "reali".
Ti faccio un esempio su come calcolare il bilanciamento dei canali:
Supponiamo che 5 minuti per singolo canale su una G2V star abbia dato il seguente risultato:
Filtro rosso= 25.000 ADU
Filtro Verde= 27.000 ADU
Filtro Blu= 22.500 ADU
A questo punto prendiamo il dato più alto come punto di riferimento (nel esempio è il filtro verde) e lo dividiamo per se stesso
Filtro verde: 27.000/27.000= 1
Ora calcoliamo il "peso" del rosso e del blu in relazione al verde
Filtro rosso: 27.000/25.000= 1,08
Filtro Blu: 27.000/22.500= 1,2
Questi tre dati ci permettono di calcolare ed impostare i corretti tempi di esposizione per singolo canale.
Se per esempio decidiamo di fotografare un soggetto con 10 minuti di esposizione, andremo ad impostare i tempi come segue:
Filtro verde: 600 secondi x 1= 600 (tempo in secondi per il filtro verde)
Filtro rosso: 600 secondi x 1,08= 648 (tempo in secondi per il filtro rosso)
Filtro Blu: 600 secondi x 1,2= 720 (tempo in secondi per il filtro blu)
Quando unirai i frame realizzati con i tempi espositivi corretti, otterrai una immagine perfettamente bilanciata e dai colori reali.
Azz...ho fatto un vero poema

, ma spero sia stato esaustivo e di aiuto.
Marco