andreaconsole ha scritto:
... mima il comportamento del cervello, rimango un po' perplesso: nella fotografia deep, dove spesso l'oggetto più luminoso è ad esempio una stella rossa, non funzionerebbe.
Nella fotografia deep non funziona. Ci sono diversi algoritmi. Quello bio ispirato si chiama Retinex (una contrazione di retina e cortex)
http://en.wikipedia.org/wiki/Color_cons ... nex_theoryIl principio in realtà non richiede la presenza di un punto bianco. Basta che ci sia un punto rosso, uno blu e e uno verde.
Cita:
Assuming that the scene contains objects which reflect all red light, and (other) objects which reflect all green light and still others which reflect all blue light, one can then deduce that the illuminating light source
Il Cervello umano fa una stima dell'illuminazione che pare essere però ancora più sofisticata (vedi la citazione 13 nel link). Di certo il cervello sottrae l'illuminazione stimata al colore percepito a livello della retina e ricostruisce nella corteccia visiva un colore che è la stima della riflettanza dell'oggetto (è anche per questo che qualcuno vede le nebulose a colori quando non lo sono sulla retina). Impara a fare questo perché impara a estrarre la parte invariate degli oggetti. Infatti lo stesso oggetto cambia colore a seconda della illuminazione ma esponendo l'oggetto a diverse forme di illuminazione (martin/sera, luce artificiale, ecc.) e ruotandolo, si impara a capire che cosa fa parte dell'oggetto e che cosa fa parte dell'ambiente (allo stesso modo si impara la nozione di tridimensionalità dei cormi - ruotandoli e osservando come cambia l'immagine proiettata sulla retina).
Comunque all'atto pratico su Giove funziona abbastanza, anche se è possibile che in alcuni casi in cui un canale non è venuto bene, ci siano di conseguenza anche degli sbilanciamenti.