La prima applicazione in campo astronomico dell'algoritmo Richardson-Lucy risale al 1988. Come noto, a causa di errori commessi nella progettazione delle ottiche, le prime immagini in arrivo dal Telescopio Spaziale Hubble erano affette da un inaccettabile degrado (soprattutto coma). Si iniziò così a sperimentare, con risultati eccellenti e addirittura inaspettati, algoritmi basati sul concetto di "massima entropia di deconvoluzione".
La teoria sottostante questi algoritmi implica concetti troppo vasti e complessi per essere trattati in poche righe, però la conoscenza della loro applicazione pratica è sicuramente utile a chi vuole tentare di migliorare immagini affette da turbolenza, errori di inseguimento, eventuali difetti delle ottiche usate e perchè no, anche leggere sfocature (ricordando sempre che per i miracoli bisogna rivolgersi altrove...).
L'implementazione dell'algoritmo di deconvoluzione prevede, in sintesi, quattro fasi:
1° fase: all'immagine originale viene applicata una FFT (trasformata rapida di Fourier). Questo consente di passare da una rappresentazione nel dominio spaziale a quella nel dominio delle frequenze (probabilmente anche questo per molti è un concetto complesso tutto da approfondire).
Senza scendere nei dettagli teorici, diciamo che per ragioni puramente matematiche, volendo contenere i tempi di elaborazione, è necessario effettuare tale operazione su una immagine i cui lati in pixel siano espressi in numeri potenza di due (128x128, 256x256, 512x512 pixel, etc.).
2° fase: viene effettuata la medesima operazione (con le stesse regole di cui sopra) anche ad una immagine chiamata PSF (Point Spread Function) che contiene le "informazioni", così come definite dall'utente, sui "difetti" da correggere.
3° fase: viene effettuata la cosiddetta deconvoluzione dell'immagine originale con l'immagine di PSF. Questa operazione produce una terza immagine, sempre visualizzata nel dominio delle frequenze.
Il processo si basa sul fatto, derivato dalla teoria dei segnali, che l’immagine finale è rappresentata dalla convoluzione (termine che significa operazione tra funzioni) tra l’immagine originale, come sarebbe stata registrata senza difetti, e la funzione di trasferimento completa del segnale (ovvero quella che si chiama la Point Spread Function).
Infatti il fronte d’onda del segnale "immagine", che è rappresentato da un’onda perfettamente piana, quando raggiunge il nostro sensore CCD è praticamente simile ad una superficie increspata (atmosfera, riflessioni e rifrazioni, difetti delle superfici ottiche, rumore, turbolenze d’aria interne al tubo ottico, etc.).
Il concetto di "massima entropia" si riferisce invece alla possibilità di dedurre la forma di una "funzione di densità di probabilità" a partire da una informazione parziale, ovvero da un numero finito di momenti della distribuzione stessa.
4° fase: all'immagine risultante viene operata una trasformata inversa di Fourier, che la riporta nell'originario dominio spaziale e ci consente di visualizzarla correttamente (per "correttamente" intendo il modo in cui siamo abituati a vedere le immagini, anche una FFT può avere il suo fascino...).
Tutto molto complesso. Dal punto di vista pratico, questi sono invece gli step facili facili da seguire:
1° step: preparazione dell'immagine: è necessario utilizzare una immagine già calibrata (dark frame, flat field, bias, etc.) ma non elaborata. Ovviamente il risultato finale è fortemente dipendente dalla qualità, in termini di rumore, dell'immagine iniziale. Tale immagine, come detto sopra, deve essere ridimensionata in modo tale da renderla quadrata, con i lati che siano una potenza di due. Per immagini più grandi è perciò necessario sezionare l'immagine in quadranti.
2° step: preparazione dell'immagine di PSF. Questo è probabilmente il passaggio più critico e che più condiziona il risultato finale. Occorre definire una seconda immagine che descrive lo "smearing" di un oggetto puntiforme, ovvero una stella dell'immagine originale, oppure un satellite (quando è possibile) nelle immagini planetarie. La scelta della stella deve essere molto accurata, poichè è proprio questa che fornisce le informazioni sulla turbolenza, sugli errori di guida, sulle aberrazioni dell'ottica, etc. E' opportuno scegliere una stella di media grandezza ed è inoltre essenziale che la stella prescelta cada nel baricentro fotometrico dell'immagine. Dal punto di vista teorico è necessario definire un'immagine che, come l'originale, abbia i lati quadrati con un numero di pixel uguale alla potenza di due. Ad ogni modo ciascun software ha le proprie modalità di definizione dell'immagine PSF, IRIS ad esempio richiede di selezionare un riquadro attorno alla stella prescelta. Alcuni permettono di definire matematicamente la PFS.
In altri algoritmi di deconvoluzione, quali il VanCittert, IRIS richiede come ulteriore parametro la FWHM della stella selezionata.
3° step: numero di iterazioni. Il risultato è funzione del numero di iterazioni eseguite. Come ordine di grandezza sono necessarie una decina di iterazioni, ma questo dipende essenzialmente dalla qualità dell'immagine e dalla natura dei problemi da correggere. Il risultato migliore va valutato soggettivamente. Oltrepassando certi limiti, l'immagine subirà comunque un percettibile peggioramento, soprattutto per la presenza di artefatti (primo tra tutti si noterà un alone scuro intorno alle stelle).
Come diceva Filippo, è opportuno prendere una immagine campione e cominciare a sperimentare.
Sul tutorial di IRIS c'è un ottimo paragrafo sull'applicazione pratica degli algoritmi di deconvoluzione, con alcuni interessanti esempi di applicazione anche alle immagini planetarie, aspetto questo che vedo poco considerato nelle elaborazioni proposte:
http://www.astrosurf.org/buil/iris/tuto ... c30_us.htm
Mi rendo conto di aver occupato un sacco di spazio per dire molto poco, chi volesse approfondire può chiedere.
Saluti,
Franco