1° Forum di Astronomia Amatoriale Italiano

Il primo forum di astrofili per astrofili, nato nel 2000!
Oggi è martedì 22 luglio 2025, 1:55

Menu

* Home
* Iscriviti
* La Bacheca
* F.A.Q.
* Cerca
* Login/Logout 

Login

Nome utente:
Password:

 Ho dimenticato la password

In Linea

Visitano il forum: Bing [Bot], Google [Bot] e 12 ospiti

Regolamento

regolamento

Links

*
Astrocafè

Segnala bolide
* Meteoblue.com
* Previsioni seeing
* Il Meteo.it
Help Forum
 

Tutti gli orari sono UTC + 1 ora


Regole del forum


Ciao! Se devi postare una fotografia, uno scatto o un'immagine ricorda di caricare anche direttamente sul Forum la tua foto.
Questo per permettere a tutti quanti di vedere sicuramente, ora e in futuro, l'immagine postata
Qui trovi le istruzioni per il caricamento file: viewtopic.php?f=13&t=86546.



Apri un nuovo argomento Rispondi all’argomento  [ 12 messaggi ]  Vai alla pagina 1, 2  Prossimo
Autore Messaggio
 Oggetto del messaggio: Deconvoluzione: Questa sconosciuta
MessaggioInviato: venerdì 17 novembre 2006, 8:42 
Non connesso
Avatar utente

Iscritto il: giovedì 9 febbraio 2006, 8:56
Messaggi: 1172
Località: Agnadello CR
(Se inserito nella sezione sbagliata, spostatelo pure)


Beh qualcuno potrebbe obbiettare: "parla per te" !! Ed in fatti da buon ignorantone ha ragione, però forse sono anche in buona compagnia.

Allora se ne parla un po' dappertutto, anche se non sono ancora riuscito a capirne, gli utilizzi e soprattutto il "come funziona".
Premetto che l'ho utilizzato su alcune mie immagini riuscendo in pratica a far tornare tonde delle stelle elongate inserendo uno o più "1" in diagonale e applicando la massima entropia con non più di 5 interazioni.

E fin qui funziona, ma leggo di utilizzi che vanno ben oltre e che portano alla luce dettagli fini con risultati mirabolanti.
Questi utilizzi e il loro funzionamento mi è completamente oscuro, mi piacerebbe approfondire l'argomento sia a livello teorico (cosa di preciso fa, e perché lo fa) che a livello pratico, ben sapendo che poi è proprio la pratica personale a consapevolizzare della bontà di alcune procedure.

Ps: magari come prima cosa capire il significato e l'etimologia della parola "deconvoluzione" e di conseguenza "convoluzione".

E perché no anche "entropia" le definizioni che da il vocabolario non riesco ad adeguarle a questo scopo.

"A vous"!

papi

_________________
Strumenti:
due lenti rigate e vissute
- 5,75/10 dx -9/10 sx


Top
  Profilo   WWW  
 
MessaggioInviato: venerdì 17 novembre 2006, 8:54 
Non connesso
Avatar utente

Iscritto il: mercoledì 8 febbraio 2006, 15:08
Messaggi: 9617
Località: Roma
Tipo di Astrofilo: Fotografo
papi ha scritto:



Questi utilizzi e il loro funzionamento mi è completamente oscuro, mi piacerebbe approfondire l'argomento sia a livello teorico (cosa di preciso fa, e perché lo fa) che a livello pratico, ben sapendo che poi è proprio la pratica personale a consapevolizzare della bontà di alcune procedure.







papi





Bravo Papi, mi hai anticipato.
Mi accodo alla richiesta, dato che in un precedente
post avevo chiesto anch'io qualche informazione in
più.

Danilo Pivato
--

_________________
Immagine


Latest New: https://www.danilopivato.com/introduction/latest_news/latest_news.html


Top
  Profilo   WWW  
 
 Oggetto del messaggio:
MessaggioInviato: venerdì 17 novembre 2006, 9:00 
Non connesso
Avatar utente

Iscritto il: mercoledì 8 febbraio 2006, 16:41
Messaggi: 23657
ciao papi,
l'argomento è molto interessante e se n'è parlato spesso....
in effetti il concetto di deconvoluzione, in teoria, parte dal fatto che, per la natura fisica della radiazione luminosa, una stella non sarà mai visibile come un unico punto ma come una serie di cerchietti concentrici (disco di airy al centro e cerchietti attorno).
a questa limitazione "imprescindibile" si aggiungono tutta una serie di altri "problemi" dovuti all'atmosfera, alla qualità delle ottiche, ai vari allineamenti dei componenti ottici, ecc. che tendono ancora a modificare l'immagine finale.
allora si introduce una funzione PST (point spread function, se non ricordo male) che mi dice a partire da un punto (immagine ideale) che immagine finale mi devo aspettare tenedo conto di tutto quanto detto prima.
se fossi capace, fissato un ben determinato sistema di acquisizione (telescopio + sensore + tutto ciò che la luce incontra sul suo cammino prima di giungere al sensore, atmosfera compresa), di determinare analiticamente la forma di tale funzione (la PST) allora una volta ottenuta l'immagine potrei fare l'inverso di quella funzione e ottenere l'immagine "reale" ripulita da tutti i difetti.
ovviamente nella realtà non sono capace di avere una PST espressa in forma analitica e quindi (a meno di casi molto particolari) non sarò mai in grado di conoscerne la sua inversa.
ci sono però delle tecniche che si avvicinano molto a fare ciò senza però riuscire mai ad ottenere il risultato ideale.
spero di essere riuscito a spiegarmi e, soprattutto, di non aver detto troppe ca***te (ho molto molto banalizzato) in ogni caso vedo di recuperare un po' di articoletti e, se si vuole approfondire, li scannerizzo (o scandisco o scannazzo o scugnizzo :D:D:D:D) e li posto....

ciao antonio

_________________
qa'plà!
Radical chic certified


Top
  Profilo    
 
MessaggioInviato: venerdì 17 novembre 2006, 9:40 
Non connesso
Avatar utente

Iscritto il: mercoledì 8 febbraio 2006, 23:43
Messaggi: 2443
Località: Ravenna
Tipo di Astrofilo: Fotografo
[ Premetto che l'ho utilizzato su alcune mie immagini riuscendo in pratica a far tornare tonde delle stelle elongate inserendo uno o più "1" in diagonale e applicando la massima entropia con non più di 5 interazioni.

papi[/quote]

Ciao Papi, vai alla grande, io non so nemmeno cosa sia, o meglio o visto di questo filtro nei vari programmi di elaborazione ma non ho mai provato ad utilizzarlo, però dalle varie cose scritte dai grandi dell'astrofotografia mi pare che non la utilizzino in molti in quanto mi sembra di aver capito che alla base sia necessario avere un segnale quasi perfetto in relazione al rapporto segnale rumore (quante ore e che cielo) ma in quel caso i dettagli escono fuori anche con la semplice maschera di contrasto in PS2, credo.

Ciao Gio.


Top
  Profilo   WWW  
 
 Oggetto del messaggio:
MessaggioInviato: venerdì 17 novembre 2006, 10:55 
Non connesso
Operatore Commerciale
Avatar utente

Iscritto il: venerdì 10 febbraio 2006, 0:48
Messaggi: 149
Tipo di Astrofilo: Fotografo
Ciao a tutti,

Potete trovare dei buoni tutorial su internet, difficilmente troverete una soluzione del tipo apri questo menu ed imposta questa funzione in quanto, come dicevo in un post predente, l'argomento è particolarmente vasto e le applicazioni dipendono da molti parametri operativi.

Un tutorial molto introduttivo all'argomento è:

http://astrim.free.fr/image_restoration.htm

Una presentazione interessante, ma più tecnica, che fornisce sicuramente una visione globale, e di quanto sia esteso il territorio degli algoritmi di deconvoluzioni, è:

http://www.ucolick.org/~max/289C/Lectur ... ecture.ppt

Un buon libro, che tratta anche di deconvoluzione, è quello di Berry e Burnell, "The Handbook of Astronomical Image Processing".


Rispondendo a tuvok, il concetto che hai espresso è corretto, la funzione si indica normalmente con PSF, la sua inversa con OTF (Optical Transfer Function).

Diciamo che ad oggi la situazione, per quanto ci riguarda (questi algoritmi si usano in molti altri campi) è che esistono degli algoritmi consolidati:

Lucy-Richardson
Maximum Entropy
Van Cittert
Weiner
Wavelet

Ognuno di questi risponde bene ad alcune diverse situazioni di degrado del segnale, e molti di questi si intersecano.

Stanno nascendo nuovi approcci come il multiscale, che ne usano opportune combinazioni o algoritmi più specifici come il curvelet che rendono più efficienti i risultati in specifici domini applicativi.

Sicuramente per tutti valgono dei principi fondamentali:

il rapporto segnale rumore deve essere molto alto, pena la non possibilità di ottenere miglioramenti sulla immagine di partenza.

La scelta della PSF è determinante per un buon risultato finale. Per informazione, esiste anche la possibilità di non imporre il vincolo sulla PSF (Blind Deconvolution) ma questo porta ad un scelta statistica della PSF aggiungendo ancora un altro grado di libertà al sistema.

Un mio modesto consiglio: i primi esperimenti sarebbe bene farseli in casa simulando (Vedi primo link) su una immagine sorgente del degrado e poi provare a ripristinare la situazione iniziale con l'utilizzo dei vari algoritmi, in questo modo rimane più semplice capire come intervengono sui dettagli dell'immagine e la relazione con i parametri dei singoli algoritmi.

Ovviamente, come ho già detto, io avrò capito si e no il 5% di quello che c'è da capire, per cui ho davanti un lungo periodo di apprendimento e di esperimenti.

A presto


Filippo.

_________________
http://www.chasingtheworld.com
http://www.flickr.com/photos/filippoastro


Top
  Profilo   WWW  
 
 Oggetto del messaggio:
MessaggioInviato: venerdì 17 novembre 2006, 15:17 
Non connesso

Iscritto il: mercoledì 8 febbraio 2006, 16:30
Messaggi: 107
Località: Roma
La prima applicazione in campo astronomico dell'algoritmo Richardson-Lucy risale al 1988. Come noto, a causa di errori commessi nella progettazione delle ottiche, le prime immagini in arrivo dal Telescopio Spaziale Hubble erano affette da un inaccettabile degrado (soprattutto coma). Si iniziò così a sperimentare, con risultati eccellenti e addirittura inaspettati, algoritmi basati sul concetto di "massima entropia di deconvoluzione".

La teoria sottostante questi algoritmi implica concetti troppo vasti e complessi per essere trattati in poche righe, però la conoscenza della loro applicazione pratica è sicuramente utile a chi vuole tentare di migliorare immagini affette da turbolenza, errori di inseguimento, eventuali difetti delle ottiche usate e perchè no, anche leggere sfocature (ricordando sempre che per i miracoli bisogna rivolgersi altrove...).

L'implementazione dell'algoritmo di deconvoluzione prevede, in sintesi, quattro fasi:

1° fase: all'immagine originale viene applicata una FFT (trasformata rapida di Fourier). Questo consente di passare da una rappresentazione nel dominio spaziale a quella nel dominio delle frequenze (probabilmente anche questo per molti è un concetto complesso tutto da approfondire).
Senza scendere nei dettagli teorici, diciamo che per ragioni puramente matematiche, volendo contenere i tempi di elaborazione, è necessario effettuare tale operazione su una immagine i cui lati in pixel siano espressi in numeri potenza di due (128x128, 256x256, 512x512 pixel, etc.).

2° fase: viene effettuata la medesima operazione (con le stesse regole di cui sopra) anche ad una immagine chiamata PSF (Point Spread Function) che contiene le "informazioni", così come definite dall'utente, sui "difetti" da correggere.

3° fase: viene effettuata la cosiddetta deconvoluzione dell'immagine originale con l'immagine di PSF. Questa operazione produce una terza immagine, sempre visualizzata nel dominio delle frequenze.
Il processo si basa sul fatto, derivato dalla teoria dei segnali, che l’immagine finale è rappresentata dalla convoluzione (termine che significa operazione tra funzioni) tra l’immagine originale, come sarebbe stata registrata senza difetti, e la funzione di trasferimento completa del segnale (ovvero quella che si chiama la Point Spread Function).
Infatti il fronte d’onda del segnale "immagine", che è rappresentato da un’onda perfettamente piana, quando raggiunge il nostro sensore CCD è praticamente simile ad una superficie increspata (atmosfera, riflessioni e rifrazioni, difetti delle superfici ottiche, rumore, turbolenze d’aria interne al tubo ottico, etc.).
Il concetto di "massima entropia" si riferisce invece alla possibilità di dedurre la forma di una "funzione di densità di probabilità" a partire da una informazione parziale, ovvero da un numero finito di momenti della distribuzione stessa.

4° fase: all'immagine risultante viene operata una trasformata inversa di Fourier, che la riporta nell'originario dominio spaziale e ci consente di visualizzarla correttamente (per "correttamente" intendo il modo in cui siamo abituati a vedere le immagini, anche una FFT può avere il suo fascino...).

Tutto molto complesso. Dal punto di vista pratico, questi sono invece gli step facili facili da seguire:

1° step: preparazione dell'immagine: è necessario utilizzare una immagine già calibrata (dark frame, flat field, bias, etc.) ma non elaborata. Ovviamente il risultato finale è fortemente dipendente dalla qualità, in termini di rumore, dell'immagine iniziale. Tale immagine, come detto sopra, deve essere ridimensionata in modo tale da renderla quadrata, con i lati che siano una potenza di due. Per immagini più grandi è perciò necessario sezionare l'immagine in quadranti.

2° step: preparazione dell'immagine di PSF. Questo è probabilmente il passaggio più critico e che più condiziona il risultato finale. Occorre definire una seconda immagine che descrive lo "smearing" di un oggetto puntiforme, ovvero una stella dell'immagine originale, oppure un satellite (quando è possibile) nelle immagini planetarie. La scelta della stella deve essere molto accurata, poichè è proprio questa che fornisce le informazioni sulla turbolenza, sugli errori di guida, sulle aberrazioni dell'ottica, etc. E' opportuno scegliere una stella di media grandezza ed è inoltre essenziale che la stella prescelta cada nel baricentro fotometrico dell'immagine. Dal punto di vista teorico è necessario definire un'immagine che, come l'originale, abbia i lati quadrati con un numero di pixel uguale alla potenza di due. Ad ogni modo ciascun software ha le proprie modalità di definizione dell'immagine PSF, IRIS ad esempio richiede di selezionare un riquadro attorno alla stella prescelta. Alcuni permettono di definire matematicamente la PFS.
In altri algoritmi di deconvoluzione, quali il VanCittert, IRIS richiede come ulteriore parametro la FWHM della stella selezionata.

3° step: numero di iterazioni. Il risultato è funzione del numero di iterazioni eseguite. Come ordine di grandezza sono necessarie una decina di iterazioni, ma questo dipende essenzialmente dalla qualità dell'immagine e dalla natura dei problemi da correggere. Il risultato migliore va valutato soggettivamente. Oltrepassando certi limiti, l'immagine subirà comunque un percettibile peggioramento, soprattutto per la presenza di artefatti (primo tra tutti si noterà un alone scuro intorno alle stelle).

Come diceva Filippo, è opportuno prendere una immagine campione e cominciare a sperimentare.

Sul tutorial di IRIS c'è un ottimo paragrafo sull'applicazione pratica degli algoritmi di deconvoluzione, con alcuni interessanti esempi di applicazione anche alle immagini planetarie, aspetto questo che vedo poco considerato nelle elaborazioni proposte:

http://www.astrosurf.org/buil/iris/tuto ... c30_us.htm

Mi rendo conto di aver occupato un sacco di spazio per dire molto poco, chi volesse approfondire può chiedere.

Saluti,
Franco


Top
  Profilo    
 
 Oggetto del messaggio:
MessaggioInviato: venerdì 17 novembre 2006, 20:19 
Non connesso
Operatore Commerciale
Avatar utente

Iscritto il: venerdì 10 febbraio 2006, 0:48
Messaggi: 149
Tipo di Astrofilo: Fotografo
Franco,

grazie delle ulteriori informazioni di ottimo valore, volevo solo aggiungere qualche ulteriore nota.

Il constraint sulla risoluzione dell'immagine (il fatto che sia quadrata e renda più semplice l'utilizzo delle lookup table per la FFT) è presente solo in alcuni pacchetti software. Tra l'altro più genericamente sarebbe corretto parlare di DFT (Discrete Fourier Trasformation). Alcuni sw la implementano come FFT portandosi un piccolo errore residuo, spesso ininfluente, nel passaggio tra un dominio e l'altro.

Nelle varie implementazioni spesso capita di trovarne alcune che accettano solo campioni a 16 bit, quindi bisogna fare attenzione nel caso si usino su soggetti con segnali particolarmente alti in termini di ADU.

Avendo introdotto il tema della trasformazione di spazi, vale la pena sottolineare come questi algoritmi siano sensibili alle zone a forte gradiente, infatti praticamente tutte le implementazioni si aspettano un comportamento periodico e questo fa si che le zone a forte gradiente, unite al constraint di conservazione di energia portino alla formazione dei famosi "riccioli" che spesso si vedono nelle immagini deconvolute (il termine per le immagini astronomiche è: "lumpy airy disc").

Qui vorrei aggiungere che spesso dopo la calibrazione può, per immagini a basso S/N, essere conveniente una prima fase di blur molto leggero che porta ad abbassare il drop off dei gradienti più forti. Ovviamente è un escamotage puramente estetico che non porta ulteriori informazioni all'immagine stessa.

Per i segnali a basso delta di ADU invece è spesso necessario operare un DDP, in quanto se (come nel caso della IC 434) il S/N è alto, il DDP aiuta l'algoritmo a trovare dei gradienti più "spreaded" a livello di ADU di quelli che troverebbe nel caso del solo segnale calibrato.

Ultima nota, anche se già detto, è fondamentale avere un S/N molto alto, questo si traduce mediamente, e purtroppo, in molte ore di esposizione.

A presto

Filippo.

_________________
http://www.chasingtheworld.com
http://www.flickr.com/photos/filippoastro


Top
  Profilo   WWW  
 
 Oggetto del messaggio:
MessaggioInviato: venerdì 17 novembre 2006, 22:00 
Non connesso

Iscritto il: mercoledì 8 febbraio 2006, 16:30
Messaggi: 107
Località: Roma
Filippo,
non avevo ancora visto il tuo sito.
Complimenti.

Saluti,
Franco


Top
  Profilo    
 
 Oggetto del messaggio:
MessaggioInviato: sabato 18 novembre 2006, 9:28 
Non connesso
Avatar utente

Iscritto il: giovedì 9 febbraio 2006, 9:34
Messaggi: 7839
Località: Pavia
Tipo di Astrofilo: Visualista e Fotografo
Ringrazio tutti per aver fatto unpò di luce su questo argomento, per me completamente oscuro.

_________________
Tutto è relativo. Prendi un ultracentenario che rompe uno specchio: sarà ben lieto di sapere che ha ancora sette anni di disgrazie.
A. Einstein


Cieli Sereni
Vittorino Suma


Top
  Profilo   WWW  
 
 Oggetto del messaggio:
MessaggioInviato: lunedì 20 novembre 2006, 12:29 
Non connesso

Iscritto il: domenica 12 febbraio 2006, 9:24
Messaggi: 76
Località: Roma
L’argomento è molto interessante così come le spiegazioni date nei post precedenti.

Leggendoli mi era venuta una curiosità.

Apparentemente la deconvoluzione dovrebbe essere una operazione relativamente semplice. Come ha detto Franco (f-petra), operando nel dominio della frequenza (FFT o altro) è possibile annullare alcuni effetti dell’atmosfera e degli strumenti utilizzati che sono assimilabili ad una operazione di convoluzione con un’altra convoluzione fatta in modo tale da annullare la precedente. Semplificando con una operazione più semplice della convoluzione, è come se ci fosse stata una moltiplicazione per 2 che annullo moltiplicando per 0,5.

Perché, invece, questo non è possibile così direttamente come immaginavo, come di capisce dai post precedenti e da alcuni articoli, ma occorre applicare dei metodi anche più complicati (entropia…)?

La questione forse è un po’ arida, la riporto nel caso ci fosse qualcuno con la stessa curiosità.

Ho provato ad applicare la deconvoluzione per correggere una semplice sfocatura che spalma una immagine puntiforme (una stella ideale) sui pixel adiacenti. Per semplificare e poterla trattare con quanto conosco, ho limitato la prova a una dimensione invece delle due delle normali immagini.
Quindi, invece di trovare intensità 0 | 0 | 4 | 0 | 0 (0 è nero e i numeri crescenti sono i gradi di grigio verso il bianco) ci si ritrova una immagine con intensità 0 | 1 | 2 | 1 | 0 | (che sarebbe l'immagine PSF dei post precedenti).

Con qualche ricordo lontano ho trovato la (de)convoluzione che dovrebbe riportare le cose a posto. Tutto sembrava funzionare bene. Esempio:
Immagine originale: 0 | 0 | 4 | 0 | 0 | 0 | 0 | 0 |
Immagine sfocata: 0 | 1 | 2 | 1 | 0 | 0 | 0 | 0 |
Immagine ricostruita: 0 | 0 | 4 | 0 | 0 | 0 |

Ma guardate cosa succede se si aggiunge un rumore di 1/10 sul solo primo pixel.

Immagine originale: 0 | 0 | 4 | 0 | 0 | 0 | 0 | 0 |
Immagine sfocata: 0 | 1 | 2 | 1 | 0 | 0 | 0 | 0 |
Immagine con rumore: 0 | 1,1 | 2 | 1 | 0 | 0 |
Immagine ricostruita: 0 | 0 | 4,4 | -0,8 | 1,2 | -1,6 | 2 | -2,4 | 2,8 | -3,2 | 3,6….
Il risultato sarebbe un’immagine non utilizzabile con il rumore che si è amplificato è sparso per tutta l’immagine in modo crescente, anche dove non c’era nulla. Questo disastro (instabilità del filtro?) avviene anche supponendo di conoscere esattamente la deconvoluzione da applicare. Nei casi pratici quindi il risultato sarebbe ancora peggiore.

Questo mi ha spiegato perché la deconvoluzione è più complicata di quanto pensassi ed è così sensibile al rumore.

Per fortuna c’è chi ha pensato a trovare una soluzione arrivando ai vari metodi citati negli altri post.

Scusate se tutta questa faccenda non ha interessato nessuno, comunque se ci fosse qualcuno che volesse avere il foglio di calcolo che ho utilizzato basta che mi fa sapere dove mandarlo.
Ciao,
Fabrizio


Ultima modifica di fabpan il mercoledì 22 novembre 2006, 16:53, modificato 1 volta in totale.

Top
  Profilo    
 
Visualizza ultimi messaggi:  Ordina per  
Apri un nuovo argomento Rispondi all’argomento  [ 12 messaggi ]  Vai alla pagina 1, 2  Prossimo

Tutti gli orari sono UTC + 1 ora


Chi c’è in linea

Visitano il forum: Bing [Bot], Google [Bot] e 12 ospiti


Non puoi aprire nuovi argomenti
Non puoi rispondere negli argomenti
Non puoi modificare i tuoi messaggi
Non puoi cancellare i tuoi messaggi
Non puoi inviare allegati

Cerca per:
Vai a:  
Powered by phpBB © 2000, 2002, 2005, 2007 phpBB Group
Traduzione Italiana phpBBItalia.net basata su phpBB.it 2010