1° Forum di Astronomia Amatoriale Italiano

Il primo forum di astrofili per astrofili, nato nel 2000!
Oggi è mercoledì 23 luglio 2025, 16:24

Menu

* Home
* Iscriviti
* La Bacheca
* F.A.Q.
* Cerca
* Login/Logout 

Login

Nome utente:
Password:

 Ho dimenticato la password

In Linea

Visitano il forum: Bing [Bot] e 8 ospiti

Regolamento

regolamento

Links

*
Astrocafè

Segnala bolide
* Meteoblue.com
* Previsioni seeing
* Il Meteo.it
Help Forum
 

Tutti gli orari sono UTC + 1 ora


Regole del forum


Ciao! Se devi postare una fotografia, uno scatto o un'immagine ricorda di caricare anche direttamente sul Forum la tua foto.
Questo per permettere a tutti quanti di vedere sicuramente, ora e in futuro, l'immagine postata
Qui trovi le istruzioni per il caricamento file: viewtopic.php?f=13&t=86546.



Apri un nuovo argomento Rispondi all’argomento  [ 25 messaggi ]  Vai alla pagina Precedente  1, 2, 3  Prossimo
Autore Messaggio
 Oggetto del messaggio:
MessaggioInviato: lunedì 19 giugno 2006, 9:12 
Non connesso
Avatar utente

Iscritto il: domenica 26 febbraio 2006, 11:04
Messaggi: 10072
Località: Caserta (N:41° E:14°)
Tipo di Astrofilo: Fotografo
Un bel passo indietro! :roll: (per chiarezza di chi dovesse avere lo stesso
set di filtri)

Haymé per me i filtri sono correttamente tagliati in IR, infatti una prova di
ieri sera (seeing IV, trasp 3-4/10) ha messo KO tutte le elugubrazioni
che a volte facciamo.

Due i fattori!!!

1) Il filo della webby ho notato che passando in prossimità di un piccola
lampada neon sul tavolinetto aggiungeva rumore (interlacciato per
giunta) e che probabilmente mi portava a saturare troppo con il gain.

non bastava però:

2) In caso di webby e uso dei filtri RGB bisogna sì togliere la saturazione
ma assicurarsi una corretta saturazione del sensore portando al massimo
il controllo "luminosità", che normalmente manco lo cechiamo e lo
lasciamo al centro insieme al contrasto. Viceversa, in questo caso,
bisogna metterlo al max!

Fatto ciò i filtri si son comportati bene...in realtà è la webby che si è
comportata bene...e io con una grande figuraccia!!!!

Grazie comunque per l'aiuto, mi è servito a capire altre dinamiche
sull'acquisizione :oops:

P.S.: Per tagliare la testa al toro ho messo il rosso insieme al IRpass e
il risultato è stato: CCD cecato, nada de nada come da controllo corretto!

_________________
Il mio blog: https://www.astroimaging.it


Top
  Profilo   WWW  
 
 Oggetto del messaggio:
MessaggioInviato: lunedì 19 giugno 2006, 15:40 
Non connesso
Avatar utente

Iscritto il: mercoledì 8 febbraio 2006, 16:30
Messaggi: 867
Località: Bangkok
Tipo di Astrofilo: Fotografo
meglio cosi, mi pareva strano che le risposte dei filtri fossero menzognere.
I problemi venivano dalla webcam, buone riprese ora
ciao :)
Tiziano


Top
  Profilo    
 
 Oggetto del messaggio:
MessaggioInviato: lunedì 19 giugno 2006, 15:52 
Non connesso
Avatar utente

Iscritto il: domenica 23 aprile 2006, 22:02
Messaggi: 7738
Tipo di Astrofilo: Fotografo
Ciao a tutti, c'è una cosa che non riesco a capire: a cosa serve fare delle tricromie con un CCD a colori com'è quello della webcam? Capisco che lavorando in raw l'immagine sia monocromatica, ma sulle celle dei CCD a colori ci sono comunque i microfiltri RGB. In questo caso usando, ad esempio, il filtro R le celle G e B danno solo rumore di fondo o poco più che verrà sommato al canale R nell'immagine raw monocromatica. Qual'è quindi il vantaggio di questa tecnica?


Top
  Profilo   WWW  
 
 Oggetto del messaggio:
MessaggioInviato: lunedì 19 giugno 2006, 22:53 
Non connesso
Avatar utente

Iscritto il: domenica 26 febbraio 2006, 11:04
Messaggi: 10072
Località: Caserta (N:41° E:14°)
Tipo di Astrofilo: Fotografo
Bella domanda Ivaldo e me l'aspettavo visto che non se ne parla affatto
in giro. In realtà ho pensato di anticipare l'acquisto del set di filtri per
curiosità su una cosa che ho pensato.
Premetto che non ne capisco più di chiunque altro sui sensori e matrici
Bayer & Co., ma semplicemente per puro spirito di ricerca mi son messo
a leggere qua e la qualcosa circa i sensori, e su come essi vedono e come
i software "interni" alle webcam fanno vedere. Mettendo da parte il raw
che ci deve essere di base, l'idea nasce da questo antefatto.
Leggendo in giro ho visto che quasi come standard la maggior parte delle
case costruttrici di sensori a colori e relativi firmware annessi utilizzano
chi più chi meno la stessa matrice Bayer per il colore e chi più chi meno
utilizza un metodo di interpolazione cosiddetto adattativo, ovvero che
tiene conto di come è circondato un dato pixel colorato nella matrice per
poi effettuare un'interpolazione del pixel mancante visto che una matrice
ad es. 5x5 è composta del tipo:
G1 B2 G3 B4 G5
R6 G7 R8 G9 R10
G11B12G13B14G15 ...etc...
Questo significa che, per es. il verde in pos 8 (il G8 ) che capita in
corrispondenza del rosso (R8 ) verrà interpolato dal sistema attraverso
i metodi scelti dal costruttore che ripeto vertono sull'interpolazione
bicubica adattativa. Tralasciando il tecnicismo (che non mi si addice per
giunta - anzi se qualche fisico o ingegnere elettronico accore sarebbe
cosa gradita) nella pratica dove c'è R8 il sistema deve dare anche un
G8 e un B8, quindi interpola per G (in genere la media) i valori di G7 e G9
e quindi la media darà il G8. Moltiplicando questo meccanismo su una
singola riga orizzontale o verticale che sia si ottiene che se l'immagine
originale passa da un G=255 a un G=128, il firmware vede anche un
G=192 (dove c'è il rosso come nell'esempio). Dunque si genera una
scalettatura che nel complesso di un immagine in movimento rende
gradevole il risultato in quanto i contorni del soggetto, se pur in
"miniatura" appaiono sfumati appena appena. Gli attuali firmware però
tengono anche conto anche del contorno del pixel in question il che
significa che la media viene fatta in base anche al contesto in cui si trova
la celletta in esame tramite gradienti di valori in orizzontale e verticale.
E questo è per l'appunto la parte "adattativa" del algoritmo di cui sopra.
Il che significa che il sistema interpolerà se il contesto è presente ma se
il contesto non è presente allora darà il valore crudo (mediano) nella
matrice di cui sopra.
Il discorso che ho fatto io è stato semplicemente di vedere come si
comportasse il firmware nel momento in cui gli dai in pasto un'immaggine
che originariamente è già priva delle due altre componenti cromatiche.
Posto che le immagini che noi riprendiamo sono in movimento (seeing
e spostamento nel campo), allora utilizzando una sequenza di filtri
"nel tempo" avrei potuto sfruttare sia uno sfasamento nello spazio (il
movimento dell'oggetto) sia uno sfasamento nel tempo (visto che le
sequenze sono tre collegate l'una all'altra quante sono le componenti
cromatiche). In questo modo avrei dovuto ottenere immagini più
dettagliate rispetto a quelle ottenute senza lo sfasamento nel tempo
delle tre componenti cromatiche.
Ovviamente il tutto concorda con l'utilizzo che poi ne facciamo delle
tre sequenze: ovvero sommare ogni singola sequenza per ottenere un
singolo fotogramma per R, G e B e quindi l'immagine finale.
Ovviamente quest'ultimo fatto non è da sottovalutare perché è su ciò
che si pone tutto il meccanismo di cui ho parlato, altrimenti vale
pedissequamente quello che hai detto tu Ivaldo!

Spero di non essere stato fumoso ma l'argomento è stato di mio interesse
ma lungi da me e dalle mie conoscenze (sono biologo).

La discussione resta apertissima.

P.S.: Perdonate per la lunghezza e per qualche c.....a di troppo :wink:

_________________
Il mio blog: https://www.astroimaging.it


Top
  Profilo   WWW  
 
 Oggetto del messaggio:
MessaggioInviato: lunedì 19 giugno 2006, 22:59 
Non connesso
Avatar utente

Iscritto il: lunedì 1 maggio 2006, 16:52
Messaggi: 5512
Località: Savona
Tipo di Astrofilo: Fotografo
Non ho capito molto!!
Resto perplesso!
Secondo me ha ragione ivaldo!!
Per ivaldo:
Ovviamente se fai l'immagine con un filtro rosso, ti tiene la sola immagine nel ramo del rosso, e quelle nel verde e nel blu le getti via!!!!!

_________________
Davide Ghiso
Meade Schmidt-Newton 6" (763mm F/5) - William Optics Zenithstar 66 ED - Eq6 skyscan Barlow 2x e 4x apo coma - Oculari meade superploss 26mm
Kellner 20 e 4 mm Ploss 10mm - Hiperion 8mm - Atik 383l+ monocromatic
filtri baader 36mm R,G,B,L,H-alpha - magzero mz_5 bn
Gruppo Astrofili Volontari Ingauni Albenga SV

Davide Ghiso
ma chi sarà mai questo Dario Fo!?


Top
  Profilo   WWW  
 
 Oggetto del messaggio:
MessaggioInviato: lunedì 19 giugno 2006, 23:04 
Non connesso
Avatar utente

Iscritto il: domenica 26 febbraio 2006, 11:04
Messaggi: 10072
Località: Caserta (N:41° E:14°)
Tipo di Astrofilo: Fotografo
Eh eh ... è difficile uscire dal contesto 8)
Non dimenticate cosa ne facciamo dei nostri filmati: è il cuore di tutto
il discorso!

Ovviamente si fa per capire se c'è o meno il vantaggio. Per ora io
propendo per il si, anche perhcé qualcosina ho visto già :wink:

_________________
Il mio blog: https://www.astroimaging.it


Top
  Profilo   WWW  
 
 Oggetto del messaggio:
MessaggioInviato: martedì 20 giugno 2006, 0:48 
Non connesso
Avatar utente

Iscritto il: domenica 23 aprile 2006, 22:02
Messaggi: 7738
Tipo di Astrofilo: Fotografo
Ciao a tutti,
in effetti stiamo entrando in un argomento un po' complesso. Tu fai il biologo, io neanche quello, quindi cercherò di esprimere la mia perplessità a modo mio... spero di riuscirci.

Allora, immaginiamo di avere un sensore CCD a colori di 6x6 celle. Ognuna di queste celle ha davanti a se un piccolo filtro che la rende "specializzata" nel riprendere un solo colore.

Immagine

Avremo quindi 36 celle di cui 9 "specializzate" nel rosso, 9 nel blù e 18 nel verde. Tra l'altro questo spiega come mai i CCD a colori sono più sensibili e più definiti nel verde. Il motivo per cui i progettisti hanno deciso di dare più importanza al verde credo che dipenda da come il nostro occhio recepisce i colori, ma questo è il tuo campo...

Se metto un filtro rosso per tricromia davanti al mio CCD a colori rendo cieche le celle "specializzate" in verde e blù.

Immagine

Ammettendo che le immagini arrivino in RAW dal CCD al PC (e quindi per definizione "così come sono", senza compressioni o interpolazioni di sorta) quello che otteniamo è un'immagine che contiene le sole informazioni del rosso (più il relativo rumore) oltre al rumore del verde e del blù (le cui celle sono cieche, ma non spente).

Quindi nel caso senza filtri avremo:

9*SegnaleR + 9*RumoreR + 18*SegnaleG + 18*RumoreG + 9*SegnaleB + 9*RumoreB

Ovvero 9R+18G+9B+36Rumore

Con i filtri R, G e B avremo:

9*SegnaleR + 9*RumoreR + 18*RumoreG + 9*RumoreB+ 18*SegnaleG + 9*RumoreR + 18*RumoreG + 9*RumoreB+ 9*SegnaleB + 9*RumoreR + 18*RumoreG + 9*RumoreB

Ovvero 9R+18G+9B+108Rumore

Questo parlando di RAW puro. Come però dici giustamente c'è un accorgimento software che "ripristina" i pixel mancanti nella matrice (che però non dovrebbe agire a livello di firmware della camera, altrimenti non è corretto dire che il segnale ricevuto è RAW). Ma in questo caso siccome i pixel mancanti vengono rimpiazzati da medie dei pixel presenti il risultato dovrebbe essere il medesimo con i due metodi (se non consideriamo che la sovrapposizione di due filtri fa comunque arrivare alla cella meno luce e quindi il rapporto segnale rumore peggiora).

Aggiungo una cosa. Se anziché ricevere il segnale RAW si lascia che il firmware della camera faccia la compressione questa generalmente usa un metodo che è un adattamento del JPEG specializzato in immagini in movimento (Motion JPEG, conosciuto anche come MPEG).

Sempre senza entrare in questioni tecniche (non ne sarei in grado) vorrei però dire che il JPEG (e derivati) è un metodo di compressione "percettivo", ovvero basato su come il nostro occhio/cervello percepisce le immagini. JPEG elimina informazione laddove ritiene che non siano utili alla visione. JPEG è, diciamo così, "tarato" su immagini normali, comuni, di tutti i giorni. In immagini estremamente inconsuete, come un'immagine a colori ripresa con un filtro per tricromia ad esempio, JPEG da un po' i numeri...

Guarda questa immagine (non l'ho fatta io, ovviamente):
Immagine
E' un'immagine RGB compressa in JPEG a livello 3 con Photoshop. E' in bianco e nero in quanto i canali R, G e B sono identici.

Confrontala con questa:
Immagine
E' la stessa immagine, ma ho cancellato i canali G e B. La compressione è sempre a livello 3, ma come vedi la qualità è estremamente più bassa proprio a causa del metodo di lavoro di JPEG.

Tutto questo per dire che secondo me usare i filtri per tricromia con un sensore a colori non serve in caso di immagini RAW (anzi diminuendo la luce che raggiunge le celle peggiora il rapporto segnale/rumore). Usarli invece quando la camera invia i dati MPEG è addirittura micidiale per la qualità.

Sono comunque felice che ci sia qualcuno che, come te, ha la curiosità di tentare strade nuove.

E poi potrei sempre aver detto un mucchio di sciocchezze :roll:


Top
  Profilo   WWW  
 
 Oggetto del messaggio:
MessaggioInviato: martedì 20 giugno 2006, 6:36 
Non connesso
Avatar utente

Iscritto il: domenica 26 febbraio 2006, 11:04
Messaggi: 10072
Località: Caserta (N:41° E:14°)
Tipo di Astrofilo: Fotografo
Il discorso da te fatto Ivaldo è corretto per quanto riguarda il Jpeg e il
RAW, l'importante è non fare confusione tra il RAW e il passaggio invece
che sta a monte di cui stiamo discutendo: l'interpretazione dell'immagine
da parte del sensore a colori.
Anche il raggionamento fatto sulla matrice 6 x 6 è corretto tranne per
il fatto che alla fine dei tuoi calcoli hai tenuto conto solo di 9R, 9B e
18G. Il punto è proprio questo: l'interpretazione del sensore è ancora
un a matrice a 36R, 36G e 36B, su quei 36 x canale c'è interpolazione
x canale. Quindi si tratta di ritarare il discorso che hai fatto tenendo
conto di questo fatto e del fatto che l'interpolazione viene poi fatta
in modo adattativo.
Immaginiamo di riprendere un'immagine perfettamente ferma
e identica per le 3 riprese (o singola ripresa in RGB). In questo caso
non si avrà differenza tra le immagini ottenute, ma se invece consideri
le nostre immagini planetarie (movimento di seeing e altro) e di come
le otteniamo, ovvero per somma/media di n frames allora in questo
caso "variare" il contesto di un singolo pixel dovrebbe voler significare
variare il livello di integrazione operata per ottenere l'intera matrice.
Certo è che la prova taglierà qualsiasi dubbio.
Appena posso farla la farò assolutamente.
E' da sottolineare che questo raggionamento va bene proprio per la
nostra toucam che fornisce immagini RAW, altrimenti il discorso non
avrebbe avuto molto senso per il fatto che hai detto tu sul JPG sul
singolo canale.

_________________
Il mio blog: https://www.astroimaging.it


Top
  Profilo   WWW  
 
 Oggetto del messaggio:
MessaggioInviato: martedì 20 giugno 2006, 6:55 
Non connesso
Avatar utente

Iscritto il: domenica 26 febbraio 2006, 11:04
Messaggi: 10072
Località: Caserta (N:41° E:14°)
Tipo di Astrofilo: Fotografo
Nullla toglie che io sia in errore e quindi ci siamo fatti una bella
chiacchierata tranquilla :)

Ovviamente è solo curiosità perché appena avrò deciso per lumenera
o ImagingSource il discorso non avrà più modo di essere visto che
prenderei una monocromatica ;)

Un piccolo risultato tutto ancora da verificare (in quella serata
stavo cercando i settaggi giusti e stavo usando la web come sempre
ovvero come se fosse a colori) è nella foto di sinisitra nel post
http://forum.astrofili.org/viewtopic.ph ... highlight=

_________________
Il mio blog: https://www.astroimaging.it


Top
  Profilo   WWW  
 
 Oggetto del messaggio:
MessaggioInviato: martedì 20 giugno 2006, 20:20 
Non connesso
Avatar utente

Iscritto il: domenica 23 aprile 2006, 22:02
Messaggi: 7738
Tipo di Astrofilo: Fotografo
anto ha scritto:
Anche il raggionamento fatto sulla matrice 6 x 6 è corretto tranne per il fatto che alla fine dei tuoi calcoli hai tenuto conto solo di 9R, 9B e 18G. Il punto è proprio questo: l'interpretazione del sensore è ancora
un a matrice a 36R, 36G e 36B, su quei 36 x canale c'è interpolazione
x canale. Quindi si tratta di ritarare il discorso che hai fatto tenendo
conto di questo fatto e del fatto che l'interpolazione viene poi fatta
in modo adattativo.

L'ho fatto coscientemente in quanto ho tenuto conto solo dei dati realmente misurati e non di quelli interpolati. Se fai un'interpolazione (per quanto raffinata essa sia) non aggiungi nuovi dati alla tua misura.

Invece ho una domanda: tu hai detto che "noi" possiamo ottenere dei raw dalla webcam. Certamente tu puoi farlo, io forse potrei, ma non ho idea di come si faccia... me lo spieghi?


Top
  Profilo   WWW  
 
Visualizza ultimi messaggi:  Ordina per  
Apri un nuovo argomento Rispondi all’argomento  [ 25 messaggi ]  Vai alla pagina Precedente  1, 2, 3  Prossimo

Tutti gli orari sono UTC + 1 ora


Chi c’è in linea

Visitano il forum: Bing [Bot] e 8 ospiti


Non puoi aprire nuovi argomenti
Non puoi rispondere negli argomenti
Non puoi modificare i tuoi messaggi
Non puoi cancellare i tuoi messaggi
Non puoi inviare allegati

Cerca per:
Vai a:  
Powered by phpBB © 2000, 2002, 2005, 2007 phpBB Group
Traduzione Italiana phpBBItalia.net basata su phpBB.it 2010