arciere ha scritto:
Quindi i famosi televisori a 100hertz di frequenza sarebbero una "fregatura"?
Comunque penso sia di sicuro maggiore dei 25fps: nei giochi se si va a 25 o a 35 la differenza si nota eccome...
No, aspetta. Se anche accettassimo l'ipotesi della telecamera, un conto è che ti arrivi all'occhio un'immagine fluida (di cui tu puoi scorgere solo variazioni di un certo tot), un conto è che ti arrivi un'immagine già in partenza limitata.
L'occhio non fa delle "foto" di durata infinitesima ma, come dice ivaldo, le immagini permangono sulla retina e si ha un effetto di continuità. Se però le immagini sono discontinue, sulla tua retina rimarrà impressa la discontinuità e non il passaggio fluido. Quindi il tutto è conseguenza di una certa "inerzia" del sistema, più che di un "campionamento" come avviene nei sensori elettronici.
Es: se passi velocemente la mano sul televisore, anche sullo schermo del monitor (che è a 60Hz, mi pare), vedi che effettivamente scorgi la "separazione" delle dita. Ciò non vuol dire che puoi accorgerti dei 60Hz.
Se tu potessi scorgere variazioni di 60Hz, vedresti le varie "repliche delle dita" nitide, ma non è così a causa dell'impressione retinica.
Se lo fai invece non davanti al pc, non noti più questa "separazione", ma al contario vedi "la scia" continua delle dita che si muovono, che è dovuta all'impressione retinica.
Dal punto di vista sistemistico, l'occhio è come un filtro passabasso. Se si immette un segnale discontinuo, la discontinuità scompare ma al suo posto l'uscita è tanto più ripida quanto più era forte la discontinuità.
Tutta questa roba, giusto per far vedere che ho studiato elaborazione dei segnali multimediali

, fa capire il perché di "certe scelte" nello standard MPEG-2
