Parlando di HD, in linea di massima quando trasmettono a 720p sono sempre a 50fps e quando trasmettono a 1080i sono a 25fps, mentre se fosse a 1080p sarebbe a 50 fps?
O sono completamente fuori strada?
Il fatto è che la "p" da sola non dice nulla sul frame rate.
Per cui 1080p può voler dire anche 1080p a 25 fps, così come 720p, non vuol dire per forza a 50fps, ma potrebbe essere anche 25fps.
La miglior notazione che elimina ogni dubbio è quella dell'EBU: consiste nel mettere dopo la definizione verticale e "i" o "p", il frame rate in riferimento ai fotogrammi (a prescindere se interlacciati o meno, tanto ciò è specificato dalla lettera prima della barra), così:
1080i/25 quella classica che abbiamo sui canali Rai e Mediaset in HD.
1080p/25 di solito non usata nelle trasmissioni, ma nulla vieta che venga usata come banda occupa lo stesso della precedente.
1080p/50 occupa il doppio della banda rispetto alle precedenti, visto che la risoluzione temporale (framerate) è doppio.
720p/50 quella maggiormente usata con la 720 nelle trasmissioni tv; non occupa molto meno spazio delle precedenti, come banda...
720p/25 di solito non usata nelle trasmissioni tv, ma qualche volta la si è vista... (occupa ovviamente la metà della risoluzione precedente, visto che la risoluzione temporale -il frame rate- è dimezzata).
Altre, tipo la 720i/25 si può generare ovviametne, ma non son sicuro se sia uno standard valido... (aldilà se usato o meno ma certamente non è usata).
ovviamente anche nei casi di 50fps rispetto a 25fps, come per la risoluzione spaziale, potrebbe trattarsi di "upscale"... A dire il vero mi sembra che i mediaset HD usino un qualcosa del genere, ma forse è solo un flag che fa ripetere un fotogramma(?)devo verificare meglio... a volte facendo delle conversioni video, mi son ritrovato infatti con 50fps (upscale da 25 ma in trasmissione, per cui ho dovuto scartare un fotogramma ogni 2, tanto era doppione - dai Rai HD invece non è stata necessaria questa operazione)