AverageItalian
Digital-Forum Gold Master
- Registrato
- 15 Gennaio 2009
- Messaggi
- 6.285
Salve a tutti.
Vorrei sottoporre in questa discussione un mio ragionamento sulle differenze tra 1080i e 1080p nell'ambito delle trasmissioni televisive.
Se si andasse a chiedere quale formato sia migliore, la maggior parte su questo forum risponderebbe il 1080p.
In generale sarebbe vero, ma nell'ambito delle trasmissioni digitali televisive, sarebbe corretto rispondere in questo modo?
Sono sicuro che molti risponderebbero di si anche in questo ambito, tuttavia quando si tratta di tali argomenti bisognerebbe tenere conto della realtà dei fatti, e quindi confrontare solo ciò che i broadcaster sono in grado di trasmettere e non tenere conto di formati tuttora impraticabili.
Tutte (o quasi?) le trasmissioni HD sono a 25 fotogrammi/s. Ciò significa che vengono trasmessi 25 fotogrammi in un secondo, ma questo può portare i più a pensare che il flusso di informazioni riporti una sequenza che è stata catturata 25 volte in un secondo. Non è sempre così.
Il 1080p trasmette 25 fotogrammi al secondo ed essendo progressivo trasmette sequenze di immagini che sono state catturate 25 volte in un secondo. Ogni fotogramma è composto da 1920x1080 px.
Il 1080i trasmette ugualmente 25 fotogrammi in un secondo, ma essendo interlacciato possiede la caratteristica di veicolare sequenze che sono state catturate 50 volte in un secondo. Questa è una differenza sostanziale.
Una breve spiegazione? Ogni 1/50 di secondo nel 1080i si cattura la realtà, ma la differenza è che nel farlo non si cattura tutto il fotogramma, ma solo la metà, chiamato semiquadro. I semiquadri in alternanza fanno riferimento a righe pari e dispari. Per esempio, nell'istante iniziale, ovvero il 1° 1/50 di secondo, si cattura la realtà imprimendola sulle righe dispari del fotogramma, nell'istante successivo, ovvero il 2° 1/50 di secondo, si cattura la realtà imprimendola sulle righe pari, poi ancora, 3° 1/50 righe dispari, 4° 1/50 righe pari, e così via...
Unendo righe pari e dispari si forma il fotogramma catturato in 1/25 di secondo. Ovvio che avendo catturato i semiquadri in istanti diversi, il fotogramma possiede al suo interno un'immagine che non si riferisce allo stesso istante, e questo si nota se per esempio un soggetto è in movimento, di solito c'è un effetto chiamato spettinatura, tipico dell'interlacciato.
Proprio per questa caratteristica, ritengo che allo stato attuale il 1080i nelle trasmissioni digitali sia migliore rispetto al 1080p, perché avendo una frequenza di cattura della realtà di 50 Hz (50 volte/s) all'occhio sembra più fluido!
Vero poi che c'è il problema della spettinatura dell'immagine, ma la gran parte delle TV posseggono un deinterlacer interno che elimina questo problema.
Qualcuno potrebbe però obiettare che durante la visione in 1080i si nota una definizione minore rispetto al 1080p. Questo è vero, ma è anche vero che, per esempio, in eventi sportivi ciò che conta maggiormente è la fluidità delle immagini, perché c'è molto movimento, quindi il 1080i è più indicato.
Per quanto riguarda i film, essendo essi a 24 fps, e quindi accelerati a 25 per la trasmissione digitale, che li si trasmetta a 1080i o a 1080p, non cambia nulla.
Capisco che ciò che sovrasta il 1080i@50Hz è il 1080p@50Hz, però quest'ultimo richiede troppa banda e per ora per le trasmissioni digitali non se ne fa nulla, quindi se proprio si deve fare una comparazione tra 1080i e 1080p in ambito digitale, la si deve fare tra formati che effettivamente sono utilizzabili, e quindi tra 1080i@50Hz e 1080p@25Hz, e il primo secondo me vince sul secondo.
Sempre considerando questa comparazione, vorrei anche sfatare il mito per il quale il 1080p non è possibile trasmetterlo sul DTT. In realtà è il 1080p@50Hz a non poter essere trasmesso, ma il 1080p@25Hz si.
Una trasmissione 1080i@50Hz è dotata di 1920x540 px catturati ogni 1/50 di secondo, quindi in totale 1920x540x50=51.840.000 pixel in un secondo.
Una trasmissione 1080p@25Hz è dotata di 1920x1080 px catturati ogni 1/25 di secondo, quindi in totale 1920x1080x25=51.840.000 pixel in un secondo.
Quindi come si può vedere, il risultato è lo stesso. Si può trasmettere in 1080p, ma non lo si fa perché il 1080i rende meglio.
Altro discorso invece il 1080p@50Hz: 1920x1080x50=103.680.000 pixel in un secondo, il doppio dei precedenti.
Mi riterrei abbastanza sicuro di questo ragionamento (scaturito dal fatto che non mi capacitavo di come i canali DTT 1080i mi sembravano più fluidi rispetto a contenuti 1080p visualizzati tramite HDMI sul mio TV FullHD), tuttavia volevo una conferma dai più esperti qui presenti. È giusto oppure in qualche passaggio mi sono perso qualcosa?
Vorrei sottoporre in questa discussione un mio ragionamento sulle differenze tra 1080i e 1080p nell'ambito delle trasmissioni televisive.
Se si andasse a chiedere quale formato sia migliore, la maggior parte su questo forum risponderebbe il 1080p.
In generale sarebbe vero, ma nell'ambito delle trasmissioni digitali televisive, sarebbe corretto rispondere in questo modo?
Sono sicuro che molti risponderebbero di si anche in questo ambito, tuttavia quando si tratta di tali argomenti bisognerebbe tenere conto della realtà dei fatti, e quindi confrontare solo ciò che i broadcaster sono in grado di trasmettere e non tenere conto di formati tuttora impraticabili.
Tutte (o quasi?) le trasmissioni HD sono a 25 fotogrammi/s. Ciò significa che vengono trasmessi 25 fotogrammi in un secondo, ma questo può portare i più a pensare che il flusso di informazioni riporti una sequenza che è stata catturata 25 volte in un secondo. Non è sempre così.
Il 1080p trasmette 25 fotogrammi al secondo ed essendo progressivo trasmette sequenze di immagini che sono state catturate 25 volte in un secondo. Ogni fotogramma è composto da 1920x1080 px.
Il 1080i trasmette ugualmente 25 fotogrammi in un secondo, ma essendo interlacciato possiede la caratteristica di veicolare sequenze che sono state catturate 50 volte in un secondo. Questa è una differenza sostanziale.
Una breve spiegazione? Ogni 1/50 di secondo nel 1080i si cattura la realtà, ma la differenza è che nel farlo non si cattura tutto il fotogramma, ma solo la metà, chiamato semiquadro. I semiquadri in alternanza fanno riferimento a righe pari e dispari. Per esempio, nell'istante iniziale, ovvero il 1° 1/50 di secondo, si cattura la realtà imprimendola sulle righe dispari del fotogramma, nell'istante successivo, ovvero il 2° 1/50 di secondo, si cattura la realtà imprimendola sulle righe pari, poi ancora, 3° 1/50 righe dispari, 4° 1/50 righe pari, e così via...
Unendo righe pari e dispari si forma il fotogramma catturato in 1/25 di secondo. Ovvio che avendo catturato i semiquadri in istanti diversi, il fotogramma possiede al suo interno un'immagine che non si riferisce allo stesso istante, e questo si nota se per esempio un soggetto è in movimento, di solito c'è un effetto chiamato spettinatura, tipico dell'interlacciato.
Proprio per questa caratteristica, ritengo che allo stato attuale il 1080i nelle trasmissioni digitali sia migliore rispetto al 1080p, perché avendo una frequenza di cattura della realtà di 50 Hz (50 volte/s) all'occhio sembra più fluido!
Vero poi che c'è il problema della spettinatura dell'immagine, ma la gran parte delle TV posseggono un deinterlacer interno che elimina questo problema.
Qualcuno potrebbe però obiettare che durante la visione in 1080i si nota una definizione minore rispetto al 1080p. Questo è vero, ma è anche vero che, per esempio, in eventi sportivi ciò che conta maggiormente è la fluidità delle immagini, perché c'è molto movimento, quindi il 1080i è più indicato.
Per quanto riguarda i film, essendo essi a 24 fps, e quindi accelerati a 25 per la trasmissione digitale, che li si trasmetta a 1080i o a 1080p, non cambia nulla.
Capisco che ciò che sovrasta il 1080i@50Hz è il 1080p@50Hz, però quest'ultimo richiede troppa banda e per ora per le trasmissioni digitali non se ne fa nulla, quindi se proprio si deve fare una comparazione tra 1080i e 1080p in ambito digitale, la si deve fare tra formati che effettivamente sono utilizzabili, e quindi tra 1080i@50Hz e 1080p@25Hz, e il primo secondo me vince sul secondo.
Sempre considerando questa comparazione, vorrei anche sfatare il mito per il quale il 1080p non è possibile trasmetterlo sul DTT. In realtà è il 1080p@50Hz a non poter essere trasmesso, ma il 1080p@25Hz si.
Una trasmissione 1080i@50Hz è dotata di 1920x540 px catturati ogni 1/50 di secondo, quindi in totale 1920x540x50=51.840.000 pixel in un secondo.
Una trasmissione 1080p@25Hz è dotata di 1920x1080 px catturati ogni 1/25 di secondo, quindi in totale 1920x1080x25=51.840.000 pixel in un secondo.
Quindi come si può vedere, il risultato è lo stesso. Si può trasmettere in 1080p, ma non lo si fa perché il 1080i rende meglio.
Altro discorso invece il 1080p@50Hz: 1920x1080x50=103.680.000 pixel in un secondo, il doppio dei precedenti.
Mi riterrei abbastanza sicuro di questo ragionamento (scaturito dal fatto che non mi capacitavo di come i canali DTT 1080i mi sembravano più fluidi rispetto a contenuti 1080p visualizzati tramite HDMI sul mio TV FullHD), tuttavia volevo una conferma dai più esperti qui presenti. È giusto oppure in qualche passaggio mi sono perso qualcosa?