• Non sono ammesse registrazioni con indirizzi email temporanei usa e getta

1080i migliore del 1080p in ambito di trasmissioni televisive?

AverageItalian

Digital-Forum Gold Master
Registrato
15 Gennaio 2009
Messaggi
6.285
Salve a tutti.
Vorrei sottoporre in questa discussione un mio ragionamento sulle differenze tra 1080i e 1080p nell'ambito delle trasmissioni televisive.

Se si andasse a chiedere quale formato sia migliore, la maggior parte su questo forum risponderebbe il 1080p.
In generale sarebbe vero, ma nell'ambito delle trasmissioni digitali televisive, sarebbe corretto rispondere in questo modo?

Sono sicuro che molti risponderebbero di si anche in questo ambito, tuttavia quando si tratta di tali argomenti bisognerebbe tenere conto della realtà dei fatti, e quindi confrontare solo ciò che i broadcaster sono in grado di trasmettere e non tenere conto di formati tuttora impraticabili.

Tutte (o quasi?) le trasmissioni HD sono a 25 fotogrammi/s. Ciò significa che vengono trasmessi 25 fotogrammi in un secondo, ma questo può portare i più a pensare che il flusso di informazioni riporti una sequenza che è stata catturata 25 volte in un secondo. Non è sempre così.

Il 1080p trasmette 25 fotogrammi al secondo ed essendo progressivo trasmette sequenze di immagini che sono state catturate 25 volte in un secondo. Ogni fotogramma è composto da 1920x1080 px.
Il 1080i trasmette ugualmente 25 fotogrammi in un secondo, ma essendo interlacciato possiede la caratteristica di veicolare sequenze che sono state catturate 50 volte in un secondo. Questa è una differenza sostanziale.

Una breve spiegazione? Ogni 1/50 di secondo nel 1080i si cattura la realtà, ma la differenza è che nel farlo non si cattura tutto il fotogramma, ma solo la metà, chiamato semiquadro. I semiquadri in alternanza fanno riferimento a righe pari e dispari. Per esempio, nell'istante iniziale, ovvero il 1° 1/50 di secondo, si cattura la realtà imprimendola sulle righe dispari del fotogramma, nell'istante successivo, ovvero il 2° 1/50 di secondo, si cattura la realtà imprimendola sulle righe pari, poi ancora, 3° 1/50 righe dispari, 4° 1/50 righe pari, e così via...

Unendo righe pari e dispari si forma il fotogramma catturato in 1/25 di secondo. Ovvio che avendo catturato i semiquadri in istanti diversi, il fotogramma possiede al suo interno un'immagine che non si riferisce allo stesso istante, e questo si nota se per esempio un soggetto è in movimento, di solito c'è un effetto chiamato spettinatura, tipico dell'interlacciato.

Proprio per questa caratteristica, ritengo che allo stato attuale il 1080i nelle trasmissioni digitali sia migliore rispetto al 1080p, perché avendo una frequenza di cattura della realtà di 50 Hz (50 volte/s) all'occhio sembra più fluido!
Vero poi che c'è il problema della spettinatura dell'immagine, ma la gran parte delle TV posseggono un deinterlacer interno che elimina questo problema.
Qualcuno potrebbe però obiettare che durante la visione in 1080i si nota una definizione minore rispetto al 1080p. Questo è vero, ma è anche vero che, per esempio, in eventi sportivi ciò che conta maggiormente è la fluidità delle immagini, perché c'è molto movimento, quindi il 1080i è più indicato.

Per quanto riguarda i film, essendo essi a 24 fps, e quindi accelerati a 25 per la trasmissione digitale, che li si trasmetta a 1080i o a 1080p, non cambia nulla.

Capisco che ciò che sovrasta il 1080i@50Hz è il 1080p@50Hz, però quest'ultimo richiede troppa banda e per ora per le trasmissioni digitali non se ne fa nulla, quindi se proprio si deve fare una comparazione tra 1080i e 1080p in ambito digitale, la si deve fare tra formati che effettivamente sono utilizzabili, e quindi tra 1080i@50Hz e 1080p@25Hz, e il primo secondo me vince sul secondo.

Sempre considerando questa comparazione, vorrei anche sfatare il mito per il quale il 1080p non è possibile trasmetterlo sul DTT. In realtà è il 1080p@50Hz a non poter essere trasmesso, ma il 1080p@25Hz si.

Una trasmissione 1080i@50Hz è dotata di 1920x540 px catturati ogni 1/50 di secondo, quindi in totale 1920x540x50=51.840.000 pixel in un secondo.
Una trasmissione 1080p@25Hz è dotata di 1920x1080 px catturati ogni 1/25 di secondo, quindi in totale 1920x1080x25=51.840.000 pixel in un secondo.

Quindi come si può vedere, il risultato è lo stesso. Si può trasmettere in 1080p, ma non lo si fa perché il 1080i rende meglio.

Altro discorso invece il 1080p@50Hz: 1920x1080x50=103.680.000 pixel in un secondo, il doppio dei precedenti.

Mi riterrei abbastanza sicuro di questo ragionamento (scaturito dal fatto che non mi capacitavo di come i canali DTT 1080i mi sembravano più fluidi rispetto a contenuti 1080p visualizzati tramite HDMI sul mio TV FullHD), tuttavia volevo una conferma dai più esperti qui presenti. È giusto oppure in qualche passaggio mi sono perso qualcosa?
 
Per 1080p ... si intende generalmente 1080p@50Hz ed è possibile trasmetterlo anche sul DVB-T (con encoder ad-hoc), oltre che su DVB-T2. Ovviamente, rispetto al 1080i@50Hz servono quasi il doppio della banda (a parità di qualità/compressione) ... e decoder che lo supportino.
Per un broadcaster sicuramente allo stato attuale non è conveniente.

Un confronto tra 1080i@50Hz e un 1080p@50Hz è impari: il 1080p@50Hz è superiore (a patto di avere HW adeguato !). Video 1080p poco fluidi denotano qualche limite nei contenuti sorgente o nella catena HW utilizzata per la riproduzione (che non riesce a tenere il passo in termini di prestazioni).

Ovviamente contenuti 1080p@25Hz hanno una frequenza di refresh dimezzata (25 fotogrammi al secondo !) ... quindi risultano sicuramente "meno fluidi" di un 1080p@50Hz (50 fotogrammi al secondo) ... ;)

Tra un 1080p@25Hz e un 1080i@50Hz generalmente è preferibile il secondo (anche considerando che la maggior parte dei contenuti utilizzati è 1080i). ;)
 
3750... ha scritto:
Per 1080p ... si intende generalmente 1080p@50Hz ed è possibile trasmetterlo anche sul DVB-T (con encoder ad-hoc), oltre che su DVB-T2. Ovviamente, rispetto al 1080i@50Hz servono quasi il doppio della banda (a parità di qualità/compressione) ... e decoder che lo supportino.
Per un broadcaster sicuramente allo stato attuale non è conveniente.
Ecco, proprio per questo direi che sia giusto tenere conto di 1080i@50Hz e 1080p@25Hz quando si confrontano 1080i e 1080p.

Comunque io questa cosa l'ho notata riproducendo un film in 1080p sul mio TV. Vedevo le immagini meno fluide rispetto a Italia1HD o La7HD, che sono in 1080i.

Ma i film in 1080p li distribuiscono a 25 fps? Non potrebbero raddoppiare gli fps? In quel caso non ci starebbero su BluRayDisc?
 
I film 1080p su bluray sono a 24p cioè 23.976 fps. E' normale che il filmato risulti più lento. La scelta è dovuta al formato cinematografico in quanto il bluray è quanto di più fedele ci possa essere. Ricordo però che cameron si è lamentato dei 24p e volesse proporre di portare lo standard a 60fps.
Il problema rimane sempre lo stesso, più frames=più peso=più banda richiesta ;)

@3750: per gli eventi sportivi non sarebbe meglio trasmettere un 720p?
 
AverageItalian ha scritto:
Comunque io questa cosa l'ho notata riproducendo un film in 1080p sul mio TV. Vedevo le immagini meno fluide rispetto a Italia1HD o La7HD, che sono in 1080i.
Se in entrambi i casi ti riferisci a film la differenza di fluidità potrebbe essere imputabile al tuo TV :eusa_think:

Mi spiego:
I Bluray sono registrati a 1080p a 24 fotogrammi (pari pari la pellicola) mentre i telecine per la TV sono a registrati 1080i a 50 semiquadri (ottenuti da 25 fotogrammi), la differenza di un fotogramma è ottenuta semplicemente accelerando di un fotogramma al secondo rispetto alla pellicola senza aggiungere o togliere nulla, per cui come fluidità siamo praticamente pari.
Questo se il TV tratta correttamente i 24 fotogrammi portando la frequenza di scansione a 48 o 72 Hz tramite semplice duplicazione o triplicazione, ma se il TV li lavora alla membro di segugio applicando il 2:3 pulldown per portare la frequenza di scansione a 60 o 120 Hz alla maniera come lavorava l'americano NTSC (cioè aggiungendo fotogrammi fittizi ogni secondo) allora il risultato è una fluidità sicuramente precaria.
 
ati ha scritto:
@3750: per gli eventi sportivi non sarebbe meglio trasmettere un 720p?
Se a 50 Hz, sicuramente!

Dingo 67 ha scritto:
Se in entrambi i casi ti riferisci a film la differenza di fluidità potrebbe essere imputabile al tuo TV :eusa_think:

Mi spiego:
I Bluray sono registrati a 1080p a 24 fotogrammi (pari pari la pellicola) mentre i telecine per la TV sono a registrati 1080i a 50 semiquadri (ottenuti da 25 fotogrammi), la differenza di un fotogramma è ottenuta semplicemente accelerando di un fotogramma al secondo rispetto alla pellicola senza aggiungere o togliere nulla, per cui come fluidità siamo praticamente pari.
Questo se il TV tratta correttamente i 24 fotogrammi portando la frequenza di scansione a 48 o 72 Hz tramite semplice duplicazione o triplicazione, ma se il TV li lavora alla membro di segugio applicando il 2:3 pulldown per portare la frequenza di scansione a 60 o 120 Hz alla maniera come lavorava l'americano NTSC (cioè aggiungendo fotogrammi fittizi ogni secondo) allora il risultato è una fluidità sicuramente precaria.
Credo tu abbia ragione...in effetti tramite HDMI vedo sempre che la frequenza è 60 Hz quando riproduco un film...:eusa_wall:

Dici che per vederlo più fluido gli debbo cambiare il framerate a 25 (e di conseguenza accelerare anche la traccia audio)?
 
Se il tuo TV (come il mio) non gestisce o gestisce male i 24p non c'è nulla da fare a meno di non "lavorare" il film per portarlo a 25p.

Logicamente questo non può essere fatto in real time tramite il player (Bluray o Mediaplayer che sia) ma solo ricomprimendo l'audio col PC e nel contempo aggiustando il flag del frame/rate al video.
Cosa banalissima quando si ha ha che fare con il contenitore MKV ma più complessa se si parte da un BluRay.
 
@Ati: per quanto riguarda la trasmissione a 720p per Timb, come ho già risposto nel thread relativo alla copertura del FVG, gli encoder Timb sono configurati per gestire automaticamente il 1080i (default) o il 720p, in base al contenuto in ingresso.
In caso di eventi nativi a 720p, la risoluzione trasmessa sarebbe appunto di 720p. Finora, tutti i contenuti trasmessi sono stati a 1080i. ;)
 
3750... ha scritto:
@Ati: per quanto riguarda la trasmissione a 720p per Timb, come ho già risposto nel thread relativo alla copertura del FVG, gli encoder Timb sono configurati per gestire automaticamente il 1080i (default) o il 720p, in base al contenuto in ingresso.
In caso di eventi nativi a 720p, la risoluzione trasmessa sarebbe appunto di 720p. Finora, tutti i contenuti trasmessi sono stati a 1080i. ;)
Ma stai parlando di 720p@50Hz?
 
Indietro
Alto Basso