• Non sono ammesse registrazioni con indirizzi email temporanei usa e getta

1080i su 768p

-Sandro-

Digital-Forum Silver Master
Registrato
11 Settembre 2005
Messaggi
2.454
Località
Pianella (PE)
Domanda che mi sono sempre chiesto. Considerando fantasticamente che ho due pannelli che mostrano un'immagine allo stesso identico modo ma uno è hd ready 1366x768p e l'altro è 1920x1080p se io visualizzo un video 1080i noto una differenza di risoluzione?

1080i trasporta teoricamente metà pixel di 1080p perché interlacciato quindi 1920x1080 = 2073600/2 = 1.036.800 reali. Un video 720p trasporta con se 921.600 pixel. Quindi un video 1080i in confronto al 720p dovrebbe portare circa 11% in più di risoluzione.

Il pannello 1366x768 può mostrare 1.049.088 pixel, secondo i calcoli un 768p sarebbe quindi capace di mostrare tutti i pixel del 1080i, è giusto?

I conti ridanno, ma non ridanno per il 1440x1080i che andando a vedere trasporterebbe meno di un 720p, cosa che a me non sembra possibile ma può essere probabile anche se a questo punto non si parla più di HD.
Come si può quantificare una risoluzione rispetto ad un'altra? A me l'interlacciamento di confonde:D
 
-Sandro- ha scritto:
Il pannello 1366x768 può mostrare 1.049.088 pixel, secondo i calcoli un 768p sarebbe quindi capace di mostrare tutti i pixel del 1080i, è giusto?
La risoluzione del 1080i è 1920x1080, e 1920 colonne per forze di cose non stanno tutte in 1366. Quindi il 768 perderebbe in risoluzione orizzontale, ma avrebbe più risoluzione verticale... però "inventata" (540->768).

Ammesso e non concesso che si possa parlare del 1080i spezzandolo in 2, ma come te con l'argomento interlacciamento ho qualche difficoltà.
-Sandro- ha scritto:
I conti ridanno, ma non ridanno per il 1440x1080i che andando a vedere trasporterebbe meno di un 720p, cosa che a me non sembra possibile ma può essere probabile anche se a questo punto non si parla più di HD.
BBC HD, che viene considerato tra i migliori canali HD, trasmette proprio a 1440x1080i, quindi mi sa che nel ragionamento c'è qualcosa che non va :eusa_think:
 
Tra 1080i & 1080p non c'è differenza nel numero di pixel statici ma piuttosto nella risoluzione dinamica; provo a spiegarmi:

-nel caso progressivo l'immagine viene scandita 50 volte al secondo da sinistra a destra e dall'alto verso il basso

- nel caso interlallacciato l'immagine viene scandita sempre 50 volte al secondo ma in due passaggi (semiquadri) uno per le righe pari ed uno per le dispari; non è proprio esatto ma potrei dire che la risuluzione statica è equivalente al 1080p mentre quella dinamica è 25 quadri al secondo quindi la metà.

Per dare l'idea, se non vengono applicati algoritmi di dis-interlacciamento, nel caso p un giocatore di calcio inquadrato da lontano e che corresse orizzontalmente apparirebbe "intero" nel caso p e "tagliato a fettine" nel caso i a causa dei diversi istanti (10ms di differenza) nei quali i semiquadri pari e dispari sono ripresi
 
Nei TV con pannelli digitali, i pixel vengono accesi tutti insieme quando l'immagine è completa, cioè, in caso di segnale interlacciato, quando sono stati ricevuti i 2 semiquadri. Ciò avviene sia nel caso di trasmissione digitale HD sia nel caso di trasmissione SD, sia digitale che analogica.
Il fatto che il segnale interlacciato debba essere sempre trasformato in progressivo prima di essere inviato al pannello è un'operazione che può essere fatta, meglio o peggio, a seconda dell'elettronica utilizzata dal TV.
Sicuramente, dato che ricombinare due semiquadri non produce mai un'immagine perfetta (c'è sempre un'effetto seghettatura), specie nelle immagini in rapido movimento, una trasmissione (p) è migliore di una (i).
(...la minore latenza di un pannello plasma rispetto all'LCD non serve a nulla in caso di immagini (i) in rapido movimento se l'elettronica del TV non è all'altezza)
Ovviamente, quando il TV è di fascia bassa, se esiste la possibilità di trasformare il segnale da (i) a (p) esternamente con un dispositivo di qualità superiore (es decoder) è meglio farlo.
....sempre che ciò sia possibile, perchè non tutti i TV HD hanno ingressi digitali che supportano i 1080p.
;)
 
No, un immagine 1080i ed una 1080p hanno esattamente gli stessi pixel.;)
La differenza è soltanto che le due metà dell'immagine sono costruite in tempi diversi e, se c'è movimento, in un segnale (i) un semiquadro è leggermente traslato rispetto all'altro, con l'effetto che eventuali linee verticali risultano (leggermente) seghettate.:evil5:

-Sandro- ha scritto:
1080i trasporta teoricamente metà pixel di 1080p perché interlacciato
 
Quindi se io vedo un immagine deinterlacciata 1080i e una 1080p hanno lo stesso dettaglio?

A questo punto se 1080i contiene lo stesso numero di pixel del progressivo su 768p si perde metà risoluzione
 
Si, I e P hanno lo stesso numero di pixel quindi se hai un ingresso 1080i e lo scali a 768p perdi risoluzione (metà pixel) e qualità (quì quanto perdi dipende dagli algoritmi utilizzati);
 
grf ha scritto:
Si, I e P hanno lo stesso numero di pixel quindi se hai un ingresso 1080i e lo scali a 768p perdi risoluzione (metà pixel) e qualità (quì quanto perdi dipende dagli algoritmi utilizzati);

Allora con l'impostazione del decoder di skyhd conviene tenere 1080i pur perdendo in termini di risoluzione per chi ha tv a 768p o mettere su 720p e quindi non perdere niente in termini di risoluzione?
Con il mio tv (768p) riesco a vedere meglio con l'impostazione 1080i, questo fatto dipende, secondo me, dal fatto che sky trasmette l'hd in 1080i!
 
...è verosimile che l'operazione di deinterlaccio/scaling venga fatta meglio dall'elettronica del TV che dal decoder di SKY.
Ciò avviene se si imposta il decoder alla risoluzione/modalità di trasmissione.
 
Se hanno la stessa risoluzione, per quale motivo Directv vuole usare 1080p full hd? Se in 1080i puoi avere la stessa risoluzione a metà banda sarebbe un suicidio commerciale inutile
 
...nessuno ha detto che un segnale 1080p sia qualitativamente uguale ad uno 1080i. In termini di risoluzione, però, sono assolutamente la stessa cosa.
In termini di qualità, 1080p è sicuramente meglio di 1080i. (ad es. con un'immagine progressiva non c'è l'effetto seghettatura)
Attenzione a non fissarsi sulla risoluzione, a non prenderla a metro di giudizio assoluto del segnale, perchè da sola, la risoluzione, non è affatto garanzia di maggiore definizione o di migliore qualità.
Detto questo, i 1080p di Direct TV sono una cosa un po' particolare (e di cui si è già discusso abbastanza approfonditamente in altro TD).
http://www.digital-forum.it/showpost.php?p=851096&postcount=34
...per semplificare e riassumere quel TD, si può codificare e trasmettere un segnale 1080p utilizzando la stessa banda necessaria per i 1080i. L'operazione riesce benissimo su materiale originalmente "p" (i film), sul resto, cioè dove si deve codificare in tempo reale, ci sono problemi a dare una qualità "p" anche trasmettendo "p".
;)
 
Ultima modifica:
Lo so di non fissarsi, ma voglio capire :evil5: Io invece sono dell'idea che alla fine l'immagine 1080i essendo virtualmente creata, la risoluzione in realtà non c'è tutta. Quindi verrebbe un 1920x540 che è appunto 1080p/2 che è però superiore in risoluzione a 720p
 
No, guarda che sbagli l'approccio mentale; tu pensi in due dimensioni (pixel), devi aggiungere la terza (tempo).:merror:

Il 1080i ha 1080 linee orizzontali esattamente come il 1080p, però in 1 secondo l'immagine completa è rinfrescata per metà volte.

Questo si traduce su oggetti in movimento (quelli statici sono uguali) in una perdita di definizione che senza filtri digitali diventa una scalettatura dell'immagine e con i filtri in una sfuocatura; pensa ad una foto di una macchina in movimento fatta con 1/125s o con 1/60.:evil5: :XXcomputer:
 
Con un ottimo televisore HDReady (quindi pannello 1.366 x 768p) io ottengo immagini praticamente di pari qualità con ingresso dal decoder con risoluzioni ORIGINALE o 1080i. Nel secondo caso però l'uscita in HDMI mi blocca il formato immagine sul 16/9 allargato tipico dell'HD.
Quindi tutte le immagini non HD o 16/9 mi risultano intollerabilmente deformate, poiché uso l'ingresso HDMI per tutti i canali provenienti dal decoder.

saluti2in5.jpg
wave1.gif
 
Oscarre ha scritto:
Con un ottimo televisore HDReady (quindi pannello 1.366 x 768p) io ottengo immagini praticamente di pari qualità con ingresso dal decoder con risoluzioni ORIGINALE o 1080i. Nel secondo caso però l'uscita in HDMI mi blocca il formato immagine sul 16/9 allargato tipico dell'HD.
Quindi tutte le immagini non HD o 16/9 mi risultano intollerabilmente deformate, poiché uso l'ingresso HDMI per tutti i canali provenienti dal decoder.

saluti2in5.jpg
wave1.gif

Stesso problema anche per me con l'hdmi impostata a 1080i, però lo risolvo vedendo i canali sd tramite scart, che tra l'altro riesco a vederli pure meglio!
Per quando riguarda il settaggio originale e 1080i sono la stessa cosa perchè tutte le trasmissioni in hd di sky sono in 1080i!
 
ragazzi ci ho capito ben poco :mad: ma allora col mio tv che supporta 1080p quale opzione migliore devo settare nello skybox hd?
 
Ti suggerisco di settare il decoder Sky HD su 1080i.
 
Indietro
Alto Basso