-Sandro-
Digital-Forum Silver Master
Domanda che mi sono sempre chiesto. Considerando fantasticamente che ho due pannelli che mostrano un'immagine allo stesso identico modo ma uno è hd ready 1366x768p e l'altro è 1920x1080p se io visualizzo un video 1080i noto una differenza di risoluzione?
1080i trasporta teoricamente metà pixel di 1080p perché interlacciato quindi 1920x1080 = 2073600/2 = 1.036.800 reali. Un video 720p trasporta con se 921.600 pixel. Quindi un video 1080i in confronto al 720p dovrebbe portare circa 11% in più di risoluzione.
Il pannello 1366x768 può mostrare 1.049.088 pixel, secondo i calcoli un 768p sarebbe quindi capace di mostrare tutti i pixel del 1080i, è giusto?
I conti ridanno, ma non ridanno per il 1440x1080i che andando a vedere trasporterebbe meno di un 720p, cosa che a me non sembra possibile ma può essere probabile anche se a questo punto non si parla più di HD.
Come si può quantificare una risoluzione rispetto ad un'altra? A me l'interlacciamento di confonde
1080i trasporta teoricamente metà pixel di 1080p perché interlacciato quindi 1920x1080 = 2073600/2 = 1.036.800 reali. Un video 720p trasporta con se 921.600 pixel. Quindi un video 1080i in confronto al 720p dovrebbe portare circa 11% in più di risoluzione.
Il pannello 1366x768 può mostrare 1.049.088 pixel, secondo i calcoli un 768p sarebbe quindi capace di mostrare tutti i pixel del 1080i, è giusto?
I conti ridanno, ma non ridanno per il 1440x1080i che andando a vedere trasporterebbe meno di un 720p, cosa che a me non sembra possibile ma può essere probabile anche se a questo punto non si parla più di HD.
Come si può quantificare una risoluzione rispetto ad un'altra? A me l'interlacciamento di confonde