Lorenzo ti faccio un esempio banale così da dimostrarti come il mio ragionamento è giusto e non campato in aria.
Immagina di avere un video in DVD ad alta qualità a risoluzione 720x576 che vuoi mettere su PC come backup.
Lo spazio che puoi utilizzare però non è molto. diciamo massimo 1GB.
Cosa succede quando scegli il formato di output ?
manterrai risoluzione e bitrate uguali ? credo proprio di no.
La prima cosa che si prova è di usare bitrate minore senza modificare la risoluzione.
Così facendo si perde di qualità ma almeno si mantiene la risoluzione originale.
Il filmato entra in 1GB da quei 4.5GB di partenza.
Ora vedendolo su PC alla risoluzione originale 720x576 noti molti artefatti.
Portandolo su un dvd player collegato in scart RGB noti ancora questi artefatti.
Allora procedi con altra strada, stesso metodo (uguale risoluzione, minore bitrate) ma diverso codec. Prima era uguale all'originale (MPEG2), ora passi al divx (Mpeg4). In questo modo a parità di dimensione finale riesci a impostare un bitrate superiore a prima ma cmq inferiore all'originale.
Risultato ?
Su pc si vede meglio ma ci sono ancora un pò di artefatti, su tv lo vedi meglio e gli artefatti si notano pochissimo , grazie al RGB scart.
Ora se il metodo applicato viene utilizzato su materiale HD , non può bastare assolutamente di lasciare la risoluzione originale e neanche , anzi mai, il bitrate originale.
Un passo è che si interviene sul bitrate e si diminuisce lo spazio occupato dalla risoluzione utilizzando il 1080i (interlacciato) al posto del 1080p (progressivo).
In questo modo vista la grande e alta risoluzione che copre molto di più di un semplice 720x576, il bitrate usato per il DVD non andrà più bene perchè per coprire tutto lo spazio della risoluzione HD di 1080i in modo ottimale ci vouole più bitrate e quindi più spazio. Ma siccome lo spazio a disposizione è sempre 1GB, ecco che si va a purtroppo a rovinare per l'elevata compressione rispetto all'originale il filmato che si vuole mandare in onda.
Ora, se al tv io lascio la stessa risoluzione di 1080i avrò che la risoluzione è alta e quindi i particolari sono molto dettagliati perchè il bitrate in questo caso basta e avanza, ma per tutto il resto delle scene magari in movimento, sarà un disastro perchè il bitrate non ce la fa a coprire tutto lo spazio necessario.
Quindi riducendo a 1280x720p non si fa altro che diminuire la risoluzione portandola a un livello più vicino e consono a quel bitrate, i pixels in questo modo sono più sovrapposti sia per il discorso dell'abbassamento di risoluzione che per il passagio da interlacciato a progressivo, con il risultato di una diminuizione di dettaglio inevitabile ma anche di una diminuizione di artefatti.
altro esempio, scatta una foto a 1MegaPixel a risoluzione 800x600, poi portala a risoluzione 1920x1280, non ci sarà NR che tenga, non potrai mai avere un dettaglio da vero 1920x1280 perchè i megapixel utilizzati sono troppo pochi, e un buon programma da effetto non farà altro che concentrarli nei punti chiave tralasciando il resto.
questo che ti ho citato come esempi è quello che alla fine fa SKY ITALIA.
Quindi evitiamo paranoie varie tra 1080i e 720p, perchè in casi diversi da SKY è sicuro e sono d'accordo col tuo ragionamento, qui invece si sta cercando di trovare una soluzione per evitare di vedere l'effetto del 256 colori.
saluti
Immagina di avere un video in DVD ad alta qualità a risoluzione 720x576 che vuoi mettere su PC come backup.
Lo spazio che puoi utilizzare però non è molto. diciamo massimo 1GB.
Cosa succede quando scegli il formato di output ?
manterrai risoluzione e bitrate uguali ? credo proprio di no.
La prima cosa che si prova è di usare bitrate minore senza modificare la risoluzione.
Così facendo si perde di qualità ma almeno si mantiene la risoluzione originale.
Il filmato entra in 1GB da quei 4.5GB di partenza.
Ora vedendolo su PC alla risoluzione originale 720x576 noti molti artefatti.
Portandolo su un dvd player collegato in scart RGB noti ancora questi artefatti.
Allora procedi con altra strada, stesso metodo (uguale risoluzione, minore bitrate) ma diverso codec. Prima era uguale all'originale (MPEG2), ora passi al divx (Mpeg4). In questo modo a parità di dimensione finale riesci a impostare un bitrate superiore a prima ma cmq inferiore all'originale.
Risultato ?
Su pc si vede meglio ma ci sono ancora un pò di artefatti, su tv lo vedi meglio e gli artefatti si notano pochissimo , grazie al RGB scart.
Ora se il metodo applicato viene utilizzato su materiale HD , non può bastare assolutamente di lasciare la risoluzione originale e neanche , anzi mai, il bitrate originale.
Un passo è che si interviene sul bitrate e si diminuisce lo spazio occupato dalla risoluzione utilizzando il 1080i (interlacciato) al posto del 1080p (progressivo).
In questo modo vista la grande e alta risoluzione che copre molto di più di un semplice 720x576, il bitrate usato per il DVD non andrà più bene perchè per coprire tutto lo spazio della risoluzione HD di 1080i in modo ottimale ci vouole più bitrate e quindi più spazio. Ma siccome lo spazio a disposizione è sempre 1GB, ecco che si va a purtroppo a rovinare per l'elevata compressione rispetto all'originale il filmato che si vuole mandare in onda.
Ora, se al tv io lascio la stessa risoluzione di 1080i avrò che la risoluzione è alta e quindi i particolari sono molto dettagliati perchè il bitrate in questo caso basta e avanza, ma per tutto il resto delle scene magari in movimento, sarà un disastro perchè il bitrate non ce la fa a coprire tutto lo spazio necessario.
Quindi riducendo a 1280x720p non si fa altro che diminuire la risoluzione portandola a un livello più vicino e consono a quel bitrate, i pixels in questo modo sono più sovrapposti sia per il discorso dell'abbassamento di risoluzione che per il passagio da interlacciato a progressivo, con il risultato di una diminuizione di dettaglio inevitabile ma anche di una diminuizione di artefatti.
altro esempio, scatta una foto a 1MegaPixel a risoluzione 800x600, poi portala a risoluzione 1920x1280, non ci sarà NR che tenga, non potrai mai avere un dettaglio da vero 1920x1280 perchè i megapixel utilizzati sono troppo pochi, e un buon programma da effetto non farà altro che concentrarli nei punti chiave tralasciando il resto.
questo che ti ho citato come esempi è quello che alla fine fa SKY ITALIA.
Quindi evitiamo paranoie varie tra 1080i e 720p, perchè in casi diversi da SKY è sicuro e sono d'accordo col tuo ragionamento, qui invece si sta cercando di trovare una soluzione per evitare di vedere l'effetto del 256 colori.
saluti
Ultima modifica: