Salve, volevo sapere: a parità di televisione, decoder, etc, la qualità dell'immagine è dipendente dall'intensità del segnale?Mi spiego meglio.
Prendiamo la potenza e la qualità del segnale da 1 a 10 (tipo le barrette che ci sono nel test sintonia del mysky).
Uno con segnale 10 qualità 10; uno con segnale 5 qualità 5, uno segnale 2 qualità 2, SE l'immagine si vede, è sempre per tutti al 100% delle sue potenzialità (soprattutto sui canali HD)? Intendo proprio come qualità dell'immagine.
Io sapevo che l'immagine digitale a contrario del vecchio analogico, funziona che quando il segnale è sufficiente allora l'immagine si vede, altrimenti non si vede proprio.100% o 0%.
Però questo contraddice il fatto che durante dei temporali quando è facile perdere il segnale, invece di un blackout totale del canale, si vedono a volte delle brevissime squadrettature o interferenze, come se la qualità del canale oscillasse.
Grazie mille per i chiarimenti.
Sent from my iPhone 5
Prendiamo la potenza e la qualità del segnale da 1 a 10 (tipo le barrette che ci sono nel test sintonia del mysky).
Uno con segnale 10 qualità 10; uno con segnale 5 qualità 5, uno segnale 2 qualità 2, SE l'immagine si vede, è sempre per tutti al 100% delle sue potenzialità (soprattutto sui canali HD)? Intendo proprio come qualità dell'immagine.
Io sapevo che l'immagine digitale a contrario del vecchio analogico, funziona che quando il segnale è sufficiente allora l'immagine si vede, altrimenti non si vede proprio.100% o 0%.
Però questo contraddice il fatto che durante dei temporali quando è facile perdere il segnale, invece di un blackout totale del canale, si vedono a volte delle brevissime squadrettature o interferenze, come se la qualità del canale oscillasse.
Grazie mille per i chiarimenti.
Sent from my iPhone 5