• Non sono ammesse registrazioni con indirizzi email temporanei usa e getta

Gli amplificatori di antenna nell'era del DTT: consigli per i meno esperti

miram ha scritto:
Appunto, tu come ridurresti il rumore in antenna? Con accoppiamenti multipli? Io pensavo che antenne molto direttive avessero anche rumore di fondo maggiore! Non è così? A questo punto sarebbe meglio avere antenne molto lunghe e direttive, quindi sempre 90 elementi...
MA NO, come fa un'antenna ad avere rumore?
magari dico una cavolata, ma è contrario alle poche idee chiare che ho sempre avuto...
 
ah, se vuoi dire che raccolgono più interferenze ambientali dovrebbe essere il contrario, specialmente se sono direttive anche sul piano verticale, il che, per inciso, si ottiene appunto accoppiando antenne, ATTENZIONE: accoppiamento accordato.
 
Infatti, capterebbe il rumore di fondo e lo amplificherebbe di più! Accoppiamento accordato... SAREBBE?
 
miram ha scritto:
Infatti, capterebbe il rumore di fondo e lo amplificherebbe di più! Accoppiamento accordato... SAREBBE?
non ci siamo capiti affatto: tu con la direttività massimizzi il segnale utile a scapito del rumore di fondo...
 
L'accoppiamento per me è proponibile con buoni risultati NON a larga banda, ma ottimizzandolo su un canale (per esempio il 39 se il problema è la Svizzera...)
 
Tuner ha scritto:
E' bene sottolineare che non porta benefici amplificare, anche usando preamplificatori con bassa figura di rumore, se il livello del segnale utile in antenna è troppo basso rispetto al rumore di banda.
Parlando di "rumore" si deve pensare ad una potenza. Se la potenza del rumore che arriva dall'antenna è maggiore rispetto a quella della catena amplificatrice, la temperatura di rumore del sistema equivale al segnale dall'antenna, indipendentemente dalla figura di rumore dell'amplificatore.
In altre parole, per poter sfruttare un amplificatore con una bassissima temperatura di rumore è indispensabile usarlo con un'antenna che ne abbia una migliore, ovvero in una zona "silenziosa", altrimenti è inutile.
Trovarsi in una zona così "silenziosa" e con un'antenna così direzionale da poter beneficiare di figure di rumore da 1 dB è una condizione estremamente rara, oserei dire quasi impossibile, nel campo dei segnali televisivi.
Nel caso, i risultati più significativi si ottengono aumentando la direttività dell'antenna.
Minimizzare la figura di rumore della catena amplificatrice non guasta, ma non crediate usando NF da 1dB si "ripuliscano" i segnali.
;)

Vere tutte queste cose. Ma l'elemento che mi stuzzica e' il fatto che con i TV con DTT integrato si vede benissimo (no rumore, no fastidi), quindi puo' significare che il segnale e' buono (altrimenti NON si vedrebbe bene con nessun apparecchio) e magari e' solo una questione di segnale basso, al punto che i DTT esterni NON riescono ad utilizzare, mentre invece i TV con DTT intergato - forse proprio perche' amplificano un po' il segnale al contrario dei DTT esterni - riescono ad utilizzarlo al meglio.
Non so... e' una mia supposizione. Volevo sapere se e' un ragionamento fallato (perche') oppure e' plausibile. Se e' plausibile che il segnale e' buono ma basso, a questo punto dovrebbe risolvere il problema alzare il guadagno attraverso un'amplificatore di segnale quel poco che basta senza esagerare per non peggiorare la qualita' dello stesso, ma renderlo pero' ricevibile dai DTT esterni. Mi sfugge qualcosa?

Grazie!
Max
 
areggio ha scritto:
L'accoppiamento per me è proponibile con buoni risultati NON a larga banda, ma ottimizzandolo su un canale (per esempio il 39 se il problema è la Svizzera...)
Beh, si questo è logico, limitando al massimo la banda si limita il rumore...
 
miram ha scritto:
Beh, si questo è logico, limitando al massimo la banda si limita il rumore...
Non stiamo adesso ossessivamente sul rumore, il problema è che si sporca il diagramma di radiazione....
 
areggio ha scritto:
Non stiamo adesso ossessivamente sul rumore, il problema è che si sporca il diagramma di radiazione....
Sai che stavo pensando la stessa cosa? Soprattutto per i lobi indesiderati!!!
 
Esatto, il punto da comprendere è proprio questo.
Se l'antenna non è sufficientemente direttiva, non può avere una bassa temperatura di rumore.
Questo succede se capta segnali da varie direzioni e sorgenti, che sono sia "umane" (volute e non volute) e cosmiche. In altre parole l'insieme indistinto di questi segnali è rumore per la catena ed anche collegando direttamente all'antenna un amplificatore "infinitamente silenzioso", questo rumore rimane, anzi, viene amplificato del guadagno.
Tornando alla pratica, se il rumore di fondo captato dall'antenna è superiore a 2dB equivalenti di NF, un amplificatore da 1dB NF risulterà del tutto inutile.
In altre parole, un'amplificatore da NF 1dB è un oggetto che ha senso applicare solo su antenne estremamente direttive, che in campo TV/Uhf non sono comuni.
;)

areggio ha scritto:
non ci siamo capiti affatto: tu con la direttività massimizzi il segnale utile a scapito del rumore di fondo...
 
maximilian_1972 ha scritto:
E' CONDIZIONE SUFFICIENTE QUESTA per dedurre che il segnale E' BUONO ma basso (e quindi un amplificatore di segnale risolverebbe la cosa)? Oppure il ragionamento e' sbagliato e la ragione del mal funzionamento dei DTT esterni potrebbe essere comunque legata alla scarsa qualita' del segnale? questo mi sembra strano pero', dato che se il segnale fosse veramente di scarsa qualita' non esisterebbe TV al mondo che, per quanto di qualita' ottima, riuscirebbe a ripristinare un segnale schifoso in origine e mostrare una visione perfetta. SBAGLIO?

Vi ringrazio.
Massimiliano

Ciao Massimiliano, cerco di farti capire la complessità del problema spiegando innanzitutto che il segnale digitale non può essere valutato, come accadeva per l'analogico, solo per il livello. Esiste anche quella che generalmente viene chiamata "qualità". Sono questi due parametri, livello e qualità, combinati fra loro, a dare la valutazione generale del segnale. Per semplicità, tv e decoder danno un'unica valutazione del segnale, giudicandolo OTTIMO, BUONO, SCARSO, ma questo non si riferisce al solo livello. Quindi, se un decoder informa Segnale debole non vuol dire per forza che vada aumentato il livello, l'unica cosa che si può fare con un amplificatore. Occorrerebbe avere una valutazione più dettagliata del segnale, che oltre al livello (che si misura in dBmicroV o in mV) dia almeno il BER (bit error rate) e magari anche il MER (margin error ratio). Quest'ultimo è un po' la summa dei vari parametri e si può usare per testare l'eventuale degrado del segnale nell'impianto. Si misura all'uscita antenna, cercando di ottenere con il puntamento e altri accorgimenti, il valore più alto (si misura in dB, con valori ottimali compresi fra 24 e 32, anche se si può scendere sotto i 20 con aggancio stabile comunque); poi si scende a misurare all'uscita del centralino, dei derivatori, fino alle prese. In questo modo, a prescindere dal livello che è ovviamente differente nei vari punti (iniziale all'uscita antenna, elevato all'uscita amplificatore, attenuato dopo derivatori e prese) si misura il degrado introdotto dall'impianto, in modo da poter intervenire per sanare eventuali anomalie o migliorare alcuni punti. Ciò premesso, vengo al tuo quesito: amplificare 'a valle' un segnale digitale quasi mai risolve i problemi di ricezione, a volte può peggiorarli poiché non era il livello a difettare ma il BER e l'amplificatore introduce, come hanno spiegato bene gli altri, altro rumore, cioè peggiora il BER. Si può tentare, nei casi in cui il difficile aggancio da parte del decoder dipenda da un livello ai limiti della norma ma vi sia un buon BER e MER, ma direi che solo in pochi casi va in questo modo. La soluzione è un impianto ben progettato, per avere segnale di livello e qualità ottimali a tutte le prese, e ben realizzato nella pratica per non vanificare il progetto. A volte basta sostituire un cavo coassiale di una certa lunghezza, magari troppo vecchio e usurato o con attenuazione e schermatura fuori norma per il dtt, che si raggiunge una qualità sufficiente dove prima era insufficiente.
 
Senza contare che anche la constatazione che alcuni apparecchi (il nostro amico diceva gli integrati) ricevano meglio di altri è sbagliato ricondurla al segnale in sè, anche considerato non solo in livello, in quanto si è visto che alcuni circuiti (parlo in generale perchè ce ne sono sia integrati in TV che in decoder esterni) si comportano meglio di altri nella correzione degli errori...
 
maximilian_1972 ha scritto:
Vere tutte queste cose. Ma l'elemento che mi stuzzica e' il fatto che con i TV con DTT integrato si vede benissimo (no rumore, no fastidi), quindi puo' significare che il segnale e' buono (altrimenti NON si vedrebbe bene con nessun apparecchio) e magari e' solo una questione di segnale basso, al punto che i DTT esterni NON riescono ad utilizzare, mentre invece i TV con DTT intergato - forse proprio perche' amplificano un po' il segnale al contrario dei DTT esterni - riescono ad utilizzarlo al meglio.
Non so... e' una mia supposizione. Volevo sapere se e' un ragionamento fallato (perche') oppure e' plausibile. Se e' plausibile che il segnale e' buono ma basso, a questo punto dovrebbe risolvere il problema alzare il guadagno attraverso un'amplificatore di segnale quel poco che basta senza esagerare per non peggiorare la qualita' dello stesso, ma renderlo pero' ricevibile dai DTT esterni. Mi sfugge qualcosa?

Grazie!
Max

Nella precedente risposta ho dimenticato di chiarire questo tuo dubbio. Dunque, mi riesce difficile postare una immagine, altrimenti tutto sarebbe più chiaro, ma cerco di spiegarmi. Immagina due assi cartesiani, il segnale analogico parte da 0 e sale, di livello, fino a che a un certo punto inizia a vedersi qualcosa nella nebbia... Poi continua a salire, con una curva, e le immagini sono via via più definite e chiare, fino a che risultano buone e ottime. Segnale digitale: si parte da 0 e si ha schermo nero, ma si continua ad avere schermo nero anche se il segnale sale (a differenza dell'analogico dove si intravvede qualcosa), fino a che non raggiunge la soglia minima, che sarebbe ancora insufficiente per avere una immagine di buona qualità con l'analogico, ma invece con il digitale dà subito una immagine al massimo della qualità. La linea che illustra la qualità dell'immagine al salire del livello diventa subito retta e non sale più anche se il livello del segnale continua a salire, come accade invece con l'analogico (+ livello = migliore immagine, fino al limite della saturazione). Dunque, abbiamo una retta che indica immagine ottima, ma - e qui viene il punto - se il segnale si trova nel primo tratto di questa retta (che si chiama margine di decodifica) può andare bene per un decoder e non per un altro, per un tv e non per un decoder. L'installatore deve fare in modo che il segnale vada "oltre" il margine di decodifica, situandosi al riparo da eventuali differenze fra gli apparecchi e da accidentali "cadute" (immagina come fosse un gradino, sopra si vede e sotto non si vede più, il segnale nn deve trovarsi sullo spigolo o poco distante da questo ma più oltre, al riparo). Ecco spiegato ildifferente comportamento che riscontri fra tv e decoder. Occorre portare il segnale ai parametri di norma per non avere differenze fra i vari apparecchi, economici o costosi che siano.
 
Ti hanno già spiegato, ma aggiungo anche il mio tentativo.;)
Il segnale digitale e quello analogico captati dall'antenna sono sostanzialmente uguali. La fisica delle antenne, i principi della propagazione, del rapporto S/N (C/N) non sono diversi.
Possiamo dire che con un segnale TV modulato analogico la qualità era proporzionale al rapporto fra livello di segnale utile e rumore, mentre con la modulazione digitale si può ottenere una ricezione "apparente" perfetta anche quando il segnale è molto debole.
Con il DTT esiste una soglia, cioè un vero e proprio "gradino" sotto il quale non si riceve nulla. Poco al di sopra di questa soglia l'immagine ed il suono vengono invece ricostruiti in modo "perfetto", non perchè lo siano, ma perchè il decoder riesce a "correggere" gli errori di ricezione.
Poichè questa soglia dipende anche dalle caratteristiche del decoder, penso non sia difficile capire che, con segnali mediocri od al limite, da un apparecchio all'altro possa cambiare la qualità di ricezione.
Non è tanto un discorso di livello del segnale e/o di amplificazione, quanto di efficienza di algoritmi e bontà di filtraggio nei circuiti del decoder.
;)

PS Se con un segnale analogico l'utente aveva la diretta percezione se la ricezione era ottimale, oppure buona, discreta, mediocre o insufficiente, con i segnali DTT, la qualità originaria del segnale che si sta ricevendo può essere rivelata solo in modo strumentale. Dall'immagine non si ricava nulla rispetto al lavoro di correzione di errore che il decoder sta effettuando. Tuttavia, a meno di guasti interni, il fatto che un decoder fornisca il segnale ed un altro non riesca nell'impresa ci fa intuire che siamo al limite. Un limite che però non possiamo comprendere in modo qualitativo e che potrebbe essere tutt'altra cosa di un segnale troppo basso nel livello, ad esempio un'interferenza.

maximilian_1972 ha scritto:
Vere tutte queste cose. Ma l'elemento che mi stuzzica e' il fatto che con i TV con DTT integrato si vede benissimo (no rumore, no fastidi), quindi puo' significare che il segnale e' buono (altrimenti NON si vedrebbe bene con nessun apparecchio) e magari e' solo una questione di segnale basso, al punto che i DTT esterni NON riescono ad utilizzare, mentre invece i TV con DTT intergato - forse proprio perche' amplificano un po' il segnale al contrario dei DTT esterni - riescono ad utilizzarlo al meglio.
 
Ultima modifica:
Grazie Piersan e Areggio,
il punto che non mi e' chiaro e' proprio questo: Immaginando che come ha detto nell'esempio Piersan, siamo all'inizio della linea retta (poco margine che puo' dare problemi con DTT a maggior soglia critica), avrebbe senso - mi chiedo - in questo caso specifico, amplificare un po' il segnale, dato che IPOTIZZO SIA BUONO, poiche' che con l'altro TV si vede BENONE? (e non perche' lo dice il messaggio, ma perche' lo vedo io con i miei occhi! Diciamo che sono pienamente soddisfatto della qualita' otenuta con il TV a DTT integrato!).

In altre parole, se il segnale fosse di scarsa qualita' (e quindi come da voi detto, l'amplificatore farebbe solo danni) avrei la certezza di vederlo male anche con l'altro TV con DTT integrato, no? E' una domanda da profano che usa troppa logica, forse, ma non riesco a capire dove falla il discorso...Il segnale NEL MIO CASO SPECIFICO, intendiamoci, DEDUCO che sia per forza buono, altrimenti NON si vedrebbe bene con nessun apparecchio.. cosa che invece non e' vera perche' sul TV con DTT integrato si vede benissimo.

Sono un po' duro, lo so, chiedo scusa, ma sarebbe utile per me sapere se e' una deduzione che regge oppure no.

Grazie infinite.
Max
 
maximilian_1972 ha scritto:
Grazie Piersan e Areggio,
il punto che non mi e' chiaro e' proprio questo: Immaginando che come ha detto nell'esempio Piersan, siamo all'inizio della linea retta (poco margine che puo' dare problemi con DTT a maggior soglia critica), avrebbe senso - mi chiedo - in questo caso specifico, amplificare un po' il segnale, dato che IPOTIZZO SIA BUONO, poiche' che con l'altro TV si vede BENONE? (e non perche' lo dice il messaggio, ma perche' lo vedo io con i miei occhi! Diciamo che sono pienamente soddisfatto della qualita' otenuta con il TV a DTT integrato!).

In altre parole, se il segnale fosse di scarsa qualita' (e quindi come da voi detto, l'amplificatore farebbe solo danni) avrei la certezza di vederlo male anche con l'altro TV con DTT integrato, no? E' una domanda da profano che usa troppa logica, forse, ma non riesco a capire dove falla il discorso...Il segnale NEL MIO CASO SPECIFICO, intendiamoci, DEDUCO che sia per forza buono, altrimenti NON si vedrebbe bene con nessun apparecchio.. cosa che invece non e' vera perche' sul TV con DTT integrato si vede benissimo.

Sono un po' duro, lo so, chiedo scusa, ma sarebbe utile per me sapere se e' una deduzione che regge oppure no.

Grazie infinite.
Max

Le risposte a quello che scrivi sono già contenute nelle esposizioni di Tuner e mia che trovi sopra. IN particolare, devi considerare che la famosa retta del segnale non è composta solo dal livello ma da un insieme di parametri che formano la qualità del segnale (in cui c'è anche il livello ma non solo), quindi per spostare il punto oltre il margine di decodifica degli apparecchi non basta amplificare. Poi, che a te sembra che il segnale sia ottimo sul tv perché vedi una immagine perfetta e stabile, ma non è detto che lo sia... come ha spiegato Tuner. La tv analogica era 'autodiagnosticante', tanto che molti antennisti potevano tranquillamente fare a meno del misuratore di campo e analizzatore di spettro (a Roma, ad esempio, dove c'era una situazione molto lineare con poche interferenze, segnali forti e palazzi di 30 metri con le antenne tutte in cima...). La tv digitale non lo è affatto: può darsi che vedi una immagine perfetta ma il segnale sta sullo spigolo del gradino, lo stesso segnale è buono per un tv ma non per un altro decoder... e comunque basterebbe poco per farlo "precipitare" sotto la soglia di decodifica. Questo è il senso di quello che ti abbiamo voluto dire. Il fatto che con alcuni decoder tu non riesca ad agganciare dei segnali, che invece si agganciano con il tv, non vuol dire che il segnale sia per forza buono, anzi denota che la qualità è appena sufficiente. Sono stati creati, a livello di organismi internazionali, 5 livelli di qualità: il 5 e il 4 indicano segnale stabile e buono (nessuno squadrettamento o rari); il 3 segnale sufficiente ma 'sul margine' (squadrettamenti saltuari) ; il 2 segnale appena al di sotto del margine con oscillazioni che lo rendono instabile (squadrettameti molto frequenti): l'1 segnale di qualità insufficiente con assenza di visione permanente). Per farti capire, potresti avere dei segnali di livello 3 o 2, mentre dovrebbero essere di livello 4 o 5. Non puoi accorgertene guardando lo schermo, qualità 3 o 5 si vede sempre allo stesso modo, cioè bene (se l'emittente trasmette un video di buona qualità), lo puoi sapere solo analizzando il segnale con uno strumento di misura.
 
maximilian_1972 ha scritto:
Grazie Piersan e Areggio,
il punto che non mi e' chiaro e' proprio questo: Immaginando che come ha detto nell'esempio Piersan, siamo all'inizio della linea retta (poco margine che puo' dare problemi con DTT a maggior soglia critica), avrebbe senso - mi chiedo - in questo caso specifico, amplificare un po' il segnale, dato che IPOTIZZO SIA BUONO, poiche' che con l'altro TV si vede BENONE? (e non perche' lo dice il messaggio, ma perche' lo vedo io con i miei occhi! Diciamo che sono pienamente soddisfatto della qualita' otenuta con il TV a DTT integrato!).

In altre parole, se il segnale fosse di scarsa qualita' (e quindi come da voi detto, l'amplificatore farebbe solo danni) avrei la certezza di vederlo male anche con l'altro TV con DTT integrato, no? E' una domanda da profano che usa troppa logica, forse, ma non riesco a capire dove falla il discorso...Il segnale NEL MIO CASO SPECIFICO, intendiamoci, DEDUCO che sia per forza buono, altrimenti NON si vedrebbe bene con nessun apparecchio.. cosa che invece non e' vera perche' sul TV con DTT integrato si vede benissimo.

Sono un po' duro, lo so, chiedo scusa, ma sarebbe utile per me sapere se e' una deduzione che regge oppure no.

Grazie infinite.
Max
in realtà il mio contributo era solo una precisazione su quello che han già detto bene gli altri, ma forse non è stato ben recepito: per dirlo in altre parole meno tecniche se alla stessa presa d'antenna un TV o un decoder vede e un altro no, non vuol dire che quest'ultimo è meno amplificato, ma che è peggiore per motivi a volte talmente esoterici per i non addetti, tipo la correzione degli errori, che a volte due decoder di uno stesso modello possono uno ricevere e l'altro no.
Comunque ribadisco che fra le possibili differenze una diversa amplificazione in ingresso è l'ultimo dei motivi...
 
Ora mi e' piu' chiaro, d'accordo. Potrebbe darsi che il TV sia migliore nel correggere gli errori, ad esempio, di un segnale magari comunque di scarsa qualita', e dunque amplificarlo in tal caso sarebbe peggio.

Che voi sappiate, dalla vostra esperienza, e' possibile fare un controllo completo da parte di un condomino (impianto proprio e anche dell'antenna comune) senza dover avvertire tutto il condominio (solo un controllo, ovviamente, senza poi toccare nulla della parte comune almeno)? Occorre salire sul tetto anche per un solo controllo?

Il fatto e' che non sono convinto sia un problema che riguardi tutto il condomino e comunque, credo nessuno abbia voglia di sostenere interventi. Per cui vorrei fare almeno il semplice controllo senza dover "svegliare" mezzo mondo. Sarebbe possibile da quello che avete visto in giro?

Grazie
Max
 
Domanda per il discorso impianti su vari piani,avendo l'impianto antenna collegato all'amplificatore (antenne puntate,guadagni amplificatore tarati usando l'uscita test) da cui poi parte il centrale di testa (quanto mi perde??) con ad esempio 8 cavi (8 piani) un cavo per piano,per avere livelli quasi uguali su tutti i piani bisogna usare dei partitori diversi in base al piano (quali usare quanto perdono????),poi una volta entrati in appartamento (4 prese)conviene usare un ulteriore partitore con 4 diverse uscite (quanto mi perde ?) per poi giungere alla presa?

in definitiva che perdite ho dopo l'amplificatore quindi dal centrale di testa in poi???E' fondamentale scegliere i partitori piano bene??le prese che in genere acquisto hanno sempre 7 db di attenuazione,conviene usare prese passanti al posto del partitore in appartamento??
 
Indietro
Alto Basso