A volte è veramente estenuante cercare di spiegare... mille volte, la stessa cosa.
La potenza massima ammessa per un trasmettitore WIFI domestico è di 20dBm ERP, quella di un telefono cellulare può arrivare a 30dBm quando la cella è lontana.
In altre parole, il segnale deli'Access point o del Client wifi è 10 volte inferiore a quello potenzialmente generato da un cellulare nelle condizioni peggiori
Ciò che sarebbe da capire, e ci potrebbero arrivare anche i giornalisti... è che le onde radio si attenuano con un andamento quadratico.
Spiegazione maccheronica...
Data un'intensità di campo pari a 10, ad esempio un cellulare all'orecchio, cioè ad 1 cm dal cranio di un essere umano, quel segnale, spostando il cellulare a 2 cm si riduce a 2,5.
Se la distanza raddoppia, cioè il cellulare sta a soli 2cm dal cranio, il segnale diventa 0.625.... e così via.
A soli 64 cm di distanza, il campo da 10, si è ridotto a 0,0044.
Siccome non penso che qualcuno si infili l'antenna del terminale wifi in un orecchio, la realtà è abbiamo a che fare con un campo assolutamente ridicolo ed assolutamente NON pericoloso.
E la somma dei segnali wifi nei paraggi?
Praticamente ininfluente, visto che risulta improbabile trovarsi con qualche centinaio di terminali wifi nel raggio di 80cm e che quelli più distanti, diciamo a qualche decina di metri (e senza muri) per creare un'energia rilevante dovrebbero essere alcune decine di migliaia, il che non è, anche nei condomini più affollati.
Per riassumere, l'energia di un cellulare appoggiato all'orecchio è incomparabilmente maggiore di quella prodotta dai terminali di una qualunque rete wifi, che sono molto più deboli e molto più distanti.