giusto, però non sono solo questi 2 i casi possibili, in mezzo c'è la decodifica software assistita da blocchi logici hardware.
mettiamola così, tutti gli algoritmi di codifica si basano su certe primitive che vengono implementate a livello hardware.
la differenza tra chip e chip sta nella potenza di questo hardware di decodifica, un chip costoso montato su un top di gamma sarà in grado di decodificare anche algoritmi futuri, non sarà certo il caso dei chippettini low cost, che fanno solo quello per cui sono stati progettati (e in alcuni casi sudano anche a fare quello.. mi ricordo uno dei miei primi lettori divx da tavolo che rallentava quando c'erano scene particolarmente complesse...)
Per esempio nel mondo dell'informatica e in casa AMD il set di primitive grafiche hardware si chiama UVD, e sono in grado di accelerare vari algoritmi *e in teoria possono essere usati anche per il computing e non solo per decodificare video*. un chip montato nei televisori è un SystemOnaChip con dentro uno o + core RISC e svariati blocchi logici hardware per assistere la decodifica.
http://en.wikipedia.org/wiki/Unified_Video_Decoder#UVD_3