Posto, per chiarezza, uno schemino concettuale su come lavora un codec senza entrare nel dettaglio.
Premetto che non ho idea di come Spider faccia i suoi encode ma immagino che usi una doppia passata per ottenere un bitrate medio desiderato (i files hanno sempre la stessa dimensione). Una tecnica che ha i suoi pregi come vedremo di seguito. (Spider intervieni se ho detto una cosa sbagliata su come encodi).
Tutti i codec lossy possono funzionare in molte modalità in modo tale da ottenere un certo risultato.
Per grandi linee:
a) Bitrate costante.
Si impone al codec di lavorare ad un certo bitrate alto o basso che sia, a prescindere da quello che il video contiene.
Pregi: avrai una dimensione finale del file esatta.
Difetti: Scarsa efficienza generale. Nelle scene con poco movimento ci sarà parecchio bitrate sprecato mentre in quelle con molto movimento il bitrate potrebbe non bastare provocando numerosi artefatti (il famoso "scubettamento"). Un esempio classico è il formato VCD che usa il codec Mpg1 a bitrate costante.
b) Qualità costante.
Si impone al codec di far sì che il risultato finale sia della qualità (quantizer o fattore di quantizzazione) desiderata. In pratica il video finale avrà un bitrate variabile che preserverà la qualità finale (anche lossless) assegnando, fotogramma per fotogramma, il giusto bitrate.
Pregi: Notevole efficienza generale. Si può impostare in modo tale da non far perdere praticamente dettaglio senza sprecare un solo bit dove questo non è necessario.
Difetti: Impossibilità di stabilire una esatta dimensione finale a priori. In pratica se state encodando una serie TV vi troverete con le dimensioni degli episodi che variano anche di molto da un episodio all'altro.
Altro difetto che può essere problematico è quello dei cosiddetti "picchi di bitrate" (o bitrate burst) che possono mandare in crisi i sistemi di decodifica nelle scene con più movimento.
Con il tempo (e l'evoluzione dei codec) si sono sviluppate delle "gabole" per poter aggirare i problemi del sistema a) così come quelli del sistema b).
E' stata introdotta la cosiddetta "passata multipla". In pratica si fa fare una prima scansione del filmato da comprimere al codec per poi farlo lavorare in modo più efficiente ma badate bene che non è detto che la qualità finale possa essere "perfetta" come nella modalità a). Il gioco è quello di fare avere un filmato compresso a bitrate variabile che però "rimanga entro certi limiti" che possono essere dettati ad esempio, dalla dimensione finale imposta o il bitrate medio complessivo imposto anch'esso.
Altra doverosa premessa da fare è quella dell'efficienza e la configurazione del "decoder". Per chi non lo sapesse il "decoder" è quella parte del codec che serve per decomprimere quello che è stato compresso. Se vi metteste a fare un po' di ricerca sul vostro PC scoprireste delle cose interessanti del tipo che, ad esempio, i filmati che avete sul vostro hard disk compressi in Xvid vengono magari "decodificati" da DivX o viceversa! Quasi tutti i decoder hanno delle funzionalità di "postprocessing" che possono dare significative differenze su come si vede il filmato. L'uso di piccole utilities come GSpot o Graphedit possono aiutarvi a capire come è configurato la sezione codec del vostro PC....
Ad ogni modo, queste funzionalità sono spesso nascoste o dimenticate.
Matte e Gote sul Mac potrebbero avere addirittura un decoder h264 hardware ma su questo non mi sbilancio perché non conosco abbastanza il mac né "leopard". Per fare un confronto vero e proprio bisogna accertarsi di avere tutti "postprocessing" disattivati in modo da rappresentare il video il più possibile "come è" e non come ci viene presentato dopo essere stato rielaborato da qualche correttore Luma/chroma o aver subito qualche conversione di colorspace (croce e delizia su Xvid di tutti i karaoker!).
Tutto ciò premesso...
La maggiore efficienza nella modalità nel caso a) di h264 (x264) è abissale. Lo avete notato tutti. L'utilizzo di un container avanzato come l'.mp4 tra l'altro fa guadagnare un ulteriore 1% - 2% in termini di dimensione rispetto al preistorico .avi.
Se però, a parità di modalità di ricerca della preservazione del dettaglio rispetto all'originale si ottiene un risultato diverso vuol dire che non tutto è stato ottimizzato con quell'obiettivo oppure c'è qualche ulteriore processazione a valle della compressione. Insomma, per farla breve lavorando in una modalità "lossless" la raw e la versione compressa, da un punta di vista qualitativo, sarà del tutto uguale all'originale, qualunque codec usiate. Dall' Mpg1 all' RV10 passando per Xvid/Divx per arrivare fino a VC-1 e x264. La differenza (enorme) sarà nel bitrate che il codec avrà deciso di utilizzare per comprimere il video. Se anche così appare qualche differenza vuol dire che c'è qualche settaggio del "decoder" che non è messo in modo da dare una visione "fedele" dell'originale. Tutto qui.