Intriga: tengo estos dos equipos de "última hornada" y no entiendo cómo puede haber tanta diferencia en el desempeño con (esa mierda llamada) Flash Player para Linux.
Desktop del año 2003
AMD Athlon XP 2600+ (1900 Mhz)
Gigabyte GA-7VAX-A (VIA KT400A)
RAM: 2 GB DDR-333
Gráficas: NVidia GeForce FX 5200 (tanto drivers privativos de nVidia como Nouveau)
ATI Radeon 9200 Pro (drivers ATI)
Debian stable
Portátil del año 2007
Intel Celeron M530 (1730 Mhz)
Intel 965
RAM: 1,5 GB DDR2-667
Gráfica: Intel GMA X3100 (drivers Intel)
Debian testing
En el portátil con Intel, tanto Google Street View como los vídeos funcionan sin novedad. En el sobremesa con AMD, sueltas el muñequito naranja de Google Maps en algún sitio, se abre la imagen, mueves el punto de vista y tarda entre uno y dos segundos en reaccionar (siempre con la CPU al 100%, por supuesto). Los vídeos van a saltos, incluso con resoluciones no HD. Obvia decir que esos mismos vídeos van de lujo con MPlayer, pero ya sabemos que Flash Player para Linux está programado con la parte final del ano.
¿Qué puede ser? No hay tanta diferencia de potencia entre los dos micros; lo más llamativo será el cupo de nuevas extensiones que llevará el Intel por eso de ser cuatro años más moderno (un cat /proc/cpuinfo me dice que lleva unas cuantas más, entre ellas las SSE2 y SSE3). ¿Podrá ser que Flash haga un uso extensivo de ellas?
O puede ser la tarjeta. Joder, una integrada Intel X3100 era lo más bajo que había en el año 2007. ¿Puede ser tan manifiestamente mejor que esas dos tarjetas dedicadas del 2003? ¿O es que los drivers de Intel son muchísimo mejores que los de ATI y nVidia para estas gamas bajas?
¿Podría ser la memoria RAM? ¿Podría ser la diferencia stable-testing? ¿Podría ser el café?