Tendencias de los ordenadores de consumo

El gigante Intel ha puesto a disposición de la comunidad una serie de interesantes artículos divulgativos sobre las arquitecturas de consumo que actualmente ofrece. En particular, queríamos destacar uno que explica diferencias entre las arquitecturas multi-core, multiprocesador y tecnologías Hyperthreading, y que pueden ofrecer un punto de vista para encarar el futuro de la computación. Es un hecho que la comunidad de desarrolladores de aplicaciones debe ser consciente de que el tradicional modelo de programación basado en dejar que la aplicación sea más rápida gracias al aumento de la frecuencia de reloj de cada generación de microprocesadores ha llegado a un punto sin retorno. Pongamos un ejemplo…

Desde los aproximadamente 5 MHz de un antiguo procesador 8086 de 29.000 transistores de 1978 hasta los 3.8GHz de un Pentium 4HT672 de 125 millones de transistores y lanzado en 2005, los avances tecnológicos han sido muchos, pero fundamentalmente una aplicación se ha visto mejorada por ejecutarla en máquinas progresivamente más rápidas. Sin embargo, la frecuencia de reloj no seguirá aumentando, es demasiado costoso.

 

El consumo energético se dispara con aumentos de frecuencia por encima de ciertos umbrales y hoy en día ya no es posible comprar un ordenador de 4GHz porque la estrategia de los fabricantes cambió finalmente de rumbo en 2005. Ya con la salida de Intel Pentium 4 en 2000, se incluía mayor soporte para instrucciones que favorecían el procesamiento en paralelo de datos (SIMD, single instruction multiple data) y la tecnología Hyperthreading (HT Technology), que de un modo virtual podía mejorar hasta un 30% la efectividad de un procesador para que fuera visto por el sistema operativo como si fueran dos. En 2005, y tras la imposibilidad de aumentar las frecuencias de reloj, se opta por seguir la estrategia que ya antes los fabricantes de chips gráficos habían elegido, multiplicar los núcleos de procesamiento a favor de disminuir las fuentes de calor reduciendo las frecuencias de trabajo. Aparecen los Pentium D y Pentium Extreme Edition, que incluyen por primera vez sistemas de dos núcleos (dual-core) en un procesador. A diferencia de otros sistemas multiprocesador con dos procesadores (dual-processor) independientes, el sistema dual-core contiene dos núcleos de procesamiento que comparten el mismo chip. Este sistema es tecnológicamente más avanzado, más barato, aunque ligeramente más limitado por compartir memoria cache entre otros. Es conveniente observar que un sistema dual-core no es incompatible con la tecnología Hyperthreading, por lo que sus dos núcleos pueden llegar a verse como cuatro núcleos de procesamiento en ciertas condiciones.

 

Del sistema dual-core inicial llegan sus extensiones naturales: multi-core, que lideran las actuales tecnologías y que abren el camino para que los sistemas sigan siendo de consumo, aumentando la eficiencia energética y ofreciendo una vía libre para la recordada Ley de Moore, que predecía que cada 18 meses el número de transistores por unidad de superficie se duplicaría y que estaba llegando a su fin por una cuestión energética.

 

Entonces, la pregunta ahora es si los desarrolladores están preparados para empezar a sacar partido a la tecnología. Haciendo un símil simplista, es como si los los gobiernos y fabricantes de coches hubieran posibilitado crear coches para volar a varias alturas, y en las autoescuelas siguieran enseñando a conducir en el plano. Buen momento, con Bolonia, para rehacer alguna asignatura y entrar de lleno en el mundo de la supercomputación de consumo.

 

Este artículo está basado en:

http://isdlibrary.intel-dispatch.com/isd/2530/Understanding_Dual_Processors.pdf

Compartir:

2 comentarios

  1. Ahora les toca a los "blandos" ser capaces de ofrecer herramientas de alto nivel para aprovechar tanto metal… esperemos que pronto lleguen a ser habituales aplicaciones que sean capaces de aprovechar 8, 16, 32 o los cores que estén disponibles…

Deja un comentario