Posts etiquetados con ‘Intel’

20 años de Top500 y expectantes por Tianhe-2

Pongámonos en antecedentes. Junio y noviembre son las dos citas más importantes para la supercomputación, pues se publica el ranking del Top500, que ahora cumple 20 años. Es como la Fórmula 1, ningún fabricante quiere desaprovechar el tirón comercial del campeonato para alardear de méritos tecnológicos, mostrar coches de 6 millones de euros y luego vender otros para el gran público de 20.000 euros.

Y ya estamos en junio. Y lo que empezó siendo un ejercicio de una pequeña conferencia en junio de 1993 se ha convertido en un monstruoso escaparate. Cray, Intel, AMD, IBM, la reciente NVIDIA, etc. tienen la vista puesta en el día 17 de este mes. Sin embargo, algunos ya van dando píldoras de información para levantar grandes revuelos. Si en noviembre de 2010 confirmábamos la consolidación de China como gran potencia de la supercomputación liderando el ranking con el Tianhe-1, en estos días se habla del Tianhe-2.

Tianhe-1 se alzaba con una victoria política (por ser de origen chino y romper la supremacía americana) con sus 2.5 petaflops (casi 20000 veces lo que un procesador potente de consumo), siendo el primer supercomputador en llegar al Top1 con tecnología de NVIDIA (líderes en procesadores gráficos, no en procesadores de propósito general como IBM, AMD o Intel). La entrada de “aceleradores” en lugar de procesadores comunes, además de otorgar un gran poder computacional reducía de forma importante el consumo eléctrico, con un ahorro estimado del Tianhe-1 equivalente al consumo de 5000 hogares durante un año. Esta irrupción de los “aceleradores” de NVIDIA supuso un antes y un después en la tecnología integrada en los supercomputadores del ranking, pues desde entonces NVIDIA ha incluido estos componentes en todos los grandes equipos. Tianhe-1 fue el primero con ellos en liderar el ranking.

En noviembre de este año pasado, el que llegó al Top1 fue Titan con 17 petaflops, del que dimos cuenta en su momento, que también incluía aceleradores de NVIDIA. Sin embargo, Intel introducía en el ranking sus propios aceleradores a través de su tecnología Intel Xeon Phi (de los que también hablamos) llegando al puesto #7 con el Stampede de Texas. Ya ahí decíamos que la nueva propuesta de Intel podría dar que hablar. Los Intel Xeon Phi desafiaban en la sombra a los Teslas de NVIDIA.

Pues bien, hace unos días, con el avance informativo sobre Tianhe-2, podría llegar el inesperado adelantamiento de Intel a NVIDIA, y Titan con sus Teslas caería a manos del Tianhe-2 con 48000 unidades de Intel Xeon Phi y un pico de 54 petaflops, aunque poco más de 30 en las pruebas continuadas. Una descripción técnica de Tianhe-2 se puede encontrar aquí.

No somos pitonisos, aunque hace poco más de un mes hablábamos de la “caída de los titanes”. Y es que, como dicen por ahí, todo lo que sube, baja. Estaremos pendientes de lo que ocurra dentro de una semana… en el 20 cumpleaños del Top500.

Etiquetas: , , ,
Categorias: General, Hardware

La nueva apuesta en supercomputación: Intel Xeon Phi

El Big Data está de moda. Expectantes estábamos algunos con la prometida tecnología MIC (Many Integrated Core) de Intel. Años de espera, promesas, nombres alternativos (como Knights Corner) y especulación (en su acepción de prestar atención detenidamente) ha dado por fin con el producto, el Intel Xeon Phi Coprocessor, orientado al procesamiento masivo de datos. El famoso fabricante de procesadores de propósito general ha anunciado que a partir de este momento se podrán adquirir equipos de cómputo paralelo masivo manteniendo un modelo de programación parejo al que se tiene en una plataforma de cómputo tradicional, esto es, una CPU y un entorno de programación de propósito general (lenguaje de alto nivel y su respectivo compilador). Las primeras unidades del Xeon Phi Coprocessor se vislumbran como dispositivos externos energéticamente eficientes basados en la conocida tecnología x86, que ofrecen 1TFLOPS de poder computacional en doble precisión, conectables a nuestros ordenadores a través de puertos PCI Express convencionales y cuyos precios rondarían los 2000 euros al cambio. Lo que en el año 97 eran más de 9200 procesadores ahora es un único dispositivo del tamaño de una caja de zapatos (pequeña).

Con este movimiento, Intel da un paso al frente en la carrera de la supercomputación de consumo, que da título a este blog, y que otros fabricantes mencionados en estas líneas ya se habían adelantado (e incluso ganado terreno). Atendiendo a las notas informativas que Intel ha lanzado en la presentación de su Xeon Phi, esta tecnología está absolutamente inspirada en el originario concepto de GPGPU y posteriormente rebautizado como GPU Computing, al que se refiere el uso del hardware gráfico (GPU, Graphics Processing Unit) para realizar costosas tareas de propósito general a modo de coprocesador de la unidad central de procesamiento o CPU (Central Processing Unit). Y no solo el Intel Xeon Phi Coprocessor está inspirado en el concepto de GPGPU, sino que está enfrentado a ello para ofrecer un entorno más amigable para el aprovechamiento de una capacidad de cómputo extra que lo que OpenCL o NVIDIA CUDA ofrece con las GPUs. Y ahí está el verdadero valor de Intel Xeon Phi, su amigabilidad en el ecosistema de la programación, la mayor posibilidad de abrazarlo entre la comunidad de desarrolladores, manteniendo una facilidad de escalado mediante la posibilidad de conectar hasta 8 coprocesadores en un único PC anfitrión.

Pero describamos con palabras más llanas lo que debemos vislumbrar. Intel Xeon Phi Coprocessor es un dispositivo de cómputo que se puede conectar fácilmente a nuestro ordenador de sobremesa, que se programa de modo habitual para que cualquier programador pueda sacarle partido y que ofrece unas cotas de rendimiento para problemas costosos muy superior a las que obtendríamos mediante un computador de sobremesa por muy moderno que fuera. Esto abre la puerta a muchos investigadores que no han podido acogerse a otros modelos de programación por su dificultad o especificidad, como NVIDIA CUDA, lo cual es una noticia que creemos alegrará a la comunidad científica que necesite de computadores para sus pesadas simulaciones.

Como hemos comentado en otros posts (como el último sobre la transición del Jaguar a Titan) muchos supercomputadores cuentan con unidades de cómputo masivo específicas, actualmente basadas en tecnologías heredadas del terreno del GPU Computing como son los dispositivos NVIDIA Tesla. Pues bien, Cray ya anunció que adoptaría la tecnología Intel Phi en sus nuevas integraciones y los primeros supercomputadores con tecnología Intel Xeon Phi no tardaron en aparecer, llegando al puesto #127 del ranking el pasado junio. El pasado lunes 12 de noviembre se publicaron los resultados de la presente convocatoria del ranking Top500 (donde se confirma la previsión de Titan como #1), y los aceleradores Xeon Phi han escalado posiciones hasta el puesto #7, como el caso de Stampede de Texas, que se sitúa por encima del que fuera #1 en noviembre de 2010, el Tianhe-1A. Habrá que ver la próxima convocatoria en Junio cuántos de ellos adoptan esta nueva tecnología, y en qué posición se sitúa el primero basado en Intel Xeon Phi. Muy reñida estará la partida entre los Teslas y los Phis.

PD: por cierto, nuestro apreciado Mare Nostrum queda en el puesto #36

Enlaces sobre la noticia:

Intel Xeon Phi Coprocessor: http://www.intel.com/content/www/us/en/processors/xeon/xeon-phi-architecture-for-discovery-presentation.html

Ranking Top500: www.top500.org

Características y análisis del Intel Xeon Phi: http://www.anandtech.com/show/6265/intels-xeon-phi-in-10-petaflops-supercomputer

Grupo de investigación CAPO: www.gavab.etsii.urjc.es/capo

Etiquetas: , , ,
Categorias: General, Hardware

4004@40: El 40 aniversario del primer microprocesador

Hoy es el 40 aniversario del considerado como primer microprocesador de consumo, y así se recoge por la prensa especializada. El microprocesador Intel 4004, originariamente incluido como motor de una calculadora, fue el inicio de la escalada de Intel, que partió con el nombre NM Electronics (de Bob Noyce y Gordon E. Moore, sus fundadores) en 1968. Hoy el gigante le ha dedicado un microsite al 4004 que puedes ver aquí.

Al año siguiente, 1972, y ya con tecnología de 8 bits, aparecía el Intel 8008 listo para embarcarse en un computador. Aunque no sería hasta 1974 cuando realmente se empezaron a fabricar procesadores para ordenadores de propósito general con el mítico Intel 8080. Poco después se dió paso a las primeras arquitecturas de 16 bits de gran aceptación en el mercado (Intel 8086 y 8088), y de ahí a las de 32 bits aún presentes en muchos computadores domésticos.

Hoy la tendencia en los computadores de consumo (muy comentada en este blog) es la clara apuesta por los procesadores de múltiples núcleos de procesamiento. En 2005 empezaron a comercializarse los dos núcleos en un mismo chip (comentado en este post) y ahora se anuncian las primeras tablets con hasta 4 núcleos de procesamiento con la versión 3 de Nvidia Tegra (comentada la primera versión aquí en 2009). Estos días se puede leer la noticia del superchip de 50 núcleos de Intel, el Knights Corner, del que si queréis podremos seguir por este blog.

Felicidades Intel.

Imagen de previsualización de YouTube

 

Enlaces sobre la noticia:

http://www.intel.com/about/companyinfo/museum/exhibits/4004/docs.htm

http://www.xataka.com/componentes-de-pc/intel-4004-cuarenta-anos-para-la-historia

http://www.extremetech.com/computing/105029-intel-4004-the-first-cpu-is-40-years-old-today

Etiquetas: , ,
Categorias: General, Hardware

Multicores, ¿por qué?

Hace 20 o 25 años era fácil elegir un ordenador y saber de manera aproximada cómo se iba a comportar tan sólo leyendo el nombre del procesador. Podíamos leer 286, 386, 486 (en el generalista mundo de Intel), y para mayor información solía ir acompañado de unos valores mágicos, 20 MHz, 33 MHz, 40 MHz, etc., que nos daban idea de la frecuencia a la que harían las operaciones necesarias para hacer funcionar las aplicaciones. Es decir, que una vez asumida una familia de procesadores, el valor que lo acompañaba nos indicaba de alguna manera la velocidad del ordenador. Ya en los 90 aparecieron los modelos Intel Pentium y ahí la cosa también parecía fácil, con versiones estándar, versión Pentium II, Pentium III, Pentium 4, que a su vez llevaban cada vez más elevados números mágicos de 266 MHz, 700 MHz, 1.2 GHz.

Pero en la pasada década algo debió ocurrir, porque alrededor de 2005, llegados a las últimas versiones de los Pentium 4, con frecuencias de reloj de 3.0 GHz a 3.6 GHz en los más extremos, todo se hizo más complejo para el que quería comprarse un ordenador de sobremesa.

Y entonces aparecieron los multicores

Los fabricantes empezaron a utilizar valores menores en las frecuencias de reloj, y de un 3.2GHz se pasaba a rondar los 1.8-2.8 GHz. La sencilla nomenclatura de las familias anteriores empezaron poco a poco a complicarse con los Intel Core Duo, Core 2 Duo, Core 2 Quad, Core i7, Core i5, i3 y en ninguno (o salvo casos muy excepcionales) no se ven acompañados por aumentos en frecuencias de reloj. La razón ya la hemos comentado en este blog de vez en cuando, y tiene que ver con los aumentos de potencia y problemas de disipación de calor que tendrían estos equipos al disminuir los procesos de integración y aumentar las frecuencias de reloj.

Como dato orientativo, aumentar un 1% la frecuencia de reloj implica aumentar alrededor de un 3% el consumo energético (y por tanto el calor) y tan solo produce aproximadamente un 0.66% de mejora en rendimiento. Así, aumentar un 15% la frecuencia de reloj, implicaría aumentar un 45% el consumo energético y solo mejorar un 9% el rendimiento. Continuar con esta línea haría insostenible el consumo energético de grandes equipos así como las necesidades de refrigeración de los mismos. No, no es el camino. ¿Qué pasa si disminuimos la frecuencia de reloj una vez que alcanzamos un tope? Pues a la inversa. Si bajamos un 15% la frecuencia de reloj (por ejemplo de 3 GHz a 2.5 GHz) reducimos consecuentemente un 45% el consumo energético (aproximadamente la mitad) y nos quedamos al 90% de rendimiento. Eso de disminuir el rendimiento no es lo que buscábamos, pero ¿qué pasa ahora si duplicamos el número de procesadores? Bueno, entonces la cosa cambia porque pasamos a tener un sistema que aproximadamente consume lo mismo (2 procesadores que consumían aproximadamente la mitad) y sin embargo obtenemos un incremento del 180%, es decir, casi el doble de rendimiento.

Por tanto, y como hemos incidido en más de una ocasión, se acabaron los procesadores mononúcleos, o de un único núcleo de procesamiento, se acabaron los aumentos infinitos en las frecuencias de reloj, excesivo consumo y calor, y recibimos con los brazos abiertos las tecnologías multicore y manycore.

Como Mourinho puede seguir preguntando con su característico “¿por qué?”, seguro que mucho mejor que nosotros lo explica el siguiente vídeo de escasos 9 minutos de Intel.

Imagen de previsualización de YouTube
Etiquetas: , ,
Categorias: General

Sandy Bridge no es una nueva cerveza

Aunque de sugerente nombre, Sandy Bridge no es la última modalidad de cerveza o bebida refrescante, sino el “nombre artístico” de la última propuesta de Intel para los ordenadores de consumo. Anunciado en su propia conferencia (IDF, Intel Developer Forum 2010) el pasado mes de septiembre, la Sandy Bridge es la segunda generación de la familia de procesadores Intel Core que irrumpirá en el mercado tras la feria anual CES (Consumer Electronic Showcase) a principios del nuevo año 2011.

Recientemente ha salido a la prensa que Apple dejará de incluir procesadores gráficos NVIDIA para embarcarse en una alianza con Intel gracias a esta arquitectura Sandy Bridge y no hemos querido dejar la oportunidad de describir ligeramente a la misma.

Sandy Bridge es una arquitectura cuya mayor novedad es la inclusión de un procesador gráfico físicamente en el mismo chip que el procesador central así como con un número de innovaciones adicionales en torno a esta idea (por ejemplo nuevos juegos de instrucciones multimedia de 256 bits), y se sigue fabricando sobre un proceso de 32 nm, igual que la última generación anterior (Westmere para los Intel Core), para continuar con la filosofía de Intel denominada Tick-Tock en la que hay una reducción del proceso de fabricación, unos meses después (alrededor de 6) de cada lanzamiento de una microarquitectura nueva. Es decir, que ahora toca el lanzamiento de la nueva arquitectura Sandy Bridge con igual proceso de fabricación que la última anterior, y dentro de unos meses se mejorará para reducir de 32 nm a 22 nm el proceso de fabricación, más tarde se lanzará otra nueva arquitectura de 22 nm (Haswell) y posteriormente se reducirá su proceso de fabricación, etc.

La idea de integrar los gráficos en la CPU no es algo nuevo, y de hecho, parece una vuelta atrás, sin embargo se diferencia en que ahora sí que hay (o eso nos dicen) unos procesadores gráficos externos a la CPU, aunque incluidos en el mismo chip. Unos gráficos sobre esta geometría se pueden ver en el siguiente vídeo.

Imagen de previsualización de YouTube

Enlaces de interés:

http://www.intel.com/idf

http://software.intel.com/en-us/avx/

http://en.wikipedia.org/wiki/Intel_Tick-Tock

http://www.xataka.com/otros/intel-sandy-bridge-se-confirma-para-2011-como-una-pequena-evolucion-de-los-nehalem

http://www.youtube.com/watch?v=vliLjL4SSsA

Etiquetas: , , , , ,
Categorias: General

Cinco años desde la aparición de los ordenadores “multicore”

En 2010 se hacen cinco años desde que se lanzaron al mercado los primeros sistemas de varios núcleos de procesamiento. Básicamente todo programa sobre una plataforma de consumo anterior se ejecutaba a una cierta velocidad debido a la frecuencia de reloj a la que se sometía el procesador. Todos hemos sido testigos de los aumentos en las prestaciones de los equipos, desde 1 MHz, 16 MHz, 20 MHz (¿os acordáis del botón turbo?), 33 MHz, 233MHz, 900MHZ, 1.2GHz, 2.0GHz, 2.4GHz, 3.0GHz, 3.2 GHz, 3.6GHz y muchos otros valores intermedios. Un mismo programa mejoraba sus prestaciones y su ejecución era más rápida, el videojuego era más interactivo o la gráfica se calculaba más rápidamente. En 2005 se empezaron a lanzar procesadores de consumo que incluían 2 núcleos de cómputo. Compartían ciertos recursos hardware pero de manera eficiente se podían ejecutar 2 programas simultánemente sin compartir tiempo de procesador, o que un mismo programa se ejecutara desde 2 núcleos de procesamiento. La pregunta ahora sería, ¿ha cambiado mucho desde entonces?

compaq386sx25

Quizá la respuesta sea que no demasiado, no hemos sido testigos de grandes mejoras en el rendimiento de una misma aplicación porque ha habido dos barreras importantes. Una es que a mayor número de núcleos, resultaba más eficiente mantener la frecuencia de reloj por debajo de sus máximos históricos, y la segunda es que los programas no estaban preparados para ejecutarse desde dos núcleos de procesamiento relativamente independientes. Lo que sí que hemos podido percibir es que pudiéramos ejecutar más aplicaciones sobre un mismo equipo. Inicialmente, los primeros multinúcleos o multicores estaban basados en dos unidades de procesamiento y poco a poco se reemplazará toda la base instalada para alojar dual cores , quad cores, hexa cores, etc. Será entonces cuando la mentalidad de todo desarrollador se vea modificada, y necesariamente los programas se desarrollen para trabajar con los varios núcleos de cómputo de la plataforma estándar.

Las herramientas de consumo para el desarrollo de software están incluyendo progresivamente soporte para la programación paralela, el cambio está a la vuelta de la esquina. Dejamos al lector un enlace interesante que habla de esto mismo: http://www.drdobbs.com/go-parallel/blog/archives/2010/03/think_parallel_1.html

Etiquetas: , , ,
Categorias: General

Universo Paralelo de Intel

No es la última película de ciencia ficción, de hecho no hablamos del futuro, sino del presente. En este blog ya se han hecho múltiples referencias sobre el potencial problema que trae consigo que las arquitecturas de cómputo (los ordenadores) evolucionen de una manera que no se había augurado hace una década (ver ejemplo). En lugar de ser más rápidos, cada vez son más paralelos, capaces de realizar tareas simultaneamente pero no necesariamente más rápido si dichas tareas son independientes. Si las tareas son dependientes, o directamente es solo una, entonces se puede incrementar la velocidad final de la solución dividiendo el problema y resolviéndolo de forma parcial desde diferentes núcleos de cómputo (cores). Sin embargo, esta división en general no es automática, y el programador debe ser consciente de ello para poder sacar partido a los nuevos sistemas de cómputo.

El fabricante de procesadores Intel lleva un tiempo interesado en concienciar a los programadores en las nuevas necesidades y buenas prácticas de programación con vistas al presente y futuro inmediato. En este sentido ha lanzado un servicio web de exploración de código denominado Intel Parallel Universe. La herramienta está disponible desde http://paralleluniverse.intel.com/ y está pensada para recabar información de manera automática de un código fuente de un programa informático para conocer su posible escalabilidad en plataformas de varios núcleos de cómputo. De hecho, el sistema ofrecerá gráficas para mostrar la escalabilidad (lo bien que se portará la aplicación) en sistemas de 1, 2, 4, 8 y 16 núcleos de cómputo. El uso de la herramienta es gratuito, solamente se necesita estar registrado y subir los códigos (de menos de 20MB) en versión final de 32 bits. Intel ha anunciado que en breve estará disponible para otras plataformas.

Dejo por aquí un vídeo demostrativo:

Imagen de previsualización de YouTube
Etiquetas: , , ,
Categorias: General

Intel adquiere Rapidmind

Rapidmind, la empresa creada hace 5 años por el profesor Michael McCool de la Universidad de Waterloo, fue adquirida por Intel hace una semana. Rapidmind se creó con la vista puesta en la comercialización del sistema de programación Sh que conseguía adaptar y optimizar algoritmos a diferentes plataformas de consumo y altas prestaciones que surgieron a partir de los aceleradores (procesadores gráficos y variados multiprocesadores). Rapidmind creció rápidamente gracias al desarrollo de las arquitecturas multicore para ordenadores personales, que compartían la misma filosofía que los aceleradores citados, así como a la euforia de algunos desarrolladores y empresas por poder adaptar sus algoritmos a variadas arquitecturas sin la necesidad de recodificar en diferentes entornos. Un mismo código, con ayuda de las librerías de Rapidmind, podía ser ejecutado en un procesador basado en múltiples núcleos, en un procesador IBM Cell o en una tarjeta gráfica, sin necesidad de conocer detalles íntimos de estas diferentes plataformas. Como dato histórico, Google adquirió en 2007 Peakstream Inc., otra empresa con objetivos parecidos a los de Rapidmind.

(más…)

Etiquetas: , , ,
Categorias: General

Paralelismo de consumo: ¿el futuro de la computación?

Hasta hace pocos años, los ordenadores personales han venido aumentando su poder de cómputo casi exclusivamente por un aumento en las frecuencias de reloj que repercutían en disparados consumos energéticos y calentamientos del sistema. Ante esta situación, que incluso alarmaba al sector energético mundial, los fabricantes lanzaron productos multinúcleos (multicore) con gran éxito en el mercado, que reducen el consumo energético del sistema de manera sustancial. Someramente, se basan en la posibilidad de realizar cálculos en paralelo sobre varios procesadores de forma simultánea, reduciendo en promedio el tiempo de ejecución del proceso. Sin embargo, un programa preparado para un único procesador no se ejecuta más rápido por correr en un sistema de doble núcleo sin más, puesto que realmente el programa no está preparado para ese sistema doble, o multinúcleo. (más…)

Etiquetas: , , , , ,
Categorias: General, Hardware