‘Hardware’

Y por fin se movió el ranking de la supercomputación

Estados Unidos vuelve a liderar, tras 5 años detrás de China, el ranking de la supercomputación mundial. No era una tarea sencilla mover del primer puesto a las modernas instalaciones chinas, que entraron en el Top500 tarde (porque China no tuvo un supercomputador en el Top500 hasta hace 20 años) pero cuando lo hicieron, fue con instalaciones de primera categoría. Desde junio de 2013 mantenía el liderazgo, primero con Tiahne 2 (#4 hoy) y desde junio de 2016 con Sunway TaihuLight (ahora #2).

 

El 25 aniversario del ranking Top500 ha traído novedades tras varios años sin cambios. Ya se sabía, se especulaba desde hacía meses, pero hasta este lunes 25 de junio no ha sido oficialmente confirmado. La alianza IBM y NVIDIA ha llevado a Summit (cúspide o cima en inglés), al pódium del ranking de la supercomputación. Para IBM y NVIDIA también ha sido un logro, pues IBM no conseguía un pódium desde junio 2012 con Sequoia y sus BlueGene/Q (ahora en #8), y NVIDIA, el estándar de facto de las aceleradoras gráficas, no había llevado bien perder el primer puesto en favor de las japonesas PEZY-SC2 de Sunway TaihuLight. De hecho, PEZY (cuyo nombre proviene de los prefijos Peta, Exa, Zetta y Yotta, típicamente utilizados al medir el número de operaciones en coma flotante por segundo que son capaces de hacer estas grandes instalaciones) se hace con el pódium del “ecoranking” Green500, copando sus 3 primeros puestos. Veremos en 2019, fecha de lanzamiento tentativa de la versión 3 de sus PEZY SuperComputer (PEZY-SC3) de 7 nm en lugar de los actuales 16 nm.

Además de Summit, Estados Unidos también incluye en el Top10 como novedad a Sierra, el hermano menor con la misma base tecnológica, procesadores IBM Power9 de 22 núcleos y aceleradoras NVIDIA GV100 de la generación Volta (eso sí, 4 por nodo en lugar de 6), que entra en el puesto #3, entre medias de las 2 instalaciones chinas que coparon el Top#1 estos últimos años.

Por nuestra parte, España mantiene en lista dos sistemas pertenecientes al mismo Mare Nostrum del Barcelona Supercomputing Center. El principal sistema, que cae desde el puesto #11 al #22 (pero que venía del #129), está compuesto por 48 racks de 3456 nodos con 2 Intel Xeon Platinum de 24 cores, y como nueva entrada en el puesto #255 el cluster experimental con el mismo tipo de arsenal que Summit y Sierra (CPUs IBM Power9 de 20 cores en lugar de 22, y aceleradoras NVIDIA V100 en lugar de GV100, por cierto únicas estas tres instalaciones en incluir los nuevos Power9 de IBM). Además, Mare Nostrum 4 contiene otros 2 clusters experimentales, uno de 0,5 PetaFLOPS basado en los sistemas híbridos CPU+acelerador Intel Knights Hill (evoluciones de los aceleradores Intel Xeon Phi) y otro de 0,5 PetaFLOPS con procesadores ARM  v8 de 64 bits, que lógicamente no entran en el Top500. Mare Nostrum llegó a estar en el #4 en noviembre de 2004, cuando entró por primera vez en lista como tal, y nunca llegó al #1, aunque desde luego sí que lo sea en belleza (ver imagen).

 

 

 

 

 

 

 

 

 

 

Enlaces de interés:

https://www.linkedin.com/pulse/summit-el-supercomputador-m%C3%A1s-potente-del-mundo-con-juan/ (autor Juan de Zuriarrain, IBM Cognitive Systems – España)

http://www.elladodelmal.com/2018/05/power9-el-nuevo-microprocesador-de-ibm.html (autor Chema Alonso, CDO Telefónica)

https://www.bsc.es/marenostrum/marenostrum (la descripción de MareNostrum)

Si tienes más curiosidad aquí tienes toda la lista de junio de 2018: https://www.top500.org/lists/2018/06/

Etiquetas: , , , , , , , ,
Categorias: General, Hardware

Supercomputación, ¿sin noticias, buenas noticias?

Con la posibilidad de hacer 93 cuadrillones de operaciones por segundo (petaFLOPS), el supercomputador chino Sunway TaihuLight sigue siendo, desde Junio 2016, la instalación de cómputo más potente del mundo.

Llevamos ya un par de posts en este blog hablando de lo mismo: de lo bien que China lo ha hecho en el mundo de la supercomputación. Y es justo incidir en ello, porque China no tuvo un supercomputador en el Top500 hasta hace 20 años y hoy tiene 160 (por 168 estadounidenses), siendo el segundo país con más instalaciones del ranking. En Junio de 2016, el Top#1 lo copó Sunway TaihuLight, pero lo extraordinario de ello es que su fabricación era completamente china y además energéticamente muy eficiente, ¡el doble que el segundo supercomputador del ranking! (también instalación china, por cierto).

Retomando la descripción del post anterior, Sunway TaihuLight posee más de 10 millones de núcleos de procesamiento y consume algo más de 15 millones de vatios (equivalente a unos 75.000 ordenadores domésticos de escritorio). Esto le hace ser el segundo sistema del Top10 en la lista de los Green500, es decir, el segundo más ecológico de los 10 sistemas más potentes del mundo, y en el puesto número 17 con un ratio de más de 6000 MFLOPS por vatio consumido (6 billones de operaciones en coma flotante por segundo y vatio consumido).

Es sorprendente ver cómo en el Top10 del ranking hay 2 instalaciones chinas (puestos #1 y #2), una europea en el tercer puesto, 5 estadounidenses y una japonesa. El honorable bronce europeo proviene de una actualización de la instalación Suiza de Piz Daint, que aumentó el número de aceleradoras de última generación NVIDIA Tesla P100 de las que ya disponía.

Por nuestra parte, España mantiene en lista una única instalación, el Mare Nostrum del Barcelona Supercomputing Center, con una importante actualización (Mare Nostrum 4) que la ha llevado del puesto #129 hace 6 meses a un memorable puesto #13 y alcanzando los 11,1 petaFLOPS. La actualización se debe a la inclusión de los procesadores Intel Xeon Platinum 8160 de 24 cores, únicos en las instalaciones del ranking posiblemente por lo apresurado desde su lanzamiento. Mare Nostrum llegó a estar en el #4 en noviembre de 2004, cuando entró por primera vez en lista como tal, y aunque nunca llegó al #1, desde luego sí es el número 1 en belleza (ver imagen donde se le ve dentro de la capilla de la Torre Girona de principios de siglo XX).

Curioso también el hecho de que de los 500 supercomputadores del ranking, 498 posean un sistema operativo Linux, y sólo 2 queden con Unix. La razón no es otra que la facilidad de modificar un sistema Linux para ajustarlo a la necesidad de un supercomputador frente a otros sistemas operativos.

Si tienes más curiosidad aquí tienes toda la lista de junio de 2017: https://www.top500.org/lists/2017/06/  

Etiquetas: , ,

No pasa el tiempo en el Top de la supercomputación

El pasado lunes 18 de noviembre, por la noche hora española, se publicaba en la Supercomputing Conference 2013 desde Denver el, ya citado muchas veces en estas líneas, Top500, el ranking de la base instalada de supercomputadores a nivel mundial. Cuántos han pensado lo bueno que sería que no pasara el tiempo…

Pues eso es básicamente lo que ha ocurrido en el ranking semestral (junio/noviembre). Nada ha cambiado en los 5 primeros puestos de cabeza desde el pasado mes de Junio, cuando el supercomputador chino Tianhe-2, rebautizado como “Milky Way 2”, tomó el puesto #1. Con ello China vuelve a ocupar, por tercera vez en la historia del Top500, el primer puesto. Recordamos que la primera vez fue en noviembre de 2010, con el Tianhe-1. En aquella ocasión Estados Unidos vio una amenaza en la escalada que China había conseguido en los últimos años hasta llegar a la cima de la supercomputación.

La primera novedad en el ranking es la entrada del supercomputador más potente de Europa, localizado en Lugano (Suiza), del Centro Nacional de Supercomputación de Suiza (Swiss National Supercomputing Centre, CSCS) con 6.27 PFlops y el más eficiente energéticamente de todo el Top10. Entre los 500 centros se cuentan 2 españoles, el MareNostrum del Barcelona Supercomputing Centre (BSC) en el puesto #34 y el Teide-HPC del Instituto Tecnológico y de Energías Renovables S.A. en el puesto #138, haciendo que España quede en el puesto #11 del ranking por países, por detrás de compañeros europeos como Noruega, Suecia, Suiza, Italia (todos ellos en el puesto #9 con 3 bases instaladas), Alemania (#6, con 20), Francia(#5, con 22), Reino Unido (#4, con 23). El Top3 en países lo sigue liderando EEUU (264), China (63) y Japón (28), en este orden.

Por áreas de aplicación sorprende que encontremos en el puesto #64 (#127 en junio pasado) al Amazon EC2 C3 Instance Cluster, el supercomputador de la empresa Amazon, que es la única instalación dedicada a los Web Services, o en el #468 el supercomputador de Volvo Car Group, siendo ambos, ejemplos de fuertes empresas que necesitan de la supercomputación. En números 410 (82%) instalaciones no tienen área de aplicación concreta, 56 (11.2%) son de investigación, 9 (1.8%) para el estudio del clima, 6 (1.2%) para la energía y 5 (1%) para defensa. ¿No sería interesante ver a grandes empresas españolas de la energía o las comunicaciones con un supercomputador en el Top500?

Con respecto a los aceleradores utilizados, se nota un leve incremento (1,4%) en el uso de ellos (coprocesadores vectoriales especializados), liderando los equipos basados en la tecnología gráfica de NVIDIA y seguida, de lejos en cuanto a número de instalaciones, por Intel con la arquitectura novedad de hace un año Intel Xeon Phi.

Con respecto a los aceleradores utilizados, se nota un leve incremento (1,4%) en el uso de ellos (coprocesadores vectoriales especializados), liderando los equipos basados en la tecnología gráfica de NVIDIA y seguida, de lejos en cuanto a número de instalaciones, por Intel con la arquitectura novedad de hace un año Intel Xeon Phi.

Además, también el pasado lunes NVIDIA anunció en la Supercomputing Conference su alianza con IBM para la fabricación de los nuevos equipos Tesla K40 como extensión de su arquitectura GK110 con mayor número de núcleos de procesamiento, duplicando las velocidades y cantidad de memoria, así como dotando de mayores frecuencias de reloj. Además de ello, también avanzó lo que será la posible estrella para su propia conferencia GTC (Graphics Technology Conference) de finales del próximo marzo con el lanzamiento de CUDA 6 y un espacio de memoria unificado entre CPU y GPU, que conllevará una innecesaria reserva de espacios de memoria localizados

Se antoja una de las mayores mejoras de la plataforma CUDA de toda su historia, pues para trabajar con datos en memoria gráfica ya no serían necesarias las copias explícitas de un dispositivo a otro (a menos que se requiera exprimir al máximo el rendimiento). Esta memoria unificada abrirá la puerta a nuevos programadores de una manera más cercana, lo que, al fin y al cabo, es facilitar la adopción de la tecnología, lo que NVIDIA siempre llamó la “democratización de la supercomputación” (democratized supercomputing).

 

Etiquetas:

De nuevo supremacía china en la supercomputación

Adelantábamos la semana pasada que el supercomputador chino Tianhe-2, rebautizado como “Milky Way 2”, tomaría el relevo por el puesto #1 en el ranking del Top500 de los supercomputadores. El pasado lunes 17 así se confirmó en la International Supercomputing Conference 2013 (ISC’13). Con ello China vuelve a ocupar, por segunda vez en la historia del Top500, el primer puesto. La primera, y última vez hasta el momento, fue en noviembre de 2010, con el Tianhe-1. En aquella ocasión Estados Unidos vio una amenaza en la escalada que China había conseguido en los últimos años hasta llegar a la cima de la supercomputación. La siguiente gráfica muestra la evolución por países, y se puede observar que China (en azul oscuro), entrando en noviembre de 2001 en el ranking, va escalando posiciones llegando a superar al agregado de la Unión Europea (rojo) y quedando solo detrás de Estados Unidos (celeste) en rendimiento total en el ranking (agregado de todos los supercomputadores de la lista por países).

 Por otra parte, se libra otra batalla, la del uso de aceleradores. Los aceleradores son dispositivos especializados en cómputo paralelo que se integran a modo de coprocesadores de las unidades centrales de procesamiento (CPUs). La inclusión masiva y demostrada del poder de cómputo de estos dispositivos especializados tiene su origen con los IBM Cell Processors a finales de 2007 y fundamentalmente en 2008, cuando llegaron a aportar casi el 10% del rendimiento sumado de todos los supercomputadores del ranking. Ahora ese porcentaje es del casi 35%, es decir, el 35% de todo el rendimiento aportado por los 500 supercomputadores viene originado por los aceleradores incluidos en solo el aproximadamente 50% de los equipos. Esto viene a decirnos que los aceleradores llegaron para quedarse, que energéticamente son muy eficientes, y que empujan el rendimiento de estos monstruos a nuevas cotas. En noviembre de 2012 los Intel Xeon Phi fueron la novedad y los presentamos por estas líneas, hoy han tomado la cima con el Tianhe-2, escalando por encima de los NVIDIA Kepler, que debutaron también en 2012 tras el éxito de su anterior generación NVIDIA Fermi (hoy por hoy los aceleradores aún más utilizados del ranking). Intel además ha aprovechado el tirón mediático de su puesto #1 en el ranking para anunciar sus nuevas familias de los coprocesadores Xeon Phi, con variedad a nivel de eficiencia energética, rendimiento, capacidades de memoria, formatos y dimensiones. Pero esto merecerá otro post. Eso sí, hoy por hoy, los IBM Cell han quedado casi en el olvido (al menos en la 41 edición del ranking), lo que nos recuerda el post de la caída de los titanes.

Etiquetas: , , ,

20 años de Top500 y expectantes por Tianhe-2

Pongámonos en antecedentes. Junio y noviembre son las dos citas más importantes para la supercomputación, pues se publica el ranking del Top500, que ahora cumple 20 años. Es como la Fórmula 1, ningún fabricante quiere desaprovechar el tirón comercial del campeonato para alardear de méritos tecnológicos, mostrar coches de 6 millones de euros y luego vender otros para el gran público de 20.000 euros.

Y ya estamos en junio. Y lo que empezó siendo un ejercicio de una pequeña conferencia en junio de 1993 se ha convertido en un monstruoso escaparate. Cray, Intel, AMD, IBM, la reciente NVIDIA, etc. tienen la vista puesta en el día 17 de este mes. Sin embargo, algunos ya van dando píldoras de información para levantar grandes revuelos. Si en noviembre de 2010 confirmábamos la consolidación de China como gran potencia de la supercomputación liderando el ranking con el Tianhe-1, en estos días se habla del Tianhe-2.

Tianhe-1 se alzaba con una victoria política (por ser de origen chino y romper la supremacía americana) con sus 2.5 petaflops (casi 20000 veces lo que un procesador potente de consumo), siendo el primer supercomputador en llegar al Top1 con tecnología de NVIDIA (líderes en procesadores gráficos, no en procesadores de propósito general como IBM, AMD o Intel). La entrada de “aceleradores” en lugar de procesadores comunes, además de otorgar un gran poder computacional reducía de forma importante el consumo eléctrico, con un ahorro estimado del Tianhe-1 equivalente al consumo de 5000 hogares durante un año. Esta irrupción de los “aceleradores” de NVIDIA supuso un antes y un después en la tecnología integrada en los supercomputadores del ranking, pues desde entonces NVIDIA ha incluido estos componentes en todos los grandes equipos. Tianhe-1 fue el primero con ellos en liderar el ranking.

En noviembre de este año pasado, el que llegó al Top1 fue Titan con 17 petaflops, del que dimos cuenta en su momento, que también incluía aceleradores de NVIDIA. Sin embargo, Intel introducía en el ranking sus propios aceleradores a través de su tecnología Intel Xeon Phi (de los que también hablamos) llegando al puesto #7 con el Stampede de Texas. Ya ahí decíamos que la nueva propuesta de Intel podría dar que hablar. Los Intel Xeon Phi desafiaban en la sombra a los Teslas de NVIDIA.

Pues bien, hace unos días, con el avance informativo sobre Tianhe-2, podría llegar el inesperado adelantamiento de Intel a NVIDIA, y Titan con sus Teslas caería a manos del Tianhe-2 con 48000 unidades de Intel Xeon Phi y un pico de 54 petaflops, aunque poco más de 30 en las pruebas continuadas. Una descripción técnica de Tianhe-2 se puede encontrar aquí.

No somos pitonisos, aunque hace poco más de un mes hablábamos de la “caída de los titanes”. Y es que, como dicen por ahí, todo lo que sube, baja. Estaremos pendientes de lo que ocurra dentro de una semana… en el 20 cumpleaños del Top500.

Etiquetas: , , ,
Categorias: General, Hardware

“La caída de los titanes”

Que la tecnología va más rápido que su uso es un hecho casi indiscutible, apenas hemos entendido un dispositivo cuando toca renovarlo. En el campo de la supercomputación también ocurre, y ejemplos recientes de ello hemos tenido en los últimos años. Hoy tratamos un ejemplo en el post de “la caída de los titanes”, recordando la famosa obra de Cornelis van Haarlem, el supercomputador de moda en el Top500, Titan, del que hablamos el pasado octubre, y el último procesador gráfico de NVIDIA, el Geforce GTX Titan, basado en la tecnología Kepler con importantes mejoras para la supercomputación de consumo (o no tan de consumo).

El procesador Cell se desarrolló gracias a la alianza denominada STI de Sony, Toshiba e IBM y sus primeros demostradores datan del año 2001. IBM diseñaba el procesador, Toshiba fabricaba y ofrecía un campo de aplicación en electrodomésticos (como su CellTV de 2010) y Sony garantizaba el desarrollo de aplicaciones, videojuegos y demás expectativas para su Playstation 3, que se lanzó en 2006, y que fue el producto comercial estrella del Cell Processor. El procesador Cell tuvo un arranque muy importante, algunas empresas, como Mercury Computer Systems, basaban sus productos en dicho procesador para campos muy productivos como la imagen médica, inspección industrial, tecnología aerospacial o la supercomputación, pero todo esto tocó techo mediático. El procesador era muy complejo de programar y de sacar partido, y este hecho retrasó en gran medida los grandes lanzamientos para la videoconsola de Sony. En 2007 Sony abandonaba el barco, vendiendo participaciones a Toshiba, que posteriormente recuperaría. Sin embargo, la inminente Playstation 4 parece que estará basada en la arquitectura x86 más tradicional (en este caso de la mano de AMD), la forma en la que otras videoconsolas, como Xbox360, ganaba la carrera en los lanzamientos de novedades.

A la par, el supercomputador Roadrunner fue el #1 del ranking mundial Top500 en Junio de 2008 y hasta noviembre de 2009. Estaba basado precisamente en la tecnología Cell, e incluso en la actualidad se mantenía en la lista del Top500 en una destacada posición (#22), pero sus últimas noticias son que se desmontará. Cayó un titán.

Otros grandes anuncios también tuvieron sus fracasos, como el proyecto Larrabee de Intel (del que hablamos en diciembre de 2009) pero que pudieron reconvertirlo a coprocesador de altas prestaciones en el Intel Xeon Phi que citamos hace escasos meses.Veremos con el tiempo qué pasa, y si mantiene buenos puestos en el escaparate del Top500 como para convencer en otras áreas.

PD: Por cierto, del Cell TV de Toshiba nunca más se supo en occidente.

Enlaces sobre la noticia:

Ranking Top500: www.top500.org

Etiquetas: , , , , , , ,
Categorias: General, Hardware

La nueva apuesta en supercomputación: Intel Xeon Phi

El Big Data está de moda. Expectantes estábamos algunos con la prometida tecnología MIC (Many Integrated Core) de Intel. Años de espera, promesas, nombres alternativos (como Knights Corner) y especulación (en su acepción de prestar atención detenidamente) ha dado por fin con el producto, el Intel Xeon Phi Coprocessor, orientado al procesamiento masivo de datos. El famoso fabricante de procesadores de propósito general ha anunciado que a partir de este momento se podrán adquirir equipos de cómputo paralelo masivo manteniendo un modelo de programación parejo al que se tiene en una plataforma de cómputo tradicional, esto es, una CPU y un entorno de programación de propósito general (lenguaje de alto nivel y su respectivo compilador). Las primeras unidades del Xeon Phi Coprocessor se vislumbran como dispositivos externos energéticamente eficientes basados en la conocida tecnología x86, que ofrecen 1TFLOPS de poder computacional en doble precisión, conectables a nuestros ordenadores a través de puertos PCI Express convencionales y cuyos precios rondarían los 2000 euros al cambio. Lo que en el año 97 eran más de 9200 procesadores ahora es un único dispositivo del tamaño de una caja de zapatos (pequeña).

Con este movimiento, Intel da un paso al frente en la carrera de la supercomputación de consumo, que da título a este blog, y que otros fabricantes mencionados en estas líneas ya se habían adelantado (e incluso ganado terreno). Atendiendo a las notas informativas que Intel ha lanzado en la presentación de su Xeon Phi, esta tecnología está absolutamente inspirada en el originario concepto de GPGPU y posteriormente rebautizado como GPU Computing, al que se refiere el uso del hardware gráfico (GPU, Graphics Processing Unit) para realizar costosas tareas de propósito general a modo de coprocesador de la unidad central de procesamiento o CPU (Central Processing Unit). Y no solo el Intel Xeon Phi Coprocessor está inspirado en el concepto de GPGPU, sino que está enfrentado a ello para ofrecer un entorno más amigable para el aprovechamiento de una capacidad de cómputo extra que lo que OpenCL o NVIDIA CUDA ofrece con las GPUs. Y ahí está el verdadero valor de Intel Xeon Phi, su amigabilidad en el ecosistema de la programación, la mayor posibilidad de abrazarlo entre la comunidad de desarrolladores, manteniendo una facilidad de escalado mediante la posibilidad de conectar hasta 8 coprocesadores en un único PC anfitrión.

Pero describamos con palabras más llanas lo que debemos vislumbrar. Intel Xeon Phi Coprocessor es un dispositivo de cómputo que se puede conectar fácilmente a nuestro ordenador de sobremesa, que se programa de modo habitual para que cualquier programador pueda sacarle partido y que ofrece unas cotas de rendimiento para problemas costosos muy superior a las que obtendríamos mediante un computador de sobremesa por muy moderno que fuera. Esto abre la puerta a muchos investigadores que no han podido acogerse a otros modelos de programación por su dificultad o especificidad, como NVIDIA CUDA, lo cual es una noticia que creemos alegrará a la comunidad científica que necesite de computadores para sus pesadas simulaciones.

Como hemos comentado en otros posts (como el último sobre la transición del Jaguar a Titan) muchos supercomputadores cuentan con unidades de cómputo masivo específicas, actualmente basadas en tecnologías heredadas del terreno del GPU Computing como son los dispositivos NVIDIA Tesla. Pues bien, Cray ya anunció que adoptaría la tecnología Intel Phi en sus nuevas integraciones y los primeros supercomputadores con tecnología Intel Xeon Phi no tardaron en aparecer, llegando al puesto #127 del ranking el pasado junio. El pasado lunes 12 de noviembre se publicaron los resultados de la presente convocatoria del ranking Top500 (donde se confirma la previsión de Titan como #1), y los aceleradores Xeon Phi han escalado posiciones hasta el puesto #7, como el caso de Stampede de Texas, que se sitúa por encima del que fuera #1 en noviembre de 2010, el Tianhe-1A. Habrá que ver la próxima convocatoria en Junio cuántos de ellos adoptan esta nueva tecnología, y en qué posición se sitúa el primero basado en Intel Xeon Phi. Muy reñida estará la partida entre los Teslas y los Phis.

PD: por cierto, nuestro apreciado Mare Nostrum queda en el puesto #36

Enlaces sobre la noticia:

Intel Xeon Phi Coprocessor: http://www.intel.com/content/www/us/en/processors/xeon/xeon-phi-architecture-for-discovery-presentation.html

Ranking Top500: www.top500.org

Características y análisis del Intel Xeon Phi: http://www.anandtech.com/show/6265/intels-xeon-phi-in-10-petaflops-supercomputer

Grupo de investigación CAPO: www.gavab.etsii.urjc.es/capo

Etiquetas: , , ,
Categorias: General, Hardware

El Jaguar se transforma en Titan

Jaguar, el supercomputador de Oak Ridge National Laboratory que en noviembre de 2009 fue líder mundial del ranking Top500 y que quedó relegado a sexta posición el pasado junio, se reconvierte para luchar por la posición de cabeza a mediados del mes que viene con el nombre de Titan. Jaguar permaneció líder del ranking durante dos convocatorias, noviembre 2009 y junio 2010 (el Top500 es un ranking semestral), pero cedió su puesto en noviembre 2010 a la supremacía china con su Tianhe-1A y de la que dimos buena cuenta por estas línea.

En 2008 Jaguar contenía del orden de 150.000 núcleos de procesamiento y llegó a la segunda posición del ranking. En 2009 ya sufrió un upgrade para escalar a la primera posición, montando una arquitectura Cray XT5 formada por 18688 nodos de 2 CPUs AMD Opteron, cada una de las cuales contaba con 6 cores, y haciendo un total de 224256 núcleos de procesamiento para ofrecer casi 2 Petaflops (2×10^15 operaciones en coma flotante por segundo). La nueva mejora a Titan supone la migración a la arquitectura más reciente Cray XK5 obteniendo un factor x10 en capacidad computacional y llegando a los 20 Petaflops. En una primera fase se sustituían las CPUs de 6 núcleos por unas de 16, pasando a 299008 núcleos de procesamiento. Posteriormente, se incluyeron racks de procesadores gráficos NVIDIA Tesla M2090 de la familia Fermi que terminarán evolucionando a Tesla K20 de la familia Kepler, la más moderna de NVIDIA y que aquí ya presentamos.

La inclusión de procesadores gráficos (GPUs) en los supercomputadores para mejorar las cotas de procesamiento no es nueva, el citado Tiahne-1A ya presumía de ello con sus Tesla M2050 de la familia Fermi en 2011. Por su parte el anterior IBM Roadrunner, líder del ranking de junio de 2008 a noviembre de 2009 (3 convocatorias), incluía una arquitectura basada en procesadores Cell, más conocidos por ser el motor de la videoconsola Sony Playstation3. Sin embargo, la renovada imagen de Jaguar para conseguir el liderato con la inclusión de mayor número de procesadores gráficos ha sido tan espectacular (18688 GPUs, una por nodo, haciendo una arquitectura absolutamente híbrida) que la noticia ya ha aparecido en diferentes medios de información generalista (CNN, BBC, National Geographic). Cabe destacar que esta renovación no se diseña de un día para otro, y que ya estaba prevista desde mediados del año pasado.

Teniendo en cuenta que el consumo energético de Jaguar fue de 7 millones de dólares en 2011 (alrededor de 7MW de consumo), un aspecto quizá más importante que la mejora computacional del x10 que supone Titan respecto a su predecesor, es su eficiencia energética, pues sus procesadores así como las arquitecturas gráficas son más eficientes y ocupando el mismo espacio, así como mejorando un factor x10 su capacidad computacional, no requerirá mucho mayor consumo energético (alrededor de 9 MW). La arquitectura CrayXK5 dará paso en un futuro próximo a una nueva generación XK6 y está previsto que en 2016 Titan vuelva a mejorarse para conseguir otro factor 10 llegando a los 200 Petaflops, camino constante hacia la “Computación Exascala” (de la que ya hablamos en Junio 2011).

Este supercomputador será utilizado de manera abierta por la comunidad científica, para predecir el clima a través de complejos modelos, estudiar nuevos materiales y combustibles, simular procesos nucleares y, en definitiva, buscar nuevas aplicaciones y fuentes de energía para la humanidad.

 

Enlaces de interés sobre la noticia:

Titan: http://www.olcf.ornl.gov/titan/

Top500: http://www.top500.org

Cray: http://www.cray.com

NVIDIA Kepler: http://www.nvidia.com/object/nvidia-kepler.html

Grupo de investigación CAPO: http://www.gavab.es/capo

Etiquetas: , , , , , , , ,
Categorias: General, Hardware

Kepler: una evolución de los procesadores gráficos de NVIDIA

La semana pasada estuvimos en la conferencia de presentación de novedades de la marca de procesadores gráficos NVIDIA. La GPU Technology Conference (GTC) de 2012 ha presentado ante casi 3000 asistentes las novedades tecnológicas de esta reputada marca de chips gráficos que se está ganando un puesto en el área de la supercomputación (de consumo, o no).

De forma resumida, los orígenes de las GPUs (Graphics Processing Units, unidades de procesamiento gráfico, en contraposición de las CPUs/unidades de procesamiento central) se pueden centrar a primeros de los 90 para reducir el coste computacional del renderizado gráfico, especialmente en aplicaciones 3D en las que la escena 2D proyectada en pantalla viene determinada por muchos cálculos de proyección. Los videojuegos han sido el motor básico de las evoluciones que han tenido lugar en estos componentes, y donde su especial característica arquitectónica ha sido el paralelismo intrínseco que ofrecen debido a la propia naturaleza de los problemas que abordan (renderizado). Este paralelismo “innato” colocó a la arquitectura gráfica en un lugar privilegiado a finales de los 90 y primeros de la pasada década para que investigadores de todo el mundo generaran un movimiento que inicialmente se denominó GPGPU o computación de propósito general utilizando GPUs (General Purpose computation using GPUs). Y es que el poder de cómputo que podían ofrecer estos chips gráficos a problemas computacionales de todo tipo resultaba muy atractivo para los investigadores (muy comentado en este blog por cierto, ver entradas que tocan este tema más abajo). Desde el año 2002 hasta el año 2005 surgieron muchas aproximaciones para tratar estos problemas desde un punto de vista gráfico y en 2006 NVIDIA lanzó un interfaz HW/SW denominado CUDA (de Compute Unified Device Arquitecture, y por cierto, término que ahora reniega la propia NVIDIA) y el campo GPGPU pasó a denominarse GPU Computing (computación en GPU). CUDA permitía aprovechar los recursos paralelos de las GPUs de NVIDIA de una manera más accesible a programadores e investigadores no experimentados con el área de gráficos por computador.

En el GTC de la pasada semana NVIDIA ha presentado la versión 5.0 de CUDA (que ya estaba en versión beta para desarrolladores) así como la arquitectura Kepler, una evolución notable de sus chips gráficos, quizá no sobresaliente (la evolución) como lo fuera la evolución de la familia Fermi (presentada en la edición anterior del GTC), pero aún muy grata.

 

Básicamente se presentaron 3 grandes mejoras respecto a la anterior familia, justificadas por todo tipo de factores de mejora y el mediatismo propio de una gran presentación como el incremento a más de 7000 millones de transistores integrados en un procesador. La primera novedad fue la evolución de los multiprocesadores de streams (streaming multiprocessors, SM) en una versión extendida (SMX) con capacidad de 192 procesadores escalares (CUDA cores) en lugar de los 32 anteriores, una mejora más que significativa. La segunda novedad es la capacidad de crear lanzamientos de subprogramas en el dispositivo gráfico (denominados kernels) desde otros subprogramas que se ejecutan en la GPU con parámetros variables en tiempo de ejecución. Esta capacidad puede simplificar ciertas tareas de sincronización e, incluso, se puede crear cálculos recursivos en GPU (algo que estaba prohibido anteriormente). A esta capacidad de lanzar subprogramas con parámetros variables la han denominado Dynamic Parallelism o paralelismo dinámico, característica muy interesante para refinar el cómputo en determinadas estructuras de datos, como el sugerente árbol de cómputo de la simulación del colapso de dos galaxias que se demostró en el GTC. La tercera gran capacidad de la familia Kepler es lo que denominan Hyper-Q, que no es más que la creación de varias colas de trabajo independientes para diferentes hilos de un procesador CPU con varios núcleos de procesamiento, quizá algo menos innovador por la natural evolución a múltiples núcleos de procesamiento de las plataformas CPU.

La parte negativa, es que estas tres capacidades anteriores estarán soportadas en la versión GK110 del procesador, no disponible hasta finales de año, y cuya versión ahora disponible (la GK104) solo incluyen los SMX.

En cualquier caso, felicidades NVIDIA, por la organización del fantástico evento GTC como por el nacimiento de Kepler.

Aquí tenéis un video-resumen del GTC:

Imagen de previsualización de YouTube

Enlaces sobre la noticia:

GTC: http://www.gputechconf.com/

Información sobre Kepler: http://www.nvidia.com/object/nvidia-kepler.html

White Paper: http://www.nvidia.com/content/PDF/kepler/NVIDIA-Kepler-GK110-Architecture-Whitepaper.pdf

Noticias anteriores de procesamiento en GPU:

http://www.madrimasd.org/blogs/supercomputacion_de_consumo/2009/12/06/129786

http://www.madrimasd.org/blogs/supercomputacion_de_consumo/2009/01/29/111970

http://www.madrimasd.org/blogs/supercomputacion_de_consumo/2008/12/10/109037

http://www.madrimasd.org/blogs/supercomputacion_de_consumo/2008/10/16/103763

Etiquetas: , , , , ,

4004@40: El 40 aniversario del primer microprocesador

Hoy es el 40 aniversario del considerado como primer microprocesador de consumo, y así se recoge por la prensa especializada. El microprocesador Intel 4004, originariamente incluido como motor de una calculadora, fue el inicio de la escalada de Intel, que partió con el nombre NM Electronics (de Bob Noyce y Gordon E. Moore, sus fundadores) en 1968. Hoy el gigante le ha dedicado un microsite al 4004 que puedes ver aquí.

Al año siguiente, 1972, y ya con tecnología de 8 bits, aparecía el Intel 8008 listo para embarcarse en un computador. Aunque no sería hasta 1974 cuando realmente se empezaron a fabricar procesadores para ordenadores de propósito general con el mítico Intel 8080. Poco después se dió paso a las primeras arquitecturas de 16 bits de gran aceptación en el mercado (Intel 8086 y 8088), y de ahí a las de 32 bits aún presentes en muchos computadores domésticos.

Hoy la tendencia en los computadores de consumo (muy comentada en este blog) es la clara apuesta por los procesadores de múltiples núcleos de procesamiento. En 2005 empezaron a comercializarse los dos núcleos en un mismo chip (comentado en este post) y ahora se anuncian las primeras tablets con hasta 4 núcleos de procesamiento con la versión 3 de Nvidia Tegra (comentada la primera versión aquí en 2009). Estos días se puede leer la noticia del superchip de 50 núcleos de Intel, el Knights Corner, del que si queréis podremos seguir por este blog.

Felicidades Intel.

Imagen de previsualización de YouTube

 

Enlaces sobre la noticia:

http://www.intel.com/about/companyinfo/museum/exhibits/4004/docs.htm

http://www.xataka.com/componentes-de-pc/intel-4004-cuarenta-anos-para-la-historia

http://www.extremetech.com/computing/105029-intel-4004-the-first-cpu-is-40-years-old-today

Etiquetas: , ,
Categorias: General, Hardware