‘General’

Supercomputación, ¿sin noticias, buenas noticias?

Con la posibilidad de hacer 93 cuadrillones de operaciones por segundo (petaFLOPS), el supercomputador chino Sunway TaihuLight sigue siendo, desde Junio 2016, la instalación de cómputo más potente del mundo.

Llevamos ya un par de posts en este blog hablando de lo mismo: de lo bien que China lo ha hecho en el mundo de la supercomputación. Y es justo incidir en ello, porque China no tuvo un supercomputador en el Top500 hasta hace 20 años y hoy tiene 160 (por 168 estadounidenses), siendo el segundo país con más instalaciones del ranking. En Junio de 2016, el Top#1 lo copó Sunway TaihuLight, pero lo extraordinario de ello es que su fabricación era completamente china y además energéticamente muy eficiente, ¡el doble que el segundo supercomputador del ranking! (también instalación china, por cierto).

Retomando la descripción del post anterior, Sunway TaihuLight posee más de 10 millones de núcleos de procesamiento y consume algo más de 15 millones de vatios (equivalente a unos 75.000 ordenadores domésticos de escritorio). Esto le hace ser el segundo sistema del Top10 en la lista de los Green500, es decir, el segundo más ecológico de los 10 sistemas más potentes del mundo, y en el puesto número 17 con un ratio de más de 6000 MFLOPS por vatio consumido (6 billones de operaciones en coma flotante por segundo y vatio consumido).

Es sorprendente ver cómo en el Top10 del ranking hay 2 instalaciones chinas (puestos #1 y #2), una europea en el tercer puesto, 5 estadounidenses y una japonesa. El honorable bronce europeo proviene de una actualización de la instalación Suiza de Piz Daint, que aumentó el número de aceleradoras de última generación NVIDIA Tesla P100 de las que ya disponía.

Por nuestra parte, España mantiene en lista una única instalación, el Mare Nostrum del Barcelona Supercomputing Center, con una importante actualización (Mare Nostrum 4) que la ha llevado del puesto #129 hace 6 meses a un memorable puesto #13 y alcanzando los 11,1 petaFLOPS. La actualización se debe a la inclusión de los procesadores Intel Xeon Platinum 8160 de 24 cores, únicos en las instalaciones del ranking posiblemente por lo apresurado desde su lanzamiento. Mare Nostrum llegó a estar en el #4 en noviembre de 2004, cuando entró por primera vez en lista como tal, y aunque nunca llegó al #1, desde luego sí es el número 1 en belleza (ver imagen donde se le ve dentro de la capilla de la Torre Girona de principios de siglo XX).

Curioso también el hecho de que de los 500 supercomputadores del ranking, 498 posean un sistema operativo Linux, y sólo 2 queden con Unix. La razón no es otra que la facilidad de modificar un sistema Linux para ajustarlo a la necesidad de un supercomputador frente a otros sistemas operativos.

Si tienes más curiosidad aquí tienes toda la lista de junio de 2017: https://www.top500.org/lists/2017/06/  

Etiquetas: , ,

Asalto chino a la supercomputación: 2ª parte

Lo de que “segundas partes nunca fueron buenas” seguro que a más de uno le suena. Pero a la comunidad de las altas prestaciones en China le está encantando. Sunway TaihuLight es el supercomputador más potente del mundo en la cada vez más polémica métrica LINPACK. Con 93 petaFLOPS, triplica el rendimiento del que queda en segundo puesto, el también chino Tianhe-2, que equipaba procesadores Intel. La gran novedad, además del asalto al puesto 1 de un nuevo sistema, es que Sunway TaihuLight es 100% de fabricación china, ni Intel, ni IBM, ni NVIDIA, ni AMD,…

Justo un post más abajo comentábamos hace casi un año que China revolucionaba el ranking de la supercomputación copando el primer puesto durante 3 años completos desde su entrada en el Top#1. Hablábamos de que las instalaciones chinas se habían triplicado en poco tiempo. Pero lo que nadie había advertido con antelación es que en Junio 2016, no sólo el Top#1 seguiría siendo de una instalación china, sino que su fabricación sería completamente china (algo insólito) y que dejaría en segundo lugar, y por mucho, al que había sido dueño del pódium durante 3 años, Tianhe-2. Y no solo en rendimiento, que alguien podría pensar que “sólo” hay que meter más procesadores, sino que también es energéticamente más eficiente, ¡el doble!

Sunway TaihuLight posee más de 10 millones de núcleos de procesamiento (casi igual que la máquina desde donde nos lees, ¿verdad?) y consume algo más de 15 millones de vatios (si pensamos en un equipo de sobremesa de 200 vatios serían como 75.000 ordenadores). Esto le hace ser el tercer sistema en la lista de los Green500, es decir, los más ecológicos, y sin duda el 1º de las mayores instalaciones con un ratio de más de 6000 MFLOPS por vatio consumido (6 billones de operaciones en coma flotante por segundo y vatio consumido). Todos los detalles del sistema vienen descritos en el documento hecho público por el investigador de la Universidad de Tennessee, Jack Dongarra. Los medios han tomado buena nota de ello desde que se conoció el ranking el pasado Junio, y hace poco incluso en medios generalistas de la prensa española.

El Departamento de Energía (DoE) estadounidense tiene proyectados desde hace más de un año la creación de 2 supercomputadores con 5-10 veces más potencia que Tianhe-2, y que estarían en funcionamiento en 2017, pero que ya no parecerían sacar tanta ventaja al Top#1 de origen chino. Por nuestra parte, España mantiene en lista una única instalación, el Mare Nostrum, en el puesto #106 y perdiendo ya al Teide HPC que estuvo en el #373 en noviembre de 2015. Si tienes más curiosidad aquí tienes toda la lista del pasado junio: https://www.top500.org/lists/2016/06/

Etiquetas: , , ,
Categorias: General

Asalto chino a la Supercomputación

Celebrándose la Supercomputing Conference 2015 en Austin, EEUU, y puntuales a la cita, se anunció este pasado martes 16 la actualización invernal del famoso ranking bianual (junio/noviembre) Top500. Y para desgracia de los lectores, por sexta vez consecutiva, Tianhe-2 mantuvo el liderazgo (¡3 años completos!) con sus 33 petaflops. Esta falta de novedades contrasta con los constantes movimientos que hubo en la cabeza del ranking de la supercomputación en los anteriores años a la llegada del gigante chino. Entonces, ¿dónde está la noticia de este año?

Se suelen analizar los 10 primeros puestos por si hay nuevas entradas que puedan suponer un peligro inminente al Top1, pero solamente hay 2 “tímidas” entradas respecto a Junio 2015, en los puestos #6 (el americano Trinity, con algo más de 300.000 núcleos CPU y llegando a los 8 petaflops) y #8 (el alemán Hazel Han, segundo europeo en el ranking detrás del suizo Piz Daint, con 185.000 núcleos y 5,6 petaflops).

Sin embargo, la noticia que dan los medios es la de la subida en el número de instalaciones chinas, triplicando su presencia en el ranking de los 500 sistemas más potentes del mundo y pasando de 37 a 109 supercomputadores en el listado. Es cierto que la mayor parte de la nueva entrada está en la parte baja del ranking, pero no deja de ser el comienzo de una entrada a gran escala, teniendo ya más instalaciones que toda Europa (que pasa de 141 a 108 supercomputadores en lista).

El Departamento de Energía (DoE) estadounidense ya tiene proyectados desde hace un tiempo la creación de 2 supercomputadores con 5-10 veces más potencia que Tianhe-2, y que estarían en funcionamiento en 2016-2017, pero no deja de ser curiosa la reacción de los medios. Por nuestra parte, España mantiene en lista el Mare Nostrum en el puesto #91 (bajando desde el puesto #77 en el anterior listado y del #29 en junio 2013) y el Teide HPC en el #372 (respecto al puesto #259 en julio 2015 y #138 en noviembre de 2013). Si tienes más curiosidad aquí tienes toda la lista de noviembre: http://top500.org/list/2015/11/

Más interesante es la entrevista que hace una semana concedía un coautor del ranking Top500, Dr. Jack Dongarra, sobre el uso del benchmark Linpack (High Performance Linpack, HPL) para evaluar el rendimiento de estos sistemas, no siempre el mejor para medir la escalabilidad del comportamiento en problemas reales, y que puede llegar a distorsionar las arquitecturas de las instalaciones haciéndolas ineficientes para problemas reales aun comportándose bien en el ranking. Hace dos años, casualmente cuando Tianhe-2 se mostraba imbatible al llegar al trono, se propuso el proyecto High Performance Conjugate Gradient (HPCG) benchmark como nueva medida de rendimiento, que se acercaría más a los problemas para los que suelen utilizarse estos superordenadores.

Imagen del supercomputador Tianhe-2 (fuente: Top500)

Etiquetas: ,

Semana Grande de la Supercomputación: Top500 y premios NVIDIA a centros educativos y de investigación

Adelantábamos en el último post de las previsiones de supercomputación que Noviembre tenía una de las fiestas bianuales de la supercomputación, la del Top500. Así ha sido, pero aún hay más: se han anunciado los nuevos NVIDIA CUDA Teaching/Research Centers con 3 incorporaciones nacionales, la Universidad de Valladolid, la Universidad de Sevilla y la Universidad Rey Juan Carlos.

Celebrándose la Supercomputing Conference 2014 en Nueva Orleans, EEUU, se anunció el pasado martes el ranking de noviembre del Top500. Por cuarta vez consecutiva, Tianhe-2 mantuvo el liderazgo (2 años completos, con las 4 actualizaciones correspondientes de las que hemos dado cuenta por estas líneas). Estados Unidos bajó en 2 instalaciones de su lista en el Top500 (llegando a 231 instalaciones y siendo líder en número de supercomputadores del ranking, casi la mitad de todos) y las europeas subieron en 14 hasta 130. A finales de la semana pasada se anunciaba a bombo y platillo la ayuda económica que NVIDIA e IBM recibirían para hacer posible en el plazo de 3 años dos supercomputadores de entre 2-10 veces más potente que el actual #1. Para ello, se valdrían de procesadores PowerPC9 y aceleradores NVIDIA Tesla k80 de futura generación, basados en la familia Volta, nombre dedicado al físico italiano Alessandro Volta, inventor de la batería, por la extremada eficiencia energética de dicha familia. IBM ya tiene grandísima experiencia en el diseño de estos supercomputadores, no tanto NVIDIA a pesar de que su tecnología CUDA esté presente en 2 de las 10 instalaciones más potentes del citado ranking.

NVIDIA también anunció sus nuevos CUDA Teaching Centers (CTC) y CUDA Research Centers (CRC), galardones a los centros que mantienen en sus planes docentes o investigaciones multidisciplinares materia ligada con la tecnología NVIDIA CUDA. Nos complace anunciar que entre sus nuevos CTCs  tenemos a la Universidad de Valladolid y a la madrileña Universidad Rey Juan Carlos (la que acoge nuestro día a día), por nuestro afán de atraer nueva tecnología a las aulas de las titulaciones de la Escuela Técnica Superior de Ingeniería Informática. Así, Madrid tiene 3 centros (UAM, UPM y URJC) de los 10 de toda España. Este galardón conlleva una donación de material de última generación para su uso en las clases y talleres de las titulaciones que así lo requieran o seminarios a la comunidad científica del centro, cuyos investigadores implicados se comprometen a impartir. También es importante citar la entrada de la Universidad de Sevilla como CRC haciendo 6 centros españoles.

NVIDIA CUDA es una tecnología de cómputo paralelo que aprovecha la gran potencia de cálculo de las tarjetas gráficas (en realidad de su procesador, GPU, de unidad de procesamiento gráfico) para acelerar la ejecución de aplicaciones científicas. Surge como forma de simplificar la programación de estos procesadores especiales, al igual que existen lenguajes de programación (C, Pascal, Fortran, Java,…) para los tradicionales procesadores centrales (CPUs, de unidades de procesamiento centrales), en los que siempre se han ejecutado las aplicaciones. En determinados casos, en los que la gran independencia de los datos a procesar y la cantidad de ellos son enormes, la potencia de las GPUs puede superar con creces a la de la CPU, además de ser energéticamente más eficientes por estrategias de diseño. NVIDIA CUDA surgió en 2007 gracias al increíble éxito que tuvieron los primeros programas que, haciendo uso de la potencia del procesador gráfico, mejoraban el rendimiento y se volvían más rápidos. Algunas de las nociones para entender este éxito lo pusimos por este blog hace unos años. Actualmente, esta tecnología está soportada por toda la gama de procesadores gráficos de NVIDIA, desde sus tarjetas gráficas más domésticas de apenas unas decenas de euros, hasta sus aceleradores de supercomputación más potentes de varios miles.

 

Etiquetas: , , , , , , , ,

Previsiones en supercomputación

En breve vuelve la cita de la supercomputación con la edición de noviembre del ranking Top500 bianual. El chino Tianhe-2 mantuvo el liderazgo durante las 3 últimas ediciones, único en hacerlo durante tanto tiempo en la historia del ranking (junio y noviembre 2013, junio 2014) y será curioso saber si se mantiene o pasa a segundo plano. Aquí no hacemos previsiones, no habrá que esperar mucho.

Actualmente (tras la edición del ranking del pasado junio), España mantiene 2 supercomputadores en el ranking (en 2007 tuvo 9, ya hablaremos de ellos en otro post). Mare Nostrum del Barcelona Supercomputing Center (BSC) bajó del puesto #34 en noviembre 2013 al #41 en junio 2014, y el Teide-HPC del Instituto Tecnológico y de Energías Renovables S.A. del puesto #138 al #168, haciendo que España esté en el puesto #12 del ranking por países junto con Bélgica, Finlandia o Polonia, y por detrás de compañeros europeos como Noruega y Suecia, (con 3 bases instaladas), Italia y Holanda (con 5 bases), Suiza (con 6), Alemania (#5, con 22), Francia(#4, con 27) y Reino Unido,que entra en el Top 3 (con 30 bases) igualando a Japón. Por delante, siguen liderando EEUU (con 232 bases, dejándose casi 30 bases respecto a la anterior edición) y China (76, aumentando 10).

Siempre en la polémica por el gasto que estos enormes supercomputadores producen (en términos energéticos y de instalación) hay que recordar los usos tan bien amortizados que ofrecen. La predicción meteorológica es uno de ellos, y de los más comprensibles. La estimación de los cambios de tiempo de manera anticipada puede favorecer a multitud de sectores y se hace mediante técnicas de computación desde los años 50. Imaginemos lo importante que es la predicción de tormentas, nieves, nieblas o fuertes vientos en los alrededores de los aeropuertos, para la propia logística y priorización de aterrizajes y despegues. La previsión de inundaciones en ciudades y pueblos pequeños podría evitar pérdidas humanas (http://blog.cray.com/?p=6109). De hecho, hace unos días se anunciaba que el gobierno de Reino Unido tenía previsto la adquisición de un nuevo supercomputador con este fin, que tendrá un precio de unos 125 millones € y empezará a estar operativo para septiembre del 2015. Será 13 veces más rápido que su antecesor y pesará 140 toneladas, ocupando el espacio de 11 de sus autobuses de 2 plantas tan típicos (http://rt.com/uk/200127-uk-met-weather-supercomputer/).

India también tiene aprobados ambiciosos planes de supercomputación, tratando de desarrollar un supercomputador de capacidad ExaFLOP (1018 FLOPS, alrededor de 20 millones de veces la potencia de un procesador doméstico) que podría tener listo para 2017 (a pesar de que la previsión mundial estaba puesta para llegar a la exaescala en 2018-20).

La predicción meteorológica con 2 semanas de anticipación es un problema considerado en el rango de los ZettaFLOPS (1021 FLOPS, 1000 veces mayor que el anterior). Con la tendencia actual se conseguiría alrededor del año 2030. Pocos años antes (2025) se podría simular completamente el comportamiento del cerebro humano (con todas sus neuronas y sinapsis, rondando los 1019 FLOPS), y aquí recordamos el macroproyecto FLAGSHIP europeo del Horizonte 2020, Human Brain Project.

Hemos hablado de previsiones, metereológicas, neuronales, y de las que tengan que venir en la edición de noviembre del Top500, previsiones en supercomputación.
Etiquetas:
Categorias: General

No pasa el tiempo en el Top de la supercomputación

El pasado lunes 18 de noviembre, por la noche hora española, se publicaba en la Supercomputing Conference 2013 desde Denver el, ya citado muchas veces en estas líneas, Top500, el ranking de la base instalada de supercomputadores a nivel mundial. Cuántos han pensado lo bueno que sería que no pasara el tiempo…

Pues eso es básicamente lo que ha ocurrido en el ranking semestral (junio/noviembre). Nada ha cambiado en los 5 primeros puestos de cabeza desde el pasado mes de Junio, cuando el supercomputador chino Tianhe-2, rebautizado como “Milky Way 2”, tomó el puesto #1. Con ello China vuelve a ocupar, por tercera vez en la historia del Top500, el primer puesto. Recordamos que la primera vez fue en noviembre de 2010, con el Tianhe-1. En aquella ocasión Estados Unidos vio una amenaza en la escalada que China había conseguido en los últimos años hasta llegar a la cima de la supercomputación.

La primera novedad en el ranking es la entrada del supercomputador más potente de Europa, localizado en Lugano (Suiza), del Centro Nacional de Supercomputación de Suiza (Swiss National Supercomputing Centre, CSCS) con 6.27 PFlops y el más eficiente energéticamente de todo el Top10. Entre los 500 centros se cuentan 2 españoles, el MareNostrum del Barcelona Supercomputing Centre (BSC) en el puesto #34 y el Teide-HPC del Instituto Tecnológico y de Energías Renovables S.A. en el puesto #138, haciendo que España quede en el puesto #11 del ranking por países, por detrás de compañeros europeos como Noruega, Suecia, Suiza, Italia (todos ellos en el puesto #9 con 3 bases instaladas), Alemania (#6, con 20), Francia(#5, con 22), Reino Unido (#4, con 23). El Top3 en países lo sigue liderando EEUU (264), China (63) y Japón (28), en este orden.

Por áreas de aplicación sorprende que encontremos en el puesto #64 (#127 en junio pasado) al Amazon EC2 C3 Instance Cluster, el supercomputador de la empresa Amazon, que es la única instalación dedicada a los Web Services, o en el #468 el supercomputador de Volvo Car Group, siendo ambos, ejemplos de fuertes empresas que necesitan de la supercomputación. En números 410 (82%) instalaciones no tienen área de aplicación concreta, 56 (11.2%) son de investigación, 9 (1.8%) para el estudio del clima, 6 (1.2%) para la energía y 5 (1%) para defensa. ¿No sería interesante ver a grandes empresas españolas de la energía o las comunicaciones con un supercomputador en el Top500?

Con respecto a los aceleradores utilizados, se nota un leve incremento (1,4%) en el uso de ellos (coprocesadores vectoriales especializados), liderando los equipos basados en la tecnología gráfica de NVIDIA y seguida, de lejos en cuanto a número de instalaciones, por Intel con la arquitectura novedad de hace un año Intel Xeon Phi.

Con respecto a los aceleradores utilizados, se nota un leve incremento (1,4%) en el uso de ellos (coprocesadores vectoriales especializados), liderando los equipos basados en la tecnología gráfica de NVIDIA y seguida, de lejos en cuanto a número de instalaciones, por Intel con la arquitectura novedad de hace un año Intel Xeon Phi.

Además, también el pasado lunes NVIDIA anunció en la Supercomputing Conference su alianza con IBM para la fabricación de los nuevos equipos Tesla K40 como extensión de su arquitectura GK110 con mayor número de núcleos de procesamiento, duplicando las velocidades y cantidad de memoria, así como dotando de mayores frecuencias de reloj. Además de ello, también avanzó lo que será la posible estrella para su propia conferencia GTC (Graphics Technology Conference) de finales del próximo marzo con el lanzamiento de CUDA 6 y un espacio de memoria unificado entre CPU y GPU, que conllevará una innecesaria reserva de espacios de memoria localizados

Se antoja una de las mayores mejoras de la plataforma CUDA de toda su historia, pues para trabajar con datos en memoria gráfica ya no serían necesarias las copias explícitas de un dispositivo a otro (a menos que se requiera exprimir al máximo el rendimiento). Esta memoria unificada abrirá la puerta a nuevos programadores de una manera más cercana, lo que, al fin y al cabo, es facilitar la adopción de la tecnología, lo que NVIDIA siempre llamó la “democratización de la supercomputación” (democratized supercomputing).

 

Etiquetas:

De nuevo supremacía china en la supercomputación

Adelantábamos la semana pasada que el supercomputador chino Tianhe-2, rebautizado como “Milky Way 2”, tomaría el relevo por el puesto #1 en el ranking del Top500 de los supercomputadores. El pasado lunes 17 así se confirmó en la International Supercomputing Conference 2013 (ISC’13). Con ello China vuelve a ocupar, por segunda vez en la historia del Top500, el primer puesto. La primera, y última vez hasta el momento, fue en noviembre de 2010, con el Tianhe-1. En aquella ocasión Estados Unidos vio una amenaza en la escalada que China había conseguido en los últimos años hasta llegar a la cima de la supercomputación. La siguiente gráfica muestra la evolución por países, y se puede observar que China (en azul oscuro), entrando en noviembre de 2001 en el ranking, va escalando posiciones llegando a superar al agregado de la Unión Europea (rojo) y quedando solo detrás de Estados Unidos (celeste) en rendimiento total en el ranking (agregado de todos los supercomputadores de la lista por países).

 Por otra parte, se libra otra batalla, la del uso de aceleradores. Los aceleradores son dispositivos especializados en cómputo paralelo que se integran a modo de coprocesadores de las unidades centrales de procesamiento (CPUs). La inclusión masiva y demostrada del poder de cómputo de estos dispositivos especializados tiene su origen con los IBM Cell Processors a finales de 2007 y fundamentalmente en 2008, cuando llegaron a aportar casi el 10% del rendimiento sumado de todos los supercomputadores del ranking. Ahora ese porcentaje es del casi 35%, es decir, el 35% de todo el rendimiento aportado por los 500 supercomputadores viene originado por los aceleradores incluidos en solo el aproximadamente 50% de los equipos. Esto viene a decirnos que los aceleradores llegaron para quedarse, que energéticamente son muy eficientes, y que empujan el rendimiento de estos monstruos a nuevas cotas. En noviembre de 2012 los Intel Xeon Phi fueron la novedad y los presentamos por estas líneas, hoy han tomado la cima con el Tianhe-2, escalando por encima de los NVIDIA Kepler, que debutaron también en 2012 tras el éxito de su anterior generación NVIDIA Fermi (hoy por hoy los aceleradores aún más utilizados del ranking). Intel además ha aprovechado el tirón mediático de su puesto #1 en el ranking para anunciar sus nuevas familias de los coprocesadores Xeon Phi, con variedad a nivel de eficiencia energética, rendimiento, capacidades de memoria, formatos y dimensiones. Pero esto merecerá otro post. Eso sí, hoy por hoy, los IBM Cell han quedado casi en el olvido (al menos en la 41 edición del ranking), lo que nos recuerda el post de la caída de los titanes.

Etiquetas: , , ,

20 años de Top500 y expectantes por Tianhe-2

Pongámonos en antecedentes. Junio y noviembre son las dos citas más importantes para la supercomputación, pues se publica el ranking del Top500, que ahora cumple 20 años. Es como la Fórmula 1, ningún fabricante quiere desaprovechar el tirón comercial del campeonato para alardear de méritos tecnológicos, mostrar coches de 6 millones de euros y luego vender otros para el gran público de 20.000 euros.

Y ya estamos en junio. Y lo que empezó siendo un ejercicio de una pequeña conferencia en junio de 1993 se ha convertido en un monstruoso escaparate. Cray, Intel, AMD, IBM, la reciente NVIDIA, etc. tienen la vista puesta en el día 17 de este mes. Sin embargo, algunos ya van dando píldoras de información para levantar grandes revuelos. Si en noviembre de 2010 confirmábamos la consolidación de China como gran potencia de la supercomputación liderando el ranking con el Tianhe-1, en estos días se habla del Tianhe-2.

Tianhe-1 se alzaba con una victoria política (por ser de origen chino y romper la supremacía americana) con sus 2.5 petaflops (casi 20000 veces lo que un procesador potente de consumo), siendo el primer supercomputador en llegar al Top1 con tecnología de NVIDIA (líderes en procesadores gráficos, no en procesadores de propósito general como IBM, AMD o Intel). La entrada de “aceleradores” en lugar de procesadores comunes, además de otorgar un gran poder computacional reducía de forma importante el consumo eléctrico, con un ahorro estimado del Tianhe-1 equivalente al consumo de 5000 hogares durante un año. Esta irrupción de los “aceleradores” de NVIDIA supuso un antes y un después en la tecnología integrada en los supercomputadores del ranking, pues desde entonces NVIDIA ha incluido estos componentes en todos los grandes equipos. Tianhe-1 fue el primero con ellos en liderar el ranking.

En noviembre de este año pasado, el que llegó al Top1 fue Titan con 17 petaflops, del que dimos cuenta en su momento, que también incluía aceleradores de NVIDIA. Sin embargo, Intel introducía en el ranking sus propios aceleradores a través de su tecnología Intel Xeon Phi (de los que también hablamos) llegando al puesto #7 con el Stampede de Texas. Ya ahí decíamos que la nueva propuesta de Intel podría dar que hablar. Los Intel Xeon Phi desafiaban en la sombra a los Teslas de NVIDIA.

Pues bien, hace unos días, con el avance informativo sobre Tianhe-2, podría llegar el inesperado adelantamiento de Intel a NVIDIA, y Titan con sus Teslas caería a manos del Tianhe-2 con 48000 unidades de Intel Xeon Phi y un pico de 54 petaflops, aunque poco más de 30 en las pruebas continuadas. Una descripción técnica de Tianhe-2 se puede encontrar aquí.

No somos pitonisos, aunque hace poco más de un mes hablábamos de la “caída de los titanes”. Y es que, como dicen por ahí, todo lo que sube, baja. Estaremos pendientes de lo que ocurra dentro de una semana… en el 20 cumpleaños del Top500.

Etiquetas: , , ,
Categorias: General, Hardware

“La caída de los titanes”

Que la tecnología va más rápido que su uso es un hecho casi indiscutible, apenas hemos entendido un dispositivo cuando toca renovarlo. En el campo de la supercomputación también ocurre, y ejemplos recientes de ello hemos tenido en los últimos años. Hoy tratamos un ejemplo en el post de “la caída de los titanes”, recordando la famosa obra de Cornelis van Haarlem, el supercomputador de moda en el Top500, Titan, del que hablamos el pasado octubre, y el último procesador gráfico de NVIDIA, el Geforce GTX Titan, basado en la tecnología Kepler con importantes mejoras para la supercomputación de consumo (o no tan de consumo).

El procesador Cell se desarrolló gracias a la alianza denominada STI de Sony, Toshiba e IBM y sus primeros demostradores datan del año 2001. IBM diseñaba el procesador, Toshiba fabricaba y ofrecía un campo de aplicación en electrodomésticos (como su CellTV de 2010) y Sony garantizaba el desarrollo de aplicaciones, videojuegos y demás expectativas para su Playstation 3, que se lanzó en 2006, y que fue el producto comercial estrella del Cell Processor. El procesador Cell tuvo un arranque muy importante, algunas empresas, como Mercury Computer Systems, basaban sus productos en dicho procesador para campos muy productivos como la imagen médica, inspección industrial, tecnología aerospacial o la supercomputación, pero todo esto tocó techo mediático. El procesador era muy complejo de programar y de sacar partido, y este hecho retrasó en gran medida los grandes lanzamientos para la videoconsola de Sony. En 2007 Sony abandonaba el barco, vendiendo participaciones a Toshiba, que posteriormente recuperaría. Sin embargo, la inminente Playstation 4 parece que estará basada en la arquitectura x86 más tradicional (en este caso de la mano de AMD), la forma en la que otras videoconsolas, como Xbox360, ganaba la carrera en los lanzamientos de novedades.

A la par, el supercomputador Roadrunner fue el #1 del ranking mundial Top500 en Junio de 2008 y hasta noviembre de 2009. Estaba basado precisamente en la tecnología Cell, e incluso en la actualidad se mantenía en la lista del Top500 en una destacada posición (#22), pero sus últimas noticias son que se desmontará. Cayó un titán.

Otros grandes anuncios también tuvieron sus fracasos, como el proyecto Larrabee de Intel (del que hablamos en diciembre de 2009) pero que pudieron reconvertirlo a coprocesador de altas prestaciones en el Intel Xeon Phi que citamos hace escasos meses.Veremos con el tiempo qué pasa, y si mantiene buenos puestos en el escaparate del Top500 como para convencer en otras áreas.

PD: Por cierto, del Cell TV de Toshiba nunca más se supo en occidente.

Enlaces sobre la noticia:

Ranking Top500: www.top500.org

Etiquetas: , , , , , , ,
Categorias: General, Hardware

La nueva apuesta en supercomputación: Intel Xeon Phi

El Big Data está de moda. Expectantes estábamos algunos con la prometida tecnología MIC (Many Integrated Core) de Intel. Años de espera, promesas, nombres alternativos (como Knights Corner) y especulación (en su acepción de prestar atención detenidamente) ha dado por fin con el producto, el Intel Xeon Phi Coprocessor, orientado al procesamiento masivo de datos. El famoso fabricante de procesadores de propósito general ha anunciado que a partir de este momento se podrán adquirir equipos de cómputo paralelo masivo manteniendo un modelo de programación parejo al que se tiene en una plataforma de cómputo tradicional, esto es, una CPU y un entorno de programación de propósito general (lenguaje de alto nivel y su respectivo compilador). Las primeras unidades del Xeon Phi Coprocessor se vislumbran como dispositivos externos energéticamente eficientes basados en la conocida tecnología x86, que ofrecen 1TFLOPS de poder computacional en doble precisión, conectables a nuestros ordenadores a través de puertos PCI Express convencionales y cuyos precios rondarían los 2000 euros al cambio. Lo que en el año 97 eran más de 9200 procesadores ahora es un único dispositivo del tamaño de una caja de zapatos (pequeña).

Con este movimiento, Intel da un paso al frente en la carrera de la supercomputación de consumo, que da título a este blog, y que otros fabricantes mencionados en estas líneas ya se habían adelantado (e incluso ganado terreno). Atendiendo a las notas informativas que Intel ha lanzado en la presentación de su Xeon Phi, esta tecnología está absolutamente inspirada en el originario concepto de GPGPU y posteriormente rebautizado como GPU Computing, al que se refiere el uso del hardware gráfico (GPU, Graphics Processing Unit) para realizar costosas tareas de propósito general a modo de coprocesador de la unidad central de procesamiento o CPU (Central Processing Unit). Y no solo el Intel Xeon Phi Coprocessor está inspirado en el concepto de GPGPU, sino que está enfrentado a ello para ofrecer un entorno más amigable para el aprovechamiento de una capacidad de cómputo extra que lo que OpenCL o NVIDIA CUDA ofrece con las GPUs. Y ahí está el verdadero valor de Intel Xeon Phi, su amigabilidad en el ecosistema de la programación, la mayor posibilidad de abrazarlo entre la comunidad de desarrolladores, manteniendo una facilidad de escalado mediante la posibilidad de conectar hasta 8 coprocesadores en un único PC anfitrión.

Pero describamos con palabras más llanas lo que debemos vislumbrar. Intel Xeon Phi Coprocessor es un dispositivo de cómputo que se puede conectar fácilmente a nuestro ordenador de sobremesa, que se programa de modo habitual para que cualquier programador pueda sacarle partido y que ofrece unas cotas de rendimiento para problemas costosos muy superior a las que obtendríamos mediante un computador de sobremesa por muy moderno que fuera. Esto abre la puerta a muchos investigadores que no han podido acogerse a otros modelos de programación por su dificultad o especificidad, como NVIDIA CUDA, lo cual es una noticia que creemos alegrará a la comunidad científica que necesite de computadores para sus pesadas simulaciones.

Como hemos comentado en otros posts (como el último sobre la transición del Jaguar a Titan) muchos supercomputadores cuentan con unidades de cómputo masivo específicas, actualmente basadas en tecnologías heredadas del terreno del GPU Computing como son los dispositivos NVIDIA Tesla. Pues bien, Cray ya anunció que adoptaría la tecnología Intel Phi en sus nuevas integraciones y los primeros supercomputadores con tecnología Intel Xeon Phi no tardaron en aparecer, llegando al puesto #127 del ranking el pasado junio. El pasado lunes 12 de noviembre se publicaron los resultados de la presente convocatoria del ranking Top500 (donde se confirma la previsión de Titan como #1), y los aceleradores Xeon Phi han escalado posiciones hasta el puesto #7, como el caso de Stampede de Texas, que se sitúa por encima del que fuera #1 en noviembre de 2010, el Tianhe-1A. Habrá que ver la próxima convocatoria en Junio cuántos de ellos adoptan esta nueva tecnología, y en qué posición se sitúa el primero basado en Intel Xeon Phi. Muy reñida estará la partida entre los Teslas y los Phis.

PD: por cierto, nuestro apreciado Mare Nostrum queda en el puesto #36

Enlaces sobre la noticia:

Intel Xeon Phi Coprocessor: http://www.intel.com/content/www/us/en/processors/xeon/xeon-phi-architecture-for-discovery-presentation.html

Ranking Top500: www.top500.org

Características y análisis del Intel Xeon Phi: http://www.anandtech.com/show/6265/intels-xeon-phi-in-10-petaflops-supercomputer

Grupo de investigación CAPO: www.gavab.etsii.urjc.es/capo

Etiquetas: , , ,
Categorias: General, Hardware