Posts etiquetados con ‘NVIDIA’

Semana Grande de la Supercomputación: Top500 y premios NVIDIA a centros educativos y de investigación

Adelantábamos en el último post de las previsiones de supercomputación que Noviembre tenía una de las fiestas bianuales de la supercomputación, la del Top500. Así ha sido, pero aún hay más: se han anunciado los nuevos NVIDIA CUDA Teaching/Research Centers con 3 incorporaciones nacionales, la Universidad de Valladolid, la Universidad de Sevilla y la Universidad Rey Juan Carlos.

Celebrándose la Supercomputing Conference 2014 en Nueva Orleans, EEUU, se anunció el pasado martes el ranking de noviembre del Top500. Por cuarta vez consecutiva, Tianhe-2 mantuvo el liderazgo (2 años completos, con las 4 actualizaciones correspondientes de las que hemos dado cuenta por estas líneas). Estados Unidos bajó en 2 instalaciones de su lista en el Top500 (llegando a 231 instalaciones y siendo líder en número de supercomputadores del ranking, casi la mitad de todos) y las europeas subieron en 14 hasta 130. A finales de la semana pasada se anunciaba a bombo y platillo la ayuda económica que NVIDIA e IBM recibirían para hacer posible en el plazo de 3 años dos supercomputadores de entre 2-10 veces más potente que el actual #1. Para ello, se valdrían de procesadores PowerPC9 y aceleradores NVIDIA Tesla k80 de futura generación, basados en la familia Volta, nombre dedicado al físico italiano Alessandro Volta, inventor de la batería, por la extremada eficiencia energética de dicha familia. IBM ya tiene grandísima experiencia en el diseño de estos supercomputadores, no tanto NVIDIA a pesar de que su tecnología CUDA esté presente en 2 de las 10 instalaciones más potentes del citado ranking.

NVIDIA también anunció sus nuevos CUDA Teaching Centers (CTC) y CUDA Research Centers (CRC), galardones a los centros que mantienen en sus planes docentes o investigaciones multidisciplinares materia ligada con la tecnología NVIDIA CUDA. Nos complace anunciar que entre sus nuevos CTCs  tenemos a la Universidad de Valladolid y a la madrileña Universidad Rey Juan Carlos (la que acoge nuestro día a día), por nuestro afán de atraer nueva tecnología a las aulas de las titulaciones de la Escuela Técnica Superior de Ingeniería Informática. Así, Madrid tiene 3 centros (UAM, UPM y URJC) de los 10 de toda España. Este galardón conlleva una donación de material de última generación para su uso en las clases y talleres de las titulaciones que así lo requieran o seminarios a la comunidad científica del centro, cuyos investigadores implicados se comprometen a impartir. También es importante citar la entrada de la Universidad de Sevilla como CRC haciendo 6 centros españoles.

NVIDIA CUDA es una tecnología de cómputo paralelo que aprovecha la gran potencia de cálculo de las tarjetas gráficas (en realidad de su procesador, GPU, de unidad de procesamiento gráfico) para acelerar la ejecución de aplicaciones científicas. Surge como forma de simplificar la programación de estos procesadores especiales, al igual que existen lenguajes de programación (C, Pascal, Fortran, Java,…) para los tradicionales procesadores centrales (CPUs, de unidades de procesamiento centrales), en los que siempre se han ejecutado las aplicaciones. En determinados casos, en los que la gran independencia de los datos a procesar y la cantidad de ellos son enormes, la potencia de las GPUs puede superar con creces a la de la CPU, además de ser energéticamente más eficientes por estrategias de diseño. NVIDIA CUDA surgió en 2007 gracias al increíble éxito que tuvieron los primeros programas que, haciendo uso de la potencia del procesador gráfico, mejoraban el rendimiento y se volvían más rápidos. Algunas de las nociones para entender este éxito lo pusimos por este blog hace unos años. Actualmente, esta tecnología está soportada por toda la gama de procesadores gráficos de NVIDIA, desde sus tarjetas gráficas más domésticas de apenas unas decenas de euros, hasta sus aceleradores de supercomputación más potentes de varios miles.

 

Etiquetas: , , , , , , , ,

De nuevo supremacía china en la supercomputación

Adelantábamos la semana pasada que el supercomputador chino Tianhe-2, rebautizado como “Milky Way 2”, tomaría el relevo por el puesto #1 en el ranking del Top500 de los supercomputadores. El pasado lunes 17 así se confirmó en la International Supercomputing Conference 2013 (ISC’13). Con ello China vuelve a ocupar, por segunda vez en la historia del Top500, el primer puesto. La primera, y última vez hasta el momento, fue en noviembre de 2010, con el Tianhe-1. En aquella ocasión Estados Unidos vio una amenaza en la escalada que China había conseguido en los últimos años hasta llegar a la cima de la supercomputación. La siguiente gráfica muestra la evolución por países, y se puede observar que China (en azul oscuro), entrando en noviembre de 2001 en el ranking, va escalando posiciones llegando a superar al agregado de la Unión Europea (rojo) y quedando solo detrás de Estados Unidos (celeste) en rendimiento total en el ranking (agregado de todos los supercomputadores de la lista por países).

 Por otra parte, se libra otra batalla, la del uso de aceleradores. Los aceleradores son dispositivos especializados en cómputo paralelo que se integran a modo de coprocesadores de las unidades centrales de procesamiento (CPUs). La inclusión masiva y demostrada del poder de cómputo de estos dispositivos especializados tiene su origen con los IBM Cell Processors a finales de 2007 y fundamentalmente en 2008, cuando llegaron a aportar casi el 10% del rendimiento sumado de todos los supercomputadores del ranking. Ahora ese porcentaje es del casi 35%, es decir, el 35% de todo el rendimiento aportado por los 500 supercomputadores viene originado por los aceleradores incluidos en solo el aproximadamente 50% de los equipos. Esto viene a decirnos que los aceleradores llegaron para quedarse, que energéticamente son muy eficientes, y que empujan el rendimiento de estos monstruos a nuevas cotas. En noviembre de 2012 los Intel Xeon Phi fueron la novedad y los presentamos por estas líneas, hoy han tomado la cima con el Tianhe-2, escalando por encima de los NVIDIA Kepler, que debutaron también en 2012 tras el éxito de su anterior generación NVIDIA Fermi (hoy por hoy los aceleradores aún más utilizados del ranking). Intel además ha aprovechado el tirón mediático de su puesto #1 en el ranking para anunciar sus nuevas familias de los coprocesadores Xeon Phi, con variedad a nivel de eficiencia energética, rendimiento, capacidades de memoria, formatos y dimensiones. Pero esto merecerá otro post. Eso sí, hoy por hoy, los IBM Cell han quedado casi en el olvido (al menos en la 41 edición del ranking), lo que nos recuerda el post de la caída de los titanes.

Etiquetas: , , ,

20 años de Top500 y expectantes por Tianhe-2

Pongámonos en antecedentes. Junio y noviembre son las dos citas más importantes para la supercomputación, pues se publica el ranking del Top500, que ahora cumple 20 años. Es como la Fórmula 1, ningún fabricante quiere desaprovechar el tirón comercial del campeonato para alardear de méritos tecnológicos, mostrar coches de 6 millones de euros y luego vender otros para el gran público de 20.000 euros.

Y ya estamos en junio. Y lo que empezó siendo un ejercicio de una pequeña conferencia en junio de 1993 se ha convertido en un monstruoso escaparate. Cray, Intel, AMD, IBM, la reciente NVIDIA, etc. tienen la vista puesta en el día 17 de este mes. Sin embargo, algunos ya van dando píldoras de información para levantar grandes revuelos. Si en noviembre de 2010 confirmábamos la consolidación de China como gran potencia de la supercomputación liderando el ranking con el Tianhe-1, en estos días se habla del Tianhe-2.

Tianhe-1 se alzaba con una victoria política (por ser de origen chino y romper la supremacía americana) con sus 2.5 petaflops (casi 20000 veces lo que un procesador potente de consumo), siendo el primer supercomputador en llegar al Top1 con tecnología de NVIDIA (líderes en procesadores gráficos, no en procesadores de propósito general como IBM, AMD o Intel). La entrada de “aceleradores” en lugar de procesadores comunes, además de otorgar un gran poder computacional reducía de forma importante el consumo eléctrico, con un ahorro estimado del Tianhe-1 equivalente al consumo de 5000 hogares durante un año. Esta irrupción de los “aceleradores” de NVIDIA supuso un antes y un después en la tecnología integrada en los supercomputadores del ranking, pues desde entonces NVIDIA ha incluido estos componentes en todos los grandes equipos. Tianhe-1 fue el primero con ellos en liderar el ranking.

En noviembre de este año pasado, el que llegó al Top1 fue Titan con 17 petaflops, del que dimos cuenta en su momento, que también incluía aceleradores de NVIDIA. Sin embargo, Intel introducía en el ranking sus propios aceleradores a través de su tecnología Intel Xeon Phi (de los que también hablamos) llegando al puesto #7 con el Stampede de Texas. Ya ahí decíamos que la nueva propuesta de Intel podría dar que hablar. Los Intel Xeon Phi desafiaban en la sombra a los Teslas de NVIDIA.

Pues bien, hace unos días, con el avance informativo sobre Tianhe-2, podría llegar el inesperado adelantamiento de Intel a NVIDIA, y Titan con sus Teslas caería a manos del Tianhe-2 con 48000 unidades de Intel Xeon Phi y un pico de 54 petaflops, aunque poco más de 30 en las pruebas continuadas. Una descripción técnica de Tianhe-2 se puede encontrar aquí.

No somos pitonisos, aunque hace poco más de un mes hablábamos de la “caída de los titanes”. Y es que, como dicen por ahí, todo lo que sube, baja. Estaremos pendientes de lo que ocurra dentro de una semana… en el 20 cumpleaños del Top500.

Etiquetas: , , ,
Categorias: General, Hardware

El Jaguar se transforma en Titan

Jaguar, el supercomputador de Oak Ridge National Laboratory que en noviembre de 2009 fue líder mundial del ranking Top500 y que quedó relegado a sexta posición el pasado junio, se reconvierte para luchar por la posición de cabeza a mediados del mes que viene con el nombre de Titan. Jaguar permaneció líder del ranking durante dos convocatorias, noviembre 2009 y junio 2010 (el Top500 es un ranking semestral), pero cedió su puesto en noviembre 2010 a la supremacía china con su Tianhe-1A y de la que dimos buena cuenta por estas línea.

En 2008 Jaguar contenía del orden de 150.000 núcleos de procesamiento y llegó a la segunda posición del ranking. En 2009 ya sufrió un upgrade para escalar a la primera posición, montando una arquitectura Cray XT5 formada por 18688 nodos de 2 CPUs AMD Opteron, cada una de las cuales contaba con 6 cores, y haciendo un total de 224256 núcleos de procesamiento para ofrecer casi 2 Petaflops (2×10^15 operaciones en coma flotante por segundo). La nueva mejora a Titan supone la migración a la arquitectura más reciente Cray XK5 obteniendo un factor x10 en capacidad computacional y llegando a los 20 Petaflops. En una primera fase se sustituían las CPUs de 6 núcleos por unas de 16, pasando a 299008 núcleos de procesamiento. Posteriormente, se incluyeron racks de procesadores gráficos NVIDIA Tesla M2090 de la familia Fermi que terminarán evolucionando a Tesla K20 de la familia Kepler, la más moderna de NVIDIA y que aquí ya presentamos.

La inclusión de procesadores gráficos (GPUs) en los supercomputadores para mejorar las cotas de procesamiento no es nueva, el citado Tiahne-1A ya presumía de ello con sus Tesla M2050 de la familia Fermi en 2011. Por su parte el anterior IBM Roadrunner, líder del ranking de junio de 2008 a noviembre de 2009 (3 convocatorias), incluía una arquitectura basada en procesadores Cell, más conocidos por ser el motor de la videoconsola Sony Playstation3. Sin embargo, la renovada imagen de Jaguar para conseguir el liderato con la inclusión de mayor número de procesadores gráficos ha sido tan espectacular (18688 GPUs, una por nodo, haciendo una arquitectura absolutamente híbrida) que la noticia ya ha aparecido en diferentes medios de información generalista (CNN, BBC, National Geographic). Cabe destacar que esta renovación no se diseña de un día para otro, y que ya estaba prevista desde mediados del año pasado.

Teniendo en cuenta que el consumo energético de Jaguar fue de 7 millones de dólares en 2011 (alrededor de 7MW de consumo), un aspecto quizá más importante que la mejora computacional del x10 que supone Titan respecto a su predecesor, es su eficiencia energética, pues sus procesadores así como las arquitecturas gráficas son más eficientes y ocupando el mismo espacio, así como mejorando un factor x10 su capacidad computacional, no requerirá mucho mayor consumo energético (alrededor de 9 MW). La arquitectura CrayXK5 dará paso en un futuro próximo a una nueva generación XK6 y está previsto que en 2016 Titan vuelva a mejorarse para conseguir otro factor 10 llegando a los 200 Petaflops, camino constante hacia la “Computación Exascala” (de la que ya hablamos en Junio 2011).

Este supercomputador será utilizado de manera abierta por la comunidad científica, para predecir el clima a través de complejos modelos, estudiar nuevos materiales y combustibles, simular procesos nucleares y, en definitiva, buscar nuevas aplicaciones y fuentes de energía para la humanidad.

 

Enlaces de interés sobre la noticia:

Titan: http://www.olcf.ornl.gov/titan/

Top500: http://www.top500.org

Cray: http://www.cray.com

NVIDIA Kepler: http://www.nvidia.com/object/nvidia-kepler.html

Grupo de investigación CAPO: http://www.gavab.es/capo

Etiquetas: , , , , , , , ,
Categorias: General, Hardware

Kepler: una evolución de los procesadores gráficos de NVIDIA

La semana pasada estuvimos en la conferencia de presentación de novedades de la marca de procesadores gráficos NVIDIA. La GPU Technology Conference (GTC) de 2012 ha presentado ante casi 3000 asistentes las novedades tecnológicas de esta reputada marca de chips gráficos que se está ganando un puesto en el área de la supercomputación (de consumo, o no).

De forma resumida, los orígenes de las GPUs (Graphics Processing Units, unidades de procesamiento gráfico, en contraposición de las CPUs/unidades de procesamiento central) se pueden centrar a primeros de los 90 para reducir el coste computacional del renderizado gráfico, especialmente en aplicaciones 3D en las que la escena 2D proyectada en pantalla viene determinada por muchos cálculos de proyección. Los videojuegos han sido el motor básico de las evoluciones que han tenido lugar en estos componentes, y donde su especial característica arquitectónica ha sido el paralelismo intrínseco que ofrecen debido a la propia naturaleza de los problemas que abordan (renderizado). Este paralelismo “innato” colocó a la arquitectura gráfica en un lugar privilegiado a finales de los 90 y primeros de la pasada década para que investigadores de todo el mundo generaran un movimiento que inicialmente se denominó GPGPU o computación de propósito general utilizando GPUs (General Purpose computation using GPUs). Y es que el poder de cómputo que podían ofrecer estos chips gráficos a problemas computacionales de todo tipo resultaba muy atractivo para los investigadores (muy comentado en este blog por cierto, ver entradas que tocan este tema más abajo). Desde el año 2002 hasta el año 2005 surgieron muchas aproximaciones para tratar estos problemas desde un punto de vista gráfico y en 2006 NVIDIA lanzó un interfaz HW/SW denominado CUDA (de Compute Unified Device Arquitecture, y por cierto, término que ahora reniega la propia NVIDIA) y el campo GPGPU pasó a denominarse GPU Computing (computación en GPU). CUDA permitía aprovechar los recursos paralelos de las GPUs de NVIDIA de una manera más accesible a programadores e investigadores no experimentados con el área de gráficos por computador.

En el GTC de la pasada semana NVIDIA ha presentado la versión 5.0 de CUDA (que ya estaba en versión beta para desarrolladores) así como la arquitectura Kepler, una evolución notable de sus chips gráficos, quizá no sobresaliente (la evolución) como lo fuera la evolución de la familia Fermi (presentada en la edición anterior del GTC), pero aún muy grata.

 

Básicamente se presentaron 3 grandes mejoras respecto a la anterior familia, justificadas por todo tipo de factores de mejora y el mediatismo propio de una gran presentación como el incremento a más de 7000 millones de transistores integrados en un procesador. La primera novedad fue la evolución de los multiprocesadores de streams (streaming multiprocessors, SM) en una versión extendida (SMX) con capacidad de 192 procesadores escalares (CUDA cores) en lugar de los 32 anteriores, una mejora más que significativa. La segunda novedad es la capacidad de crear lanzamientos de subprogramas en el dispositivo gráfico (denominados kernels) desde otros subprogramas que se ejecutan en la GPU con parámetros variables en tiempo de ejecución. Esta capacidad puede simplificar ciertas tareas de sincronización e, incluso, se puede crear cálculos recursivos en GPU (algo que estaba prohibido anteriormente). A esta capacidad de lanzar subprogramas con parámetros variables la han denominado Dynamic Parallelism o paralelismo dinámico, característica muy interesante para refinar el cómputo en determinadas estructuras de datos, como el sugerente árbol de cómputo de la simulación del colapso de dos galaxias que se demostró en el GTC. La tercera gran capacidad de la familia Kepler es lo que denominan Hyper-Q, que no es más que la creación de varias colas de trabajo independientes para diferentes hilos de un procesador CPU con varios núcleos de procesamiento, quizá algo menos innovador por la natural evolución a múltiples núcleos de procesamiento de las plataformas CPU.

La parte negativa, es que estas tres capacidades anteriores estarán soportadas en la versión GK110 del procesador, no disponible hasta finales de año, y cuya versión ahora disponible (la GK104) solo incluyen los SMX.

En cualquier caso, felicidades NVIDIA, por la organización del fantástico evento GTC como por el nacimiento de Kepler.

Aquí tenéis un video-resumen del GTC:

Imagen de previsualización de YouTube

Enlaces sobre la noticia:

GTC: http://www.gputechconf.com/

Información sobre Kepler: http://www.nvidia.com/object/nvidia-kepler.html

White Paper: http://www.nvidia.com/content/PDF/kepler/NVIDIA-Kepler-GK110-Architecture-Whitepaper.pdf

Noticias anteriores de procesamiento en GPU:

http://www.madrimasd.org/blogs/supercomputacion_de_consumo/2009/12/06/129786

http://www.madrimasd.org/blogs/supercomputacion_de_consumo/2009/01/29/111970

http://www.madrimasd.org/blogs/supercomputacion_de_consumo/2008/12/10/109037

http://www.madrimasd.org/blogs/supercomputacion_de_consumo/2008/10/16/103763

Etiquetas: , , , , ,

Seminario de Dr. Tim Lanfear sobre NVIDIA Tesla y CUDA en la Universidad Rey Juan Carlos

El próximo martes 31 de marzo contaremos con la ponencia del Dr. Tim Lanfear, arquitecto de soluciones de NVIDIA, empresa líder en soluciones gráficas y supercomputación de consumo. El Dr. Lanfear nos introducirá el concepto de supercomputación personal y nos presentará en profundidad la arquitectura CUDA y su modelo de programación durante el seminario de 2 horas y media.

(más…)

Etiquetas: , , , ,

Reciente entrevista a David Kirk, responsable científico de Nvidia

El periódico El Mundo ha realizado una entrevista de caracter divulgativo a David Kirk, responsable científico de la compañía Nvidia. La empresa es una de las grandes fabricantes de procesadores gráficos, o GPUs, capaces de realizar más operaciones que las tradicionales computadoras de escritorio. Desde los primeros años de esta década, algunos investigadores acertaron al utilizar estas GPUs en problemas de propósitos que nada tenían que ver con gráficos. Nvidia entró en el sector de la supercomputación de consumo a través de una novedosa arquitectura hardware/software denominada Nvidia CUDA y creando una línea de equipos basada en el modelo de cómputo de sus GPUs.
(más…)

Etiquetas: , , ,

Procesadores gráficos como supercomputadores de consumo: Intro

Como procesadores gráficos de consumo nos referimos a los chips que incorporan las habituales tarjetas gráficas incluidas en nuestros ordenadores de sobremesa. La misión fundamental de estos sistemas es la de conseguir una imagen final en pantalla, y para la mayor parte de las aplicaciones diarias (gestor de correo electrónico, navegación por Internet, editor de textos, hoja de cálculo, etc.) el procesador gráfico apenas realiza un cómputo exigente. Por esta razón, muchos fabricantes y montadores de equipos finales incluyen tarjetas gráficas integradas, de bajo consumo, de pequeñas dimensiones, de bajo coste y de gran funcionalidad.

 

(más…)

Etiquetas: , , , , ,
Categorias: General