Posts etiquetados con ‘GPU’

El Jaguar se transforma en Titan

Jaguar, el supercomputador de Oak Ridge National Laboratory que en noviembre de 2009 fue líder mundial del ranking Top500 y que quedó relegado a sexta posición el pasado junio, se reconvierte para luchar por la posición de cabeza a mediados del mes que viene con el nombre de Titan. Jaguar permaneció líder del ranking durante dos convocatorias, noviembre 2009 y junio 2010 (el Top500 es un ranking semestral), pero cedió su puesto en noviembre 2010 a la supremacía china con su Tianhe-1A y de la que dimos buena cuenta por estas línea.

En 2008 Jaguar contenía del orden de 150.000 núcleos de procesamiento y llegó a la segunda posición del ranking. En 2009 ya sufrió un upgrade para escalar a la primera posición, montando una arquitectura Cray XT5 formada por 18688 nodos de 2 CPUs AMD Opteron, cada una de las cuales contaba con 6 cores, y haciendo un total de 224256 núcleos de procesamiento para ofrecer casi 2 Petaflops (2×10^15 operaciones en coma flotante por segundo). La nueva mejora a Titan supone la migración a la arquitectura más reciente Cray XK5 obteniendo un factor x10 en capacidad computacional y llegando a los 20 Petaflops. En una primera fase se sustituían las CPUs de 6 núcleos por unas de 16, pasando a 299008 núcleos de procesamiento. Posteriormente, se incluyeron racks de procesadores gráficos NVIDIA Tesla M2090 de la familia Fermi que terminarán evolucionando a Tesla K20 de la familia Kepler, la más moderna de NVIDIA y que aquí ya presentamos.

La inclusión de procesadores gráficos (GPUs) en los supercomputadores para mejorar las cotas de procesamiento no es nueva, el citado Tiahne-1A ya presumía de ello con sus Tesla M2050 de la familia Fermi en 2011. Por su parte el anterior IBM Roadrunner, líder del ranking de junio de 2008 a noviembre de 2009 (3 convocatorias), incluía una arquitectura basada en procesadores Cell, más conocidos por ser el motor de la videoconsola Sony Playstation3. Sin embargo, la renovada imagen de Jaguar para conseguir el liderato con la inclusión de mayor número de procesadores gráficos ha sido tan espectacular (18688 GPUs, una por nodo, haciendo una arquitectura absolutamente híbrida) que la noticia ya ha aparecido en diferentes medios de información generalista (CNN, BBC, National Geographic). Cabe destacar que esta renovación no se diseña de un día para otro, y que ya estaba prevista desde mediados del año pasado.

Teniendo en cuenta que el consumo energético de Jaguar fue de 7 millones de dólares en 2011 (alrededor de 7MW de consumo), un aspecto quizá más importante que la mejora computacional del x10 que supone Titan respecto a su predecesor, es su eficiencia energética, pues sus procesadores así como las arquitecturas gráficas son más eficientes y ocupando el mismo espacio, así como mejorando un factor x10 su capacidad computacional, no requerirá mucho mayor consumo energético (alrededor de 9 MW). La arquitectura CrayXK5 dará paso en un futuro próximo a una nueva generación XK6 y está previsto que en 2016 Titan vuelva a mejorarse para conseguir otro factor 10 llegando a los 200 Petaflops, camino constante hacia la “Computación Exascala” (de la que ya hablamos en Junio 2011).

Este supercomputador será utilizado de manera abierta por la comunidad científica, para predecir el clima a través de complejos modelos, estudiar nuevos materiales y combustibles, simular procesos nucleares y, en definitiva, buscar nuevas aplicaciones y fuentes de energía para la humanidad.

 

Enlaces de interés sobre la noticia:

Titan: http://www.olcf.ornl.gov/titan/

Top500: http://www.top500.org

Cray: http://www.cray.com

NVIDIA Kepler: http://www.nvidia.com/object/nvidia-kepler.html

Grupo de investigación CAPO: http://www.gavab.es/capo

Etiquetas: , , , , , , , ,
Categorias: General, Hardware

Kepler: una evolución de los procesadores gráficos de NVIDIA

La semana pasada estuvimos en la conferencia de presentación de novedades de la marca de procesadores gráficos NVIDIA. La GPU Technology Conference (GTC) de 2012 ha presentado ante casi 3000 asistentes las novedades tecnológicas de esta reputada marca de chips gráficos que se está ganando un puesto en el área de la supercomputación (de consumo, o no).

De forma resumida, los orígenes de las GPUs (Graphics Processing Units, unidades de procesamiento gráfico, en contraposición de las CPUs/unidades de procesamiento central) se pueden centrar a primeros de los 90 para reducir el coste computacional del renderizado gráfico, especialmente en aplicaciones 3D en las que la escena 2D proyectada en pantalla viene determinada por muchos cálculos de proyección. Los videojuegos han sido el motor básico de las evoluciones que han tenido lugar en estos componentes, y donde su especial característica arquitectónica ha sido el paralelismo intrínseco que ofrecen debido a la propia naturaleza de los problemas que abordan (renderizado). Este paralelismo “innato” colocó a la arquitectura gráfica en un lugar privilegiado a finales de los 90 y primeros de la pasada década para que investigadores de todo el mundo generaran un movimiento que inicialmente se denominó GPGPU o computación de propósito general utilizando GPUs (General Purpose computation using GPUs). Y es que el poder de cómputo que podían ofrecer estos chips gráficos a problemas computacionales de todo tipo resultaba muy atractivo para los investigadores (muy comentado en este blog por cierto, ver entradas que tocan este tema más abajo). Desde el año 2002 hasta el año 2005 surgieron muchas aproximaciones para tratar estos problemas desde un punto de vista gráfico y en 2006 NVIDIA lanzó un interfaz HW/SW denominado CUDA (de Compute Unified Device Arquitecture, y por cierto, término que ahora reniega la propia NVIDIA) y el campo GPGPU pasó a denominarse GPU Computing (computación en GPU). CUDA permitía aprovechar los recursos paralelos de las GPUs de NVIDIA de una manera más accesible a programadores e investigadores no experimentados con el área de gráficos por computador.

En el GTC de la pasada semana NVIDIA ha presentado la versión 5.0 de CUDA (que ya estaba en versión beta para desarrolladores) así como la arquitectura Kepler, una evolución notable de sus chips gráficos, quizá no sobresaliente (la evolución) como lo fuera la evolución de la familia Fermi (presentada en la edición anterior del GTC), pero aún muy grata.

 

Básicamente se presentaron 3 grandes mejoras respecto a la anterior familia, justificadas por todo tipo de factores de mejora y el mediatismo propio de una gran presentación como el incremento a más de 7000 millones de transistores integrados en un procesador. La primera novedad fue la evolución de los multiprocesadores de streams (streaming multiprocessors, SM) en una versión extendida (SMX) con capacidad de 192 procesadores escalares (CUDA cores) en lugar de los 32 anteriores, una mejora más que significativa. La segunda novedad es la capacidad de crear lanzamientos de subprogramas en el dispositivo gráfico (denominados kernels) desde otros subprogramas que se ejecutan en la GPU con parámetros variables en tiempo de ejecución. Esta capacidad puede simplificar ciertas tareas de sincronización e, incluso, se puede crear cálculos recursivos en GPU (algo que estaba prohibido anteriormente). A esta capacidad de lanzar subprogramas con parámetros variables la han denominado Dynamic Parallelism o paralelismo dinámico, característica muy interesante para refinar el cómputo en determinadas estructuras de datos, como el sugerente árbol de cómputo de la simulación del colapso de dos galaxias que se demostró en el GTC. La tercera gran capacidad de la familia Kepler es lo que denominan Hyper-Q, que no es más que la creación de varias colas de trabajo independientes para diferentes hilos de un procesador CPU con varios núcleos de procesamiento, quizá algo menos innovador por la natural evolución a múltiples núcleos de procesamiento de las plataformas CPU.

La parte negativa, es que estas tres capacidades anteriores estarán soportadas en la versión GK110 del procesador, no disponible hasta finales de año, y cuya versión ahora disponible (la GK104) solo incluyen los SMX.

En cualquier caso, felicidades NVIDIA, por la organización del fantástico evento GTC como por el nacimiento de Kepler.

Aquí tenéis un video-resumen del GTC:

Imagen de previsualización de YouTube

Enlaces sobre la noticia:

GTC: http://www.gputechconf.com/

Información sobre Kepler: http://www.nvidia.com/object/nvidia-kepler.html

White Paper: http://www.nvidia.com/content/PDF/kepler/NVIDIA-Kepler-GK110-Architecture-Whitepaper.pdf

Noticias anteriores de procesamiento en GPU:

http://www.madrimasd.org/blogs/supercomputacion_de_consumo/2009/12/06/129786

http://www.madrimasd.org/blogs/supercomputacion_de_consumo/2009/01/29/111970

http://www.madrimasd.org/blogs/supercomputacion_de_consumo/2008/12/10/109037

http://www.madrimasd.org/blogs/supercomputacion_de_consumo/2008/10/16/103763

Etiquetas: , , , , ,

Confirmado, el chino Tianhe-1 es el supercomputador #1 del Top500

La noticia aparecida en diferentes medios (inclusive Notiweb como ya lo comentamos el pasado 3 de noviembre) sobre la previsión de que el #1 del ranking de supercomputadores incluyera procesadores gráficos “de uso común” como elementos de cómputo de altas prestaciones se hace una realidad. El pasado 15 de noviembre Top500 publicaba la lista de los supercomputadores más potentes en la realización de las tareas que se toman como métricas para establecer este ranking. El que fuera el #1, Jaguar, del Departamento de Energía de Estados Unidos, queda relegado al segundo lugar. Quizá interesante es que de los 5 primeros supercomputadores de la lista, 3 de ellos estén basados en estas tecnologías gráficas “de consumo”, desde luego un valor mediático para empresas como NVIDIA, uno de los líderes en la industria de los procesadores gráficos de consumo.

De hecho, a estos elementos de aceleración poco tradicionales, tales como los procesadores de consumo que incluyen algunas videoconsolas, procesadores gráficos, etc. se denominan “aceleradores”. De la lista del Top500, 17 de ellos utilizan GPUs (procesadores gráficos) como aceleradores (1 de ellos procesadores AMD-ATI, el resto NVIDIA) y 6 utilizan multiprocesadores Cell (utilizados por videoconsolas Playstation3). En lo relativo a la procedencia de los supercomputadores, China toma el segundo puesto en visibilidad, por detrás de Estados Unidos (275 de 500, bajando de 282 en Junio), y dejando atrás a Japón, Francia, Alemania y Reino Unido.

Enlaces de interés:

http://top500.org/lists/2010/11/press-release

Etiquetas: , ,
Categorias: General

AMD Fusion: ¿una nueva generación de procesadores a corto plazo?

Llevábamos meses esperando noticias sobre una arquitectura híbrida de CPU y GPU que con la absorción del fabricante de procesadores gráficos ATI por parte de AMD en julio de 2006 no tendría que haberse hecho esperar mucho. Sin embargo, al igual que en el caso del Intel Larrabee que ya tratamos en el blog, los rumores de su salida han alimentado más si cabe la esperada arquitectura híbrida. Parece que la salida podría ser el próximo año.

El pasado 6 de febrero, AMD presentó en COMPUTEX Taipei 2010 una nueva familia de procesadores de propósito general bajo el nombre AMD Fusion. Estos procesadores, también conocidos con el nombre de APUs (Accelerated Processing Units) combinan en un mismo chip un procesador con múltiples núcleos de procesamiento basados en una arquitectura x86 (CPU), junto con un procesador vectorial (GPU).  La novedad se basa por tanto en que la GPU estará integrada en el propio microprocesador. La finalidad de estas APUs se encuentra en la aceleración de aplicaciones multimedia y de procesamiento vectorial (reconocimiento de gestos, voz, conversión de contenido 2D en 3D, etc.), tratando de mantener al mismo tiempo cierto compromiso con el consumo energético. Recientemente se hicieron demostraciones públicas del rendimiento de la plataforma.

AMD-Fusion-Analyst-CPU_GPU

Por otro lado, la reciente aparición de herramientas como DirectCompute y OpenCL simplifica en gran medida la programación de este tipo de arquitecturas. Así mismo, se espera que AMD Fusion sea compatible con Windows 7 y DirectX 11. Su aparición en el mercado está prevista para 2011, y en un principio está pensada su inclusión en dispositivos portátiles, permitiendo afrontar tareas con un elevado coste computacional, sin que esto repercuta de forma notable en el tiempo de vida de las baterías.

AMD-Fusion-Analyst-ventajas

Etiquetas: , , ,
Categorias: General

Hace dos semanas se presentó ANACAP 2009 en Madrid

Durante los días 19 y 20 de noviembre, la Universidad Rey Juan Carlos fue escenario del último Workshop Nacional de Aplicaciones de Nuevas Arquitecturas de Consumo y Altas Prestaciones (ANACAP 2009). Consolidándose como un campo de creciente interés, el uso de procesadores no convencionales para acelerar procesos computacionales a precios y consumos energéticos asumibles, reunió a decenas de investigadores de toda España. (más…)

Etiquetas: , , ,

Seminario de Dr. Tim Lanfear sobre NVIDIA Tesla y CUDA en la Universidad Rey Juan Carlos

El próximo martes 31 de marzo contaremos con la ponencia del Dr. Tim Lanfear, arquitecto de soluciones de NVIDIA, empresa líder en soluciones gráficas y supercomputación de consumo. El Dr. Lanfear nos introducirá el concepto de supercomputación personal y nos presentará en profundidad la arquitectura CUDA y su modelo de programación durante el seminario de 2 horas y media.

(más…)

Etiquetas: , , , ,

Segundo Workshop en Computación de Altas Prestaciones sobre Plataformas No Convencionales

Siguiendo con la supercomputación de consumo damos difusión al Workshop UCHPC (UnConventional High Performance Computing). UCHPC’09 es el segundo evento internacional de Computación de Altas Prestaciones sobre plataformas no convencionales, tras el éxito de su primera edición (UCHPC 2008). Con “no convencionales“, los organizadores se refieren a aquellas plataformas que se están utilizando como solución de altas prestaciones, pero que no fueron inicialmente diseñadas con tal objetivo. Por tanto, se busca mostrar las formas no convencionales de actuar ante determinados problemas que quizá en el futuro sí que puedan ser convencionales.
(más…)

Etiquetas: , , ,

OpenCL nuevo interfaz de programación paralela

OpenCL, Open Compute Language, es la primera propuesta abierta y estándar de programación paralela sobre dispositivos heterogéneos de consumo, como sistemas multicore, GPUs, móviles, procesadores basados en Cell, etc. El objetivo de OpenCL es crear un punto de encuentro entre fabricantes para que adopten una estrategia común,  simplificar la programación de estos dispositivos y poder sacar provecho a arquitecturas heterogéneas con menores tiempos de desarrollo. OpenCL fue una iniciativa propuesta por Apple y posteriormente impulsada por Khronos, el grupo de empresas del sector que mantiene el interfaz de acceso gráfico OpenGL entre otros.

(más…)

Etiquetas: , , ,

Reciente entrevista a David Kirk, responsable científico de Nvidia

El periódico El Mundo ha realizado una entrevista de caracter divulgativo a David Kirk, responsable científico de la compañía Nvidia. La empresa es una de las grandes fabricantes de procesadores gráficos, o GPUs, capaces de realizar más operaciones que las tradicionales computadoras de escritorio. Desde los primeros años de esta década, algunos investigadores acertaron al utilizar estas GPUs en problemas de propósitos que nada tenían que ver con gráficos. Nvidia entró en el sector de la supercomputación de consumo a través de una novedosa arquitectura hardware/software denominada Nvidia CUDA y creando una línea de equipos basada en el modelo de cómputo de sus GPUs.
(más…)

Etiquetas: , , ,

ANACAP 2008: La primera oportunidad en España para el cómputo de altas prestaciones en arquitecturas de consumo

Recientemente, novedosas plataformas de consumo están irrumpiendo en el terreno de la Computación de Altas Prestaciones. Procesadores gráficos y videoconsolas son algunas de las propuestas que están siendo explotadas por los investigadores para mejorar el rendimiento de sus soluciones. El Workshop de Aplicaciones de Nuevas Arquitecturas de Consumo y Altas Prestaciones (ANACAP) pretende ser un punto de encuentro de investigadores nacionales que usen estas tecnologías para acelerar sus soluciones algorítmicas, así como un foro para promover e incentivar nuevas propuestas de cómputo optimizado para problemas de propósito general.

(más…)

Etiquetas: , , , ,
Categorias: General