Posts etiquetados con ‘conference’

Kepler: una evolución de los procesadores gráficos de NVIDIA

La semana pasada estuvimos en la conferencia de presentación de novedades de la marca de procesadores gráficos NVIDIA. La GPU Technology Conference (GTC) de 2012 ha presentado ante casi 3000 asistentes las novedades tecnológicas de esta reputada marca de chips gráficos que se está ganando un puesto en el área de la supercomputación (de consumo, o no).

De forma resumida, los orígenes de las GPUs (Graphics Processing Units, unidades de procesamiento gráfico, en contraposición de las CPUs/unidades de procesamiento central) se pueden centrar a primeros de los 90 para reducir el coste computacional del renderizado gráfico, especialmente en aplicaciones 3D en las que la escena 2D proyectada en pantalla viene determinada por muchos cálculos de proyección. Los videojuegos han sido el motor básico de las evoluciones que han tenido lugar en estos componentes, y donde su especial característica arquitectónica ha sido el paralelismo intrínseco que ofrecen debido a la propia naturaleza de los problemas que abordan (renderizado). Este paralelismo “innato” colocó a la arquitectura gráfica en un lugar privilegiado a finales de los 90 y primeros de la pasada década para que investigadores de todo el mundo generaran un movimiento que inicialmente se denominó GPGPU o computación de propósito general utilizando GPUs (General Purpose computation using GPUs). Y es que el poder de cómputo que podían ofrecer estos chips gráficos a problemas computacionales de todo tipo resultaba muy atractivo para los investigadores (muy comentado en este blog por cierto, ver entradas que tocan este tema más abajo). Desde el año 2002 hasta el año 2005 surgieron muchas aproximaciones para tratar estos problemas desde un punto de vista gráfico y en 2006 NVIDIA lanzó un interfaz HW/SW denominado CUDA (de Compute Unified Device Arquitecture, y por cierto, término que ahora reniega la propia NVIDIA) y el campo GPGPU pasó a denominarse GPU Computing (computación en GPU). CUDA permitía aprovechar los recursos paralelos de las GPUs de NVIDIA de una manera más accesible a programadores e investigadores no experimentados con el área de gráficos por computador.

En el GTC de la pasada semana NVIDIA ha presentado la versión 5.0 de CUDA (que ya estaba en versión beta para desarrolladores) así como la arquitectura Kepler, una evolución notable de sus chips gráficos, quizá no sobresaliente (la evolución) como lo fuera la evolución de la familia Fermi (presentada en la edición anterior del GTC), pero aún muy grata.

 

Básicamente se presentaron 3 grandes mejoras respecto a la anterior familia, justificadas por todo tipo de factores de mejora y el mediatismo propio de una gran presentación como el incremento a más de 7000 millones de transistores integrados en un procesador. La primera novedad fue la evolución de los multiprocesadores de streams (streaming multiprocessors, SM) en una versión extendida (SMX) con capacidad de 192 procesadores escalares (CUDA cores) en lugar de los 32 anteriores, una mejora más que significativa. La segunda novedad es la capacidad de crear lanzamientos de subprogramas en el dispositivo gráfico (denominados kernels) desde otros subprogramas que se ejecutan en la GPU con parámetros variables en tiempo de ejecución. Esta capacidad puede simplificar ciertas tareas de sincronización e, incluso, se puede crear cálculos recursivos en GPU (algo que estaba prohibido anteriormente). A esta capacidad de lanzar subprogramas con parámetros variables la han denominado Dynamic Parallelism o paralelismo dinámico, característica muy interesante para refinar el cómputo en determinadas estructuras de datos, como el sugerente árbol de cómputo de la simulación del colapso de dos galaxias que se demostró en el GTC. La tercera gran capacidad de la familia Kepler es lo que denominan Hyper-Q, que no es más que la creación de varias colas de trabajo independientes para diferentes hilos de un procesador CPU con varios núcleos de procesamiento, quizá algo menos innovador por la natural evolución a múltiples núcleos de procesamiento de las plataformas CPU.

La parte negativa, es que estas tres capacidades anteriores estarán soportadas en la versión GK110 del procesador, no disponible hasta finales de año, y cuya versión ahora disponible (la GK104) solo incluyen los SMX.

En cualquier caso, felicidades NVIDIA, por la organización del fantástico evento GTC como por el nacimiento de Kepler.

Aquí tenéis un video-resumen del GTC:

Imagen de previsualización de YouTube

Enlaces sobre la noticia:

GTC: http://www.gputechconf.com/

Información sobre Kepler: http://www.nvidia.com/object/nvidia-kepler.html

White Paper: http://www.nvidia.com/content/PDF/kepler/NVIDIA-Kepler-GK110-Architecture-Whitepaper.pdf

Noticias anteriores de procesamiento en GPU:

http://www.madrimasd.org/blogs/supercomputacion_de_consumo/2009/12/06/129786

http://www.madrimasd.org/blogs/supercomputacion_de_consumo/2009/01/29/111970

http://www.madrimasd.org/blogs/supercomputacion_de_consumo/2008/12/10/109037

http://www.madrimasd.org/blogs/supercomputacion_de_consumo/2008/10/16/103763

Etiquetas: , , , , ,

CES 2012, pistoletazo de salida (TV or not TV)

Hoy, como todos los años desde 1998 por estas fechas, se ha abierto la feria CES (Consumer Electronics Show) en la ciudad de Las Vegas. Para esta feria los grandes fabricantes de la electrónica guardan sus mejores secretos para difundirlos a través del altavoz mediático de una de las conferencias internacionales más importantes en número de asistentes, con una media que ronda las 120000 personas en los 3 días de duración. Hay cabida para casi todo lo que huela a gadget tecnológico aunque los líderes de la gala siempre fueron los televisores.
Hace ya dos años anunciábamos en este mismo blog que lo que más nos había sorprendido de la edición del CES no era la conectividad que presentaban la práctica totalidad de los televisores presentados entonces (algo a lo que poco a poco tendríamos que acostumbrarnos para todos los electrodomésticos del hogar, ya fueran tostadoras o frigoríficos), sino el corazón de un modelo concreto que presentaba Toshiba y que incluía el procesador de una videoconsola (PS3) para el procesamiento de la imagen, el CellTV.
Pues bien, por lo que ya se ha comentado sobre el primer día del CES de la presente edición, la tendencia continua en la cada vez mayor conectividad. De hecho, hasta Myspace se ha apuntado al carro de la televisión inteligente (SmartTV) y, justamente hoy, la red social musical ha anunciado con MyspaceTV que entrará de lleno en el este mundo (para intentar resucitar, se entiende, tras su decadente caída) y competir con GoogleTV de la mano de LG (y otros, como Sony o Samsung) o la apuesta personal de Apple en este segmento, iTV o AppleTV, algo menos integrada con el televisor propiamente dicho. Myspace ya cuenta con partners de renombre como Panasonic y han bautizado el aparato como la TV Social, cuya mayor novedad es la de poder interactuar en tiempo real con amistades y/o comentar el contenido que se está viendo para el deleite de sus allegados.
El 3D ya está asumido por los fabricantes, ya sea de tipo pasivo, activo, o autoesteroscópico (sin necesidad de gafas). Toshiba se mantiene reinventando su CellTV con pantallas de 55″ y resoluciones 4k (2 veces la resolución HD en cada dimensión, 3840×2160) para contenidos 2D pero con un modo 3D en resolución 720p sin necesidad de gafas. Eso sí, no se puede decir que sean electrodomésticos “de consumo” por el precio que se espera, alrededor de 10000$ de salida.
Desde el punto de vista de este blog, también le hemos dado importancia a ciertas novedades en los equipos de TV de Samsung, el mayor fabricante de smartphones y televisores, como la inclusión de procesadores Dual Core de Intel (aunque otros medios apuntan a dual core de la propia Samsung), un gesto que sí que tiene más que ver con la supercomputación “de consumo”.
“To be or not to be”, “TV or not TV”, ¿contenido o continente?, ¿qué es lo importante?
Hasta otra.
Etiquetas: , ,