‘Conferencias y actos’

Supercomputación, ¿sin noticias, buenas noticias?

Con la posibilidad de hacer 93 cuadrillones de operaciones por segundo (petaFLOPS), el supercomputador chino Sunway TaihuLight sigue siendo, desde Junio 2016, la instalación de cómputo más potente del mundo.

Llevamos ya un par de posts en este blog hablando de lo mismo: de lo bien que China lo ha hecho en el mundo de la supercomputación. Y es justo incidir en ello, porque China no tuvo un supercomputador en el Top500 hasta hace 20 años y hoy tiene 160 (por 168 estadounidenses), siendo el segundo país con más instalaciones del ranking. En Junio de 2016, el Top#1 lo copó Sunway TaihuLight, pero lo extraordinario de ello es que su fabricación era completamente china y además energéticamente muy eficiente, ¡el doble que el segundo supercomputador del ranking! (también instalación china, por cierto).

Retomando la descripción del post anterior, Sunway TaihuLight posee más de 10 millones de núcleos de procesamiento y consume algo más de 15 millones de vatios (equivalente a unos 75.000 ordenadores domésticos de escritorio). Esto le hace ser el segundo sistema del Top10 en la lista de los Green500, es decir, el segundo más ecológico de los 10 sistemas más potentes del mundo, y en el puesto número 17 con un ratio de más de 6000 MFLOPS por vatio consumido (6 billones de operaciones en coma flotante por segundo y vatio consumido).

Es sorprendente ver cómo en el Top10 del ranking hay 2 instalaciones chinas (puestos #1 y #2), una europea en el tercer puesto, 5 estadounidenses y una japonesa. El honorable bronce europeo proviene de una actualización de la instalación Suiza de Piz Daint, que aumentó el número de aceleradoras de última generación NVIDIA Tesla P100 de las que ya disponía.

Por nuestra parte, España mantiene en lista una única instalación, el Mare Nostrum del Barcelona Supercomputing Center, con una importante actualización (Mare Nostrum 4) que la ha llevado del puesto #129 hace 6 meses a un memorable puesto #13 y alcanzando los 11,1 petaFLOPS. La actualización se debe a la inclusión de los procesadores Intel Xeon Platinum 8160 de 24 cores, únicos en las instalaciones del ranking posiblemente por lo apresurado desde su lanzamiento. Mare Nostrum llegó a estar en el #4 en noviembre de 2004, cuando entró por primera vez en lista como tal, y aunque nunca llegó al #1, desde luego sí es el número 1 en belleza (ver imagen donde se le ve dentro de la capilla de la Torre Girona de principios de siglo XX).

Curioso también el hecho de que de los 500 supercomputadores del ranking, 498 posean un sistema operativo Linux, y sólo 2 queden con Unix. La razón no es otra que la facilidad de modificar un sistema Linux para ajustarlo a la necesidad de un supercomputador frente a otros sistemas operativos.

Si tienes más curiosidad aquí tienes toda la lista de junio de 2017: https://www.top500.org/lists/2017/06/  

Etiquetas: , ,

Asalto chino a la Supercomputación

Celebrándose la Supercomputing Conference 2015 en Austin, EEUU, y puntuales a la cita, se anunció este pasado martes 16 la actualización invernal del famoso ranking bianual (junio/noviembre) Top500. Y para desgracia de los lectores, por sexta vez consecutiva, Tianhe-2 mantuvo el liderazgo (¡3 años completos!) con sus 33 petaflops. Esta falta de novedades contrasta con los constantes movimientos que hubo en la cabeza del ranking de la supercomputación en los anteriores años a la llegada del gigante chino. Entonces, ¿dónde está la noticia de este año?

Se suelen analizar los 10 primeros puestos por si hay nuevas entradas que puedan suponer un peligro inminente al Top1, pero solamente hay 2 “tímidas” entradas respecto a Junio 2015, en los puestos #6 (el americano Trinity, con algo más de 300.000 núcleos CPU y llegando a los 8 petaflops) y #8 (el alemán Hazel Han, segundo europeo en el ranking detrás del suizo Piz Daint, con 185.000 núcleos y 5,6 petaflops).

Sin embargo, la noticia que dan los medios es la de la subida en el número de instalaciones chinas, triplicando su presencia en el ranking de los 500 sistemas más potentes del mundo y pasando de 37 a 109 supercomputadores en el listado. Es cierto que la mayor parte de la nueva entrada está en la parte baja del ranking, pero no deja de ser el comienzo de una entrada a gran escala, teniendo ya más instalaciones que toda Europa (que pasa de 141 a 108 supercomputadores en lista).

El Departamento de Energía (DoE) estadounidense ya tiene proyectados desde hace un tiempo la creación de 2 supercomputadores con 5-10 veces más potencia que Tianhe-2, y que estarían en funcionamiento en 2016-2017, pero no deja de ser curiosa la reacción de los medios. Por nuestra parte, España mantiene en lista el Mare Nostrum en el puesto #91 (bajando desde el puesto #77 en el anterior listado y del #29 en junio 2013) y el Teide HPC en el #372 (respecto al puesto #259 en julio 2015 y #138 en noviembre de 2013). Si tienes más curiosidad aquí tienes toda la lista de noviembre: http://top500.org/list/2015/11/

Más interesante es la entrevista que hace una semana concedía un coautor del ranking Top500, Dr. Jack Dongarra, sobre el uso del benchmark Linpack (High Performance Linpack, HPL) para evaluar el rendimiento de estos sistemas, no siempre el mejor para medir la escalabilidad del comportamiento en problemas reales, y que puede llegar a distorsionar las arquitecturas de las instalaciones haciéndolas ineficientes para problemas reales aun comportándose bien en el ranking. Hace dos años, casualmente cuando Tianhe-2 se mostraba imbatible al llegar al trono, se propuso el proyecto High Performance Conjugate Gradient (HPCG) benchmark como nueva medida de rendimiento, que se acercaría más a los problemas para los que suelen utilizarse estos superordenadores.

Imagen del supercomputador Tianhe-2 (fuente: Top500)

Etiquetas: ,

Semana Grande de la Supercomputación: Top500 y premios NVIDIA a centros educativos y de investigación

Adelantábamos en el último post de las previsiones de supercomputación que Noviembre tenía una de las fiestas bianuales de la supercomputación, la del Top500. Así ha sido, pero aún hay más: se han anunciado los nuevos NVIDIA CUDA Teaching/Research Centers con 3 incorporaciones nacionales, la Universidad de Valladolid, la Universidad de Sevilla y la Universidad Rey Juan Carlos.

Celebrándose la Supercomputing Conference 2014 en Nueva Orleans, EEUU, se anunció el pasado martes el ranking de noviembre del Top500. Por cuarta vez consecutiva, Tianhe-2 mantuvo el liderazgo (2 años completos, con las 4 actualizaciones correspondientes de las que hemos dado cuenta por estas líneas). Estados Unidos bajó en 2 instalaciones de su lista en el Top500 (llegando a 231 instalaciones y siendo líder en número de supercomputadores del ranking, casi la mitad de todos) y las europeas subieron en 14 hasta 130. A finales de la semana pasada se anunciaba a bombo y platillo la ayuda económica que NVIDIA e IBM recibirían para hacer posible en el plazo de 3 años dos supercomputadores de entre 2-10 veces más potente que el actual #1. Para ello, se valdrían de procesadores PowerPC9 y aceleradores NVIDIA Tesla k80 de futura generación, basados en la familia Volta, nombre dedicado al físico italiano Alessandro Volta, inventor de la batería, por la extremada eficiencia energética de dicha familia. IBM ya tiene grandísima experiencia en el diseño de estos supercomputadores, no tanto NVIDIA a pesar de que su tecnología CUDA esté presente en 2 de las 10 instalaciones más potentes del citado ranking.

NVIDIA también anunció sus nuevos CUDA Teaching Centers (CTC) y CUDA Research Centers (CRC), galardones a los centros que mantienen en sus planes docentes o investigaciones multidisciplinares materia ligada con la tecnología NVIDIA CUDA. Nos complace anunciar que entre sus nuevos CTCs  tenemos a la Universidad de Valladolid y a la madrileña Universidad Rey Juan Carlos (la que acoge nuestro día a día), por nuestro afán de atraer nueva tecnología a las aulas de las titulaciones de la Escuela Técnica Superior de Ingeniería Informática. Así, Madrid tiene 3 centros (UAM, UPM y URJC) de los 10 de toda España. Este galardón conlleva una donación de material de última generación para su uso en las clases y talleres de las titulaciones que así lo requieran o seminarios a la comunidad científica del centro, cuyos investigadores implicados se comprometen a impartir. También es importante citar la entrada de la Universidad de Sevilla como CRC haciendo 6 centros españoles.

NVIDIA CUDA es una tecnología de cómputo paralelo que aprovecha la gran potencia de cálculo de las tarjetas gráficas (en realidad de su procesador, GPU, de unidad de procesamiento gráfico) para acelerar la ejecución de aplicaciones científicas. Surge como forma de simplificar la programación de estos procesadores especiales, al igual que existen lenguajes de programación (C, Pascal, Fortran, Java,…) para los tradicionales procesadores centrales (CPUs, de unidades de procesamiento centrales), en los que siempre se han ejecutado las aplicaciones. En determinados casos, en los que la gran independencia de los datos a procesar y la cantidad de ellos son enormes, la potencia de las GPUs puede superar con creces a la de la CPU, además de ser energéticamente más eficientes por estrategias de diseño. NVIDIA CUDA surgió en 2007 gracias al increíble éxito que tuvieron los primeros programas que, haciendo uso de la potencia del procesador gráfico, mejoraban el rendimiento y se volvían más rápidos. Algunas de las nociones para entender este éxito lo pusimos por este blog hace unos años. Actualmente, esta tecnología está soportada por toda la gama de procesadores gráficos de NVIDIA, desde sus tarjetas gráficas más domésticas de apenas unas decenas de euros, hasta sus aceleradores de supercomputación más potentes de varios miles.

 

Etiquetas: , , , , , , , ,

No pasa el tiempo en el Top de la supercomputación

El pasado lunes 18 de noviembre, por la noche hora española, se publicaba en la Supercomputing Conference 2013 desde Denver el, ya citado muchas veces en estas líneas, Top500, el ranking de la base instalada de supercomputadores a nivel mundial. Cuántos han pensado lo bueno que sería que no pasara el tiempo…

Pues eso es básicamente lo que ha ocurrido en el ranking semestral (junio/noviembre). Nada ha cambiado en los 5 primeros puestos de cabeza desde el pasado mes de Junio, cuando el supercomputador chino Tianhe-2, rebautizado como “Milky Way 2”, tomó el puesto #1. Con ello China vuelve a ocupar, por tercera vez en la historia del Top500, el primer puesto. Recordamos que la primera vez fue en noviembre de 2010, con el Tianhe-1. En aquella ocasión Estados Unidos vio una amenaza en la escalada que China había conseguido en los últimos años hasta llegar a la cima de la supercomputación.

La primera novedad en el ranking es la entrada del supercomputador más potente de Europa, localizado en Lugano (Suiza), del Centro Nacional de Supercomputación de Suiza (Swiss National Supercomputing Centre, CSCS) con 6.27 PFlops y el más eficiente energéticamente de todo el Top10. Entre los 500 centros se cuentan 2 españoles, el MareNostrum del Barcelona Supercomputing Centre (BSC) en el puesto #34 y el Teide-HPC del Instituto Tecnológico y de Energías Renovables S.A. en el puesto #138, haciendo que España quede en el puesto #11 del ranking por países, por detrás de compañeros europeos como Noruega, Suecia, Suiza, Italia (todos ellos en el puesto #9 con 3 bases instaladas), Alemania (#6, con 20), Francia(#5, con 22), Reino Unido (#4, con 23). El Top3 en países lo sigue liderando EEUU (264), China (63) y Japón (28), en este orden.

Por áreas de aplicación sorprende que encontremos en el puesto #64 (#127 en junio pasado) al Amazon EC2 C3 Instance Cluster, el supercomputador de la empresa Amazon, que es la única instalación dedicada a los Web Services, o en el #468 el supercomputador de Volvo Car Group, siendo ambos, ejemplos de fuertes empresas que necesitan de la supercomputación. En números 410 (82%) instalaciones no tienen área de aplicación concreta, 56 (11.2%) son de investigación, 9 (1.8%) para el estudio del clima, 6 (1.2%) para la energía y 5 (1%) para defensa. ¿No sería interesante ver a grandes empresas españolas de la energía o las comunicaciones con un supercomputador en el Top500?

Con respecto a los aceleradores utilizados, se nota un leve incremento (1,4%) en el uso de ellos (coprocesadores vectoriales especializados), liderando los equipos basados en la tecnología gráfica de NVIDIA y seguida, de lejos en cuanto a número de instalaciones, por Intel con la arquitectura novedad de hace un año Intel Xeon Phi.

Con respecto a los aceleradores utilizados, se nota un leve incremento (1,4%) en el uso de ellos (coprocesadores vectoriales especializados), liderando los equipos basados en la tecnología gráfica de NVIDIA y seguida, de lejos en cuanto a número de instalaciones, por Intel con la arquitectura novedad de hace un año Intel Xeon Phi.

Además, también el pasado lunes NVIDIA anunció en la Supercomputing Conference su alianza con IBM para la fabricación de los nuevos equipos Tesla K40 como extensión de su arquitectura GK110 con mayor número de núcleos de procesamiento, duplicando las velocidades y cantidad de memoria, así como dotando de mayores frecuencias de reloj. Además de ello, también avanzó lo que será la posible estrella para su propia conferencia GTC (Graphics Technology Conference) de finales del próximo marzo con el lanzamiento de CUDA 6 y un espacio de memoria unificado entre CPU y GPU, que conllevará una innecesaria reserva de espacios de memoria localizados

Se antoja una de las mayores mejoras de la plataforma CUDA de toda su historia, pues para trabajar con datos en memoria gráfica ya no serían necesarias las copias explícitas de un dispositivo a otro (a menos que se requiera exprimir al máximo el rendimiento). Esta memoria unificada abrirá la puerta a nuevos programadores de una manera más cercana, lo que, al fin y al cabo, es facilitar la adopción de la tecnología, lo que NVIDIA siempre llamó la “democratización de la supercomputación” (democratized supercomputing).

 

Etiquetas:

De nuevo supremacía china en la supercomputación

Adelantábamos la semana pasada que el supercomputador chino Tianhe-2, rebautizado como “Milky Way 2”, tomaría el relevo por el puesto #1 en el ranking del Top500 de los supercomputadores. El pasado lunes 17 así se confirmó en la International Supercomputing Conference 2013 (ISC’13). Con ello China vuelve a ocupar, por segunda vez en la historia del Top500, el primer puesto. La primera, y última vez hasta el momento, fue en noviembre de 2010, con el Tianhe-1. En aquella ocasión Estados Unidos vio una amenaza en la escalada que China había conseguido en los últimos años hasta llegar a la cima de la supercomputación. La siguiente gráfica muestra la evolución por países, y se puede observar que China (en azul oscuro), entrando en noviembre de 2001 en el ranking, va escalando posiciones llegando a superar al agregado de la Unión Europea (rojo) y quedando solo detrás de Estados Unidos (celeste) en rendimiento total en el ranking (agregado de todos los supercomputadores de la lista por países).

 Por otra parte, se libra otra batalla, la del uso de aceleradores. Los aceleradores son dispositivos especializados en cómputo paralelo que se integran a modo de coprocesadores de las unidades centrales de procesamiento (CPUs). La inclusión masiva y demostrada del poder de cómputo de estos dispositivos especializados tiene su origen con los IBM Cell Processors a finales de 2007 y fundamentalmente en 2008, cuando llegaron a aportar casi el 10% del rendimiento sumado de todos los supercomputadores del ranking. Ahora ese porcentaje es del casi 35%, es decir, el 35% de todo el rendimiento aportado por los 500 supercomputadores viene originado por los aceleradores incluidos en solo el aproximadamente 50% de los equipos. Esto viene a decirnos que los aceleradores llegaron para quedarse, que energéticamente son muy eficientes, y que empujan el rendimiento de estos monstruos a nuevas cotas. En noviembre de 2012 los Intel Xeon Phi fueron la novedad y los presentamos por estas líneas, hoy han tomado la cima con el Tianhe-2, escalando por encima de los NVIDIA Kepler, que debutaron también en 2012 tras el éxito de su anterior generación NVIDIA Fermi (hoy por hoy los aceleradores aún más utilizados del ranking). Intel además ha aprovechado el tirón mediático de su puesto #1 en el ranking para anunciar sus nuevas familias de los coprocesadores Xeon Phi, con variedad a nivel de eficiencia energética, rendimiento, capacidades de memoria, formatos y dimensiones. Pero esto merecerá otro post. Eso sí, hoy por hoy, los IBM Cell han quedado casi en el olvido (al menos en la 41 edición del ranking), lo que nos recuerda el post de la caída de los titanes.

Etiquetas: , , ,

Kepler: una evolución de los procesadores gráficos de NVIDIA

La semana pasada estuvimos en la conferencia de presentación de novedades de la marca de procesadores gráficos NVIDIA. La GPU Technology Conference (GTC) de 2012 ha presentado ante casi 3000 asistentes las novedades tecnológicas de esta reputada marca de chips gráficos que se está ganando un puesto en el área de la supercomputación (de consumo, o no).

De forma resumida, los orígenes de las GPUs (Graphics Processing Units, unidades de procesamiento gráfico, en contraposición de las CPUs/unidades de procesamiento central) se pueden centrar a primeros de los 90 para reducir el coste computacional del renderizado gráfico, especialmente en aplicaciones 3D en las que la escena 2D proyectada en pantalla viene determinada por muchos cálculos de proyección. Los videojuegos han sido el motor básico de las evoluciones que han tenido lugar en estos componentes, y donde su especial característica arquitectónica ha sido el paralelismo intrínseco que ofrecen debido a la propia naturaleza de los problemas que abordan (renderizado). Este paralelismo “innato” colocó a la arquitectura gráfica en un lugar privilegiado a finales de los 90 y primeros de la pasada década para que investigadores de todo el mundo generaran un movimiento que inicialmente se denominó GPGPU o computación de propósito general utilizando GPUs (General Purpose computation using GPUs). Y es que el poder de cómputo que podían ofrecer estos chips gráficos a problemas computacionales de todo tipo resultaba muy atractivo para los investigadores (muy comentado en este blog por cierto, ver entradas que tocan este tema más abajo). Desde el año 2002 hasta el año 2005 surgieron muchas aproximaciones para tratar estos problemas desde un punto de vista gráfico y en 2006 NVIDIA lanzó un interfaz HW/SW denominado CUDA (de Compute Unified Device Arquitecture, y por cierto, término que ahora reniega la propia NVIDIA) y el campo GPGPU pasó a denominarse GPU Computing (computación en GPU). CUDA permitía aprovechar los recursos paralelos de las GPUs de NVIDIA de una manera más accesible a programadores e investigadores no experimentados con el área de gráficos por computador.

En el GTC de la pasada semana NVIDIA ha presentado la versión 5.0 de CUDA (que ya estaba en versión beta para desarrolladores) así como la arquitectura Kepler, una evolución notable de sus chips gráficos, quizá no sobresaliente (la evolución) como lo fuera la evolución de la familia Fermi (presentada en la edición anterior del GTC), pero aún muy grata.

 

Básicamente se presentaron 3 grandes mejoras respecto a la anterior familia, justificadas por todo tipo de factores de mejora y el mediatismo propio de una gran presentación como el incremento a más de 7000 millones de transistores integrados en un procesador. La primera novedad fue la evolución de los multiprocesadores de streams (streaming multiprocessors, SM) en una versión extendida (SMX) con capacidad de 192 procesadores escalares (CUDA cores) en lugar de los 32 anteriores, una mejora más que significativa. La segunda novedad es la capacidad de crear lanzamientos de subprogramas en el dispositivo gráfico (denominados kernels) desde otros subprogramas que se ejecutan en la GPU con parámetros variables en tiempo de ejecución. Esta capacidad puede simplificar ciertas tareas de sincronización e, incluso, se puede crear cálculos recursivos en GPU (algo que estaba prohibido anteriormente). A esta capacidad de lanzar subprogramas con parámetros variables la han denominado Dynamic Parallelism o paralelismo dinámico, característica muy interesante para refinar el cómputo en determinadas estructuras de datos, como el sugerente árbol de cómputo de la simulación del colapso de dos galaxias que se demostró en el GTC. La tercera gran capacidad de la familia Kepler es lo que denominan Hyper-Q, que no es más que la creación de varias colas de trabajo independientes para diferentes hilos de un procesador CPU con varios núcleos de procesamiento, quizá algo menos innovador por la natural evolución a múltiples núcleos de procesamiento de las plataformas CPU.

La parte negativa, es que estas tres capacidades anteriores estarán soportadas en la versión GK110 del procesador, no disponible hasta finales de año, y cuya versión ahora disponible (la GK104) solo incluyen los SMX.

En cualquier caso, felicidades NVIDIA, por la organización del fantástico evento GTC como por el nacimiento de Kepler.

Aquí tenéis un video-resumen del GTC:

Imagen de previsualización de YouTube

Enlaces sobre la noticia:

GTC: http://www.gputechconf.com/

Información sobre Kepler: http://www.nvidia.com/object/nvidia-kepler.html

White Paper: http://www.nvidia.com/content/PDF/kepler/NVIDIA-Kepler-GK110-Architecture-Whitepaper.pdf

Noticias anteriores de procesamiento en GPU:

http://www.madrimasd.org/blogs/supercomputacion_de_consumo/2009/12/06/129786

http://www.madrimasd.org/blogs/supercomputacion_de_consumo/2009/01/29/111970

http://www.madrimasd.org/blogs/supercomputacion_de_consumo/2008/12/10/109037

http://www.madrimasd.org/blogs/supercomputacion_de_consumo/2008/10/16/103763

Etiquetas: , , , , ,

CES 2012, pistoletazo de salida (TV or not TV)

Hoy, como todos los años desde 1998 por estas fechas, se ha abierto la feria CES (Consumer Electronics Show) en la ciudad de Las Vegas. Para esta feria los grandes fabricantes de la electrónica guardan sus mejores secretos para difundirlos a través del altavoz mediático de una de las conferencias internacionales más importantes en número de asistentes, con una media que ronda las 120000 personas en los 3 días de duración. Hay cabida para casi todo lo que huela a gadget tecnológico aunque los líderes de la gala siempre fueron los televisores.
Hace ya dos años anunciábamos en este mismo blog que lo que más nos había sorprendido de la edición del CES no era la conectividad que presentaban la práctica totalidad de los televisores presentados entonces (algo a lo que poco a poco tendríamos que acostumbrarnos para todos los electrodomésticos del hogar, ya fueran tostadoras o frigoríficos), sino el corazón de un modelo concreto que presentaba Toshiba y que incluía el procesador de una videoconsola (PS3) para el procesamiento de la imagen, el CellTV.
Pues bien, por lo que ya se ha comentado sobre el primer día del CES de la presente edición, la tendencia continua en la cada vez mayor conectividad. De hecho, hasta Myspace se ha apuntado al carro de la televisión inteligente (SmartTV) y, justamente hoy, la red social musical ha anunciado con MyspaceTV que entrará de lleno en el este mundo (para intentar resucitar, se entiende, tras su decadente caída) y competir con GoogleTV de la mano de LG (y otros, como Sony o Samsung) o la apuesta personal de Apple en este segmento, iTV o AppleTV, algo menos integrada con el televisor propiamente dicho. Myspace ya cuenta con partners de renombre como Panasonic y han bautizado el aparato como la TV Social, cuya mayor novedad es la de poder interactuar en tiempo real con amistades y/o comentar el contenido que se está viendo para el deleite de sus allegados.
El 3D ya está asumido por los fabricantes, ya sea de tipo pasivo, activo, o autoesteroscópico (sin necesidad de gafas). Toshiba se mantiene reinventando su CellTV con pantallas de 55″ y resoluciones 4k (2 veces la resolución HD en cada dimensión, 3840×2160) para contenidos 2D pero con un modo 3D en resolución 720p sin necesidad de gafas. Eso sí, no se puede decir que sean electrodomésticos “de consumo” por el precio que se espera, alrededor de 10000$ de salida.
Desde el punto de vista de este blog, también le hemos dado importancia a ciertas novedades en los equipos de TV de Samsung, el mayor fabricante de smartphones y televisores, como la inclusión de procesadores Dual Core de Intel (aunque otros medios apuntan a dual core de la propia Samsung), un gesto que sí que tiene más que ver con la supercomputación “de consumo”.
“To be or not to be”, “TV or not TV”, ¿contenido o continente?, ¿qué es lo importante?
Hasta otra.
Etiquetas: , ,

Una visión al futuro a corto plazo de la televisión

CES es una mediática conferencia de la electrónica de consumo, que consigue unir el mundo del ocio, contenidos y electrodomésticos más tecnológicos. En el contexto de este blog me ha llamado especial atención el lanzamiento de Toshiba, que según muchos analistas ha sido el bombazo de la conferencia: Cell TV.

(más…)

Etiquetas:

Hace dos semanas se presentó ANACAP 2009 en Madrid

Durante los días 19 y 20 de noviembre, la Universidad Rey Juan Carlos fue escenario del último Workshop Nacional de Aplicaciones de Nuevas Arquitecturas de Consumo y Altas Prestaciones (ANACAP 2009). Consolidándose como un campo de creciente interés, el uso de procesadores no convencionales para acelerar procesos computacionales a precios y consumos energéticos asumibles, reunió a decenas de investigadores de toda España. (más…)

Etiquetas: , , ,

Seminario de Dr. Tim Lanfear sobre NVIDIA Tesla y CUDA en la Universidad Rey Juan Carlos

El próximo martes 31 de marzo contaremos con la ponencia del Dr. Tim Lanfear, arquitecto de soluciones de NVIDIA, empresa líder en soluciones gráficas y supercomputación de consumo. El Dr. Lanfear nos introducirá el concepto de supercomputación personal y nos presentará en profundidad la arquitectura CUDA y su modelo de programación durante el seminario de 2 horas y media.

(más…)

Etiquetas: , , , ,