‘General’

Supercomputadores “de consumo” en los medios “de consumo”

A los colaboradores de este blog nos alegra enormemente ver cómo noticias relacionadas con los procesadores de consumo en el mundo de la supercomputación empiezan a despertar interés en algunos de los medios de comunicación más importantes. Por ello, leer la noticia de que en estos momentos Tianhe-1 lideraría el Top500 en los diarios El País, El Mundo, ABC, así como en básicamente todas las agencias de noticias generalistas (y obviamente en las especializadas) ha sido motivo de satisfacción para los que hemos esperado pacientemente a que este momento se produjera. Llegamos algo tarde a comentar este suceso, y encantados de que la redacción del boletín de Madrimasd haya hecho eco de ello en nuestra ausencia, pero no por retrasados (en el tiempo, se entiende) queríamos dejar pasar la oportunidad de incidir en este relevante hecho.

Tianhe-1 ya anunció su potencial en Junio de 2010, posicionándose en el séptimo lugar del ranking, y ha sido ahora cuando ha demostrado su gran escalabilidad liderando la lista. Por su parte, ya reseñamos el momento (noviembre 2008) en el que entraba en el Top500 el japonés TSUBAME, el primer supercomputador que incluía procesadores gráficos entre sus elementos de cómputo de altas prestaciones (ver aquí: http://www.madrimasd.org/blogs/supercomputacion_de_consumo/2008/11/18/107199).

Lo que ahora está sucediendo es algo que se veía venir desde lejos, aunque no sea todo tan claro y simplificado como aparenta ser (y totalmente de acuerdo con las palabras del profesor Mateo Valero reproducidas en Madrimasd) y sin querer extraer de ello ninguna lectura política.

Enlaces de interés:

http://www.elpais.com/articulo/sociedad/China/desbanca/EE/UU/superordenador/rapido/mundo/elpepusoc/20101028elpepusoc_6/Tes

http://www.elpais.com/articulo/Pantallas/Carrera/records/informaticos/elpepirtv/20101103elpepirtv_2/Tes

http://www.abc.es/20101029/tecnologia/superordenador-chino-convierte-rapido-201010291130.html

http://www.elmundo.es/elmundo/2010/10/28/navegante/1288268546.html

Etiquetas:
Categorias: General

AMD Fusion: ¿una nueva generación de procesadores a corto plazo?

Llevábamos meses esperando noticias sobre una arquitectura híbrida de CPU y GPU que con la absorción del fabricante de procesadores gráficos ATI por parte de AMD en julio de 2006 no tendría que haberse hecho esperar mucho. Sin embargo, al igual que en el caso del Intel Larrabee que ya tratamos en el blog, los rumores de su salida han alimentado más si cabe la esperada arquitectura híbrida. Parece que la salida podría ser el próximo año.

El pasado 6 de febrero, AMD presentó en COMPUTEX Taipei 2010 una nueva familia de procesadores de propósito general bajo el nombre AMD Fusion. Estos procesadores, también conocidos con el nombre de APUs (Accelerated Processing Units) combinan en un mismo chip un procesador con múltiples núcleos de procesamiento basados en una arquitectura x86 (CPU), junto con un procesador vectorial (GPU).  La novedad se basa por tanto en que la GPU estará integrada en el propio microprocesador. La finalidad de estas APUs se encuentra en la aceleración de aplicaciones multimedia y de procesamiento vectorial (reconocimiento de gestos, voz, conversión de contenido 2D en 3D, etc.), tratando de mantener al mismo tiempo cierto compromiso con el consumo energético. Recientemente se hicieron demostraciones públicas del rendimiento de la plataforma.

AMD-Fusion-Analyst-CPU_GPU

Por otro lado, la reciente aparición de herramientas como DirectCompute y OpenCL simplifica en gran medida la programación de este tipo de arquitecturas. Así mismo, se espera que AMD Fusion sea compatible con Windows 7 y DirectX 11. Su aparición en el mercado está prevista para 2011, y en un principio está pensada su inclusión en dispositivos portátiles, permitiendo afrontar tareas con un elevado coste computacional, sin que esto repercuta de forma notable en el tiempo de vida de las baterías.

AMD-Fusion-Analyst-ventajas

Etiquetas: , , ,
Categorias: General

Cinco años desde la aparición de los ordenadores “multicore”

En 2010 se hacen cinco años desde que se lanzaron al mercado los primeros sistemas de varios núcleos de procesamiento. Básicamente todo programa sobre una plataforma de consumo anterior se ejecutaba a una cierta velocidad debido a la frecuencia de reloj a la que se sometía el procesador. Todos hemos sido testigos de los aumentos en las prestaciones de los equipos, desde 1 MHz, 16 MHz, 20 MHz (¿os acordáis del botón turbo?), 33 MHz, 233MHz, 900MHZ, 1.2GHz, 2.0GHz, 2.4GHz, 3.0GHz, 3.2 GHz, 3.6GHz y muchos otros valores intermedios. Un mismo programa mejoraba sus prestaciones y su ejecución era más rápida, el videojuego era más interactivo o la gráfica se calculaba más rápidamente. En 2005 se empezaron a lanzar procesadores de consumo que incluían 2 núcleos de cómputo. Compartían ciertos recursos hardware pero de manera eficiente se podían ejecutar 2 programas simultánemente sin compartir tiempo de procesador, o que un mismo programa se ejecutara desde 2 núcleos de procesamiento. La pregunta ahora sería, ¿ha cambiado mucho desde entonces?

compaq386sx25

Quizá la respuesta sea que no demasiado, no hemos sido testigos de grandes mejoras en el rendimiento de una misma aplicación porque ha habido dos barreras importantes. Una es que a mayor número de núcleos, resultaba más eficiente mantener la frecuencia de reloj por debajo de sus máximos históricos, y la segunda es que los programas no estaban preparados para ejecutarse desde dos núcleos de procesamiento relativamente independientes. Lo que sí que hemos podido percibir es que pudiéramos ejecutar más aplicaciones sobre un mismo equipo. Inicialmente, los primeros multinúcleos o multicores estaban basados en dos unidades de procesamiento y poco a poco se reemplazará toda la base instalada para alojar dual cores , quad cores, hexa cores, etc. Será entonces cuando la mentalidad de todo desarrollador se vea modificada, y necesariamente los programas se desarrollen para trabajar con los varios núcleos de cómputo de la plataforma estándar.

Las herramientas de consumo para el desarrollo de software están incluyendo progresivamente soporte para la programación paralela, el cambio está a la vuelta de la esquina. Dejamos al lector un enlace interesante que habla de esto mismo: http://www.drdobbs.com/go-parallel/blog/archives/2010/03/think_parallel_1.html

Etiquetas: , , ,
Categorias: General

Recuerdos de Deep Blue en DeepQ&A: La computación paralela más mediática

Recuerdo cuando hace ya unos años muchos se sintieron defraudados, e incluso amenazados, cuando el supercomputador Deep Blue de IBM ganó al por aquel entonces campeón de ajedrez Gari Kasparov. Fue Mayo de 1997 y, para muchos, el poder de la máquina podía empezar a ser motivo de preocupación, al menos de crear una sensación agridulce.

Pero 13 años más tarde podríamos seguir asombrándonos si se hace cierto el comunicado de IBM, que desde hace unas semanas está haciéndose eco por diferentes medios, de presentar un sistema de computación al famoso concurso americano de preguntas y respuestas Jeopardy!. Dicho sistema se denomina Watson y lleva años preparándose en el contexto del proyecto DeepQ&A (Question&Answer, Pregunta&Respuesta) en el Watson Research Center de IBM (el centro de investigación más importante de IBM ubicado al norte de la ciudad de Nueva York, y que ya se llamaba Watson mucho antes de especular con este nuevo sistema). En el concurso Jeopardy! se incluyen preguntas de ámbito histórico, político, cultural y científico, y en algunas ocasiones hay aspectos irónicos o formas engañosas de realizar las preguntas que para un sistema automático es extremadamente complicado de analizar, pues no se trata de procesar las palabras, sino las semánticas, los significados conjuntos en una frase. Todo ello en tiempo restringido y sin ningún tipo de ayuda externa (conexión a Internet,…).

El inmenso esfuerzo del proyecto DeepQ&A no solamente se queda en el impacto mediático que pudiera tener que Watson compitiera a gran nivel en el concurso televisivo, sino que su objetivo se cumpliera dotando de un nivel de procesamiento automático del lenguaje natural, incluyendo tareas de recuperación de información, aprendizaje automático, razonamiento y representación del conocimiento, hasta ahora no conseguidas. Este estudio dirigiría el futuro en la automatización de respuestas, negocio inteligente, análisis y manejo de información automático, generación de resúmenes, y ayuda a la decisión de una manera más fiable y precisa.

La clave del nivel de cómputo necesario para afrontar este reto humano, se basará en la capacidad de cómputo masivamente paralelo de la arquitectura que subyace en Watson. Básicamente serán 8 módulos del tamaño de frigoríficos los que se dispondrán en el estudio de televisión, pero a día de hoy, se puede imaginar que en un futuro a corto o medio plazo, ese sistema podría llegar a miniaturizarse a tamaños de proporciones más humanas.

El siguiente vídeo expone (en inglés) algunas de las claves de Watson:

Imagen de previsualización de YouTube

Por otra parte, desde hace ya unos meses sabemos del ambicioso proyecto internacional Blue Brain Project (BPP) en el que IBM ofrece el músculo para simular el cerebro humano a nivel biológico y llegar a dotar de efectivo aprendizaje a una poderosa máquina (o mejor dicho sistema de cómputo). De hecho, España se unió al proyecto en Mayo de 2009 a través del denominado Cajal Blue Brain. Pero por ahora, eso lo dejamos de lado…

Etiquetas: , , , ,
Categorias: General

Universo Paralelo de Intel

No es la última película de ciencia ficción, de hecho no hablamos del futuro, sino del presente. En este blog ya se han hecho múltiples referencias sobre el potencial problema que trae consigo que las arquitecturas de cómputo (los ordenadores) evolucionen de una manera que no se había augurado hace una década (ver ejemplo). En lugar de ser más rápidos, cada vez son más paralelos, capaces de realizar tareas simultaneamente pero no necesariamente más rápido si dichas tareas son independientes. Si las tareas son dependientes, o directamente es solo una, entonces se puede incrementar la velocidad final de la solución dividiendo el problema y resolviéndolo de forma parcial desde diferentes núcleos de cómputo (cores). Sin embargo, esta división en general no es automática, y el programador debe ser consciente de ello para poder sacar partido a los nuevos sistemas de cómputo.

El fabricante de procesadores Intel lleva un tiempo interesado en concienciar a los programadores en las nuevas necesidades y buenas prácticas de programación con vistas al presente y futuro inmediato. En este sentido ha lanzado un servicio web de exploración de código denominado Intel Parallel Universe. La herramienta está disponible desde http://paralleluniverse.intel.com/ y está pensada para recabar información de manera automática de un código fuente de un programa informático para conocer su posible escalabilidad en plataformas de varios núcleos de cómputo. De hecho, el sistema ofrecerá gráficas para mostrar la escalabilidad (lo bien que se portará la aplicación) en sistemas de 1, 2, 4, 8 y 16 núcleos de cómputo. El uso de la herramienta es gratuito, solamente se necesita estar registrado y subir los códigos (de menos de 20MB) en versión final de 32 bits. Intel ha anunciado que en breve estará disponible para otras plataformas.

Dejo por aquí un vídeo demostrativo:

Imagen de previsualización de YouTube
Etiquetas: , , ,
Categorias: General

Una visión al futuro a corto plazo de la televisión

CES es una mediática conferencia de la electrónica de consumo, que consigue unir el mundo del ocio, contenidos y electrodomésticos más tecnológicos. En el contexto de este blog me ha llamado especial atención el lanzamiento de Toshiba, que según muchos analistas ha sido el bombazo de la conferencia: Cell TV.

(más…)

Etiquetas:

Novedades de la Supercomputación de Consumo


Leo en diferentes fuentes la última noticia respecto al, ya casi eterno, lanzamiento del Intel Larrabee. Pero antes de nada, ¿qué es Larrabee?, ¿y cuáles son las últimas noticias respecto a la supercomputación de consumo?

Además de ser una minúscula ciudad de unas 200 personas del Estado de Iowa, y de algún que otro poblado en Estados Unidos, Larrabee es el nombre estratégico que recibió (en honor al Parque Larrabee del Estado de Washington) un dispositivo híbrido entre componente gráfico (procesador gráfico o GPU) y co-procesador de altas prestaciones del gigante Intel. Fue anunciado hace ya más de 3 años como la alternativa de cómputo de altas prestaciones cuando los fabricantes de hardware gráfico ampliaban su negocio gracias al poder de cómputo que ofrecía su material, y que competía directamente con los procesadores centrales (CPUs) de consumo.

(más…)

Etiquetas:
Categorias: General, Hardware

Escalabilidad computacional de algunas aplicaciones: reconocimiento de caras

Leía el otro día una noticia sobre la importancia extrema de un nuevo resultado de investigación en forma de aplicación: el reconocimiento de caras. Hasta el momento, todas las investigaciones trataban de medir proporciones en las caras para entrenar un clasificador y poder reconocer una cara humana en una base de datos conocida. Métricas y métricas, clasificadores y clasificadores, años de investigación que podrían quedar casi en el olvido una vez se imponga el enfoque adoptado por el Dr. Yi Ma de la Universidad de Illinois at Urbana-Champaign (UIUC).

(más…)

Etiquetas:
Categorias: General, Trabajos

Intel adquiere Rapidmind

Rapidmind, la empresa creada hace 5 años por el profesor Michael McCool de la Universidad de Waterloo, fue adquirida por Intel hace una semana. Rapidmind se creó con la vista puesta en la comercialización del sistema de programación Sh que conseguía adaptar y optimizar algoritmos a diferentes plataformas de consumo y altas prestaciones que surgieron a partir de los aceleradores (procesadores gráficos y variados multiprocesadores). Rapidmind creció rápidamente gracias al desarrollo de las arquitecturas multicore para ordenadores personales, que compartían la misma filosofía que los aceleradores citados, así como a la euforia de algunos desarrolladores y empresas por poder adaptar sus algoritmos a variadas arquitecturas sin la necesidad de recodificar en diferentes entornos. Un mismo código, con ayuda de las librerías de Rapidmind, podía ser ejecutado en un procesador basado en múltiples núcleos, en un procesador IBM Cell o en una tarjeta gráfica, sin necesidad de conocer detalles íntimos de estas diferentes plataformas. Como dato histórico, Google adquirió en 2007 Peakstream Inc., otra empresa con objetivos parecidos a los de Rapidmind.

(más…)

Etiquetas: , , ,
Categorias: General

Tendencias de los ordenadores de consumo

El gigante Intel ha puesto a disposición de la comunidad una serie de interesantes artículos divulgativos sobre las arquitecturas de consumo que actualmente ofrece. En particular, queríamos destacar uno que explica diferencias entre las arquitecturas multi-core, multiprocesador y tecnologías Hyperthreading, y que pueden ofrecer un punto de vista para encarar el futuro de la computación. Es un hecho que la comunidad de desarrolladores de aplicaciones debe ser consciente de que el tradicional modelo de programación basado en dejar que la aplicación sea más rápida gracias al aumento de la frecuencia de reloj de cada generación de microprocesadores ha llegado a un punto sin retorno. Pongamos un ejemplo… (más…)

Etiquetas:
Categorias: General, Hardware