Archivo de autor

La nueva apuesta en supercomputación: Intel Xeon Phi

El Big Data está de moda. Expectantes estábamos algunos con la prometida tecnología MIC (Many Integrated Core) de Intel. Años de espera, promesas, nombres alternativos (como Knights Corner) y especulación (en su acepción de prestar atención detenidamente) ha dado por fin con el producto, el Intel Xeon Phi Coprocessor, orientado al procesamiento masivo de datos. El famoso fabricante de procesadores de propósito general ha anunciado que a partir de este momento se podrán adquirir equipos de cómputo paralelo masivo manteniendo un modelo de programación parejo al que se tiene en una plataforma de cómputo tradicional, esto es, una CPU y un entorno de programación de propósito general (lenguaje de alto nivel y su respectivo compilador). Las primeras unidades del Xeon Phi Coprocessor se vislumbran como dispositivos externos energéticamente eficientes basados en la conocida tecnología x86, que ofrecen 1TFLOPS de poder computacional en doble precisión, conectables a nuestros ordenadores a través de puertos PCI Express convencionales y cuyos precios rondarían los 2000 euros al cambio. Lo que en el año 97 eran más de 9200 procesadores ahora es un único dispositivo del tamaño de una caja de zapatos (pequeña).

Con este movimiento, Intel da un paso al frente en la carrera de la supercomputación de consumo, que da título a este blog, y que otros fabricantes mencionados en estas líneas ya se habían adelantado (e incluso ganado terreno). Atendiendo a las notas informativas que Intel ha lanzado en la presentación de su Xeon Phi, esta tecnología está absolutamente inspirada en el originario concepto de GPGPU y posteriormente rebautizado como GPU Computing, al que se refiere el uso del hardware gráfico (GPU, Graphics Processing Unit) para realizar costosas tareas de propósito general a modo de coprocesador de la unidad central de procesamiento o CPU (Central Processing Unit). Y no solo el Intel Xeon Phi Coprocessor está inspirado en el concepto de GPGPU, sino que está enfrentado a ello para ofrecer un entorno más amigable para el aprovechamiento de una capacidad de cómputo extra que lo que OpenCL o NVIDIA CUDA ofrece con las GPUs. Y ahí está el verdadero valor de Intel Xeon Phi, su amigabilidad en el ecosistema de la programación, la mayor posibilidad de abrazarlo entre la comunidad de desarrolladores, manteniendo una facilidad de escalado mediante la posibilidad de conectar hasta 8 coprocesadores en un único PC anfitrión.

Pero describamos con palabras más llanas lo que debemos vislumbrar. Intel Xeon Phi Coprocessor es un dispositivo de cómputo que se puede conectar fácilmente a nuestro ordenador de sobremesa, que se programa de modo habitual para que cualquier programador pueda sacarle partido y que ofrece unas cotas de rendimiento para problemas costosos muy superior a las que obtendríamos mediante un computador de sobremesa por muy moderno que fuera. Esto abre la puerta a muchos investigadores que no han podido acogerse a otros modelos de programación por su dificultad o especificidad, como NVIDIA CUDA, lo cual es una noticia que creemos alegrará a la comunidad científica que necesite de computadores para sus pesadas simulaciones.

Como hemos comentado en otros posts (como el último sobre la transición del Jaguar a Titan) muchos supercomputadores cuentan con unidades de cómputo masivo específicas, actualmente basadas en tecnologías heredadas del terreno del GPU Computing como son los dispositivos NVIDIA Tesla. Pues bien, Cray ya anunció que adoptaría la tecnología Intel Phi en sus nuevas integraciones y los primeros supercomputadores con tecnología Intel Xeon Phi no tardaron en aparecer, llegando al puesto #127 del ranking el pasado junio. El pasado lunes 12 de noviembre se publicaron los resultados de la presente convocatoria del ranking Top500 (donde se confirma la previsión de Titan como #1), y los aceleradores Xeon Phi han escalado posiciones hasta el puesto #7, como el caso de Stampede de Texas, que se sitúa por encima del que fuera #1 en noviembre de 2010, el Tianhe-1A. Habrá que ver la próxima convocatoria en Junio cuántos de ellos adoptan esta nueva tecnología, y en qué posición se sitúa el primero basado en Intel Xeon Phi. Muy reñida estará la partida entre los Teslas y los Phis.

PD: por cierto, nuestro apreciado Mare Nostrum queda en el puesto #36

Enlaces sobre la noticia:

Intel Xeon Phi Coprocessor: http://www.intel.com/content/www/us/en/processors/xeon/xeon-phi-architecture-for-discovery-presentation.html

Ranking Top500: www.top500.org

Características y análisis del Intel Xeon Phi: http://www.anandtech.com/show/6265/intels-xeon-phi-in-10-petaflops-supercomputer

Grupo de investigación CAPO: www.gavab.etsii.urjc.es/capo

Etiquetas: , , ,
Categorias: General, Hardware

El Jaguar se transforma en Titan

Jaguar, el supercomputador de Oak Ridge National Laboratory que en noviembre de 2009 fue líder mundial del ranking Top500 y que quedó relegado a sexta posición el pasado junio, se reconvierte para luchar por la posición de cabeza a mediados del mes que viene con el nombre de Titan. Jaguar permaneció líder del ranking durante dos convocatorias, noviembre 2009 y junio 2010 (el Top500 es un ranking semestral), pero cedió su puesto en noviembre 2010 a la supremacía china con su Tianhe-1A y de la que dimos buena cuenta por estas línea.

En 2008 Jaguar contenía del orden de 150.000 núcleos de procesamiento y llegó a la segunda posición del ranking. En 2009 ya sufrió un upgrade para escalar a la primera posición, montando una arquitectura Cray XT5 formada por 18688 nodos de 2 CPUs AMD Opteron, cada una de las cuales contaba con 6 cores, y haciendo un total de 224256 núcleos de procesamiento para ofrecer casi 2 Petaflops (2×10^15 operaciones en coma flotante por segundo). La nueva mejora a Titan supone la migración a la arquitectura más reciente Cray XK5 obteniendo un factor x10 en capacidad computacional y llegando a los 20 Petaflops. En una primera fase se sustituían las CPUs de 6 núcleos por unas de 16, pasando a 299008 núcleos de procesamiento. Posteriormente, se incluyeron racks de procesadores gráficos NVIDIA Tesla M2090 de la familia Fermi que terminarán evolucionando a Tesla K20 de la familia Kepler, la más moderna de NVIDIA y que aquí ya presentamos.

La inclusión de procesadores gráficos (GPUs) en los supercomputadores para mejorar las cotas de procesamiento no es nueva, el citado Tiahne-1A ya presumía de ello con sus Tesla M2050 de la familia Fermi en 2011. Por su parte el anterior IBM Roadrunner, líder del ranking de junio de 2008 a noviembre de 2009 (3 convocatorias), incluía una arquitectura basada en procesadores Cell, más conocidos por ser el motor de la videoconsola Sony Playstation3. Sin embargo, la renovada imagen de Jaguar para conseguir el liderato con la inclusión de mayor número de procesadores gráficos ha sido tan espectacular (18688 GPUs, una por nodo, haciendo una arquitectura absolutamente híbrida) que la noticia ya ha aparecido en diferentes medios de información generalista (CNN, BBC, National Geographic). Cabe destacar que esta renovación no se diseña de un día para otro, y que ya estaba prevista desde mediados del año pasado.

Teniendo en cuenta que el consumo energético de Jaguar fue de 7 millones de dólares en 2011 (alrededor de 7MW de consumo), un aspecto quizá más importante que la mejora computacional del x10 que supone Titan respecto a su predecesor, es su eficiencia energética, pues sus procesadores así como las arquitecturas gráficas son más eficientes y ocupando el mismo espacio, así como mejorando un factor x10 su capacidad computacional, no requerirá mucho mayor consumo energético (alrededor de 9 MW). La arquitectura CrayXK5 dará paso en un futuro próximo a una nueva generación XK6 y está previsto que en 2016 Titan vuelva a mejorarse para conseguir otro factor 10 llegando a los 200 Petaflops, camino constante hacia la “Computación Exascala” (de la que ya hablamos en Junio 2011).

Este supercomputador será utilizado de manera abierta por la comunidad científica, para predecir el clima a través de complejos modelos, estudiar nuevos materiales y combustibles, simular procesos nucleares y, en definitiva, buscar nuevas aplicaciones y fuentes de energía para la humanidad.

 

Enlaces de interés sobre la noticia:

Titan: http://www.olcf.ornl.gov/titan/

Top500: http://www.top500.org

Cray: http://www.cray.com

NVIDIA Kepler: http://www.nvidia.com/object/nvidia-kepler.html

Grupo de investigación CAPO: http://www.gavab.es/capo

Etiquetas: , , , , , , , ,
Categorias: General, Hardware

Kepler: una evolución de los procesadores gráficos de NVIDIA

La semana pasada estuvimos en la conferencia de presentación de novedades de la marca de procesadores gráficos NVIDIA. La GPU Technology Conference (GTC) de 2012 ha presentado ante casi 3000 asistentes las novedades tecnológicas de esta reputada marca de chips gráficos que se está ganando un puesto en el área de la supercomputación (de consumo, o no).

De forma resumida, los orígenes de las GPUs (Graphics Processing Units, unidades de procesamiento gráfico, en contraposición de las CPUs/unidades de procesamiento central) se pueden centrar a primeros de los 90 para reducir el coste computacional del renderizado gráfico, especialmente en aplicaciones 3D en las que la escena 2D proyectada en pantalla viene determinada por muchos cálculos de proyección. Los videojuegos han sido el motor básico de las evoluciones que han tenido lugar en estos componentes, y donde su especial característica arquitectónica ha sido el paralelismo intrínseco que ofrecen debido a la propia naturaleza de los problemas que abordan (renderizado). Este paralelismo “innato” colocó a la arquitectura gráfica en un lugar privilegiado a finales de los 90 y primeros de la pasada década para que investigadores de todo el mundo generaran un movimiento que inicialmente se denominó GPGPU o computación de propósito general utilizando GPUs (General Purpose computation using GPUs). Y es que el poder de cómputo que podían ofrecer estos chips gráficos a problemas computacionales de todo tipo resultaba muy atractivo para los investigadores (muy comentado en este blog por cierto, ver entradas que tocan este tema más abajo). Desde el año 2002 hasta el año 2005 surgieron muchas aproximaciones para tratar estos problemas desde un punto de vista gráfico y en 2006 NVIDIA lanzó un interfaz HW/SW denominado CUDA (de Compute Unified Device Arquitecture, y por cierto, término que ahora reniega la propia NVIDIA) y el campo GPGPU pasó a denominarse GPU Computing (computación en GPU). CUDA permitía aprovechar los recursos paralelos de las GPUs de NVIDIA de una manera más accesible a programadores e investigadores no experimentados con el área de gráficos por computador.

En el GTC de la pasada semana NVIDIA ha presentado la versión 5.0 de CUDA (que ya estaba en versión beta para desarrolladores) así como la arquitectura Kepler, una evolución notable de sus chips gráficos, quizá no sobresaliente (la evolución) como lo fuera la evolución de la familia Fermi (presentada en la edición anterior del GTC), pero aún muy grata.

 

Básicamente se presentaron 3 grandes mejoras respecto a la anterior familia, justificadas por todo tipo de factores de mejora y el mediatismo propio de una gran presentación como el incremento a más de 7000 millones de transistores integrados en un procesador. La primera novedad fue la evolución de los multiprocesadores de streams (streaming multiprocessors, SM) en una versión extendida (SMX) con capacidad de 192 procesadores escalares (CUDA cores) en lugar de los 32 anteriores, una mejora más que significativa. La segunda novedad es la capacidad de crear lanzamientos de subprogramas en el dispositivo gráfico (denominados kernels) desde otros subprogramas que se ejecutan en la GPU con parámetros variables en tiempo de ejecución. Esta capacidad puede simplificar ciertas tareas de sincronización e, incluso, se puede crear cálculos recursivos en GPU (algo que estaba prohibido anteriormente). A esta capacidad de lanzar subprogramas con parámetros variables la han denominado Dynamic Parallelism o paralelismo dinámico, característica muy interesante para refinar el cómputo en determinadas estructuras de datos, como el sugerente árbol de cómputo de la simulación del colapso de dos galaxias que se demostró en el GTC. La tercera gran capacidad de la familia Kepler es lo que denominan Hyper-Q, que no es más que la creación de varias colas de trabajo independientes para diferentes hilos de un procesador CPU con varios núcleos de procesamiento, quizá algo menos innovador por la natural evolución a múltiples núcleos de procesamiento de las plataformas CPU.

La parte negativa, es que estas tres capacidades anteriores estarán soportadas en la versión GK110 del procesador, no disponible hasta finales de año, y cuya versión ahora disponible (la GK104) solo incluyen los SMX.

En cualquier caso, felicidades NVIDIA, por la organización del fantástico evento GTC como por el nacimiento de Kepler.

Aquí tenéis un video-resumen del GTC:

Imagen de previsualización de YouTube

Enlaces sobre la noticia:

GTC: http://www.gputechconf.com/

Información sobre Kepler: http://www.nvidia.com/object/nvidia-kepler.html

White Paper: http://www.nvidia.com/content/PDF/kepler/NVIDIA-Kepler-GK110-Architecture-Whitepaper.pdf

Noticias anteriores de procesamiento en GPU:

http://www.madrimasd.org/blogs/supercomputacion_de_consumo/2009/12/06/129786

http://www.madrimasd.org/blogs/supercomputacion_de_consumo/2009/01/29/111970

http://www.madrimasd.org/blogs/supercomputacion_de_consumo/2008/12/10/109037

http://www.madrimasd.org/blogs/supercomputacion_de_consumo/2008/10/16/103763

Etiquetas: , , , , ,

CES 2012, pistoletazo de salida (TV or not TV)

Hoy, como todos los años desde 1998 por estas fechas, se ha abierto la feria CES (Consumer Electronics Show) en la ciudad de Las Vegas. Para esta feria los grandes fabricantes de la electrónica guardan sus mejores secretos para difundirlos a través del altavoz mediático de una de las conferencias internacionales más importantes en número de asistentes, con una media que ronda las 120000 personas en los 3 días de duración. Hay cabida para casi todo lo que huela a gadget tecnológico aunque los líderes de la gala siempre fueron los televisores.
Hace ya dos años anunciábamos en este mismo blog que lo que más nos había sorprendido de la edición del CES no era la conectividad que presentaban la práctica totalidad de los televisores presentados entonces (algo a lo que poco a poco tendríamos que acostumbrarnos para todos los electrodomésticos del hogar, ya fueran tostadoras o frigoríficos), sino el corazón de un modelo concreto que presentaba Toshiba y que incluía el procesador de una videoconsola (PS3) para el procesamiento de la imagen, el CellTV.
Pues bien, por lo que ya se ha comentado sobre el primer día del CES de la presente edición, la tendencia continua en la cada vez mayor conectividad. De hecho, hasta Myspace se ha apuntado al carro de la televisión inteligente (SmartTV) y, justamente hoy, la red social musical ha anunciado con MyspaceTV que entrará de lleno en el este mundo (para intentar resucitar, se entiende, tras su decadente caída) y competir con GoogleTV de la mano de LG (y otros, como Sony o Samsung) o la apuesta personal de Apple en este segmento, iTV o AppleTV, algo menos integrada con el televisor propiamente dicho. Myspace ya cuenta con partners de renombre como Panasonic y han bautizado el aparato como la TV Social, cuya mayor novedad es la de poder interactuar en tiempo real con amistades y/o comentar el contenido que se está viendo para el deleite de sus allegados.
El 3D ya está asumido por los fabricantes, ya sea de tipo pasivo, activo, o autoesteroscópico (sin necesidad de gafas). Toshiba se mantiene reinventando su CellTV con pantallas de 55″ y resoluciones 4k (2 veces la resolución HD en cada dimensión, 3840×2160) para contenidos 2D pero con un modo 3D en resolución 720p sin necesidad de gafas. Eso sí, no se puede decir que sean electrodomésticos “de consumo” por el precio que se espera, alrededor de 10000$ de salida.
Desde el punto de vista de este blog, también le hemos dado importancia a ciertas novedades en los equipos de TV de Samsung, el mayor fabricante de smartphones y televisores, como la inclusión de procesadores Dual Core de Intel (aunque otros medios apuntan a dual core de la propia Samsung), un gesto que sí que tiene más que ver con la supercomputación “de consumo”.
“To be or not to be”, “TV or not TV”, ¿contenido o continente?, ¿qué es lo importante?
Hasta otra.
Etiquetas: , ,

4004@40: El 40 aniversario del primer microprocesador

Hoy es el 40 aniversario del considerado como primer microprocesador de consumo, y así se recoge por la prensa especializada. El microprocesador Intel 4004, originariamente incluido como motor de una calculadora, fue el inicio de la escalada de Intel, que partió con el nombre NM Electronics (de Bob Noyce y Gordon E. Moore, sus fundadores) en 1968. Hoy el gigante le ha dedicado un microsite al 4004 que puedes ver aquí.

Al año siguiente, 1972, y ya con tecnología de 8 bits, aparecía el Intel 8008 listo para embarcarse en un computador. Aunque no sería hasta 1974 cuando realmente se empezaron a fabricar procesadores para ordenadores de propósito general con el mítico Intel 8080. Poco después se dió paso a las primeras arquitecturas de 16 bits de gran aceptación en el mercado (Intel 8086 y 8088), y de ahí a las de 32 bits aún presentes en muchos computadores domésticos.

Hoy la tendencia en los computadores de consumo (muy comentada en este blog) es la clara apuesta por los procesadores de múltiples núcleos de procesamiento. En 2005 empezaron a comercializarse los dos núcleos en un mismo chip (comentado en este post) y ahora se anuncian las primeras tablets con hasta 4 núcleos de procesamiento con la versión 3 de Nvidia Tegra (comentada la primera versión aquí en 2009). Estos días se puede leer la noticia del superchip de 50 núcleos de Intel, el Knights Corner, del que si queréis podremos seguir por este blog.

Felicidades Intel.

Imagen de previsualización de YouTube

 

Enlaces sobre la noticia:

http://www.intel.com/about/companyinfo/museum/exhibits/4004/docs.htm

http://www.xataka.com/componentes-de-pc/intel-4004-cuarenta-anos-para-la-historia

http://www.extremetech.com/computing/105029-intel-4004-the-first-cpu-is-40-years-old-today

Etiquetas: , ,
Categorias: General, Hardware

Magerit, el supercomputador #1 de España

Desde hace tiempo Mare Nostrum del Centro de Supercomputación de Barcelona (BSC) era el #1, pero desde este mes de Junio Magerit, perteneciente al CeSViMa de la Universidad Politécnica de Madrid, le adelanta según informa el Top500 (ranking mundial de supercomputadores). El Centro de Supercomputación y Visualización de Madrid (CeSViMa) se formó en 2004 en el campus de Montegancedo de la UPM (junto a la Facultad de Informática) con la intención de poner a disposición de los usuarios equipos de supercomputación y visualización interactiva, promocionar la computación de altas prestaciones y realizar actividades de investigación para generar software especializado para tareas de supercomputación. CeSViMa pertenece a la Red Española de Supercomputación (RES) desde 2007 ofreciéndole un 20% de su capacidad de cálculo para que valore investigaciones susceptibles de usar el supercomputador.

Magerit ha sido actualizado recientemente por IBM para dotarle de 245 nodos de 2 procesadores Power7 (desde los 124 nodos PowePC iniciales) y ofrecer 103,4 TeraFlops (103,4 x1012 operaciones por segundo), situándolo en la posición 136 del Top500 (Mare Nostrum queda relegado a la 170).

Imagen de previsualización de YouTube

 

Nota: Se nos adelanta el propio Notiweb informando sobre Magerit.

Enlaces de Interés:

http://www.top500.org/list/2011/06/100

http://www.xataka.com/otros/magerit-el-nuevo-supercomputador-de-la-upm

http://www.elmundo.es/elmundo/2011/06/22/navegante/1308739307.html

Etiquetas:
Categorias: General

Multicores, ¿por qué?

Hace 20 o 25 años era fácil elegir un ordenador y saber de manera aproximada cómo se iba a comportar tan sólo leyendo el nombre del procesador. Podíamos leer 286, 386, 486 (en el generalista mundo de Intel), y para mayor información solía ir acompañado de unos valores mágicos, 20 MHz, 33 MHz, 40 MHz, etc., que nos daban idea de la frecuencia a la que harían las operaciones necesarias para hacer funcionar las aplicaciones. Es decir, que una vez asumida una familia de procesadores, el valor que lo acompañaba nos indicaba de alguna manera la velocidad del ordenador. Ya en los 90 aparecieron los modelos Intel Pentium y ahí la cosa también parecía fácil, con versiones estándar, versión Pentium II, Pentium III, Pentium 4, que a su vez llevaban cada vez más elevados números mágicos de 266 MHz, 700 MHz, 1.2 GHz.

Pero en la pasada década algo debió ocurrir, porque alrededor de 2005, llegados a las últimas versiones de los Pentium 4, con frecuencias de reloj de 3.0 GHz a 3.6 GHz en los más extremos, todo se hizo más complejo para el que quería comprarse un ordenador de sobremesa.

Y entonces aparecieron los multicores

Los fabricantes empezaron a utilizar valores menores en las frecuencias de reloj, y de un 3.2GHz se pasaba a rondar los 1.8-2.8 GHz. La sencilla nomenclatura de las familias anteriores empezaron poco a poco a complicarse con los Intel Core Duo, Core 2 Duo, Core 2 Quad, Core i7, Core i5, i3 y en ninguno (o salvo casos muy excepcionales) no se ven acompañados por aumentos en frecuencias de reloj. La razón ya la hemos comentado en este blog de vez en cuando, y tiene que ver con los aumentos de potencia y problemas de disipación de calor que tendrían estos equipos al disminuir los procesos de integración y aumentar las frecuencias de reloj.

Como dato orientativo, aumentar un 1% la frecuencia de reloj implica aumentar alrededor de un 3% el consumo energético (y por tanto el calor) y tan solo produce aproximadamente un 0.66% de mejora en rendimiento. Así, aumentar un 15% la frecuencia de reloj, implicaría aumentar un 45% el consumo energético y solo mejorar un 9% el rendimiento. Continuar con esta línea haría insostenible el consumo energético de grandes equipos así como las necesidades de refrigeración de los mismos. No, no es el camino. ¿Qué pasa si disminuimos la frecuencia de reloj una vez que alcanzamos un tope? Pues a la inversa. Si bajamos un 15% la frecuencia de reloj (por ejemplo de 3 GHz a 2.5 GHz) reducimos consecuentemente un 45% el consumo energético (aproximadamente la mitad) y nos quedamos al 90% de rendimiento. Eso de disminuir el rendimiento no es lo que buscábamos, pero ¿qué pasa ahora si duplicamos el número de procesadores? Bueno, entonces la cosa cambia porque pasamos a tener un sistema que aproximadamente consume lo mismo (2 procesadores que consumían aproximadamente la mitad) y sin embargo obtenemos un incremento del 180%, es decir, casi el doble de rendimiento.

Por tanto, y como hemos incidido en más de una ocasión, se acabaron los procesadores mononúcleos, o de un único núcleo de procesamiento, se acabaron los aumentos infinitos en las frecuencias de reloj, excesivo consumo y calor, y recibimos con los brazos abiertos las tecnologías multicore y manycore.

Como Mourinho puede seguir preguntando con su característico “¿por qué?”, seguro que mucho mejor que nosotros lo explica el siguiente vídeo de escasos 9 minutos de Intel.

Imagen de previsualización de YouTube
Etiquetas: , ,
Categorias: General

La década de la Computación a Exascala

Cuando siendo adolescente mi abuela me preguntaba que qué hacía tanto tiempo delante de la pantalla del ordenador además de quedarme ciego, no podíamos imaginar que tiempo después todos tendríamos la dependencia a la máquina que tenemos, y que tendremos. En otro post hablaremos de los tablets y smartphones que tan de moda se han puesto para socializar, con capacidades de navegación, correo electrónico y acceso a redes sociales, buenas cualidades fotográficas y adictivos videojuegos, y que ya desbancan al uso de portátiles en muchos casos (basta saber que está previsto que durante este mes de junio Google Maps se utilice más desde esos dispositivos móviles que desde PCs de escritorio).

Pero por el momento vamos a seguir descubriendo y promocionando la supercomputación de consumo. En muchos laboratorios de investigación la simulación de procesos mediante el computador es el día a día. Programas desarrollados en determinados lenguajes de programación, como Fortran, Java o C, describen la realidad a través de procesos y aproximaciones para dar resultados y conclusiones sobre la naturaleza, la vida, para nuestro bienestar. Muchos de estos programas se ejecutan en ordenadores corrientes, de consumo.

La década que acaba de pasar se denominó computacionalmente como la de la computación a petaescala, describiendo que las grandes arquitecturas ofrecían rendimientos de PetaFLOPS, o bien de 1015 operaciones (de valores en coma flotante, reales de precisión simple) por segundo. El primer supercomputador en llegar a la petaescala fue el Roadrunner de IBM en 2008. ¿Para qué tanto poder de cómputo? Hay muchos problemas con alta necesidad de cómputo, como el plegado de proteínas, las predicciones de mercados, meteorología o simulaciones nucleares. Pero el interés en las arquitecturas de cómputo está en no quedarse ahí sino continuar ofreciendo mayor rendimiento de la mejor manera, y si lo que ayer era un supercomputador, hoy es un ordenador de sobremesa y mañana será el último dispositivo de bolsillo.

¿Qué es lo siguiente?, hemos entrado en la década de la computación a exaescala (1018 operaciones por segundo) prevista para ser alcanzada entre 2017 y 2021. En febrero podíamos leer en los medios de consumo que la administración de Obama había destinado 126 millones de dólares en financiar la investigación para alcanzar la exaescala una vez que China había liderado el Top500 de los supercomputadores. ¿Se trata de integrar más y más transistores?, sí, pero además tener algunos factores en cuenta, como la mejora tecnológica (procesos de integración menores, menores consumos de potencia,…) que dará un factor x4, así como otras cuestiones de diseño (paradigma de programación, exposición de los datos en las simulaciones, formas de acceso a ellos mediante jerarquías de memorias más eficientes,…) que daría un factor x50. Solo llegar a entender que actualmente es más costoso (energéticamente) acceder a un operando que realizar una operación sobre él ya da una idea de las medidas a tomar.

William (Bill) J. Dally, prestigioso catedrático de la aún más prestigiosa Universidad de Stanford, ofreció estos días una interesante charla en el IEEE IPDPS denominada “Energía, programabilidad y granularidad: los retos de la computación a exascala” (“Power, Programmability, and Granularity: The Challenges of ExaScale Computing”) que extiende todas estas ideas y que hemos querido compartir con los lectores del blog. Algunas conclusiones son: hagamos que el caso especial sea el código serie e insertemos la programación paralela en nuestros estudios hoy mismo. Facilitemos el acceso a estos paradigmas para que no solo el cambio venga de los expertos en supercomputación, sino de los químicos, los físicos, los biólogos y todo el tejido investigador. El comienzo es que empecemos a descubrir interesantes herramientas que se van poniendo a nuestra disposición, como OpenCL, CUDA, ArBB, TBB, etc., para sacar mayor y mejor partido a nuestros sistemas.

Vídeo (aproximadamente 1 hora de duración): http://techtalks.tv/talks/54110/

Etiquetas:
Categorias: General

Finalmente Watson ganó a la humanidad

Lo veníamos diciendo y se hizo realidad. Watson, el supercomputador de IBM, terminó ganando a los mejores concursantes humanos en el concurso televisivo “Jeopardy!” (tipo Pasapalabra). Mucho potencial de cálculo, una sorprendente capacidad de aprendizaje, un análisis profundo de datos, interpretación del lenguaje natural creado por la humanidad para superar a la humanidad. Con miedo de una mala imagen mediática, IBM se ha apresurado a analizar la victoria de Watson a través de un titular directo y esclarecedor en su web: “Humans win!” (“La humanidad gana”). Porque sin duda es un gran avance técnico, científico y un paso más en la aplicación de la inteligencia artificial.

Ahora se abren nuevas perspectivas de aplicación, en las finanzas, en call centers, para la búsqueda automática de la enfermedad dada la sintomatología, etc. En definitiva, respuestas automáticas más inteligentes y rápidas, muy rápidas, capaces de procesar muchas cuestiones de forma simultánea con acceso a cantidades ingentes de información. Algo increíble. Puedes seguir los interesantes comentarios de los creadores de Watson a lo largo del cuidado video resumen de la final de “Jeopardy! The IBM Challenge”:

Imagen de previsualización de YouTube

Sugerimos seguir estas dos reseñas escritas con anterioridad en este mismo blog:

Recuerdos de Deep Blue en DeepQ&A: La computación paralela más mediática

Watson, el supercomputador de IBM más listo del mundo, gana los encuentros previos de Jeopardy!

Etiquetas: , , ,
Categorias: General

Watson, el superordenador de IBM más listo del mundo, gana los encuentros previos de Jeopardy

Leemos en el blog de Sinapsis de nuestro compañero Antonio de Orbe que Watson, el supercomputador del que ya hemos hablado en este blog, se ha enfrentado ya a humanos en fases de calentamiento del concurso Jeopardy!

Watson, el superordenador de IBM más listo del mundo ha ganado los encuentros de entrenamiento de Jeopardy. Ya están disponibles algunos vídeos de las rondas de entrenamiento. Cuando comenzó su andadura hace ya 4 años, el comportamiento de Watson era desesperante para sus creadores. Tras enormes esfuerzos, Watson está a punto de competir con previsible éxito en Jeopardy (concurso televisivo americano semejante a Pasapalabra). Ken Jennings y Brad Rutter, los dos mejores concursantes de la historia de Jeopardy serán sus rivales durante tres días, el 14, 15 y 16 de febrero de 2011.

ibm_watson

Watson, llamado así por el fundador de IBM Thomas J. Watson, fue construido por un equipo de científicos de IBM que se propuso lograr un gran reto – construir un sistema de cálculo que rivalizara con los humanos en capacidad para responder a preguntas formuladas en lenguaje natural con velocidad, precisión y confianza. El formato Jeopardy! proporciona un desafío definitivo, porque las pistas del juego implican analizar sutilezas, ironía, adivinanzas y otras complejidades en las que sobresalen los seres humanos y los ordenadores tradicionalmente no lo hacen. El premio del concurso será de 1M de dólares. Los concursantes ya han anunciado que donarán parte de sus ganancias.

Según se acerca el enfrentamiento que verán en directo millones de americanos, IBM ha puesto en marcha su maquinaria mediática y hay ya disponible mucha información sobre Watson. Dado que se trata de lenguaje natural y relativo a la cultura americana, el material presenta una indudable dificultad para los hablantes no nativos de inglés. En el futuro, Watson manejará también otros idiomas.

Watson implementa cientos de algoritmos de lenguaje natural inéditos hasta la fecha. Lo hace en paralelo de modo que llega a varias respuestas distintas (en los vídeos disponibles se muestran las 3 mejores). Realiza un análisis de confianza en las mismas y solo responde cuando está razonablemente seguro de alguna de ellas (en Jeopardy las respuestas incorrectas son penalizadas).

¿Cuál es la novedad? ¿No es lo que hace Google? No, Google depende de nosotros al menos de dos formas. En primer lugar, necesita que formulemos las preguntas en lenguaje de ordenador, eligiendo unas pocas palabras como claves cuya relación es intrascendente. Así, el perro negro de la casa no se distingue de la casa negra del perro, el perro de la casa negra o la casa del perro negro. En segundo lugar, Google nos lanza una lista de resultados entre los que nosotros debemos elegir.

Pero Watson hace esto a un coste: una gigantesca capacidad de proceso y almacenamiento. En concreto:

  • 10 racks servidores POWER7 750
  • con 15 terabytes de RAM y 2,880 núcleos de procesamiento
  • hasta 80 teraflops (80.000.000.000.000 operaciones por segundo)

¿De qué forma interacciona Watson con los humanos? Esta es quizá una pequeña desilusión. No usa reconocimiento de voz. “No puede ver ni oír” por lo recibe la información como texto electrónico, en el mismo instante en que la pregunta incide en las retinas de los otros concursantes. Aunque los concursantes a veces aprietan el pulsador antes de conocer la respuesta correcta (porque creen que la conocen y así tienen algún segundo extra), Watson debe esperar a estar seguro. Entonces, un dedo mecánico aprieta el pulsador (exactamente el mismo tipo que usan los concursantes humanos). Cuando el presentador le cede el turno, Watson convierte su respuesta de texto a voz sintetizada y habla.

“Cuando lo habitual es avanzar centímetros en Inteligencia Artificial, nosotros hemos avanzado kilómetros” dicen John Kelly III, ejecutivo de IBM y Dave Ferrucci, creador de la criatura. Los siguientes pasos: “El mundo de la medicina, o Doctor Watson si prefieren”. Watson puede consultar todos los textos médicos del mundo en segundos. Después, buscar interacciones potenciales entre medicamentos, antecedentes judiciales de un caso, conformidad con la legislación en el mundo financiero, call centers…

Imagen de previsualización de YouTube
Etiquetas: , , , ,
Categorias: General