Posts etiquetados con ‘paralelismo’

La nueva apuesta en supercomputación: Intel Xeon Phi

El Big Data está de moda. Expectantes estábamos algunos con la prometida tecnología MIC (Many Integrated Core) de Intel. Años de espera, promesas, nombres alternativos (como Knights Corner) y especulación (en su acepción de prestar atención detenidamente) ha dado por fin con el producto, el Intel Xeon Phi Coprocessor, orientado al procesamiento masivo de datos. El famoso fabricante de procesadores de propósito general ha anunciado que a partir de este momento se podrán adquirir equipos de cómputo paralelo masivo manteniendo un modelo de programación parejo al que se tiene en una plataforma de cómputo tradicional, esto es, una CPU y un entorno de programación de propósito general (lenguaje de alto nivel y su respectivo compilador). Las primeras unidades del Xeon Phi Coprocessor se vislumbran como dispositivos externos energéticamente eficientes basados en la conocida tecnología x86, que ofrecen 1TFLOPS de poder computacional en doble precisión, conectables a nuestros ordenadores a través de puertos PCI Express convencionales y cuyos precios rondarían los 2000 euros al cambio. Lo que en el año 97 eran más de 9200 procesadores ahora es un único dispositivo del tamaño de una caja de zapatos (pequeña).

Con este movimiento, Intel da un paso al frente en la carrera de la supercomputación de consumo, que da título a este blog, y que otros fabricantes mencionados en estas líneas ya se habían adelantado (e incluso ganado terreno). Atendiendo a las notas informativas que Intel ha lanzado en la presentación de su Xeon Phi, esta tecnología está absolutamente inspirada en el originario concepto de GPGPU y posteriormente rebautizado como GPU Computing, al que se refiere el uso del hardware gráfico (GPU, Graphics Processing Unit) para realizar costosas tareas de propósito general a modo de coprocesador de la unidad central de procesamiento o CPU (Central Processing Unit). Y no solo el Intel Xeon Phi Coprocessor está inspirado en el concepto de GPGPU, sino que está enfrentado a ello para ofrecer un entorno más amigable para el aprovechamiento de una capacidad de cómputo extra que lo que OpenCL o NVIDIA CUDA ofrece con las GPUs. Y ahí está el verdadero valor de Intel Xeon Phi, su amigabilidad en el ecosistema de la programación, la mayor posibilidad de abrazarlo entre la comunidad de desarrolladores, manteniendo una facilidad de escalado mediante la posibilidad de conectar hasta 8 coprocesadores en un único PC anfitrión.

Pero describamos con palabras más llanas lo que debemos vislumbrar. Intel Xeon Phi Coprocessor es un dispositivo de cómputo que se puede conectar fácilmente a nuestro ordenador de sobremesa, que se programa de modo habitual para que cualquier programador pueda sacarle partido y que ofrece unas cotas de rendimiento para problemas costosos muy superior a las que obtendríamos mediante un computador de sobremesa por muy moderno que fuera. Esto abre la puerta a muchos investigadores que no han podido acogerse a otros modelos de programación por su dificultad o especificidad, como NVIDIA CUDA, lo cual es una noticia que creemos alegrará a la comunidad científica que necesite de computadores para sus pesadas simulaciones.

Como hemos comentado en otros posts (como el último sobre la transición del Jaguar a Titan) muchos supercomputadores cuentan con unidades de cómputo masivo específicas, actualmente basadas en tecnologías heredadas del terreno del GPU Computing como son los dispositivos NVIDIA Tesla. Pues bien, Cray ya anunció que adoptaría la tecnología Intel Phi en sus nuevas integraciones y los primeros supercomputadores con tecnología Intel Xeon Phi no tardaron en aparecer, llegando al puesto #127 del ranking el pasado junio. El pasado lunes 12 de noviembre se publicaron los resultados de la presente convocatoria del ranking Top500 (donde se confirma la previsión de Titan como #1), y los aceleradores Xeon Phi han escalado posiciones hasta el puesto #7, como el caso de Stampede de Texas, que se sitúa por encima del que fuera #1 en noviembre de 2010, el Tianhe-1A. Habrá que ver la próxima convocatoria en Junio cuántos de ellos adoptan esta nueva tecnología, y en qué posición se sitúa el primero basado en Intel Xeon Phi. Muy reñida estará la partida entre los Teslas y los Phis.

PD: por cierto, nuestro apreciado Mare Nostrum queda en el puesto #36

Enlaces sobre la noticia:

Intel Xeon Phi Coprocessor: http://www.intel.com/content/www/us/en/processors/xeon/xeon-phi-architecture-for-discovery-presentation.html

Ranking Top500: www.top500.org

Características y análisis del Intel Xeon Phi: http://www.anandtech.com/show/6265/intels-xeon-phi-in-10-petaflops-supercomputer

Grupo de investigación CAPO: www.gavab.etsii.urjc.es/capo

Etiquetas: , , ,
Categorias: General, Hardware

El Jaguar se transforma en Titan

Jaguar, el supercomputador de Oak Ridge National Laboratory que en noviembre de 2009 fue líder mundial del ranking Top500 y que quedó relegado a sexta posición el pasado junio, se reconvierte para luchar por la posición de cabeza a mediados del mes que viene con el nombre de Titan. Jaguar permaneció líder del ranking durante dos convocatorias, noviembre 2009 y junio 2010 (el Top500 es un ranking semestral), pero cedió su puesto en noviembre 2010 a la supremacía china con su Tianhe-1A y de la que dimos buena cuenta por estas línea.

En 2008 Jaguar contenía del orden de 150.000 núcleos de procesamiento y llegó a la segunda posición del ranking. En 2009 ya sufrió un upgrade para escalar a la primera posición, montando una arquitectura Cray XT5 formada por 18688 nodos de 2 CPUs AMD Opteron, cada una de las cuales contaba con 6 cores, y haciendo un total de 224256 núcleos de procesamiento para ofrecer casi 2 Petaflops (2×10^15 operaciones en coma flotante por segundo). La nueva mejora a Titan supone la migración a la arquitectura más reciente Cray XK5 obteniendo un factor x10 en capacidad computacional y llegando a los 20 Petaflops. En una primera fase se sustituían las CPUs de 6 núcleos por unas de 16, pasando a 299008 núcleos de procesamiento. Posteriormente, se incluyeron racks de procesadores gráficos NVIDIA Tesla M2090 de la familia Fermi que terminarán evolucionando a Tesla K20 de la familia Kepler, la más moderna de NVIDIA y que aquí ya presentamos.

La inclusión de procesadores gráficos (GPUs) en los supercomputadores para mejorar las cotas de procesamiento no es nueva, el citado Tiahne-1A ya presumía de ello con sus Tesla M2050 de la familia Fermi en 2011. Por su parte el anterior IBM Roadrunner, líder del ranking de junio de 2008 a noviembre de 2009 (3 convocatorias), incluía una arquitectura basada en procesadores Cell, más conocidos por ser el motor de la videoconsola Sony Playstation3. Sin embargo, la renovada imagen de Jaguar para conseguir el liderato con la inclusión de mayor número de procesadores gráficos ha sido tan espectacular (18688 GPUs, una por nodo, haciendo una arquitectura absolutamente híbrida) que la noticia ya ha aparecido en diferentes medios de información generalista (CNN, BBC, National Geographic). Cabe destacar que esta renovación no se diseña de un día para otro, y que ya estaba prevista desde mediados del año pasado.

Teniendo en cuenta que el consumo energético de Jaguar fue de 7 millones de dólares en 2011 (alrededor de 7MW de consumo), un aspecto quizá más importante que la mejora computacional del x10 que supone Titan respecto a su predecesor, es su eficiencia energética, pues sus procesadores así como las arquitecturas gráficas son más eficientes y ocupando el mismo espacio, así como mejorando un factor x10 su capacidad computacional, no requerirá mucho mayor consumo energético (alrededor de 9 MW). La arquitectura CrayXK5 dará paso en un futuro próximo a una nueva generación XK6 y está previsto que en 2016 Titan vuelva a mejorarse para conseguir otro factor 10 llegando a los 200 Petaflops, camino constante hacia la “Computación Exascala” (de la que ya hablamos en Junio 2011).

Este supercomputador será utilizado de manera abierta por la comunidad científica, para predecir el clima a través de complejos modelos, estudiar nuevos materiales y combustibles, simular procesos nucleares y, en definitiva, buscar nuevas aplicaciones y fuentes de energía para la humanidad.

 

Enlaces de interés sobre la noticia:

Titan: http://www.olcf.ornl.gov/titan/

Top500: http://www.top500.org

Cray: http://www.cray.com

NVIDIA Kepler: http://www.nvidia.com/object/nvidia-kepler.html

Grupo de investigación CAPO: http://www.gavab.es/capo

Etiquetas: , , , , , , , ,
Categorias: General, Hardware

Finalmente Watson ganó a la humanidad

Lo veníamos diciendo y se hizo realidad. Watson, el supercomputador de IBM, terminó ganando a los mejores concursantes humanos en el concurso televisivo “Jeopardy!” (tipo Pasapalabra). Mucho potencial de cálculo, una sorprendente capacidad de aprendizaje, un análisis profundo de datos, interpretación del lenguaje natural creado por la humanidad para superar a la humanidad. Con miedo de una mala imagen mediática, IBM se ha apresurado a analizar la victoria de Watson a través de un titular directo y esclarecedor en su web: “Humans win!” (“La humanidad gana”). Porque sin duda es un gran avance técnico, científico y un paso más en la aplicación de la inteligencia artificial.

Ahora se abren nuevas perspectivas de aplicación, en las finanzas, en call centers, para la búsqueda automática de la enfermedad dada la sintomatología, etc. En definitiva, respuestas automáticas más inteligentes y rápidas, muy rápidas, capaces de procesar muchas cuestiones de forma simultánea con acceso a cantidades ingentes de información. Algo increíble. Puedes seguir los interesantes comentarios de los creadores de Watson a lo largo del cuidado video resumen de la final de “Jeopardy! The IBM Challenge”:

Imagen de previsualización de YouTube

Sugerimos seguir estas dos reseñas escritas con anterioridad en este mismo blog:

Recuerdos de Deep Blue en DeepQ&A: La computación paralela más mediática

Watson, el supercomputador de IBM más listo del mundo, gana los encuentros previos de Jeopardy!

Etiquetas: , , ,
Categorias: General

Watson, el superordenador de IBM más listo del mundo, gana los encuentros previos de Jeopardy

Leemos en el blog de Sinapsis de nuestro compañero Antonio de Orbe que Watson, el supercomputador del que ya hemos hablado en este blog, se ha enfrentado ya a humanos en fases de calentamiento del concurso Jeopardy!

Watson, el superordenador de IBM más listo del mundo ha ganado los encuentros de entrenamiento de Jeopardy. Ya están disponibles algunos vídeos de las rondas de entrenamiento. Cuando comenzó su andadura hace ya 4 años, el comportamiento de Watson era desesperante para sus creadores. Tras enormes esfuerzos, Watson está a punto de competir con previsible éxito en Jeopardy (concurso televisivo americano semejante a Pasapalabra). Ken Jennings y Brad Rutter, los dos mejores concursantes de la historia de Jeopardy serán sus rivales durante tres días, el 14, 15 y 16 de febrero de 2011.

ibm_watson

Watson, llamado así por el fundador de IBM Thomas J. Watson, fue construido por un equipo de científicos de IBM que se propuso lograr un gran reto – construir un sistema de cálculo que rivalizara con los humanos en capacidad para responder a preguntas formuladas en lenguaje natural con velocidad, precisión y confianza. El formato Jeopardy! proporciona un desafío definitivo, porque las pistas del juego implican analizar sutilezas, ironía, adivinanzas y otras complejidades en las que sobresalen los seres humanos y los ordenadores tradicionalmente no lo hacen. El premio del concurso será de 1M de dólares. Los concursantes ya han anunciado que donarán parte de sus ganancias.

Según se acerca el enfrentamiento que verán en directo millones de americanos, IBM ha puesto en marcha su maquinaria mediática y hay ya disponible mucha información sobre Watson. Dado que se trata de lenguaje natural y relativo a la cultura americana, el material presenta una indudable dificultad para los hablantes no nativos de inglés. En el futuro, Watson manejará también otros idiomas.

Watson implementa cientos de algoritmos de lenguaje natural inéditos hasta la fecha. Lo hace en paralelo de modo que llega a varias respuestas distintas (en los vídeos disponibles se muestran las 3 mejores). Realiza un análisis de confianza en las mismas y solo responde cuando está razonablemente seguro de alguna de ellas (en Jeopardy las respuestas incorrectas son penalizadas).

¿Cuál es la novedad? ¿No es lo que hace Google? No, Google depende de nosotros al menos de dos formas. En primer lugar, necesita que formulemos las preguntas en lenguaje de ordenador, eligiendo unas pocas palabras como claves cuya relación es intrascendente. Así, el perro negro de la casa no se distingue de la casa negra del perro, el perro de la casa negra o la casa del perro negro. En segundo lugar, Google nos lanza una lista de resultados entre los que nosotros debemos elegir.

Pero Watson hace esto a un coste: una gigantesca capacidad de proceso y almacenamiento. En concreto:

  • 10 racks servidores POWER7 750
  • con 15 terabytes de RAM y 2,880 núcleos de procesamiento
  • hasta 80 teraflops (80.000.000.000.000 operaciones por segundo)

¿De qué forma interacciona Watson con los humanos? Esta es quizá una pequeña desilusión. No usa reconocimiento de voz. “No puede ver ni oír” por lo recibe la información como texto electrónico, en el mismo instante en que la pregunta incide en las retinas de los otros concursantes. Aunque los concursantes a veces aprietan el pulsador antes de conocer la respuesta correcta (porque creen que la conocen y así tienen algún segundo extra), Watson debe esperar a estar seguro. Entonces, un dedo mecánico aprieta el pulsador (exactamente el mismo tipo que usan los concursantes humanos). Cuando el presentador le cede el turno, Watson convierte su respuesta de texto a voz sintetizada y habla.

“Cuando lo habitual es avanzar centímetros en Inteligencia Artificial, nosotros hemos avanzado kilómetros” dicen John Kelly III, ejecutivo de IBM y Dave Ferrucci, creador de la criatura. Los siguientes pasos: “El mundo de la medicina, o Doctor Watson si prefieren”. Watson puede consultar todos los textos médicos del mundo en segundos. Después, buscar interacciones potenciales entre medicamentos, antecedentes judiciales de un caso, conformidad con la legislación en el mundo financiero, call centers…

Imagen de previsualización de YouTube
Etiquetas: , , , ,
Categorias: General

Sandy Bridge no es una nueva cerveza

Aunque de sugerente nombre, Sandy Bridge no es la última modalidad de cerveza o bebida refrescante, sino el “nombre artístico” de la última propuesta de Intel para los ordenadores de consumo. Anunciado en su propia conferencia (IDF, Intel Developer Forum 2010) el pasado mes de septiembre, la Sandy Bridge es la segunda generación de la familia de procesadores Intel Core que irrumpirá en el mercado tras la feria anual CES (Consumer Electronic Showcase) a principios del nuevo año 2011.

Recientemente ha salido a la prensa que Apple dejará de incluir procesadores gráficos NVIDIA para embarcarse en una alianza con Intel gracias a esta arquitectura Sandy Bridge y no hemos querido dejar la oportunidad de describir ligeramente a la misma.

Sandy Bridge es una arquitectura cuya mayor novedad es la inclusión de un procesador gráfico físicamente en el mismo chip que el procesador central así como con un número de innovaciones adicionales en torno a esta idea (por ejemplo nuevos juegos de instrucciones multimedia de 256 bits), y se sigue fabricando sobre un proceso de 32 nm, igual que la última generación anterior (Westmere para los Intel Core), para continuar con la filosofía de Intel denominada Tick-Tock en la que hay una reducción del proceso de fabricación, unos meses después (alrededor de 6) de cada lanzamiento de una microarquitectura nueva. Es decir, que ahora toca el lanzamiento de la nueva arquitectura Sandy Bridge con igual proceso de fabricación que la última anterior, y dentro de unos meses se mejorará para reducir de 32 nm a 22 nm el proceso de fabricación, más tarde se lanzará otra nueva arquitectura de 22 nm (Haswell) y posteriormente se reducirá su proceso de fabricación, etc.

La idea de integrar los gráficos en la CPU no es algo nuevo, y de hecho, parece una vuelta atrás, sin embargo se diferencia en que ahora sí que hay (o eso nos dicen) unos procesadores gráficos externos a la CPU, aunque incluidos en el mismo chip. Unos gráficos sobre esta geometría se pueden ver en el siguiente vídeo.

Imagen de previsualización de YouTube

Enlaces de interés:

http://www.intel.com/idf

http://software.intel.com/en-us/avx/

http://en.wikipedia.org/wiki/Intel_Tick-Tock

http://www.xataka.com/otros/intel-sandy-bridge-se-confirma-para-2011-como-una-pequena-evolucion-de-los-nehalem

http://www.youtube.com/watch?v=vliLjL4SSsA

Etiquetas: , , , , ,
Categorias: General

Recuerdos de Deep Blue en DeepQ&A: La computación paralela más mediática

Recuerdo cuando hace ya unos años muchos se sintieron defraudados, e incluso amenazados, cuando el supercomputador Deep Blue de IBM ganó al por aquel entonces campeón de ajedrez Gari Kasparov. Fue Mayo de 1997 y, para muchos, el poder de la máquina podía empezar a ser motivo de preocupación, al menos de crear una sensación agridulce.

Pero 13 años más tarde podríamos seguir asombrándonos si se hace cierto el comunicado de IBM, que desde hace unas semanas está haciéndose eco por diferentes medios, de presentar un sistema de computación al famoso concurso americano de preguntas y respuestas Jeopardy!. Dicho sistema se denomina Watson y lleva años preparándose en el contexto del proyecto DeepQ&A (Question&Answer, Pregunta&Respuesta) en el Watson Research Center de IBM (el centro de investigación más importante de IBM ubicado al norte de la ciudad de Nueva York, y que ya se llamaba Watson mucho antes de especular con este nuevo sistema). En el concurso Jeopardy! se incluyen preguntas de ámbito histórico, político, cultural y científico, y en algunas ocasiones hay aspectos irónicos o formas engañosas de realizar las preguntas que para un sistema automático es extremadamente complicado de analizar, pues no se trata de procesar las palabras, sino las semánticas, los significados conjuntos en una frase. Todo ello en tiempo restringido y sin ningún tipo de ayuda externa (conexión a Internet,…).

El inmenso esfuerzo del proyecto DeepQ&A no solamente se queda en el impacto mediático que pudiera tener que Watson compitiera a gran nivel en el concurso televisivo, sino que su objetivo se cumpliera dotando de un nivel de procesamiento automático del lenguaje natural, incluyendo tareas de recuperación de información, aprendizaje automático, razonamiento y representación del conocimiento, hasta ahora no conseguidas. Este estudio dirigiría el futuro en la automatización de respuestas, negocio inteligente, análisis y manejo de información automático, generación de resúmenes, y ayuda a la decisión de una manera más fiable y precisa.

La clave del nivel de cómputo necesario para afrontar este reto humano, se basará en la capacidad de cómputo masivamente paralelo de la arquitectura que subyace en Watson. Básicamente serán 8 módulos del tamaño de frigoríficos los que se dispondrán en el estudio de televisión, pero a día de hoy, se puede imaginar que en un futuro a corto o medio plazo, ese sistema podría llegar a miniaturizarse a tamaños de proporciones más humanas.

El siguiente vídeo expone (en inglés) algunas de las claves de Watson:

Imagen de previsualización de YouTube

Por otra parte, desde hace ya unos meses sabemos del ambicioso proyecto internacional Blue Brain Project (BPP) en el que IBM ofrece el músculo para simular el cerebro humano a nivel biológico y llegar a dotar de efectivo aprendizaje a una poderosa máquina (o mejor dicho sistema de cómputo). De hecho, España se unió al proyecto en Mayo de 2009 a través del denominado Cajal Blue Brain. Pero por ahora, eso lo dejamos de lado…

Etiquetas: , , , ,
Categorias: General

Universo Paralelo de Intel

No es la última película de ciencia ficción, de hecho no hablamos del futuro, sino del presente. En este blog ya se han hecho múltiples referencias sobre el potencial problema que trae consigo que las arquitecturas de cómputo (los ordenadores) evolucionen de una manera que no se había augurado hace una década (ver ejemplo). En lugar de ser más rápidos, cada vez son más paralelos, capaces de realizar tareas simultaneamente pero no necesariamente más rápido si dichas tareas son independientes. Si las tareas son dependientes, o directamente es solo una, entonces se puede incrementar la velocidad final de la solución dividiendo el problema y resolviéndolo de forma parcial desde diferentes núcleos de cómputo (cores). Sin embargo, esta división en general no es automática, y el programador debe ser consciente de ello para poder sacar partido a los nuevos sistemas de cómputo.

El fabricante de procesadores Intel lleva un tiempo interesado en concienciar a los programadores en las nuevas necesidades y buenas prácticas de programación con vistas al presente y futuro inmediato. En este sentido ha lanzado un servicio web de exploración de código denominado Intel Parallel Universe. La herramienta está disponible desde http://paralleluniverse.intel.com/ y está pensada para recabar información de manera automática de un código fuente de un programa informático para conocer su posible escalabilidad en plataformas de varios núcleos de cómputo. De hecho, el sistema ofrecerá gráficas para mostrar la escalabilidad (lo bien que se portará la aplicación) en sistemas de 1, 2, 4, 8 y 16 núcleos de cómputo. El uso de la herramienta es gratuito, solamente se necesita estar registrado y subir los códigos (de menos de 20MB) en versión final de 32 bits. Intel ha anunciado que en breve estará disponible para otras plataformas.

Dejo por aquí un vídeo demostrativo:

Imagen de previsualización de YouTube
Etiquetas: , , ,
Categorias: General

Hace dos semanas se presentó ANACAP 2009 en Madrid

Durante los días 19 y 20 de noviembre, la Universidad Rey Juan Carlos fue escenario del último Workshop Nacional de Aplicaciones de Nuevas Arquitecturas de Consumo y Altas Prestaciones (ANACAP 2009). Consolidándose como un campo de creciente interés, el uso de procesadores no convencionales para acelerar procesos computacionales a precios y consumos energéticos asumibles, reunió a decenas de investigadores de toda España. (más…)

Etiquetas: , , ,

Intel adquiere Rapidmind

Rapidmind, la empresa creada hace 5 años por el profesor Michael McCool de la Universidad de Waterloo, fue adquirida por Intel hace una semana. Rapidmind se creó con la vista puesta en la comercialización del sistema de programación Sh que conseguía adaptar y optimizar algoritmos a diferentes plataformas de consumo y altas prestaciones que surgieron a partir de los aceleradores (procesadores gráficos y variados multiprocesadores). Rapidmind creció rápidamente gracias al desarrollo de las arquitecturas multicore para ordenadores personales, que compartían la misma filosofía que los aceleradores citados, así como a la euforia de algunos desarrolladores y empresas por poder adaptar sus algoritmos a variadas arquitecturas sin la necesidad de recodificar en diferentes entornos. Un mismo código, con ayuda de las librerías de Rapidmind, podía ser ejecutado en un procesador basado en múltiples núcleos, en un procesador IBM Cell o en una tarjeta gráfica, sin necesidad de conocer detalles íntimos de estas diferentes plataformas. Como dato histórico, Google adquirió en 2007 Peakstream Inc., otra empresa con objetivos parecidos a los de Rapidmind.

(más…)

Etiquetas: , , ,
Categorias: General

Seminario de Dr. Tim Lanfear sobre NVIDIA Tesla y CUDA en la Universidad Rey Juan Carlos

El próximo martes 31 de marzo contaremos con la ponencia del Dr. Tim Lanfear, arquitecto de soluciones de NVIDIA, empresa líder en soluciones gráficas y supercomputación de consumo. El Dr. Lanfear nos introducirá el concepto de supercomputación personal y nos presentará en profundidad la arquitectura CUDA y su modelo de programación durante el seminario de 2 horas y media.

(más…)

Etiquetas: , , , ,