Posts etiquetados con ‘IBM’

Y por fin se movió el ranking de la supercomputación

Estados Unidos vuelve a liderar, tras 5 años detrás de China, el ranking de la supercomputación mundial. No era una tarea sencilla mover del primer puesto a las modernas instalaciones chinas, que entraron en el Top500 tarde (porque China no tuvo un supercomputador en el Top500 hasta hace 20 años) pero cuando lo hicieron, fue con instalaciones de primera categoría. Desde junio de 2013 mantenía el liderazgo, primero con Tiahne 2 (#4 hoy) y desde junio de 2016 con Sunway TaihuLight (ahora #2).

 

El 25 aniversario del ranking Top500 ha traído novedades tras varios años sin cambios. Ya se sabía, se especulaba desde hacía meses, pero hasta este lunes 25 de junio no ha sido oficialmente confirmado. La alianza IBM y NVIDIA ha llevado a Summit (cúspide o cima en inglés), al pódium del ranking de la supercomputación. Para IBM y NVIDIA también ha sido un logro, pues IBM no conseguía un pódium desde junio 2012 con Sequoia y sus BlueGene/Q (ahora en #8), y NVIDIA, el estándar de facto de las aceleradoras gráficas, no había llevado bien perder el primer puesto en favor de las japonesas PEZY-SC2 de Sunway TaihuLight. De hecho, PEZY (cuyo nombre proviene de los prefijos Peta, Exa, Zetta y Yotta, típicamente utilizados al medir el número de operaciones en coma flotante por segundo que son capaces de hacer estas grandes instalaciones) se hace con el pódium del “ecoranking” Green500, copando sus 3 primeros puestos. Veremos en 2019, fecha de lanzamiento tentativa de la versión 3 de sus PEZY SuperComputer (PEZY-SC3) de 7 nm en lugar de los actuales 16 nm.

Además de Summit, Estados Unidos también incluye en el Top10 como novedad a Sierra, el hermano menor con la misma base tecnológica, procesadores IBM Power9 de 22 núcleos y aceleradoras NVIDIA GV100 de la generación Volta (eso sí, 4 por nodo en lugar de 6), que entra en el puesto #3, entre medias de las 2 instalaciones chinas que coparon el Top#1 estos últimos años.

Por nuestra parte, España mantiene en lista dos sistemas pertenecientes al mismo Mare Nostrum del Barcelona Supercomputing Center. El principal sistema, que cae desde el puesto #11 al #22 (pero que venía del #129), está compuesto por 48 racks de 3456 nodos con 2 Intel Xeon Platinum de 24 cores, y como nueva entrada en el puesto #255 el cluster experimental con el mismo tipo de arsenal que Summit y Sierra (CPUs IBM Power9 de 20 cores en lugar de 22, y aceleradoras NVIDIA V100 en lugar de GV100, por cierto únicas estas tres instalaciones en incluir los nuevos Power9 de IBM). Además, Mare Nostrum 4 contiene otros 2 clusters experimentales, uno de 0,5 PetaFLOPS basado en los sistemas híbridos CPU+acelerador Intel Knights Hill (evoluciones de los aceleradores Intel Xeon Phi) y otro de 0,5 PetaFLOPS con procesadores ARM  v8 de 64 bits, que lógicamente no entran en el Top500. Mare Nostrum llegó a estar en el #4 en noviembre de 2004, cuando entró por primera vez en lista como tal, y nunca llegó al #1, aunque desde luego sí que lo sea en belleza (ver imagen).

 

 

 

 

 

 

 

 

 

 

Enlaces de interés:

https://www.linkedin.com/pulse/summit-el-supercomputador-m%C3%A1s-potente-del-mundo-con-juan/ (autor Juan de Zuriarrain, IBM Cognitive Systems – España)

http://www.elladodelmal.com/2018/05/power9-el-nuevo-microprocesador-de-ibm.html (autor Chema Alonso, CDO Telefónica)

https://www.bsc.es/marenostrum/marenostrum (la descripción de MareNostrum)

Si tienes más curiosidad aquí tienes toda la lista de junio de 2018: https://www.top500.org/lists/2018/06/

Etiquetas: , , , , , , , ,
Categorias: General, Hardware

Semana Grande de la Supercomputación: Top500 y premios NVIDIA a centros educativos y de investigación

Adelantábamos en el último post de las previsiones de supercomputación que Noviembre tenía una de las fiestas bianuales de la supercomputación, la del Top500. Así ha sido, pero aún hay más: se han anunciado los nuevos NVIDIA CUDA Teaching/Research Centers con 3 incorporaciones nacionales, la Universidad de Valladolid, la Universidad de Sevilla y la Universidad Rey Juan Carlos.

Celebrándose la Supercomputing Conference 2014 en Nueva Orleans, EEUU, se anunció el pasado martes el ranking de noviembre del Top500. Por cuarta vez consecutiva, Tianhe-2 mantuvo el liderazgo (2 años completos, con las 4 actualizaciones correspondientes de las que hemos dado cuenta por estas líneas). Estados Unidos bajó en 2 instalaciones de su lista en el Top500 (llegando a 231 instalaciones y siendo líder en número de supercomputadores del ranking, casi la mitad de todos) y las europeas subieron en 14 hasta 130. A finales de la semana pasada se anunciaba a bombo y platillo la ayuda económica que NVIDIA e IBM recibirían para hacer posible en el plazo de 3 años dos supercomputadores de entre 2-10 veces más potente que el actual #1. Para ello, se valdrían de procesadores PowerPC9 y aceleradores NVIDIA Tesla k80 de futura generación, basados en la familia Volta, nombre dedicado al físico italiano Alessandro Volta, inventor de la batería, por la extremada eficiencia energética de dicha familia. IBM ya tiene grandísima experiencia en el diseño de estos supercomputadores, no tanto NVIDIA a pesar de que su tecnología CUDA esté presente en 2 de las 10 instalaciones más potentes del citado ranking.

NVIDIA también anunció sus nuevos CUDA Teaching Centers (CTC) y CUDA Research Centers (CRC), galardones a los centros que mantienen en sus planes docentes o investigaciones multidisciplinares materia ligada con la tecnología NVIDIA CUDA. Nos complace anunciar que entre sus nuevos CTCs  tenemos a la Universidad de Valladolid y a la madrileña Universidad Rey Juan Carlos (la que acoge nuestro día a día), por nuestro afán de atraer nueva tecnología a las aulas de las titulaciones de la Escuela Técnica Superior de Ingeniería Informática. Así, Madrid tiene 3 centros (UAM, UPM y URJC) de los 10 de toda España. Este galardón conlleva una donación de material de última generación para su uso en las clases y talleres de las titulaciones que así lo requieran o seminarios a la comunidad científica del centro, cuyos investigadores implicados se comprometen a impartir. También es importante citar la entrada de la Universidad de Sevilla como CRC haciendo 6 centros españoles.

NVIDIA CUDA es una tecnología de cómputo paralelo que aprovecha la gran potencia de cálculo de las tarjetas gráficas (en realidad de su procesador, GPU, de unidad de procesamiento gráfico) para acelerar la ejecución de aplicaciones científicas. Surge como forma de simplificar la programación de estos procesadores especiales, al igual que existen lenguajes de programación (C, Pascal, Fortran, Java,…) para los tradicionales procesadores centrales (CPUs, de unidades de procesamiento centrales), en los que siempre se han ejecutado las aplicaciones. En determinados casos, en los que la gran independencia de los datos a procesar y la cantidad de ellos son enormes, la potencia de las GPUs puede superar con creces a la de la CPU, además de ser energéticamente más eficientes por estrategias de diseño. NVIDIA CUDA surgió en 2007 gracias al increíble éxito que tuvieron los primeros programas que, haciendo uso de la potencia del procesador gráfico, mejoraban el rendimiento y se volvían más rápidos. Algunas de las nociones para entender este éxito lo pusimos por este blog hace unos años. Actualmente, esta tecnología está soportada por toda la gama de procesadores gráficos de NVIDIA, desde sus tarjetas gráficas más domésticas de apenas unas decenas de euros, hasta sus aceleradores de supercomputación más potentes de varios miles.

 

Etiquetas: , , , , , , , ,

Finalmente Watson ganó a la humanidad

Lo veníamos diciendo y se hizo realidad. Watson, el supercomputador de IBM, terminó ganando a los mejores concursantes humanos en el concurso televisivo “Jeopardy!” (tipo Pasapalabra). Mucho potencial de cálculo, una sorprendente capacidad de aprendizaje, un análisis profundo de datos, interpretación del lenguaje natural creado por la humanidad para superar a la humanidad. Con miedo de una mala imagen mediática, IBM se ha apresurado a analizar la victoria de Watson a través de un titular directo y esclarecedor en su web: “Humans win!” (“La humanidad gana”). Porque sin duda es un gran avance técnico, científico y un paso más en la aplicación de la inteligencia artificial.

Ahora se abren nuevas perspectivas de aplicación, en las finanzas, en call centers, para la búsqueda automática de la enfermedad dada la sintomatología, etc. En definitiva, respuestas automáticas más inteligentes y rápidas, muy rápidas, capaces de procesar muchas cuestiones de forma simultánea con acceso a cantidades ingentes de información. Algo increíble. Puedes seguir los interesantes comentarios de los creadores de Watson a lo largo del cuidado video resumen de la final de “Jeopardy! The IBM Challenge”:

Imagen de previsualización de YouTube

Sugerimos seguir estas dos reseñas escritas con anterioridad en este mismo blog:

Recuerdos de Deep Blue en DeepQ&A: La computación paralela más mediática

Watson, el supercomputador de IBM más listo del mundo, gana los encuentros previos de Jeopardy!

Etiquetas: , , ,
Categorias: General

Watson, el superordenador de IBM más listo del mundo, gana los encuentros previos de Jeopardy

Leemos en el blog de Sinapsis de nuestro compañero Antonio de Orbe que Watson, el supercomputador del que ya hemos hablado en este blog, se ha enfrentado ya a humanos en fases de calentamiento del concurso Jeopardy!

Watson, el superordenador de IBM más listo del mundo ha ganado los encuentros de entrenamiento de Jeopardy. Ya están disponibles algunos vídeos de las rondas de entrenamiento. Cuando comenzó su andadura hace ya 4 años, el comportamiento de Watson era desesperante para sus creadores. Tras enormes esfuerzos, Watson está a punto de competir con previsible éxito en Jeopardy (concurso televisivo americano semejante a Pasapalabra). Ken Jennings y Brad Rutter, los dos mejores concursantes de la historia de Jeopardy serán sus rivales durante tres días, el 14, 15 y 16 de febrero de 2011.

ibm_watson

Watson, llamado así por el fundador de IBM Thomas J. Watson, fue construido por un equipo de científicos de IBM que se propuso lograr un gran reto – construir un sistema de cálculo que rivalizara con los humanos en capacidad para responder a preguntas formuladas en lenguaje natural con velocidad, precisión y confianza. El formato Jeopardy! proporciona un desafío definitivo, porque las pistas del juego implican analizar sutilezas, ironía, adivinanzas y otras complejidades en las que sobresalen los seres humanos y los ordenadores tradicionalmente no lo hacen. El premio del concurso será de 1M de dólares. Los concursantes ya han anunciado que donarán parte de sus ganancias.

Según se acerca el enfrentamiento que verán en directo millones de americanos, IBM ha puesto en marcha su maquinaria mediática y hay ya disponible mucha información sobre Watson. Dado que se trata de lenguaje natural y relativo a la cultura americana, el material presenta una indudable dificultad para los hablantes no nativos de inglés. En el futuro, Watson manejará también otros idiomas.

Watson implementa cientos de algoritmos de lenguaje natural inéditos hasta la fecha. Lo hace en paralelo de modo que llega a varias respuestas distintas (en los vídeos disponibles se muestran las 3 mejores). Realiza un análisis de confianza en las mismas y solo responde cuando está razonablemente seguro de alguna de ellas (en Jeopardy las respuestas incorrectas son penalizadas).

¿Cuál es la novedad? ¿No es lo que hace Google? No, Google depende de nosotros al menos de dos formas. En primer lugar, necesita que formulemos las preguntas en lenguaje de ordenador, eligiendo unas pocas palabras como claves cuya relación es intrascendente. Así, el perro negro de la casa no se distingue de la casa negra del perro, el perro de la casa negra o la casa del perro negro. En segundo lugar, Google nos lanza una lista de resultados entre los que nosotros debemos elegir.

Pero Watson hace esto a un coste: una gigantesca capacidad de proceso y almacenamiento. En concreto:

  • 10 racks servidores POWER7 750
  • con 15 terabytes de RAM y 2,880 núcleos de procesamiento
  • hasta 80 teraflops (80.000.000.000.000 operaciones por segundo)

¿De qué forma interacciona Watson con los humanos? Esta es quizá una pequeña desilusión. No usa reconocimiento de voz. “No puede ver ni oír” por lo recibe la información como texto electrónico, en el mismo instante en que la pregunta incide en las retinas de los otros concursantes. Aunque los concursantes a veces aprietan el pulsador antes de conocer la respuesta correcta (porque creen que la conocen y así tienen algún segundo extra), Watson debe esperar a estar seguro. Entonces, un dedo mecánico aprieta el pulsador (exactamente el mismo tipo que usan los concursantes humanos). Cuando el presentador le cede el turno, Watson convierte su respuesta de texto a voz sintetizada y habla.

“Cuando lo habitual es avanzar centímetros en Inteligencia Artificial, nosotros hemos avanzado kilómetros” dicen John Kelly III, ejecutivo de IBM y Dave Ferrucci, creador de la criatura. Los siguientes pasos: “El mundo de la medicina, o Doctor Watson si prefieren”. Watson puede consultar todos los textos médicos del mundo en segundos. Después, buscar interacciones potenciales entre medicamentos, antecedentes judiciales de un caso, conformidad con la legislación en el mundo financiero, call centers…

Imagen de previsualización de YouTube
Etiquetas: , , , ,
Categorias: General

Recuerdos de Deep Blue en DeepQ&A: La computación paralela más mediática

Recuerdo cuando hace ya unos años muchos se sintieron defraudados, e incluso amenazados, cuando el supercomputador Deep Blue de IBM ganó al por aquel entonces campeón de ajedrez Gari Kasparov. Fue Mayo de 1997 y, para muchos, el poder de la máquina podía empezar a ser motivo de preocupación, al menos de crear una sensación agridulce.

Pero 13 años más tarde podríamos seguir asombrándonos si se hace cierto el comunicado de IBM, que desde hace unas semanas está haciéndose eco por diferentes medios, de presentar un sistema de computación al famoso concurso americano de preguntas y respuestas Jeopardy!. Dicho sistema se denomina Watson y lleva años preparándose en el contexto del proyecto DeepQ&A (Question&Answer, Pregunta&Respuesta) en el Watson Research Center de IBM (el centro de investigación más importante de IBM ubicado al norte de la ciudad de Nueva York, y que ya se llamaba Watson mucho antes de especular con este nuevo sistema). En el concurso Jeopardy! se incluyen preguntas de ámbito histórico, político, cultural y científico, y en algunas ocasiones hay aspectos irónicos o formas engañosas de realizar las preguntas que para un sistema automático es extremadamente complicado de analizar, pues no se trata de procesar las palabras, sino las semánticas, los significados conjuntos en una frase. Todo ello en tiempo restringido y sin ningún tipo de ayuda externa (conexión a Internet,…).

El inmenso esfuerzo del proyecto DeepQ&A no solamente se queda en el impacto mediático que pudiera tener que Watson compitiera a gran nivel en el concurso televisivo, sino que su objetivo se cumpliera dotando de un nivel de procesamiento automático del lenguaje natural, incluyendo tareas de recuperación de información, aprendizaje automático, razonamiento y representación del conocimiento, hasta ahora no conseguidas. Este estudio dirigiría el futuro en la automatización de respuestas, negocio inteligente, análisis y manejo de información automático, generación de resúmenes, y ayuda a la decisión de una manera más fiable y precisa.

La clave del nivel de cómputo necesario para afrontar este reto humano, se basará en la capacidad de cómputo masivamente paralelo de la arquitectura que subyace en Watson. Básicamente serán 8 módulos del tamaño de frigoríficos los que se dispondrán en el estudio de televisión, pero a día de hoy, se puede imaginar que en un futuro a corto o medio plazo, ese sistema podría llegar a miniaturizarse a tamaños de proporciones más humanas.

El siguiente vídeo expone (en inglés) algunas de las claves de Watson:

Imagen de previsualización de YouTube

Por otra parte, desde hace ya unos meses sabemos del ambicioso proyecto internacional Blue Brain Project (BPP) en el que IBM ofrece el músculo para simular el cerebro humano a nivel biológico y llegar a dotar de efectivo aprendizaje a una poderosa máquina (o mejor dicho sistema de cómputo). De hecho, España se unió al proyecto en Mayo de 2009 a través del denominado Cajal Blue Brain. Pero por ahora, eso lo dejamos de lado…

Etiquetas: , , , ,
Categorias: General

Paralelismo de consumo: ¿el futuro de la computación?

Hasta hace pocos años, los ordenadores personales han venido aumentando su poder de cómputo casi exclusivamente por un aumento en las frecuencias de reloj que repercutían en disparados consumos energéticos y calentamientos del sistema. Ante esta situación, que incluso alarmaba al sector energético mundial, los fabricantes lanzaron productos multinúcleos (multicore) con gran éxito en el mercado, que reducen el consumo energético del sistema de manera sustancial. Someramente, se basan en la posibilidad de realizar cálculos en paralelo sobre varios procesadores de forma simultánea, reduciendo en promedio el tiempo de ejecución del proceso. Sin embargo, un programa preparado para un único procesador no se ejecuta más rápido por correr en un sistema de doble núcleo sin más, puesto que realmente el programa no está preparado para ese sistema doble, o multinúcleo. (más…)

Etiquetas: , , , , ,
Categorias: General, Hardware