La década de la Computación a Exascala
Cuando siendo adolescente mi abuela me preguntaba que qué hacía tanto tiempo delante de la pantalla del ordenador además de quedarme ciego, no podíamos imaginar que tiempo después todos tendríamos la dependencia a la máquina que tenemos, y que tendremos. En otro post hablaremos de los tablets y smartphones que tan de moda se han puesto para socializar, con capacidades de navegación, correo electrónico y acceso a redes sociales, buenas cualidades fotográficas y adictivos videojuegos, y que ya desbancan al uso de portátiles en muchos casos (basta saber que está previsto que durante este mes de junio Google Maps se utilice más desde esos dispositivos móviles que desde PCs de escritorio).
Pero por el momento vamos a seguir descubriendo y promocionando la supercomputación de consumo. En muchos laboratorios de investigación la simulación de procesos mediante el computador es el día a día. Programas desarrollados en determinados lenguajes de programación, como Fortran, Java o C, describen la realidad a través de procesos y aproximaciones para dar resultados y conclusiones sobre la naturaleza, la vida, para nuestro bienestar. Muchos de estos programas se ejecutan en ordenadores corrientes, de consumo.
La década que acaba de pasar se denominó computacionalmente como la de la computación a petaescala, describiendo que las grandes arquitecturas ofrecían rendimientos de PetaFLOPS, o bien de 1015 operaciones (de valores en coma flotante, reales de precisión simple) por segundo. El primer supercomputador en llegar a la petaescala fue el Roadrunner de IBM en 2008. ¿Para qué tanto poder de cómputo? Hay muchos problemas con alta necesidad de cómputo, como el plegado de proteínas, las predicciones de mercados, meteorología o simulaciones nucleares. Pero el interés en las arquitecturas de cómputo está en no quedarse ahí sino continuar ofreciendo mayor rendimiento de la mejor manera, y si lo que ayer era un supercomputador, hoy es un ordenador de sobremesa y mañana será el último dispositivo de bolsillo.
¿Qué es lo siguiente?, hemos entrado en la década de la computación a exaescala (1018 operaciones por segundo) prevista para ser alcanzada entre 2017 y 2021. En febrero podíamos leer en los medios de consumo que la administración de Obama había destinado 126 millones de dólares en financiar la investigación para alcanzar la exaescala una vez que China había liderado el Top500 de los supercomputadores. ¿Se trata de integrar más y más transistores?, sí, pero además tener algunos factores en cuenta, como la mejora tecnológica (procesos de integración menores, menores consumos de potencia,…) que dará un factor x4, así como otras cuestiones de diseño (paradigma de programación, exposición de los datos en las simulaciones, formas de acceso a ellos mediante jerarquías de memorias más eficientes,…) que daría un factor x50. Solo llegar a entender que actualmente es más costoso (energéticamente) acceder a un operando que realizar una operación sobre él ya da una idea de las medidas a tomar.
William (Bill) J. Dally, prestigioso catedrático de la aún más prestigiosa Universidad de Stanford, ofreció estos días una interesante charla en el IEEE IPDPS denominada “Energía, programabilidad y granularidad: los retos de la computación a exascala” (“Power, Programmability, and Granularity: The Challenges of ExaScale Computing”) que extiende todas estas ideas y que hemos querido compartir con los lectores del blog. Algunas conclusiones son: hagamos que el caso especial sea el código serie e insertemos la programación paralela en nuestros estudios hoy mismo. Facilitemos el acceso a estos paradigmas para que no solo el cambio venga de los expertos en supercomputación, sino de los químicos, los físicos, los biólogos y todo el tejido investigador. El comienzo es que empecemos a descubrir interesantes herramientas que se van poniendo a nuestra disposición, como OpenCL, CUDA, ArBB, TBB, etc., para sacar mayor y mejor partido a nuestros sistemas.
Vídeo (aproximadamente 1 hora de duración): http://techtalks.tv/talks/54110/
[…] Pero por el momento vamos a seguir descubriendo y promocionando la supercomputación de consumo. En muchos laboratorios de investigación la simulación de procesos mediante el computador es el día a día. Programas desarrollados en determinados lenguajes de programación, como Fortran, … [Seguir leyendo…] Compromiso social por la ciencia Master Site Feed Posts […]
[…] Teniendo en cuenta que el consumo energético de Jaguar fue de 7 millones de dólares en 2011 (alrededor de 7MW de consumo), un aspecto quizá más importante que la mejora computacional del x10 que supone Titan respecto a su predecesor, es su eficiencia energética, pues sus procesadores así como las arquitecturas gráficas son más eficientes y ocupando el mismo espacio, así como mejorando un factor x10 su capacidad computacional, no requerirá mayor consumo energético. La arquitectura CrayXK5 dará paso en un futuro próximo a una nueva generación XK6 y está previsto que en 2016 Titan vuelva a mejorarse para conseguir otro factor 10 llegando a los 200 Petaflops, camino constante hacia la “Computación Exascala” (de la que ya hablamos en Junio 2011). […]
[…] India también tiene aprobados ambiciosos planes de supercomputación, tratando de desarrollar un supercomputador de capacidad ExaFLOP (1018 FLOPS, alrededor de 20 millones de veces la potencia de un procesador doméstico) que podría tener listo para 2017 (a pesar de que la previsión mundial estaba puesta para llegar a la exaescala en 2018-20). […]
[…] de la exaescala en computación con la instalación de Oak Ridge National Laboratory, Frontier. Las previsiones en 2011 más optimistas hablaban de 2017, y las más realistas en la horquilla de 2018-2020; pero no ha […]