Paralelismo de consumo: ¿el futuro de la computación?

Hasta hace pocos años, los ordenadores personales han venido aumentando su poder de cómputo casi exclusivamente por un aumento en las frecuencias de reloj que repercutían en disparados consumos energéticos y calentamientos del sistema. Ante esta situación, que incluso alarmaba al sector energético mundial, los fabricantes lanzaron productos multinúcleos (multicore) con gran éxito en el mercado, que reducen el consumo energético del sistema de manera sustancial. Someramente, se basan en la posibilidad de realizar cálculos en paralelo sobre varios procesadores de forma simultánea, reduciendo en promedio el tiempo de ejecución del proceso. Sin embargo, un programa preparado para un único procesador no se ejecuta más rápido por correr en un sistema de doble núcleo sin más, puesto que realmente el programa no está preparado para ese sistema doble, o multinúcleo.

Los desarrolladores deben conocer a fondo los problemas y las soluciones para llevar a cabo la migración de estos programas. Sin embargo, las arquitecturas multinucleo en las gamas de consumo son de reciente implantación, por ello ¿cuántos desarrolladores no especializados en computación paralela o computación de altas prestaciones tienen conocimiento de este modelo de programación para poder optimizar la ejecución de sus programas?, en general muy pocos. Por tanto es necesario simplificar el proceso de la programación paralela, puesto que el sistema de consumo se vuelve paralelo pero el desarrollador promedio no.

Intel y Microsoft se han propuesto buscar soluciones conjuntas, invirtiendo recientemente 20M$ en la creación de 2 centros de investigación (University of Illinois at Urbana-Champaign y University of California, Berkeley) para la investigación durante al menos 5 años de la computación paralela y la búsqueda de soluciones, arquitecturas y sistemas operativos viables para el desarrollador promedio no especialista. En estos 2 Centros de Investigación de Computación Paralela Universal (Universal Parallel Computing Research Centers, UPCRC) trabajarán conjuntamente unos 75 estudiantes de doctorado e investigadores postdoctorales y alrededor de 35 profesores.

Aparte de esto, Intel anunció en la pasada confererencia SIGGRAPH 2008 en Los Angeles su esperado chip gráfico vectorial  y coprocesador, Larrabee, que competiría con los líderes del sector. Aunque anunciándose desde hace muchos meses (y años), Larrabee no termina de lanzarse al mercado y su salida se ha ido retrasando hasta finales de 2009 o primer semestre de 2010 según las últimas notificaciones. La gran diferencia de este chip respecto a la competencia (Nvidia y AMD/ATI principalmente) es que incorporaría instrucciones basadas en las arquitecturas x86 para hacerlo más propenso a ser utilizado en aplicaciones intensivas de propósito general, y que evitaría el aprendizaje de librerías del contexto gráfico o de modelos y librerías especializadas a ciertas arquitecturas, como la propuesta de Nvidia, CUDA.

Por su parte, Nvidia ya ha anunciado su interés en entrar en el sector de los procesadores de propósito general y, obviamente, AMD/ATI está también asentada en ambos terrenos. Crece el interés por el cómputo paralelo, ¿veremos los cambios a corto y medio plazo? Seguimos informando humildemente en estas líneas. Las próximas ediciones del blog contendrá información de multiprocesadores gráficos y las propuestas de sus fabricantes.

Compartir:

Deja un comentario