El Jaguar se transforma en Titan

Jaguar, el supercomputador de Oak Ridge National Laboratory que en noviembre de 2009 fue líder mundial del ranking Top500 y que quedó relegado a sexta posición el pasado junio, se reconvierte para luchar por la posición de cabeza a mediados del mes que viene con el nombre de Titan. Jaguar permaneció líder del ranking durante dos convocatorias, noviembre 2009 y junio 2010 (el Top500 es un ranking semestral), pero cedió su puesto en noviembre 2010 a la supremacía china con…

Multicores, ¿por qué?

Hace 20 o 25 años era fácil elegir un ordenador y saber de manera aproximada cómo se iba a comportar tan sólo leyendo el nombre del procesador. Podíamos leer 286, 386, 486 (en el generalista mundo de Intel), y para mayor información solía ir acompañado de unos valores mágicos, 20 MHz, 33 MHz, 40 MHz, etc., que nos daban idea de la frecuencia a la que harían las operaciones necesarias para hacer funcionar las aplicaciones. Es decir, que una vez…

Sandy Bridge no es una nueva cerveza

Aunque de sugerente nombre, Sandy Bridge no es la última modalidad de cerveza o bebida refrescante, sino el «nombre artístico” de la última propuesta de Intel para los ordenadores de consumo. Anunciado en su propia conferencia (IDF, Intel Developer Forum 2010) el pasado mes de septiembre, la Sandy Bridge es la segunda generación de la familia de procesadores Intel Core que irrumpirá en el mercado tras la feria anual CES (Consumer Electronic Showcase) a principios del nuevo año 2011. Recientemente…

Cinco años desde la aparición de los ordenadores «multicore»

En 2010 se hacen cinco años desde que se lanzaron al mercado los primeros sistemas de varios núcleos de procesamiento. Básicamente todo programa sobre una plataforma de consumo anterior se ejecutaba a una cierta velocidad debido a la frecuencia de reloj a la que se sometía el procesador. Todos hemos sido testigos de los aumentos en las prestaciones de los equipos, desde 1 MHz, 16 MHz, 20 MHz (¿os acordáis del botón turbo?), 33 MHz, 233MHz, 900MHZ, 1.2GHz, 2.0GHz, 2.4GHz,…

Universo Paralelo de Intel

No es la última película de ciencia ficción, de hecho no hablamos del futuro, sino del presente. En este blog ya se han hecho múltiples referencias sobre el potencial problema que trae consigo que las arquitecturas de cómputo (los ordenadores) evolucionen de una manera que no se había augurado hace una década.

OpenCL nuevo interfaz de programación paralela

OpenCL, Open Compute Language, es la primera propuesta abierta y estándar de programación paralela sobre dispositivos heterogéneos de consumo, como sistemas multicore, GPUs, móviles, procesadores basados en Cell, etc. El objetivo de OpenCL es crear un punto de encuentro entre fabricantes para que adopten una estrategia común,  simplificar la programación de estos dispositivos y poder sacar provecho a arquitecturas heterogéneas con menores tiempos de desarrollo. OpenCL fue una iniciativa propuesta por Apple y posteriormente impulsada por Khronos, el grupo de…

Paralelismo de consumo: ¿el futuro de la computación?

Hasta hace pocos años, los ordenadores personales han venido aumentando su poder de cómputo casi exclusivamente por un aumento en las frecuencias de reloj que repercutían en disparados consumos energéticos y calentamientos del sistema. Ante esta situación, que incluso alarmaba al sector energético mundial, los fabricantes lanzaron productos multinúcleos (multicore) con gran éxito en el mercado, que reducen el consumo energético del sistema de manera sustancial. Someramente, se basan en la posibilidad de realizar cálculos en paralelo sobre varios procesadores…