Archivo de enero, 2011

Un siglo de IBM

IBM (International Business Machines) también conocida como el Gigante Azul cumplirá este año su primer siglo de vida. Aunque comenzó a operar el 1888, su constitución actual (fruto de la fusión de Computing Scale Corporation e International Time Recording Company) tuvo lugar el 15 de junio de 1911.

logo-ibm

Es una de las empresas tecnológicas más importantes del mundo, con alrededor de 400.000 empleados repartidos en unos 171 países, e ingresos por encima de los 1000.000 millones de dólares.

Lo que la hace especial es -como indicábamos al comienzo del post- el hecho de que haya logrado perdurar en el tiempo. Continuas adaptaciones a las nuevas realidades tecnológicas le han

hecho lider en sistemas de medición de tiempo, control, productividad y -en la actualidad- la informática, siendo uno de los principales protagonistas en el mercado de la informática de consumo (PCs) en los años 80. Un hecho especialmente sorprendente en un país como EEUU, en el que las empresas tecnológicas tienen una vida mucho menor que a este lado del Atlántico.

En el siguiente documental, con banda sonora de Phillip Glass, se cuentan los momentos más relevantes de este Gigante Azul:
Imagen de previsualización de YouTube
Vía Tecnología Obsoleta.

Etiquetas:
Categorias: General

Los mejores efectos especiales en películas de ciencia ficción según los lectores de Wired

La revista Wired ha publicado una selección de los mejores efectos especiales de acuerdo con la votación de sus subscriptores. Me ha llamado la atención que -salvo excepciones- los efectos especiales más valorados por los lectores no estén tan relacionados con la dificultad/realismo/avance técnico que han supuesto, sino con el significado que tiene en el contexto de la película y lo atractivo que sería imaginar poseer ese tipo de tecnología en el presente.

Museo Stra Trek en Second Life

Museo Star Trek en Second Life

Un ejemplo es el caso de los teleportadores de Star Trek. Nacieron debido al alto coste económico que tenía llevar a cabo las escenas de aterrizaje de las lanzaderas de la nave a los distintos decorados en los que tenía lugar la acción en los planetas que visitaban, así a Gene Roddenberry y a su equipo se les ocurrió que en siglo XXIII bien podía haberse desarrollado ya una tecnología que permitiese -bajo ciertas circunstancias- el poder teleportar seres vivos a una distancia considerable. Un efecto analógico, un sonido muy característico y la imaginación de los espectadores hicieron el resto para convertirlo en una leyenda que los más destacados físicos tratan de emular en el mundo real :-)

¿Estimularán los efectos y las tramas de los juegos de ordenador la curiosidad de los más jóvenes cuando crezcan del mismo modo en que han influenciado las películas a la generación actual de científicos? Espero que sí, y que la tecnología que ahora sólo podemos ver en libros, películas y en narrativa en forma interactiva beneficie a las nuevas generaciones. El tiempo nos lo dirá. :-)

PD: Imagen de Daniel VDM (CC)

Etiquetas:
Categorias: General

La revolución paralela ha comenzado, ¿eres parte de la solución o parte del problema?

Este es el provocador título de una presentación que dió David Patterson, -Presidente del ACM-, hace ya dos años en las instalaciones de Google.

La aproximación es parecida a la del primer tema de Procesadores Gráficos y Aplicaciones en Tiempo Real del Máster de Informática Gráfica, Juegos y Realidad Virtual de la URJC. En el que se ponía de manifiesto la crisis del modelo arquitectural (y de software) en el que se trata de mejorar el rendimiento de una única hebra, y la necesidad de adoptar en el terreno del hardware de consumo las ideas de paralelismo que hasta ahora habían estado relegadas al mercado de Computación de Alto Rendimiento (HPC).

Como toda revolución tiene sus riesgos y oportunidades, en la presentación se advierte del peligro de no dar el paso a un modelo de desarrollo HW/SW basado en el paralelismo. Un modelo que va a crecer en el grado de concurrencia a un ritmo tan rápido como lo ha hecho durante décadas en el

Standford, Berkeley, MIT y todas las grandes universidades estadounidenses están impulsando grandes grupos de investigación en este campo, para liderar el futuro que ya está aquí. En nuestro país tenemos instalaciones muy interesantes como la red de supercomputación española accesibles a investigadores. Por otra parte las arquitecturas gráficas -de las que ya hemos hablado en anteriores posts- nos permiten experimentar con equipos de un precio asequible a todo el mundo que desee iniciarse en este mundo.

Imagen de previsualización de YouTube

Como dice el refrán: La suerte consiste en estar preparado cuando llega la oportunidad. Y el tren del paralelismo ya está aquí, ¿quieres subir?

Etiquetas:

El buen libro de las penas es alivio

Dice el refrán que el buen libro de las penas es alivio. Curiosamente Gerardo Ramirez y Sian Beilock, profesores de Psicología de la Universidad de Chicago han realizado un estudio que tiene mucho que ver con este dicho. Esta semana han publicado en  Science un trabajo en el que muestran que los estudiantes pueden mejorar sus calificaciones si dedican un tiempo antes del examen a escribir en papel aquellas cosas que más les preocupan.

Imagen de Purplepick

En parte, al escribirlo y darse un cierto tiempo, adquieren consciencia de la relatividad de la prueba evaluable. Lo que van a obtener es un resultado y nada más que eso, una medida que les ayudará a detectar posibles lagunas en su aprendizaje. Por su puesto es deseable obtener la más alta calificación, pero los nervios pasan a un segundo plano al tener mayor perspectiva sobre la prueba que se va a realizar.

Los científicos realizaron dos experimentos de laboratorio y dos de campo en los que algunos estudiantes universitarios de matemáticas tenían que escribir una redacción breve sobre sus ansiedades y miedos derivados de un examen posterior mientras que otros tenían que sentarse tranquilos antes del examen o escribir sobre otros episodios emocionales no relacionados con la prueba. Según los resultados obtenidos, los estudiantes a los que se pidió que escribieran sobres sus ansiedades y miedos sobre las pruebas rindieron mejor que los estudiantes que permanecieron sentados tranquilamente o escribieron sobre otros temas.

Parece ser uno de los primeros estudios que demuestran la evidencia de los efectos positivos de la escritura como terapia contra la ansiedad y como elemento para mejorar el rendimiento académico. Tal y como señala Pennebaker el factor novedad hace que esta técnica sea más efectiva, y es posible que su uso continuado deje de tener el efecto inicial en los alumnos. Pero al menos les ayuda a canalizar el estrés que pueden sentir al comenzar la prueba, para dejarlo a un lado y evitar bloqueos en el examen.

Quién sabe, quizá sea recomendable para aquellos alumnos que tiendan a ponerse más nerviosos en los exámenes, como ejercicio que les ayude a liberar tensión y concentrarse después en el examen. No se pierde nada por probar.

PD. Imagen de Purplepick (CC)

Etiquetas:

La rebelión de las aplicaciones masivamente paralelas

Parafraseando a Ortega y Gasset, las aplicaciones masivamente paralelas eran hasta hace poco un nicho exclusivo de los grandes centros de supercomputación. Las nuevas arquitecturas manycore y los entornos GRID han cambiado el panorama radicalmente, poniendo a nuestra disposición un capacidad de cálculo extraordinaria que hace posible que estas aplicaciones estén al servicio de usuario medio. Bien en su propio ordenador a través de las trajetas gráficas (GPGPU) o bien a través de aplicaciones wnVidia_TESLA GPUeb (como las que ofrece Google en la “nube”).

El desarrollo puede hacerse con una tarjeta gráfica de apenas 25$. Y servicios como Amazon Elastic Compute Cloud (Amazon EC2) -entre muchos otros- hacen que cualquier programador / empresa pueda disponer de un cluster de tarjetas Tesla a un  precio practicamente irrisorio (en comparación con la inversión que supone una infraestructura de estas características). El límite está simplemente en lo que seamos capaces de imaginar.

En este post, los alumnos de Procesadores Gráficos y Aplicaciones en Tiempo Real del Máster de Informática Gráfica, Juegos y Realidad Virtual enlazarán sus páginas web en las que podremos ver el análisis detallado de aplicaciones masivamente paralelas en todo tipo de aplicaciones.

Las aplicaciones que elijan y analicen los alumnos, se comentarán en clase.

PD. Imagen de Philippe Lin (CC)

Etiquetas:

Otra visión túnel

Se ha propuesto a los alumnos de la asignatura de Rendering Avanzado del Máster de Informática Gráfica, Juegos y Realidad Virtual que exploren las producciones de la demoscene y busquen un efecto de túnel en una demo que les guste para analizar el efecto con detalle con los conocimientos que han adquirido durante el primer cuatrimestre. Los enlaces a las páginas web en las que lleven a cabo el análisis aparecerán como comentarios en esta entrada y se enlazarán desde la web de la asignatura.

¿Qué es la demoscene?

La demoscene es una comunidad de apasionados por la informática que surgió a mediados de los años ochenta, compuesto en su mayoría por estudiantes universitarios, con un gran interés por los gráficos, la música y la programación en máquinas que –en aquella época- disponían de capacidades multimedia muy limitadas.

Desde sus inicios, la experimentación con la visualización en tiempo real ha sido uno de los ejes principales de la demoscene. Su esfuerzo y dedicación por aprovechar aquellas arquitecturas demostró que los ordenadores personales podían ser plataformas viables en las que desarrollar aplicaciones gráficas interactivas, y su influencia dio paso a la creación de un nicho de mercado que hoy ha crecido hasta convertirse en una parte fundamental de las interfaces de los ordenadores actuales.

La evolución de sus producciones ha mantenido la mezcla de arte y tecnología con las que empezaron, aprovechando los recursos computacionales de las distintas plataformas de manera sorprendente. Hoy día, aún cuando los recursos a nuestra disposición son órdenes de magnitud más abundantes, gracias a las actuales arquitecturas gráficas, los programadores de la demoscene siguen caracterizándose por exprimir al máximo el potencial de las máquinas. No es de extrañar que muchos cazadores de talentos (de empresas de videojuegos y animación) tengan en su agenda las competiciones de programación relacionadas con la demoscene.

¿Por qué el efecto de túnel?

Se trata de uno de los efectos gráficos más recurrentes en las demos es el efecto túnel. Por un lado tiene un uso de texturas muy interesante, que nos puede ayudar a ver de forma práctica lo que estamos estudiando en el primer tema de la asignatura (Texturas). Además se trata de un efecto que tiene cierta similitud con el recorrido por una mina que hay que realizar para la práctica 1.

Un ejemplo de túnel

La siguiente demo (fr-minus-012: palindromeda suger, del demogroup Farbrausch) muestra cómo el efecto de tunel original aprovecha un truco de proyección de texturas en 2D. Para crear la ilusión de movimiento en el interior de un tubo infinito.

El tipo de efectos de esta demo tiene mucho que ver con la aplicación de texturas a superficies (en este caso a superficies puramente 2D como se hacía en el inicio de la demoscene, aunque se disponga de mayor capacidad computacional en la actualidad) y muestra cómo aprovechar efectos de aliasing con un toque artístico.

ADVERTENCIA: Tal y como se indica al inicio de la demo, el ritmo y el parpadeo de los colores puede causar problemas a las personas con propensión a tener efectos epilépticos, por lo que se recomienda que no vean el vídeo que acompaña esta entrada.

En clase se hará el análisis de este túnel (fr-minus-012: palindromeda suger) y de una selección de los que se envíe en forma de comentarios.

Más adelante en el blog hablaremos de la conexión entre el movimiento underground de la demoscene y la actual investigación en visualización en tiempo real.

Etiquetas:

1500 millones de $ por la pat(ent)illa

Ayer en un comunicado de prensa, Intel anunció el final del tira y afloja en tribunales que tiene con nVIDIA por temas de patentes. Un acuerdo de 1500 millones de dólares a pagar en casi 6 años  parece zanjar el asunto de forma satisfactoria para las dos partes.

Por un lado Intel podrá utilizar parte de la cartera de activos no tangibles de nVIDIA, lo que le va a facilitar las cosas a la hora de introducirse en el mercado de los procesadores híbridos CPU+GPU (y las posibles aplicaciones del Larrabee2, aunque ya se anunció que no sería comercializado en forma de tarjeta gráfica). Y a nVIDIA la inyección de capital (económico y en forma de licencias de patentes) le viene que ni pintado para continuar comercializando “puentes norte” (un tema que dió mucho que hablar hace un tiempo), y tantear el mercado de los procesadores con sus colaboraciones con VIA.

¿Nos dará alguna sorpresa Intel este año? 1500 millones son muchos dólares, debe haber buenas razones para llegar a ese acuerdo.

También en la página web de nVIDIA se ha hecho un comunicado de la noticia. Es probable que dentro de unos días, cuando se haga publica la mayor parte del acuerdo a través del organismo de la Comisión de Seguridad e Intercambio de los EEUU tengamos más detalles en los medios de comunicación.

Etiquetas:
Categorias: General

¿Qué es una APU?

Mucho se ha hablado los últimos 5 años sobre la fusión de CPU y GPU en nuevas arquitecturas híbridas, en parte Von Neumman y en parte streaming (para aquellas partes del cauce gráfico sólo configurables). Las limitaciones tecnológicas, como la cantidad de pines en el encapsulado para conectar los procesadores a memorias que se adecuen a las distintas características han frenado su desarrollo durante mucho tiempo, pero ahora el mercado de los dispositivos móviles y -en especial- el de los tablets con sofisticadas aplicaciones están creando un nicho de mercado en el que este tipo de soluciones son muy convenientes por cuestiones de coste económico y energético.

Las principales compañías (Intel, AMD y nVIDIA) tratan de crear expectación con las nuevas tecnologías que están a punto de comenzando a comercializar (o les queda poco para hacerlo): Sandy Bridge, Fusion y Denver. Y el revuelo en los blogs especializados no se ha dejado esperar. AMD anunció Fusión poco después de la adquisición de ATI, en 2006, pero los problemas de reestructuración interna y la necesidad de adquirir el “know-how” para diseñar procesadores multicore retrasó su salida al mercad. Este mes, junto con los anuncions de la competencia, AMD ha comenzado la campaña de publicidad de esta -no tan nueva- tecnología.

Imagen de previsualización de YouTube

La tecnología de integración todavía no ha superado el escollo para permitir tener un camino directo a memoria de vídeo de alta gama y a memoria principal simultáneamente, por lo que CPU y GPU deben compartir la misma interfaz a memoria (que probablemente no será tan puntera como la que puede venir soldada en las placas de las tarjetas gráficas), además sus necesidades -en cuanto a localidad espacial y temporal- son muy diferentes, por lo que es probable que las primeras APUs no resulten competitivas al principio con aplicaciones diseñadas para tarjetas gráficas de alta gama.

Sin embargo, tal como se dice en el vídeo, uno de los principales cuellos de botella se ha eliminado: el bus gráfico. Y ahora se tiene un camino directo para acceder a la CPU y a la memoria (aunque pueda ser algo más lenta y carecer de características especiales para gráficos), con lo que las aplicaciones tipo GPGPU se pueden ver beneficiadas por este diseño. El tiempo nos dirá y en este blog estaremos muy atentos a los movimientos de estas tres compañías.

Etiquetas:
Categorias: General

Buzón de sugerencias de Procesadores Gráficos y Aplicaciones en Tiempo Real 2010/11

En este post recopilaremos las sugerencias para el curso 2010/11 acerca de la asignatura de Rendering Avanzado del Máster en Informática Gráfica, Juegos y Realidad Virtual de la Universidad Rey Juan Carlos, que nos querais hacer llegar online.
Estaremos atentos a los comentarios para moderarlos y hacerlo visibles tan pronto nos lleguen.

En este post recopilaremos las sugerencias para el curso 2010/11 acerca de la asignatura de Procesadores Gráficos y Aplicaciones en Tiempo Real del Máster en Informática Gráfica, Juegos y Realidad Virtual de la Universidad Rey Juan Carlos, que nos querais hacer llegar online.

Estaremos atentos a los comentarios para moderarlos y hacerlo visibles tan pronto nos lleguen.

Etiquetas:

Buzón de sugerencias de Rendering Avanzado 2010/11

En este post recopilaremos las sugerencias para el curso 2010/11 acerca de la asignatura de Rendering Avanzado del Máster en Informática Gráfica, Juegos y Realidad Virtual de la Universidad Rey Juan Carlos, que nos querais hacer llegar online.

Estaremos atentos a los comentarios para moderarlos y hacerlo visibles tan pronto nos lleguen.

Etiquetas: