Hace 10 años, hardware y sistemas operativos en bioinformática

Lo primero, esta publicación ha nacido de una pregunta de Ramón en el comentario 122116 del post ‘Hardware necesario para trabajar en Bioinformática’

En 1999 lo mejor que podía ofrecer Microsoft era el Windows NT y a finales de ese año, el flamante Windows 2000. Aunque los caros ordenadores Apple eran potentes, estaban lastrados por Mac OS 8 y el flamante Mac OS 9. En bioinformática casi todo el mundo usaba las muy caras workstations de SGI, Sun, Compaq (con procesadores Alpha), etc… Y los discos duros eran SCSI (caros pero fiables) porque eran los que proporcionaban el rendimiento necesario… hasta ese momento.

Imaginaos, ¡un disco de 9GB eran un mundo! Y para que os hagais una idea, la base de datos Swissprot se distribuía en CD-ROM, por lo lentas que eran las conexiones a Internet.

Pero algo estaba cambiando en bioinformática porque la gente empezó aaventurarse a usar ordenadores clónicos con las distribuciones Linux dela época, también en parte porque los clónicos empezaban a tener lapotencia gráfica y de cálculo necesaria. Como experiencia personal, al poco de empezar a trabajaren bioinformática en 1999 se compró en el grupo que entré un par declónicos con 128MB de memoria, procesador Pentium II a 400MHz y tarjetagráfica Matrox (no me acuerdo de la capacidad de los discos SCSI, pero era menos de 9GB). Para los que estuvieron en aquella época en el Protein Design Group los nombres de ‘aneto’ y ‘naranco’ son míticos, por los buenos resultados que nos dieron (además de algún que otro quebradero de cabeza). Investigadores invitados que pasaron por nuestro grupo observaron lo bien y rápido que funcionaban los programas en esos clónicos con Linux, y por ahí continuó el tema: transición de caras workstations a ordenadores clónicos; transición de las distintas variantes de Unix a Linux; se extendió el uso del compilador GCC de GNU…

¿Se podían correr programas de alineamientos (Smith&Waterman, Blast, PSI-Blast, FASTA), alineamientos múltiples (ClustalW, T-Coffee), búsqueda de motivos (HMMer), etc… en esos equipos? ¡Por supuesto! Pero era con las bases de datos y volúmenes que se manejaban en esa época. ¿Se podía hacer ensamblaje de genomas de-novo? No, porque los programas de ensamblaje de la época eran muy ineficientes, necesitaban más de 1GB de memoria, y Linux y los ordenadores clónicos tenían serias limitaciones en ese punto.

¿Qué hardware y sistemas usaremos dentro de 10 años? A saber, pero me temo que buena parte de los problemas fundamentales que intenta resolver la bioinformática seguirá así, sin resolverse, como el de obtener el plegamiento de las proteínas directamente de la información de secuencia, sin ninguna información adicional.

Compartir:

Un comentario

  1. Gracias. Efectivamente, así ha sido la evolución computacional, y es que incluso las herramientas más básicas del sistema Unix se prestan muy bien al análisis de secuencias. (ref. "Computational Biology -: Unix/Linux, Data Processing and Programming" de Röbbe Wünschiers).

    Tampoco hay que olvidar, en hablar de los MFLOPS y TB’s – es decir, la fuerza bruta de los ordenadores – que hay otras dos artes que se pueden practicar con los ordenadores antiguos: la optimización y los algoritmos. Si el auge de la bioinformática debe mucho a lo accesíble que es potencia computacional hoy en día, sus avances más llamativos han sido conceptuales: restricción de campos inmensos de búsqueda, reducciones de complejidad algorítmica (O(quadrada) a O(nlogn)), etc.

    De cierta manera, se resuelve el problema de qué ordenador comprar ya que es común (en cursos científicos) poder acceder remotamente a una red o cluster de ordenadores potentes. Por tanto teniendo un ordenador de bajas prestaciones (y ¡más silencioso también!) con conexión remota buena, también es otra opción. Tema que nos llevaría de cierto modo al Grid y Cloud computing … pero eso ya es para otro día :-)!!!

Deja un comentario