Ciencia 2.0

Desde la aprobación de la Ley de la Ciencia han pasado veinte años y pocas son las cosas que aguantan tres décadas sin que su grado de obsolescencia no se haga demasiado obvio. Muchos dirán, por el contrario, que seguimos con los mismos asuntos pendientes de siempre y, entre ellos, la escasez de recursos, la indiferencia social hacia la innovación, la indolencia ante la endogamia o la falta de buenos gestores. También sigue pendiente corregir el despego general de la sociedad española respecto de la ciencia. Pero esta continuidad es sólo aparente, pues los contextos de entonces y ahora son tan distintos que no sólo deben modificarse las respuestas, sino la formulación misma de los problemas. Así, lo que entonces sonaba como muy novedoso, buscar la complicidad de los ciudadanos, hoy tiene que ser contextualizado de forma muy distinta. Si entonces se trataba de acercar la cultura científica a los ciudadanos para que comprendieran lo mucho que dependían sus vidas del avance científico, mediante la apertura de museos, ferias y semanas de la ciencia, hoy tenemos que seguir avanzando por nuevos derroteros compatibles con otros conceptos como participación, gobernanza, riesgo o procomún. No es que tengamos que olvidarnos de las viejas políticas de la divulgación, sino que deben ser complementadas con los muchos experimentos que tratan de involucrar a la ciudadanía en la gestión de la incertidumbre, el diseño de alternativas tecnológicas, el diagnóstico y tratamiento de algunas enfermedades y, por ejemplo, en la conservación del patrimonio y el medio ambiente.

     
Antonio Lafuente
Instituto de Historia
CSIC
 

La moratoria nuclear o las fuertes resistencias a la introducción de organismos genéticamente modificados deberían habernos enseñado que no basta con gastar mucho dinero en propaganda, ni con la exhibición de la musculatura experta con la que cuentan los estados modernos y las corporaciones industriales. Las muchas situaciones de pánico experimentadas durante las sucesivas crisis de la lluvia ácida, las dioxinas o las vacas locas y las que vendrán asociadas con la gripe aviar, han demostrado que no basta con sermonear desde la TV para que la población se tranquilice. Y esto ocurre porque la gente desconfía de nuestros representantes e instituciones políticas[1] . La situación no es dramática, pero llegará a serlo si no se acierta con las políticas a promover.

Antes, sin embargo, de precipitar ninguna iniciativa, conviene considerar algunos de los cambios que la expansión de Internet está introduciendo en las prácticas culturales y científicas de nuestro tiempo. Pretender que no hay un antes y después de Netscape, eBay, Google, Yahoo o Hotmail es ignorar lo que pasa y cerrar la puerta a las soluciones. Y este es nuestro tema. Lo que me propongo es explorar algunos de los cambios más relevantes acaecidos en la cultura de la ciencia, y contribuir así al debate que trata de encontrar respuestas para los problemas más acuciantes de nuestro tiempo. 20 años después, hay que contar con la ciencia 2.0.

La innovación abierta

Muchas veces el lugar dónde se definen los problemas no coincide con el ámbito en dónde se encuentran las soluciones. Y tenemos un magnífico ejemplo sacado de la factoría de Karim Lakhani, profesor en la Harvard Business School y editor de spoudaiospaizen (blog). No hace mucho una de las grandes empresas biotecnológicas intentó encontrar un método que permitiera detectar secuencias de ADN en situaciones extremas y que, además de ser operativo, tuviera un coste razonable. Los expertos acabaron reconociendo que el asunto no tenía solución. Los gestores de la empresa, sin embargo, no se dieron por vencidos y decidieron hacer algo muy innovador: sacar el asunto al exterior y convocar un premio para quien diera en el clavo.

Fue un éxito. En sólo cuatro semanas hubo 574 científicos que lo intentaron y fueron 42 los que respondieron al reto. El ganador vivía en Finlandia y, lo más curioso, se trataba de alguien que trabajaba en otro campo de especialización[2] . La conclusión parece obvia: la innovación emerge en la intersección disciplinar. Hay más ejemplos parecidos y todos son convergentes en la necesidad de apostar por una estrategia capaz de formatear los problemas de forma que puedan ser abordados desde muchos lugares diferentes. Son los boundary objects, una noción desarrollada en el entorno de la Actor-Network Theory[3] (ANT) a partir de los trabajos pioneros de Susan L. Star[4] , y que han permitido conceptualizar la atomización de saberes y prácticas característica de nuestro mundo en términos de oportunidad. Así una vez situado el objeto al alcance de la mirada de varias comunidades de practicantes, la simetría de las ignorancias resultante crea la ocasión para el aprendizaje de todos y el trabajo colaborativo.

El asunto entonces es cómo formatear los problemas para que puedan ser reconocidos por muchos y darse esta situación de convergencia en la que ningún experto renuncia a sus tradiciones o prácticas paradigmáticas de origen (las propias de la especialidad en la que está inserto). En fin, más que de interdisciplinariedad estamos hablando de transversalidad del saber, porque el esfuerzo que se necesitaría para solucionar un problema que se resiste es descontextualizarlo, desempaquetarlo y abrirlo a otras maneras de visualizarlo o conceptualizarlo. Lo que Lakhani nos propone es que demos valor a dos situaciones muy novedosas. De una parte, la que implica sacar los problemas del espacio reservado (quizás debiéramos decir secreto) del laboratorio pues, sin duda, la forma en la que se construyen condiciona las estrategias que se diseñan para buscar soluciones. De la otra, se nos dice que aceptemos como atractiva la posibilidad de que la solución provenga de ámbitos disciplinarios distantes y distintos. En ambos casos la receta que se propone cabe en una palabra: openness, liberación de las ataduras internas y transparencia hacia las externas. La estrategia correcta consiste en crear estructuras que permitan a las organizaciones aprovechar toda la inteligencia y experiencia que hay en el mundo, aunque esté dispersa. La solución es abrir y con la apertura llegarán las soluciones.

La novedad de cuanto decimos es relativa, pues la ciencia es una empresa que no es contradictoria con estos valores. Y tenemos muchos ejemplos para ilustrar lo que estamos diciendo. El problema de la longitud en el mar adquirió una importancia decisiva durante el siglo XVIII conforme el tráfico marítimo fue en aumento. Fijar la posición de los buques no era un asunto menor, pues sólo así se podía garantizar la trayectoria y, en definitiva, el comercio atlántico. A comienzos del Setecientos, aunque se sabía cómo determinar la latitud, nadie había encontrado una manera fiable y practicable de obtener la longitud, la otra coordenada necesaria para conocer la situación de un objeto sobre la superficie terrestre, incluidos los océanos. Fueron muchos los científicos y reyes implicados en la búsqueda de algún método eficaz. Pero todos fracasaron, desde Galileo hasta el mismo Newton, por sólo citar dos figuras indiscutibles en la historia de la ciencia. Y aquí viene el caso que queríamos contar. En 1714, el gobierno británico cansado de tratar en secreto con los expertos y de acuerdo con la Royal Society y el Almirantazgo, convocó un concurso dotado con 10.000 libras para quien fuera capaz de ofrecer un método eficaz para determinar la longitud con una precisión de medio grado, equivalente a dos minutos de tiempo. La historia es antigua y recientemente fue contada con brillantez[5] . Sabemos que el premio fue para John Harrison, quien en 1765 tuvo que abrir su reloj a una comisión de seis miembros, antes de obtener la certificación de que aquel instrumento, el cronómetro marino H4, se podía copiar y, por tanto, reproducir.

El caso de Harrison, y los otros que podríamos resumir, no sólo evoca la naturaleza inicialmente abierta de la ciencia, sino también el problema de la propiedad intelectual, porque los miembros del Board of Longitude, la institución que debía certificar el logro, no querían fallar el concurso sin verle las tripas al prototipo, lo que implicaba compartir con el jurado los secretos de su invención. Y, ciertamente, los momentos que vivimos podrían parecer poco propicios para conductas que parecen cuestionar las tradicionales economías de la reputación (crucial para los investigadores) y de la competición (decisiva para las empresas). En efecto, no abundan quienes se atreven a cuestionar la llamada sociedad del conocimiento si uno se sus cimientos tiene que ser la producción de escasez mediante las leyes que regulan la propiedad intelectual y el cerramiento de las bases de datos, alegando que es la única forma de evitar que los competidores se apropien del trabajo. Así las cosas, todo conspira contra quienes creemos que otro mundo es posible.

Nadie ha dicho que sea fácil conseguirlo, pero la situación actual parece, cuanto menos, moralmente insostenible. Los argumentos morales, sin embargo, no tienen suficiente fuerza de convicción. Mucha gente los acepta como un sermón vacuo, tal vez bienintencionado, pero globalmente irresponsable, pues sólo contribuyen a introducir ruido en el sistema en detrimento de la eficacia y, en consecuencia, de la democracia. De ahí la importancia que está adquiriendo la investigación sobre el desarrollo del open source (código abierto) y de la comunidad del software libre (Free & Open Software, FOS). No es este el sitio para introducir un análisis pormenorizado de este caso sorprendente e inesperado. Los hechos, sin embargo, prueban que ha sido capaz de producir uno de los logros tecnológicos más indiscutibles de la historia, recurriendo a formas de organización del trabajo muy distintas a las que siguen siendo hegemónicas. En su conjunto puede decirse que los éxitos de Linux/GNU, Apache, PHP , MySQL, OpenOffice y Firefox, por sólo citar algunos ejemplos bien conocidos, están sugiriendo que, tanto en el plano de las motivaciones como en el de las prácticas, las cosas pueden ser de otra manera sin renunciar a la eficiencia. Porque lo justo es decir que los sistemas abiertos siempre han superado a los propietarios en todas las comparaciones más exigentes. Y esta ventaja representa también la excelencia no sólo de la tecnología, sino también la de los valores y prácticas que la sostienen y que contribuye a sostener. Una de ellos, por ejemplo, es la práctica del broadcasting con el que comenzamos este artículo, pues las propuestas de nuevos desarrollos son lanzadas en abierto y, al igual que las respuestas, archivadas en repositorios públicos, como SourceForge. Es de todos sabido que cuando hablamos del SL estamos refiriéndonos a comunidades de desarrolladores, testeadores y traductores que adoptan una estructura abierta, colaborativa, horizontal, distribuida, desinteresada y cosmopolita, que se regula mediante un régimen meritocrático (sobreviven las mejores soluciones) basado en la economía del don (gana reputación quien más regala). Hay estudios que han comprobado que las principales motivaciones para los hackers no son obviamente la carrera, el dinero o el poder, sino la satisfacción asociada al sentimiento de pertenencia a una comunidad y la motivación que supone aceptar constantemente nuevos retos intelectuales.

La cultura abierta

Los ejemplos mostrados creo que avalan la tesis de que no hay una única forma de organizar una empresa boyante. Para los más escépticos nos quedan todavía otros casos con los que reforzar nuestro argumento. El más obvio es Google, pero también es obligado mencionar los éxitos de eBay, Amazon o Flickr. Lo que tienen en común todas estas experiencias es la naturaleza abierta del negocio que representan. La reflexión sobre estas realidades ha motivado una interesante discusión sobre lo que representó la muchas veces citada crisis de las puntocom. Y, siendo verdad que hubo muchas iniciativas que sucumbieron en los albores del llamado capitalismo de ficción, no es menos cierto que también se consolidaron otros proyectos que supieron adaptarse mejor a las posibilidades abiertas por las nuevas tecnologías. Ya hemos mencionado los más espectaculares. Todos tienen en común favorecer la formación de redes sociales descentralizadas y la interactividad entre/con los usuarios. La web previa a la crisis del otoño de 2001 era muy estática, estaba concebida como una especie de cartelera de anuncios que utilizaban unos pocos para difundir información, cuando no simple propaganda. Las cosas desde entonces han cambiado considerablemente. Basta con citar las novedades más exitosas de la red actual para entender la profundidad de los cambios que se han producido. Y aquí es obligado citar la irrupción imparable de los blogs, las wikis, los agregadores y la socialización de los favoritos (social bookmark) y la generalización del etiquetado (tagging) como nueva forma de catalogación de los contenidos.

La convergencia de todos estos cambios es lo que ha permitido a Dale Dougherty, vicepresidente de 0'Reilly, acuñar el concepto de WEB 2.0[6] , una forma muy sugerente de nombrar la nueva estructura que está tomando Internet por la proliferación de tecnologías que favorecen la participación de tres formas distintas y convergentes: la primera tiene que ver con la posibilidad que tenemos todos de producir contenidos, ya sea de forma individual o corporativa (blogs), ya sea de forma colaborativa (wikis); la segunda consiste en dar a los usuarios la posibilidad de introducir metainformación, sustituyendo la inicial organización taxonómica de los contenidos (un modelo jerárquico, profesional y estético) por una nueva estructura en la que cualquiera puede asignar la etiqueta (tag, hace unos años habríamos dicho key words, palabras clave) que desee a cualquier página (un modelo horizontal, amateur y dinámico). Y, la tercera, se origina en la doble circunstancia de que, por un lado, las máquinas tienen capacidad para comunicarse entre sí y mediante agregadores (feeder, tales como RSS u otros); cada quien, por otro lado, puede personalizar las fuentes (webs) que le interesa consultar y extraer de ellas las novedades como si cada página fuera una naranja de la que se pudiera exprimir el zumo (los contenidos) y dejar las cáscaras (el diseño). La gente entonces está construyendo la web cada vez que introduce contenidos, tanto da que redacte una juiciosa reflexión o recomiende una lectura (ver, por ejemplo, del.icio.us o cannotea), como que introduzca un comentario o una simple etiqueta que luego será detectada por los buscadores cuando se les interrogue sobre ese término o alguno próximo. La frontera entre escritor y lector, como la que existía entre editor y crítico se disuelve de forma acelerada. Incluso la catalogación, el santo Grial de los bibliotecarios, la hacen los usuarios.

La democratización de la semántica no es un asunto del futuro. La creatividad, literaria o erudita, estética o filosófica, tanto para los que manejan palabras como para los que usan imágenes, está al alcance de quienquiera que tenga talento. En fin, en un mundo crecientemente gobernado por la red de redes se están reescribiendo las reglas de los negocios, el mercado, la política. Y también las de la ciencia. Hace unos meses la revista Nature, tras comparar la calidad de los contenidos científicos de la Enciclopedia Britannica con los de la Wikipedia y llegar a la conclusión de que eran comparables, recomendaba a los científicos que se implicaran activamente en la mejora de Wikipedia[7] . Tampoco es posible permanecer indiferente ante el crecimiento del porcentaje de población que, por ejemplo, considera el creacionismo una hipótesis alternativa el evolucionismo o que definitivamente tiene más fe en la herbolaria tradicional que en la medicina científica. Un problema que tiene que ver con las gigantescas audiencias que pueden alcanzar en nuestros días los defensores de cualquier idea, incluidas las más peregrinas o malvadas, sin necesidad de tener apoyo de los grandes grupos mediáticos. Simultáneamente, no deja de crecer la desconfianza en los expertos, incluidos los gubernamentales, cuando hablan del riesgo que representan la sucesión de crisis alimentarias, medioambientales o sanitarias. Hace unos días, The Scientist animaba a los gobiernos a que tomaran en serio la posibilidad de encomendar a las ONG un campaña de información que explicara a los ciudadanos que no hay peligro de contagio con el virus H5N1 (gripe aviar) si se comen pollos normalmente cocinados[8] . Estos y otros muchos casos están haciendo obvia la importancia de la web en los procesos de formación de la opinión pública. Las encuestas, en efecto, son tercas y siguen confirmando lo que todo el mundo sospecha: ante cualquier duda o inquietud científica el 67% de la población busca la respuesta en la red, mientras que un 11% va a una biblioteca[9] . Y así, si cualquiera puede escribir y argumentar sus motivos para desconfiar del gobierno, las autoridades tendrían que ingeniar estrategias de comunicación con la ciudadanía más agudas que la simple descalificación de quienes no compartan su punto de vista. Las experiencias de la moratoria nuclear o de resistencia a los organismos genéticamente modificados que obligaron a detener la instalación de centrales nucleares o a legislar sobre la trazabilidad de los alimentos, demuestra que estamos en los albores de nuevas formas de entender la relaciones entre ciencia, ciudadanía y res publica.

La ciencia abierta

No vamos, sin embargo, a continuar por esta línea argumental porque, aunque cada día sea más urgente la necesidad de redefinir los contenidos del llamado compromiso social por la ciencia, lo que queremos es explorar si las nuevas tecnologías, al igual que están modificando lo que entendemos por cultura, también nos obligan a repensar lo que es la ciencia. O, dicho en otros términos, ¿está la web 2.0 sacando a flote una ciencia 2.0? Miremos donde miremos se impone la respuesta afirmativa. El próximo lanzamiento de la revista PlosOne, perteneciente al grupo Public Library of Science, es un buen ejemplo de lo que está pasando. A nadie se le escapa que el sistema de control de calidad de los artículos científicos (peer review) está en crisis. No es que haya dejado de ser útil, sino que son tan agudos sus problemas que ya se discuten abiertamente[10].

Entre ellos, citaré sólo tres: el primero es que no está concebido para atrapar a los autores cuyo ánimo sea falsear u ocultar información; el segundo, es que la práctica del secretismo en los informes permite el desarrollo de múltiples corruptelas, como el robo de ideas, la vendetta personal o la crítica superficial; el tercero, para terminar, es que favorece claramente a las instituciones o científicos más famosos y penaliza a los laboratorios e investigadores desconocidos. Todos estos problemas podrían solucionarse si el informe fuera publicado en la red y, estando a la vista de todos, cualquiera pudiera emitir su juicio. El control entonces sería público, horizontal y colectivo, además de ser un proceso dinámico que no terminaría con la publicación, sino que estaría abierto a futuras mejoras, ya sea porque se le puedan sumar nuevas evidencias, ya sea porque esté justificado corregir alguna imprecisión surgida a la luz de otras investigaciones.

El open peer review que postula PlosOne es expresión de un movimiento de mayor calado y que está en resonancia con las movilizaciones favorables al open access[11] y al open data. El acceso libre y gratuito a la información científica está ya en la agenda de muchas instituciones científicas y numerosos organismos públicos. La Declaración de Berlin (2003), por ejemplo ha sido firmada por numerosas Universidades o Centros de Investigación de todo el mundo[12], en un movimiento que es convergente con las recomendaciones favorables de la OCDE (2004), la FAO y la OMS. La Bill y Melinda Gates Foundation, por ejemplo, no financiarán ningún proyecto cuyo responsable no se comprometa a ceder inmediatamente al dominio público los datos que obtenga con la investigación. Y, en fin, que nada hay más razonable que exigir que los resultados obtenidos mediante fondos públicos sean accesibles para todos los ciudadanos, trabajen o no en instituciones académicas. La discusión sobre los datos es todavía más acuciante porque lo que generalmente se publica en las revistas no son los datos mismos de laboratorio, sino distintas formas de representarlos (gráficas y otras imágenes analíticas). Pero una curva, como se sabe, se hace con datos, pero nunca podrá sustituirlos, especialmente si alguien quisiera verificarlos o contrastarlos con los suyos propios. El asunto se agrava cuando nos enteramos que alrededor del 80% de los datos de alta calidad que se producen en el laboratorio nunca se hacen públicos, una circunstancia que raya en lo escandaloso (aún cuando sólo pensáramos en el despilfarro de recursos que supone) y que arroja muchas dudas sobre la naturaleza comunitarista y colaborativa de la práctica científica[13]. Y esto por no adentrarnos en el despilfarro que supone. También se nos ha enseñado que todo cuanto aspire a la condición de científico debe ser verificable (replicable), una circunstancia que sólo es posible si la subscripción a una revista implica la obtención de un password que de acceso a las bases de datos con los resultados experimentales que sostienen los argumentos contenidos en el texto.

El open access entonces es una autopista que conduce necesariamente al open data. El asunto es que hoy las nuevas tecnologías permiten no sólo hacer experimentos que producen/demandan gigantescas masas de datos, sino situarlos también en un repositorio a disposición de quien los necesite. El hecho, sin embargo, es que históricamente (sin entrar aquí en el vertiginoso proceso de privatización) se han producido grandes pérdidas debido a las deficientes políticas de archivado de datos. Y no estamos hablando solamente de seguridad, sino sobre todo de interoperatividad, pues la diversidad de tecnologías de conservación y las discontinuidades institucionales (cierre, cambio o abandono de bases de datos) han convertido el uso de la información pública en una carrera de obstáculos difícil de superar. Y la pérdida de datos implica despilfarro de recursos y de conocimientos. Mucho más en nuestro tiempo que podemos diseñar/personalizar APIS capaces de extraer de cualquier base los datos específicos para un nuevo proyecto. Baste aquí con considerar la red como un ingente repositorio para percibir la importancia de que la información sea accesible, pues ha sido a partir de esta deriva que Internet ha permitido la creación de miles de productos, muchos de ellos desarrollados por usuarios anónimos, que no cesan de agregar valor añadido al conjunto. El caso de Amazon es paradigmático pues, tras obtener, igual que sus competidores, la información de los libros del registro ISBN optó por un modelo de negocio en el que los clientes podían añadir comentarios, incrementando exponencialmente el valor de la información ofrecida. Lo mismo está sucediendo ahora con la información cartográfica que Google compró a MapQuest y que los usuarios no paran de emplearla para los fines más diversos, mediante la continua amalgamación de datos (mashups) que, por ejemplo, mezclan los planos de ciudades con los de criminalidad, gustos musicales o precios de alquiler de la vivienda para ofrecer unas cartografías dinámicas y colaborativas que inventan diferentes formas de "vecindad" inéditas.

Podríamos seguir con nuevos ejemplos, sin que mejore la claridad del argumento que nos traemos entre manos: abrir los datos, no sólo es un requerimiento derivado de la doble necesidad de que la ciencia se acerque al viejo modelo de una República de Sabios y al que exige una democratización del conocimiento, sino que implica apostar por la oportunidad difícilmente discutible de que aparezcan nuevas e imprevistas formas de usarlos y conectarlos o, en otros términos, de crear conocimiento. Los datos, en consecuencia, deberían ser algo que se encontrase en la web, antes que en el laboratorio. La web 2.0 llevará el sello Data Inside, una analogía con el Intel Inside del PC que domina la cultura del escritorio y que será reemplazado por la noción de la red como una plataforma global de computación. La web del futuro, sentenció no hace mucho Tim Berners-Lee, el inventor de Internet, será una red de datos.

Y, en efecto, la combinación de open access y open data demanda iniciativas que favorezcan el open source y el open document, es decir el software de código abierto y los formatos estándar. Los motivos son obvios. Para que la web funcione como una plataforma es imprescindible asegurar la interoperatividad entre todas las máquinas y todos los programas o, dicho en otros términos, que todos los objetos que circulen por la red puedan ser correctamente interpretados, cualquiera que sea el hardware o el software que empleemos. La red, en consecuencia, debe ser neutral desde el punto de vista tecnológico. Que un documento sea estándar quiere decir que ha sido codificado y archivado según protocolos abiertos y que, en consecuencia, pueden ser modificados y adaptados a nuestra necesidades. También significa que no dependemos de ninguna empresa para editarlo, formatearlo, enviarlo o archivarlo, pues tales funciones deberían poder ejecutarse con cualquiera de los procesadores de textos o clientes de correo existentes en el mercado. Y lo mismo tendría que ocurrir con las bases de datos, pues de otro modo no podríamos diseñar herramientas específicas (API) para interactuar con ellas y extraer los datos que necesitemos. Y esto es importante porque las bases de datos no debieran condicionar la forma en la que puedan ser consultadas, pues siempre es concebible una utilidad insospechada por sus creadores y que demandará nuevas API cuyo desarrollo es impensable sin tener acceso al código fuente[14].

Pero hay más. Siempre se ha dicho que la replicabilidad es una de las características insoslayables del trabajo científico. Si esta condición debe ser mantenida en las ciencias experimentales, tenemos que preguntarnos por la pertinencia de programas informáticos, como por ejemplo MatLab, de código oculto (cerrado) que funcionan como una caja negra en donde se introducen datos para que sean procesados y luego devueltos como un output o solución que no puede verificarse dada la imposibilidad de conocer las operaciones a las que han sido sometidas las cifras iniciales que le suministramos. No es que tengamos pruebas que justifiquen alguna sombra de desconfianza. O quizás sí, pues sabemos de algunos casos recientes de fraude científico que se han producido por la facilidad para manipular imágenes, incluidas las que se anexan en los artículos como resultado y prueba de algún experimento. Lo que aquí importa es la cuestión de fondo de si podemos usar herramientas científicas que están construidas para que no podamos saber cómo funcionan. El asunto es delicado, pues no cuesta mucho imaginar instalaciones (centrales nucleares, laboratorios científicos o sistemas financieros, por ejemplo) que, siendo estratégicas para la seguridad nacional, deberían ser gestionadas por programas informáticos de código abierto, no sea que el país en donde se redactó el software que los regula se enfade y deje de cedernos las actualizaciones necesarias para el correcto funcionamiento de todos lo procesos. Vemos entonces como soberanía nacional, replicabilidad científica, interoperabilidad tecnológica y código abierto son conceptos de mucha enjundia política que se entrelazan de diversas e intrincadas maneras.

La Ciencia 2.0 tiene que ver entonces con todas las tecnologías que favorecen la cultura de lo abierto y de la participación. Si le agregamos los dígitos 2.0 que aluden, como sucede con los programas informáticos, a la existencia de versiones antiguas, estables y en construcción, es porque queremos reivindicar no sólo el desideratum de una forma de saber siempre en Beta, sino también la viabilidad de una forma de organización desjerarquizada, desnacionalizada, desinteresada, despatronalizada y descorporativizada o, en otros términos, verdaderamente acéfala, cosmopolita, altruista, comunitarista y pública. Usamos el meme (o marca, en el sentido más comercial del término) lanzado por O'Reilly por la provocación que supone conceptualizar la web como algo editable y siempre en construcción por los mismos internáutas. Podríamos hablar, y de hecho se hace, de Biblioteca 2.0[15] , Ciudad 2.0[16] y Futuro 2.0. Lo que estas denominaciones comparten es la voluntad de que converjan todas las tecnologías y prácticas favorables a la horizontalidad, la transparencia, la participación o cualquier otra forma de implicación de los usuarios en su gestión. La ya citada PlosOne, por ejemplo, admite comentarios (como también alertas, etiquetas o enlaces a otros datos, textos o criticas) sin preguntar por la especialidad, cargo, institución o edad del crítico y, al igual que hay estudiantes que son editores de revistas de prestigio o hackers que son excelentes programadores sin pertenecer a ninguna estructura académica, también cabe esperar más de una sorpresa de estos experimentos incipientes.

La ciencia 2.0 seguirá necesitando investigadores, datos, publicaciones y gestores, pero quizás pueda contribuir a evitar las muchas y disparatadas formas de nepotismo, ocultamiento y privatización, por no citar los cada día más frecuentes casos de despilfarro, duplicación o fraude. No estamos refiriéndonos a una utopía inalcanzable, la deriva que está tomando la ciencia, prosperará en la medida en que entren en circulación proyectos y tecnologías que la hagan viable. Ya hemos hablado de la eficacia del broadcasting y del open peer review, ahora vamos a detenernos en el OpenWetWare (OWW, nacido como Endipedia en mayo de 2005)[17], una aventura que promueve un grupo de investigadores del MIT. Quien haya llegado hasta aquí entenderá perfectamente de qué se trata. Consiste en apostar a fondo por la cultura abierta (opennes) y compartir en el ámbito de las biotecnologías ideas, protocolos, datos y prácticas. Quienes sospechen que algo así sólo puede funcionar en un mundo ideal deberían leer las páginas en donde se responde a este tipo de preocupaciones. Y sí, aunque parezca mentira, se argumenta que cuando alguien se apropia de una idea y lo oculta, la mejor solución es cambiar de asunto y a otra cosa, pues para los promotores es más probable que los visitantes incluyan comentarios breves y pertinentes que sirvan de ayuda. Desde la perspectiva del bien común, está claro que estamos ante una muy buena iniciativa pues en el peor de los casos (cuando hay plagio) el conocimiento crece. En los demás, se avanza hacia formas de colaboración amenazadas. Los perjudicados saben que se trata de una apuesta a medio plazo y que siendo wiki la tecnología de intercambio empleada, queda registrado y a la vista el historial de todas las contribuciones, lo que permitirá en todo momento asignar méritos y restablecer la reputación. Hace unos días, el 10 de noviembre de 2006, había 265 usuarios registrados, 29 administradores, 2725 páginas, 15 laboratorios implicados y contaba con unas 1000 visitas diarias. No es mucho para las cifras a las que nos tiene acostumbrados la web, pero nadie sabe todavía si estamos al comienzo de otras de esas iniciativas que introducirán cambios irreversibles.

Los que se apresuran a decir que eso no ocurrirá en ciencia, deben saber que hay mucha gente competente movilizándose para que los cuadernos de laboratorio se hagan públicos o que los papers colectivos se escriban con wiki, desde el brainstorming inicial hasta su envío a un repositorio público o revista. Iniciativas que, huelga decirlo, solo serían plenamente operativas si no se avanzara en la estandarización de los documentos, las bases de datos y los cuadernos de notas. Nada hemos dicho de los laboratorios u observatorios virtuales (web lab frente a wet lab), pero cualquier incursión en la red muestra que se trata de un campo en desarrollo, pues la capacidad de computación (procesamiento, almacenado, simulación y acceso) permite, además de profundizar en la separación de los procesos de producción e interpretación de datos, emancipar los laboratorios virtuales de los que siguen trabajando con materiales orgánicos o inorgánicos. Lo más curioso es que cabe establecer una analogía entre el concepto de digital natives (los jóvenes que viven en la red con la misma o mayor soltura que en el mundo presencial) y el de digital discoveries (descubrimientos que se hicieron en observatorios virtuales y mediante algoritmos capaces de correlacionar los datos de una manera impensable).

Nuestro argumento se acerca al final. Antes, queremos todavía incorporar una referencia a todos esos ciudadanos que participan en proyectos voluntarios de computación distribuida utilizando la tecnología P2P (peer to peer). El más conocido es SETI, orientado a la búsqueda de inteligencia extraterrestre, pero sabemos que hay decenas de iniciativas en marcha en las que la gente cede gratuitamente la capacidad de computación que le sobra en su PC doméstico para ayudar, entre otros muchos asuntos, en la lucha contra el SIDA, el descubrimiento de números primos o la evaluación de diferentes modelos de cambio climático[18]. Por supuesto se trata de proyectos abiertos que están aprovechando de forma inesperada las capacidades de internet y que involucran a millones de usuarios alrededor de objetivos sin fines de lucro. Su popularidad está directamente conectada, como sucede en los colectivos de hackers, a la naturaleza voluntaria, comunitarista, filantrópica, desafiante e internacional.

La política (científica) abierta

Si podemos hablar de innovación, cultura y ciencia abiertas, también podríamos dedicar unos párrafos a explorar lo que se está diciendo sobre la Biblioteca 2.0 (una puerta de acceso a internet en dónde la catalogación, la recomendación y la intertextualidad la hacemos entre todos) o sobre Urbanismo 2.0 (basado en la noción de bien común como una propiedad emergente nacida de la interacción entre redes humanas locales, y no como planificación, infraestructuras y consumo). Las nuevas tecnologías no sólo permiten nuevas formas de gestión de los viejos problemas. Empeñarse en esta visión meramente instrumental de los dispositivos técnicos es cerrarse a la comprensión de lo que está pasando. Cada día es más obvio que la tecnología define la manera en la que la gente se relaciona entre sí, lo que implica que un cambio de tecnología se traduce en un cambio de sociedad. Tecnología y sociedad se coproducen mutuamente. De ahí que el tránsito hacia la sociedad abierta está demandando nuevas formas de hacer política basadas en la gobernanza. No basta con insistir en los viejos consensos republicanos sobre el acceso a la educación, la sanidad y la cultura son insuficientes[19]. Ahora deben ser ampliados con políticas audaces que aseguren nuevos derechos, como los aquí reivindicados de libre acceso a los textos y datos científicos en un entorno tecnológico neutral que garantice la interoperabilidad y haga sostenible el procomún digital. Y sí, hay razones económicas y humanitarias para argumentar esta defensa. No faltan los críticos, incluso Bill Gates se permitió la licencia de llamar nuevos comunistas a quienes defendían modelos abiertos de sociedad y de negocio. Seguramente, no estaba invocando la venida de un nuevo McCarthy, sino simplemente dando cuenta de su incapacidad para adaptarse a los cambios que su propio emporio ayudó a traer. No faltan otros magnates que tratan también de retrasar su adaptación a ciertos tratados o normativas medioambientales y sanitarias (pienso en Kyoto, Reach o la trazabilidad). Pero tendrán que hacerlo si quieren sobrevivir a los cambios. El panorama tecnológico y jurídico se ha modificado extraordinariamente.

El cultural tampoco le va a la zaga. La gente cuenta con muchas fuentes de información accesibles. Las ferias, las exposiciones, los ciclos, los premios y demás formas tradicionales de comunicación entre los científicos y los ciudadanos, no podrán competir con las que están aprovechando mejor los nuevos recursos disponibles. No es que deban desaparecer, sino que tendrán que adaptarse y aceptar su complementariedad. La cultura científica 2.0 tiene por delante retos difíciles. El primero es renunciar a la imagen de una ciencia triunfante alzándose sobre la superstición y los prejuicios. Los científicos, lo sabemos, no son capaces de andar por encima de las aguas del Tiberiades. Los expertos que siempre fueron convocados para aportar soluciones no saben estar al margen o fuera del problema, sino que son parte de él. Muchos experimentos, por otra parte, dejaron de ser asunto de laboratorio y, con frecuencia, tienen alcance planetario. La extensión de los cultivos con organismos genéticamente modificados o la proliferación de sustancias químicas no controladas que hay en la alimentación, el vestido, la cosmética o la vivienda, junto al deterioro de la biodiversidad, la destrucción de los acuíferos y la degradación del paisaje, por no hablar de las ondas electromagnéticas, el tratamiento de los residuos o de la alimentación animal, conforman en su conjunto un escenario que no puede ser gestionado alrededor de una mesa camilla (como hubieran querido los plutócatras del siglo XIX), ni tampoco con debates televisados (como pensaban los Kennedy). No es que sobre información. Lo que falta es compromiso, es decir, nuevas formas de reescribir el contrato social. Y, en fin, sin las nuevas tecnologías será difícil que la política se reencuentre con la ciudadanía. Si llegara a ocurrir, si los científicos no logran abandonar el gesto arrogante que a veces adoptan, si no aciertan a expresar sus dudas en público, si renuncian a participar en los debates abiertos por miedo a arruinar su carrera o a perder el favor del gobierno, si siguen afanados en sus interminables guerras contra cualquier otra forma de racionalidad, les espera un destino como quinto poder y perderán el aura que todavía tenían sus maestros. Y, según las encuestas, no tendrán que esperar mucho tiempo para comprobarlo.

Lo políticos también tienen un tarea por delante para combatir los excesos de la cultura de la planificación y del espectáculo. Con demasiada frecuencia caen en manos de expertos en comunicación, lo que desgraciadamente suele producir demasiada farfolla cara. La programación, por otra parte, tiende a ser demasiado vertical y suele construirse sobre la base de consensos nacidos del interior de un comité de expertos. Y, la verdad, los usuarios no encuentran la forma de influir en el diseño de las prioridades, los criterios de evaluación o las cláusulas de la convocatoria. Hace unos años era imposible habilitar formas de interactuar con el conjunto de la comunidad científica, pero hoy es incomprensible que no se intente. Y si todavía queda alguien que quiera seguir explorando las posibilidades de un nuevo contrato social por la ciencia, nunca tuvo más fácil sondear lo que quiere la gente, escuchar la opinión de los ciudadanos e involucrar a los usuarios en el diseño de las políticas. Aunque sea imparable la decadencia del modelo de la ciencia triunfante, todavía quedan muchas ocasiones para ponerla al servicio de la ciudadanía y todas pasan por distanciarse de las políticas de predicación en tierra de legos para avanzar en las que confían en la coproducción abierta del mundo que queremos vivir.


[1]Mchael Callon, P. Lascoumes, Y. Barthe, Agir dans un monde incertain. Essai sur la démocratie technique, Paris: Seuil, 2001. Sheila Jasanoff, de., States of Knowledge. The co-production of science and social order, Londres: Routledge, 2004. También Philipe Roqueplo, Entre savoir et décision, l'expertise scientifique, Paris: INRA Editions, 1997. Melissa Leach, Ian Scones & Brian Wynne, eds., Science and Citizens, New York: Zed Books, 1988.

[2]La historia está contada en Open Source Science: A New Model for Innovation,una entrevista de Martha Lagace a Karim Lakhani publicada en Harvard Business School Working Knowledge November 20, 2006), On-line, hbswk.hbs.edu/cgi-bin/print. Ver también, Joseph Feller, Brian Fitzgerald, Scott A. Hissam and Karim R. Lakhani, eds., Perspectives on Free and Open Source Software, Cambridge/Boston: The MIT Press, 2005 (on-line: mitpress.mit.edu/catalog/item/default.asp?ttype=2&tid=10477&mode=toc )

[3]Entre la numerosa literatura circulante, reconozco mi debilidad por la obra Bruno Latour y, sobre la ANT, su, Reassembling the Social. An Introduction to Actor-Network-Theory, Oxford: Oxford University Press, 2005. Por otra parte es imposible no citar a John Law y la página que mantiene en la University of Lancaster. Hay abundante bibliografía accesible en:
www.lancs.ac.uk/fass/centres/css/ant/index.html

[4]Susan L. Star, & James R. Griesemer. Institutional ecology, "translations" and boundary objects: Amateurs and professionals in Berkeley's Museum of Vertebrate Zoology, 1907-39. Social Studies of Science, 19: 387-420, 1989. También Geoffrey C. Bowker & Susan L. Star, Sorting things out: classification and its consequences,Cambridge, Mass., MIT Press, 2000.

[5]Dava Sobel, Longitud, Barcelona: Crítica, 1997.

[6]Tim O'Reilly, "What is Web 2.0? Desiegn Patters and Business Models for the Next Generation of Sofware", (09/30/2005), on-line:
www.oreillynet.com/pub/a/oreilly/tim/news/2005/09/30/what-is-web-20.html.
Hay traducción al castellamo en CamalPDA, www.canalpda.com/Sections-index-req-viewarticle-artid-8-page-1.html . Entre lo mucho publicado es particularmente recomendable el artículo de José Luis de Vicente, "Inteligencia colectiva en la Web 2.0" (22/09/2005), publicado en Elástico, elastico.net/archives/005717.html

[7]Jim Giles, "Internet encyvlopaedias go head to head", Nature, 438: 900-901 (15/12/2005), 10.1038/438900a

[8]Jack Woodall, Bird Flu Madness, The Scientist, 20 (10): 63, 2006.

[9]Ver el último informe del observatorio de la red Pew Internet, "The Internet as a Resource for News and Information about Science" (20/11/2006), on-line:
www.pewinternet.org/PPF/r/191/report_display.asp

[10]Ver un resumen actual de la cuestión en Antonio Lafuente, "Crisis del peer review", blog: tecnocidanos (04/10/2006),
weblogs.madrimasd.org/tecnocidanos/archive/2006/10/04/44712.aspx . Ver también David Shatz, Peer Review: A Critical Inquiry, (Rowman & Littlefield Publishers, 2004. Ver también, A. Piolat & L Vauclair, Le Processus diexpertise éditoriale avant et avec Internet", Pratiques psychologiques, 10: 255-272, 2004.

[11]Antonio Lafuente, "Open Access y Bien Común", on line:
www.madrimasd.org/cienciaysociedad/debates-actualidad/historico/default.asp?pagina=informacion&idforo=GlobalIDI-13

[12]Berlin Declaration on Open Access to Knowledge in the Sciences and Humanities (octubre, 2003), oa.mpg.de/openaccess-berlin/berlindeclaration.html

[13]D.J. Cook, Guyatt, G.H., G. Ryan, et al., "Should unpublished data be included in meta-analyses? Current convictions and controversies.", PMID: 8492400 [PubMed - indexed for MEDLINE],
www.ncbi.nlm.nih.gov/entrez/query.fcgi?cmd=Retrieve&db=PubMed&list_uids=8492400&dopt=Abstract
Hemos consultado un PPT anónimo excelente y que recomendamos:
www.arl.org/scomm/disciplines/Lesk.html
Ver también una nota de prensa del Hospital General de Massachussetts sobre el particular, "Studies examine withholding of scientific data among researchers, trainees. Relationships with industry, competitive environments associated with research secrecy" (25/01/2006), www.massgeneral.org/news/releases/012506campbell.html; también en el blog petermr The cost of decaying scientific data.

[14]Ian Foster, "Service-Oriented Science", Science 308: 814-817, 2005; on line: lookingtosea.ucsd.edu/library/ServiceOrientedScience-Foster200505.pdf/view

[15]Paul Miller, "Web 2.0: Building the New Library", Ariadne, 45, 30/10/2005, on-line: www.ariadne.ac.uk/issue45/miller/

[16]Juan Freire, "Urbanismo y política local 2.0: Alternativas para el gobierno de las ciudades", en Construcción de ciudad Soluciones Urbanas 2005, on- line, Urbanismo_Politicas_locales (Arquitectos_178_2_06).pdf

[17]Por supuesto la iniciativa nace en/para la web, ver openwetware.org/wiki/Main_Page

[18]David Anderson, D. Werthimer, J. Cobo, et al., SETI@Home: Internet Distribuited Computing for SETI_, on-line:http://adsabs.harvard.edu/abs/2000ASPC..213..511A. Michael Shirts and Vijay S. Pande, Screen Savers of the World Unite!", Science, 290 (5498): 1903-1904, 2000, on-line: cacs.usc.edu/education/cs653/Shirts-GridAD-Science00.pdf. Albert A. Harrison, Steven J. Dick, Ben Finney et al., "The Role of the Social Sciences in SETI", ; Elmar Krieger & Gert Vriend, "Models@Home: distribuited computing in bioinformatics using a screensaver based approach, Bioinformatics (2001), on-line:
bioinformatics.oxfordjournals.org/cgi/content/abstract/18/2/315

[19]Patrick Petitjean, "La critique des sciences en France", Alliage, numéro 35-36, 1998, www.tribunes.com/tribune/alliage/35-36/06petit.htm. Ver también, Jean-Marc Lévy-Leblond, "Le paradoxe démocratique", Le Courrier de l'environnement n°31, agosto, 1997; on-line: www.inra.fr/Internet/Produits/dpenv/levylc31.htm.