Ensayos



Odón de Buen: Toda una vida

AUTOR  | Calvo Roy, Antonio. Ediciones 94/Diputación Provincial de Zaragoza/Ayuntamiento de Zuera. ISBN 978-84-88921-74-1; 277 páginas.

UN MAGNÍFICO ENSAYO HISTÓRICO DEL FUNDADOR DEL INSTITUTO ESPAÑOL DE OCEANOGRAFÍA
Reseña realizada por Javier Puerto
Catedrático UCM
De la Real Academia de la Historia. De la Real Academia Nacional de Farmacia.

   La Historia de la Ciencia española es, todavía, una cuestión pendiente de la Cultura y la Historia en España. Aunque en la actualidad los científicos tienen una relativamente mayor presencia en los medios de comunicación, no se considera necesario, para ser una persona culta, el conocer qué científicos españoles descubrieron elementos químicos, o quiénes intervinieron en expediciones científicas en los siglos XVI y XVIII y mucho menos, cómo ha sido la práctica científica en España a lo largo de los siglos, de manera tal que aparece siempre como una actividad pendiente de un hilo y surgida de la nada institucional, como las setas tras las lluvias de Otoño.
    Los interesados en la Historia de la Ciencia española saben de lo falso de esa interpretación. Con mayores o menores medios, el Estado se ha ocupado siempre de la actividad científica. El gran fallo, en nuestro suelo, ha sido la discontinuidad en los esfuerzos y la falta de contacto entre las comunidades científicas y los financieros, con lo cual la revolución industrial o no se ha producido, o se ha hecho con mucho retraso o mediante importaciones tecnológicas masivas.
   En éste contexto social, en donde si se pregunta a un ciudadano medio por el nombre de un científico no contemporáneo acaso recordará a Santiago Ramón y Cajal, por su Premio Nobel y, en pocas ocasiones a Severo Ochoa, quien consiguió la misma condecoración para la Ciencia practicada en USA, no es de extrañar el olvido de Odón de Buen (Zuera, 1863-México, 1945), incrementado por el manto de silencio impuesto durante la Dictadura franquista a quienes habían perdido la contienda, agravado, en éste caso, por un cierto carácter demoníaco con el que el nacional-catolicismo quiso adornar a la figura del profesor.
   Es necesario aclarar, en cualquier lugar, que el silencio se agravó por su condición político religiosa, pero el desconocimiento pesa, en casi idéntica medida, sobre otros científicos destacados de su época, de ideología muy distinta.
   Don Odón fue un hombre de procedencia modesta, gran inteligencia y enorme esfuerzo, como otros de su generación o posteriores, tales como José Rodríguez Carracido o José Giral. Empeñado en el estudio de las Ciencias Naturales, en un país con una larga tradición en ese área, pero con tan escasa institucionalización y profesionalización de los expertos que, o eran nobles, o sacerdotes, o militares o boticarios; de Buen optó por la enseñanza universitaria. Catedrático en Barcelona empezó a tener problemas con la jerarquía religiosa por la defensa del darwinismo expuesta en sus textos, por sus opiniones librepensadoras y laicas, cercanas a la Escuela Moderna de Ferrer Guardia y a una cierta forma de anarquismo ideológico del que se apartó en sus componentes violentos. 
   Sus textos, en su totalidad, los incluyeron en el Índice y, a causa del Concordato con la Santa Sede, se le intentó apartar de la docencia, frente al apoyo de sus alumnos, en una situación que hoy parece chusca por el cambio de actitud de los elementos en conflicto, pero forma parte de la larga confrontación para obtener la libertad de cátedra en nuestro suelo y le valió a Don Odón una fama que luego le perseguiría, dramáticamente a él y a su familia, durante toda la vida.
   En Madrid fue el creador del Instituto Español de Oceanografía, cuyo precursor fue González Linares y en él, en su sección de Química marina, encontró trabajo José Giral cuando dejó su cátedra de Química Orgánica de Salamanca. Ese Instituto, con él al frente, alcanzó el máximo prestigio internacional y comenzó una serie de estudios científicos sobre el mar y su fauna que hoy serían altamente valorados, en su metodología, en la utilización de buques y tecnología científica, en sus resultados y en su proyección internacional.
   De Buen colaboró con la Dictadura de Primo de Rivera, de quien era amigo, desde la Dirección General de Pesca. Llegada la República, el antiguo republicano y masón vio como sus amigos y discípulos, entre ellos Giral, entonces Ministro de Marina, le mantuvieron al frente del Instituto pero encuadrado en la nueva Subsecretaria de Marina Mercante. Él es uno de los pocos republicanos que se atrevió a criticar los excesos en el amiguismo, nepotismo y ambiente clientelar existente en algunas de las reformas republicanas, aunque con prudencia y achacándolas a desconocimiento de sus amigos responsables.
   La guerra civil le cogió, ya jubilado, en Mallorca. Su fama de masón, republicano, laico o ateo, su fama sulfúrea, hizo que le encarcelaran durante un largo periodo de tiempo. Le salvó de males mayores su prestigio científico en España y en Europa y la intervención de sus amigos científicos del resto del mundo. Al final fue canjeado por la única hermana viva, que permanecía en territorio republicano, de José Antonio Primo de Rivera. El encargado de los canjes era el Ministro José Giral.
   La guerra, sin embargo, le pasó otra cuenta imposible de superar. Su hijo Sadi de Buen, médico y afiliado al PSOE, fue uno de los luchadores infatigables contra el paludismo, bajo la dirección de Gustavo Pittaluga. Él se encargó de introducir la Gambussia, un pez que se comía las larvas del mosquito Anopheles transmisor de la enfermedad, inaugurando así un método de control biológico de la misma, gracias al cual, entre otros, el paludismo hoy en España no es casi ni un recuerdo. Cuando se sufrió el golpe de Estado franquista, fue detenido en Córdoba y, al contrario que a su padre, los sublevados no respetaron su vida y lo fusilaron. Su asesinato resulta tan incomprensible, dentro de lo incomprensibles que lo son todos, como el de García Lorca y causó tanto revuelo y escándalo como el del poeta en la prensa internacional, aunque hoy en día es uno más de los muchísimos sucedidos. Similares a él fueron los de Muñoz Seca, a cargo de elementos republicanos y el terrible del Doctor Peset en Valencia, éste ya cuando las armas habían callado sus voces y pese a las peticiones de clemencia de la inmensa mayoría de las fuerzas políticas y sociales valencianas. Asesinatos que ejemplifican, por su visibilidad, la barbarie desatada contra personas no sólo inocentes, sino ejemplares, en uno y otro bando.   
Don Odón nunca se recuperó del golpe. Se exilió en Francia tras la guerra civil y, a la muerte de su esposa, le hubieron de trasladar a México, con los alemanes a punto de ocupar la zona de Vichy, otra vez Giral que ocupaba un puesto destacado en la JARE. Allí recibió su último homenaje, de la boca del mismo personaje y un recuerdo emocionado de la memoria de su hijo Sadi, falleciendo al poco tiempo.
   Odón era un buen científico, reconocido internacionalmente, un gran organizador científico y un hombre libre y liberal, de creencias políticas republicanas y militancia masónica. El Instituto Español de Oceanografía siguió y sigue funcionando con un alto grado de excelencia, pero su figura fue hurtada al conocimiento público hasta fechas recientes.
De su memoria se ocupó su pueblo natal de Zuera (Zaragoza) y algunos historiadores de la Ciencia.
   Antonio Calvo Roy, periodista científico, en la actualidad Presidente de la Asociación Española de Comunicación Científica, que se había adentrado con anterioridad por los caminos de la Historia de la Ciencia, nos presenta ahora un magnífico ensayo histórico en donde lo narrado a vuela pluma por mí se estudia en profundidad. Para ello ha tenido la suerte de contar con las conocidas memorias de Don Odón, pero lejos de contentarse con ellas ha efectuado una intensa investigación en la prensa de la época y en los archivos especializados, con lo cual nos ofrece un libro extenso, bien documentado y redactado, editado con esmero en la tipografía y en las ilustraciones, para el que ha contado con la ayuda de la Diputación de Zaragoza y del Ayuntamiento de Zuera.
   El mencionado libro viene a ocupar una importante laguna de la historiografía española, no sólo la científica, y le auguro y deseo un buen transcurrir en la vida intelectual y una gran difusión, por su fácil lectura, por lo interesante de la vida expuesta, por la intensidad en el trato del biografiado y porque el personaje merece ser conocido, respetado y admirado.


Un mundo feliz

AUTOR  | Huxley, Aldous, edición y traducción de Jesús Isaías Gómez López. Letras Populares, Cátedra, Madrid, 2013, 493 pp. ISBN 978-84-376-3137-0. (Brave New World, 1932.)

EL EXPERIMENTO DE CHIPRE

Descendiente de una tradición de agnosticismo (su abuelo, Thomas Huxley, acuñaría la palabra agnostic en 1869) y de la tensión entre cultura y anarquía que Matthew Arnold (tío de su madre) creía irresoluble, y autor de una vasta obra en prosa y en verso que recorre prácticamente todos los géneros literarios, Aldous Huxley (1894-1963) parece condenado a ser leído únicamente como el visionario creador de Un mundo feliz, como se conoce en español su novela Brave New World, publicada en 1932 y de la que Huxley daría, en 1958, una explicación mucho más sencilla que las sofisticadas interpretaciones que se han dado de su utopía o 'distopía', una palabra que la Academia española no ha incluido aún en el diccionario y que tal vez resulte redundante: el sentido de 'utopía', desde que Thomas More titulara así su célebre obra en 1516, ya es 'distópico'. En el último capítulo de Brave New World Revisited, Huxley hablaría, sencillamente, de la posibilidad de ser educados para la libertad. Un mundo feliz es, en lo esencial, una reacción personal del autor contra la educación familiar que había recibido y que, bajo el barniz de la alta cultura etoniana, escondía una desesperanza incurable. No es una casualidad que, en la conversación final entre el controlador Mustapha Mond y John el Salvaje, Huxley mencione al cardenal Newman, cuya conversión al catolicismo había sido una advertencia contra la extraña inconsecuencia de los Huxley y los Arnold. La marcha de Huxley a los Estados Unidos, su experimentación con la 'psicodelia' (que la Academia admitirá en la nueva edición del diccionario) y la búsqueda de la salvación en los textos sagrados del Oriente tienen que ver con esa reacción y adquieren, retrospectivamente, un valor de lectura para Un mundo feliz. Sin embargo, Huxley no lograría desprenderse nunca de la superstición o del fetichismo de la literatura. El uso de Shakespeare en Un mundo feliz, desde el título mismo de la obra en el original, tomado de La tempestad, es, probablemente, una de las críticas literarias más poderosas que se hayan escrito nunca. La risa de Helmholtz al oír los versos de Romeo y Julieta o la confesión de Mond de haber leído a Shakespeare no resultan más patéticas que el esfuerzo inútil de John por encontrar una cita para cada circunstancia. El Salvaje no puede desembarazarse de Dios porque no puede librarse de la gramática shakespeareana, que no le acerca más a la realidad de lo que el soma aleja de ella a los ciudadanos de Un mundo feliz, 'a salvo de los libros' y contentos con el 'sensocine' (véanse las páginas 224 y 363).

Esta nueva traducción, que respeta escrupulosamente el original -aunque limitada por la inamovilidad que han adquirido algunos términos y pasajes, desde la traducción misma del título- y está acompañada de una extensa introducción, forma parte de una colección marcada por la 'distopía': Un mundo feliz sigue a Nosotros de Zamiátin, Dudo Errante de Russell Hoban, Paz en la tierra de Stanisław Lem o Las puertas de bronce de Raymond Chandler, entre otros autores (dos de ellos cultivadores del género fantástico en español: Pilar Pedraza y José María Merino). La tradición utópica se remonta hasta Platón, pero Huxley intuyó con acierto que ἀτοπία era una referencia ad hominem más que una descripción topográfica. Esa atopía socrática es lo que caracteriza el conocimiento que Helmholtz y Bernard Marx tienen en la novela de ser 'individuos' (p. 267).

Leída en 2013, casi cien años después de haber sido escrita, Un mundo feliz invita al equívoco juego de las premoniciones. Dos de ellas -la referencia a las Malvinas y 'el experimento de Chipre'- podrían servir como ejemplo de anticipación. Las Malvinas y Chipre son, como la Utopía de More, islas, y La isla sería el título de la última obra de Huxley. El "experimento de Chipre" merece ser citado por completo: "Todo comenzó en el año 473 de Nuestro Ford. Los controladores hicieron evacuar a todos los habitantes de la isla de Chipre y la recolonizaron con una hornada especialmente preparada de veintidós mil Alfas. Se les entregó todo tipo de herramientas industriales y aperos de labranza y se les dejó que se las arreglaran ellos mismos. El resultado cumplió exactamente todas las previsiones teóricas. La tierra no fue labrada adecuadamente; había huelgas en todas las fábricas; las leyes no se cumplían, las órdenes no se obedecían; las personas destinadas a trabajos inferiores estaban inmersas en continuas intrigas para conseguir los empleos de mayor rango y todos los que ocupaban esos importantes cargos conspiraban para mantenerse en el puesto a cualquier precio. En menos de seis años ya tuvieron una guerra civil de primer orden. Cuando ya habían muerto diecinueve mil de los veintidós mil, los supervivientes solicitaron unánimemente a los controladores mundiales que asumieran el gobierno de la isla, cosa que hicieron. Y ese fue el fin de la única sociedad de Alfas que una vez viera el mundo" (p. 425).
La traducción del 'experimento de Chipre' sería más o menos así: privado progresivamente de la educación para la libertad, el Estado del Bienestar, como la 'sociedad de Alfas' o la 'ciudad de los cerdos' platónica, prefirió la servidumbre. ¿Son Helmholtz y Bernard Marx -exiliados en las Malvinas- la única esperanza de un mundo infeliz?

Reseña realizada por Antonio Lastra
Instituto Franklin de Investigación en Estudios Norteamericanos
Universidad de Alcalá


El fin del envejecimiento. Los avances que podrían revertir el envejecimiento humano durante nuestra vida

AUTOR  | De Grey, Aubrey y Rae, Michael. Lola Books, 2013. 489 páginas.

¿ES POSIBLE UN MUNDO SIN EDAD?
Reseña realizada por José Luis Fernández Nuevo
Fundación General CSIC

La comunidad científica que estudia la biología del envejecimiento está de acuerdo en que los avances en gerontología podrían retardar los procesos de envejecimiento y aumentar sustancialmente nuestra edad media con un aumento claro de la calidad de vida. En este sentido el Dr. Aubrey de Grey, afamado gerontólogo inglés especializado en terapias de prolongación de la salud y la longevidad, es quizás uno de los investigadores más optimistas en este campo.

En su nuevo libro publicado y traducido al español por la editorial lolabooks, titulado El fin del envejecimiento. Los avances que podrían revertir el envejecimiento humano durante nuestra vida, los autores el Dr. Aubrey de Grey y su asistente de investigación Michael Rae exponen el concepto del envejecimiento biológico del cuerpo humano como resultado de la acumulación de varios tipos de daños y lo comparan con el envejecimiento que se produce en las máquinas diseñadas por el hombre, las cuales pueden ser reparadas periódicamente, lo que podría llevar a la prórroga indefinida de la vida útil de estas máquinas, tal como se hace por ejemplo en los coches clásicos.

Los autores conjeturansobre cómo la sociedad actual podría conceptuar el envejecimiento como una enfermedad o una pandemia y no como una consecuencia lógica del paso del tiempo, permitiendo a la ciencia actual, con pequeños avances en el conocimiento, aumentar la longevidad y evitar la muerte por vejez. En este libro se hace una recopilación y evaluación del estado de la ciencia sobre conocimientos actuales en la biología del envejecimiento y se describen lo que los autores consideran como siete obstáculos fundamentales o retos, que nos separan de conseguir la meta soñada para el tratamiento preventivo contra el envejecimiento y porqué esta puede ser una meta realista. Las siete líneas de investigación que se describen son:

  • Mutaciones en el ADN mitocondrial y el efecto de los radicales libres.
  • Los efectos de los agregados intracelulares y la acumulación de moléculas no digeribles en los lisosomas, vesículas intracelulares para digerir los desechos metabólicos.
  • Agregados extracelulares que se acumulan fuera de las células y tejidos, formando redes de proteínas dañadas (amiloides), perjudicando su funcionamiento y contribuyendo al envejecimiento. Se mencionan varios ejemplos, como son los casos de la beta amiloide en la enfermedad de Alzheimer o la transtiretinacuya función es transportar las hormonas tiroideas en sangre, siendo responsable de la amiloidosis cardiaca senil, etc.
  • Modificación postraduccional permanente de las proteínas por la glucosa (Glicación) que deterioran la elasticidad de los tejidos y provocan el endurecimiento de las artérias y del corazón, de los pequeños vasos sanguíneos de los ojos produciendo las famosas cataratas o deteriorando las bandas de mielina del sistema nervioso, etc.
  • Acumulación de células resistentes a las señales de la apoptosis, produciéndose un acúmulo de células dañadas y tóxicas para el organismo(llamadas por los autores “células zombis”)que da lugar además, a efectos supresores sobre otras células sanas. Como son el declive del sistema inmunológico durante el envejecimiento como consecuencia, por ejemplo de infecciones víricas latentes (herpes, varicela zoster, citomegalovirus, etc), los casos de aumento del tejido adiposo como precursor de señales de inflamación sistémica y resistencia a la insulina, etc. o como el caso de la senescencia celular produciendo la pérdida de capacidad de las células para regenerarse y emitir señales que favorecen la proliferación de células cancerígenas.
  • Pérdida celular asociada al envejecimiento y el uso de células madre embrionarias (CMEs) para el saneado y el mantenimiento de los tejidos. En este sentido los autores describen el uso experimental de CMEs para enfermedades como Parkinson, problemas en el timo, daños por ataque cardiaco, etc.
  • Mutaciones cromosómicas que pueden desarrollar cáncer. En una curiosa vuelta de tuerca a la teoría de las mutaciones nucleares, los autores plantean que no es necesario preocuparse por la influencia de las mutaciones de ADN nuclear sobre los procesos de envejecimiento, ya que incluso aquellas mutaciones realmente dañinas, el daño que infringen está en su mayor parte concentrado sólo en unas pocas células de modo que cualquier hueco que genere su mal funcionamiento puede ser cubierto por otras células adyacentes. Aun así, los autores manejan una excepción a esta regla: el cáncer. Por tanto según sus teorías, se puede sencillamente ignorar las mutaciones cromosómicas, "si y solo si", se encuentra una forma verdaderamente efectiva de proteger ante esta enfermedad letal. El Dr. de Grey propone una terapia sorprendente denominada WILT (Interdicción del alargamiento de los telómeros en todo el organismo) en el que se busca un doble objetivo, eliminar la telomerasa de todas las células y remplazar con células madre reprogramadas. Esto conllevaría tratamientos al estilo del mantenimiento de los coches, intervenciones "cada 15.000 Km".

Ante estos siete retos el Dr. de Grey plantea un enfoque llamado Strategiesfor Engineered Negligible Sensescence (SENS) o estrategias para la ingeniería de un envejecimiento nulo como un plan integral para vencer al envejecimiento, que se apoya en estudios avalados por las ramas más vanguardistas de la biomedicina y que reduce solamente a siete, las clases de daño con los que la ciencia debería lidiar para obtener tecnologías y terapias médicas concretas para conseguir evitar la muerte por vejez. Este plan, según los autores, diseña una estrategia no convencional en la que se centra no en el daño real que el organismo acumula al envejecer, sino en los procesos metabólicos que causan la acumulación de dicho daño. Por tanto este enfoque plantea que no es necesario repara todas las formas posibles de daño a la vez causadas por el envejecimiento, sino tratar previamente los siete factores que más contribuyen a la fragilidad del envejecimiento dentro de lo que es la esperanza de vida actual.

Como un objetivo añadido, los autores parecen también buscar estímulos para que las investigaciones específicas en técnicas que aumenten la longevidad sean más apoyadas y se insta al lector a tomar un interés activo. Como se cuenta en el último capítulo del libro (Bonos de guerra para la campaña contra el envejecimiento), el Dr. de Grey, junto con otros colegas fundó en 2003 el Premio del Ratón Matusalén (Methuselah Mouse Prize o MPrize), dotado con tres millones de dólares para el científico que demuestre la viabilidad de alguna terapia regenerativa en ratones. Su razonamiento es que, una vez el objetivo se logre en roedores, se abrirán las arcas públicas y privadas para financiar estas investigaciones y esto podría acelerará exponencialmente la consecución de más resultados.

En lo referente a la estructura del libro este se divide en tres secciones diferenciadas. La parte I explica por qué el rejuvenecimiento es factible y urgente, mientras que la parte III se refiere a las estrategias tanto políticas como financieras para alcanzar los objetivos de SENS.

La parte II es el núcleo científico de la obra(más del 60% del libro), con un capítulo dedicado a cada una de las siete estrategias de SENS. El Dr. de Grey y Mr. Rae han hecho un trabajo exhaustivo de recopilación y ensamblaje del conocimiento científico generado en referencia a las investigaciones sobre la biología del envejecimiento en un libro de cerca de 500 páginas. Incluso aquellos que no están interesados en el rejuvenecimiento pueden aprender mucho de la biología molecular mediante un formato de explicaciones coloquiales. Los autores han realizado un esfuerzo de imaginación para encontrar ejemplos cotidianos y analogías que simplifican en gran medida una ciencia muy compleja.

Aunque no estuviéramos de acuerdo en algunos de los argumentos que esgrimen los autores, al menos realiza reflexiones sorprendentes y curiosas fuera de la convencionalidad científica. Y si el libro deja insistentes preguntas sin respuesta, también plantea nuevas cuestiones apremiantes sobre lo que es posible, con el tiempo y la imaginación suficiente.


Exoplanetas.

AUTOR  | Giménez Cañete, Álvaro. CSIC- Libros de la Catarata. Madrid, 2012. 136 páginas.

OTROS MUNDOS
Reseña realizada por Luis Cuesta Crespo
Jefe de la Unidad de Cultura Científica del Centro de Astrobiología (CSIC-INTA)

En la historia del pensamiento hay preguntas que se repiten continuamente. Muchas de ellas están relacionadas con la vida y, entre ellas, destaca la de saber si la Tierra es el único planeta con vida en el Universo. Antes de 1995 ni siquiera se podía estar seguro de que hubiese otros planetas aparte de los del Sistema Solar pues no se habían podido observar. Por eso, el descubrimiento del primer exoplaneta por Michel Mayor y Didider Queloz marcó un hito en esta historia difícil de igualar hasta que llegue el ansiado momento del anuncio de la identificación de vida en otro mundo. Después de ese descubrimiento, unas siglas en apariencia tan crípticas como 51 Peg b, el nombre del recién encontrado exoplaneta, se convirtieron en algo bastante conocido, lo que da idea de la importancia que tuvo en la sociedad. Al igual que sucedió cuando Copernico o Galileo destronaron a la Tierra del centro del Universo, 51 Peg supuso un nuevo cambio de paradigma al confirmar que el Sistema Solar no era único en el Universo.

Aparte de marcar este hito, Mayor y Queloz nos lanzaron a una carrera de descubrimientos de nuevos exoplanetas. Desde entonces se han encontrado varios cientos de exoplanetas (actualmente más de 800 pero la lista crece casi cada día) con tamaños muy variables, desde los llamados súper-Júpiter o Júpiter calientes hasta las súper-Tierras. El final de esta carrera es la identificación de un planeta similar a la Tierra, alrededor de una estrella como el Sol y en lo que llamamos la zona de habitabilidad (la región de distancias a la estrella donde el agua estaría líquida).v En ciencia, y mucho más en Astrofísica que no podemos "tocar el experimento", la existencia de varios ejemplos entre los que identificar semejanzas y diferencias e interpretar sus causas supone una gran ayuda a la hora de realizar un estudio. Por tanto, esta en apariencia alocada carrera sirve para completar un panorama que nos ayude a entender cómo se formó nuestro propio Sistema Solar y que proporcione un marco en el que situar la gran variedad de posibles planetas.

La observación de la atmósfera de un exoplaneta es ya un hecho. La técnica consiste en comparar la luz que nos llega de la estrella cuando en exoplaneta transita por delante y cuando no lo hace. La diferencia es debida a la traza de la atmósfera del exoplaneta. Así se ha podido identificar hidrógeno (algo bastante evidente para un exoplaneta parecido a Júpiter), sodio y oxígeno. Pero aún se está muy lejos de poder analizar en detalle está atmósferas y, por tanto, de estar en condiciones de identificar indicios de vida (si es que sabemos cuáles son) en ellas.

Claramente éste es un problema de la ciencia que capta la atención de la sociedad por sus implicaciones por lo que presentar un libro sobre exoplanetas viene a cubrir una demanda de conocimiento sobre el tema y Álvaro Giménez el investigador más indicado para escribirlo. Él es un investigador que ha trabajado extensamente en este tema y en muchos otros relacionados con la Astrobiología.

A lo largo de sus páginas, en este libro aprendemos sobre exoplanetas pero, a la vez, aprendemos historia y astrofísica. Pero lo que más destaca es la manera de explicar astrofísica aprovechando la excusa de hablar de exoplanetas. Cada vez que se introduce un nuevo concepto para entender algo más sobre los exoplanetas el autor explica con sencillez el trasfondo físico y la conexión astrofísica que tiene.

Álvaro Giménez dedica el primer cuarto del libro a hacer un completo paseo por la historia del pensamiento filosófico y científico relacionado con los planetas y nuestro Sistema Solar y la concepción de otros mundos desde los primeros mitos hasta ahora. Es un repaso exhaustivo, ordenado y bien explicado de lo que significaba para cada civilización y cada época la concepción del Universo. Aprendemos en estas primeras páginas que la idea de la existencia de otros mundos, en otros planetas, ya había sido tratada por los griegos.

En la segunda parte se explica cómo se detectan los exoplanetas. Es un riguroso recorrido por los diferentes métodos que permiten identificar estos planetas alrededor de sus estrellas. Hay mucho y con muy diferentes requerimientos técnicos. Unos ya están desarrollados y aportan gran cantidad de nuevos exoplanetas, como el de la velocidad radial o el de tránsitos, y otros están por desarrollar y precisan de un mayor avance tanto en la instrumentación y las técnicas de observación como en el análisis de los datos.

Los nuevos exoplanetas descubiertos son muy variados en tamaños, masas y distancias a sus estrellas centrales. Hay mundos gigantescos, de varias veces el tamaño de Júpiter, con asfixiantes temperaturas por estar muy cerca de sus estrellas, pero también hay planetas más fríos y de tamaño moderado. Poco a poco se empiezan a encontrar, al ritmo en que avanzan las técnicas de observación, exoplanetas cada vez más parecidos a la Tierra en tamaño y distancia a su estrella. Esta cuestión de las características de los exoplanetas es tratada en el tercer capítulo.

Finalmente, el cuarto y último capitulo de este interesante libro se adentra en la posibilidad de la presencia de vida en estos extraños mundos pero sin perder de vista el origen de la Vida en la Tierra y los diferentes posibles escenarios en los que ésta surgió. En este contexto aparecen términos como habitabilidad, CHNOPS (los elementos químicos que fundamentalmente conforman la Vida), química prebiótica, ARN o ADN o atmósferas planetarias.

En definitiva, un libro imprescindible para entender la importancia de la existencia de Otros Mundos y saber mucho más sobre astrofísica.


17 ecuaciones que cambiaron el mundo.

AUTOR  | Stewart, Ian. Editorial Crítica. Barcelona, 2013. 432 Páginas.

DE LA IMPORTANCIA DE LAS ECUACIONES Y SUS APLICACIONES EN LA VIDA COTIDIANA
Reseña realizada por Manuel de León y Ágata A. Timón
CSIC. Instituto de Ciencias Matemáticas (ICMAT)

Esta nueva obra de divulgación el autor inglés Ian Stewart muestra al lector no iniciado en la importancia de las ecuaciones matemáticas para la ciencia y la tecnología, y como ejemplo escoge 17 de las más relevantes a lo largo de la historia: el Teorema de Pitágoras, la relación entre el logaritmo de dos números y de su producto, la fórmula que define la derivada de una función con respecto al tiempo, la Ley de la gravitación universal, la Fórmula de Euler para los poliedros… y así hasta sumar 17. Dedica a cada una de ellas un capítulo, en el que presenta la historia de su creación, la importancia que tuvieron dentro de la misma matemática y algunas de las aplicaciones de la vida cotidiana que han dado lugar.

“Las ecuaciones son el alma de las matemáticas, la ciencia y la tecnología”, afirma Ian Stewart, en su nuevo libro 17 ecuaciones que cambiaron el mundo (Crítica, 2013). Pero, ¿qué es una ecuación? En general, una ecuación consta de dos miembros separados por un sigo de igual (=). Aunque nos parezca que hemos vivido siempre con este signo, nació tardíamente en 1557. Su creador fue Robert Recorde, que sustituyó la frase “igual a” por dos rectas paralelas, ya que no podía haber nada más parecido que esto.

En su libro Stewart distingue dos tipos: aquellas que relacionan diversas cantidades matemáticas y cuya certeza debe ser probada (por ejemplo, la bien conocida igualdad que expresa el teorema de Pitágoras), o esas otras que proporcionan información sobre una cantidad desconocida que debemos hallar (por ejemplo, la ley de la gravitación universal de Newton) y aportan información sobre el mundo real. En este ameno libro de divulgación matemática se presentan ecuaciones de ambas clases.

Según el Premio Nobel de Física Paul Adrian Maurice Dirac “es más importante en una ecuación conseguir la belleza a que la ecuación encaje bien con los experimentos”. En el caso que nos ocupa, la belleza se conjuga con la verdad y Dirac estaría quedaría muy satisfecho con la lectura de este libro. Stewart considera 17 ecuaciones, de las cuales 16 son igualdades y una es una desigualdad (el aumento de entropía propugnado por la segunda ley de la tremodinámica), que corresponden a los 17 capítulos del libro.

En cada una de las secciones el autor plantea estas tres preguntas: ¿Qué dice esa ecuación?, ¿por qué es importante?, y ¿qué provocó?, que contesta siempre de un modo magistral, que hace el texto muy ameno y nos impide dejar la lectura hasta el final.

La primera ecuación considerada es el teorema de Pitágoras, que ha llevado al desarrollo de la geometría, de la trigonometría, y nos ha permitido trazar mapas, medir la Tierra, desarrollar el GPS o descubrir las geometrías no euclidianas que son la base de la teoría de la relatividad de Einstein. Otra de ellas es la famosa fórmula de Euler para un poliedro: caras + vértices = aristas +2, y que está en la base de la topología y nos explica cómo se pliegan las proteínas, como actúan las enzimas sobre el ADN o como entender el movimiento caótico de los cuerpos celestes. Y así, Stewart continua hasta sumar quince ejemplos más.

La obra de Ian Stewart no es la primera en señalar la importancia de las ecuaciones en nuestras vidas. Ya en 1995, Michael Guillen, profesor de Harvard, publicó su libro Cinco ecuaciones que cambiaron al mundo (con una traducción en español en 1999 en Debate) con unas pretensiones similares. En el libro de Guillen la atención se centra más en la vida del autor de la ecuación, pero también describe cómo y porqué esa determinada ecuación cambió nuestras vidas. Obviamente, las cinco ecuaciones de Guillen están en gran medida incluidas en las 17 seleccionadas por Stewart.

Es un buen momento ahora para leer no sólo el libro de Stewart, sino acompañarlo con el de Guillen: son dos estilos, pero la misma pasión por divulgar la ciencia y las matemáticas. Descubriremos que las ecuaciones influyen en nuestras vidas mucho más que algunas decisiones políticas o conflictos armados, porque estos son transitorios, pero las matemáticas permanecen y trascienden civilizaciones.


Los minerales en la vida cotidiana.

AUTOR  | Regueiro y González-Barros, Manuel. Libros de la Catarata. Madrid, 2013. 128 páginas.

UN EXCELENTE REPASO POR LOS MINERALES Y SU USO
Reseña realizada por Emilia García Romero
Instituto de Geociencias (IGEO)
Universidad Complutense

Seguramente el lector que se acerque a este libro descubrirá un mundo tan cercano como desconocido, ya que se trata de un libro de divulgación que nos muestra los minerales no en la forma habitual descriptiva y taxonómica, sino de una forma muy amena, proporcionando una visión muy asequible de la importancia que tienen los minerales en nuestra vida.

El lector visitara el mundo mineral desde un nuevo punto de vista, uno lleno de anécdotas y ejemplos de cómo los minerales nos rodean y nos ayudan formando parte de los objetos que utilizamos todos los días sin saberlo, lo que acerca el libro al lector, haciendo su lectura muy cómoda y agradable, sin que por ello pierda rigor.

Este excelente repaso por los minerales y sus usos permiten también abrirnos los ojos a la historia de la mineralogía aplicada, no solo por lo desconocido de esos usos más sorprendentes e inesperados que nos presenta en su fascinante entorno histórico, sino porque pone de manifiesto que muchos minerales son, en realidad, la base sólida de nuestra sociedad del bienestar, desde sus primeros balbuceos hasta nuestros días. Los minerales son fundamentales para muchas industrias y ocupan un papel cada vez más importante en la economía y en el desarrollo sostenible de los pueblos.


Neuroeducación.

AUTOR  | Mora, Francisco. Alianza Editorial. Madrid, 2013. 224 páginas

DE LO QUE LA NEUROCIENCIA APORTA A LA EDUCACIÓN
Reseña realizada por Prof. Dr. Jesús A. F. Tresguerres
Catedrático de Fisiología
Miembro de Número de la Real Academia Nacional de Medicina

El libro sobre Neuroeducación que acaba de publicar el profesor Francisco Mora Teruel, en Alianza Editorial es uno más de la serie de divulgación sobre aspectos de la vida donde el sistema nervioso juega un papel preponderante.

El profesor Francisco Mora, es doctor en Neurociencia por la Universidad de Oxford (Inglaterra).catedrático de Fisiología de la Facultad de Medicina de la Universidad Complutense de Madrid y de la Universidad de Iowa en EE.UU. y por añadidura un investigador de primera fila mundial en el área de la Neurobiología. Todo ese bagaje extraordinario en el ámbito de la Neurociencia, unido a una capacidad docente que ha sido muy destacada siempre por sus alumnos, le convierten en un comunicador excepcional , que es capaz de hacer sencillos los conceptos más complejos y abstrusos de un área tan difícil como son las Neurociencias.

El libro se divide en una primera parte más descriptiva, y donde va desgranando aquellas partes del cerebro que intervienen en la enseñanza y el aprendizaje. Establece así las bases necesarias, para ser capaces de entender todos los conceptos sobre Neuroeducación que vienen a continuación.

Es un libro que tiene que ser necesariamente de gran interés para educadores de todas las categorías. Desde los párvulos y primaria, hasta la enseñanza media y, por supuesto, también la superior universitaria. Especialmente en un país como España, donde los resultados, sobre todo de la enseñanza media, son bastante malos, y donde sería muy conveniente aplicar algunas de las teorías del Dr. Mora, para mejorar precisamente esos resultados. Pero no solamente para estos: Padres, parientes y amigos pueden también beneficiarse de su lectura.

Como efectivamente dice el Dr. Mora en el prólogo "se ha levantado un enorme interés por cambiar, innovar y mejorar la educación y la enseñanza teniendo como base los conocimiento sobre el cerebro". Utilizamos el cerebro para memorizar, aprender, enseñar y educar, con lo que el mejor conocimiento de los mecanismos cerebrales que intervienen en dichos procesos debe servir necesariamente para aumentar la eficacia de la enseñanza de forma evidente.

Es especialmente importante el estudio que el Prof. Mora hace sobre el papel que la emoción juega en el proceso de aprendizaje. La simple descripción plana de hechos, fechas o conceptos no son captados de forma efectiva por el estudiante, si no van acompañados de la emoción que proporciona la novedad, la curiosidad que a su vez activa la atención, para que se pongan en marcha los elementos que juegan un papel en el proceso de aprendizaje y de memoria. Es, por lo tanto, misión importante del enseñante, activar dicha emoción, a través de actitudes que generen curiosidad, interés y, en consecuencia, faciliten de esa manera el aprendizaje, y para lograrlo se pueden apoyar precisamente en algunas de las enseñanzas de este libro.

En ese sentido el juego es precisamente la mejor forma de aprendizaje, especialmente en los primeros años. Se trata de un mecanismo de potenciación emocional disfrazado, con el que el niño adquiere habilidades y capacidades a través de la interacción motora y sensorial. El niño absorbe como una esponja todo lo que le rodea y lo proyecta al mundo y lo contrasta y reaprende. Por eso es mejor utilizar entornos naturales para el aprendizaje.

Además la interacción motora /sensorial repercute de forma muy marcada en diversas habilidades del niño. Esto es lo que ocurre cuando se aprende a tocar un instrumento, donde se combinan áreas sensoriales con las motoras necesarias para la manipulación y ejecución del instrumento. Esto repercute en la atención, la discriminación de los estímulos y la 'memoria de trabajo' a la vez que en el control motor de los niños.

En el libro se insiste sobre la necesidad de una buena educación desde el mismo nacimiento para fomentar el buen funcionamiento de las distintas áreas de la corteza prefrontal, que son precisamente las que intervienen en el desarrollo de los valores morales, éticos e intelectuales que darán lugar a las conductas complejas que aseguren no sólo el desarrollo intelectual sino también, la más adecuada implantación del individuo en su entorno social. Por ello es también mucho más conveniente que el niño se eduque en un colegio, que lo haga en su casa con sus padres, aunque estos puedan tener grandes cualidades didácticas.

Es muy importante saber que existen en un todo el proceso educacional una serie de ventanas temporales muy importantes para cada caso. De la misma forma que el niño al que no se le aportases los elementos para aprender a hablar antes de los 3-4 años, ya no sería capaz de hacerlo más tarde, aunque se le aporten entonces (caso real de niños perdidos en la selva que no son capaces de aprender a hablar cuando son encontrados de nuevo después de los 5 años, al revés de lo que le pasa a Mowgli en el Libro de Selva). También existen saltos cualitativos en el proceso educacional que sólo pueden ocurrir en una edad determinada, que es importante conocer para sacarle el máximo rendimiento.

También es extremadamente interesante lo que cuenta el Dr. Mora, que durante el proceso de aprendizaje es necesario que el cerebro genere una inhibición del 99% de lo que pensamos normalmente, de forma que ese 1% sea capaz de cambiar de manera efectiva con las nuevas circunstancias. Eso es lo que ocurre especialmente cuando aprendemos un 2º nuevo idioma además del materno. Generalmente se produce un periodo durante el cual el primero de los aprendidos después del materno, prácticamente 'se olvida' hasta que conseguimos aprender el 'nuevo', pues de otra forma nos impediría afianzar este.

Relacionado con lo anterior el Dr. Mora destaca las virtudes del multilingüismo, que está relacionado con una mayor capacidad ejecutiva, porque cuando la persona habla varios idiomas y salta de uno a otro, por un lado tiene más 'bases de datos' de entre las que elegir las palabras pero por otro tiene que saber también inhibir a las que no están en funcionamiento.

Todo lo relacionado con la atención recibe un tratamiento especial en el libro. Más que la 'atención' única son las 'atenciones' diversas que describe el autor. Por eso insiste en la necesidad de buscar los estímulos específicos que activen los elementos neuronales que juegan un papel importante en el proceso de enseñanza-aprendizaje. El autor lo destaca, con un ejemplo muy gráfico, en el que considera como la posible entrada de la una cebra en un aula universitaria en el momento que el profesor está dando clase. Este hecho alterará de forma evidente el objeto de la atención del estudiante, de forma tal que el hecho quedará impreso de forma imborrable en su memoria. Es por ello que destaca como muy conveniente la conveniencia y posibilidad de activar la curiosidad del estudiante de la mejor forma posible como mecanismo perfecto para la captación de su atención y, por lo tanto, para asegurar su aprendizaje.

Da el Dr. Mora también algunos datos importantes sobre la existencia de una microestructura neuronal y de qué forma esta se modifica con la acumulación de macromoléculas en sus estructuras sinápticas (las conexiones entre neuronas) cuando se produce el aprendizaje y se activa la memoria. Conocer estos procesos ayuda a entender de qué forma se produce el aprendizaje y la enseñanza.

Probablemente lo más importante del libro es saber cómo la emoción adereza de tal forma los procesos que el enseñante explica, que los hace muy interesantes para el alumno, despertando su curiosidad y, por ende, su atención. Es como en el caso de la gastronomía, las ricas salsas y especies que enriquecen los platos para hacerlos más apetecibles. Cuenta el profesor Mora, como en una clase, los componentes de la 'actuación' del profesor pueden llegar a ser más importantes que el propio contenido de la misma. Tener una parte desarrollada de actor o comunicador hace del profesor un educador de excelencia.

Toda esta serie de conocimientos constituyen una parte de lo que la Neurociencia pretende aportar a la educación, pero no se limita a ellos.

Desearía también la Neuroeducación, como dice el prof. Mora, poder detectar a tiempo los déficits que puedan interferir en los periodos más iniciales de la enseñanza infantil y actuar sobre los mismos de forma temprana para evitar su incidencia negativa en dicho proceso. También pretende mediante el conocimiento de los mecanismos cerebrales que interviene en el rendimiento mental, potenciar los aspectos más favorables para aumentar dicho rendimiento, consiguiendo así mejores resultados educacionales.

Poder sacar ventaja de conocer cómo funciona el cerebro para mejor poder enseñar y aprender es, por supuesto, una posibilidad muy interesante. Saber que la curiosidad juega un papel preponderante, nos servirá para intentar como educadores despertarla en todos los casos para así mejorar nuestra enseñanza, aunque para ello tengamos hasta cierto punto que aprender a 'actuar'.

La estructura, perfectamente organizada del libro, nos permite además, no sólo entenderlo de forma fácil, sino también poder buscar aquellos problemas que se nos puedan plantear, para intentar una aproximación neuroeducativa a los mismos.

Se trata al fin de un libro muy importante y profundo, a la vez que sencillo y ameno, que tiene un interés muy evidente no sólo para educadores, sino también para padres, familiares y amigos, como manifiesta el propio autor en su prólogo.


La singularidad está cerca. Cuando los humanos trascendamos la biología.

AUTOR  | Kurzweil, Ray. Lola Books. Berlín (Alemania), 2012, 705 páginas.

UN ORIGINAL Y BRILLANTE ENFOQUE DE COMO LAS TECNOLOGÍAS BASADAS EN LA INFORMACIÓN ABARCARÁN TODO EL CONOCIMIENTO Y HABILIDAD DE LOS HUMANOS
Reseña realizada por César Ullastres
Tecnologías y Personas

No deja de ser peculiar que en Octubre de 2005, siete meses después de la publicación de La singularidad está cerca, el New York Times catalogara al libro de Kurzweil como un bestseller en la reseña que titulaban ¿será el futuro un billón de veces mejor?, que la publicación alemana, simultánea a la española por la misma editorial: Lola Books, se titule Humanidad 2.0 y que la única alusión equiparable a este libro en España la haya hecho Iker Jiménez, periodista de lo desconocido y conductor del programa televisivo Cuarto Milenio. También me llama la atención que aquí como en Estados Unidos el subtítulo del libro sea: Cuando los humanos trascendamos la biología. ¿Tendrá que ver por la similitud de nuestro carácter marcadamente trascendente?

El término singularidad es un concepto de la física, la cual lo utiliza cuando enfrenta eventos o situaciones que no pueden ser respondidos desde los ámbitos en los cuales la metodología científica se mueve. Y precisamente, para nombrar el comienzo del universo utiliza este calificativo, fue un evento único y sin explicación, es decir una singularidad. La Primera Singularidad es un claro ejemplo de las limitaciones del pensamiento lógico deductivo. ¿Cómo es posible imaginar o concebir tan siquiera que algo se pueda producir de la nada? Una pregunta que nos seguimos haciendo muchos y que, en efecto, sucedió en el principio de los tiempos.

Este concepto cosmológico, en contraposición a la filosofía cristiana por la que la singularidad del ente queda establecida por el límite que Dios impone a cada cosa en su ser y por encima de todo al hombre, es el que utiliza Ray Kurzweil en su libro y de un modo peculiar ya que es la tecnología, lo más humano que hemos hecho los humanos, lo que nos va a catapultar a un nuevo estadio, a un futuro diferente en el que la vida humana se verá transformada de forma irreversible.

Ray Kurzweil empezó en 1960, cuando era adolescente observando y haciéndose preguntas acerca de la relación de nuestro pensamiento y las tecnologías de la computación. En la década posterior estudió la prodigiosa aceleración de la tecnología. A finales de los 80 escribió su primer libro sobre este tema, desde entonces no ha parado y ya son siete libros los publicados que constituyen un lúcido recorrido por todas las transformaciones que solapadamente se están produciendo en las que la tecnología tiene un papel fundamental.

El afán que le mueve por cambiar el mundo le ha llevado a la creación de varias empresas, desde la consideración de que son estas el mejor instrumento de la economía para conseguir que el conocimiento que se genera llegue a la sociedad. La primera en 1974, Kurzweil Computer Products, dedicada a buscar una tecnología que fuese capaz de enseñar a los ordenadores a reconocer caracteres impresos de una amplia variedad de fuentes con la que acabó consiguiendo la primera máquina lectora de documentos impresos para ciegos. La segunda, en 1982, surge de una colaboración con Stevie Wonder, Kurzweil Music Systems inventó el primer sintetizador virtual de calidad profesional. En 1987, Kurzweil Applied Intelligence, lanzó al mercado el primer sistema de reconocimiento de voz y en los 90, dos empresas más Kurzweil Educational Systems y Medical Learning Company.

En Diciembre de 2012, con 64 años, ha sido contratado como Director de Ingeniería de Google, precisamente para seguir con su proyecto profesional que empezó a los 12 años cuando descubrió el primer ordenador: generar un sistema que comprenda el lenguaje de manera natural. No sólo reconocer palabras y su significado, sino también reconocer intenciones y que la relación entre las máquinas y nosotros sea cada vez más natural, más invisible.

En la década de los 90 desarrolló la teoría que llamó la Ley de los rendimiento acelerados que explica por qué la tecnología y los procesos evolutivos en general progresan de forma exponencial. La idea fundamental que subyace de la Singularidad es que el ritmo de cambio de la tecnología se está acelerando y que sus capacidades se están ampliando a un ritmo que cada vez aumenta más rápidamente.

En este libro defiende que, dentro de varias décadas, las tecnologías basadas en la información abarcarán todo el conocimiento y habilidad de los humanos. La Singularidad constituirá la culminación entre nuestra existencia y pensamiento biológico con nuestra tecnología, dando lugar a un mundo que seguirá siendo humano pero que trascenderá de nuestras raíces biológicas.

El crecimiento exponencial es un rasgo de todo proceso evolutivo, y de entre ellos la tecnología es su principal ejemplo. La Ley de los rendimientos acelerados es aplicable a todas las tecnologías. Puede ser trazada con excepcional precisión en las tecnologías basadas en la información. También en áreas tan variadas como la electrónica de todo tipo, la secuenciación del ADN, las comunicaciones, el escaneo del cerebro, la ingeniería inversa del cerebro, el tamaño y alcance del conocimiento humano y la veloz reducción del tamaño, la última tendencia relacionada con el nacimiento de la nanotecnología.

Vamos a un mundo en el que todos podemos estar conectados a todas partes y en todo momento, esto es posible por la tecnología y porque cada vez es más barata. Veamos tres ejemplos: 1) en 1970, los transistores tenían 10 micras, actualmente tienen 2 nanómetros; se ha reducido el tamaño en cuatro órdenes de magnitud; 2) En 1984, el coste de transmitir 1 Gigaflop (mil millones de operaciones por segundo) era 33 Millones de dólares, en el 2000 era 1.300 dólares, en la actualidad es 1 dólar y 3) si comprobamos lo que valía almacenar un gigabyte (mil millones de bytes, lo que es equivalente a 26.000 páginas de tamaño DIN A4) en el año 2005 era 19 dólares, en la actualidad, es 0,60 céntimos de dólar.

En una reciente conferencia, Emilio Méndez, Director del Centro Nacional de Nanomateriales (USA) hablaba de como la tecnología actual se asienta sobre tres pilares que se pueden representar en el acrónimo BAG, tres palabras Bytes, es decir, Información, Atoms, que quiere decir materia, materia inanimada y Genes, vida que, de un modo algo materialista, podemos concluir que es información más materia.

En el libro se da un paso más allá, habla de su relación con las personas, habla de GNR, tres revoluciones solapadas: la Genética, la Nanotecnológica y la de la Robótica. Estamos asistiendo al solapamiento de esas tres disciplinas en las que subyace recurrentemente la información que es donde convergen, interactuando entre sí significativamente y creando así nuevas posibilidades.

Ya estamos aquí, como también afirma Fernando Sáez Vacas, formando parte de la infraestructura 'nootecnológica' que genera un nuevo entorno Tecnosocial dotado de numerosas fuerzas que cambian nuestras formas vitales y sociales. Lo que equivale ya a una sobrenaturaleza artificial, muchas veces protésica, de una complejidad multidisciplinar, muy superior a la que cada uno de los que somos afectados somos capaces de comprender y, por ende, de controlar pero con la que tenemos que vivir y actuar.

A medida que se acerque la Singularidad tendremos que reconsiderar nuestras ideas sobre la naturaleza de la vida humana y rediseñar nuestras instituciones.

Las promesas acerca de la salud, la ubicuidad de las tecnologías, cada vez más presentes en nuestra vida cotidiana está impactando todo y a todo. Fijémonos en el cambio de un tema tan crucial como la educación. En estos momentos ya estamos en las primeras etapas de esta transición. Los vastos conocimientos que ya están en la Red y las cada vez más efectivas plataformas de teleformación están proporcionando a todos un acceso generalizado y barato a la formación.

Kurzweil desarrolla su apuesta por la Singularidad en toda su extensión, como fruto de sus reflexiones sobre todas las tendencias tecnológicas que en el libro disecciona en profundidad y, finalmente, defiende apasionadamente y una por una su defensa a todas las críticas posibles que esta posición concita. Quizá se le olvida la Teoría del Cisne Negro de Tareb, pero, en cualquier caso, lo que no se puede negar es que la mejor manera de predecir el futuro es inventarlo y lo hace de una manera original, fértil y memorable.


De Tales a Newton. Ciencia para personas inteligentes.

AUTOR  | Meléndez, Juan. Ellago Ediciones. Madrid, 2013. 408 páginas.

UN MAGNÍFICO LIBRO SOBRE LA ESENCIA DEL PENSAMIENTO CIENTÍFICO
Reseña realizada por Carlos Elías
Catedrático de la Universidad Carlos III de Madrid
y profesor visitante en la Universidad de Harvard

Los libros de divulgación científica casi siempre comenten el mismo error: consideran más importante los resultados que la manera de obtenerlos. Sin embargo, la fortaleza de la ciencia no reside en descubrir el átomo o la célula, sino en el método en que se llega a esa conclusión. Los chinos obtuvieron más hallazgos tecnológicos que los europeos: inventaron la brújula -tan importante en la exploración geográfica-; la pólvora -imprescindible para ganar guerras y obtener poder-; o el papel -fundamento de la revolución de la imprenta-. Resultados valiosísimos en la civilización. Sin embargo, la cultura europea creó algo mucho más osado y singular: una forma de pensar, que llamamos método científico, para acercarse a la verdad y descubrir cómo es el mundo. Los historiadores de la ciencia consideran a Galileo el primer científico moderno, pero él se basó en el griego Euclides y, sobre todo, en Arquímedes. Alexander Pope afirmó que con Newton "se hizo la luz", porque demostró que no hacían falta los dioses para comprender el universo; pero Newton reconoció a los que le precedieron: "Si he llegado a ver más lejos -escribió- ha sido porque he subido a hombros de gigantes". De esta odisea del pensamiento occidental – la construcción del método científico- trata el libro De Tales a Newton, del físico Juan Meléndez, quien sostiene que la ciencia es una tradición: "La ciencia progresa porque cada científico no puede interpretar el mundo ex novo (como hacen hoy los pintores o los grupos pop) sino que se inscribe obedientemente en una tradición".

El libro es enormemente divulgativo, pero no cae en la tentación de ser un cuento de hadas que expone resultados sin demostrar. Alguien dijo que creer en el Big Bang sin observaciones ni ecuaciones es el mismo acto de fe que creer en el Génesis. Como buen docente universitario, Meléndez - que es profesor titular de Física en la Carlos III de Madrid- explica cómo se piensa en ciencia y lo más importante: por qué el método es tan exitoso. Ya señala en el prólogo que la idea del libro partió del curso de Humanidades que suele impartir en la Carlos III. Afortunados son sus alumnos y ahora todos los lectores porque conforme el libro va entrando en materia, sus páginas nos sumergen con tono didáctico y muy riguroso -y esto es de resaltar- en la esencia del pensamiento científico. Y lo hace de la mejor forma posible: primero explicando qué es la medida y, después, cogido de la mano de la disciplina más fascinante que ha creado el hombre: la geometría. Materia injusta y peligrosamente olvidada en los estudios actuales, la geometría enseñó a los griegos a pensar. Platón mandó inscribir en el frontispicio de su Academia "no entre nadie aquí sin saber geometría": era el precalentamiento necesario para acometer cualquier actividad intelectual. Y Meléndez en su libro nos muestra cómo con poco más que un palo y unas sombras del mediodía, pero con la enorme potencia de la geometría, los griegos calcularon con cierta precisión desde el tamaño de la Tierra hasta su distancia a la Luna o el Sol. Aunque también se equivocaron: Aristarco erró en el tamaño del Sol respecto a la Luna pero, como bien advierte Juan Meléndez, no porque su razonamiento geométrico fuera incorrecto; sino por la imprecisión de sus medidas.

Precisión en la medida y geometría forman un tándem poderoso para hallar la verdad. El libro aborda cómo la geometría nos situó en el mundo terrenal con su aplicación a la cartografía, a la que Meléndez dedica el tercer capítulo con un interesante recorrido por los métodos de triangulación para obtener mapas y, sobre todo, el problema de la longitud. Pero también la geometría nos posiciona en el cielo: en varios capítulos analiza cómo con la geometría -y el método de medir y experimentar- Copérnico, Kepler y Galileo nos colocaron en el sitio real del Sistema Solar y no donde la Iglesia o Aristóteles querían incluirnos.

De Tales a Newton es un libro de ciencia, de su método y de sus resultados; pero también es un libro de filosofía de la ciencia -nos aclara, entre otras, la diferencia entre el empirismo de Bacon o el racionalismo de Descartes- y, sobre todo, de historia de la ciencia: propone un recorrido por la evolución de las ideas científicas y cómo éstas influyen en la sociedad: desde cómo los griegos pensaban que los planteas debían ser dioses porque su movimiento era perfecto, hasta la querencia de Copérnico -y de los intelectuales de su época- por la circunferencia, la osadía revolucionaria que implicó Kepler con su elipse, o el juicio de la Inquisición contra Galileo y lo que suponían sus experimentos -y su afirmación de que la naturaleza está escrita en lenguaje matemático- en la época de la Contrarreforma.

Del libro de Juan Meléndez se desprende que la física y las matemáticas son una parte fundamental de la cultura humana y que sus descubrimientos han condicionado la historia y la sociedad de la época. Todo está calculado en el texto para que las distintas disciplinas se ensamblen como un todo. El autor no da puntada sin hilo y cuida hasta los pequeños detalles: por ejemplo, el capítulo de Copérnico comienza con un poema de nuestro inefable Unamuno quien critica al astrónomo polaco por "robar la fe humana".

Desde mi punto de vista, De Tales a Newton está construido in crescendo para explotar en la parte donde aborda uno de los problemas que más ha seducido al pensamiento occidental: el movimiento. ¿Por qué las cosas se mueven? ¿Existen leyes matemáticas que lo rigen o es capricho de los dioses? Preguntas que parecen tontas, pero que esconden la esencia del saber europeo y que fue el motor que espoleó el crecimiento de la ciencia moderna y la muerte de todas las creencias y supersticiones antiguas. Ninguna otra cultura se lo preguntó con esa pasión. Pero en Europa, desde los griegos hasta Galileo y Newton -que lo resolvió definitivamente-, fue un tema recurrente, tal y como deja entrever Meléndez en su libro. El autor aborda este problema desde muchas perspectivas: física, matemática, histórica, filosófica... Comienza con la observación obvia del movimiento de los planteas frente a las estrellas 'fijas' para adentrarse en la errónea teoría del movimiento de Aristóteles. Profundiza en el problema de la inercia, las mareas, la caída de los cuerpos o la aceleración centrípeta y cómo lo resolvieron Newton o Galileo frente al todopoderoso Aristóteles idolatrado por el establishment académico de la época.

Muchas culturas han desarrollado la pintura, la literatura, la arquitectura o la religión, pero solo una tiene una línea que va de Tales a Newton para entender con precisión cómo es en realidad el mundo. El libro hace un repaso por los gigantes en los que Newton se apoyó para llegar a la sencilla fórmula matemática que lo explica todo-desde la manzana que cae del árbol hasta el movimiento de los planetas-: la ley de la Gravitación Universal; y subraya cómo Newton quiso que su obra -para muchos la mayor del pensamiento de todos los tiempos- se llamara Principia Mathematica en contraposición de los Principia Philosophiae de Descartes. Dos homenajes a Galileo, pero con concepciones diferentes.

Meléndez se excusa en el prólogo por detenerse en Newton. Señala que lo hace porque hasta ahí las matemáticas son relativamente sencillas y él no quería renunciar a usarlas porque son la esencia del pensamiento científico. Y, aunque el lector se quede con la sensación de que la historia está a la mitad- ¿dónde están los agujeros negros o la Relatividad General?-, es cierto que el libro se lee con mucha facilidad y que cumple con creces su objetivo fundamental: enseñar cómo se piensa en ciencia y por qué la ciencia natural ha llegado tan lejos. Brillante es su explicación de lo que es una teoría en ciencia natural, un concepto muy difícil de entender para muchos estudiosos de disciplinas sociales que pervierten esa palabra. De Tales a Newton es, en definitiva, un libro completo donde una buena narrativa junta las matemáticas con la física, la historia o la filosofía demostrando no solo que no pueden ser disciplinas separadas, sino algo más importante: sólo se entiende la realidad si se conjugan todas como en este texto.

Cuando uno finaliza el libro, de más de 400 páginas, y percibe el enorme trabajo que debió llevar escribirlo, no puede dejar de preguntarse por qué un científico español como Juan Meléndez, con líneas de investigación punteras en teledetección infrarroja, y que pertenece a un sistema rígido donde se evalúa constantemente en función de los artículos de JCR, 'pierde' el tiempo escribiendo esta obra. No se hará rico, como los científicos anglosajones que publican en editoriales poderosas; ni famoso: porque en España la ciencia nunca ha vendido. Ni, desgraciadamente, tampoco le valdrá para los sexenios. Solo queda una explicación: la universidad y los universitarios no pueden seguir adentrándose en lo que Ortega y Gasset denunciaba como la "barbarie del especialismo" fábrica de "sabios ignorantes". Pese al aplastante peso de los burócratas de la política científica actual, aún quedan valientes -y Meléndez en este sentido lo es- que se atreven a desafiar las leyes del currículo meritocrático estándar para ascender al sentido del verdadero universitario: desarrollar conocimiento, pero también contextualizarlo, hacerlo público -no solo a sus pares o a los alumnos sino a los ciudadanos- y, en última instancia, expandir la grandeza del pensamiento científico. La burocracia española -donde la divulgación no se premia y, a veces, se penaliza- lo castigará. Pero el espíritu luchador contra esas leyes es lo que siempre ha hecho sobrevivir a la universidad y, sobre todo, a la ciencia: desde Tales hasta hoy. Solo por ello, además de su gran calidad científica y literaria, De Tales a Newton -y su autor- merece toda la consideración y reconocimiento posibles de la sociedad.

En su afán de continuar con una divulgación permanente, Juan Meléndez ha abierto un blog sobre el libro (detalesanewton.wordpress.com) en el que mantiene contacto con los lectores y amplía los capítulos con enlaces muy interesantes. Todos, pero en especial alumnos y profesores de Física, Matemáticas y Filosofía, encontrarán un magnífico foro donde debatir sobre esta apasionante historia del pensamiento occidental que nos ha llevado desde la oscuridad hasta la luz.


El ecosistema del libro electrónico universitario.

AUTOR  | Cordón Garcia, José Antonio, Alonso Arévalo, Julio; Gómez Díaz, Raquel; Alonso Berrocal, José Luis. UNE. Madrid, 2013. 310 páginas.

EL ECOSISTEMA DEL LIBRO ELECTRÓNICO CIENTÍFICO
Reseña realizada por Joaquín Rodríguez

En el capítulo II del merecidamente premiado El ecosistema del libro electrónico universitario, coordinado por José Antonio Cordón, director del grupo E-lectra, puede leerse: "la pregunta fundamental que ha de hacerse cualquier servicio de de publicaciones es "asumiendo que la investigación primaria es original e importante, ¿cuál es el mejor medio para difundirla al resto del mundo?". La respuesta", aseguran los autores, "radica en las oportunidades que para las editoriales universitarias representa la edición digital y la reformulación de los marcos de comunicación académica para garantizar una mayor accesibilidad del público a la investigación". Precisamente.

La cuestión fundamental que todo servicio de publicaciones académico, científico y/o universitario debería plantearse no es tanto la manera en que puede acatar y obedecer los mecanismos de evaluación (relativamente) tradicionales sino, más bien, valiéndome de la reflexión de los mismos autores, la forma en que pueden renovar, regenerar y mejorar el marco de la comunicación científica valiéndose de los mecanismos de creación, comunicación y distribución digital de contenidos fomentando la agregación de inteligencia colectiva, el intercambio generoso y libre de conocimiento. Los precedentes son conocidos y siempre viene bien recordarlos: en 1665, en la segunda mitad del siglo XVII, se crearon casi al unísono las que pasan por ser las dos primeras revistas científicas. En enero de ese año el Journal des sçavans y poco después, en el mes de marzo, The Philosophical Transactions of the Royal Society. Lo que hicieron fundamentalmente esos dos nuevos marcos de comunicación científica fue aplicar la tecnología de la imprenta a la creación, difusión e intercambio de los contenidos científicos, en suma, generar un nuevo espacio de comunicación y discusión científica que acababa con los arcanos intercambios de mensajes cifrados entre científicos aislados (como había venido ocurriendo con Galilego, Kepler o el mismo Leonardo da Vinci). Transcurrieron más de doscientos años entre el invento de la imprenta y la extracción de las consecuencias que podría tener para agilizar y mejorar la comunicación científica.

Philosophical Transactions of the Royal Society

Hoy en día, el cambio es mucho más profundo, acelerado y estructural: se han modificado profundamente las posibilidades de acceso al conocimiento pero, también y al unísono, las "modalidades de argumentación y los criterios o recursos que pueden movilizar al lector para aceptarlas o rechazarlas", como escribe Roger Chartier. La textualidad electrónica, sigo citando, "permite desarrollar argumentaciones o demostraciones según una lógica que ya no es necesariamente lineal ni deducativa [...] sino que puede ser abierta, extendida y relacional gracias a la multiplicación de los vínculos textuales". Semejante cambio no es meramente topológico; es epistemológico, supone una profunda mutación que "modifica los modos de construcción y acreditación de los discursos del saber". Esa es, sin duda, la cuestión fundamental por la que la mayoría de los científicos, sociedades académicas y servicios de publicaciones pasan de puntillas por las profundas implicaciones que conlleva, porque admitir esos cambios podría desmoronar el cómodo edificio en el que habitan. En todo caso, El ecosistema del libro electrónico universitario recoge muy acertada y cumplidamente muchas de las tecnologías y casos que están propiciando esta revolución: desde las plataformas de venta y distribución de libros académicos (Safari, Questia, Ebrary, etc.), que favorecen modalidades de uso y consumo de contenidos muy distintas a la de la monografía tradicional; pasando por la discusión sobre las modalidades de acceso y el préstamo y alquiler de contenidos digitales (en modalidad comercial o en el seno de una comunidad); hasta la más obvia de las potencialidades para un científico: la de la autopublicación y el uso de licencias que propicien la libre circulación de su trabajo. Los autores son en gran medida conscientes de esas hondas y disruptivas consecuencias: "los editores han de enfrentarse", dicen, "ante un concepto de libro profundamente redefinido en el contexto digital, en el que la unidad de referencia no es el biblion sino los datos los metadatos". Precisamente. "Esto no quiere decir que el entorno digital destruya el libro pero sí que lo transforma profundamente, inscrito en una lógica que sobrepasa el soporte unitario para configurar una diversificación cada vez mayor de productos y servicios".

The Polymatch blog

Sé que las reglas no escritas de la buena crítica literaria y científica dicen que uno debe criticar por lo que se dice y no por lo que se deja de mencionar, pero yo creo de este apreciable trabajo puede aprenderse tanto por lo que comenta como por lo que deja (al menos parcialmente) de explorar. En el año 2009 Tim Gowers, matemático acreditado con la Medalla Fields, decidió presincidir de las reglas tradicionales de la publicación científica y plantear en un blog (The Polymatch Project) un problema hasta ese momento irresuelto denominado Polymath1. La historia dice que 37 días después de haber expuesto ese problema a luz pública y a la colaboración masiva (entre los participantes, exponiendo sus ideas abiertamente, estaba Terence Tao, otro Field medallist), 800 comentarios más tarde, el problema fue resuelto satisfactoriamente. El pasado 9 de noviembre Tim Gowers planteó su noveno problema (polimático). ¿De qué manera, en los términos tradicionales conocidos por la ciencia, puntuaría la colaboración en ese espacio abierto sin más control que el de la propia comunidad que colabora? ¿En qué medida influirá ese trabajo en progreso y acreditación profesional de quienes contribuyen de manera altruista al progreso del conocimiento? ¿Alguien, en alguna sociedad científica o tribunal universitario tendría en cuenta las entradas publicadas en ese blog como equivalentes a los artículos difundidos a través de una cabecera con un "impacto" determinado"? ¿Cabe fomentar la colaboración entre científicos en un campo cuyas reglas no premian la colaboración sino, más bien al contrario, la penalizan y la subestiman? ¿Tiene todo esto en la era digital algún sentido? No, por supuesto que no.

Moneda

"La edición universitaria", dicen los autores algo más adelante, "no puede quedarse al margen de un movimiento que representa un cambio de paradigma en el ámbito de la edición, como muestran todas las estadísticas y estudios desarrollados en los países de nuestro entorno", pero no basta, añadiría yo, con que supongan que ese cambio comporta, tan sólo, aprender a generar ficheros Epub o disponer de una web a través de la que presentar ordenadamente la oferta editorial. La cuestión, como reflexionaba Chartier, es que nos encontramos ante un cambio epistemológico excepcional con consecuencias irreversibles para los formatos tradicionales de la edición, la comunicación, la difusión y la valoración del conocimiento científico.

Paul Wouters

Paradójicamente, según señala Paul Wouters en su breve historia de la cienciometría, el índice que nos sirve desde los años 60 del siglo XX para evaluar el impacto de una investigación y, por tanto, la relevancia y crédito que el trabajo de un grupo de científicos merece, no fue un instrumento creado por la propia comunidad científica para satisfacer unas necesidades obvias de medición y evaluación de su capital, un índice que reflejara la importancia de las propuestas, hipótesis y hallazgos de la ciencia. Fue, más bien, una herramienta creada -o, al menos, indirectamente favorecida- por la administración norteamericana, que deseaba establecer criterios contables firmes para justificar la financiación de los proyectos y, sobre todo, mejorar los mecanismos de comunicación científica entre áreas de conocimiento y departamentos universitarios y estatales con motivo, especialmente, de la carrera espacial de los años sesenta. La anarquía primaria en la que estaban encerrados los distintos agentes implicados en esos macroproyectos de investigación, las prácticas cenaculares de las camarillas académicas y de las estancas agencias estatales, no podían constituir base suficiente para una coordinación adecuada. Eugene Garfield, el creador del mecanismo evaluativo, en colaboración con Joshua Lederberg, planteó en el año 1958 los siguientes criterios de ponderación y coordinación científica: "utilidad general, permanencia en el tiempo, reducción del número de referencias a los datos mediocres, medida del 'factor de impacto' y servicios puntuales personalizados". Resultaba políticamente necesario en ese momento un sistema centralizado de evaluación de la información.

Antonio Lafuente

Pero si todo lo anterior es cierto, si la lógica de la acumulación del capital científico requiere, para ser reconocido y potencialmente acrecentado, ser mostrado a los demás, a quienes constituyen la comunidad cualificada de los pares, ser distribuido sin cortapisas, en aras de la promoción de la unidad de la ciencia y del avance del conocimiento, puede que el sistema tradicional de medición del índice de impacto y de evaluación de la calidad de lo ofrecido no sea el más ecuánime ni el más adecuado. Antonio Lafuente describe precisamente los problemas que el peer review tradicional genera: "muchas revistas, por ejemplo, exigen que los autores declaren que no hay conflicto de intereses (es decir, connivencia) entre lo que defienden/venden las empresas que financian su investigación y los resultados que obtienen y publican. También si la identidad de los revisores [...] debe mantenerse en secreto, pues abundan las conductas desviadas de todos los tipos: desde lecturas demasiado superficiales a revisiones que protegen teorías/modelos canónicos [...] pasando por el robo de ideas, el retraso injustificado u otros intereses mezquinos de quienes fueron seleccionados para controlar la calidad [...] Los más críticos niegan la capacidad de este sistema para cumplir su principal función: garantizar la calidad". Si los mecanismos mediante los cuales se evalúa supuestamente la propiedad de lo publicado están desvirtuados por la injerencia disruptiva de intereses comerciales ajenos a lógica del campo; si cabe la sospecha sobre la ecuanimidad y distancia que los pares deben guardar respecto al autor y a su descubrimiento, porque escondan intereses arteros de alguna naturaleza; si algunas falsificaciones deliberadas pasan inadvertidas y, al contrario, algunos trabajos determinantes para el futuro de la ciencia son rechazados o ignorados, el edificio entero de la ciencia está afectado en sus cimientos, porque sobre la limpieza e imparcialidad del peer review se basa la concesión del crédito, la circulación del capital propio del campo científico, su distribución, intercambio y acumulación, y cuando ese sistema de tasación presenta síntomas evidentes de contaminación y desacierto, entonces no queda más remedio que reformarlo inmediatamente adecuándose a la lógica original de los principios que rigen la lógica de la acumulación del capital simbólico.

ISI web of Knowledge

El problema radica, sin duda, en que nadie que pretenda recorrer la atribulada carrera científica se permite la flaqueza de publicar allí donde nadie se lo reconocerá, donde nadie le concederá la más mínima atención, donde incluso le tildarán de desaprensivo. Si las carreras de los científicos se miden, desde los años 50 del siglo pasado, en función del impacto de sus trabajos, esto es, de acuerdo con el número de citas que sus aportaciones reciban por parte de otros miembros de la academia -es decir, por el reconocimiento simbólico que la tribu científica dispensa al acto de dispendio inmaterial del candidato donante-, ¿qué razón podría llevarnos a prescindir de semejante caudal de información libremente distribuida a través de los nuevos canales de expresión digital? 'El factor de impacto', dice Taraborelli, "se ha convertido en muchas áreas de investigación, de manera incontrovertible, en el estándar de facto para la evaluación de la significación científica a posteriori, pero esa situación ha sido cuestionada por muchos autores que reclaman indicadores alternativos más precisos. La necesidad de nuevas estrategias de medición que superen los límites del peer review tradicional y la necesidad de nuevas métricas que complementen los indicadores de factor de impacto, se ha convertido en objeto de una discusión muy vivida en la literatura. En el campo del Open Access", cita Taraborelli, "proyectos como CiteBase u OpCit han sido introducidos para habilitar el seguimiento de indicadores de popularidad tales como el número de vistas o descargas por artículo y para explorar la relación entre el uso y el impacto de los artículos libres online" (Taraborelli, 2008:5). Otras herramientas de software libre, como Mendeley, diseñada para el uso de la comunidad científica, invitan a sus miembros a compartir documentos y artículos, a generar e intercambiar sus bibliotecas de contenidos y anotaciones, a comunicar sus impresiones y valoraciones en torno a textos e investigaciones, en una red de relaciones que no pasa necesariamente, ya, por el acatamiento del impacto tradicional como único y principal índice de valoración sino, en todo caso, como complemento necesario. De lo que se trata, en el fondo, es de valorizar la circulación del conocimiento libre, de calcular lo que esa comunicación y entrega sin restricciones aporta a quien la realiza introduciendo en la métrica del impacto los denominados online usage factors(UF), o factores de uso online, porque la economía del conocimiento científico exige como precepto principal que los procedimientos, datos y resultados de los trabajos de investigación sean expuestos sin trabas u obstáculos a los pares si es que se pretende obtener su crédito y su reconocimiento. En el ecosistema de la web, donde la proliferación de canales y estrategias de comunicación científica autónoma han proliferado sin tasa, no cabe seguir conformándose con una métrica vinculada a la circulación analógica del conocimiento, con una contabilidad ligada a la tecnología del papel y de los comités anónimos y restringidos de especialistas. Claro que las estrategias de evaluación científica distribuida y de marcado social entrañan riesgos equivalentes a los del peer review restringido tradicional porque las métricas pueden ser infladas por la intervención improcedente y reiterativa de las arañas buscadoras (web crawlers); pueden ser alteradas por la retentiva a corto plazo de las memorias cachés; pueden ser subvertidas por la intervención deliberada y continua del propio autor, interesado en incrementar el número de usos o visitas; pueden ser simplemente engañadas por no saber distinguir entre la mera visita incidental y la inspección deliberada de una página. En todo caso, no hay nadie que no convenga, limpiamente, en que es necesario ampliar las métricas tradicionales para incluir técnicas de recuento que tengan presentes el valor de la contabilidad social distribuida.

E-lectra

Sé que he sobrepasado toda extensión razonable en una discusión o recensión al uso, pero los autores sabrán comprender que la extensión de mis comentarios es equivalente a la muestra de mi interés por su trabajo. Es justo además reconocer que en el texto de El ecosistema del libro electrónico se encuentran caminos que ya exploran parte de lo antedicho: en el epígrafe titulado Teoría de grafos, se adelantan ya muchos de los criterios cibermétricos sobre los que deberá sostenerse una nueva contabilidad digital científica (medidas de centralidad como el grado, el grado de intermediación y de cercanía pueden, entre otros elementos, arrojar nueva luz sobre las zonas de verdadera influencia); y en el mismo Epílogo del libro, quizás como un ajuste de cuentas consigo mismos o como una anticipación de lo que vaya a venir en el futuro, podemos leer: "La fuerte estructuración normativa de la publicación científica es el fruto de una tradición que se ha constituido con el tiempo y que se proyecta en todos los soportes en los que aparecen representados los conocimientos, desde el papel a la edición electrónica, y es la expresión de una forma de comunicación en la que la eficacia, antes que la retórica, constituye su expresión más acendrada. Los rígidos protocolos de representación facilitan al mismo tiempo los procesos de reconocimiento y asimilación, al erigirse en esquemas fácilmente reconocibles y extrapolables entre los distintos tipos de publicaciones posibilitando la tarea del científico, que examina un texto a la búsqueda de una información precisa, pero también la del investigador que explora el mismo para la extracción de sus elementos significativos". Así es, sin duda. "Sin embargo", dicen los miembros del Grupo Electra, "la comunicación científica, gracias a las posibilidades de la red y de la edición digital, se está diversificando por senderos alternativos, cada vez más frecuentados por el autor, cuando considera la formulación de sus hipótesis o la presentación de sus primeros resultados de investigación. Blog, microblog, redes sociales, comunidades virtuales, constituyen espacios emergentes de intervención académica que escapan a los rígidos protocolos de las publicaciones científicas convencionales". En consecuencia, "lo interesante del fenómeno es su progresiva integración en los sistemas de publicación más convencionales", de manera que "el editor académico se ha de mover no solo entre los trabajos de verificación por pares sino en el entorno de reconocimientos de patrones de publicación emergentes". Precisamente.

Si la edición universitaria ha de dar respuesta a esta realidad, quizás sea este un primer y decidido paso en ese sentido, en el de la construcción de un nuevo ecosistema de la comunicación científica.


Joaquín Rodríguez www.madrimasd.org/blogs/futurosdellibro

Páginas