La presión de publicar

En la edición de The Scientist de hoy, se ha publicado el artículo Is Peer Review Broken?, dónde se analiza el hecho del gran número de artículos rechazados por las revistas punteras (del área de Biología, pero extrapolable a otras Ciencias), y lo que esto significa y provoca.

En ese artículo se ctan una declaraciones muy interesantes de Peter Lawrence. Lawrence es un biólogo del desarrollo de gran y merecido pretigio y curriculm espectacular (premio Prínipe de Asturias en 2007). Lawrence comenta que sus, aproximadamente, primeros 70 artículos se publicaron en las revistas a las que se enviaron originalmente. De pronto, esto cambió.

Como el redactor de la revista lo explica mejor que yo, reproduzco a continuación el párrafo en el que Lawrence cuenta que pasó después:

«Lawrence, based at the MRC Laboratory of Molecular Biology at Cambridge, UK, says his earlier papers were always published because he and his colleagues first submitted them to the journals they believed were most appropriate for the work. Now, because of the intense pressure to get into a handful of top journals, instead of sending less-than-groundbreaking work to second- or third-tier journals, more scientists are first sending their work to elite publications, where they often clearly don’t belong»

Los que seguís este blog, sabéis que soy un poco ingenuo en ciertas apreciaciones relacionadas con la Ciencia y lo que la rodean (ver por ejemplo, mi artículo sobre las revistas científicas y su impacto).

Una de mis ingenuidades es la creencia de que había que publicar nuestra investigación para que les lleguen a nuestros colegas con intereses parecidos al nuestro (si trabajas en Química orgánica, publica en las revistas de más difusión del área o en revistas de Química general, pues son las que leerán tus colegas). Sin embargo, hoy en día todo el mundo intenta publicar en revistas del mayor índice de impacto, IF, (cuando a veces no se sabe lo que significa realmente este índice); y hay áreas dónde la dispersión de valores en los índices de impacto es ridícula y coyuntural (¿recordamos el ejemplo del Journal of Electroanalytical Chemistry y la fusión fría? ¿o los casos de revistas con alto índices de impacto debido a que publican revisiones junto a artículos originales?).

¿Por qué está ocurriendo esto? La respuesta es sencilla: asumimos que nadie lee nada y sólo se suma el índice de impacto de la revista en la que se ha publicado (esto sirve para conseguir contratos o proyectos). Esto es muy triste cuando todo el mundo desde su casa y con un ADSL puede disponer de casi todos los artículos científicos del mundo a un toque de teclado; y puede leer y valorar un artículo científico. Estamos creando una burbuja científica; «estamos confundiendo valor y precio«, y como dijo Machado, esto es de necios.

Bernardo Herradón

IQOG-CSIC

herradon@iqog.csic.es

Compartir:

9 comentarios

  1. Hola Bernardo,

    Pues así es. Un ejemplo personal.

    En mi especialidad (edafología) con varios miles de expertos tan solo existen dos o tres de interés general en el ámbito superan un impacto 2. Y las que conciernen a mi especialidad de trabajo, en donde sabes que van a leer los papers los expertos imlicados, raramente pasan del 1,8.

    Por tanto poco para miles y ¿que puede hacer uno para sacar un miserable sexenio?.

    Hay revistas de bajo impacto que pueden ofrecer trabajos de mediocrecalidad. Pero existen revistas especializadas buenas que tienen tal impacto debido a su especializazación en un tema concreto. No tienen nada que ver las unas con las otras pero el sistema que padecemos las introducen en el mismo saco. Y los invastigadores se ven obligados a intentar desesperadamente publicar en las de otra especialidad pero con mayor Impacto, que no prestigio entre sus practicantes.

    Así nos va.

    Un abrazo

    Juanjo

  2. Bernardo, una vez más das en el clavo, sobre todo con el último párrafo de tu comentario. Esa “burbuja científica” puede estallar en cualquier momento. Y los problemas con los valores de IF se disparan cuando se trata de comparar y valorar trabajos de campos afines pero diferentes en la calsificacion SCI.

  3. Totalmente de acuerdo con este artículo.
    Pero añadiría más: ¿cuéntos artículos se fragmentan para conseguir, no sólo más IP, sino mayor número de los mismos, en lugar de poresentar un trabajo completo y coherente?
    Normalmente, los curricula se valoran «al peso».
    Además, esta burbuja está provocando que algunas áreas queden totalmente desatendidas ante la imposiblilidad de publicar en revistas de alto IP.

  4. Si el currículo se valora al peso, es por que nadie se fía de que los propios científicos sean capaces de valorarlo objetivamente sin tener en cuenta sus amistades y competidores.

    ¿Cuál es la solución? ¿Un índice de impacto para cada artículo?

  5. Hola a todos,
    Este es un tema delicado porque hay que tener mucho cuidado con evitar que se aprovechen del problema de los índices de impacto (que no dudo que algo de problema sí que hay) los científicos que podríamos denominar como «mediocres». Sin querer ofender a nadie en concreto, pero me parece que ya va siendo hora de que se digan las cosas como son en el campo de la ciencia de este país.
    Uno ya ha oido mucho hablar en algunos centros del CSIC, y sobre todo en universidades españolas, a gente de este estilo quejándose de que no obtienen casi proyectos ni publican bien porque trabajan en campos que no están de moda. En contados casos luego se ve que tienen algo de razón y que de verdad son admirables, pero en la mayoría (al menos en mi experiencia, quizá es que tengo mala suerte) acaba uno viendo que es que en realidad no hacen nada que pueda llamarse como «buena ciencia».
    Luego también ve uno en las oposiciones cómo esa misma gente contribuye a que en sus grupos, o en los del departamento o instituto donde trabajan, saquen las plazas no gentes con valía sino «chicos de la casa» porque de alguna manera hay que compensar el que hayan trabajado en un área donde se publica mal y porque «no se puede comparar el arbol que ha crecido en un suelo muy abonado con el que ha tenido que hacerlo en uno con pocos nutrientes» (palabras casi literales que he leido en una ocasión). De modo que el bueno que se vuelva al extranjero o a otro de esos centros donde están «los listos» y a nosotros que nos dejen haciendo lo nuestro.
    Evaluar la ciencia es muy importante, más en tiempos de escasez de recursos, si es que queremos primar la calidad y, por muchos defectos que puedan tener, los índices de impacto de los artículos son una medida objetiva de esa calidad. Mejoremos el método pero, ¡cuidado con los pescadores en rio revuelto!

  6. Muchas gracias por los comentarios.

    A Gloria:
    La fragmentación de los resultados de la investigación (o la duplicación o triplicación,…. a través de comunicaciones preliminares) daría para un artículo muy extenso. Este es otro de los grandes problemas de la ciencia.

    A Alfonso:
    Hoy en día tenemos muchísima información de análisis biliométrico. Tenemos las máximas facilidades para saber las citas que recibe un artículo (excluyamos las autocitas, incluidas las recibidas por artículos de la misma revista, pues también hay presión en este sentido) y también la razón por la se ha citado un artículo (no siempre se cita positivamente).
    En cualquier caso, yo debo ser un «clásico» (o diciéndolo menos poéticamente, un «antiguo») y me gusta leer (y anotar al margen) los articulos que caen en mis manos. Se supone que los CVs de candidatos a ciertas plazas o contratos los deben evaluar expertos en la materia que no tendrían que tener dificultades en valorarlos cualitativamente y cuantitativamente.

  7. Totalmente de acuerdo y aún mas, creo que la «burbuja científica» esta ahí. Todo se mide por índice de impacto y número de publicaciones. De los artículos que habéis leido últimamente: Cuales os parecen que los resultados están maquillados, o están incompletos o….?
    Parece que el sistema se está inflacionando, hay curriculums con 200 o 300 artículos. Yo creo que publicar uno o dos al año de calidad da trabajo suficiente si ademas estos deben de probarse etc.
    Este sistema esta realmente pervertido y ya hay muchas voces que hablan para publicar menos y de mucha mejor calidad.
    Los científicos tendríamos que reflexionar sobre ello.

  8. Lo del indice de impacto es discutible en Ciencia pero eademás es una aberración en Tecnología.

    Los ingenieros en España tenemos que hacer mas prototipos y menos articulos. El deficit español mas importante es la falta de productos españoles en el mercado y eso solo se consigue con mas desarrollo. Hay que armonizar la investigacion cientifica. eligiendo bien las areas en las que se hace, y el desarrollo tecnologico. Por mucha VCiencia que hagamos si no sacamos productos al mercado no saldremos de la crisis.

  9. Compañeros científicos: Además de hacer buena ciencia en temas relevantes, hay que saber venderse. Como en cualquier otra profesión. Todos los sistemas tienen sus fallas, y siempre habrá alguien que se sienta menospreciado y/o incomprendido. Lo primero que tenemos que hacer es TRABAJAR MÁS y MEJOR

    saludos

Deja un comentario