Sobre la Producción Científica Española, Su Calidad y La Fiabilidad de las Revistas de Impacto

El otro día, el amigo Germán Tortosa me envió el enlace a una noticia de la Fundación Española para le Ciencia y la Tecnología que también apareció publicada en el rotativo “El País”. No importan solo cuántos nos citan, sino quienes y cómo lo hacen. De nuevo se critica al denominado “factor de impacto” de las revistas científicas, abundando también en el limbo en el que se encuentran nuestras autoridades sobre las revistas científicas españolas. Hoy mismo, magnifico periodista científico Xavier Pujol Gebellí, del que muchos otros deberían aprender, publicó en el sistema mi+d la columna  Empresas biomédicas en la picota, en el que demuestra lo que algunos sabemos, pero que otros muchos colegas no desean ni oír ni leer. Me refiero a que los contenidos de muchas de las denominadas revistas de prestigio tampoco son fiables y menos aun cuando se trata de exponer resultados en los que se encuentran implicadas las empresas multinacionales. Reproduciré el primero, mostrándoos el encabezamiento del segundo, que os sugiero que leáis en su totalidad, ya que no tiene desperdicio. Permitirme tan solo unas consideraciones previas.  

factor-de-impacto-fuente- blog conservationbytes-com 

Factor de Impacto. Fuente: ConservationBytes.com

 

Como ya he comentado en algún que otro post, hace ya bastantes años asistí a una conferencia  a la que también se encontraban el secretario de estado y el presidente del CSIC de la época. El conferenciante no era ni más ni menos, que Eugene Garfield, el alma mater de todo este entramado del que la primera noticia os informa, y con el cual se juzga la calidad de la tarea investigadora de los científicos y sus instituciones. Cuando se le interpeló sobre el papel de todos estos índices para valorar la actividad llevada a cabo por un investigador, su respuesta debió caer en el limbo. Más o menos venía a decir: “estos indicadores son útiles, pero no se puede juzgar a una persona haciendo “exclusivamente” uso de los mismos. Existen otros aspectos que no se pueden cuantificar y que son de una gran importancia. Pero a los responsables de la política científica les resulta mucho más cómodo sacar una calculadora que realizar un análisis serio de las aportaciones que llevamos a cabo los investigadores y sus instituciones. ¿Resultado?: “Publish or perish”, es decir publica o perece. ¡Verdades, mentiras y estadísticas! Lamentable en mi opinión.

 En consecuencia, el objetivo ya no es intentar llevar a cabo una buena ciencia, sino como “colarla en trocitos (las denominadas publicaciones salami, o algo peor…) en los  Journals de prestigio. Y así el medio se convierte en fin. ¡Un dislate! No hay más vueltas que darle al asunto. Esa es mi opinión, y la de otros muchos. Pero como todos los colegas deben publicar en “cantidad” hemos convertido a las revistas científicas en (i) un medio de polución repleto de  aportaciones irrelevantes, (ii) un “modelo de negocio” impresionante para ciertas multinacionales y (iii) el plato más apetecible para los colegas que desean publicar a mansalva, y que de paso machacan a sus rivales. En mi opinión, se trata de un cáncer para la genuina y honesta indagación científica. Recomiendo, por enésima vez, la lectura del bestseller Anatomía del Fraude Científico. Si lo leéis sabréis porqué. No creo que sean necesarios comentarios adicionales.      

 Juan José Ibáñez

  No importan solo cuántos nos citan, sino quienes y cómo lo hacen

 Incorporación del EigenfactorTM Score en las últimas ediciones del Journal Citation Report-Science Edition (JCR-Science/ISI, Thomson-Reuter)

La incorporación del EigenfactorTM Score en las últimas ediciones del Journal Citation Report-Science Edition (JCR-Science/ISI, Thomson-Reuter) nos induce a llamar la atención sobre este importante indicador, poco valorado aún en nuestro país, que mide con bastante aproximación la importancia de una revista científica en el contexto internacional, evitando así las frecuentes adulteraciones del conocido y mal empleado Factor de Impacto.

La puntuación referida traduce el rol de una revista en la comunidad científica, a través de un algoritmo similar al PageRank del buscador Google. Así, a diferencia del número indiscriminado de citas que recibe una revista (que es lo único que mide el Factor de Impacto en relación con el número de artículos), lo que se valora es su difusión real -su uso- y la categoría de las revistas que la recogen en sus listados de referencias. En palabras llanas: no es lo mismo ser citado por la propia publicación (auto-referencias) o la «revista médica de mi pueblo» que por Nature o el New England Journal of Medicine, que están entre las más apreciadas del mundo. Tampoco es igual que una revista aparezca entre 200 referencias (por ejemplo, en un artículo de revisión) que entre 20 (lo típico de un artículo original).

Desde esta nueva perspectiva, la fotografía que se ofrece de la prensa científica española no es muy estimulante, ya que el 96,6% de las revistas obtiene una puntuación inferior a 0,009 y sólo 2 la superan con diferencia. Esto nos lleva una vez más a insistir en la situación de abandono de nuestras pocas publicaciones científicas de calidad, a la espera de ese necesario Plan Estratégico Nacional de Revistas Científicas, algo que les permitiría competir con éxito en el agresivo mercado internacional. No en vano, el producto final de la investigación científica son los artículos de revista, pero su nivel de competitividad en España está al capricho de las multinacionales de la edición (el número de revistas españolas pre-competitivas engullidas ya por Elservier, Springer, etc. se acerca a un par de centenares).

Pero, lo más grave, es que prácticamente ningún científico español serio se plantea hoy publicar en su país lo mejor de su producción profesional, algo que hacen habitualmente norteamericanos, holandeses, alemanes o británicos. Además, damos la impresión de que lo único que interesa en España son las Humanidades y las Ciencias Sociales (el 75% de nuestras revistas… ¡sólo una Facultad de Letras de Madrid publica 11!). El escaso número de artículos anuales -pocas revistas superan el centenar- y la dispersión de esfuerzos y recursos (tenemos 17 revistas españolas de Pediatría, por ejemplo) son otras de nuestras importantes limitaciones, junto a su deficiente comercialización e internacionalización. Sin olvidar que los repartos gratuitos y el acceso libre en Internet hacen inviables la mayor parte de nuestras revistas científicas, cuando este tipo de publicaciones son el gran negocio de las editoras multinacionales. Mientras, nuestros bibliotecarios e investigadores gastan su hijuela en financiar sociedades y editoriales extranjeras. ¿No es tiempo ya de cambiar?


Juan Aréchaga (juan.arechaga@ehu.es) es Catedrático de la Universidad del País Vasco y Director de la revista científica española The International Journal of Developmental Biology (www.intjdevbiol.com)

Fecha de publicación: 07/09/2010; Autor: Juan Aréchaga Fuente de la noticia: EL PAÍS

 Empresas biomédicas en la picota

El fin de toda empresa, por definición, es ganar dinero, ni que sea poco. Ocurre igual para las que se dedican a la salud, pero precisamente por ser ese su campo de acción, las actividades fraudulentas deben controlarse escrupulosamente. El uso de autores ficticios en artículos científicos o de publicidad engañosa deberían castigarse ejemplarmente.

 Autor: Xavier Pujol Gebellí (lectura breve y muy recomendable)

 (…) pinchar el enlace para seguir leyendo.

 Y Sobre el nuevo índice y de cómo las cosas giran inesperadamente según los “factorcitos”, ver este post en el Blog: La Ciencia de la Mula Francis. Que cada uno extraiga sus propias consecuencias.

 ¿Qué mide mejor la influencia de una revista, el eigenfactor o el factor de influencia? Si quieres que te publiquen un artículo en PNAS, vistos los resultados, tendrás que afirmar que el eigenfactor. Así lo hace Fersht en su artículo en PNAS. Un artículo que muestra que PNAS es más influyente que Science, aunque menos que Nature. Un artículo, como es obvio, enviado a PNAS. Un artículo, como es obvio, rápidamente publicado en PNAS. Espero que esto sea una “broma” de la Mula Francis y no sea la verdadera historia detrás del artículo de Alan Fersht, “The most influential journals: Impact Factor and Eigenfactor,” Proc. Natl. Acad. Sci. USA (PNAS) 102: 16569-16572, 2009 . ¿Realmente el Eigenfactor mide mejor la influencia de una revista que el Factor de Influencia?

 Las 5 mejores revistas (entre todas las impactadas) en función del índice de impacto según el JCR de 2007: CA-CANCER J CLIN (69.026), NEW ENGL J MED (52.589), ANNU REV IMMUNOL (47.981), REV MOD PHYS (38.403), y NAT REV MOL CELL BIO (31.921).

 Las 5 mejores revistas (entre todas las impactadas) en función del índice de impacto a 5 años según el JCR de 2007: ANNU REV IMMUNOL (49.642), NEW ENGL J MED (45.941), CA-CANCER J CLIN (45.611), REV MOD PHYS (42.292), y NAT REV CANCER (37.233).

 Las 5 mejores revistas (entre todas las impactadas) en función del eigenfactor según el JCR de 2007: NATURE (1.83870), P NATL ACAD SCI USA (1.74485), SCIENCE (1.69272), J BIOL CHEM (1.53982), y PHYS REV LETT (1.26804).

 Finalmente, las 5 mejores revistas (entre todas las impactadas) en función del factor de influencia de sus artículos según el JCR de 2007: ANNU REV IMMUNOL (26.653), REV MOD PHYS (25.456), ANNU REV BIOCHEM (20.985), NAT REV MOL CELL BIO (19.323), y CELL (18.188).

 ¿Qué os gusta más? El eigenfactor como a Fersht. ¿El índice de impacto a 5 años? ¿El factor de influencia? Recordad que son factores para medir revistas, no para medir investigadores, ni grupos de investigación, ni proyectos de investigación. Esperemos que nuestras autoridades universitarias algún día lo aprendan.

 (…)

 Lo dicho, el “baile de San Vito” (nombre en la Edad Media para una enfermedad que provocaba convulsiones, asociadas entonces con la posesión por parte del demonio). Todos sabemos que el “altísimo” índice de impacto de INT J NONLIN SCI NUM es “ficticio” (quiero decir “amañado” por las políticas del propio editor, el Dr. He). Si trabajas en Física Matemática, ¿qué resultado te gusta más? ¿El del eigenfactor como a Fersht? ¿El índice de impacto a 5 años? ¿El factor de influencia?

 Según qué índice bibliométrico utilices obtienes resultados bastante diferentes. ¿Qué índice seguirán usando nuestros gobiernos? ¿Con qué índices tendremos que acompañar a nuestros C.V.?

En esta entrada la Mula Francis está preguntona. Una última pregunta: ¿Habrá algún día un eigenfactor para autores/investigadores asociado a nuestros ResearcherID?

Compartir:

2 comentarios

  1. amigo mio, estas en españa, aqui no se apoya ni se invierte , ni asi trajes, la gallina de los huevos de oro, de todas maneras , solo te queda un camino, el del medio, quieres investigar, pagatelo, ramon y cajal se pago su viaje a alemania, busca una verdad , por ti mismo, vete al extranjero en busca de esa verdad , mueve cielo y tierra, por conseguirlo, pon la vida encima de la mesa, y te aseguro que despues, ya no te hara falta la ayuda de nadie, puesto que lo habras conseguido, si ese no es el objetivo ni las ganas , simplemente otro cientifico mas en busca de dinero !ha! no te enfades, buecas la verdad a traves del dinero que te den , encuentrala y luego pide dinero, es mas asi y todo , quiza no te lo den, otra cosa es mejor cobrar del estado y qudarse quieto viviras mas feliz, no ves que eres catedratico, chico lo tienes chupado, no te compliques la vida esas cosas son para otra gente, que pone la vida encima de la mesa
    saludos

  2. Amigo Antonio,

    Eso que me recomiendas lo hago ya yo desde el año 2000. No me resulta novedoso (aunque si honerso). Me pago mi investigación con el dinero de mi bolsillo y así investigo en los temas que me gustan y se publica en revistas indexadas, etc. Ahora bien disfruto de no tener obligaciones familiares. En consecuencia se de sobra que muchos no pueden permitirse ese lujo.

    Saludos Cordiales

    Juanjo Ibáñez

Deja un comentario