Archivo de julio, 2005

‘ahora, todos somos unos hijos de puta’

Recordamos hoy un hecho ominoso: la primera explosión nuclear en Trinity (Nuevo México), apenas unos semanas antes del ataque a Hiroshima y Nagasaki. [Antonio Lafuente]

the Hace 60 años que fue detonada la primera bomba atómica de 19 kilotones en Trinity, cerca de Alamogordo, en un lugar del desierto de New México conocido como Jornada de la Muerte (Journey of the Dead) y que en 1975 fue declarado paisaje histórico nacional. Cada año se organizan visitas turísticas, pues el turismo nuclear va en aumento.

Además de alguna galería de imágenes, hay un blog (Livblogging the bomb, 60 years later), que está recreando con precisión (y con lo que hasta ahora sabemos) la cuenta atrás de este ominoso acontecimiento. También es elogiable la web Trinity Atomic Web Site que mantiene Gregory Walker.

Trinity testLa explosión (ver vídeo en tiempo real) fue sentida a 160 kilómetros de distancia y el nivel de la radiación del hongo emergente (12 km de altura) fue tan intenso que emitió un resplandor anaranjado. Hay un magnífico relato de lo sucedido, según lo cuentan los nativos de la zona, publicado en El Defensor Chieftain. Los testigos oficiales quedaron perplejos. Sus testimonios son elocuentes y han sido muchas veces recordados.

Ninguno, sin embargo, fue más elocuente que el de T. Bainbridge, responsable del Trinity test, quien nada más pasar la onda de choque, según cuenta en sus memorias A Foul and Awesome Display, se fue a felicitar a Oppenheimer para acabar diciéndole: “Ahora, todos somos unos hijos de puta”. Y ese todos al que se refería era mucha gente, porque en el Proyecto Manhattan trabajaron 130.000 personas durante unos 28 meses y se invirtieron más de 2.200 millones de dólares. 

Ese 16 de julio a las 5:29:45 hora local nació la era nuclear y, desde entonces, según cuenta New Scientist el arsenal nuclear alcanza ya las de 27.000 mil bombas y unos 1855 toneladas de plutonio. No son de menor interés otros datos de gran relevancia, como el que habla de los 935 ensayos nucleares realizados en Nevada y otros 106 en el Pacífico, por no mencionar que hay 11 ingenios nucleares perdidos por accidente y nunca recuperados. 

Ese mismo día, como vemos, nació también el movimiento antinuclear, pues fue el mismo 17 de julio cuando Leo Szilard, junto con otros 69 científicos del Proyecto Manhatan, se dirigieron al Presidente de los Estados Unidos para pedirle que no se usara el arma nuclear contra Japón. Fracasaron, pues, como sabemos, los días 6 y 9 de agosto de 1945 fueron devastadas Hiroshima y Nagasaki. 

the_bomb_projectHay muchas iniciativas, lo sabemos vía worldchanging, que están luchando contra el olvido. Entre ellas The Simnuke Project que es promovida por colectivos pertenecientes al activismo antinuclear y medioambiental, The Nuclear Age Pace Foundation, The Nuclear Policy Research Institute y The Tree New Mexico. Las tres tratan de implicar a los artistas en acciones de simulación que muestren que la amenaza nuclear no es sólo un hecho histórico, sino que sigue vigente, como pretenden evocar en señal de protesta las iniciativas que ya están en marcha: la reconstrucción de una explosión nuclear, una galería de imágenes y la plantación Trinity Memorial Grove.  En fin, son tantas las cosas que se pueden decir, como necesario este gesto con el que marcar la diferencia, un asunto en el que importan las palabras  y, sobre todo, con la capacidad para vibrar al compás de la memoria.

Etiquetas:

la ingeniería química, cosa de mujeres

Sí. La última promoción de ingenieras químicas en Caltech, Pasadena, estaba formada exclusivamente por mujeres. [Antonio Lafuente]

No hace mucho que se hablaba aquí del supuesto desinterés de las mujeres en la tecnología. Y es que el presidente de Harvard se atrevió a sugerir que la causa estaba en que los hombres siempre tuvieron mayor interés por las matemáticas. Pero las cosas cambian deprisa. Y contra las ideas prefabricadas lo mejor son datos frescos.

El de hoy es llamativo: el California Institute of Technology, Caltech, acaba de licenciar a una promoción en su escuela de ingeniería química formada exclusivamente por mujeres. La nota de prensa viene acompañada con algunos datos de interés que sirven para mostrar la evolución, entre 1970 y 2001, del proceso de incorporación de las mujeres a las profesiones científicas.

En 1970 el número de ingenieras en EEUU fue del 1%, mientras que en 2001 alcanzó el 20%. En ciencias físicas se pasó del 14% al 41%, mientras que en matemáticas creció desde 37% al 48%. En informática y computación el cambio se reflejó en un salto desde 13% al 28%. Por su parte, la National Science Foundation informa de que hay más mujeres que hombres estudiando matemáticas.

Etiquetas:

la difusa frontera entre amateurs y profesionales

Los cazaplanetas siguen ganado crédito entre los astrónomos profesionales. [Antonio Lafuente]

El astrónomo californiano amateur R. Bissinger en su backyard observatoryLos astrónomos amateurs siguen dándonos buenas noticias. Hace unos días se hizo público el descubrimiento de HD 209458 b, un planeta extrasolar situado a unos 200 años de luz de la Tierra y tan masivo como Saturno. Futura sciences publica un buen resumen de esta  notica, aunque es Sky & Telescope la que acierta  a resaltar el papel del amateur Ron Bissinger, de quien se publica una imagen junto en su backyard observatory.

La noticia ha tenido más eco del esperado porque entre los 150 planetas extrasolares ya descubiertos, el que  orbita alrededor de la estrella HD 209458 tiene dos características especiales: primero, es muy masivo, lo que obliga a revisar nuestras teorías sobre el origen de este tipo de objetos celestes y, segundo, porque el hallazgo devuelve a la actualidad el asunto del papel de los amateurs en el desarrollo actual de la astronomía.

El planeta extrasolar HD 149026. Imagen de arteEn efecto, los datos proporcionados por Bissiger son de excelente calidad, según Gregory P. Laughlin, astrónomo de la Universidad de California, Santa Cruz, y confundador de Transitsearch.org , una red que ayuda a los amateurs a seguir haciendo nuevas contribuciones.

A la vista de la precisión de milimagnitudes alcanzada, Arne Handen, director de la American Association of Variable Star Observers, ha afirmado que cada día se hace más difusa la distinción amateur-profesional”.

Etiquetas:

exteligencia, sostenibilidad y sida

La revalorización de la inteligencia colectiva (exteligencia) acumulada en las comunidades campesinas tradicionales está revelándose como pieza clave en la lucha contra el hambre y la enfermedad en África. [Nuria Valverde]

La organización Overseas Development Institute (ODI) publicó recientemente un informe sobre el impacto del SIDA en la sostenibilidad de la agricultura africana. La epidemia, que al principio afectaba a los núcleos urbanos, está sacudiendo las áreas rurales. Las muertes dejan las tierras sin trabajadores y, al parecer, están forzando la sustitución de los cultivos tradicionales por otros que requieren menos mano de obra, pero que, además de tener menor valor nutritivo, están acabando con el conocimiento local o conocimiento ecológico tradicional, así como con la posibilidad de su transmisión de una generación a la siguiente. 

Las consecuencias que se pueden anticipar son desoladoras: deficiencia inmunológica y deficiencia nutricional, sin contar la pérdida de prácticas asentadas (y bien contrastadas) que siempre siempre fueron el principal activo para detener el ciclo de las hambrunas endémicas (véanse los informes de RENEWAL). 

El SIDA no es el único factor que ha contribuido a redescubrir la simbiosis entre los cuerpos y las culturas, entre la bioinformación y la exteligencia (inteligencia colectiva). Los rápidos cambios culturales producidos por la globalización están impactando sobre la salud y el entorno de los pueblos afectados. No es extraño entonces que se estén buscando medidas que permitan recuperar la información tradicional (véase, por ejemplo, el informe de la FAO La tradition réinventée, o el proyecto In Situ en Perú, o GRAIN).

Las epidemias (incluidas la depresión, la anorexia o la obesidad) desvelan siempre la existencia de inesperados vacíos en la información colectiva. La comunidad se enfrenta a una situación que no sabe manejar porque carece de antecedentes: las normas, pautas y comportamientos que en otros tiempos la evitaban se han olvidado o perdido.

El problema entonces es cómo regular la exteligencia. Las sociedades más desarrolladas no habían sentido como propias estas pérdidas culturales, porque suponían que la validez de un remedio en Europa debía extenderse a, por ejemplo, el Indico. Hoy, sin embargo, no deja de crecer la conciencia de que al igual que no se puede privatizar el Genoma Humano, también debemos preservar estos bagajes culturales tradicionales.

Igualmente, tampoco es obvio el tránsito entre lo que aflige a un cuerpo (es decir, a un individuo) y lo que incide sobre un colectivo (y que, obviamente, afecta a una comunidad). Tales tránsitos, como prueba la relación entre agrobiodiversidad y SIDA, deben ser resueltos mejorando la gobernanza. Sólo un esfuerzo de gobernanza tecnológica (flexible, adaptada al terreno, a las necesidades y a los valores) puede ayudar a articular la erradicación de prácticas injustas, nocivas o dolorosas sin llevarse por delante un conocimiento tradicional y eficiente que a todos nos beneficia.

Proyectos de esta índole ya están en marcha (p.e., Sddimensions, de FAO); y algunos grupos, como el capitaneado por Pierre Lévy o la wiki TheTransitionier, están potenciando el análisis de la inteligencia colectiva para el desarrollo de las comunidades. Pero la pérdida irreparable de conocimiento local sigue siendo (moral y tecnológicamente) un escollo difícil de salvar.

Etiquetas:

wikipedianismo, conocimiento y ciudadanía

El ataque terrorista a Londres ha proporcionado otro ejemplo de cómo Wikipedia está cambiando las formas de crear el conocimiento. [Antonio Lafuente]

La producción colaborativa del conocimiento tiene su mejor estandarte en Wikipedia y, como botón de muestra, baste con recordar lo que está pasando con el artículo 7 July 2005 London bombings.

Los detalles los hemos conocido a través de Weblogg-ed , quien a su vez los tomó de Ed-Tech inside. El primer post lo introduce la wikipediana Morwen, un chica que se declara atea, liberal y que se presenta con un traje azul de boda, algo después de las 10am (hora local). La información que proporciona es breve, apenas 5 0 6 líneas y se atiene a la descripción estricta de los hechos. La ocurrencia ha sido muy valorada, como lo prueba que fuese entrevistada al día siguiente por The World, una de las ondas (radios) pertenecientes al grupo BBC.
 

Diez minutos más tarde, alguie iontroduce los primeros cambios al artículo de Morwen. Nueve minutos después alguien añade un link externo con una extraña nota:

“Nobody knows what’s going on WHOLY S**T!!!!?~!!111!11!”

A los dos minutos, la nota fue borrada. Otros dos minutos más y aparece un primer índice de contenidos, cuyos apartados son editables independientemente. En los siguientes ocho minutos, entre las 10:18 y las 10:26, se producen 52 nuevas ediciones, con sus correspondientes añadidos, alteraciones o correciones del texto inicial. Una hora después, ya había otras 46 contribuciones a un artículo que para entonces ya alcanzaba las 650 palabras.

Hoy, a las 8:55, 3 días después, el artículo ha sido editado 4.032 veces y  contiene 6.402 palabras, 6 imágenes y 2 tablas.  El número de autores sobrepasa el centenar y el texto ha sido tan escrupulosamente revisado que su rigor está fuera de toda sospecha. El contenido atiende todas las posibles demandas de información y ayuda, incluyendo teléfonos de interés,información sobre heridos, vídeos de cadenas de noticias y enlaces a otros eventos relacionados como, por ejempo, el atentado de Madrid (11 March 2004 Madrid train bombings),…

La Wikipedia, que ha sido propuesta como una herramienta en la prevención de catástrofes y en la gestión posterior de las horas inmediatas, ha desempeñado ahora un papel significativo en el atentado de Londres. Y, desde luego, hay que sorprenderse de la rapidez y eficacia con la que los wikipedistas han reaccionado. Pero, sin duda, la gran novedad es la nueva forma anónima, horizontal, colaborativa y multitudinaria de producir conocimiento y crear autoridad.

Etiquetas:

la vivisección, segundo holocausto

Muchos ciudadanos están exigiendo que revisemos nuestras convicciones sobre los supuestos beneficios de la experimentación con animales. Los activistas contra la vivisección se hacen más radicales y mientras algunos les acusan de terroristas, ellos hablan de segundo holocausto. [Antonio Lafuente]

Cada año mueren 100 millones de animales en los laboratorios de investigación (sin contar los que caen en instalaciones militares) en experimentos que tratan de averiguar los efectos de alguna terapia o intervención sobre el organismo. Los NIH gastaron en 1991 8.600 millones de dólares en animales para el laboratorio. En fin, no vamos a describir aquí la crueldad con la que se les tortura mediante ominosas pruebas cuya pertinencia (o validez o eficacia) es discutida por una minoría de científicos que han reconocido públicamente su vergüenza.

El 28 de febrero de 2004, un artículo publicado en BMJ, tras preguntarse si había evidencias de que la investigación animal beneficiara a los humanos, acababa recomendando que se revisaran en profundidad prácticas tan bien establecidas, como más justificadas. M. Weatherrall, director de los Wellcome Research Laboratories, escribía en abril de 1982 en Nature que “La insatisfactoria producción de efectos secundarios en humanos [de medicamentos] tras ser probados en animales es conocida desde hace tiempo… Cada especie tiene sus propios mecanismos metabólicos, y es improbable que dos especies metabolicen de la misma forma un medicamento”. Un asunto que ha sido tratado con la debida erudición por los esposos Greek en Specious Science (DVM; Continuum Books, 2002). Cada día hay más científicos que niegan la hipótesis que legitima estas prácticas (vivisección), pues no es obvio que lo que vale en un animal no humano pueda ser extendido a nuestra especie.

De acuerdo con el General Accounting Office, el instrumento de investigación del Congreso de los EEUU, el 52% de los medicamentos aprobados entre 1976 y 1985 han provocado, pese a pasar las pruebas realizadas con animales, severos efectos secundarios (FDA Drug Review: Postapproval Risks 1976-1985, April, 1990). Algunos medicamentos que pasaron los tests tuvieron consecuencias trágicas al ser aplicados en humanos. La talidomida, por ejemplo, provocó que 10.000 niños llegaran al mundo con malformaciones congénitas. El clioquinol causó 30.000 casos de ceguera. La penicilina, cuyos efectos saludables son indiscutibles en humanos, mata a los conejillos de Indias, los gatos y los perros. La aspirina produce malformaciones en ratas, monos, gatos y perros. En fin, un famoso artículo publicado en 1998 en el Journal American Medical Association (caché) concluía que en 1994 murieron en los hospitales más de 100.000 pacientes debido a los efectos secundarios.

Muchos estudios han concluido también que el espectacular incremento de nuestra esperanza de vida en el siglo XX es anterior a la introducción de vacunas o tratamientos médicos derivados de la práctica de la vivisección. El Centre for Disease Control (CDC) tampoco dejaba dudas sobre este aspecto al concluir que el factor decisivo en la mejora de las expectativas de vida hay que buscarlo en el cambio generalizado de nuestros hábitos de vida.

Estamos hablando de muertes producidas por hambrunas, electroshoks, envenenamientos, congelación, radiactividad, quemaduras, cuando no por miedo ante los horrores que se le avecinan. Que me perdonen las víctimas del nazismo y los muchos científicos conscientes que están exigiendo elevar los niveles de vigilancia y responsabilidad. En silencio, cada día, mientras aparentamos no saber nada, en nuestras universidades y laboratorios se está perpetrando un segundo holocausto, como explica Charles Patterson en su excelente Eternal Treblinka (Lantern Books, 2002). Una cadena pública de televisión de San Francisco, Undercover TV, tiene ya disponibles para ser emitidos una serie de 12 episodios en donde se muestran sin tapujos estas prácticas. Quienes han visto algún capítulo anuncian que será una difícil prueba para todos los bienpensantes.

Etiquetas:

las próximas batallas por el open data

Los éxitos del open access quedaran muy mermados (o, tal vez, en nada) si el movimiento no avanza en la dirección del open data. [Antonio Lafuente]

Muchos defensores del libre acceso al conocimiento todavía no comprenden la relación profunda entre Open Access y Open Data. Los datos como son vistosPeter Murray-Rust, de la Universidad de Cambridge, lo ha explicado recientemente en una presentación on-line. No basta con acceder visualmente a los textos, pues para que sean plenamente útiles a los lectores y reutilizables en otros contextos/trabajos es imprescindible tener los datos. Más aún, los datos deben ser accesibles para las máquinas, pues aunque los humanos sólo Los datos tal como como son recogidosven fotones, nuestras herramientas (hardware y software) necesitan datos, es decir objetos expresados en bits.

Por eso es tan importante la construcción de bases de datos. Sabemos que el 80%-90%de los datos de alta calidad producidos nunca salen de los laboratorios y que, en realidad, la subscripción a una revista no es otra cosa que la adquisición de un password que asegura la accesibilidad a constelaciones de bases de datos. También por eso era tan esperanzadora la noticia de que Celera Genomics cedía a GenBank sus bases de datos tras el fracaso del plan de negocios (vender la secuenciación, entre otras, del genoma humano) diseñado por Craig Venter, el frustrado Bloomberg de la biología.

Hace unos días ha saltado a la prensa la noticia de que la American Chemical Society (ACS), la mayor asociación científica del mundo, se opone a que sea libre y gratuito el acceso a la base de datos PubChem, una de las bases de datos desarrolladas por el National Center for Biotecnology Information (NCBI) y cuyo servicio es asegurado por los National Institutes of Health (NIH), la principal agencia federal norteamericana destinada a la investigación biosanitaria.

PubChem fue creada en 2004 y fue concebida como una herramienta de investigación que debía ser ampliada, corregida y mejorada por los mismos científicos que la usaban. En la actualidad cuenta ya con unos 850.000 registros de pequeñas moléculas químicas. Pero la ACS se siente amenazada y, junto con su Chemical Abstracts Service (CAS), dice que se está pagando con dineros públicos un servicio (duplicado) que ya ofrecían ellos, es decir la iniciativa privada. Se acusa pues al NIH de competencia desleal contra una organización que lleva dando servicios a la sociedad desde hace más de cien años.

Los promotores de PubChem no están de acuerdo y alegan que, no sólo las BD que se comparan sólo coinciden en un 3%, sino que con su conducta defienden un bien (la salud de los contribuyentes, además del libre acceso a la información financiada con fondos públicos) que está por encima del respeto a las leyes que garantizan el libre mercado. Además hay precedentes, pues también el estado viene suministrando datos meteorológicos y climáticos gratuitamente, en la convicción de que su importancia para la agricultura, el transporte y la seguridad nacional es tan grande que debe ser accesible para todos.  (más…)

Etiquetas:

$cience

Los vínculos de la investigación científica con las corporaciones industriales siguen planteando colisiones entre intereses privados y bien común. [Antonio Lafuente]

Cada día aumenta la presencia de las grandes corporaciones en la financiación de la investigación científica. A veces, los resultados del laboratorio no coinciden con las expectativas de los patrocinadores. Y este asunto plantea complejos problemas que se tratan con mucho sentido en the practical hippie y que ayer mencionaba El País, informando de que, según una encuesta realizada por B.C. Martison, M.S. Anderson y R. de Vries, ver Nature del 9 de junio, el 15% de los científicos reconocen haber modificado de alguna manera sus conclusiones para no irritar a quienes les financian.

El problema no es nuevo y, según parece, cada día se hace más visible. De hecho hay varias instituciones dedicadas a vigilar y perseguir las malas prácticas, como por ejemplo, la Office for Research Integrity, ORI. El asunto es complejo y tiene sus vericuetos. La prensa, por ejemplo, convierte muchas veces en noticia lo que no es sino una nota de prensa fabricada por expertos a sueldo de la industria farmacéutica, alimentaria o química. Otras veces, afloran institutos, fundaciones y centros que adoptan la forma de instituciones académicas independientes cuando en realidad sólo son instrumentos de propaganda al servicio de las corporaciones. Su función viene siendo producir informes (deberíamos decir intoxicar con desinformaciones) destinados a luchar contra la junk science (ciencia basura) que supuestamente difunden organizaciones de activistas, siempre acusadas de falta de rigor y exceso de furor.

Sheldon Rampton y John Stauber han publicado un libro para explicar todos estos manejos, Trust Us, We’re Experts: How Industry Manipulates Science and Gambles With Your Future. Ver aquí un buen resumen, o también aquí. Y para desanimar a quienes puedan ser tentados, Integrity in Science ha elaborado una bases de datos de organizaciones que se declaran altruistas y que, al mismo tiempo, están conectadas financieramente con intereses industriales. Estos lazos no prueban nada por sí mismos, pero deben ser vigilados, aunque sólo sea para preservar la honorabilidad de quienes, aceptando recursos procedentes de empresas, no amenazan antiguas convicciones sobre el bien común.

En marzo de 2002, Atlantic Monthly (cache) publicó un magnífico informe de Eyal Press y Jennifer Washburg, vinculados al Open Society Institute, que exploraba los peligros asociados con estas prácticas. En los últimos 20 años, los recursos traspasados desde la industria a la academia han crecido un 800% y, es frecuente, que el trabajo sea realizado por jóvenes investigadores con jornadas de trabajo abusivas y salarios de risa.

Ultimamente, sin embargo, las denuncias se suceden. Por ejemplo, el convenio firmado en noviembre de 1998 entre la Universidad de Berkeley y Novartis, según el cual, a cambio de 25 millones de dólares para el Departament of Plant and Microbial Biology, la Universidad cedía a la empresa parte de los derechos de propiedad que pudieran derivarse de las investigaciones, incluidas las que fueran finaciadas con fondos públicos, así como dos de los cinco asientos en el comité de investigación del Departamento. El asunto fue muy debatido y, entre otros efectos, provocó una profunda división en el claustro universitario. Los más combativos fueron los estudiantes del llamado Students for Responsible Research, para quienes este tipo de convenios estaba en clara contradicción con los fines exigibles a una universidad pública.

La respuesta de muchas compañías constituye una amenaza mayor para la integridad de la ciencia, pues lo que hacen es contratar secretamente a científicos para que firmen y publiquen informes que han sido preparados por empleados de la empresa. En fin, los conflictos de intereses son moneda corriente y, como se decía en NYT, objeto de creciente inquietud.

Estos conflictos han sido especialmente duros con los laboratorios farmacéuticos (Daniel Haley los califica de drug war),  al extremo de que el 19 de mayo de 2001, R. Horton, editor de Lancet (2001, 357: 1544-1545) publicaba una editorial (cache) en la que acusaba a la Food and Drug Administration, FDA, de ser la “sirvienta de la industria del medicamento”.

Etiquetas:
Categorias: danza de expertos

bosquimanos ciberastreadores

La defensa de la biodiversidad podría apoyarse en el conocimiento preservado por los rastreadores aborígenes y en las nuevas tecnoogías [Antonio Lafuente]

Cybertracker es un proyecto que merece tener éxito. Su fundamento es muy simple: consiste en utilizar una palm como cuaderno de campo electrónico para la  recolección interface de los cybertrackersde datos mediante la observación directa y no profesional del entorno. El dispositivo de mano viene provisto de un software especial, y por supuesto libre, diseñado en 1998 por el sudafricano Louis Liebengerg, que usa el Global Positioning Satellite (GPS) y que tiene una interface muy simple para que pueda ser utilizado por personas que ni siquiera sepan leer.

El proyecto aspira a recuperar la vieja cultura de los rastreadores, pues recopilar información sobre la vida cotidiana de los animales y la forma en la que interactúan con el entorno, no es un asunto trivial. La observación en zoológicos y laboratorios o la monitorización mediante collares puede ser muy útil para seguir los hábitos en cautividad o los movimientos en libertad, pero nada nos enseña sobre su relación con otros animales o sobre sus intenciones o su vida social.

De cualquier manera, hay una inmensa cantidad de conocimiento local en manos de rastreadores aborígenes, tanto respecto a la fauna, como respecto a la flora, la climatología o la herbolaria medicinal. Wired News lo ha visto muy claro, al reconocer en este proyecto la capacidad para incorporar el saber local e iletrado de los rastreadores a la preservación de la biodiversidad. De hecho, estos amateurs ya están firmando algunos artículos en revistas académicas.

Ya hay más de 400 proyectos en curso e 30 países y todo indica que seguirá aumentando el número de adhesiones a esta sencilla y genial propuesta, cuyo aliento no es sino dar valor a los saberes más antiguos mediante las tecnologías más sofisticadas. Pues para Liebengerg esta es una de las últimas oportunidades de preservar las formas de vida de los bosquimanos en el desierto de Kalahari. Una tarea necesaria, aunque sólo sea, dice Liebergerg, porque “en el arte del rastreo puede estar el origen de la ciencia”.

Etiquetas:

no a las patentes de software

La directiva que póximamente se discutirá en el Parlamento Europeo sobre patentes de software no defiende el bien común. [Antonio Lafuente]

No a las patentes de software

Es inminente la segunda lectura por parte del Parlamento Europeo de una directiva que podría ampliar más allá de lo razonable y, por supuesto, del bien común las posibilidades de patentar software.  Hace tiempo que Hispalinux lo vienen explicando en ¿Por qué las patentes de software son una problema?  También desde Barrapunto nos recuerdan que estamos en fechas decisivas y se nos anima a protestar.  Richard Stallman ha publicado un bello artículo, Patent Absurdity, en The Guardian.

Las pequeñas empresas también están entre los grandes perejudicados, como lo viene explicando la The Foundation for a Free Information Infrastructure (FFII), de ahí que se estén movilizando a favor de la Economic Majority Against Software Patents como ya lo hicieron en 2000, para resistir la asfixiante presión ejercida en Bruxelas por las grandes multinacionales.

La FFII para demostrar hasta qué punto sería absurda la directiva que puede aprobarse hizo un listado de 20 actividades cotidianas en Internet que por estar ya patentadas serían ilegales, salvo que se paguen los derechos.  La mera reproducción de algunas de ellas muestra la locura en la que estamos a punto de enbarcarnos:

  • Vender cosas en una red, usando un cliente y un servidor, o un cliente, un servidor y un procesador de pago. EP803105 – EP738446
  • Hacer pedidos por teléfono móvil. EP1090494
  • Carrito de la compra electrónico. EP807891 – EP784279
  • Pagar con tarjeta de crédito en Internet. EP820620 – EP779587
  • Encargar un regalo para alguien dando su email. EP927945
  • Pedir un crédito automáticamente. EP715740
  • Firma digital del logo VISA. EP798657
  • Usar bases de datos como ayuda al usuario. EP673135
  • Usar una TV como metáfora para seleccionar fragmentos de video. EP670652
  • Indicar el descuento aplicable a un pedido. EP370847

Etiquetas: