‘Archivos digitales’

La Alianza por los Libros Libres

Prefiero traducir de esa manera el título de Open Book Alliance que lidera Peter Brantley, asumiendo que open entraña libertad y que la etimología de libro nos invita a utilizarlo como sinónimo de libre. En el texto que alude a su misión se dice: “la digitalización masiva de los libros promete proporcionar un valor tremendo a consumidores, bibliotecarios, científicos y estudiantes. La Open Book Alliance trabajará para hacer avanzar y proteger esta promesa” contra el intento de monopolización que Google Books practica. El hecho, según Brandley, de que Google utilice formatos propietarios, cobre diferidamente por sus servicios y se convierta en un intermediario único a todos los contenidos bibliográficos de la historia de la humanidad, no es solamente una estrategia conservadora sino, sobre todo, una estrategia peligrosa (es cierto que en la OBA hay sospechosos compañeros de viaje, entre ellos Microsoft, Yahho y Amazon, que seguramente serán creyentes de última hora en la libertad de los formatos, pero no siempre pueden elegirse todos los compañeros de vagón).

En la página de inicio de la alianza pudimos leer hace unos días lo que hoy ha publicado la prensa nacional: Google’s Shutterbug Stumble, la denuncia que la American Society of Media Photographers, la Graphic Artists Guild, la North American Nature Photography Association y los Professional Photographers of America, han interpuesto contra Google por digitalización ilegal y falta de compensación de los derechos de la propiedad intelectual arrebatados sin permiso. En el fondo Google procede como muchos de los lugares de descarga ilegal de contenidos: atraen una gran cantidad de tráfico y se financian con el dinero que la publicidad genera. La Federación de Gremios de Editores de España argumenta hoy, precisamente, que se “han detectado alrededor de 200 webs dedicadas a la “piratería digital de libros“, lo que no es otra cosa, en términos generales, que esa gran cantidad de buscavidas digitales que buscan circulación en sus sitios mediante la distribución ilegal de contenidos protegidos. La cuestión, me parece a mi, sería saber por qué se llama defensa de la cultura libre a esos sitios de manilargos digitales y por qué no reciben el mismo trato los chicos de Google, o viceversa.

En todo caso, la cifra de 150 millones de euros (sin avalar, al menos todavía, por estudio empírico alguno), enmascara, a mi juicio, falta de oferta y, sobre todo, falta de ambición y coordinación en una estrategia digital global de toda la cadena de valor del libro. Mientras eso no exista, proliferará todo lo demás. Por eso cobra especial relevancia recordar empresas como la de BookServer (liderada también por Brantley), que permite localizar cualquier libro o contenido escrito allí donde esté, independientemente de cuál sea su editor o su distribuidor, en un claro intento por universalizar el acceso sin monopolios ni formatos propietarios.

Esa es la parte que más me interesa del trabajo de Peter Brantley y, si todo va como debe, el próximo miércoles nos dará una sorpresa en este mismo blog.

Etiquetas:

Buzz, Google editions y el tribunal constitucional alemán

Francis Pisani contaba ayer en “La precipitación de Google Buzz” cómo la cuestión de fondo en el lanzamiento malogrado de la nueva herramienta de Google (que pone al descubierto, sin tapujos ni recortes, a todos nuestros contactos y a todos los mensajes que intercambiemos) es la privacidad o, más bien, la falta de privacidad, la exposición pública y sin cortapisas de nuestra intimidad. En el debate consiguiente el Consejero Delegado de la firma norteamericana, Eric Schmidt, parecía tenerlo claro:  “si hay algo que no desee que alguien conozca, para empezar, no debería hacerlo”.

No parece que la comprensión norteamericana del derecho inviolable a la intimidad sea compartida por la Unión Europea o, al menos, por uno de sus países principales: el Tribunal Constitucional Alemán viene de condenar el almacenamiento indiscriminado de datos personales de los usuarios de internet sin motivo justificado, ni siquiera los seis meses que antes se consideraban preceptivos, lo que ha dado la razón al Partido Pirata alemán, que venía reclamando hace tiempo lo que los circunspectos jueces del constitucional han reconocido: que el acopio indiferenciado de datos privados (no de las IPs, que son dinámicas, y que sí pueden recogerse porque no delatan tendencias ni propensiones) puede socavar gravemente la confianza de los ciudadanos en los medios de información digital al sentir un difuso sentimiento de amenaza o vigilancia permanente.

La reponsabilidad de que estas medidas se cumplan, según el Constitucional, recaen en las operadoras telefónicas -inspeccionadas por las autoridades públicas-, que si bien deben correr con los costes que de eso se deriven también se benefician con creces del tráfico digital. Al mismo tiempo, el Parlamento alemán publica una encuesta entre los miembros de sus diferentes partidos como fundamento común de una política consensuada sobre el papel del Estado en la sociedad digital: su función, se dice en el documento, debe ser la de “garantizar el funcionamiento y la integridad (de Internet) como bien común”, ni más ni menos. Cada partido insiste en un aspecto concreto de esa comunalidad (la CDU gobernante en que Internet es un espacio sujeto a derecho; la FDP en garantizar la privacidad; los Verdes en el uso de estándares abiertos y software libre), pero todos comprenden que Internet es el procomún moderno por antonomasia.

La computación en nube, herramientas como Buzz y otras muchas, se sitúan en un limbo legal que atenta contra garantías fundamentales del Estado de derecho. Proyectos como Google Editions, Apple Store, etc., etc., que conciben el futuro de la edición como una nube de libros ubicua pero intangible, caen de lleno en esta suposición. ¿Cómo preservarán la intimidad y privacidad del posible lector del futuro?

Etiquetas:

De la duración en la era digital

Hablemos de metadatos (seguro que mi asesor de márketing y comunicación estaría en desacuerdo con este inicio. Es posible que me hubiera recomendado comenzar una nueva entrada utilizando aquella famosa fórmula de Elena Ochoa, “Hablemos de sexo”, pero yo soy así). Hablemos de metadatos, insisto: en la primera década del siglo XXI, por ponerle una fecha arbitraria, gran parte del trabajo, el esfuerzo y el dinero de bibliotecarios y archiveros, además de ingenieros informáticos, ha ido a parar a la nebulosa disciplina de la generación de metadatos. Proyectos como METS (no el equipo de baloncesto de New York sino el Metadata Enconding & Transmission Standards) o como Dublin Core, ponen de manifiesto una aberración subyacente: la de la desatinada caducidad de los datos digitales; la de la imposibilidad de recuperarlos retroactivamente, bien porque fueron escritos en lenguajes ininteligibles, bien porque la duración de los soportes no sobrepasa los 10 años, bien porque las compañías que desarrollan los programas de software que interpretan la información binaria se ocupan deliberadamente de hacerlos incompatibles y mutuamente ininteligibles; la de la computación en la nube, el cloud computing, que dispone nuestros datos en una nebulosa inalcanzable e irrecuperable, administrada con tecnologías propietarias, al albur de los ataques de la piratería y el espionaje.

Las cosas no mejoran en absoluto con el advenimiento del mágico IPad: nuestra música, nuestras imágenes y nuestros textos están en nuestros soportes pero no lo están del todo, porque debemos administrarlos y gestionarlos a través de plataformas propietarias traduciéndolos a lenguajes cerrados e incompatibles.

Todo esto puede parecer una mera rabieta, pero no lo es: en el año 2001 la Office of Scientific and Technical Information del Departamento de Energía de los Estados Unidos encargó a Los Alamos National Laboratory que investigara un asunto preocupante: ¿de qué manera podría y debería preservarse de manera duradera e inteligible información sensible sin que estuviera sometida a los avatares de la información digital, a sus incompatibilidades deliberadas, a la precariedad física  de los soportes magnéticos? ¿qué clase de técnica de escritura y de soporte serían los más apropiados para asegurar la transmisión de la información, su inteligebilidad y su interpretación? ¿acaso un programa de metadatos, como sugiere METS y DublinCore, para que seamos teóricamente capaces en un futuro lejano de interpretar aquello que fue escrito en un lenguaje binario y no directamente legible por los seres humanos?

Pues no: los expertos del laboratorio de Los Alamos encontraron una solución a caballo entre la historia antigua y la modernidad: la HD-Rosseta, una técnica de inscripción mediante un haz de iones o de electrones litográfico sobre un soporte duradero, bien planchas de níquel u otros metales perdurables. No en vano la tecnología utilizada se bautizó con el nombre de un célebre precedente de prolongada duración: Rosseta. 1000 años al menos de conservación y permanencia asegurados frente a los 500 del papel sin componentes ácidos y frente a los 10 de los frágiles y evanescentes soportes digitales. Un sólo inconveniente: las gafas para leer las inscripciones deberían tener forma de microscopio electrónico.  El artículo que hoy puede leerse y que fue el resultado de esas indagaciones lleva por título “Is there room for durable analog information storage in a digital world?“, y en sus conclusiones destacaba una obviedad que entre tanta nube digital suele pasar desapercibida: “hay espacio para el almacenamiento duradero en soportes analógicos en un mundo digital porque existe la necesidad de preservar la información seleccionada independientemente de la tecnología y el tiempo”.

A día de hoy, tal como ponen de relieve las discusiones que pueden encontrarse en distintos foros de la web, la piedra y el IPad andan a la par en cuanto a ventajas potenciales, aunque después de leer las conclusiones de los científicos norteamericanos, estoy por afirmar que me quedo con la primera.

Etiquetas:

Guadalajara y los futuros del libro

Mis relaciones con el espacio-tiempo se agravan con la edad. Mi cuerpo pretende estar siete horas por delante mientras mi yo virtual anda siete horas por detrás en la Feria de Guadalajara, sin terminar de encontrarse. Mientras dirimo estas diferencias irreconciliables a base de café, buena parte de los futuros del libro se deciden en Guadalajara. Lo que las industrias de Iberoamérica decidan hacer tendrá, sin duda, un efecto trascendental en la manera en que el conocimiento circule y se encarne, y está en su mano el hacerlo de una manera distinta e independiente.

http://www.elojofisgon.com/

(más…)

Etiquetas:

La estrategia digital europea

Es posible que si en lugar de a Bruselas, donde se celebró la última conferencia Ludwig Erhard, hubieran invitado a Viviane Reding, la Comisaria europea para las Telecomunicaciones y los Medios Digitales, al último encuentro de los editores en Santander, a más de uno le hubiera dado un amago de infarto. La comisaria europea para los asuntos digitales habla en su conferencia, profética y estratégica, de nuevas formas de regulación de la propiedad intelectual; de la imperiosa necesidad de invitar e incitar a los nativos digitales a que se sumen al trabajo colaborativo en la web, abandonando cualquier forma de represión legal; de un impulso decidido de la digitalización de los libros; de propiciar un acceso más sencillo y atractivo, en suma, a contenidos de alta calidad sobre conexiones de alta velocidad, fijas o móviles, en un nuevo escenario de economía digital que puede propulsar lo que Erhard hiciera en su tiempo, crear una nueva economía social de mercado en la red de la que todos nos beneficiemos. A más de uno, seguro, le hubiera dado un amago de embolia.


(más…)

Etiquetas:

¿Internet se apodera del libro?

Hoy aparece en el suplemento El Cultural del diario El Mundo un reportaje titulado “Internet se apodera del libro”, afirmación que yo prefiero incluir entre interrogantes. Daniel Arjona, el periodista encargado de realizar la crónica -un artículo, por otra parte, bastante ecuánime- me pidió que contestara a una serie de preguntas para incluir mi punto de vista. La brevedad y estrechez del formato de la prensa -más aún el de la televisión o el de la radio- recortan, inevitablemente, la extensión con la que uno contesta, y normalmente no ha lugar a enmendar o matizar las afirmaciones vertidas. Solamente es posible contextualizar o ampliar los extractos seleccionados, que suelen perder parte de su significado, cuando uno dispone de su propio medio de comunicación.


(más…)

Etiquetas:

Google apadrina las obras huérfanas

En torno al 30 de octubre comenzaron a aparecer noticias en los medios de comunicación en torno al acuerdo al que Google había llegado con los principales actores editoriales norteamericanos -autores particulares, Authors Guild, American Association of Publishers- para compensar equitativamente a aquellos autores o herederos titulares de derechos cuyos libros hubieran sido digitalizados y puestos a disposición pública. En realidad el interés del acuerdo no radica en la mera compensación económica, suficiente o no, sino en el ámbito principal al que se aplica, el de las obras huérfanas, esto es, el de aquellas obras cuyos titulares legítimos son ilocalizables.


(más…)

Etiquetas:

Digitalización contra escasez

La sobreabundancia de información no garantiza que nos convirtamos en más inteligentes ni que seamos capaces de establecer los vínculos que nos permitan reexplotarla desde nuevas persepctivas, pero también es verdad, al contrario, que la escasez de información es intrínsecamente limitativa, por cuanto el acceso a las fuentes es siempre complicado cuando no imposible. Esta reflexión sobre abundancia y escasez, acceso y restricción, infoxicación e insuficiencia, vienen al caso porque Archive.org ha anunciado que ha alcanzado los 350.000 libros digitalizados de libre acceso bajo licencia Creative Commons, en una labor monacal de digitalización individualizada y perseverante que se ha convertido, según todos los indicios contables, en la biblioteca en abierto más grande del mundo.


(más…)

Etiquetas:

Recolecta, repositorios institucionales y comunicación del pensamiento

Uno de los movimientos más apabullantes al que estamos asistiendo en la red es el de la puesta a disposición pública de información antes reservada a circuitos científicos o administrativos, sin trascendencia pública, contenidos editados de una u otra manera que eran innacesible, inútiles en buena medida, pasto de la corrosión a la que el tiempo y la falta de uso somete a cualquier conocimiento. Los llamados repositorios institucionales -el lugar donde se guarda la información institucional, es decir, las bases de datos en línea que almacenan los registros y los contenidos generados por esas instituciones-, son una de las más florecientes iniciativas de comunicación abierta de contenidos en la web, tan exhuberante que diversas iniciativas han tenido que comenzar a poner orden en su crecimiento y disparidad.


(más…)

Etiquetas:

Ciencia digital

El día 25 de enero se aprobaron de manera unánime, en el Consejo de la European University Association, las recomendaciones que su grupo de trabajo sobre Open Access envío al plenario. Entre ellas, quizás de manera concisa y suficiente, puede leerse: “las recomendaciones están basadas sobre el siguiente conjunto de premisas fundamentales: el papel de la universidad como guardian y responsable del conocimiento científico como “bien público” -como procomún, me atrevería a precisar-; los resultados de las investigaciones públicamente financiadas deberán ser públicamente accesibles tan pronto como sea posible; el aseguramiento de la calidad mediante los procesos de revisión por pares seguirá siendo una precondición para cualquier publicacion científica, y seguirá siendo algo esencial en esta nueva época de edición digital”.


(más…)

Etiquetas: