Ya os hemos narrando en los post incluidos en nuestra categoríaRedes Complejas, Ecológicas, Sociales y el Mundo de Internet” que la estructura en red ciberespacio es muy similar a otras, como las ecológicas, tróficas, metabólicas, etc.  En consecuencia, no debería extrañarlos la noticia de hoy. Investigadores residentes en EE.UU., han mostrado que los algoritmos de indexación de páginas, como el conocido “pagerank” de Google, pueden ser aplicados con vistas a detectar las especies clave de los ecosistemas. Estás últimas son aquellas que, en caso de extinguirse,  desencadenarían una cascada de extinciones en el seno de las comunidades biológicas que las albergan. Obviamente, también podría hacerse uso de tales algoritmos de optimización para investigar ciertos aspectos en el resto de las redes mencionadas.

 

Y ahora la lamentable, una vez más, la fastidiosa “coletilla final”. Ya sabéis que últimamente a este sistema de bitácoras, por aquello de los calores, parece ser que se niega a enlazar los post que escribimos, pero no ocurre lo mismo con cualquier otro material que circule por el ciberespacio. Si cuando lee este estamos en tal trance, debe copiar el título de nuestros post previos y añadirlo a su buscador favorito. Rápidamente encontrará el post, al teclear también “Universo Invisible”. Este tema ya comienza a parecer de ciencia ficción, por pensar bien.

 


 

Internet resulta ser una red autoorganizada, que se ajusta a unos patrones que se han observado en otros muchos tipos de redes que acaecen en la naturaleza. Su estructura topológica de “mundos pequeños” posee unas configuraciones y propiedades muy concretos que, comienzan a conocerse con una cierta precisión (crecimiento potencial, estructura fractales, etc.).

 

Por su parte, los motores de búsqueda, como Google entre otros, son los que ayudan a realizar un ranking de las contenidos de páginas de Internet, en función de su popularidad y “relevancia” (ver más abajo). Cuando buscáis un determinado tema, mediante los ingenios aludidos, se os muestra un listado de sititos del ciberespacio. Cabe suponer que el primero promedia “de alguna forma” su popularidad en número de visitas, así como la relevancia o categoría de la información. Así, de acuerdo a la Wikipedia española:

 

 

PageRank es una marca registrada y patentada por Google el 9 de enero de 1999 que ampara una familia de algoritmos utilizados para asignar de forma numérica la relevancia de los documentos (o páginas web) indexados por un motor de búsqueda. Sus propiedades son muy discutidas por expertos en optimización de motores de búsqueda. El sistema PageRank es utilizado por el popular motor de búsqueda Google para ayudarle a determinar la importancia o relevancia de una página. Fue desarrollado por los fundadores de Google, Larry Page y Sergey Brin, en la Universidad de Stanford.

 

PageRank confía en la naturaleza democrática de la web utilizando su vasta estructura de enlaces como un indicador del valor de una página en concreto. Google interpreta un enlace de una página A a una página B como un voto, de la página A, para la página B. Pero Google mira más allá del volumen de votos, o enlaces que una página recibe; también analiza la página que emite el voto. Los votos emitidos por las páginas consideradas «importantes», es decir con un PageRank elevado, valen más, y ayudan a hacer a otras páginas «importantes». Por lo tanto, el PageRank de una página refleja la importancia de la misma en Internet.

 

Habría mucho que discutir sobre este tipo de algoritmos, tanto por sus aspectos positivos como negativos (virtudes y defectos). Sin embargo, ese tema lo dejaremos para otro día. Como os hemos ido narrando en diversos post precedentes, las propiedades matemáticas de las redes (ver la categoría mentada al principio del post), no volveremos tampoco a incidir en este tema. La estructura de mundos pequeños nos informa de que ciertos nodos de la red son muy visitados, decayendo tal densidad de tráfico rápidamente, de acuerdo a una ley de escalas o potencial. Obviamente, si una página a penas visitada es atacada o desaparece (es decir se extingue) del ciberespacio, la estructura de Internet tan solo se ve alterada de una forma insignificante, imperceptible. ¡No pasa nada!, excepto que afecta a nos pocos lectores” Ahora bien, si un nodo muy importante (un pagerank muy elevado)  sufre el mismo destino, afecta seriamente a la supervivencia de otros muchos (millones de usuarios). Imaginaros por ejemplo que “Windows Live Messenger” sufriera un tipo de ataque como para borrarlo del mapa de Internet (es un ejemplo un tanto burdo, pero ilustrativo). En tal caso, toda la enorme plétora de nodos (como los usuarios) que dependen de aquel se extinguiría. Pues bien, las especies clave de una red ecológica, por ejemplo, pueden (desde varios puntos de vista) funcionar como nodos muy importantes, por lo que su extinción alteraría abrupta y drásticamente la configuración de las comunidades biológicas de la que forman parte. Se genera así una cascada de extinción de especies. Razonemos de modo inverso. Por el contrario, los taxones de menor relevancia (como lo sería este modesto blog en el mundo de Internet), que apenas atesora peso en el mantenimiento de la estructura y función de los ecosistemas, cuando se extinguen no los afectan casi nada, es decir no se pierden más especies.

 

Sobre estas bases, los investigadores reseñados, basan su propuesta con vistas a determinar las especies clave que de extinguirse, generarán graves pérdidas de biodiversidad. Podéis encontrar una explicación más extensa en castellano “pinchando aquí.” Obviamente, existen algunas diferencias entre la forma de actuar del algoritmo de “homerank” (como la circularidad) y los procedimientos que usan los expertos con vistas a analizar las redes ecológicas. Los autores se las apañan para salvar tal escollo, lo cual es parte del mérito del trabajo. El estudio, publicado por la revista en acceso abierto, “PLoS Computational Biology”, podéis bajároslo sin restricción alguna pinchando sobre el título que os exponemos abajo. Más adelante os mostramos la síntesis de este tema en la nota de prensa que ha editado el boletín de noticias Sciencedaily.

 

Juan José Ibáñez

 

Can an Eigenvector Measure Species’ Importance for Coextinctions?.

 

Web Page Ranking Algorithm Detects Critical Species In Ecosystems

ScienceDaily (Sep. 4, 2009)Google’s algorithm for ranking web-pages can be used to determine which species are critical for sustaining ecosystems. Drs. Stefano Allesina and Mercedes Pascual find that «PageRank» can be applied to the study of food webs, the complex networks describing who eats whom in an ecosystem.

 

The researchers, based at the National Center for Ecological Analysis and Synthesis at the University of California, Santa Barbara and at the University of Michigan, therefore adapt Google’s PageRank algorithm, which efficiently ranks web-pages according to search criteria, for ecological purposes. Details are published September 4 in the open-access journal PLoS Computational Biology.

 

In a world of ever greater human-generated change, there is a need to forecast the impact of species extinctions on ecosystems. This presents challenges, as every species is embedded in a complex network of relationships with others: a single extinction can cascade in further and seemingly unrelated species’ loss. Furthering the problem, there are too many extinction scenarios to investigate, as even for simple ecosystems the number of possibilities exceeds the number of atoms in the universe.

 

Using the PageRank method, Allesina and Pascual identify the set of species which are most critical for maintaining ecosystem functioning. The method identifies the species of maximum importance by determining which extinctions lead to the fastest ecosystem collapse.

 

PageRank assigns importance to web-pages according to the rule «a page is important if important pages point to it». This circular method of ranking, which can be solved through a clever application of college-level algebra, is key to the process of identifying critical species. Although this approach would seem inappropriate, as food webs are not truly circular, the authors introduce an ecologically-sound way to make food webs circular by adding an artificial species, representing the recycling of nutrients from all dead organisms back towards the plants that form the base of food webs.

 

The authors hope that this method will be applied far beyond ecology to solve critical problems in other network-related biological fields, such as in protein interaction and gene regulation.

 

This work was supported by a Centennial Fellowship of the James S. McDonnell Foundation to MP and by NSF grant EF-0827493. SA is a postdoctoral fellow at the National Center for Ecological Analysis and Synthesis, funded by NSF DEB 0553768, the University of California, Santa Barbara, and the State of California. MP is a Howard Hughes Medical Investigator.

 

Journal reference: Allesina S, Pascual M. Googling Food Webs: Can an Eigenvector Measure Species’ Importance for Coextinctions? PLoS Computational Biology, 2009; 5 (9): e1000494 DOI: 10.1371/journal.pcbi.1000494

Compartir:

Un comentario

  1. Resulta muy curioso ver cómo se puede aplicar un algoritmo como el PageRank a la detección de especies críticas para los ecosistemas, y la verdad que tiene mucho sentido.

    Como bien dices, las técnicas que se utilizan para procesar Intenet como una red de nodos de información, se pueden aplicar a muchos otros entornos. De hecho, algunos de los últimos trabajos que he leido relacionados con el análisis de redes en Internet se refieren a la detección de posibles pandemias gracias al análisis de Twitter, algo que si me lo llegan a contar hace unos años me hubiera parecido totalmente de ciencia ficción.

Deja un comentario