Nadie duda que la era de la computación haya impulsado muchas líneas de investigación hasta cotas impensables hace tres o cuatro décadas. Mediante estos instrumentos tecnológicos los científicos han podido desarrollar poderosas herramientas que les permiten abordar temas hasta no hace mucho vetados. Incluso podemos decir que el análisis de las propias estructuras y procesos en el seno del ciberespacio están aportando resultados muy útiles con vistas a comprender los procesos de autoorganización  de la energía materia e información, como ya hemos mostrado en otros post precedentes. Ahora bien, como anunciamos en el título del post, “no es oro todo lo que reluce”. En otras palabras, han surgido problemas sobre los que debemos recapacitar. Este post (y algunos que posiblemente escribamos sobre el tema, a su debido tiempo) pretende resaltar algunos descarríos que aquejan actualmente a la comunidad científica por su falta de autocrítica respecto al uso y abuso de estas nuevas tecnologías.

 

 

 

Marenostrum. Centro Nacional de Supercomputación

 en Barcelona. Uno superordenadores más potentes del mundo

 

Obviamente, muchos de vosotros pensaréis que el problema no reside en los propios instrumentos computacionales (ya sean de hardware o software), sino al uso que los investigadores hacen de ellos. Cierto. Pero también lo es que tales tecnologías no llueven del cielo por intermediación divina. Somos los seres humanos los que las desarrollamos. Nuestros avances científicos y tecnológicos jamás son neutros, y menos aun hoy en día, en donde la I (investigación) se encuentra estrechamente subordinada a la D (desarrollo) y la i (innovación). Dicho de otro modo, quien financia paga, por lo que los intereses gubernamentales (políticos, económicos, sociales y geoestratégicos) y los empresariales, dictan que debe investigarse y que no.

 

La Paradoja Tecnológica de Burrough

Escribimos un post, hace mucho tiempo, en el que abordamos un tema derivado del mal uso de la tecnología. Se trata de la Paradoja Tecnológica de Burrough. En aquel comentario, sustentado en el artículo de uno de los edafólogos más innovadores de finales del siglo XX, denunciábamos como muchos científicos tan solo usaban las tecnologías con vistas a acelerar las tareas que con anterioridad debían realizar manualmente. Aunque no despreciable, se me antoja un pobre bagaje. Pero si solo fuera éste el problema (……)

 

 

 

Fuente: Supoercomputación distributiva

 

Confundiendo Realidad y Ficción

Resulta preocupante que con los modelos de simulación numérica que permiten los potentes ordenadores personales, comencemos a confundir realidad y ficción. Un modelo (de simulación o no) tan solo formula una hipótesis que siempre son el resultado de una simplificación de la realidad.  Pero esta última suele ser muy compleja y los escenarios que desprenden los modelos suelen venirse abajo tarde o temprano. De no ser así no habría progreso científico. Podríamos exponer múltiples ejemplos que irían desde los económicos hasta los del cambio climático. A la postre, los investigadores van descubriendo múltiples mecanismos que debían haber sido considerados por los modelos de simulación, pero no lo están. Ya comentamos que la elaboración e implementación de modelos científicos (computacionales o no) es una práctica más que necesaria con vistas a testar los conocimientos sobre un determinado proceso o estructura en un instante dado, por parte de la comunidad científica. Pero la investigación progresa, por lo que tarde o temprano, se demuestra que aquellos constructos no dan cuanta acertadamente de la realidad debidamente. Entiendo que pueden llegar a ser heurísticamente muy positivos. Pero si tal aserción es acertada, también debería comprenderse que confundir sus “outputs” con la realidad es una salvajada, más que una torpeza. Un conocido matemático aseveraba en un libro de divulgación (que no alcanzo a recordar). “El problema no es que los científicos experimentales elaboren modelos, sino que se crean sus resultados”. Por estas razones, ya escribimos el post: El Dudoso Estatus de los Modelos de Simulación Predictivos en la Filosofía de la Ciencia”. Obviamente, esta desiderata no concierne a los investigadores que atesoran sentido común. Sin embargo me he visto obligado, en demasiadas ocasiones a discutir con otros que sí confunden datos los experimentales con los escenarios de una simulación numérica.  Y lo peor es que a menudo resulta más fácil publicar en revistas ISI los últimos que los primeros (molan más). Lamentable.

 

 

 

Fuente: Supercomputación distributiva

 

La Fuerza Bruta Sustituyendo a la Racionalidad Científica

Cuando no disponíamos de tales sofisticados instrumentos, los científicos se las ingeniaban con vistas a resolver problemas científicos francamente arduos y difíciles. Con tal propósito talento, genialidad, intuición y otros atributos eran fundamentales. Más aun, tanto el proceso de desarrolla como los resultados obtenidos, eran mucho más fáciles de corroborar o refutar, ya que solían estar escritos en unas pocas páginas. En ciertos casos podía hablarse de obras de arte. Del mismo modo comentamos en otro post previo (Pensamiento Cualitativo y Pensamiento Cuantitativo en la Práctica Científica) como el ideal matemático de belleza es (o era) la simplicidad. Pues bien, ahora, “como no tenemos que trabajar nosotros” delegamos los problemas a los ordenadores de tal modo, que el ingenio es reemplazado por la fuerza bruta. Ya no es necesario el talento, ni el ingenio, basta con formular un  problema, aunque sea de manera pedestre, que ya dará cuenta la máquina de él. ¡Ciao, ciao, belleza!. Insisto en que no niego la necesidad de tales aparatos (sería un estúpido), sino a ciertas consecuencias colaterales que considero perniciosas. Los datos experimentales y de campo (costosos, tediosos pero imprescindibles) comienzan a descuidarse con la falsa esperaza de que con unos pocos y un modelo de simulación solucionemos el problema. Generalmente los resultados obtenidos, muy coloreados y fascinantes, son paupérrimos con harta frecuencia. O el cacharro es alimentado con una base de datos voluminosa y apropiada, o el ordenador no ofrecerá un producto decente que de cuenta de la realidad con acierto.

 

Permítanme que os exprese parte de mis preocupaciones en forma de metáfora. Si ustedes tienen hijos en edad escolar, ¿Qué creen que les conviene más en su aprendizaje?: Enseñarles a utilizar una calculadora o que realicen el esfuerzo de aprender las reglas elementales de las matemáticas? No albergan duda, ¿verdad? Pues lo mismo nos ocurre a los investigadores: delegar todo en un instrumento es tornarse ignorante, mientras que hacer uso adecuado del mismo un paso adelante.  

 

No Todos son Redes, Ni Mucho Menos   

 Cuando aborde en la Categoría sobre Taxonomías y Clasificaciones, el análisis matemático de su estructura topológica de tales constructos, fueron varios los cibernautas que me comentaron que con las ontologías y un pequeño instrumento informático de campo, no era necesario aprenderlas, ni conocer su estructura. Mi amiga Yolanda, que trabaja en estos temas para organismos oficiales que hacen uso de grandes ordenadores y software supersofisticados, me comentaba el otro día su desesperación para hacer entender a los usuarios que para ciertos asuntos era mejor una estructura jerárquica que en Red. Sin embargo comienza a creerse que los diseños en red son la quinta esencia capaz de solucionar todos los problemas. ¡Falso!. Hasta las redes del ciberespacio desarrollan en su seno estructuras jerárquicas. Ya demostramos en nuestra categoría sobre Redes Complejas, Sociales y Ecológicas, las limitaciones de las redes, tal y como suelen ser entendidas por el público y muchos expertos. De hecho, una jerarquía es un tipo concreto de red ampliamente usado en la naturaleza para optimizar el flujo de energía, materia e información en muchas ocasiones. Del mismo modo, una taxonomía no es un mero instrumento para organizar la información, sino un lenguaje de comunicación vital y universal para los expertos que trabajan en un tema. Y como lenguaje debe ser entendida y aprendida por todos los interesados. Por tanto, elaborar taxonomías sencillas y óptimas sobrepasa  las expectativas de todos los superordenadores actuales. Habrá que recordar que hoy por hoy el cerebro es la supermaquinaria computacional por antonomasia.

 

Puedo entender (aunque me preocupa) que en la era del ciberespacio y la supercomputación, los jóvenes que han crecido tras un PC consideren que es más fácil y eficiente desarrollar ontologías en base a la informática que entender y aprender un constructo taxonómico. Sin embargo, sin un PC (avería) e Internet (posible colapso que puede acecharnos en cualquier momento), todo se va al carajo. El conocimiento adquirido y asimmilado por nuestro cerebro humano resulta vital tanto en ciencia como para nuestra supervivencia. Relegarlo a un segundo plano es correr graves riesgos innecesarios, a la par que un gravísimo error. Y dicho esto: ¿Por qué no?. ¡Viva la supercomputación!, pero usadas con prudencia y sentido común.

 

Juan José Ibáñez    

 

Sumario de los post editados en “Curso Básico sobre Filosofía y Sociología de la Ciencia hasta este post (pinchar en los números para desplegar los post)

 

¿Qué es esa cosa llamada Ciencia?

El Método Científico

Curso Básico sobre Filosofía y Sociología de la Ciencia

Reduccionismo Epistemológico

Ciencia e Inducción [1, 2, 3, 4, 5, 6, 7, 8, 9, 10, 11, 12, 13,]

El Círculo de Viena y el Positivismo Lógico [41]

Filosofía de Karl Poper: El Falsacionismo [14, 15, 16, 19, 20, 21, 23, 24, 25, 26]

Filosofía de la Teoría de la Evolución y Sociedad   [17, 18],

Naturaleza y enseñanza de la Ciencia [22]

Las Teorías Científicas Como Estructuras Complejas

La Filosofía de Imre Lakatos  [28, 29, 30, 31, 32]

La Filosofía de Thomás Kuhn [33, 34, 35, 36, 37]

Filosofías Radicales de la Ciencia: Feyerabend y más  [38]

Filosofía de la Ciencia versus filosofías científicas [39]

¿Es la mente fractal? [40]

¿Filosofía Cuántica? [42]

Seredipidad o Serendipia y la Lógica de los Descubrimientos Científicos [43]

El Dudoso Estatus de los Ciencia Modelos de Simulación Predicativos [44]

Filosofía de la Tecnología y Ortega y Gasset [45]

Los Conceptos y Sus Limitaciones: Vivir en la Incertidumbre [46]

Nominalismo, Realismo y Conceptualismo: Sobre el significado de concepto [47]

Pensamiento Analógico y Pensamiento Digital: Acerca de lo Continuo y lo Discreto [48]

El Discurso Científico, Conceptos Contrarios y Jean-Marc Lévy-Leblond [49]

Sobre Ciencia, Filosofía de la ciencia y religión : [50]

Clasificaciones, la Percepción del Mundo y el Progreso Acumulativo de la Ciencia [51]

El Concepto de Especie, Tipos de Suelo y la Filosofía de la Ciencia: Realismo Promiscuo [52]

Números mágicos [53]

Bruno Latour y los Estudios Sociales de la Ciencia [54, 55, 58, 59, 60]

Reduccionismo epistemológico y ontológico (las teorías del todo) [56]

Sobre lo continuo y lo contiguo  [57]

Tipos de Conceptos Científicos: [61, 62, 63]

Leyes, teorías, conjeturas e hipótesis en Ciencia [64]

Concepto y tipos de Modelos Científicos [65]

La Crisis de las Ciencias Taxonómicas  [66]

Las Incertidumbres de la Ciencia: Ajustes a los Modelos de Regresión Estadística  [67]

Los Fracasos Experimentales y Su Valor en Ciencia  [68]

Relaciones Causa-Efecto en la Práctica Científica  [69]

La Mente Humana Como Reflejo del Mundo Natural (y Viceversa)  [70]

El Pensamiento cualitativo y cuantitativo en la práctica científica   [71]

Sociología de la Ciencia: Verdades y Falsas Verdades en Ciencia: Los Tópicos Impregnantes  [72]

 El Progreso de la Ciencia y La Computación  [73]

Compartir:

2 comentarios

Deja un comentario