web analytics

Archivo de octubre, 2019

Tesis doctorales, ¿son necesarios más controles?

Asistimos en estos últimos años a una proliferación de denuncias de plagios en tesis doctorales, que son especialmente difundidas por los medios de comunicación cuando se trata de personas con una relevancia política. Hay voces que claman por un mayor control en la elaboración y defensa de una tesis, pero estaría bien que la sociedad conociera los procedimientos que se siguen hasta que una memoria de investigación se traduce en una tesis doctoral.

 

Ceremonia d en la Universidad de Leyden el 7 de julio de 1721

Debo decir en primer lugar que esta reflexión que comparto con los lectores de Matemáticas y sus fronteras está motivada en buena parte por la visión del último Consejo de Gobierno de la Universidad Complutense de Madrid (enlace, https://www.youtube.com/watch?v=oyABv-6j8_Y).  En él, se trataron los dos casos de plagio que han salido en los medios (veáse, por ejemplo, esta noticia de El Mundo La Complutense investiga la tesis plagiada de un directivo de la Camilo José Cela).

En el interesante debate que se mantuvo en esta reunión, se habló de la inflación de tesis sufrida en 2016 (veánse sus declaraciones en este artículo de ABC, Dos expertos analizan la tesis plagiada en la Complutense y darán conclusiones en 15 días: “El rector de la Complutense, Joaquín Goyache, estima que los cambios legales – derivados de la implantación del Plan Bolonia – provocaron una multiplicación exponencial del número de tesis, lo que pudo generar que se relajaran los controles.”). Alguno sugería que el uso de programas informáticos detectores de plagio serían una solución al problema.

Recordemos como se inicia una tesis. El doctorando, junto con el director de la tesis, debe someter un proyecto de tesis a una comisión universitaria, y este es el primer control que debe hacerse. Si se trata de una tesis vinculada a un contrato FPI o FPU (una “beca de doctorado”, se diría antes) o similar, ese proyecto irá también en la solicitud. Esto implica un control muy exhaustivo por parte de comités de expertos en el tema en cuestión, de manera que si el proyecto es deficiente, ahí se terminará. Es más, una vez iniciada la tesis, hay que enviar en estos casos informes anuales de lo que se ha hecho, de las actividades del doctorando, con informes elaborados por este último y por su director, y validados por el responsable del centro. En cualquier caso, si se tarta de una tesis doctoral fuera de estos cauces, los controles son similares, y se imponen desde las Escuelas de Doctorado.

¿Qué ocurre una vez terminada la memoria a satisfacción del doctorando y su director? La tesis suele ser presentada en una suerte de prelectura pública en el deparatemnto en cuestión, y ahí se podrá ver su valía o sus deficiencias. Item más, la tesis se deposita en la universidad durante un tiempo para que cualquier profesor pueda examinarla. Y no acaba aquí la cosa, porque a continuación se debe someter a la Comisión de Doctorado la propuesta de un tribunal y un ejemplar de la tesis. Y una vez aprobado el tribunal y aceptada la la lectura de la tesis, ésta es defendida públicamente y el doctorando debe además responder a cuantas cuestiones le sometan los miembros del tribunal (se supone que 3 o 5 expertos en el tema), e incluso cualquier doctor presente en la sala.

Visto todo esto, uno se puede preguntar: ¿cómo se puede colar una tesis plagiada? ¿en un contexto en el que además se tiene acceso a bases de datos especializadas de todo tipo? La única manera de que se cuele un plagio es si hay una complicidad tanto de individuos como institucional. Porque de otra manera sería completamente imposible que estas tesis hubieran llegado siquiera a leerse.

La conclusión, al menos la mía, es que no hacen falta aumentar los controles, los tenemos ya, y si es imprescindible que las universidades y los que tengan autoridad sobre el tema, intervengan con sanciones para los que hayan permitido estas situaciones.

Para terminar con una sensación positiva, digamos que la mayoría de las tesis doctorales son trabajos consistentes, unos mejores que otros, por supuesto (y esto se mide objetivamente por la novedad de los resultados y las publicaciones resultantes). Pero esas pocas manzanas podridas hacen mucho daño a las instituciones universitarias y conviene aplicar medidas duras contra los que no siguen las buenas prácticas de la investigación.

___

Manuel de León (CSIC, Fundador del ICMAT, Real Academia de Ciencias, Real Academia Canaria de Ciencias).

Etiquetas: ,
Categorias: General

Ceres y los matemáticos

Ceres fue el primer asteroide descubierto, cuando los astrónomos perseguían con sus observaciones descubrir un planeta desconocido entre las órbitas de Marte y Júpiter, planeta que debería existir de acuerdo con la llamada ley de Titius-Bode. Finalmente, el 1 de enero de 1801, y desde Palermo (Sicilia),  Giuseppe Piazzi observó lo que entonces calificó de un cometa. Pero, ¿por qué Ceres es tan relevante para los matemáticos?

Ceres, fotografía de 2015 por Justin Cowart

Piazzi lo bautizó como Ceres Ferdinandea, por la diosa romana de la agricultura, patrona de su tierra natal, Sicilia, y con el apellido Ferdinandea para honrar a su protector, el rey Fernando IV de Nápoles y Sicilia. Posteriormente, se eliminó este apellido por razones puramente políticas y Ceres se quedó solo con su nombre.

Giuseppe Piazzi

 

El problema de Piazzi era que con sus conocimeintos matemáticos solo podía trazar la órbita de Ceres por poco más de un mes (40 días). Al pasar ese tiempo, desapareció por el resplandor del Sol. Debía reaparecer después, pero Piazzi era incapaz de averigüar donde. Y aquí intervino el genio de uno de los mejores matemáticos de todos los tiempos, Carl Friedrich Gauss. Gauss oyó hablar de este problema y decidió resolverlo. Y en solo tres meses, comunicó a los atrónomos donde teníanq ue buscar, y allí fué redescubierto por Franz Xaver von Zach, en Gotah, y un día después por Heinrich Olbers en Bremen.

Carl Friedrich Gauss

Gauss, entonces un joven de 24 años, usó las leyes de Kepler para obtener una ecuación de grado ocho, de la cuál conocía una solución, la órbita de la Tierra. Y a continuación desarrolló un nuevo método de cálculo, lo que hoy llamamos método de los mínimos cuadrados. Imaginemos que tenemos una serie de datos, un conjunto de pares ordenados: el objetivo es encontrar la función continua que mejor se ajuste a los datos dados. Grosso modo, esa función minimiza la suma de los cuadrados de las diferencias en las ordenadas entre los puntos generados por la función elegida y los correspondientes valores en los datos (veáse la figura).

Este método de mínimos cuadrados no se publicó sino hasta 1809, en el segundo volumen de su trabajo sobre mecánica celeste, Theoria Motus Corporum Coelestium in sectionibus conicis solem ambientium. Adrien-Marie Legendre desarrolló el mismo método de forma independiente en 1805, pero el mérito hay que dárselo a Gauss.

Digamos que entre las predicciones que hicieron muchos científicos para predecir la órbita de Ceres la de Gauss difería notablemente, pero resultó acertada con una precisión asombrosa.

El método de mínimos cuadrados es un excelente ejemplo de cómo las matemáticas puras se pueden aplicar para resolver problemas prácticos, y en este caso, el impacto fue enorme y se sigue aplicando hoy en día, habiéndose convertido en un paradigma de las matemáticas. Es por ello que la Sociedad Matemática Alemana (Deutsche Mathematiker-Vereinigung) dedicó los beneficios del Congreso Internacional de Matemáticos (ICM) de 1998 en Berlín para poner en marcha el Premio Carl Friedrich Gauss, en colaboración con la Unión Matemática Internacional (IMU).

El Premio consta de una medalla y una cantidad en metálico, y se concediço por primera vez en el ICM de Madrid en 2006. En esa ocasión, recayó en el matemático japonés Kiyoshi Îto. El Premio Gauss se concede a aquellos matemáticos que han logrado, como en el caso de Gauss, avances que han supuesto un impacto significativo en nuestras vidas cotidianas.

 

El anverso de la medalla es una efigie de Gauss (de hecho, incompleta, ero nuestros ojos son capaces de reconstruir la imagen), y un reverso con un cuadrado y un círculo unidos en una órbita, recordando así la gesta de Gauss.

 

Desde 2006, Ceres ha sido elevado por la Unión Astronómica Internacional (IAU) a la categoría de planeta enano, compartiendo ese honor con Plutón. Pero, como hemos visto, Ceres ocupa un lugar privilegiado para los matemáticos.

___

Manuel de León (CSIC, Fundador del ICMAT, Real Academia de Ciencias, Real Academia Canaria de Ciencias).

Etiquetas: , , , , , ,
Categorias: General

La conjetura del girasol

Los matemáticos han mostrado siempre una gran prelidección por los girasoles, no olvidemos la relación entre las espirales a izquierda y derecha de sus semillas, siguiendo siempre el patrón marcado por la sucesión de Fibonacci. No es pues de extrañar que Paul Erdős y Richard Rado conjeturaran en 1960 un excitante problema sobre estas plantas, que acaba de tener un avance muy importante.

Girasol (Helianthus annuus)

El problema que plantearon Erdös y Rado preguntaba con que frecuencia uno esperaría entontrar patrones que se asemejaran a los girasoles el analizar una colección muy grande de objetos. Intentaremos en los párrafos que siguen dar una explicación más detallada del problema.

Paul Erdös

 

Richard Rado

Primero tendremos que definir lo que los matemáticos entendemos por un giraols: “un girasol de r pétalos es una colección de r conjuntos tales que la intersección de cada par es igual a la intersección de todos”. Lo que Erdös y Rado probaron en su día es lo que se llama el Lema del girasol: para un r fijado, r mayor o igual que 3, cualquier familia de conjuntos de w elementos con al menos ww conjuntos, debe contener un girasol. Si los conjuntos son S1, …, Sr, entonces la intersección de todos ellos

K = S1 ∩ … ∩ Sr

se llama el núcleo y los complementarios S1\K, …, Sr\K son los pétalos.

Un ejemplo de girasol

El resultado se ve en toda su dimensión si pensamos que para 100 puntos necesitaríamos 100100 conjuntos, una cantidad enorme. Así que Erdös y Rado, tras probar su lema, conjeturaron que debía haber una cota mucho más baja, que debería existir una constante c(r) tal que si el número de conjuntos de la familia dada era mayor o igual que c(r)w, entonces esa familia debería contener un girasol. Ellos pensaban que el problema era muy sencillo, pero no consiguieron probarlo, y no ha habido resultados significativos hasta este último de este año, 60 años después de formularse la conjetura.

La prueba de este resultado es interesante porque combina matemáticas fundamentales con la teoría de la computación. Los autores (Ryan Alweiss, Shachar Lovett, Kewen Wu y Jiapeng Zhang) del artículo en cuestión, titulado “Improved bounds for the sunflower lemma”,  combinaron sus experiencias en ambos campos, y mediante el uso de las llamadas funciones booleanas, consiguieron encontrar una cota satisfactoria; basta con (log w)w para garantizar un girasol.

Recordemos que una función booleana lleva palabras (codificadas con ceros y unos) en un 0 o en un 1; es decir, funciones f: Bn → B, donde B = {0, 1}.

Si alguien se pregunta qué interés puede tener un problema como este para el resto de la humanidad que no se dedica a las matemáticas, decirle que este es doble. Por una parte, es una muestra de cómo cuando aumentamos los datos, aparecen como venidos de la nada patrones; y por otra, es un mestizaje entre matemáticas y computación, que muestra como esta última descansa precisamente en los fundamentos de las matemáticas más abstractas.

En este video, podemos asistir a una conferencia sobre el tema impartida por uno de los autores del citado artículo Jiapeng Zhang, de la Universidad de Harvard:

Imagen de previsualización de YouTube

Diremos finalmente que este problema es el objeto del proyecto Polymath número 10: Improving the bounds for the Erdos-Rado sunflower lemma, puesto en marcha el 2 de noviembre de 2015.

___

Manuel de León (CSIC, Fundador del ICMAT, Real Academia de Ciencias, Real Academia Canaria de Ciencias).

Etiquetas: , ,
Categorias: General

Evaluar la docencia, ¿un problema todavía no resuelto?

Evaluar el rendimiento de un docente (y me voy a centrar solo en el ámbito universitario, el ámbito de la Secundaria merece una reflexión particular) es un tema de una gran dificultad y que genera un debate que todavía parece no haber encontrado una solución satisfactoria.

No pesenta dificultad la evaluación de la cantidad de docencia que se imparte, basta medir y certificar los créditos impartidos en las diferentes modalidades de profesorado. Pero, ¿cómo medir la calidad de la docencia impartida?  Y no olvidemos que lo que se persigue es garantizar la calidad no de la enseñanza impartida sino de cómo se imparte. Hay dos pasos en este objetivo: garantizar la calidad del profesor que va a acceder a la acreditación de alguna de las figuras de profesorado, y garantizar que, una vez se ha acreditado y ha sido contratado en alguna universidad, esa calidad se mantiene, lo que debe ser parte no solo de un control sino y más importante todavía, de un plan de formación permanente.

Hasta no hace mucho, la manera de contrastar la calidad de la docencia impartida por un aspirante se reducía prácticamente a las encuestas de satisfacción de los alumnos. Este es un tema polémico, ya que se puede argumentar que estas pueden estar sesgadas por muchos factores, como por ejemplo el grado de “bondad” de un determinado profesor en las calificaciones o la “dureza” de otro. Si se puede medir la puntualidad en las clases, o se pueden analizar los resultados conseguidos por los alumnos, pero evidentemente hacen falta más datos que unas encuestas. Si se trata de Trabajos de Fin de Grado o Trabajos de Fin de Máster, se puede tener en cuenta las calificaciones, y una medida positiva es si si estos trabajos resultan en mejores calificaciones que las esperadas a tenor del desempeño del alumno, lo que indicaría un mayor compromiso del profesor en cuestión.

Pueden también tomarse como signos de calidad la participación del profesor en proyectos docentes, en la elaboración de manuales, participación en congresos y actividades que persigan la mejora de la docencia, etc. Aunque no miden directamente la interacción con los alumnos, si muestran un interés por la mejora de la docencia a impartir.

La ANECA ha puesto en marcha desde 2007 el llamado Programa DOCENTIA, “en estrecha coordinación con las agencias de evaluación autonómicas, el Programa de Apoyo a la Evaluación de la Actividad Docente del Profesorado Universitario (DOCENTIA) con el objeto de apoyar a las universidades en el diseño de mecanismos propios para gestionar la calidad de la actividad docente del profesorado universitario y favorecer su desarrollo y reconocimiento.”

ENQUA (European Association for Quality Assurance in Higher Education), en sus Criterios y Directrices para la Garantía de la Calidad en el Espacio Europeo de Educación Superior, señala que es fundamental que el profesorado tenga:

  • Conocimiento y comprensión completos de la materia.
  • Conocimiento de métodos de aprendizaje y evaluación.
  • Habilidades y experiencia para transmitir el conocimiento.
  • Capacidad para atender a la diversidad de estudiantes.
  • Retroalimentación de su actuación.

El Programa DOCENTIA es en realidad muy ambicioso, se contempla formando parte crucial de la estrategia de la universidad en su afán de conseguir un modelo de excelencia académica. Un aspecto clave es la transparencia y la comunicación pública de los resultados del programa.

El Programa señala tres dimensiones: estratégica, metodológica y y de resultados, revisión y mejora. Y la pregunta del millón es: ¿cómo desarrollar este programa? Evidentemente, hay que planificar la docencia, después ejecutar lo planificado, y finalmente evaluar los resultados conseguidos.

El Programa contempla la responsabilidad de todos los actores, con informes del profesorado, los responsables académicos y los estudiantes. Hay evaluación interna (con representantes de todos los estamentos) pero también externa, que acaba emitiendo, en el caso favorable, un certificado de calidad válido por cinco años. Una consecuencia importante es que los profesores inmersos en esta evaluación global, obtendrían su certificado, evitando así la aportación de docenas y docenas de documentos conteniendo resultados de encuestas y otros certificados. Un ahorro burocrático sin duda muy estimable.

No sé si esta es la solución definitiva que garantizará la calidad de las enseñanzas universitarias. En cualquier caso, se está poniendo a prueba y los resultados se irán viendo en los próximos años.

___

Manuel de León (CSIC, Fundador del ICMAT, Real Academia de Ciencias, Real Academia Canaria de Ciencias).

 

 

 

 

 

Etiquetas: , , ,
Categorias: General

El enigma Satoshi Nakamoto

El 31 de octubre de 2008, un desconocido llamado Satoshi Nakamoto publicó un artículo en abierto (un white paper) en una red de criptografía con el título “Bitcoin: A Peer-to-Peer Electronic Cash System”, que podría traducirse por “Bitcoin: Un Sistema de Efectivo Electrónico Usuario-a-Usuario”. La revolución del bitcoin había comenzado.

 

Este era el resumen que s epodía leer al comienzo del artículo:

Una versión puramente electrónica de efectivo permitiría que los pagos en línea fuesen enviados directamente, de un ente a otro, sin tener que pasar por medio de una institución financiera. Las firmas digitales proporcionan parte de la solución al problema, pero los beneficios principales se pierden si tiene que existir un tercero de confianza para prevenir el doble gasto. Proponemos una solución al problema del doble gasto utilizando una red usuario-a-usuario. La red coloca marcas de tiempo a las transacciones que introduce en una cadena continua de pruebas de trabajo basadas en el cálculo de hashes, formando un registro que no puede ser cambiado sin volver a recrear la prueba de trabajo completa. La cadena más larga no solo sirve como testigo y prueba de la secuencia de eventos, sino que asegura que está vino desde la agrupación con procesamiento de CPU más grande. Siempre que la mayoría del poder de procesamiento de CPU esté bajo el control de nodos que no cooperan para atacar la red, estos generarán la cadena más larga y llevarán ventaja a los atacantes. La red en sí misma requiere una estructura mínima. Los mensajes son enviados bajo la premisa del menor esfuerzo, y los nodos pueden irse y volver a unirse a la red cuando les parezca, aceptando la cadena más larga de prueba de trabajo, como prueba de lo que sucedió durante su ausencia.

(Por cierto, la traducción del artículo se puede encontrar en esta dirección web).

Una de las bases del bitcoin es la criptografía, disciplina que nació con el fin de poder comunicarse sin que terceras personas fueran capaces de conocer el mensaje incluso aunque tuvieran acceso al mismo. Desde las formas más primitivas que se usaron en la guerra, la política y las transacciones comerciales desde tiempos antiguos, se ha pasado a una criptografía que usa las tecnologías digitales y que está completamente sustentada por las matemáticas.  En este mundo dominado por la Red, laas comunicaciones privadas por correo electrónico y otras plataformas, nuestras transacciones comerciales, nuestra comunicación con las administraciones, se basa en la confianza que nos proporciona la supuest privacidad. Tenemos contraseñas que creemos seguras, pero que de tanto en tanto, demuestran no serlo. Desde la creación del algoritmo RSA de clave pública, basado en la descomposición de un número en sus factores primos, se ha pasado a métodos más sofisticados como las curvas elípticas.

 

El bitcoin usa un algoritmo que se llama SHA-256. SHA son las siglas de Secure Hash Algorithm (o Algoritmo de Hash Seguro). Un hash (hemos hablado de los hash en entradas anteriores, por ejemplo, “La seguridad de nuestras contraseñas“) es una secuencia alfanumérica única que se obtiene al codificar un archivo o un texto. Nosotros podremos recuperar el mensaje original pero la dificultad de hacerlo sin la clave es enorme (aunque la extensión del SHA es siempre la misma). Este algoritmo se usa para generar direcciones web de bitcoin pero además en el propio proceso de generación de los bitcoin (la llamada minería bitcoin).

¿Y cómo se generan los bitcoins? En primer lugar, se tarta de monedas digitales, y a diferencia de lo que puede hacer un banco central de un país imprimiendo dinero (que debería estar garantizado por las reservas de oro del país), el número de bitcoins está limitado a 21 millones de monedas. Cuando se ponen en circulación, se las lleva el primero que sea capaz de resolver un problema matemático (para lo que se precisa de ordenadores con una cierta potencia de cálculo), y en un tiempo limitado, que es de unos diez minutos de media.

 

Evolución del número de bitcoins

Los mineros crean registros que contiene todas las transacciones efectuadas y que cualquier usuario de la red puede verificar (lo que se llama una blockchain, la tecnología que surgió del bitcoin). Además, tal y como ocurre con el dinero metálico, un bitcoin no se puede usar simultáneamente en dos transacciones diferentes. Cuando un “minero” observa una transacción, la incorpora a un bloque de datos, y si resuelve el desafío correspondiente (esencialmente, un “elliptic curve digital signature algorithm” (ECDSA)), lo enlaza con bloques previos (eso es el blockchain, archivos que tienen alguna información de otros archivos a los que va enlazado). Así que el blockhain tiene dos ingredientes esenciales: los bloques de información y la red de ordenadores en cada uno de los cuáles está toda la información (esta no está repartida). Es como si el inventario de las transacciones lo contiene todo y está en todos los ordenadores: mayor seguridad sería imposible.

Los bitcoins son monedas y por lo tanto se pueden comprar cosas con ellos en muchos lugares. No solo eso, se pueden intercambiar, transferir, como el dinero ordinario.  Como curiosidad, digamos que la primera compra que se hizo con bitcoins, fueron dos pizzas de ka conocida cadena Papa John’s; el precio estipulado fue de 10.000 bitcoins por 30 dólares. Hoy en día nos podríamos comprar la tienda entera sin ningún problema con esa cantidad de bitcoins.

Volviendo a Satoshi Nakamoto, su identidad sigue sin conocerse. Hay teorías de todo tipo, y se le ha querido reconocer en unos cuantos personajes importantes de la computación. Otros opinan que no se trata de una persona sino de un grupo. Nadie lo sabe por el momento, aunque no cabe duda de que su propuesta el bitcoin (y la tecnología del blockchain) está cambiando nuestro mundo. De hecho, el economista de la Universidad de California en Los ángeles (UCLA), Bhagwan Chowdhry, sugirío en 2016 proponerlo para el Premio Nobel de Economía pero su candidatura fue rechazada por el Comité Nobel ya que no se puede premiar a personas que podrían no existir.

___

Manuel de León (CSIC, Fundador del ICMAT, Real Academia de Ciencias, Real Academia Canaria de Ciencias).

Etiquetas: , , , ,
Categorias: General