Noti2
Fecha
Fuente
UPM

Descubren cómo detectar de manera automática contenidos orientados a radicalizar

Investigadores de la Universidad Politécnica de Madrid (UPM) desarrollan un sistema de aprendizaje automático para la detección de contenido radical en las redes sociales y la prensa que es capaz de entender las emociones y los valores morales

Actualmente los modelos de inteligencia artificial son capaces de generar e interpretar contenido a gran escala. Sin embargo, emplear este tipo de modelos para detectar de manera automática contenido dañino para los usuarios o la sociedad es un reto que todavía no se ha resuelto. Este es el objetivo de varios investigadores del Grupo de Sistemas Inteligentes (GSI) de la Universidad Politécnica de Madrid (UPM).

Como parte del proyecto de investigación Participation, en el que colaboran distintas instituciones de varios países europeos como la Universidad de Roma Tre, la Universidad de Middlesex y la policía polaca, se han desarrollado varios modelos de inteligencia artificial con el objetivo de detectar, de manera automática, contenido radical que pueda resultar dañino para la sociedad. Este tipo de contenido es, normalmente, propaganda dirigida a países de occidente que busca radicalizar a ciudadanos susceptibles. Detectar y detener el flujo de propaganda hacia Europa es una de las prioridades de la Comisión Europea, y a la que se dedican grandes recursos económicos y tecnológicos. El proyecto Participation, dotado con casi 3 millones de euros, trabaja directamente con la detección de contenido propagandístico, analizando el lenguaje y las narrativas empleadas, así como un sistema de detección y monitorización completamente automático.

La investigación realizada en este proyecto trata de modelar la utilización de emociones y valores morales para despertar sentimientos de radicalización en los lectores. De esta manera, los modelos de inteligencia artificial son capaces de comprender las emociones y valores morales expresados y, a partir de esa información, detectar si este contenido está orientado a radicalizar a los lectores. Esto se consigue empleando técnicas de Procesamiento de Lenguaje Natural y Aprendizaje Automático, dos subcampos de la Inteligencia Artificial.

“El uso de este tipo de sistemas se está revelando crucial a la hora de controlar el contenido dañino, cada vez más común en redes sociales y otros foros”, destaca Óscar Araque, profesor de la de la Escuela Técnica Superior de Ingenieros de Telecomunicación (ETSIT) de la UPM. “Esto es una necesidad acuciante, que la Unión Europea considera una prioridad de cara a la futura sociedad digital.”

El Grupo de Sistemas Inteligentes, como parte de su intensa actividad investigadora, trabaja en multitud de proyectos en los que se desarrollan sistemas basados en inteligencia artificial, en colaboración con miembros nacionales e internacionales. Un ejemplo de ello es la financiación recibida por el proyecto AMOR, cuyo objetivo es desarrollar sistemas de asistencia al ciudadano para el consumo de contenido de una manera responsable e informada. Para ello, se van a emplear robots inteligentes y un sistema de hologramas, que permitirá acceder a la información de una manera novedosa y moderna.


Referencia bibliográfica: A. D. Real and O. Araque, "Contextualization of a Radical Language Detection System Through Moral Values and Emotions," in IEEE Access, vol. 11, pp. 119634-119646, 2023, doi: 10.1109/ACCESS.2023.3326429

Comentarios

Permalink

La inteligencia artificial como instrumento en manos de políticos es extremadamente peligroso. De haber estado en manos de Stalin o de Hitler la inteligencia artificial podría haber sido in instrumento letal. La confianza en los que regulan los algoritmos y determinan el bien y el mal escapa a terreno de la ciencia y refuerza la moral imperante en cada cultura, etnia, religión, ideología o momento histórico. Parece determinar de forma absoluta, sin lugar a dudas que es lo políticamente correcto en base a unos supuestos valores únicos, inmutables y universales, que se arroga unilateralmente el deber de reprimir cualquier desviación o herejía respecto al canon oficial.

Permalink

La inteligencia artificial en manos de políticos para manipular a la sociedad es otra amenaza más a la libertad. El aprovechar su predominancia es pretender controlar el pensamiento libre utilizando los recursos de toda la sociedad. Me parece una muy peligrosa iniciativa de la UPM.

Permalink

¿Y la libertad de expresión donde queda? ¿Van a sustituir la separación de poderes por IA? ¿Ya no va haber tribunales? Nos juzgará previamente una IA (Inquisición Actualizada) que han diseñado y entrenado unas personas a las que ni conocemos ni hemos votado ni se han presentado a unas elecciones pero que van a decidir que valores morales son buenos y cuales son malos. En Europa vamos hacia una dictadura peor que las de Stalin y Hitler. Este NO es el ideal de Unión Europea que se nos vendió hace 30 años, es el germen un estado totalitario. Que triste tener compañeros de universidad que colaboren en la creación de un estado totalitario. Supongo que esta opinión personal será censurada por la IA (Inquisición Actualizada).

Add new comment

The content of this field is kept private and will not be shown publicly.
Para el envío de comentarios, Ud. deberá rellenar todos los campos solicitados. Así mismo, le informamos que su nombre aparecerá publicado junto con su comentario, por lo que en caso que no quiera que se publique, le sugerimos introduzca un alias.

Normas de uso:

  • Las opiniones vertidas serán responsabilidad de su autor y en ningún caso de www.madrimasd.org,
  • No se admitirán comentarios contrarios a las leyes españolas o buen uso.
  • El administrador podrá eliminar comentarios no apropiados, intentando respetar siempre el derecho a la libertad de expresión.
CAPTCHA
Enter the characters shown in the image.
Esta pregunta es para probar si usted es un visitante humano o no y para evitar envíos automáticos de spam.