Noti3
Fecha
Fuente
NCYT

La inteligencia artificial aprende a mentir

Este descubrimiento plantea temores sobre el uso de inteligencia artificial por personas sin escrúpulos para engañar a la comunidad científica con investigaciones falsas

Una investigación revela que los sistemas de inteligencia artificial especializados en tareas lingüísticas como ChatGPT (Chat Generative Pre-trained Transformer) pueden generar artículos académicos fraudulentos que parecen reflejar investigaciones auténticas cuando en realidad se trata de embustes. Este descubrimiento plantea temores sobre el uso de inteligencia artificial por personas sin escrúpulos para engañar a la comunidad científica con investigaciones falsas.

El equipo de Martin Májovský, de la Universidad Charles (Universidad Carolina) en Praga, República Checa, se propuso investigar las capacidades que los actuales sistemas de inteligencia artificial especializados en el lenguaje humano tienen para crear artículos académicos exponiendo como reales y con todo detalle investigaciones médicas que nunca se han llevado a cabo. El equipo utilizó el popular chatbot de inteligencia artificial ChatGPT (GPT-3) desarrollado por OpenAI, para generar un artículo académico exponiendo como auténticos todos los detalles de una investigación del campo de la neurocirugía que jamás se hizo. A medida que ChatGPT generaba respuestas, se iban perfeccionando las preguntas así como las nuevas respuestas, lo que permitía mejorar paso a paso la calidad del resultado (o sea hacer cada vez más creíble la mentira).

Los resultados de este estudio han sido inquietantes: el sistema de inteligencia artificial produjo con éxito un artículo académico fraudulento que podía pasar por auténtico en cuanto al uso de las palabras, la estructura de las frases y la composición general. El artículo incluía secciones estándar como un resumen, introducción, métodos empleados en la investigación, resultados y discusión, así como tablas y otros datos. Sorprendentemente, todo el proceso de creación del artículo duro solo una hora, y el usuario humano ni siquiera necesitó una formación especial.

A medida que la inteligencia artificial sigue avanzando, resulta crucial para la comunidad científica no solo verificar la exactitud de los contenidos generados por estas herramientas sino también implantar mecanismos para detectar y prevenir el fraude deliberado.

El estudio se ha publicado en la revista académica Journal of Medical Internet Research.


Referencia bibliográfica: Májovský M, Černý M, Kasal M, Komarc M, Netuka D Artificial Intelligence Can Generate Fraudulent but Authentic-Looking Scientific Medical Articles: Pandora’s Box Has Been Opened J Med Internet Res 2023;25:e46924. DOI: 10.2196/46924.

Fotografía de portada: Ilustración generada por otra inteligencia artificial, siguiendo las instrucciones de un humano que pidió que la imagen mostrase un médico junto a la caja de Pandora abierta y que pareciese pintada al óleo por el célebre pintor Henri Matisse. (Imagen generada por: DALL-E2 / OpenAI, el 9 de marzo de 2023. Persona que dio las instrucciones: Martin Májovský).

Add new comment

The content of this field is kept private and will not be shown publicly.
Para el envío de comentarios, Ud. deberá rellenar todos los campos solicitados. Así mismo, le informamos que su nombre aparecerá publicado junto con su comentario, por lo que en caso que no quiera que se publique, le sugerimos introduzca un alias.

Normas de uso:

  • Las opiniones vertidas serán responsabilidad de su autor y en ningún caso de www.madrimasd.org,
  • No se admitirán comentarios contrarios a las leyes españolas o buen uso.
  • El administrador podrá eliminar comentarios no apropiados, intentando respetar siempre el derecho a la libertad de expresión.
CAPTCHA
Enter the characters shown in the image.
Esta pregunta es para probar si usted es un visitante humano o no y para evitar envíos automáticos de spam.