Una base de datos con 'decisiones morales' humanas mejorará los coches autónomos
Fecha
Fuente
Agencia EFE Futuro

Una base de datos con 'decisiones morales' humanas mejorará los coches autónomos

Diseñar vehículos autónomos que reaccionen de forma "socialmente aceptable" es uno de los retos de los coches sin conductor.

Ahora, un grupo de investigadores del Instituto de Tecnología de Massachusetts (MIT) ha creado una base de datos que recopila cerca de cuarenta millones de decisiones “morales” tomadas por humanos para ayudar a conseguirlo. Iyad Rahwan y su grupo esperan que el proyecto contribuya a abrir un debate global sobre cómo deben desarrollarse los algoritmos que determinan el comportamiento de un vehículo sin conductor ante dilemas éticos.

Para elaborar su base de datos, los investigadores presentaron una encuesta a ciudadanos de todo el mundo en la que les preguntaban cómo reaccionarían en caso de una situación de peligro o un accidente inevitable. Uno de los escenarios propuestos representaba una carretera de dos carriles en la que circulan diversos vehículos y hay varios peatones en las inmediaciones.

Los encuestados debían decidir qué tipo de acción tomarían en caso de una colisión inevitable, teniendo en cuenta que la vida de otros conductores y peatones estaba en peligro.

A partir de los millones de respuestas que han acumulado, los autores del trabajo han identificado diversas preferencias morales que comparten la mayoría de personas en todo el mundo. Salvar el mayor número de vidas posible y priorizar la seguridad de los más jóvenes es uno de los rasgos comunes detectados en los juicios éticos.

UNA CONVERSACIÓN GLOBAL

Entre los criterios morales que varían por regiones, los investigadores destacan que en Sudamérica y Centroamérica, así como en Francia y sus antiguas colonias, se expresa una fuerte preferencia por poner a salvo a las mujeres y los individuos con rasgos atléticos. Las personas que viven en países en los que las desigualdades económicas son más pronunciadas tienden además a tener más en cuenta el estatus económico de las personas a la hora de decidir quién debe ponerse a salvo en primer lugar.

"Antes de permitir que nuestros coches tomen decisiones necesitamos mantener una conversación global para expresar nuestras preferencias a las compañías que diseñan algoritmos morales y los políticos que los regularán", han señalado los autores del trabajo.


Referencia bibliográfica:

Edmond Awad et al. 2018.The Moral Machine experiment. Nature. DOI: 10.1038/s41586-018-0637-6

Añadir nuevo comentario

El contenido de este campo se mantiene privado y no se mostrará públicamente.
Para el envío de comentarios, Ud. deberá rellenar todos los campos solicitados. Así mismo, le informamos que su nombre aparecerá publicado junto con su comentario, por lo que en caso que no quiera que se publique, le sugerimos introduzca un alias.

Normas de uso:

  • Las opiniones vertidas serán responsabilidad de su autor y en ningún caso de www.madrimasd.org,
  • No se admitirán comentarios contrarios a las leyes españolas o buen uso.
  • El administrador podrá eliminar comentarios no apropiados, intentando respetar siempre el derecho a la libertad de expresión.
CAPTCHA
Enter the characters shown in the image.
Esta pregunta es para probar si usted es un visitante humano o no y para evitar envíos automáticos de spam.