Noti3
Fecha
Fuente
UC3M

Analizan las implicaciones jurídicas y laborales de los sistemas automatizados de reconocimiento de emociones

La normativa jurídica actual no ofrece una protección real a las personas empleadas frente a las empresas que utilizan los sistemas automatizados de reconocimiento de emociones, que combinan biometría, algoritmos e Inteligencia Artificial (IA) para deducir o detectar estados de ánimo o intenciones

La estructura facial, la huella dactilar o vocal, los patrones de la retina, las venas de los dedos y de las manos o incluso los latidos del corazón son datos personales que, convenientemente procesados, pueden ayudar a detectar el cansancio, el estrés, la falta de concentración, la felicidad o la tristeza. “Se podría afirmar que esta tecnología es una versión moderna del polígrafo o detector de mentiras”, indica la investigadora Ana Belén Muñoz Ruiz, profesora del Departamento de Derecho Social e Internacional Privado de la Universidad Carlos III de Madrid (UC3M), que ha publicado recientemente el libro “Biometría y sistemas automatizados de reconocimiento de emociones: Implicaciones Jurídicos-Laborales”, en el que analiza qué usos tiene esta tecnología en el plano laboral y las implicaciones laborales para los trabajadores.

Estos sistemas incrementan la capacidad de análisis y explotación de los datos de carácter personal de los empleados por parte de las empresas. “Sobre todo me preocupa si a través de esta tecnología las compañías podrían llegar a conocer datos de salud de sus trabajadores sin finalidad preventiva”, indica la investigadora. Actualmente, desde la Unión Europea se está tramitando la Ley de Inteligencia Artificial que introducirá límites y garantías frente al uso de esta tecnología, que entrará en vigor previsiblemente a finales de 2026. A su vez, se están preparando otras normas técnicas. “Sin embargo, el proceso de aprobación es lento y, mientras tanto, la normativa vigente actual no ofrece una protección real a las personas empleadas”, concluye Ana Belén Muñoz Ruiz. Estos sistemas pueden incidir sobre un abanico amplio de derechos fundamentales: derecho de protección de datos de carácter personal, intimidad, no discriminación y sobre todo salud mental de las personas empleadas.

Su libro analiza algunas de las primeras resoluciones judiciales sobre este tema en Europa. Por ejemplo, la Resolución de la Agencia Húngara de Protección de Datos del 8 de febrero de 2022. En este caso concreto, se trataba de un software que utilizaba IA y analizaba y evaluaba los estados emocionales de clientes y empleados de un banco con la finalidad de gestionar las quejas, controlar la calidad de las llamadas y aumentar la eficiencia de los empleados. “Este ejemplo no es más que un precedente de nuevas realidades en las que experimentaremos nuevos problemas derivados del uso laboral de los algoritmos e IA en las empresas”, señala la experta. En Estados Unidos y en otros países como China se ha alertado que algunas empresas emplean estas prácticas en el ámbito laboral. En la Unión Europea, desde julio de 2022, es obligatorio incluir en los coches de nueva homologación el detector de fatiga y somnolencia.

Incluso en el caso de sistemas de reconocimiento de emociones que no utilizan datos biométricos, como ocurre en el caso de los chatbots y robots RPA (automatización robótica de procesos, por sus siglas en inglés), el uso de esta tecnología puede llegar a pulverizar el derecho fundamental de intimidad cuando el control se produce en el puesto de trabajo, según la experta, pues los límites y garantías tradicionales vinculados con los derechos fundamentales de intimidad y protección de datos de carácter personal no parecen ser suficientes.

¿Están legitimadas las empresas para su aplicación? En el libro se analiza esta cuestión en dos momentos. En primer lugar, respecto de los datos biométricos de la persona empleada al hilo del cumplimiento de obligaciones cotidianas de las empresas, como el registro horario (de hecho, el control horario mediante la huella dactilar u otro dato biométrico se ha cuestionado en países como Austria, Francia, Italia o Noruega). En segundo lugar, en la legitimación de las empresas para el uso de los sistemas automatizados de reconocimiento de emociones. “Tras mi estudio, concluyo que mejorar la satisfacción de los clientes y el rendimiento de las personas trabajadoras o integrar a personas con discapacidades no parecen ser motivos suficientes. Si bien la seguridad en el trabajo es un deber que la empresa debe cumplir y puede justificar el tratamiento de datos de los empleados, resulta muy dudosa su extensión a los sistemas de reconocimiento automatizado de emociones”, concluye Ana Belén Muñoz Ruiz.


Referencia bibliográfica: Muñoz Ruiz, Ana Belén (2023). Biometría y sistemas automatizados de reconocimiento de emociones: Implicaciones Jurídicos-Laborales. Ed. Tirant lo Blanch. ISBN: 9788411693066.
https://libreria.tirant.com/es/libro/biometria-y-sistemas-automatizados-de-reconocimiento-de-emociones-implicaciones-juridicos-….

Añadir nuevo comentario

El contenido de este campo se mantiene privado y no se mostrará públicamente.
Para el envío de comentarios, Ud. deberá rellenar todos los campos solicitados. Así mismo, le informamos que su nombre aparecerá publicado junto con su comentario, por lo que en caso que no quiera que se publique, le sugerimos introduzca un alias.

Normas de uso:

  • Las opiniones vertidas serán responsabilidad de su autor y en ningún caso de www.madrimasd.org,
  • No se admitirán comentarios contrarios a las leyes españolas o buen uso.
  • El administrador podrá eliminar comentarios no apropiados, intentando respetar siempre el derecho a la libertad de expresión.
CAPTCHA
Enter the characters shown in the image.
Esta pregunta es para probar si usted es un visitante humano o no y para evitar envíos automáticos de spam.