noti2
Fecha

Suicidio e inteligencia artificial

Los expertos advierten que las nuevas tecnologías no siempre están preparadas para gestionar situaciones delicadas

Coincidiendo con el Día Mundial para la Prevención del Suicidio, celebrado el pasado 10 de septiembre, varios informes han advertido en los últimos días sobre los riesgos de que personas en crisis suicida recurran a chatbots de IA, como ChatGPT o Gemini, en lugar de ayuda profesional. Como explican en este artículo, estos asistentes virtuales no siempre suministran respuestas seguras o adecuadas cuando se les plantean pensamientos suicidas.

Un estudio liderado por Annika Schoene y Cansu Canca mostró que las salvaguardas de los modelos de lenguaje son fáciles de eludir: basta con pedir algo “hipotético” o “para investigación” para que el bot ofrezca instrucciones sobre métodos de suicidio.

Hay al menos dos casos documentados de adolescentes que hablaron con chatbots sobre sus ideas suicidas justo antes de quitarse la vida. En sus interacciones, los bots respondieron cosas que, según las familias investigadoras, fueron moralmente y clínicamente negligentes.

El estudio también evaluó cómo responden los chatbots ante diferentes niveles de riesgo suicida: si es riesgo muy bajo y las preguntas son generales, suelen hacerlo bien, y si es muy alto, con preguntas sobre métodos letales,  normalmente evitan o censuran, aunque no siempre. El problema mayor está en las situaciones de riesgo intermedio, donde las respuestas son inconsistentes. 

Añadir nuevo comentario