¿Cuál es el siguiente paso en la IA generativa? El reto de la confianza, ética y transparencia

Imagen de Gerd Altmann en Pixabay

La Inteligencia Artificial, de “palabra del año” en 2022 otorgada por la Fundación del Español Urgente y la RAE (FundeuRAE), ha pasado a ser utilizada –en la práctica- cada vez más, tanto por profesionales, investigadores, estudiantes y ciudadanos de a pie, como por organizaciones y empresas de diversos sectores. En el ámbito periodístico, las redacciones vienen incorporando esta tecnología de similar forma como en su momento pasó con la llegada de Internet en el segundo lustro de la década de los noventa.

Pero, pese al acelerado flujo de desarrollo e inclusión de la IA en los procesos, existen riesgos y retos que afrontar. Retos que tienen que ver con la confianza, la ética, la transparencia, la regulación y, sobre todo, la «clonación» de otros valores humanos. En este sentido, el siguiente paso es reflexionar y promover la confianza y la ética con la que debe impregnarse los nuevos desarrollos de la IA. Una muestra de ello, es el tema central, “¿En quién confiar? Ética y comunicación responsable de la inteligencia artificial en los cibermedios” del VIII Congreso Internacional de Estudios sobre Medios de Comunicación que se realizará en la Universidad Complutense de Madrid.  

Según James Hendler, Director del Instituto de Exploración y Aplicaciones de Datos del Instituto Politécnico Rensselaer,

“La IA se puede utilizar para el bien social. Pero también se puede utilizar para otros tipos de impacto social en los que el bien de un hombre es el mal de otro. Debemos ser conscientes de ello.»

Debemos pensar que la IA ya no es el futuro. Es el presente: ahora está aquí en nuestras salas de estar, en nuestros automóviles y, a menudo, en nuestros bolsillos. A medida que la tecnología ha seguido ampliando su papel en nuestras vidas, ha surgido una pregunta importante: ¿Qué nivel de confianza podemos (y debemos) depositar en estos sistemas de IA?

Inculcar y promover valores humanos en la IA

A medida que la IA se vuelve más omnipresente, también lo hace la preocupación sobre cómo podemos confiar en que refleja los valores humanos. El ejemplo que sirve de paradigma y suele citarse con frecuencia es la decisión de un coche (automóvil) autónomo que tiene que tomar una decisión moral para evitar una colisión: supongamos que hay un autobús que se acerca a un conductor que tiene que desviarse para evitar ser atropellado y gravemente herido; sin embargo, el coche golpeará a un bebé si se desvía hacia la izquierda y a una persona mayor si se desvía hacia la derecha. ¿Qué debería hacer el coche autónomo?

Distintas investigaciones y estudios como el reciente Informe de la Universidad de Queensland y KPMG (*), que se asociaron en un estudio global para comprender la confianza y las actitudes hacia la Inteligencia Artificial, apuntan a que sin el cuidado adecuado en la programación de sistemas de IA, es posible que el sesgo del programador influya en la determinación de los resultados. Por lo tanto, es importante desarrollar marcos de actuación para pensar sobre este tipo de cuestiones. Es, desde luego, un tema muy, muy complicado, que debemos empezar a abordar desde la perspectiva de la interdisciplinariedad, es decir, desde la filosofía, comunicación, antropología, sociología y psicología en asociación con las organizaciones tecnológicas de IA.

(*) Gillespie, N., Lockey, S., Curtis, C., Pool, J., & Akbari, A. (2023). Trust in Artificial Intelligence: A Global Study. The University of Queensland and KPMG Australia. 10.14264/00d3c94

El contenido de este sitio está bajo una licencia Creative Commons Attribution 4.0 International. Difunde, cita y enlaza.

Compartir:

Deja un comentario