Presentes en infinidad de plataformas online, los algoritmos informáticos están presentes en la vida de millones de personas de manera silenciosa. / geralt (PIXABAY)
Fecha

La tiranía silenciosa de los algoritmos que dominan nuestras vidas

Las fórmulas matemáticas desarrolladas internamente por las mayores empresas tecnológicas del mundo son como la fórmula de la Coca-Cola, todo el mundo asume que existen, pero pocos las conocen, aunque mueven los principales servicios digitales que ya forman parte de la existencia humana.

En algún momento, quién sabe dónde y cuándo, algún gurú retrató a los datos que manejan los servicios digitales como el petróleo del siglo XXI. El enunciado puede ser más o menos acertado. Si así fuera, los algoritmos, esas largas fórmulas matemáticas que llevan con cierta opacidad y hermetismo las compañías tecnológicas, serían las refinerías de las que se extrae ese preciado activo. Como si se tratasen de la fórmula de la Coca-Cola, pocos tienen acceso a lo que son capaces. Pero son la mano que mece a empresas como Facebook, Twitter o Netflix.

Presentes en infinidad de plataformas online, los algoritmos informáticos están presentes en la vida de millones de personas de manera silenciosa. Invisible a sus ojos. Pero están detrás de las actividades en las que disfrutan diariamente. Domina la vida cotidiana sin reparo alguno y simbolizan, en parte, las borrascas que harán tronar a las lógicas empresariales en ese giro hacia la automatización total de la sociedad y la industria.

Un algoritmo decide, porque así está definido en su programación, lo que Facebook muestra en su panel principal, llamado NewsFeed. Desde su muro de entrada, los 2.300 millones de usuarios que tiene registrada la red social perfilan parte de su mundo. Descubren lo que hacen sus amigos y contactos. Fiscaliza, a su vez, lo que debemos conocer a nivel informativo, como sucede con los llamados "temas de tendencia" o "trending topic" en Twitter, una secuencia de temas que por asimilación le otorgamos el placer de ser lo más importante del día. Los algoritmos de Google y Facebook determinan la jerarquía de los contenidos o la publicación de determinadas imágenes como la de la Venus de Willendorf, vetada por considerarse "pornográfica" por un sistema informático.

Recientemente, la directora general de Google para España, Fuencisla Clemares, dejó caer un hecho: un algoritmo es capaz de evitar la brecha salarial entre hombres y mujeres dentro de la compañía estadounidense al establecer, automáticamente y por decreto virtual, lo que debe cobrar cada uno. ¿Debemos descargar toda la responsabilidad en una máquina? Un algoritmo también decide, en función de una serie de parámetros y registros de actividad de sus usuarios, el contenido recomendado que, se supone, más nos interesa en los servicios de contenido multimedia como Netflix. En efecto, suele acertar en un alto porcentaje con nuestros gustos. Es indudable su capacidad de acierto, pero puede reducir la percepción de nuestro pequeño universo. Spotify, otro servicio de gran popularidad con el que se puede escuchar música en "streaming" también sugiere las canciones que más se ajustan a nuestra personalidad. El propio sistema anota lo que interesa y lo que no, rechazando rápidamente el contenido descartado en una lucha por la audiencia llevado al extremo.

Ni que decir tiene que una de las empresas que más ha apostado por este negocio es Amazon, el gigante del comercio electrónico que ha logrado que millones de personas reciban en bandeja los productos que más necesitas. Pese a sus indudables virtudes, esa forma de operar también tiene una cara menos amable, un mundo distribuido en círculos sociales. ¿Vamos así hacia un pensamiento único en donde los usuarios solo consuman lo que les gusta? ¿Dónde queda, por tanto, la diversidad? "Las instrucciones que controlan el funcionamiento de los programas informáticos tienen efectos tangibles sobre nuestras acciones y las formas de las sociedades que construimos", apunta Dominique Cardon en su libro "Con qué sueñan los algoritmos".

EMULAR EL COMPORTAMIENTO HUMANO

La intervención de la mano humana es indudable en estos casos. Un sistema automatizado con capacidad de aprendizaje es capaz de "aprender" de los usos cotidianos de las personas. En la actualidad, los avances en inteligencia artificial y robótica perfilan parte del futuro al que debemos sumergirnos. Pero estos sistemas, pese a que pueden evolucionar hacia un intento de replicar el comportamiento del cerebro humano, están "entrenados" por personas.

De ahí que desde la parrilla de salida ya tengan sesgos y prejuicios heredados de las sociedades occidentales, en ellos se incluyen las ideologías más fuertes, se establece una moral definida por las empresas que lo desarrollan. Se superpone, así, el mundo actual. Esta delicada situación deriva en que, según un estudio elaborado por cinco expertos (Venkatesh Saligrama, James Zou, Tolga Bolukbasi, Kai-Wei Chang y Adam Kalai) de la Universidad de Boston (EE.UU.) hayan caído en la cuenta que la manera en que aprenden las máquinas contengan la misma concepción social que nos rodea.

En su libro "Armas de destrucción matemática", la científica y matemática Cathy O'Neil pone de relieve que las decisiones que toman esos famosos algoritmos "aumentan la desigualdad", provocando que sean las máquinas quienes concedan o no un préstamo, evalúen a los empleados, monitoricen la salud de los ciudadanos y, además, lleguen a influir en el criterio de los potenciales votantes en unas elecciones. Una situación en la que coincide el activista Eli Pariser, quien ha desarrollado una teoría bautizada como el "filtro burbuja". La mayor parte de los buscadores y páginas webs de noticias -relata- cuentan en la actualidad con este tipo de programas, y su objetivo no es precisamente que "el usuario cambie de opinión y amplíe sus horizontes". "Estas empresas deciden qué opciones tenemos de menú", lamenta. De ahí que si la intención del ser humano es que las máquinas sean mejores que las personas, es indudable que vamos por el mal camino.

RÉPLICA DEL COMPORTAMIENTO HUMANO

Vamos, por lo tanto, hacia un futuro en el que se repitan los mismos errores. Esos seres artificialmente inteligentes replicarán así nuestros mismos defectos y comportamientos dudosos. Los expertos en esta materia han insistido en la necesidad de establecer una serie de pautas e introducir una ética en la inteligencia artificial ante los fundados temores en que los robots se rebelen en un futuro. Mentes brillantes como el fallecido Stephen Hawking, gurús de la talla de Elon Musk o magnates como Bill Gates llevan tiempo alertando de los posibles conflictos que pueden derivarse de una inteligencia artificial sin control.

Incluso en uno de los activos que más interés ha despertado en los últimos tiempos, los avances en conducción automática, beben de estos programas para su funcionamiento. Los coches del futuro circularán ellos solos. Lo harán gracias a las redes de sensoresque "verán" todo el entorno, aprovecharán las futuras redes móviles 5G para "hablar" entre otros vehículos y el entorno, pero en su interior habrá una de estas fórmulas que empujará a tomar decisiones. "El algoritmo de los coches que se conducen solos tienen que tener algo de ética. La decisión de dar un frenazo o desviarse es una decisión que el cerebro humano toma en milisegundos y en base a los impulsos. ¿Cómo se lo programas a la máquina? Tienes que darle una conducta, pero la estamos creando nosotros, así que es necesario comités de ética", reconoce a este diario Manuel Fuertes,responsable de la firma especializada en innovación Kiatt, que trabaja entre nexo entre los científicos y las empresas.

TODOS LOS SECTORES ABRAZAN EL FUTURO

Los expertos en esta materia aplauden, en ese sentido, que los siguientes pasos de los algoritmos sean los de "aprender" por su propia cuenta. "Estamos logrando introducir ahora inteligencia artificial a los algoritmos y poder predecir, por ejemplo, cuándo se romperá una pieza, lo que nos puede hacer ahorrar mucho para mantener las líneas de producción", añade Fuertes. Se extrae así el grano de una paja que, hasta ahora, se movía por experiencia, intuición y, quién sabe, un poquito de suerte.

Son pocos los sectores industriales que escapan de los tentáculos de los algoritmos. También en la banca y las finanzas salta la liebre. Agentes de bolsa toman sus decisiones amparándose en lo que un software o programa informático considera que debe hacer para maximizar sus inversiones. ¿Nos engañan? ¿Y si provocan un agujero económico a costa de la especulación? No sería la primera vez que han llevado como locas a las bolsas mundiales produciendo estragos cuantificables en millones de dólares. Todo ello representa, para algunos expertos, una fuente de inestabilidad a largo plazo. Es decir, lo contrario que busca el mundo financiero.

Tampoco un activo tan importante como la ropa queda exento de su poder. Hoy en día todo debe estar contabilizado, cuantificado, analizado, testado. Antes de la salida de un producto al mercado ya se conoce de antemano el posible impacto económico. En las empresas actuales, al menos las de mayor envergadura, se toman decisiones estratégicas en función del análisis pormenorizado de datos procedentes de diversas variables (geográficas, perfiles de clientes, beneficios). Una especie de dimensión tiránica a la que ya nos hemos acostumbrado.

Añadir nuevo comentario

El contenido de este campo se mantiene privado y no se mostrará públicamente.
Para el envío de comentarios, Ud. deberá rellenar todos los campos solicitados. Así mismo, le informamos que su nombre aparecerá publicado junto con su comentario, por lo que en caso que no quiera que se publique, le sugerimos introduzca un alias.

Normas de uso:

  • Las opiniones vertidas serán responsabilidad de su autor y en ningún caso de www.madrimasd.org,
  • No se admitirán comentarios contrarios a las leyes españolas o buen uso.
  • El administrador podrá eliminar comentarios no apropiados, intentando respetar siempre el derecho a la libertad de expresión.
CAPTCHA
Enter the characters shown in the image.
Esta pregunta es para probar si usted es un visitante humano o no y para evitar envíos automáticos de spam.