Inteligencia-artificial

Fuente: Colaje imágenes Google

El Contenido del post que os mostramos hoy, con gran cantidad de información acerca del debate sobre la IA, fue redactado hace seis semanas. Hemos esperado desde entonces con vistas a añadir más y más información. El torrente de noticias y valoraciones sobre los pros y contras de la IA ha sido incesante, como podréis observar en los enlaces. Tanto la mayor parte de la comunidad científica, como políticos e intelectuales, han expresado claramente sus temores, algunos incluso de naturaleza catastrófica. Por su parte los ciudadanos, muy poco precavidos, han picado el anzuelo.  Las grandes tecnológicas los han implementado raudamente y ya todos, o casi todos, los tenemos a nuestra disposición en los artilugios digitales de que disponemos sin consultar, a pesar de que las autoridades piden regular todo lo relacionado con esta tecnología, así como susntrañas se encuentren en abierto. Los banners de los buscadores comienzan a estar repletos de publicidad a cerca de las bondades de IA, como hacerse rico online, con anuncios como este. No se cumple principio de precaución alguno, y menos aún una ética empresarial prudente. Al final tendremos lo que nos merezcamos. Comenzamos pues con pura tecnociencia en acción a velocdad supersónica  y todo en tres o cuaro meses…..

Como es norma en la ¿ética de la tecnociencia?, se lanza una noticia, se husmea sobre las verdaderas oportunidades del modelo de negocio conforme al éxito de audiencia y si procede, comienza la invasión de las noticias bárbaras.  ¡Todo vale! Este post podéis considerarlo como una continuación de los dos que a continuación os expongo, pertenecientes a nuestro curso sobre filosofía de la tecnociencia: (i) “Las Dos Caras de la Inteligencia Artificial y Sus Algoritmos”) y (ii) “Drones y tecnociencia (Ciencia para el Bien y Ciencia para el Mal)”. Francamente, alucino con todo lo que veo y leo, así como con el comportamiento de parte la comunidad científica que, como los infantes, se emocionan y desean adquirir todo lo que está de última moda. Eso sí, a los que deseen abundar en estos temas os remito a los siguientes enlaces: (i) Inteligencia artificial; (ii) Aprendizaje automático; (iii) Aprendizaje profundo;(iv) Aprendizaje de refuerzo profundo;(v) Red neuronal. Para empezar veamos lo que ocurre con el último concepto.

Me levanto de la silla, escaneo con mi vista “natural” la zona de la biblioteca casera donde guardo los libros relacionados con la Teoría del caos, sistemas complejos, fractales, etc., ya que atesoro bastantes monografías desde finales de la década de los años noventa del siglo pasado y primeros años del S. XXI. Encuentro dos volúmenes acerca de redes neuronales. Regreso a la mesa en donde se posa mi PC de consola, tecleo redes neuronales y el buscador y Google espeta: “Una red neuronal es un método de la inteligencia artificial que enseña a las computadoras a procesar datos de una manera que está inspirada en la forma en que lo hace el cerebro humano”. Es decir, el burro delante de la carreta. Pero como ya se ha dado el pistoletazo de salida a la última carrera de la tecnociencia, como veréis, surgen escritos para todos los gustos.  Sin embargo, Elon Musk y Bill Gates aparentan sentirse preocupados y llaman la atención sobre las posibles consecuencias no deseadas de la IA en muchos aspectos y niveles de la sociedad. No se preocupen, por mucho que digan lo contrario, lo que realmente les preocupa es que otros se les han adelantado.  Con el revuelo mediático que se ha producido por este producto que se denomina ChatGPT, la publicidad aumenta a ritmo exponencial  No había transcurrido un mes (si no recuerdo mal) cuando Microsoft (Edge) lanza ya una actualización que incorpora IA. ¡Yo no se la he pedido! Pero ellos no pueden perder el tiempo. La carrera para liderar el mercado y el suculento negocio que implica ha comenzado entre las corporaciones tecnológicas.  Como os he comentado en varias ocasiones, la tecnociencia no tiene moral por lo que los progresos científicos pueden utilizarse para el bien y para el mal de la humanidad

El tema de la IA, desgraciadamente, tienen tantas aristas, que resultan difíciles de abordarlas, a no ser que escribamos una enciclopedia de cómo puede afectar a los seres humanos colectiva y socialmente. Supongamos que funcionará bien para que los alumnos hagan automáticamente sus tareas, es decir haciendo trampa. Pues bien, ya hemos creado una nueva legión de vagos que sumarán sus mentes maravillosas a otros menesteres más lúdicos, a costa de su futuro, por no instruir sus mentes. Se trata de un ejemplo demasiado simple, pero valga para comenzar. Abajo os dejo, diversos enlaces a noticias que nos advierten de lo que pudiera ocurrir si no se pone coto a tanta estupidez.

Las correlaciones no nos descifran las relaciones causa efecto.

En los fragmentos de noticia que os he traducido debajo de un artículo publicado en la revista Nature, al margen de discrepar del “entusiasmo de algunos”, ya se señala uno de sus primeros problemas. La IA trabaja a base de asociaciones o correlaciones de datos, que no con modelos causales. Las correlaciones, por si solas, no implican de ningún modo una relación causal entre dos variables.  Si golpeo una pelota de futbol y acierto, el balón se desplazará, es decir mi intencionalidad es golpear la pelota (causa) y el efecto será su desplazamiento.  No obstante, en la naturaleza los procesos suelen ser mucho más complejos.

Retorno a un ejemplo que ya os cité en otro post sobre las relaciones suelos vegetación de mi tesis doctoral, que versaba sobre “ecología del paisaje”. Durante el trabajo de campo y laboratorio obtuve, con mucho esfuerzo, 110 muestras de suelo para las cuales estimé hasta 110 variables. Se trataba pues de una matriz cuadrada. Hice las correlaciones entre todas las variables y más de 70 resultaron ser estadísticamente significativas.   Si una IA hubiera analizado los resultados estadísticos, hubiera comenzado a obtener un algoritmo incomprensible (no sabemos interpretarlos ¡nadie!) comenzando a hacer predicciones y extraer resultados falsos. Sin embargo, resultaba que más del 50% eran lo que se denominan correlaciones espurias. Como se trata de un “factor de confusión”, lo que se debe hacer es eliminarlas y repetir el análisis, trabajando para identificar las que finalmente podrían demostrar atesorar relaciones causa-efecto meridianas. Por ejemplo, un tipo de bosque concreto se situaba en una llanura que daba paso a un sistema montañoso. Tal tipo de bosque requiere, con vistas a prosperar, un clima cálido y con pronunciada sequía estival. Se localizaba sobre unas calizas dolomíticas. Sin embargo, conforme asciendes a lo largo de la catena altitudinal, las temperaturas tienden a bajar y las precipitaciones a aumentar, por lo que tal tipo de arbolado es reemplazado por otros climáticamente más adaptados. Empero en aquellas montañas, las calizas se restringían exclusivamente al enclave más cálido y térmico. En consecuencia, la correlación significativa detectada entre sustratos calizos y aquel bosque era circunstancial, ya que puede medrar también en sustratos ácidos. Por lo tanto, aquí surge otro factor de confusión que debe soslayarse, ya que la relación entre la masa forestal y las calizas no era causal.  El clima, que no la roca madre, era la asociación por considerar, al contrario que la estadística señalaba.    

Es una práctica habitual, que yo no comparto, eliminar datos extraños que al ser analizados se desvían mucho de la tendencia general, al considerarlos como errores, o razones análogas. Se trata de los “outlier o valores atípicosTales decisiones pueden dar lugar a resultados falsos, por cuanto a veces no es así, aportando una información valiosísima que cambiaría la perspectiva del problema. Lo más racional consistiría en cerciorarse primero, analizando las posibles razones da cada valor atípico uno por uno, con paciencia. En varios de mis estudios tal modo de proceder dieron un revolcón, a los resultados estadísticos preliminares.

 

Otro ejemplo. Hoy no me extenderé para explicaros un caso sorprendente que me ocurrió al analizar una anomalía que me indicaba que ciertas plantas calizas medraban perfectamente bien en suelos ácidos de tipo Ranker o Cambisoles dísticos (también parte de aquella Tesis Doctoral). Retorné al área de estudio, volví a recoger muestras de suelos, y me llevé la sorpresa de que justamente es esos sitios, existían trazas de caliza activa, así como granos de arena y dolomías que resultaban ser dolomíticos. Ya os contaré la peripecia en otra ocasión, pero adelanto que los rebaños de ganado extensivo, cuando cruzan por zonas de caliza, para adentrarse después en otras ácidas, transportan en sus pezuñas estos materiales carbonatados. Se corrobora también al recoger las muestras de las pezuñas de los animales. Como en este caso se trataba de un área en donde se mantenía la ganadería tradicional propia de las culturas campesinas tradicionales, el trayecto del ganado seguía el mismo  trayecto desde tiempos inmemoriales (me lo comentó Víctor, el pastor que conducía al ganado y que me permitió el análisis de los grados recogidos de las pezuñas mentadas). Y de este modo, el valor atópico dio lugar a un nuevo muestreo que constató como el tránsito del ganado por enclaves preferentes puede dar lugar a este tipo de contaminaciones y, como corolario, a extensiones cartografiables (unidades de mapeo) que había que segregar, ya que con el tiempo los suelos habían mutado a Ranker y Cambisoles eútricos. ¿Qué inteligencia artificial puede sondear y descifrar tales procesos? ¿Puede hablar con el pastor, por ejemplo?.

Algoritmos indescifrables

 La ciencia estriba en hacer retroceder el muro de nuestra ignorancia a cerca de la estructura, dinámica y evolución del mundo con sus indagaciones. En consecuencia, saber reconocer lo que acaece a nuestro alrededor “exige” descifrar la racionalidad del algoritmo que relaciona las variables estudiadas. Empero los algoritmos de la IA, hasta la fecha son indescifrables, como os muestro abajo en los fragmentos del artículo de Nature, traducidos al español castellano.  Por lo tanto, una predicción de IA nos es tan enigmática como la de una bruja con su bola de cristal, al menos hoy.  Basta con reemplazar a la mágica mente de la pitonisa por una “inteligencia artificial” de silicio. La ciencia no puede progresa así, de ningún modo.

Por último, habría que considera, como señalaba una periodista del Rotativo el País, que dado que la IA se alimenta de datos masivos de Internet, con la ingente cantidad de sandeces, fake news, etc., que es espetada en las redes sociales difícilmente, muy difícilmente podrían detectar patrones coherentes.    

Resumiendo, me temo que estamos entrando en un laberinto, sin tener la menor idea de cuál será el desenlace. Por favor que no pretendan engañar a nadie. Todo es un negocio de lo que empieza a denominarse tecnoeconomía, que según Google sería algo así como: “Tecnoeconomía es un fenómeno que esta incrustado en el capitalismo mismo que se sostiene, no por el trabajo de los ciudadanos, sino por el poderío de la estructura corporativa”.

Abajo o dejo numerosos enlaces a noticias sobre el tema hasta el 18 de abril de 2023, así como una relación de post previos. No os la perdáis, poque merece la pena y más en un tema que seguramente cambiara nuestras vidas para siempre.  

La IA, en nuestra tecnocultura nos llevará por los senderos del bien y del mal simultáneamente. A día de hoy, solo vislumbro impredecibilidad en el desenlace.

Juan Jose Ibáñez

Continúa……….

Definición de Google de Red Neuronal: Una red neuronal es un método de la inteligencia artificial que enseña a las computadoras a procesar datos de una manera que está inspirada en la forma en que lo hace el cerebro humano.

Por qué la inteligencia artificial necesita entender las consecuencias

Una máquina con una comprensión de causa y efecto podría aprender más como un humano, a través de la imaginación y el arrepentimiento. Neil Savage

Cuando Rohit Bhattacharya comenzó su doctorado en ciencias de la computación, su objetivo era construir una herramienta que pudiera ayudar a los médicos a identificar a las personas con cáncer que responderían bien a la inmunoterapia.(…). La idea de Bhattacharya era crear redes neuronales que pudieran perfilar la genética tanto del tumor como del sistema inmunológico de una persona, y luego predecir qué personas probablemente se beneficiarían .

Pero descubrió que sus algoritmos no estaban a la altura de la tarea. (….)»No podría decir que este patrón específico de unión, o esta expresión específica de genes, sea un determinante causal en la respuesta del paciente a la inmunoterapia«, explica.

(IA). Las computadoras pueden ser entrenadas para detectar patrones en los datos, incluso patrones que son tan sutiles que los humanos podrían perderlos. Y las computadoras pueden usar esos patrones para hacer predicciones, por ejemplo (…) Pero cuando se trata de causa y efecto, las máquinas suelen estar perdidas. Carecen de una comprensión de sentido común de cómo funciona el mundo que la gente tiene solo por vivir en él.(…). Pero sin esa comprensión, cualquier diferencia (…) podría ser suficiente para dirigir una máquina por el camino equivocado.

Para que las computadoras realicen cualquier tipo de toma de decisiones, necesitarán una comprensión de la causalidad, dice Murat Kocaoglu, ingeniero eléctrico de la Universidad de Purdue en West Lafayette, Indiana. «Cualquier cosa más allá de la predicción requiere algún tipo de comprensión causal», dice. «Si quieres planificar algo, si quieres encontrar la mejor política, necesitas algún tipo de módulo de razonamiento causal«.

La incorporación de modelos de causa y efecto en los algoritmos de aprendizaje automático también podría ayudar a las máquinas autónomas móviles a tomar decisiones sobre cómo navegan por el mundo (…)

En el caso de Bhattacharya (…). Pero la falta de comprensión de la causalidad significaba que también era posible que (…) otro factor oculto estuviera influyendo(…). La solución potencial a este problema radica en algo conocido como inferencia causal, una forma formal y matemática de determinar si una variable afecta a otra.

La inferencia causal ha sido utilizada durante mucho tiempo por economistas y epidemiólogos para probar sus ideas sobre la causalidad. El premio Nobel de Economía 2021 fue para tres investigadores que utilizaron la inferencia causal para hacer preguntas como si un salario mínimo más alto conduce a un menor empleo, o (….).(…)  un número creciente de científicos informáticos que están trabajando para fusionar la causalidad con la IA para dar a las máquinas la capacidad de abordar tales preguntas, ayudándoles a tomar mejores decisiones, aprender de manera más eficiente y adaptarse al cambio.

Una noción de causa y efecto ayuda a guiar a los humanos a través del mundo. «Tener un modelo causal del mundo, incluso uno imperfecto, porque eso es lo que tenemos, nos permite tomar decisiones y predicciones más sólidas«,(….). La comprensión de la causalidad por parte de los humanos apoya atributos como la imaginación y el arrepentimiento; Dar a las computadoras una habilidad similar podría transformar sus capacidades.

Subir la escalera

Los éxitos principales de la IA en la última década, como ganar contra personas en varios juegos competitivos, identificar el contenido de las imágenes y, en los últimos años, generar texto e imágenes en respuesta a indicaciones escritas, han sido impulsados por el aprendizaje profundo. Al estudiar resmas de datos, tales sistemas aprenden cómo una cosa se correlaciona con otra. Estas asociaciones aprendidas se pueden poner en práctica. Pero este es solo el primer peldaño en la escalera hacia un objetivo más elevado (…): «comprensión profunda«.

En 2011, Pearl ganó el Premio A.M. Turing, a menudo conocido como el premio Nobel de ciencias de la computación, por su trabajo en el desarrollo de un cálculo para permitir el razonamiento probabilístico y causal. Describe una jerarquía de razonamiento de tres niveles.4. El nivel básico es «ver», o la capacidad de hacer asociaciones entre cosas. Los sistemas de IA de hoy son extremadamente buenos en esto. Pearl se refiere al siguiente nivel como «hacer»: hacer un cambio en algo y observar lo que sucede. Aquí es donde entra en juego la causalidad.

Una computadora puede desarrollar un modelo causal examinando intervenciones: cómo los cambios en una variable afectan a otra. En lugar de crear un modelo estadístico de la relación entre variables, como en la IA actual, la computadora hace muchas. En cada una de ellas, la relación entre las variables sigue siendo la misma, pero se alteran los valores de una o varias de las variables. Esa alteración podría conducir a un nuevo resultado. Todo esto se puede evaluar utilizando las matemáticas de la probabilidad y la estadística. (….)

Bengio, quien ganó el Premio A.M. Turing en 2018 por su trabajo en aprendizaje profundo, y sus estudiantes han entrenado una red neuronal para generar gráficos causales (…) En su forma más simple, si una variable causa otra variable, se puede mostrar con una flecha que va de una a otra. Si la dirección de la causalidad se invierte, también lo es la flecha. Y si los dos no están relacionados, no habrá ninguna flecha que los una. La red neuronal de Bengio está diseñada para generar aleatoriamente uno de estos gráficos y luego verificar qué tan compatible es con un conjunto dado de datos. Los gráficos que se ajustan mejor a los datos tienen más probabilidades de ser precisos, por lo que la red neuronal aprende a generar más gráficos similares a esos, buscando uno que se ajuste mejor a los datos.

Este enfoque es similar a cómo las personas resuelven algo: las personas generan posibles relaciones causales y asumen que las que mejor se ajustan a una observación están más cerca de la verdad. Ver cómo se rompe un vidrio cuando se deja caer sobre el concreto, por ejemplo, podría llevar a una persona a pensar que el impacto en una superficie dura hace que el vidrio se rompa. Dejar caer otros objetos sobre concreto, o golpear un vidrio sobre una alfombra suave, desde una variedad de alturas, permite a una persona refinar su modelo de la relación y predecir mejor el resultado de futuros errores.

Enfréntate a los cambios

Un beneficio clave del razonamiento causal es que podría hacer que la IA sea más capaz de lidiar con las circunstancias cambiantes. Los sistemas de IA existentes que basan sus predicciones solo en asociaciones en datos son extremadamente vulnerables a cualquier cambio en la forma en que se relacionan esas variables. Cuando la distribución estadística de las relaciones aprendidas cambie, ya sea debido al paso del tiempo, las acciones humanas u otro factor externo, la IA se volverá menos precisa.

Por ejemplo, Bengio podría entrenar un automóvil autónomo en sus carreteras locales en Montreal, y la IA podría ser buena para operar el vehículo de manera segura. Pero si se exporta ese mismo sistema a Londres, se rompería inmediatamente por una simple razón: los automóviles se conducen por la derecha en Canadá y por la izquierda en el Reino Unido, por lo que algunas de las relaciones que la IA había aprendido serían al revés. Podría volver a entrenar a la IA desde cero utilizando datos de Londres, pero eso llevaría tiempo y significaría que el software ya no funcionaría en Montreal, porque su nuevo modelo reemplazaría al anterior.

Un modelo causal, por otro lado, permite que el sistema aprenda sobre muchas relaciones posibles. «En lugar de tener un solo conjunto de relaciones entre todas las cosas que podrías observar, tienes un número infinito«, dice Bengio. «Tienes un modelo que explica lo que podría suceder bajo cualquier cambio en una de las variables en el entorno«.

Los humanos operan con un modelo causal de este tipo y, por lo tanto, pueden adaptarse rápidamente a los cambios (….).El modelado causal permite a un sistema identificar los efectos de una intervención y explicarlos en su comprensión existente del mundo, en lugar de tener que volver a aprender todo desde cero.

Esta capacidad de lidiar con los cambios sin desechar todo lo que sabemos también permite a los humanos dar sentido a situaciones que no son reales, como las películas de fantasía. (….)

Contrario a los hechos

La capacidad de imaginación está en la parte superior de la jerarquía de razonamiento causal de Pearl (….) . Eso es lo que a los informáticos les gustaría replicar con máquinas capaces de inferencia causal: la capacidad de hacer preguntas de «qué pasaría si».

Imaginar si un resultado habría sido mejor o peor si hubiéramos tomado una acción diferente es una forma importante en que los humanos aprenden. Bhattacharya dice que sería útil imbuir a la IA con una capacidad similar para lo que se conoce como «arrepentimiento contrafáctico». La máquina podría ejecutar escenarios sobre la base de elecciones que no hizo y cuantificar si hubiera sido mejor hacer uno diferente. (…)

La capacidad de imaginar diferentes escenarios también podría ayudar a superar algunas de las limitaciones de la IA existente, como la dificultad de reaccionar ante eventos raros. Por definición, dice Bengio, los eventos raros aparecen solo escasamente, si es que lo hacen, en los datos con los que se entrena un sistema, por lo que la IA no puede aprender sobre ellos. Una persona que conduce un automóvil puede imaginar una ocurrencia que nunca ha visto (…) Trabajar a partir de reglas causales en lugar de una lista de ejemplos anteriores en última instancia hace que el sistema sea más versátil.

Usar la causalidad para programar la imaginación en una computadora podría incluso conducir a la creación de un científico automatizado. Durante una cumbre en línea de 2021 patrocinada por Microsoft Research, Pearl sugirió que dicho sistema podría generar una hipótesis, elegir la mejor observación para probar esa hipótesis y luego decidir qué experimento proporcionaría esa observación. (…) Sin embargo, esto sigue estando muy lejos. La teoría y las matemáticas básicas de la inferencia causal están bien establecidas, pero los métodos para que la IA realice intervenciones y contrafactuales aún se encuentran en una etapa temprana. «Esta sigue siendo una investigación muy fundamental», dice Bengio. «Estamos en la etapa de descubrir los algoritmos de una manera muy básica». Una vez que los investigadores hayan comprendido estos fundamentos, los algoritmos deberán optimizarse para que funcionen de manera eficiente. No está claro cuánto tiempo llevará todo esto. «Podría tomar décadas en su lugar».

Bhattacharya cree que los investigadores deberían tomar una hoja del aprendizaje automático, cuya rápida proliferación se debió en parte a que los programadores desarrollaron software de código abierto que brinda a otros acceso a las herramientas básicas para escribir algoritmos. Las herramientas equivalentes para la inferencia causal podrían tener un efecto similar. (….)

Si estos investigadores tienen éxito en la construcción de la causalidad en la computación, podría llevar a la IA a un nuevo nivel de sofisticación. Los robots. «Eso podría transformar la medicina», dice Bengio.

Incluso algo como ChatGPT, el popular generador de lenguaje natural que produce texto que se lee como si pudiera haber sido escrito por un humano, podría beneficiarse de la incorporación de la causalidad. En este momento, el algoritmo se traiciona a sí mismo al producir una prosa claramente escrita que se contradice a sí misma y va en contra de lo que sabemos que es verdad sobre el mundo (…). Con causalidad, ChatGPT podría construir un plan coherente para lo que estaba tratando de decir, y asegurarse de que fuera consistente con los hechos tal como los conocemos (…).

doi: https://doi.org/10.1038/d41586-023-00577-1

Este artículo forma parte de Nature Outlook: Robotics and artificial intelligence, un suplemento editorialmente independiente producido con el apoyo financiero de terceros. Acerca de este contenido.

Noticias Sobre IA Desde Marzo 2023

ChatGPT: más artificial que inteligente

En IA, ¿es más grande siempre mejor?

Elon Musk, Jeff Bezos y Bill Gates quieren entrar en tu cerebro El brain-hacking (hackear el cerebro)

Y un chatbot no es un humano. Y una lingüista llamada Emily M. Bender está muy preocupada por lo que sucederá cuando olvidemos esto

Los chatbots no deberían usar emojis

La inteligencia artificial es ya capaz de manipular el comportamiento humano

La inteligencia artificial que puede manipular nuestras emociones es un escándalo a punto de suceder.

Emojis artificiales

Una investigadora advierte del riesgo de que la inteligencia artificial nos manipule emocionalmente

 OpenAI lanza GPT4, el chatbot más potente impulsado por inteligencia artificial

El GPT-4 puede analizar imágenes y tiene una mayor capacidad de razonamiento. Según sus creadores, la actualización de ChatGPT es capaz de procesar preguntas y órdenes así como generar respuestas más largas, hasta ocho veces más que la primera versión. Los expertos señalan que no debemos dejarnos engañar por su fluidez, ya que siguen basándose en correlaciones estadísticas.

GPT-4 está aquí: lo que piensan los científicos

Una IA me dijo que tenía cáncer: ¿Por qué una IA revisaba mis registros médicos y cómo funcionaba? Decidí averiguarlo.

El sucio secreto de la inteligencia artificial: El auge de herramientas como ChatGPT dispara las previsiones del consumo mundial de energía de los centros de datos, que podría quintuplicarse

Ética, energía e inteligencia

La revolución de la inteligencia artificial y el gran reto medioambiental que viene: «El consumo energético se multiplicará por 15»

La ONU advierte sobre los peligros de la Inteligencia Artificial

La ONU ha advertido este jueves sobre los peligros que conlleva el uso de la Inteligencia Artifical (IA) y ha pedido a las empresas que sean responsables

La creciente presencia de la inteligencia artificial inquieta a la ONU

Hay un enorme riesgo para los derechos humanos, pero no en el futuro, sino ahora mismo», advirtió Hicks, quien señaló que si no se regula la inteligencia artificial «el peligro se puede multiplicar». Bachelet recordó por su parte ante el Consejo de Derechos Humanos que «la inteligencia artificial llega ahora a casi todos los rincones de nuestras vidas» y puede decidir «quién recibe determinados servicios públicos o quién tiene oportunidad de obtener un empleo». EFE

Primero Musk y otros expertos, ahora la ONU, la Unesco y una denuncia: quieren frenar el avance de la inteligencia artificial

 Eliza, Terminator y el peligro encubierto de ChatGPT

El tecnocapitalismo más voraz concentra hoy todo el poder de la inteligencia artificial, mientras se distrae a la opinión pública con una fantasiosa distopía en forma de máquinas que someten a la humanidad

La investigación sobre la «equidad» de la IA se ve frenada por la falta de diversidad

La «creatividad» artificial es imparable. Lidiar con su ética depende de nosotros

¿Por qué nos hemos creído la foto del Papa con el abrigo blanco?: La inteligencia artificial generativa ya está desarrollada para hacernos caer en unos bulos que hasta hace poco requerían de tecnologías sofisticadas

La IA despega y amenaza el mercado laboral

 Casi la mitad del trabajo existente hoy, en cuatro años, será realizado por máquinas

 La inteligencia artificial podría impactar en 300 millones de empleos: estos serían los más afectados

La inteligencia artificial destruirá 300 millones de puestos de trabajo en EEUU y Europa

El bucle invisible (libro) El Bucle invisible reseña libro

ChatGPT de OpenAI bloqueado en Italia: vigilancia de la privacidad

La investigación sobre la equidad de la IA se ve frenada por la falta de diversidad

El falso abrazo entre Yolanda Díaz y Pablo Iglesias: Una imagen generada por inteligencia artificial abre el debate sobre el uso de estas herramientas en los medios de comunicación

La revolución de la inteligencia artificial y el gran reto medioambiental que viene: «El consumo energético se multiplicará por 15»

Cómo cuidarnos de la Inteligencia Artificial: los cuatro niveles de riesgo que impondrá la Unión Europea para limitar a la IA

La UE podría tener en vigor en 2025 una legislación específica para el problema de la IA. La UE podría contar con una legislación específica para el problema de la IA en 2025.

La de la Inteligencia Artificial (IA) es la tercera ola de la digitalización. Y empieza parecer un abismo. Se estima que puede impulsar el crecimiento de la actividad económica europea en torno al 20% para 2030. Pero, «mientras crea una gran oportunidad para Europa, también implica ciertos riesgos sobre los que los legisladores son cada vez más conscientes». Es decir, puede incrementar el bienestar humano o causarle daño.

La UE se encamina a su primera ley de Inteligencia Artificial en medio de unos ‘chatbots’ incontrolados

Italia se ha convertido en el primer país occidental en prohibir el uso de ChatGPT por sus brechas sobre la privacidad y la seguridad.

Entre el ‘hype’ y el miedo: Los intereses comerciales marcan el frenesí de la inteligencia artificial

El alboroto publicitario y la exageración del temor a la expansión de la IA aceleran la estrategia de los gigantes tecnológicos de Silicon Valley para hacerse con el control de una de las tecnologías llamadas a marcar el futuro

EEUU, China y Europa pisan el freno ante el poder destructor de la inteligencia artificial Por Omar Kardoudi: 14/04/2023 – 05:00 Actualizado: 14/04/2023 – 13:41

Después del auge de la inteligencia artificial que hemos visto estos últimos meses, vienen el miedo y las prisas de los reguladores por controlar una tecnología que avanza a toda velocidad.

Las Inteligencias artificiales generativas, como el famoso ChatGPT o Midjourney —una IA que crea imágenes asombrosamente realistas a partir de una descripción de texto—, han entrado en nuestra vida como un toro bravo en una tienda de jarrones. Sus beneficios son enormes, pero también lo son sus potenciales peligros. La vertiginosa carrera que hay entre las empresas que las desarrollan por sacar versiones nuevas y más potentes está haciendo que los Estados empiecen a sentir vértigo por el futuro de una tecnología que no sabemos hasta dónde llegará.

EEUU se lanza a por el dron de moda en España

Una empresa estadounidense ha accedido a un relevante contrato del Departamento de Defensa de EEUU para suministrar helicópteros no tripulados. Según ha publicado el digital InfoDefensa se trata la firma Rapid Expeditionary Concepts y los vehículos son fabricados por una compañía española, Alpha Unmmaned Systems que también se ocupa de la integración, despliegue, prueba y evaluación (…) Los Alpha 900 son pequeños helicópteros que destacan por su capacidad de despegue y aterrizaje automático en plataformas móviles. Como en otros casos, funcionan propulsados a combustible. Según InfoDefensa, estos vehículos autónomos ya han llegado a nueve países de cuatro continentes, con distintos objetivos y funciones como control de la seguridad marítima, inspección de líneas eléctricas, labores de cartografiado o incluso agricultura de precisión

¿Una capa de invisibilidad algorítmica? Ropa para escapar de la vigilancia de la inteligencia artificial

Se hace pública una aplicación que utiliza inteligencia artificial para ganar dinero con el trading: esto es lo que hemos logrado ganar

Después de un robot que conozca las respuestas a todas tus preguntas, acaba de salir una aplicación que utiliza la inteligencia artificial para ganar dinero online con el trading.

Buscando ciencia en la web: cómo los pequeños errores crean grandes problemas (nature.com)

Por qué los modelos generativos de IA de código abierto son un camino ético para la ciencia

En nuestra bitácora

De la Filosofía de la Ciencia a la Filosofía de la Tecnociencia (Nuevo Curso Básico y Sus Razones)

Post Previos de nuestro Curso de Filosofía y Sociología de la tecnociencia

Tecnociencia: Definición y Propósito – Un Universo invisible bajo nuestros pies (madrimasd.org)

 “De la Filosofía de la Ciencia a la Filosofía de la Tecnociencia (Nuevo Curso Básico y Sus Razones)”

El Discurso Científico, los Conceptos Contrarios y la Perspectiva de Jean-Marc Lévy-Leblond

 “Bibliografía de libre Acceso en la Red Para el Curso Básico de Tecnociencias”

Tecnociencia: Definición y Propósito

Historia de la Tecnociencia: De la Ciencia a La Macrociencia Temprana

De la Bigscience a la Tecnociencia (La Macrociencia Tardía)

Tecnociencia y Ciencia Disruptiva: La paradoja de los Grandes Equipos de Investigación

 “Sobre la Tecnociencia, la Filosofía del Conocimiento, el Constructivismo y La Teoría Actor-red”

 “La Tecnociencia Como Sistema Complejo o No lineal: ¿Qué Significa?”

 “La Teoría Actor-Red y el Contexto de la Tecnociencia”

 “Bullshit: Sobre la charlatanería de la IA, datos, cifras y tecnociencia.”  

 “Ciencia, Tecnociencia, Ciencia aplicada, Tecnología para la Sustentabilidad (y la ignorancia de la ONU)”

Bruno Latour se interesa por los suelos y la zona crítica terrestre

Las Dos Caras de la Inteligencia Artificial y Sus Algoritmos

Drones y tecnociencia (Ciencia para el Bien y Ciencia para el Mal)”

 

Noticias Más recientes

Eliza Terminator y el peligro encubierto de ChatGPT

El tecnocapitalismo más voraz concentra hoy todo el poder de la inteligencia artificial, mientras se distrae a la opinión pública con una fantasiosa distopía en forma de máquinas que someten a la humanidad

El científico español que ha firmado el manifiesto para frenar la Inteligencia Artificial: «Las posibilidades negativas son muy superiores a las que ha producido cualquier otra tecnología»

Los motores de búsqueda de ciencia de IA están explotando en número, ¿son buenos?

Italia dice que ChatGPT puede volver si hace cambios útiles

Anales de Inteligencia Artificial: No hay I.A. Hay formas de controlar la nueva tecnología, pero primero tenemos que dejar de mitificarla.

Escritor, asesor, poeta, bot: cómo ChatGPT podría transformar la política

Los investigadores pretenden prever y prevenir la guerra

Sber de Rusia lanza GPTChat rival Gigachat

No hay autores de inteligencia artificial, por ahora

Bill Gates anuncia fecha de desaparición de profesores

Google despidió a esta mujer por avisar de los peligros de la IA: «Nos están robando a todos»

Geoffrey Hinton, el ‘padrino’ de la IA, deja Google y avisa de los peligros de esta tecnología Este experto teme sobre todo que internet se vea inundada de falsos textos, fotos y vídeos, y que las nuevas herramientas remplacen a muchos trabajadores

El Papa Francisco hace esta advertencia sobre la Inteligencia Artificial

El «padrino» de la IA deja Google y avisa de los peligros de esta tecnología

Las máquinas de lectura mental están aquí: ¿es hora de preocuparse?

Los neuroéticos están divididos sobre si un estudio que utiliza escáneres cerebrales e inteligencia artificial para decodificar el habla imaginada representa una amenaza para la privacidad mental. doi: https://doi.org/10.1038/d41586-023-01486-z

¿Está el mundo listo para los terapeutas de ChatGPT?

Un descodificador lee los pensamientos grabados por un escáner cerebral

“Tener un sensor en la cabeza será de rigor en 10 años, igual que ahora todo el mundo tiene un teléfono inteligente”

El neurocientífico Rafael Yuste y el ingeniero Darío Gil alertan en la Casa Blanca de la inminente llegada de dispositivos que conectarán el cerebro directamente con internet.

Por qué hay que prohibir que nos manipulen el cerebro antes de que sea posible

El científico Rafael Yuste, impulsor de la mayor iniciativa para conocer el cerebro, reclama a los Gobiernos la creación de nuevas leyes frente a los riesgos de la neurotecnología

TikTok rastreó a los usuarios que vieron contenido gay, lo que provocó quejas de los empleados

Un escáner cerebral combinado con un modelo de lenguaje de IA puede proporcionar una visión de sus pensamientos

Geoffrey Hinton: “Si hay alguna forma de controlar la inteligencia artificial, debemos descubrirla antes de que sea tarde”

El científico británico explica a EL PAÍS los motivos que le han llevado a abandonar Google y por qué el mundo debe temer esta tecnología

AIUK (freconmieetfinances.com)

Una aplicación que utiliza la inteligencia artificial para ganar dinero con el trading se ha hecho pública – aquí contamos lo que conseguimos ganar

«Algunos desarrollos tecnológicos no tienen marcha atrás, hay que utilizar la ética«

House dice que los gigantes tecnológicos tienen un deber «moral» con la IA

Los humanos y los algoritmos trabajan juntos, así que estúdialos juntos

Los algoritmos adaptativos se han relacionado con ataques terroristas y movimientos sociales beneficiosos. Gobernarlos requiere nueva ciencia sobre el comportamiento colectivo humano-algoritmo.

Cómo la IA sabe cosas que nadie le dijo

Los investigadores todavía están luchando por comprender cómo los modelos de IA entrenados para repetir el texto de Internet pueden realizar tareas avanzadas como ejecutar código, jugar juegos y tratar de romper un matrimonio……

Audite las herramientas de búsqueda de IA ahora, antes de que sesguen la investigación

La IA generativa podría ser una bendición para la búsqueda bibliográfica, pero solo si grupos independientes examinan sus sesgos y limitaciones

Herramientas como ChatGPT amenazan la ciencia transparente; Aquí están nuestras reglas básicas para su uso

El aviso de Yuval Noah Harari: «Si la IA se escapa de nuestro control, podríamos estar ante el final del Homo Sapiens»

Conversamos con el historiador israelí, autor del aclamado ensayo ‘Sapiens. De animales a dioses’, sobre los avances de la inteligencia artificial y el papel que la ciencia debe tener en el siglo XXI.

Cómo combatir la desinformación con la inteligencia artificial híbrida

Por qué es importante la crisis de diversidad de la IA y cómo abordarla

La inteligencia artificial entra de lleno en la RAE

La experta en Inteligencia Artificial y lenguaje Asunción Gómez-Pérez ha ingresado en la RAE con un discurso en el que realizó un llamamiento a la aprobación de un reglamento europeo específico sobre la IA. «Cada día que pasa se necesita más el reglamento específico sobre el desarrollo y el uso de los sistemas de Inteligencia Artificial que la Comisión Europea está elaborando. Mientras llega, debemos pensar en que no todo lo que sea técnicamente posible es socialmente conveniente, porque puede superar las fronteras de lo ético, lo medioambiental y lo legalmente aceptable (….)

Hacer la guerra con inteligencia artificial, última parada de Peter Thiel tras Paypal, Hulk Hogan, Trump y Facebook

Un escáner cerebral combinado con un modelo de lenguaje de IA puede proporcionar una visión de sus pensamientos

Compartir:

Deja un comentario