AI-y-tecnociencia

Fuente: Colaje Imágenes Google

Me recuerda al libro del filósofo español Xavier Echeverría que llevaba el título de “ Ciencia del bien y el mal”. Y sinceramente, ya venimos constatando en nuestro curso sobre filosofía de la tecnociencia. Sin denostar los potenciales de esta tecnología para ciertos propósitos, me causa terror lo que veo y leo en el ámbito de la ciencia y de la propia sociedad en su conjunto. Cuando escribo este post se está produciendo un serio debate sobre el acceso abierto a la IA ofrecido por ChatGPT, producto de la empresa OpenAI con la ayuda de Microsoft. Basta saber quien esta detrás de todo ello para ponerme los pelos de punta. Se trata, en mi modesta opinión, un poderoso salto adelante de la perversa Tecnociencia. No me cabe la menor duda.

Los científicos, como humanos, no somos ajenos a las modas, “hay que estar al día” y denostárselo a nuestros colegas. Del mismo modo la sociedad enferma, al parecer ajena a los grandes males que nos afectan a nosotros y al medio ambiente, comportándonos como una manada de borregos, cada vez menos ajenos al campo de minas que nos van poniendo delante las empresas tecnológicas y los poderes que se ocultan detrás de ellas.

Todo ello me recuerdo a la trilogía de hace diez años: “Big data, Minería de datos, Meta-análisis, que ya pasó de moda con el auge exponencial de la IA. En su momento, hice reír mucho al editor de una revista científica de mi campo, no amante de este trio calamita al demostrar a un revisor de mi manuscrito a publicar que yo, sin tanta fanfarria y por “conocimiento humano e intuición” era capaz de superar en velocidad y cantidad de información, respecto a un estudio previo que me intentaba restregar como ciencia seria utilizando esos conceptos.

Con el advenimiento de la IA, salen a relucir palabros, algunos ya casi olvidados, como los de redes neuronales, lógica difusa, métodos bayesianos, máquinas de aprendizaje, etc. Adelanto que tengo libros de más de 25 años de antigüedad sobre los tres primeros. Más aun, utilicé dos de ellas en varios trabajos, Nada nuevo bajo el sol. Tan solo la potencia de calculo y ensamblar el un nuevo producto conocimientos antiguos, otros antiguos, como advertí hace más de diez años en el post: “Tecnologías de Primera y Segunda Generación (Un Riesgo Social en Ciernes)”. No debe extrañarnos que, como se ha publicado en varios estudios y la propia revista Nature, en las últimas décadas ha decaído pronunciadamente esa ciencia con mayúscula que denominan disruptiva y yo remarcaría “creativa”.  Entendemos como tales a las que a la postre abran nuevas perspectivas al conocimiento humano, haciendo retroceder el muro de nuestra ignorancia. Y mirar por donde, la IA nos lleva por el camino inverso. Si un análisis con IA ofrece unos resultados concretos, e intentamos interpretar las relaciones causa(s)-efecto(s), resulta que no sabemos ni por dónde empezar. No podemos interpretar los algoritmos y como corolario hacer avanzar el conocimiento científico. ¿?.

Leo numerosísimas notas de prensa en las que los “pumillas” escriben, pero también los propios autores exclaman con alegría mediante un análisis de inteligencia artificial de los expertos ue hacen uso de la IA: “predicen, calculan, etc. tal o cual cosa”. En el caso de las predicciones habrá que esperar a ver lo que ocurre en la realidad. Ya sabemos lo que ha ocurrido durante decenios con los modelos de circulación general de la atmósfera. Nadie usaba razonamientos y herramientas de los sistemas complejos y/o no lineales dando lugar a predicciones muy pobres. Hoy todo el mundo reconoce, sin mentarlo, tal monumental error y espetan con naturalidad que el sistema climático no es lineal, con todas las consecuencias que ello acarrea, que son tremendas. Sin embargo, podemos ir más lejos y afirmar con rotundidad que encontrar correlaciones o como algunos dicen ahora “asociaciones”, no significa que lográramos detectar las relaciones causa(s)-efecto(s). Simplificando mucho, padecemos resumir diciendo que la estadística nos ofrece lo que se denominan correlaciones espurias.

Recuerdo la conversación con un matemático en la cual le expresaba que una serie de datos se me ajustaban prácticamente igual a distintos modelos de regresión distribución estadística y no sabía por dónde avanzar. En un momento dado, él exclamó algo así como “Juanjo, deme una base de datos numerosa, y yo te elaboro un nuevo modelo de regresión que se ajuste al 100% a esos datos.  ¿Nos vamos entendiendo? Ahora bien, ¿cómo interpretar el algoritmo?, ¿cómo desentrañar la información que proporciona con vistas al avance de la comprensión de un problema? Esas son cuestiones que la IA no nos proporciona. Por tanto, resulta ser una caja negra, como las bolas de crista que utilizaban las brujas para adivinar el futuro. Personalmente considero que eso no es ciencia.

ChatGPT se encuentra generando un intenso y acalorado debate entre seguidores acríticos, y los que denuncian los peligros inherentes que acarrean hoy y peor aun en el futuro. Como veréis, en el seno de la Academia, la polémica ha puesto al descubierto, tales peligros, así como que resulta ser una vía de entrada a la mala praxis científica y el plagio, entre otros. Hacernos perezosos es una manera eficiente con vistas a que pensemos menos, y ser más manipulables. Hay quien apunta desde la IA que, en poco tiempo, los artículos científicos podrán ser escritos por las máquinas. Empero tal hecho significa que las conclusiones sean indescifrables para nuestra razón. ¿esto es ciencia?. Fíjense en algunos de los esperpénticos comentarios (ver material al final de esta entradilla) que lanzan los defensores de la IA, como por ejemplo: “El aprendizaje automático imita nuestro comportamiento, aunque sin las limitaciones de la imaginación y la intuición”. Siempre se ha sostenido que la creatividad es en gran parte fruto de la imaginación y la intuición, y ahora resulta que estos humanoides nos quieren hacer creer que en realidad son un estorbo. ¿¿??. Todo ello atenta contra los cánones del método científico y de la filosofía de la ciencia.

Al final de la documentación que os ofrezco abajo, ubico las razonables alarmas de muchos científicos,   ChatGPT. Sin embargo, desde hace ya tiempo y antes del advenimiento de ChatGPT han comenzado a proliferar los artículos de investigación usando los resultados de tecnologías IA. Leyendo los resultados y conclusiones os puedo asegurar con el menos sesgo posible, que o decían obviedades o alcanzaban conclusiones que a mí personalmente me parecían  erróneas. Es decir que mientras unos científicos se escandalizan, para otros parece resultarles un negocio con mayúsculas muy lucrativos. Estos últimos solo ostentan en su cabeza el lema de “publica o perece” y con tal propósito los palabros de moda son francamente sugestivos para las editoriales, por cuanto suelen ser los más reclamados/bajados por los usuarios, pagando por supuesto.

Hace falta ser tonto para agradecer que ChatGPT se encuentre en acceso abierto. No se trata de generosidad, sino de picardía. Si el producto es testado por millones de usuarios, su calidad se afina “gratis”. ¿Nos vamos entendiendo?

Y lo que más me duele (…), en un mundo repleto de injusticias, hambrunas, guerras y crisis de toda clase y en el cual falta trabajo para alimentarse, seguimos obcecados en secuestrar millones y millones de empleos, alimentando un bucle magnicida que tan solo beneficia a los que más poseen, siendo ellos los que alimentan este holocausto caníbal. Sumémosle la robótica y otros juguetitos, y luego reflexionemos. Abajo encontrareis mucha información ya que he utilizado este post para profundizar en un tema que no conocía muy bien de antemano.

Morir de hambre en la era de la inteligencia artificial: por qué 839 millones de personas no pueden comer dignamente

Juan José Ibáñez

Continúa……….

Google nos dice sobre los algoritmos de IA:  “Los algoritmos son los que otorgan autonomía a la Inteligencia Artificial. Estos se entienden como un conjunto de instrucciones informáticas que recibe una máquina para realizar una acción o resolver un problema. De esta manera, un algoritmo tiene una entrada (input) o una salida (output)”. La inteligencia artificial es un término general que se refiere a cualquier metodología en la que las máquinas o las computadoras emulan la capacidad de tomar decisiones basándose en los datos disponibles similar a la de un operador humano.

La Inteligencia Artificial y los algoritmos

Usamos la Inteligencia Artificial a diario y casi sin darnos cuenta. Por ejemplo, cuando pedimos a Siri o al asistente de Google que nos ponga la alarma del día siguiente. Pero, ¿cómo funciona? En este post, te comentamos la relación de la Inteligencia Artificial y los algoritmos, lo que da vida a estas fascinantes herramientas. Sintetizando se puede decir que los algoritmos son instrucciones paso a paso que ayudan a un ordenador a completar un cálculo. De esta manera, la Inteligencia Artificial utiliza algoritmos para crear máquinas que aprendan de su propia experiencia, se reconfiguran ante nuevos escenarios y desarrollan las tareas de manera similar a cómo lo haríamos nosotros. Para crear Inteligencia Artificial hay dos fundamentos básicos de los que se valen: los algoritmos y los datos para configurarlos. El algoritmo proporciona las instrucciones para la máquina y los datos permiten a la máquina aprender a emplear esas instrucciones y perfeccionar su uso.

Según la disposición de las instrucciones se puede hablar de distintos tipos de Inteligencia Artificial y los algoritmos, destacamos los siguientes:

Los que emplean la lógica, crean algoritmos basándose en los principios racionales del pensamiento humano. Los que combinan lógica e intuición (Deep Learning), los algoritmos se diseñan como neuronas humanas, empleando el patrón de funcionamiento del cerebro de las personas para que la máquina aprenda como lo haría una persona. Tipos de algoritmos: (i) Aprendizaje por refuerzo (RL, Reinforcement Learning); (ii) Aprendizaje supervisado (Supervised machine learning) y (iii) Aprendizaje no supervisado (Unsupervised machine learning)

 Estos son los tipos de algoritmos clave en la búsqueda de la inteligencia artificial

El aprendizaje automático imita nuestro comportamiento, aunque sin las limitaciones de la imaginación y la intuición (….) Aunque este enfoque pueda parecer simple, es en realidad muy potente. En el fondo, no es más que imitar nuestro proceso de aprendizaje, pero sin las limitaciones de nuestra imaginación, prejuicios e intuición. Así, los sistemas de aprendizaje automático son capaces de extraer las características más importantes y sintetizar la información que reciben. Como ejemplo, sólo hay que ver los grandes avances que se han logrado en reconocimiento de voz con redes neuronales profundas. Estos sistemas pueden ser entrenados: se les alimenta con «pedazos» de audio y su transcripción para que aprendan cómo funciona el habla. Así extraen reglas que, aunque probablemente incomprensibles y extrañas para nosotros, sirven para identificar palabras mucho mejor que otros modelos inspirados en supuestos de cómo funciona nuestro lenguaje y nuestra voz. (….) Por desgracia, no todo es perfecto, y el aprendizaje automático no es siempre tan directo como «pasar unos datos, que aprenda y ya». Es, de hecho, más arte que ciencia. El principal problema que uno se puede encontrar es el del sobreajuste (…) El otro problema es ver qué tipo de clasificador usar. Resulta que no hay ningún «clasificador supremo». Las redes neuronales son bastante relevantes por los resultados que consiguen, pero no son las únicas ni los mejores algoritmos para ciertos problemas (…) Por ejemplo, para identificar la estructura de las proteínas, las máquinas de vectores de soporte (SVM) dan mejores resultados que las redes neuronales. Y para la clasificación de spam los métodos bayesianos y de aprendizaje estadístico consiguen muy buenos resultados con una implementación muy sencilla (…..) Aprender está muy bien, pero no podemos dejar de lado algo muy interesante: razonar y hacer deducciones para añadir más conocimientos al sistema. La primera opción es usar la lógica. Hay hasta varios lenguajes de programación dedicados a ello. El más conocido es Prolog, con un paradigma muy distinto al de lenguajes más habituales.

La idea es que en lugar de darle instrucciones de cómo hacer algo, simplemente le damos algunas reglas lógicas y hechos y el sistema deduce las soluciones. Por ejemplo (….) Por último, le preguntas si existe alguna serie de movimientos que resuelvan ese acertijo y, por arte de magia, te responde (….) No es, por supuesto, magia. Prolog usa las reglas de la lógica para razonar (todo sea dicho, bastante más rápido que tú y que yo) y ver cuál es la solución. De esta forma, evitas tener que decirle cómo resolver la pregunta. Puede parecer un ahorro trivial, pero no lo es cuando tienes montones de hechos, reglas y preguntas posibles: un sistema lógico puede enfrentarse a preguntas que su creador ni siquiera habría imaginado. La lógica difusa permite trabajar con conceptos imprecisos como «mucho frío» o «llueve poco».

 

Sin embargo, aquí nos encontramos con varios problemas. El primero es fácil de ver: hay que tener el conocimiento base. No nos sirve de nada razonar si no tenemos nada sobre qué hacerlo. Hay que crear esa base, y puede no ser fácil. Por un lado, es complicado enumerar todas las reglas y relaciones de un campo en concreto. Por otro, puede ser difícil escribirlo formalmente y ordenarlo para que un ordenador lo entienda. Pensadlo: ¿seríais capaces de expresar sin lugar a dudas todo lo que sabéis?

Hay otro problema adicional, y es que el mundo real (especialmente el mundo que percibimos y del que hablamos los humanos) no se adapta del todo bien a algo tan estricto como la lógica. No hace falta decir que los humanos somos de todo menos lógicos, y que no todo es verdadero o falso. Para lo primero hay poco que hacer, pero lo segundo sí tiene solución: la lógica difusa.

Interpretar (y comprender) la Inteligencia Artificial

¿Por qué es importante comprender y ser capaces de interpretar las decisiones tomadas por los modelos de analítica avanzada que utilizan Inteligencia Artificial (Machine Learning)? En nuestro día a día utilizamos y confiamos a ciegas en una gran cantidad de tecnología de la que apenas podemos intuir sus bases de funcionamiento. Entonces, ¿qué tienen de diferente los modelos de inteligencia artificial para que sea tan importante entender y explicar su funcionamiento interno?.

En 2015 el prestigioso hospital Monte Sinaí de Nueva York desarrolló un modelo de inteligencia artificial llamado Deep Patient que, aprendiendo de los datos de un millón de pacientes, era capaz de predecir enfermedades. En concreto, resultó ser casi infalible en la detección de la esquizofrenia, aunque nunca se utilizó con este objetivo. Si funcionaba tan bien ¿cuál era el problema? La esquizofrenia es una enfermedad cuyas causas son especialmente difíciles de explicar por la ciencia médica y nadie fue capaz de entender cómo Deep Patient realizaba sus predicciones. De este modo, los médicos no podían ofrecer argumentos a sus pacientes que explicasen esta conclusión y recetarles el tratamiento adecuado. En resumen, sin entender las predicciones no confiaban en el modelo. (….) pero nadie puede explicarte cómo ha llegado un algoritmo a esta conclusión.

Lo más sencillo sería responsabilizar a los prejuicios humanos de no utilizar un gran avance de tecnología médica, pero antes de emitir este juicio deberíamos ponernos en situación. Si en una revisión médica un algoritmo recomienda que tu hijo sea operado de corazón para evitar un grave problema indetectable, pero nadie puede explicarte cómo ha llegado un algoritmo a esta conclusión, ¿aceptaríais operar a tu hijo sin una explicación de un médico cualificado?

Con el crecimiento imparable de la analítica avanzada, se hace cada vez más patente la necesidad de disponer de modelos de IA comprensibles y explicables, que permitan mejorar la confianza en el empleo de esta tecnología. El objetivo sería evitar ejemplos como algunos modelos de selección de personal con inexplicables sesgos de género o etnia, modelos de predicción de fraude con falsos positivos aleatorios, o modelos de detección de vídeos violentos en internet que no diferencian acciones de terrorismo real de escenas de videojuegos de guerra.

Entendida la importancia, ¿por qué estos modelos son tan difíciles de interpretar? Básicamente, porque la mayoría se basan en modelos deep learning, principal responsable de la explosión de la IA. Estos modelos utilizan las ya famosas redes neuronales, que son un conjunto de miles y miles de neuronas simuladas interconectadas entre sí en capas. Cada neurona toma una pequeña decisión y pasa el resultado a otras neuronas adyacentes para que a su vez tomen su decisión y la pasen a las siguientes en un procedimiento de aprendizaje iterativo que produce un resultado global. Este mecanismo hace prácticamente imposible observar una red neuronal de gran tamaño en funcionamiento y comprender qué ha ocurrido dentro.

Lo mejor del año pasado: los mejores artículos de Tech Xplore de 2022

por Bob Yirka , Tech Xplore

(…..) Además, un equipo de Dartmouth College construyó una aplicación de inteligencia artificial que podía leer conversaciones en Reddit e informar sobre el estado mental de las personas que participan en tales conversaciones. Las pruebas mostraron que la aplicación era capaz, en algunos escenarios, de detectar trastornos de salud mental. El equipo presentó su documento que describe su aplicación y su trabajo con ella en la Conferencia Internacional sobre Inteligencia Web y Tecnología de Agentes Inteligentes de este año (….).

…Y un equipo con miembros de la Universidad de Cambridge y la Universidad de Oslo informó que una paradoja matemática demuestra algunos de los límites de la IA. Señalaron que la mayoría de estos sistemas, debido a que están construidos sobre redes neuronales, no son buenos para comprender cuando llegan a una respuesta incorrecta. Esto se debe a una paradoja descrita por primera vez por Alan Turing y Kurt Gödel que implicaba poder probar si un estado matemático dado es verdadero o falso……

También recordando a los fanáticos del cine escenas de varias películas de ciencia ficción, un equipo de la Universidad de Zhejiang que trabaja con un colega de la Universidad de Ciencias de Hong Kong y otro del Instituto de Tecnología y Huzhou de la Universidad de Zhejiang, creó un enjambre de drones capaces de volar de forma autónoma a través de un espeso bosque. Diez cuadricópteros fueron mostrados volando juntos a través de un bosque de bambú en China sin toparse con ramas u otros arbustos……© Red Ciencia X 2022

Las falacias del encantamiento con la inteligencia artificial de ChatGPT

Esta herramienta de la empresa OpenAI usa muchos textos diferentes para generar uno nuevo. Por ello, es fácil que recombine segmentos que, conceptualmente, son como el agua y el aceite y que cree una explicación con errores importantes. Además, sus fuentes de entrenamiento son opacas y no sabemos de dónde ha sacado la información que utiliza para explicarnos las ideas principales. David Casacuberta y Ariel Guersenzvaig. 16/12/2022 09:21 CEST

Imagen simbólica de los ‘clickworkers’, mano de obra invisible que hay detrás de los sistemas de IA. Sin humanos reales que realicen el tedioso trabajo de etiquetar conjuntos de datos, el aprendizaje automático y sus muchas aplicaciones en la vida real serían imposibles. / Max Gruber / Better Images of AI 

Coherencia no es sinónimo de verdad, pero tendemos a confundir ambos conceptos. Cuánto más coherente es un discurso, ya sea oral o textual, más fácil es que lo tomemos por verdadero y más convincente nos parecerá. Y confundir coherencia con verdad puede llevarnos a cometer errores desastrosos. Un ejemplo perfecto de esta confusión es el ChatGPT de OpenAI. Sus desarrolladores han optimizado sus modelos lingüísticos con esmero para conseguir textos, que no solo son gramaticalmente correctos, sino que son tersos y hasta elocuentes. Encadenan frases de manera ágil, generando así una fascinante y persuasiva impresión de razonamiento. Al mismo tiempo, ese chat de inteligencia artificial (IA) no se limita a copiar y pegar textos existentes, sino que, en base a la información adquirida en su entrenamiento, realmente genera textos exnovo.

Algunas personas han quedado tan alucinadas que se habla ya del fin de Google, de estar un paso de la Inteligencia Artificial General (AGI), en la que los sistemas son comparables en inteligencia a los seres humanos. Algunos, con aún mayor osadía, ven razones para dar la bienvenida a la singularidad, ese estadio de desarrollo tecnológico en el que esta trasciende la inteligencia y el control humanos. Este encantamiento suele ir acompañado del emoji de la cabeza que explota. Somos nosotros mismos, los humanos, quienes dotamos de significado a estos textos, que, en sentido estricto, no son producto del razonamiento sino de vectores probabilísticos. Uno de los aspectos que más debería preocuparnos a estas alturas es precisamente esta capacidad de generar textos que se perciben como tremendamente coherentes y de enorme eficacia persuasiva. Pero tal como está implementado, a efectos prácticos y si queremos usarlo de manera responsable, ChatGPT es poco más que un juguete para esas tardes en que ya estamos cansados del humor de TikTok, de rifirrafes tuiteros o de la última serie de moda.

Sesgos, errores matemáticos y de razonamiento inferencial 

La veracidad de una noticia o de un artículo científico no se mide por la coherencia del texto, sino por la credibilidad de las fuentes, por la fortaleza de las evidencias y la solidez de los argumentos. Y es aquí donde encontramos un gran problema con ChatGPT. Un problema que no es el único, ya que hay otros documentados como los sesgos discriminatorios o, curiosamente, los errores matemáticos y de razonamiento inferencial que contienen algunas de sus respuestas. Por ejemplo, “no saber” si Lincoln y su asesino estaban en el mismo continente en el momento del asesinato.

Aquí nos enfocaremos en el problema de sonar tremendamente convincente. Por un lado, sus fuentes de entrenamiento son opacas. No sabemos de dónde ha sacado la información que utiliza para explicarnos las ideas principales del Tractatus Logico-Philosophicus de Wittgenstein o cómo funciona un coche eléctrico. No podemos verificarlas y establecer si son de fiar. Pero ese es el menor de los problemas.

Recomendar libros que no existen

Al usar muchos textos diferentes para generar uno nuevo, es fácil que el programa recombine segmentos de textos que conceptualmente son como el agua y el aceite y que cree una explicación con errores importantes. Así, ChatGPT nos ha recomendado un libro que no existe, cuyo supuesto título no es más que un “cadáver exquisito” construido con los títulos de dos libros diferentes y cuyo supuesto autor es un tercero no relacionado. O cuando le pedimos que resuma las diferencias y similitudes entre dos autores, acaba asignando, erróneamente, opiniones del primer autor al segundo o viceversa. El problema añadido es que las respuestas erróneas a estas preguntas solo son evidentes para quienes ya saben del tema.

El sistema puede resultar terco y recalcitrante de una manera muy curiosa. Si le pedimos que genere una nueva respuesta, nos ofrecerá respuestas que, manteniendo un tono de total certidumbre, pueden ser del todo o parcialmente contradictorias con las generadas anteriormente, y que habían sido comunicadas con similar firmeza y certidumbre.

La interacción con el sistema evoca los diálogos de Sócrates con el sofista Hipias. Tanto Hipias como ChatGPT muestran una perturbadora inconstancia en sus argumentos, pero, a diferencia de Hipias, ChatGPT no “concede” error alguno y lo suyo es más una simple violación del principio de no contradicción. Digamos que más que a un sofista, se parece más a un ‘enteradillo’ de Twitter.

La célebre frase “Si he podido ver más lejos que otros es porque me subí a hombros de gigantes”, frecuentemente atribuida a Newton —aunque existe una viva polémica sobre su origen— celebra y reconoce las deudas intelectuales que tenemos con quienes nos precedieron. Al presentar un batido, un remix, de conclusiones e ideas inestables, ChatGPT rompe radicalmente con esa valiosa tradición. Decimos radicalmente, porque incluso si nos topáramos con una idea que resulta prometedora o inspiradora, resultaría virtualmente imposible descubrir su origen.

¿Generación de noticias falsas a gran escala?

Los peligros que en su momento aireó OpenAI —y que ahora la propia empresa parece haber olvidado— de cómo esta máquina sería una terrible generadora de noticias falsas también son muy exagerados. Cierto, la coherencia intrínseca del programa la hace ideal para generar ese tipo de textos, pero a los humanos también se nos da muy bien generarlos, así que no hay ningún tipo de escalada cualitativa de esos subproductos digitales. Además, lo que hace que una noticia falsa sea problemática no es la habilidad incomparable de la entidad que la genere —la mayoría de noticias falsas o de textos de clickbaits son repetitivos y facilones— sino cómo se distribuyen en las redes sociales digitales y ahí ChatGPT no aporta nada novedoso en cuanto a la creatividad o el ingenio necesarios para crear estos contenidos. La diferencia, sin embargo, puede estar, de implementarse en la práctica e integrarse con otros sistemas, en la facilidad que ofrece para crear estos contenidos a gran escala.

 

Pero ello no significa que ChatGPT sea completamente inútil. A continuación un listado de posibles campos de actuación en su versión actual:

  • Estudiantes gandulesque quieran un substituto al Rincón del Vago, con el extra de que el texto no será localizable por detectores de plagios. De manera más responsable, podría servir para generar borradores de documentos que contengan elementos estándar (por ejemplo un email para excusarse por no poder asistir a un congreso o un contrato de alquiler).
  • Poetas, letristas o novelistas mediocresque se encuentran en un bloqueo de escritor y piden unas líneas de texto a ChatGPT para así avanzar en su proyecto. Aunque naturalmente también es posible que artistas más serios lo puedan utilizar como ‘material creativo’.
  • Administradores de granjas de clicksque quieran ahorrarse el sueldo -probablemente mísero- que pagan a sus copys y tener un generador de noticias falsas y listados inanes, aunque por ahora la mano de obra para darle al botón de “publicar” seguirá siendo necesaria, ya que ChatGPT no está integrado con gestores de contenido.

Siendo optimistas, una futura versión de este sistema podría aportar cierto valor. Para ello debería ser más robusto y fiable, y sus creadores deberían ofrecernos maneras para verificar que esta robustez y fiabilidad es tal (por ejemplo, facilitando documentación acerca de los datos de entrenamiento además de fuentes verificables en los resultados). Lo que este sistema NO puede hacer es ser autor de argumentos, ya que, para serlo, se requiere querer decir algo y comprender lo que uno está diciendo. También hace falta tener una voz mínimamente constante en el tiempo, que por lo menos se haga cargo de lo que dice. En suma, poseer una cierta capacidad de juicio y una intención comunicativa.

Sin embargo, y dicho con cautela, no está nada claro que estos sistemas tengan estas capacidades. Mediante medios probabilísticos, ChatGPT sí que puede decirnos que Lincoln fue apuñalado, pero es incapaz de inferir mediante sentido común que para apuñalar a alguien es necesario estar a su lado. No debemos dejarnos llevar por el seductor encantamiento de la elocuencia basada en correlaciones. ChatGPT es un desarrollo experimental, técnicamente elogiable y ciertamente entretenido, pero, bien mirado, no justifica que a tantos les explote la cabeza y vean en dicho sistema el comienzo de una nueva era de la creatividad y la inteligencia.

David Casacuberta es doctor en Filosofía y máster en Ciencias cognitivas y del lenguaje y profesor de Filosofía de la ciencia en la Universidad Autónoma de Barcelona. También codirige el máster en Diseño y Dirección de Proyectos para Internet de Elisava.

Ariel Guersenzvaig es investigador en ética de la inteligencia artificial y profesor en Elisava, Facultad de Diseño e Ingeniería de la Universidad de Vic y miembro del comité de ética de la investigación de esa universidad. 

Fuente:  SINC; Derechos: Creative Commons.

ChatGPT es una máquina de desinformación

Casi cualquiera que haya utilizado esta aplicación de IA puede haber tenido la sensación de estar ante algo disruptivo, como cuando probó el buscador de Google por primera vez. Sin embargo, las limitaciones de esta herramienta de la empresa OpenAI están en su propio diseño: no entiende las respuestas que genera. El experto Pablo Haya explica hasta dónde puede llegar la inteligencia del ChatGPT.

Alejandro Muñoz;  28/12/2022 11:13 CEST

Durante las últimas semanas se ha desatado una gran expectación sobre el ChatGPT, una aplicación de inteligencia artificial (IA) basada en el software GPT-3.5 de la empresa OpenAI, que es capaz de resolver gran variedad de preguntas y tareas, de forma muy intuitiva. Desde crear un artículo que podría haber escrito Rajoy, a realizar los deberes de estudiantes o facilitar las tareas de un profesional de consultoría, para que pudiese llegar a una cena. Los ejemplos en redes sociales han sido muchos, por su facilidad de uso y lo acertado de sus respuestas. Las posibilidades que ofrece esta nueva aplicación parecen infinitas, pero expertos como Pablo Haya creen que no se debe exagerar con las capacidades del ChatGPT, e insisten en recordar la limitación tecnología detrás de este programa. Haya está especializado en IA y procesamiento de lenguaje. Es profesor de big data y ciencia de datos y lidera el grupo de Social Business Analytics en el instituto de Ingeniería del Conocimiento, ubicado en la Universidad Autónoma de Madrid, un centro de transferencia tecnológica centrado en inteligencia artificial, con 30 años de historia.

¿Estamos ante la nueva revolución digital tras la creación de internet?

La sensación es que el ChatGPT es un poco el doctor Jekyll y Mr. Hyde. Por un lado, estamos ante una revolución en el área del Procesamiento del Lenguaje Natural (PLN). Supone un cambio cuantitativo y cualitativo impresionante en IA generativa de texto respecto, por ejemplo, al software anterior GPT-3. Cualquier humano que lo ha probado ha tenido esa sensación de estar ante algo que no había experimentado nunca. Como cuando apareció Google por primera vez, que ponías una pregunta y en el primer o segundo resultado ya encontrabas la respuesta. Era algo alucinante. Por otro lado, se están generando unas expectativas desmedidas en cuanto a cómo va a influir esto en la sociedad, porque no tenemos lo suficientemente interiorizado cómo funcionan estas tecnologías. Las limitaciones de su diseño implican que hay tareas que, a día de hoy, no se pueden hacer……..

Pero se trata de una aplicación en fase de pruebas, ¿no?

Sí, en eso –a diferencia de Meta– la empresa OpenAI ha sido muy discreta. Ha sido el boca a boca de los usuarios lo que ha generado su popularidad. Sam Altman, CEO de OpenAI, no ha dejado de repetir las limitaciones que tiene el ChatGPT. Ahora mismo, el programa está en abierto para que lo probemos y lo validemos, pero esto será una aplicación de pago, evidentemente. La propia aplicación tiene un botón de feedback y están recogiendo comentarios precisos de aquellos usuarios que quieren enviarle lo que hace bien o mal. No es una aplicación profesional, ni pretende serlo en este momento. El ChatGPT es una ventana al futuro. En cuatro o cinco años, en vez de utilizarlo como una herramienta de pruebas estará integrado en Bing, en Google o en las apps de tu móvil y lo usará todo el mundo.

 ¿Cómo funciona?

Básicamente, es un modelo probabilístico que junta palabras. No entiende el conocimiento que genera, solo sabe completar frases. Lo hace muy bien porque ha cogido una cantidad ingente de textos extraídos de internet y se ha puesto a hacer una tarea muy básica: le damos una frase, le quitamos una palabra de esa frase y entonces intentamos que la IA prediga la palabra que se le ha quitado. Y repetimos este proceso casi hasta el infinito, no solo en tiempo, sino sobre todo en volumen de datos. Lo sorprendente es que con este método se ha conseguido que genere textos que imitan el lenguaje humano, desde el punto de vista gramatical, a unos niveles insospechados hasta hace poco. Ya en 2019, con el chat basado en el software GPT-2 vimos el primer gran avance. Ahora este chat basado en GPT-3.5 tiene dos novedades. Por un lado, integra distintas maneras de interaccionar. Le puedes pedir tanto respuestas en lenguaje natural, como código fuente, el borrador de un contrato, una poesía, la letra de una canción, etc. Todo eso con una interacción muy natural en la que guarda el contexto y puedes ir matizando sus respuestas con nuevas preguntas. Por otra parte, incluye salvaguardas para que no opine de temas conflictivos o que en principio no podría saber, porque no tiene la información. Se le ha orientado y por eso vemos que a veces habla de forma muy sosegada, como si fuera un experto que quisiera dar una respuesta muy prudente.

¿Y cómo llega a eso?

Para lograr esto, ha habido personas simulando conversaciones, como si fueran el usuario y la máquina, para enseñarle de qué manera responder. Como es generativo, no necesitas enseñarle todo el tipo de frases, es capaz de extrapolar y puede incorporar sinónimos porque tiene toda la gramática del español capturada. Es muy versátil.

Con esa simulación, luego se entrena al ChatGPT para que utilice este lenguaje y se le pone a prueba. Las respuestas que va dando a las preguntas se validan mediante un aprendizaje por refuerzo y así se va ajustando más, para que la IA pueda generar cualquier tipo de frase. Sin embargo, cuando trabajas un poco con él, ves que hay muchas puertas traseras. ¿Puedes poner ejemplos?……….

Entonces, ¿no es inteligente?

¿Qué significa ser inteligente? El ChatGPT no entiende nada, solo aplica un proceso en el que, dada una frase, encuentra la siguiente palabra. Busca relaciones entre palabras, pero no comprende el significado de las palabras. Las capas que han generado su entrenamiento de repetición, desde el punto de vista de la ética, por ejemplo, no le añaden inteligencia, sino que filtran sus resultados. Es un proceso de cribado como el de la evolución. Hay gente que define la inteligencia como la capacidad de resolver problemas. Entonces estas aplicaciones sí serían inteligentes, porque resuelven problemas.

Para mí, la inteligencia implica el hecho de ser consciente. El ser que piensa que piensa. Además de ser conscientes, los humanos somos sintientes y para eso necesitamos un sistema nervioso que genera hambre, deseo, miedo, etc. Sentirse alegre es el final de un proceso que se expresa a través del lenguaje y tú lo entiendes porque sientes y eres consciente, e interpretas lo que es la alegría porque tenemos una semántica compartida, aunque la interpretes a tu manera. Ahora mismo, estamos muy lejos de alcanzar una inteligencia consciente. La máquina solo emula el lenguaje humano. Ni siquiera sabemos todavía definir lo que es la consciencia, imagínate para intentar emularla.

¿Qué tipos de inteligencia artificial existen?

De manera clásica, hay dos tipos de inteligencia artificial: la inteligencia artificial suave (soft) y la inteligencia artificial general (hard). Todas las aplicaciones actuales entran dentro del cajón de la IA suave. La inteligencia artificial general busca conseguir una IA que sea capaz de emular al ser humano en cualquier tarea cognitiva. Esta sería la inteligencia consciente y ahora mismo es ciencia ficción y no hay ni siquiera un plan para llegar a ello. Además, tal y como estamos construyendo la IA, el enfoque no va por ahí.

Aun así, hemos visto sus increíbles aplicaciones. El chat capaz de entrevistar y redactar artículos, incluso me ha sugerido preguntas para esta entrevista. ¿Puede llegar a reemplazar el trabajo de algunas personas?

Si hablamos de sustituir empleos, hay que tener en cuenta que las máquinas lo que hacen es automatizar tareas. En general, la mayor parte de los empleos están compuestos de más de una tarea, con lo cual, si te automatizan una de tus tareas, lo normal es que te permita hacer otras tareas mejor o ampliar tu campo profesional.

Si tu único trabajo es redactar el horóscopo, pues date por despedido. Sin embargo, no puede sustituir a los periodistas de opinión o de otra rama, pero sí que les ayudará a hacer las cosas más rápido. El ChatGPT genera unas entradas para blogs buenísimas, pero sin elaboración propia. Es como si vas a Wikipedia y haces corta y pega. La cuestión es que ha sido entrenado con todo internet y hay muchas tareas que nos parecen muy sofisticadas que ya han sido resueltas antes.

En el caso de los profesores, por poner otro ejemplo, son profesionales que no solo aportan conocimiento. También transmiten valores. Utilizar ChatGPT puede ser una gran metodología de aprendizaje, pero hay muchas otras, como las aulas invertidas. Ya no vale solo mandar copiar apuntes, hay que aportar más. Los buenos profesores son los que aportan su experiencia, los que guían y aportan diferentes visiones…….

Ha habido casos de estudiantes que han usado ChatGPT para sus trabajos y exámenes. ¿Puede que tengamos que cambiar cómo evaluamos el conocimiento, por ejemplo, con menos redacciones y más exámenes orales?

Es difícil de saber cómo va a modificar esto la manera en que adquirimos y trabajamos el conocimiento. No deberíamos dejar de enseñar a hacer buenos ensayos porque ChatGPT sea capaz de hacerlo. Para poder construir un pensamiento crítico es básico poder ser capaces de expresar ideas complejas y relacionarlas. Al modo clásico, juntar retórica y lógica para elaborar un discurso que tenga argumentos potentes y que además sea convincente. Es algo que tenemos que seguir potenciando.

Además, para un profesor es fácil detectar lo que genera el ChatGPT. El alumno tiene una forma personal de expresarse y el chat tiene un estilo demasiado técnico y estandarizado, como la Wikipedia. Sin embargo, me parece muy interesante la amenaza que pone sobre la mesa: ¿nos va a hacer más vagos o nos va a ayudar a ser todavía más capaces? Desde el punto de vista educativo, esto plantea un debate que se tiene que producir.

Y en este tema puede haber una respuesta clara, pero hay preguntas que plantea en otros ámbitos, en los que no hay consensos sociales tan definidos, como en la historia o la filosofía, en los que no hay una respuesta. Hay una reflexión y un consenso que se va modificando.

¿Esta tecnología puede contribuir a generar más desinformación?

 No es difícil trollear al modelo GPT-3. Yo le pregunté: ¿en qué equipo de la NBA va a jugar Mariano Rajoy en la próxima temporada? Me contestó que en los Miami Heats. El mecanismo tan solo genera frases, si no lo has modulado para que ciertas frases no te las genere nunca, el campo es libre. Con ChatGPT se han hecho esfuerzos para que no genere respuestas falsas, pero aun así es fácil encontrártelas. En inglés se distingue entre la desinformación intencionada, (disinformation), y la desinformación involuntaria (misinformation). Las tecnologías como el ChatGPT son máquinas de generar desinformación no intencionada, simplemente por la manera en la que están construidas. Aunque estas herramientas han conseguido bastante reducir ese riesgo, en entornos profesionales donde necesitas respuestas muy concretas no puedes usarlo ni para las cuestiones más básicas a nivel técnico.

Un ejemplo, el otro día le pregunté al chat “cómo se define comer según la RAE”. En la respuesta obtuve una buena definición de comer, con cinco o seis acepciones. Después consulté la RAE y ninguna de las acepciones estaba ahí. Se las había inventado. Es un ejemplo claro de desinformación no intencionada. Los programadores no conocen la RAE y nadie pensó en entrenar al chat sobre definiciones concretas. Lo mismo sucede si le preguntas, “dime el artículo 3 de la Constitución”. El resultado no será correcto.

¿Y si se le hubiera hecho un entrenamiento específico para responder a la Constitución?

Lo haría muy bien, pero no es el caso. Para hacer una aplicación específica para el sector jurídico tienes que poner abogados a simular conversaciones, por ejemplo, sobre el Código Civil.

¿Podríamos llegar de este modo a una inteligencia artificial general?

 El problema está en que eso lo tendrías que hacer con todo el conocimiento que hay en el mundo. Es imposible cubrirlo todo, aunque sea por recursos. Y aunque lo hicieras, tampoco llegarías a tener una inteligencia artificial general en el sentido que hemos hablado de ser consciente. Tendrías muchísimas máquinas muy buenas para resolver tareas muy concretas. Además, la resolución de la tarea tendrá el sesgo de la persona que haya entrenado la inteligencia artificial. Si la tarea es clara y su respuesta es una cuestión fáctica basada en un consenso, va a responder muy bien. Ahora, si en la tarea hay algún tipo de disenso entre la comunidad de lo que tiene que responder y lo entrena solo una parte de esa comunidad, la otra parte estará en desacuerdo con lo que diga la máquina. Tendrá un sesgo.

Por eso, el ChatGPT intenta no entrar en cuestiones polémicas, como el aborto, la inmigración, etc. Ya ha sido entrenado para eso. En estas cuestiones la máquina no puede tener la verdad, porque funciona juntando frases de manera probabilística sin ninguna relación con el significado real. Como mucho, puede aportar la agregación de lo que ha recogido por internet, pero que sea lo que más veces ha aparecido no significa que sea correcto. Es una cuestión epistemológica de quién define lo que es la verdad. Y hay temas en los cuales el consenso no existe, incluso en la ciencia.

“Debemos ser capaces de auditar los datos de los que se nutren los algoritmos”

Conseguir la trazabilidad de todo el sistema de inteligencia artificial, desde el principio hasta el final, es un imperativo para esta catedrática e investigadora de la Universidad de A Coruña, que bregó por llevar la sede de la Agencia Española de Supervisión de IA a la ciudad gallega. Entre las labores de esta organización está, justamente, la supervisión ética de los algoritmos.

Analía Iglesias; 23/1/2023 08:00 CEST. La catedrática de Ciencias de la Computación Amparo Alonso Betanzos es también responsable del nodo IA en la Cidade das TIC de A Coruña. / Xurxo Lobato

Amparo Alonso Betanzos (Vigo, 1961) asume que hoy es difícil pensar en un área de conocimiento en la que no haya implantados sistemas de Inteligencia Artificial (IA). Por ello defiende con vitalidad la iniciativa de la Unión Europea de impulsar una IA centrada en las personas, ética, responsable y con garantías de privacidad, un testigo que recogió el Gobierno español al proponer a España como “campo de pruebas de la puesta en marcha de la regulación europea” (…).

Alonso Betanzos  (…) De ahí que sea una de las personas indicadas para hablar de la propuesta de reglamentación de la UE, basada, según explica, en “niveles de riesgos de sistemas inteligentes”, cada uno de los cuales “tiene aspectos que deberían ser evaluados”. (…) así como en labores de formación y divulgación de la IA responsable y ‘verde’ (más sostenible, con menos consumo de energía)”, (…)

 ¿Cuáles son los desafíos que, en el plano social, se observan prioritarios en los diseños de IA y que tendrá que afrontar la agencia como organismo de certificación? (…….) ¿Qué mejoras de la IA son esperables, teniendo en cuenta los problemas de los sesgos que pueden tener los seres humanos que crean los algoritmos?

En cuanto a mejoras de los algoritmos, ya se está trabajando en aspectos que tienen que ver con las ciencias sociales… En los sistemas de traducción automática, en los asistentes virtuales, y en algoritmos que pueden presentar sesgos en lo que se refiere a grupos sociales, por razones de género, religión o raza, entre otros. Todo eso se está detectando y se trabaja en ello. El apoyo a las ciencias sociales no solo se traduce en que desarrollemos mejores algoritmos desde el punto de vista de la ingeniería, sino también algoritmos buenos desde el punto de vista de las personas. De eso hablamos: de poner a las personas en el centro de los algoritmos.

Para especificar, ¿cuáles serían los principales déficits de esos algoritmos?

Necesitamos algoritmos que se definan con la privacidad por diseño: que no incluyan sesgos que puedan discriminar a personas o que impliquen la violación de sus datos. Entre las labores de la agencia está, justamente, la supervisión ética de esos algoritmos para que esto no suceda.

Desde la propia disciplina se sugiere que los peores sesgos son los inconscientes, desconocidos incluso para la persona que diseña, y también los interseccionales, por las combinaciones que pueden arrojar. ¿Cómo hacer para calcular tales interferencias?

 

Es evidente que hay sistemas de IA muy complejos y que pueden tener muchos sesgos, sobre todo porque la IA está basada en datos y lo que usa son datos del mundo real, que está sesgado, no es un mundo perfecto. En ese sentido, de lo que se trata es de que seamos capaces de auditar los datos que se utilizan para saber si ese conjunto de datos está desbalanceado o no, en base a algún tipo de población, género, raza u otros. Ver si el algoritmo está tratando correctamente todas esas variables. Por eso, otra de las cuestiones que se plantea es la transparencia o, al menos, la auditabilidad de los algoritmos. El poder saber lo que pasa desde el inicio hasta el final. Hay que aclarar que los algoritmos están trabajando en un entorno determinado, no estamos hablando de una IA ancha que tenga que responder a muchos problemas diferentes, por lo que las combinaciones no tienen por qué confluir en el mismo sistema. Por otra parte, para no mantener sesgos que se han dado, históricamente, con respecto a determinadas poblaciones, tienes que trabajar con tu base de datos para que este no sea un sesgo para el futuro.

¿Qué significa que la IA es de ‘nicho estrecho’?

Ahora mismo, esta tecnología funciona con unos niveles de inteligencia muy altos, pero en dominios muy concretos. No tenemos una inteligencia artificial que sea ancha, que se ocupe de resolver un conjunto de temas variados. Por ejemplo, si uno tiene una IA para ayudar a que recursos humanos resuelva cómo proponer a la persona más idónea para un puesto concreto, esto no significa que el mismo sistema sea capaz, a la vez, de recomendar un mejor plan nutricional para alguien.

No hay un único sistema para varias cosas: tenemos sistemas inteligentes en dominios concretos. Si uno quiere que esa inteligencia artificial se entrene en otro dominio tiene siempre que empezar desde el principio. Es decir, si un sistema está jugando al ajedrez y quieres que juegue a las damas tienes que entrenarlo desde cero en ese juego. A propósito, estamos trabajando en algo que se llama ‘transferencia de aprendizaje’, pero es un dominio con el que estamos empezando…….

Acerca de la robustez de los algoritmos ¿qué capacidades únicas, inimitables, tiene lo humano?

 La inteligencia humana es de amplio espectro. Las personas somos capaces de tratar un número importante de problemas a un nivel alto. No necesitamos un reentrenamiento de tareas que la inteligencia artificial sí necesita. Por ejemplo, en la medicina, un sistema de IA tiene niveles de precisión más altos que las personas en dominios concretos, como puede ser la detección del cáncer de mama, pero si lo comparamos con la medicina general, los humanos son mejores especialistas, porque es un campo mucho más amplio (…) Es evidente que esta tecnología va a haber trabajos que van a desaparecer, y que ni siquiera son derivados de la IA —lo vemos cuando vamos a la caja del supermercado o pagamos el peaje, porque esto lo pueden hacer las máquinas—.

Se trata de crear una simbiosis, que las tareas que las máquinas hacen mejor las hagan se automaticen y que las que hacen mejor las personas las sigan haciendo ellas. En este sentido, imagine cómo ha evolucionado la medicina y, sin embargo, el médico no ha desaparecido, pero cada vez tiene mayor asistencia de métodos de diagnóstico con los que interactúa. Hombre y máquina, trabajando juntos, cometen menos errores que por separado (….)

Derechos: Creative Commons

La expresión inteligencia artificial es la palabra del año según la FundéuRAE

de Resúmenes escritos por científicos engañosos ChatGPT

Los investigadores no siempre pueden diferenciar entre resúmenes generados por IA y originales. Holly Else

A los científicos y especialistas en publicaciones les preocupa que la creciente sofisticación de los chatbots pueda socavar la integridad y precisión de la investigación.

Un chatbot de inteligencia artificial (IA) puede escribir resúmenes de trabajos de investigación falsos tan convincentes que los científicos a menudo no pueden detectarlos, según una preimpresión publicada en el servidor bioRxiv a fines de diciembre.1. Los investigadores están divididos sobre las implicaciones para la ciencia.

«Estoy muy preocupada«, dice Sandra Wachter, que estudia tecnología y regulación en la Universidad de Oxford, Reino Unido, y no participó en la investigación. «Si ahora estamos en una situación en la que los expertos no pueden determinar qué es cierto o no, perdemos al intermediario que necesitamos desesperadamente para guiarnos a través de temas complicados«, agrega.

El chatbot, ChatGPT, crea texto realista e inteligente en respuesta a las indicaciones del usuario. Es un «modelo de lenguaje grande«, un sistema basado en redes neuronales que aprenden a realizar una tarea digiriendo enormes cantidades de texto generado por humanos existentes. La compañía de software OpenAI, con sede en San Francisco, California, lanzó la herramienta el 30 de noviembre, y es de uso gratuito.

Desde su lanzamiento, los investigadores han estado lidiando con los problemas éticos que rodean su uso, porque gran parte de su producción puede ser difícil de distinguir del texto escrito por humanos. Científicos han publicado un preprint2 y un editorial3 escrito por ChatGPT. Ahora, un grupo dirigido por Catherine Gao en la Universidad Northwestern en Chicago, Illinois, ha utilizado ChatGPT para generar resúmenes artificiales de trabajos de investigación para probar si los científicos pueden detectarlos.

Los investigadores pidieron al chatbot que escribiera 50 resúmenes de investigación médica basados en una selección publicada en JAMA, The New England Journal of Medicine, The BMJ, The Lancet y Nature Medicine. Luego los compararon con los resúmenes originales pasándolos por un detector de plagio y un detector de salida de IA, y pidieron a un grupo de investigadores médicos que detectaran los resúmenes fabricados (….)

“Si los datos con los que se entrena la inteligencia artificial están sesgados, los resultados también lo estarán”

 Los programas informáticos que realizan operaciones comparables a las de la mente humana, como el aprendizaje o el razonamiento lógico, a menudo reflejan los errores y prejuicios que introducen sus creadores (…)

Herramientas como ChatGPT amenazan la ciencia transparente Aquí están nuestras reglas básicas para su uso

 Por qué la vigilancia de la IA en el trabajo conduce a resultados perversos

¿Será una IA la primera en descubrir vida extraterrestre?

La percepción de la realidad: Kant y los algoritmos CARMEN VALLEJO; 6 ENERO 2023

En mi opinión, una parte de nuestra sociedad del siglo XXI observa deslumbrada las posibilidades de los algoritmos y la IA, pero al mismo tiempo se siente desconcertada ante el futuro. Como se indica en otro panel Una mirada al futuro de la citada Exposición: “…Los algoritmos pueden ayudarnos a curar enfermedades, descubrir nuevos fármacos y materiales, reducir los accidentes en carretera o aportar soluciones que hagan frente a las grandes crisis que afrontamos. Sin embargo, también contienen el potencial para generar una sociedad dominada exclusivamente por la lógica, en la que el ser humano quede desplazado y a merced únicamente de la eficiencia y la productividad…”.

 La causalidad, la cuenta pendiente de la Inteligencia Artificial

IBM y la NASA colaboran para investigar el impacto del cambio climático con IA

 Los robots humanoides ocuparán un lugar central en la reunión de la ONU sobre IA

 ChatGPT: las promesas, las trampas y el pánico

 Cómo la ciencia ficción predijo los recientes desarrollos de alta tecnología en química

de Resúmenes escritos por científicos engañosos ChatGPT

ChatGPT es una máquina de desinformación

Las falacias del encantamiento con la inteligencia artificial de ChatGPT

La IA infundió todo lo que se mostró en la extravagancia de gadgets del CES

 Detección de emociones en el habla mediante inteligencia artificial

 La interacción virtual nos hace menos creativos

 Robots persuasivos: ¿puede una máquina influir en nuestro comportamiento?

 Basado en hechos reales. Mitologías mediáticas e imaginario digital

 Nuevos algoritmos vigilan el buen comportamiento de la inteligencia artificial

 Una crítica a la inteligencia artificial más allá de los sesgos

Las herramientas de escritura de IA podrían entregar a los científicos el regalo del tiempo

 ChatGPT: cinco prioridades para la investigación     03 febrero 2023

La IA conversacional es un cambio de juego para la ciencia. A continuación, le indicamos cómo responder (….) ChatGPT y otros LLM producen texto que es convincente, pero a menudo incorrecto, por lo que su uso puede distorsionar los hechos científicos y difundir información errónea. Creemos que el uso de esta tecnología es inevitable, por lo tanto, prohibirla no funcionará. Es imperativo que la comunidad investigadora participe en un debate sobre las implicaciones de esta tecnología potencialmente disruptiva. Aquí, esbozamos cinco cuestiones clave y sugerimos por dónde empezar (….) Pero es probable que el uso de la IA conversacional para la investigación especializada introduzca imprecisiones, sesgos y plagio. Presentamos a ChatGPT una serie de preguntas y tareas que requerían una comprensión profunda de la literatura y descubrimos que a menudo generaba texto falso y engañoso. Por ejemplo (…) Los investigadores que usan ChatGPT corren el riesgo de ser engañados por información falsa o sesgada, e incorporarla en sus pensamientos y documentos. Los revisores desatentos podrían ser engañados para aceptar un artículo escrito por IA por su hermosa y autorizada prosa debido al efecto halo, una tendencia a generalizar demasiado a partir de unas pocas impresiones positivas sobresalientes.7. Y, debido a que esta tecnología generalmente reproduce texto sin citar de manera confiable las fuentes o autores originales, los investigadores que la usan corren el riesgo de no dar crédito a trabajos anteriores, plagiar involuntariamente una multitud de textos desconocidos y tal vez incluso revelar sus propias ideas. La información que los investigadores revelan a ChatGPT y otros LLM podría incorporarse al modelo, que el chatbot podría servir a otros sin reconocer la fuente original.

Qué significan ChatGPT y la IA generativa para la ciencia

Los investigadores están entusiasmados pero preocupados por los últimos avances en inteligencia artificial

ChatGPT: ética e inteligencia (sin conciencia)

Una de las principales preocupaciones éticas con el uso de modelos de lenguaje para el trabajo académico es el problema del plagio. Al utilizar un modelo para generar texto, se vuelve mucho más fácil para las personas presentar el trabajo de otros como propio

«El mundo se dividirá entre quien se va a poder permitir tratar con un humano y quien no»: la inteligencia artificial, a debate

Redacción

Cadena SER10/02/2023 – 14:34 h CET

Madrid

Chat GPT está revolucionando internet. Es un programa que está cambiando —o ya lo ha hecho— nuestra manera de relacionarnos con las inteligencias artificiales y es el vivo ejemplo de cómo la tecnología creada por humanos empieza a superarnos. Hora 25 debate con expertos sobre las oportunidades que genera pero también de los vacíos legales que provoca y cómo está reaccionando, por ejemplo, el mundo de la docencia ante estos cambios.

En la Educación: ¿sí o no?

Arán Oliveras estudia en un instituto de Girona Bachillerato Internacional y utiliza Chat GPT a diario: «Lo uso tanto para entretenimiento como para el instituto, para responderme dudas. Por ejemplo, estás en clase y te surgen dudas y así no tienes que cortar al profe», cuenta. Sabe que la herramienta «muchas veces se equivoca y tienes que contrastar lo que dice» y confiesa que ha hecho trabajos con inteligencia artificial pero que nunca los ha llegado a entregar. Ese es uno de los muchos miedos que tiene la comunidad educativa respecto a chat GTP: que la máquina comience a hacer los trabajos con tanta perfección que sean indistinguibles a los hechos por un humano.

Hace unos días, el diario El País pidió a algunos profesores de Aragón que corrigieran el examen de Historia de la EVAU que había hecho el chat GPT: «El lenguaje era muy correcto, muy formal, no había faltas de ortografía, muy directo… pero le faltaban matices sobre todo cuando había que generar un texto y relacionarlo con la historia», explica Iván Heredia y coincide su compañera Susana Lozano. Ambos profesores creen que esta herramienta «viene muy bien como un toque de atención para abordar la reforma educativa de verdad y cambiar nuestro trabajo y dejar de pedir el típico resumen de un libro».

María del Mar Sánchez es profesora titular de la Facultad de Educación de la Universidad de Murcia y miembro del Grupo de Investigación de Tecnología Educativa. Hace tiempo se dio cuenta del «potencial de la herramienta para el aula». Recuerda que ya había temor de plagio con Wikipedia y también apuesta por un cambio en la educación y en vez de dar clases basadas «en un producto» cree que se debería dedicar más tiempo «a leer allí, a construir, a debatir en el aula…».

Los peligros de ChatGPT: «Es capaz de generar un correo electrónico que te contamine o robe datos»

La abogada y experta en nuevas tecnologías Paloma Llaneza también cree que estas herramientas «cuestionan la manera en la que hemos hecho las cosas» y recuerda que cada vez que hay un avance surgen las preguntas de cómo regularlo: «Yo creo que regular un sistema en el que no vas a poder tener un sistema punitivo detrás es una ridiculez. El día que te pongas a prohibir algo, que tenga sentido. Si no puedes llevarlo a efecto, para qué. Si tu profesor sospecha que has hecho el proyecto fin de grado con Chat GPT, ¡que lo pruebe!»

De momento en España no hay mucha prisa por legislar. Las consejerías de Educación están a la expectativa de las posibilidades. En Madrid están analizando la herramienta a través de la formación de los profesores y Cataluña no es partidaria de prohibirla sino de que cada centro decida si la utiliza o no. Un centro concertado en Barcelona, por ejemplo, está usando la herramienta dentro de un proyecto que se llama ¿Qué nos hace humanos?

También se equivoca

Chat GTP no es infalible. La máquina no piensa como los humanos y todavía podemos hasta liarla. El director de Social Business Analytics en el Instituto de Ingeniería del Conocimiento, Pablo Haya, asegura que «su principal fallo viene de su principal potencia» y recuerda que «son modelos entrenados con millones y millones de textos que desarrollan algoritmos que predicen la siguiente palabra que tiene que poner». Cuando sistema detecta que ha dicho algo erróneo, borra la respuesta y el especialista en tecnología en CadenaSER.com, David Justo, explica que la herramienta se ha desarrollado antes de 2021 y a partir de este año «no sabe nada». Además, le ha pillado en más de un error grave en este tiempo, «sobre todo, los fallos a nivel matemático».

Pablo Haya aclara que además «depende de como pongas el texto, puede que te dé distintas respuestas» y está convencido de que entrenar a los humanos para tener las mejores respuestas se convertirá en una profesión en el futuro.

Chat GPT: cinco usos de la inteligencia artificial del momento que te pueden resultar muy útiles en tu día a día

Cómo cambiará nuestra vida

No solo hay miedo a que la inteligencia artificial haga un trabajo escolar a un alumno: el verdadero terror es que pueda suplantar a los empleados en determinados sectores: «Yo, como abogada, he estado haciendo consultas y el sistema legal americano lo clava. Las profesiones que dependen mucho de texto se van a la porra», sentencia. La doctora en Ciencias de la Computación y divulgadora de inteligencia artificial Nerea Luis Mingueza no ve descabellado que la inteligencia artificial pueda argumentar una sentencia en el futuro: «No están hechos para razonar pero se requiere que toda esta tecnología se mejore y se oriente para que cumpla con la tarea de argumentación. Si le entrenas con textos legales jurídicos, se disparan las posibilidades de que pueda hacerlo».

El privilegio de tratar con un humano

La abogada Paloma Llaneza cree que estas tecnologías nos llevan hacia una sociedad dividida en dos: «La gente que se va a poder permitir tratar con un ser humano y la que no». Considera que habrá que establecer en qué condiciones tenemos derecho a tratar con un ser humano y lamenta que en «los bancos no se ha ganado esa batalla» y todavía sea difícil acceder a un empleado que no te remita a la web. David Justo cuenta que en EEUU la inteligencia artificial ya es capaz de pedir cita en el peluquero por ti.

Google responde a la amenaza de ChatGPT anunciando Bard, su nueva inteligencia artificial conversacional

Sus efectos nocivos

Pese a lo que se muestra en las películas de ciencia ficción, la inteligencia artificial no tiene por qué volverse en nuestra contra pero sí conviene conocer bien cómo funciona para saber sus carencias. «Las tecnologías lo que hacen es que permean la sociedad aprovechándose de nuestros huecos, nuestra comodidad y nuestra necesidad de estar conectados», apunta Paloma Llaneza.

La doctora Nerea Luis Mingueza considera que es un acierto que desde Europa se esté plantando regular la inteligencia artificial con especificidades en determinados sectores y Pablo Haya destaca que, igual que aporta mucha información, «se puede generar desinformación de manera bastante sencilla». David Justo recuerda que «está para apoyarnos, tanto si queremos ser buenos como si no: lo mismo nos hará una dieta saludable o malware».

Hora 25

Ciencia y tecnología

No más Zuckerbergs Se buscan científicos para crear empresas deep tech

Los chatbots de IA están llegando a los motores de búsqueda, ¿puedes confiar en los resultados?

Una inteligencia artificial pilota un caza de combate por primera vez en la historia

Por qué la inteligencia artificial necesita entender las consecuencias

Una máquina con una comprensión de causa y efecto podría aprender más como un humano, a través de la imaginación y el arrepentimiento

Compartir:

7 comentarios

  1. Un muy buen artículo hasta ahora. Gracias por compartir. Me gustaría ser parte de eso. Básicamente, trabajé como escritor. Tengo casi 4 años de experiencia en este campo. ¿Crees que me puede ayudar? Puedes consultar aquí lo que hago. Simplemente haga clic en este sitio ¡Que tengas un muy buen día!

  2. NO se llego a la inteligencia artificial simplemente a programadores sin trabajo que simplemente estan creando programas eficientes con datos ya conocidos por ejemplo no saben la penuria del 2030 por falta de datos e inteligencia

  3. Es fascinante cómo el artículo explora la posibilidad de que los océanos subterráneos en lunas como Europa y Encélado puedan albergar formas de vida. La existencia de agua líquida bajo la superficie de estos cuerpos celestes sugiere que podrían tener las condiciones necesarias para la vida.
    ¿Qué opinas sobre la exploración de estas lunas en busca de vida? ¿Crees que encontraremos organismos vivos en estos océanos subterráneos?
    Thank you

Deja un comentario