Creatividad Humana, Pensamiento Crítico versus Inteligencia Artificial (y Los Científicos…)
Fuente: Colaje Imágenes Google
Soy muy consciente de que he redactado demasiados posts acerca de la Inteligencia Artificial de lenguaje natural. ¡Lo siento mucho!, y seguro que así pierdo lectores. Sin embargo, el aluvión de noticias sobre este tema es abrumador. Del mismo modo, siempre he defendido que la ciencia, como otras facetas de la cultura humana, debe consolidarse fomentando el pensamiento crítico de sus practicantes. Y, obviamente, cuando leo noticias, como la primera que os expongo hoy me pongo templar. “El aumento del uso de la IA está relacionado con la erosión de las habilidades de pensamiento crítico ”, Como científico también me aterra parte del contenido de esta otra noticias “La IA amplía el impacto de los científicos, pero contrae el enfoque de la ciencia”, en la cual puede leerse:
“Analizando 67,9 millones de artículos de investigación en seis campos principales utilizando un modelo de lenguaje validado (F1 = 0,876), exploramos el impacto de la IA en la ciencia. Los científicos que adoptan herramientas de IA publican un 67,37% más de artículos, reciben 3,16 veces más citas y se convierten en líderes de equipo 4 años antes que los que no los adoptan. Este éxito individual se correlaciona con la preocupación por los efectos colectivos: la investigación aumentada por IA reduce el diámetro de los temas científicos estudiados y disminuye el compromiso científico de seguimiento. En lugar de catalizar la exploración de nuevos campos, la IA acelera el trabajo en dominios establecidos y ricos en datos. Este patrón sugiere que, si bien la IA mejora la productividad científica individual, puede reducir simultáneamente la diversidad científica y el compromiso amplio, lo que pone de relieve una tensión entre el avance personal y el progreso científico colectivo”.
El pensamiento crítico se fomenta mediante el aprendizaje, el conocimiento, trabajando nuestras mentes sin descanso, y el atrevimiento a zambullirse en lo desconocido. Más o menos, como en otros ámbitos, incluidos el deporte, una persona puede tener cualidades innatas, empero para triunfar, el entrenamiento dictará sentencia de hasta qué punto puede explotarlas con vistas alcanzar el éxito. De un modo, u otro todos somos, algo o bastante perezosos, y si se nos regalan muchos datos y una bola de cristal que nos proporciona un resultado al presionar un botoncito, para obtener unos resultados, nos sentimos tentados, y ¡zas!: “Publicación al canto”, como se ha constatado en el párrafo anterior.
Existe, como ya hemos reiterado, una tormenta de ideas, acerca de los pros y los contras de la IA de lenguaje natural. En muchas ocasiones se me antoja una batalla campal. No resulta muy sensato para nadie. Y con esta serie de posts también formo ya parte de tal cambalache. ¡Lo lamento de nuevo! Sin embargo, al margen de otros problemas de la IA LLM, como los gigantescos gastos energéticos, pérdida de privacidad e invasión de la intimidad de la que las multinacionales tecnológicas obtienen inmensos beneficios y, además nos cobran dinero, entre otros muchos asuntos, existen algunos aspectos que no alcanzo a entrever como no despiertan una enorme preocupación. Por mucha bola de cristal que se utilice, la cruda realidad ineludible hoy en día deviene en que las predicciones que ofrece no son comprensibles, dado que los algoritmos que utiliza no son descifrables. Y esto, sencilla y llanamente no puede calificarse de ciencia. El denostar a los adivinadores tradicionales y luego utilizar esas bolas de cristal tecnocientíficas, se me antoja la antología del disparate. Y las predicciones pueden cumplirse o no. Ya veremos en el futuro que en la mayoría de los casos no (si es así, se trata de ciencia refutada), como siempre ocurre con los modelitos.
No me extraña, por tanto, en absoluto, la primera noticia que os ofrecemos hoy. Sin embargo, como vemos en la segunda nota de prensa que la sigue, nos informa que las publicaciones científicas que hacen uso de la IA LLM, sean más leídas y citadas que las restantes, lo cual me hace sentir incomprensión y más aún, nauseas. Se trata de un elogio a la tontuna colectica de la comunidad científica.
Cuando leo que muchos docentes se encuentran entusiasmados con esta nueva “herramienta” de destrucción neuronal, ya no sé qué pensar. Para terminar, me ha generado una voraz confusión leer esta última: “Los investigadores encuentran la clave del poder de aprendizaje de la IA: un tipo especial de navaja de afeitar de Occam” Siempre he apreciado el mensaje que lleva implícita “la Navaja de Ockham” lanzada en el medievo, aunque…. Empero hoy paro aquí, tenéis abundante material para reflexionar sin IA LLM.
Juan José Ibáñez
Continúa………
El aumento del uso de la IA está relacionado con la erosión de las habilidades de pensamiento crítico
por Justin Jackson, Phys.org
Un estudio realizado por Michael Gerlich en SBS Swiss Business School ha descubierto que una mayor dependencia de las herramientas de inteligencia artificial (IA) está relacionada con una disminución de las capacidades de pensamiento crítico. Apunta a la descarga cognitiva como uno de los principales impulsores del declive.
La influencia de la IA está creciendo rápidamente. Una búsqueda rápida de historias científicas relacionadas con la IA revela lo fundamental que se ha convertido en una herramienta. Miles de herramientas de análisis y toma de decisiones asistidas, respaldadas por IA e impulsadas por IA ayudan a los científicos a mejorar sus investigaciones.
La IA también se ha integrado más en las actividades diarias, desde los asistentes virtuales hasta la información compleja y el apoyo a la toma de decisiones. El aumento del uso está comenzando a influir en la forma de pensar de las personas, especialmente entre los más jóvenes, que son ávidos usuarios de la tecnología en sus vidas personales.
Un aspecto atractivo de las herramientas de IA es la descarga cognitiva, en la que las personas confían en las herramientas para reducir el esfuerzo mental. Dado que la tecnología es muy nueva y se está adoptando rápidamente de formas imprevisibles, surgen preguntas sobre sus posibles impactos a largo plazo en funciones cognitivas como la memoria, la atención y la resolución de problemas en períodos prolongados o en el volumen de descarga cognitiva que se está produciendo.
En el estudio «Herramientas de IA en la sociedad: impactos en la descarga cognitiva y el futuro del pensamiento crítico», publicado en Societies, Gerlich investiga si el uso de herramientas de IA se correlaciona con las puntuaciones de pensamiento crítico y explora cómo la descarga cognitiva media esta relación.
Se utilizó una combinación de encuestas cuantitativas y entrevistas cualitativas con 666 participantes en el Reino Unido. Se distribuyeron en tres grupos de edad (17-25, 26-45, 46 años y más) y tenían diferentes antecedentes educativos.
La recopilación de datos cuantitativos incluyó un cuestionario de 23 ítems que midió el uso de herramientas de IA, las tendencias de descarga cognitiva y las habilidades de pensamiento crítico, utilizando escalas como la Evaluación de Pensamiento Crítico de Halpern (HCTA). Los análisis de ANOVA, correlación, regresión múltiple y regresión de bosque aleatorio proporcionaron información estadística. Los datos cualitativos de las entrevistas semiestructuradas con 50 participantes se sometieron a un análisis temático para determinar la profundidad contextual.
Los análisis estadísticos demostraron una correlación negativa significativa entre el uso de herramientas de IA y las puntuaciones de pensamiento crítico (r = -0,68, p < 0,001). Los usuarios frecuentes de IA mostraron una capacidad disminuida para evaluar críticamente la información y participar en la resolución reflexiva de problemas.
La descarga cognitiva se correlacionó fuertemente con el uso de herramientas de IA (r = +0,72) e inversamente relacionada con el pensamiento crítico (r = -0,75). El análisis de mediación reveló que la descarga cognitiva explica en parte la relación negativa entre la dependencia de la IA y el rendimiento del pensamiento crítico.
Los participantes más jóvenes (de 17 a 25 años) mostraron una mayor dependencia de las herramientas de IA y puntuaciones más bajas de pensamiento crítico en comparación con los grupos de mayor edad. Los logros educativos avanzados se correlacionaron positivamente con las habilidades de pensamiento crítico, lo que sugiere que la educación mitiga algunos impactos cognitivos de la dependencia de la IA.
Regresión aleatoria del bosque (R2 = 0,37) y los análisis de regresión múltiple destacaron rendimientos decrecientes en el pensamiento crítico con el aumento del uso de la IA, enfatizando un umbral más allá del cual el compromiso cognitivo disminuye significativamente.
De las entrevistas cualitativas emergieron tres temas. Muchos participantes reconocieron una gran dependencia de la IA para tareas como la memoria y la toma de decisiones, y los usuarios más jóvenes se vieron especialmente afectados. Los encuestados expresaron su preocupación por la pérdida de habilidades de pensamiento crítico debido al uso habitual de herramientas de IA. Con frecuencia se mencionaron cuestiones como el sesgo algorítmico y la falta de transparencia en las recomendaciones de IA.
Los hallazgos del estudio, si se replican, podrían tener implicaciones significativas para la política educativa y la integración de la IA en entornos profesionales. Es posible que las escuelas y universidades quieran enfatizar los ejercicios de pensamiento crítico y el desarrollo de habilidades metacognitivas para contrarrestar la dependencia de la IA y los efectos cognitivos.
Los desarrolladores de sistemas de IA podrían considerar las implicaciones cognitivas, asegurándose de que sus herramientas fomenten un nivel de participación en lugar de una dependencia pasiva. Es posible que los responsables de la formulación de políticas deban apoyar programas de alfabetización digital, advirtiendo a las personas que evalúen críticamente los resultados de la IA y equipándolos para navegar por los entornos tecnológicos de manera efectiva.
No está claro qué tan probable será que se apliquen o adopten estas contramedidas. Lo que está quedando claro es la naturaleza de doble filo de la IA, donde las herramientas mejoran la eficiencia de las tareas, pero plantean riesgos para el desarrollo cognitivo a través de una descarga cognitiva excesiva.
Por otro lado, en opinión del siempre escéptico escritor de este artículo (y el primero en la fila para ser reemplazado profesionalmente por nuestros futuros señores robots), podríamos estar entrando en una etapa del desarrollo humano en la que las habilidades de pensamiento crítico del pasado ya no son las que usamos en el futuro.
Si la supervivencia en un entorno impulsado por la tecnología no requiere las habilidades clásicas del razonamiento humano, es probable que esas habilidades no sobrevivan, desvaneciéndose como la letra cursiva escrita a mano, las matemáticas sin calculadoras, los mensajes de texto sin autocorrección y los libros sin audio.
A medida que la IA se vuelve más integral en la vida diaria, encontrar un equilibrio entre aprovechar sus beneficios y mantener las habilidades de pensamiento crítico solo será crucial mientras conserven su valor.
La IA aún está en pañales. Las herramientas que revolucionan la investigación e influyen en la toma de decisiones están solo en un modo de prueba beta de lo que está por venir. Si la IA llega a una etapa en la que ofrece resultados consistentemente mejores que el pensamiento crítico humano, ¿cuál será la objeción?
¿Nos opondremos cuando la IA descubra un cáncer que un médico no pudo, o cure enfermedades que los investigadores no pudieron? ¿Cuándo la IA crea métodos para hacer que los productos de consumo, los alimentos, el aire y el agua sean más seguros? ¿Cuando descubre una nueva forma de generación de energía, revierte el calentamiento global y encuentra vida en un planeta lejano? ¿Cuándo se asegura de que un embalse no quede vacío antes de un incendio forestal? En estos escenarios, es difícil ver una objeción basada en la falta de aportes humanos.
En algún punto de inflexión futuro, la necesidad de un pensamiento crítico derivado del ser humano podría disminuir más rápido que los efectos del deterioro cognitivo del uso de la IA como herramienta. Es posible que continúe en algunas profesiones que necesitarán mantenerlo al principio, tal vez con plomeros y electricistas y otros escenarios de trabajo físico combinados con habilidades para resolver problemas.
Eventualmente, se desarrollarán sistemas que ya no requieran estas habilidades, y el tiempo de los humanos como líderes de pensamiento crítico en el planeta habrá terminado. Si bien esto puede parecer aterrador al principio, con las alucinaciones de la IA y los algoritmos controlados por manos invisibles, el mundo que emerge al otro lado de confiar en el pensamiento humano bien razonado puede parecerse sorprendentemente al que hemos estado viviendo durante siglos.
Más información: Michael Gerlich, Herramientas de IA en la sociedad: impactos en la descarga cognitiva y el futuro del pensamiento crítico, Sociedades (2025). DOI: 10.3390/so
Este es el verdadero impacto de las nuevas herramientas de IA
Proliferan los científicos «precoces» en los inicios de su carrera con un alto número de citas
Preguntas y respuestas: El impacto climático de la IA generativa
ChatGPT está transformando la revisión por pares: ¿cómo podemos usarla de manera responsable?
¿Las enormes demandas energéticas de la IA impulsarán un renacimiento nuclear?
La IA amplía el impacto de los científicos, pero contrae el enfoque de la ciencia
El rápido auge de la IA en la ciencia presenta una paradoja. Analizando 67,9 millones de artículos de investigación en seis campos principales utilizando un modelo de lenguaje validado (F1 = 0,876), exploramos el impacto de la IA en la ciencia. Los científicos que adoptan herramientas de IA publican un 67,37% más de artículos, reciben 3,16 veces más citas y se convierten en líderes de equipo 4 años antes que los que no los adoptan. Este éxito individual se correlaciona con la preocupación por los efectos colectivos: la investigación aumentada por IA reduce el diámetro de los temas científicos estudiados y disminuye el compromiso científico de seguimiento. En lugar de catalizar la exploración de nuevos campos, la IA acelera el trabajo en dominios establecidos y ricos en datos. Este patrón sugiere que, si bien la IA mejora la productividad científica individual, puede reducir simultáneamente la diversidad científica y el compromiso amplio, lo que pone de relieve una tensión entre el avance personal y el progreso científico colectivo.
Sumergirse en el anillo de la oscuridad más allá de las cosas fáciles de responder, haciendo preguntas de «¿Por qué?» es lo que hace que los humanos sean increíbles.
Los investigadores encuentran la clave del poder de aprendizaje de la IA: un tipo especial de navaja de afeitar de Occam
Un estudio de la Universidad de Oxford ha descubierto por qué las redes neuronales profundas (DNN) que impulsan la inteligencia artificial moderna son tan efectivas para aprender de los datos.
Los hallazgos demuestran que las DNN tienen una «navaja de Occam» incorporada, lo que significa que cuando se les presentan múltiples soluciones que se ajustan a los datos de entrenamiento, tienden a favorecer aquellas que son más simples. Lo especial de esta versión de la navaja de Occam es que el sesgo anula exactamente el crecimiento exponencial del número de posibles soluciones con complejidad.
El estudio se publicó el 14 de enero en Nature Communications.
Con el fin de hacer buenas predicciones sobre datos nuevos e invisibles, incluso cuando hay millones o incluso miles de millones de parámetros más que puntos de datos de entrenamiento, los investigadores plantearon la hipótesis de que las DNN necesitarían una especie de «guía incorporada» para ayudarlas a elegir los patrones correctos en los que centrarse.
«Si bien sabíamos que la efectividad de las DNN se basa en algún tipo de sesgo inductivo hacia la simplicidad, una especie de navaja de Occam, hay muchas versiones de la navaja. La naturaleza precisa de la navaja utilizada por las DNN sigue siendo difícil de alcanzar«, dijo el físico teórico, el profesor Ard Louis (Departamento de Física de la Universidad de Oxford), quien dirigió el estudio.
La navaja de Ockham (a veces escrito Occam u Ockam), principio de economía o principio de parsimonia (lex parsimoniae) es un principio filosófico y metodológico atribuido al fraile franciscano, filósofo y lógico escolástico Guillermo de Ockham (1285-1347) (aunque investigaciones más profundas sugieren que éste se puede rastrear más atrás, al menos hasta Aristóteles),1234 según el cual «en igualdad de condiciones, la explicación más simple suele ser la más probable». Esto implica que, cuando dos teorías en igualdad de condiciones tienen las mismas consecuencias, la teoría más simple tiene más probabilidades de ser correcta que la compleja.5
En ciencia, este principio se utiliza como una regla general para guiar a los científicos en el desarrollo de modelos teóricos. En el método científico, la navaja de Ockham no se considera un principio irrefutable y ciertamente no es un resultado científico. «La explicación más simple y suficiente es la más probable, mas no necesariamente la verdadera», según el principio de Ockham. En ciertas ocasiones, la opción compleja puede ser la correcta. Su sentido es que en condiciones idénticas se prefieran las teorías más simples. Otra cuestión diferente serán las evidencias que apoyen la teoría. Así pues, de acuerdo con este principio, no debería preferirse una teoría simple pero con pocas evidencias sobre una teoría compleja pero con mayores pruebas.
Lo que ha de tenerse en cuenta para medir la simplicidad, sin embargo, es una cuestión ambigua.5 Quizás la propuesta más conocida sea la que sugirió el mismo Ockham: cuando dos teorías tienen las mismas consecuencias, debe preferirse la teoría que postule la menor cantidad de (tipos de) entidades.6 Otra manera de medir la simplicidad, sin embargo, podría ser por el número de axiomas de la teoría.5
Este principio emergente ayuda a las DNN a funcionar bien cuando los datos siguen patrones simples. Sin embargo, cuando los datos son más complejos y no se ajustan a patrones simples, las DNN no funcionan tan bien, a veces no mejor que las conjeturas aleatorias.
Algunos posts previos sobre esta materia
Inteligencia Artificial A Gritos en la Oscuridad (atrapados y sin salida)
- Juan José Ibáñez
- 23 junio 2023
IA y Tecnociencia (Inteligencia Artificial)
Fuente: Colaje imágenes Google El Contenido del post que os mostramos hoy, con gran cantidad de información acerca del debate sobre la IA, fue redactado hace seis semanas. Hemos esperado desde entonces con vistas a añadir más y más información.…
- Juan José Ibáñez
- 24 mayo 2023
- Juan José Ibáñez
- 7 febrero 2023
Las Raíces y su exploración con drones mediante IA (Inteligencia Artificial)
- Juan José Ibáñez
- 20 septiembre 2021
- Curso Básico sobre Filosofía de la Tecnociencia, Curso Básico Sobre Filosofía y Sociología de la Ciencia, Edafología y Política, Filosofía, Historia y Sociología de la Edafología
Convulsión en la Academia: fraude, mala praxis y gremialismo profesional
- Juan José Ibáñez
- 18 octubre 2024
Tecnociencia y su futuro Distópico: La decreciente creatividad en la era de la disruptividad
- Juan José Ibáñez
- 15 mayo 2024
- Juan José Ibáñez
- 27 noviembre 2023
El Tsunami de la IA: ¿Que nos dice de la sociedad actual?
Bullshit: Sobre la charlatanería de la IA, datos, cifras y tecnociencia.
- Juan José Ibáñez
- 19 diciembre 2022
La Inteligencia Tecnológica (Un debate Muy Poco Inteligente)
- Juan José Ibáñez
- 6 agosto 2011
La ciencia, por su propia naturaleza, no puede realizar profecías. En el mejor de los casos da lugar a predicciones, que pueden cumplirse o no. Sin embargo, muchos de sus actores si lo hacen. ¿Qué valor tienen las mismas? ¡Ninguno!…
- Juan José Ibáñez
- 27 septiembre 2009
Ciencia y Ética: La Ética de los Científicos y la Ética de la Ciencia
- Juan José Ibáñez
- 27 junio 2009